เรื่องเล่าจากสนามโอลิมปิกคณิตศาสตร์: เมื่อ AI ได้เหรียญทองในสนามมนุษย์
IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา:
- พีชคณิต (Algebra)
- ทฤษฎีจำนวน (Number Theory)
- เรขาคณิต (Geometry)
- คอมบิเนอริกส์ (Combinatorics)
ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์
สิ่งที่น่าทึ่งคือ:
- ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน)
- ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน
- ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา
- ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้
เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น:
- Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ
- Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน
- Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO
Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง
แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง
เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ
ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ
ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน
ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end
Gemini Deep Think ทำงานแบบ natural language ทั้งหมด
ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที
ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน
เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด
ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน
ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์
จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra
เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง
การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง
หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด
การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์
เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน
การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO
ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง
การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน
ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ
https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา:
- พีชคณิต (Algebra)
- ทฤษฎีจำนวน (Number Theory)
- เรขาคณิต (Geometry)
- คอมบิเนอริกส์ (Combinatorics)
ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์
สิ่งที่น่าทึ่งคือ:
- ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน)
- ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน
- ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา
- ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้
เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น:
- Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ
- Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน
- Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO
Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง
แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง
เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ
ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ
ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน
ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end
Gemini Deep Think ทำงานแบบ natural language ทั้งหมด
ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที
ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน
เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด
ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน
ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์
จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra
เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง
การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง
หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด
การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์
เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน
การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO
ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง
การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน
ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ
https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
🎙️ เรื่องเล่าจากสนามโอลิมปิกคณิตศาสตร์: เมื่อ AI ได้เหรียญทองในสนามมนุษย์
IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา:
- พีชคณิต (Algebra)
- ทฤษฎีจำนวน (Number Theory)
- เรขาคณิต (Geometry)
- คอมบิเนอริกส์ (Combinatorics)
ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์
สิ่งที่น่าทึ่งคือ:
- ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน)
- ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน
- ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา
- ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้
เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น:
- Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ
- Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน
- Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO
✅ Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง
➡️ แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง
✅ เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ
➡️ ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ
✅ ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน
➡️ ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end
✅ Gemini Deep Think ทำงานแบบ natural language ทั้งหมด
➡️ ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที
✅ ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน
➡️ เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด
✅ ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน
➡️ ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์
✅ จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra
➡️ เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง
‼️ การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง
⛔ หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด
‼️ การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์
⛔ เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน
‼️ การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO
⛔ ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง
‼️ การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน
⛔ ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ
https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
0 ความคิดเห็น
0 การแบ่งปัน
41 มุมมอง
0 รีวิว