เรื่องเล่าจากสนามโอลิมปิกคณิตศาสตร์: เมื่อ AI ได้เหรียญทองในสนามมนุษย์

IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา:
- พีชคณิต (Algebra)
- ทฤษฎีจำนวน (Number Theory)
- เรขาคณิต (Geometry)
- คอมบิเนอริกส์ (Combinatorics)

ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์

สิ่งที่น่าทึ่งคือ:
- ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน)
- ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน
- ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา
- ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้

เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น:
- Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ
- Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน
- Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO

Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง
แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง

เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ
ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ

ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน
ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end

Gemini Deep Think ทำงานแบบ natural language ทั้งหมด
ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที

ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน
เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด

ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน
ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์

จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra
เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง

การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง
หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด

การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์
เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน

การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO
ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง

การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน
ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ

https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
🎙️ เรื่องเล่าจากสนามโอลิมปิกคณิตศาสตร์: เมื่อ AI ได้เหรียญทองในสนามมนุษย์ IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา: - พีชคณิต (Algebra) - ทฤษฎีจำนวน (Number Theory) - เรขาคณิต (Geometry) - คอมบิเนอริกส์ (Combinatorics) ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์ สิ่งที่น่าทึ่งคือ: - ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน) - ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน - ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา - ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้ เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น: - Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ - Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน - Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO ✅ Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง ➡️ แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง ✅ เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ ➡️ ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ ✅ ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน ➡️ ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end ✅ Gemini Deep Think ทำงานแบบ natural language ทั้งหมด ➡️ ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที ✅ ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน ➡️ เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด ✅ ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน ➡️ ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์ ✅ จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra ➡️ เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง ‼️ การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง ⛔ หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด ‼️ การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์ ⛔ เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน ‼️ การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO ⛔ ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง ‼️ การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน ⛔ ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
DEEPMIND.GOOGLE
Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad
Our advanced model officially achieved a gold-medal level performance on problems from the International Mathematical Olympiad (IMO), the world’s most prestigious competition for young...
0 ความคิดเห็น 0 การแบ่งปัน 41 มุมมอง 0 รีวิว