OpenAI ได้เปิดตัวโมเดล AI ใหม่ล่าสุดที่มีชื่อว่า o1 ซึ่งได้แสดงพฤติกรรมที่ไม่คาดคิดและทำให้ผู้ใช้งานและผู้เชี่ยวชาญต่างสงสัย โมเดลนี้ถูกออกแบบมาเพื่อทำงานด้านการให้เหตุผล แต่กลับมีการเปลี่ยนภาษากลางคันระหว่างการคิด แม้ว่าคำถามเริ่มต้นจะถูกนำเสนอเป็นภาษาอังกฤษก็ตาม

ผู้ใช้งานหลายคนรายงานว่า โมเดล o1 ของ OpenAI เริ่มกระบวนการคิดเป็นภาษาอังกฤษ แต่กลับเปลี่ยนไปใช้ภาษาจีน เปอร์เซีย หรือภาษาอื่น ๆ ก่อนที่จะให้คำตอบสุดท้ายเป็นภาษาอังกฤษ พฤติกรรมนี้ถูกพบในหลายสถานการณ์ ตั้งแต่การนับเลขง่าย ๆ ไปจนถึงการแก้ปัญหาที่ซับซ้อน

ผู้เชี่ยวชาญหลายคนได้เสนอทฤษฎีเพื่ออธิบายพฤติกรรมนี้
Clément Delangue ซีอีโอของ Hugging Face คาดว่า ปรากฏการณ์นี้อาจเกี่ยวข้องกับข้อมูลการฝึกที่ใช้สำหรับโมเดล o1
Ted Xiao นักวิจัยจาก Google DeepMind เสนอว่า การพึ่งพาบริการการระบุข้อมูลจากจีนอาจเป็นปัจจัยหนึ่งที่ทำให้เกิดพฤติกรรมนี้
Matthew Guzdial นักวิจัย AI และผู้ช่วยศาสตราจารย์จาก University of Alberta เสนอว่า โมเดลอาจเลือกภาษาที่มีประสิทธิภาพที่สุดในการแก้ปัญหาแต่ละประเภท เขาอธิบายว่า โมเดลไม่รู้จักภาษาหรือความแตกต่างระหว่างภาษา มันมองว่าทุกอย่างเป็นเพียงข้อความเท่านั้น
Luca Soldaini นักวิทยาศาสตร์วิจัยจาก Allen Institute for AI เน้นย้ำถึงความสำคัญของความโปร่งใสในการพัฒนา AI เขากล่าวว่า การสังเกตพฤติกรรมของระบบ AI ที่ถูกใช้งานจริงเป็นเรื่องยากเนื่องจากความไม่โปร่งใสของโมเดลเหล่านี้

ความไม่โปร่งใสของโมเดล AI เกิดขึ้นจากหลายปัจจัย:
1) การฝึกอบรมด้วยข้อมูลที่ไม่เปิดเผย: โมเดล AI มักถูกฝึกด้วยข้อมูลที่ไม่ได้เปิดเผยต่อสาธารณะ ซึ่งทำให้ผู้ใช้งานไม่สามารถทราบได้ว่าข้อมูลใดถูกใช้ในการฝึกอบรม

2) การใช้บริการติดป้ายข้อมูลจากบุคคลที่สาม: บางครั้งการระบุข้อมูลสำหรับการฝึกอบรมโมเดล AI ถูกทำโดยบุคคลที่สาม ซึ่งอาจมีการใช้ภาษาหรือวิธีการที่แตกต่างกัน ทำให้เกิดความไม่โปร่งใสในกระบวนการนี้

3) การออกแบบโมเดลที่ซับซ้อน: โมเดล AI ที่มีความซับซ้อนสูงอาจทำให้การตรวจสอบและการทำความเข้าใจการทำงานภายในของโมเดลเป็นเรื่องยาก

4) การขาดการเปิดเผยข้อมูลจากผู้พัฒนา: บางครั้งผู้พัฒนาโมเดล AI อาจไม่เปิดเผยรายละเอียดเกี่ยวกับการฝึกอบรมและการออกแบบโมเดล ทำให้ผู้ใช้งานไม่สามารถทราบได้ว่าโมเดลทำงานอย่างไร

การพัฒนานี้แสดงให้เห็นถึงความสำคัญของความโปร่งใสในการพัฒนา AI เพื่อให้ผู้ใช้งานสามารถเข้าใจและเชื่อถือในเทคโนโลยีนี้ได้

https://www.techspot.com/news/106355-openai-new-ai-model-switches-languages-mid-reasoning.html
OpenAI ได้เปิดตัวโมเดล AI ใหม่ล่าสุดที่มีชื่อว่า o1 ซึ่งได้แสดงพฤติกรรมที่ไม่คาดคิดและทำให้ผู้ใช้งานและผู้เชี่ยวชาญต่างสงสัย โมเดลนี้ถูกออกแบบมาเพื่อทำงานด้านการให้เหตุผล แต่กลับมีการเปลี่ยนภาษากลางคันระหว่างการคิด แม้ว่าคำถามเริ่มต้นจะถูกนำเสนอเป็นภาษาอังกฤษก็ตาม ผู้ใช้งานหลายคนรายงานว่า โมเดล o1 ของ OpenAI เริ่มกระบวนการคิดเป็นภาษาอังกฤษ แต่กลับเปลี่ยนไปใช้ภาษาจีน เปอร์เซีย หรือภาษาอื่น ๆ ก่อนที่จะให้คำตอบสุดท้ายเป็นภาษาอังกฤษ พฤติกรรมนี้ถูกพบในหลายสถานการณ์ ตั้งแต่การนับเลขง่าย ๆ ไปจนถึงการแก้ปัญหาที่ซับซ้อน ผู้เชี่ยวชาญหลายคนได้เสนอทฤษฎีเพื่ออธิบายพฤติกรรมนี้ Clément Delangue ซีอีโอของ Hugging Face คาดว่า ปรากฏการณ์นี้อาจเกี่ยวข้องกับข้อมูลการฝึกที่ใช้สำหรับโมเดล o1 Ted Xiao นักวิจัยจาก Google DeepMind เสนอว่า การพึ่งพาบริการการระบุข้อมูลจากจีนอาจเป็นปัจจัยหนึ่งที่ทำให้เกิดพฤติกรรมนี้ Matthew Guzdial นักวิจัย AI และผู้ช่วยศาสตราจารย์จาก University of Alberta เสนอว่า โมเดลอาจเลือกภาษาที่มีประสิทธิภาพที่สุดในการแก้ปัญหาแต่ละประเภท เขาอธิบายว่า โมเดลไม่รู้จักภาษาหรือความแตกต่างระหว่างภาษา มันมองว่าทุกอย่างเป็นเพียงข้อความเท่านั้น Luca Soldaini นักวิทยาศาสตร์วิจัยจาก Allen Institute for AI เน้นย้ำถึงความสำคัญของความโปร่งใสในการพัฒนา AI เขากล่าวว่า การสังเกตพฤติกรรมของระบบ AI ที่ถูกใช้งานจริงเป็นเรื่องยากเนื่องจากความไม่โปร่งใสของโมเดลเหล่านี้ ความไม่โปร่งใสของโมเดล AI เกิดขึ้นจากหลายปัจจัย: 1) การฝึกอบรมด้วยข้อมูลที่ไม่เปิดเผย: โมเดล AI มักถูกฝึกด้วยข้อมูลที่ไม่ได้เปิดเผยต่อสาธารณะ ซึ่งทำให้ผู้ใช้งานไม่สามารถทราบได้ว่าข้อมูลใดถูกใช้ในการฝึกอบรม 2) การใช้บริการติดป้ายข้อมูลจากบุคคลที่สาม: บางครั้งการระบุข้อมูลสำหรับการฝึกอบรมโมเดล AI ถูกทำโดยบุคคลที่สาม ซึ่งอาจมีการใช้ภาษาหรือวิธีการที่แตกต่างกัน ทำให้เกิดความไม่โปร่งใสในกระบวนการนี้ 3) การออกแบบโมเดลที่ซับซ้อน: โมเดล AI ที่มีความซับซ้อนสูงอาจทำให้การตรวจสอบและการทำความเข้าใจการทำงานภายในของโมเดลเป็นเรื่องยาก 4) การขาดการเปิดเผยข้อมูลจากผู้พัฒนา: บางครั้งผู้พัฒนาโมเดล AI อาจไม่เปิดเผยรายละเอียดเกี่ยวกับการฝึกอบรมและการออกแบบโมเดล ทำให้ผู้ใช้งานไม่สามารถทราบได้ว่าโมเดลทำงานอย่างไร การพัฒนานี้แสดงให้เห็นถึงความสำคัญของความโปร่งใสในการพัฒนา AI เพื่อให้ผู้ใช้งานสามารถเข้าใจและเชื่อถือในเทคโนโลยีนี้ได้ https://www.techspot.com/news/106355-openai-new-ai-model-switches-languages-mid-reasoning.html
WWW.TECHSPOT.COM
OpenAI's newest AI model is switching languages to Chinese and others while reasoning, puzzling users and experts
Users across various platforms have reported instances where OpenAI's o1 model begins its reasoning process in English but unexpectedly shifts to Chinese, Persian, or other languages before...
0 Comments 0 Shares 62 Views 0 Reviews