AI Safety Report Card – บริษัท AI ยังขาดแผนปกป้องมนุษย์

รายงานจาก The Star ระบุว่า Future of Life Institute ได้เผยแพร่ AI Safety Index ซึ่งประเมินบริษัท AI ชั้นนำ 35 ตัวชี้วัดใน 6 หมวด เช่น existential safety, risk assessment และการแบ่งปันข้อมูล พบว่าบริษัทส่วนใหญ่ยังไม่ให้ความสำคัญกับการป้องกันความเสี่ยงระยะยาว.

บริษัทที่ได้คะแนนสูงสุดคือ OpenAI และ Anthropic ที่ได้เพียง C+ ขณะที่ Google DeepMind ได้ C ส่วน Meta และ xAI ของ Elon Musk ได้ D และบริษัทจีนอย่าง Z.ai และ DeepSeek ก็ได้ D เช่นกัน โดย Alibaba Cloud ได้คะแนนต่ำสุดที่ D-.

รายงานชี้ว่าไม่มีบริษัทใดมี แผนที่น่าเชื่อถือในการป้องกันการใช้ AGI หรือ superintelligence ในทางที่ผิด เช่นการสร้างอาวุธชีวภาพหรือการโค่นล้มรัฐบาล ซึ่งถือเป็นความเสี่ยง existential ที่อาจกระทบต่อมนุษยชาติ. แม้บางบริษัท เช่น OpenAI และ Google DeepMind จะอ้างว่ามีการลงทุนด้าน safety framework แต่ก็ยังไม่เพียงพอ.

นักวิจัยเตือนว่าหากไม่มีการกำกับดูแลที่เข้มงวด อุตสาหกรรม AI อาจกลายเป็น “การแข่งขันสู่จุดต่ำสุด” ที่เน้นความเร็วและความสามารถมากกว่าความปลอดภัย โดยเสนอให้รัฐบาลออก มาตรฐานความปลอดภัยที่มีผลบังคับใช้ เพื่อป้องกันการใช้ AI ในทางที่ผิด.

สรุปประเด็นสำคัญ
ผลการจัดอันดับ AI Safety Index
OpenAI และ Anthropic ได้ C+
Google DeepMind ได้ C
Meta, xAI, Z.ai, DeepSeek ได้ D
Alibaba Cloud ได้ D-

ข้อค้นพบหลัก
ไม่มีบริษัทใดมีแผนป้องกัน existential risk ที่น่าเชื่อถือ
การลงทุนด้าน safety framework ยังไม่เพียงพอ

ข้อเสนอจากนักวิจัย
ต้องมีมาตรฐานความปลอดภัยที่บังคับใช้
ป้องกันการแข่งขันที่เน้นความเร็วมากกว่าความปลอดภัย

ข้อกังวลและคำเตือน
AI อาจถูกใช้สร้างอาวุธชีวภาพหรือโค่นล้มรัฐบาล
หากไม่มีการกำกับดูแล อุตสาหกรรมจะเข้าสู่ “race to the bottom”

https://www.thestar.com.my/tech/tech-news/2025/12/13/a-safety-report-card-ranks-ai-company-efforts-to-protect-humanity
🧾 AI Safety Report Card – บริษัท AI ยังขาดแผนปกป้องมนุษย์ รายงานจาก The Star ระบุว่า Future of Life Institute ได้เผยแพร่ AI Safety Index ซึ่งประเมินบริษัท AI ชั้นนำ 35 ตัวชี้วัดใน 6 หมวด เช่น existential safety, risk assessment และการแบ่งปันข้อมูล พบว่าบริษัทส่วนใหญ่ยังไม่ให้ความสำคัญกับการป้องกันความเสี่ยงระยะยาว. บริษัทที่ได้คะแนนสูงสุดคือ OpenAI และ Anthropic ที่ได้เพียง C+ ขณะที่ Google DeepMind ได้ C ส่วน Meta และ xAI ของ Elon Musk ได้ D และบริษัทจีนอย่าง Z.ai และ DeepSeek ก็ได้ D เช่นกัน โดย Alibaba Cloud ได้คะแนนต่ำสุดที่ D-. รายงานชี้ว่าไม่มีบริษัทใดมี แผนที่น่าเชื่อถือในการป้องกันการใช้ AGI หรือ superintelligence ในทางที่ผิด เช่นการสร้างอาวุธชีวภาพหรือการโค่นล้มรัฐบาล ซึ่งถือเป็นความเสี่ยง existential ที่อาจกระทบต่อมนุษยชาติ. แม้บางบริษัท เช่น OpenAI และ Google DeepMind จะอ้างว่ามีการลงทุนด้าน safety framework แต่ก็ยังไม่เพียงพอ. นักวิจัยเตือนว่าหากไม่มีการกำกับดูแลที่เข้มงวด อุตสาหกรรม AI อาจกลายเป็น “การแข่งขันสู่จุดต่ำสุด” ที่เน้นความเร็วและความสามารถมากกว่าความปลอดภัย โดยเสนอให้รัฐบาลออก มาตรฐานความปลอดภัยที่มีผลบังคับใช้ เพื่อป้องกันการใช้ AI ในทางที่ผิด. 📌 สรุปประเด็นสำคัญ ✅ ผลการจัดอันดับ AI Safety Index ➡️ OpenAI และ Anthropic ได้ C+ ➡️ Google DeepMind ได้ C ➡️ Meta, xAI, Z.ai, DeepSeek ได้ D ➡️ Alibaba Cloud ได้ D- ✅ ข้อค้นพบหลัก ➡️ ไม่มีบริษัทใดมีแผนป้องกัน existential risk ที่น่าเชื่อถือ ➡️ การลงทุนด้าน safety framework ยังไม่เพียงพอ ✅ ข้อเสนอจากนักวิจัย ➡️ ต้องมีมาตรฐานความปลอดภัยที่บังคับใช้ ➡️ ป้องกันการแข่งขันที่เน้นความเร็วมากกว่าความปลอดภัย ‼️ ข้อกังวลและคำเตือน ⛔ AI อาจถูกใช้สร้างอาวุธชีวภาพหรือโค่นล้มรัฐบาล ⛔ หากไม่มีการกำกับดูแล อุตสาหกรรมจะเข้าสู่ “race to the bottom” https://www.thestar.com.my/tech/tech-news/2025/12/13/a-safety-report-card-ranks-ai-company-efforts-to-protect-humanity
WWW.THESTAR.COM.MY
A safety report card ranks AI company efforts to protect humanity
Are artificial intelligence companies keeping humanity safe from AI's potential harms? Don't bet on it, a new report card says.
0 Comments 0 Shares 73 Views 0 Reviews