Geoffrey Hinton ผู้ได้รับการขนานนามว่าเป็น "Godfather of AI" ได้ออกมาเตือนถึงความเสี่ยงที่ AI อาจเข้าควบคุมมนุษย์ในอนาคต โดยเขาประเมินว่ามีโอกาส 10-20% ที่ AI จะสามารถควบคุมมนุษย์ได้หากไม่มีการกำกับดูแลที่เหมาะสม Hinton ซึ่งเป็นหนึ่งในผู้สร้างรากฐานเทคโนโลยี AI เช่น ChatGPT ได้แสดงความกังวลเกี่ยวกับการพัฒนา AI ที่รวดเร็วและขาดการควบคุม โดยเฉพาะการนำ AI ไปใช้ในอาวุธและยานพาหนะทางทหาร
Hinton ยังวิจารณ์บริษัทเทคโนโลยีที่ให้ความสำคัญกับผลกำไรมากกว่าความปลอดภัย โดยเขาเสนอให้บริษัทจัดสรรทรัพยากรประมาณ หนึ่งในสาม เพื่อการวิจัยด้านความปลอดภัย ซึ่งปัจจุบันมีการจัดสรรเพียงเล็กน้อย นอกจากนี้ เขายังผิดหวังกับ Google ที่เปลี่ยนนโยบาย AI เพื่ออนุญาตให้ใช้เทคโนโลยีในอาวุธทางทหาร
แม้ว่า Hinton จะเตือนถึงความเสี่ยง แต่เขายังเชื่อว่า AI มีศักยภาพในการเปลี่ยนแปลงการศึกษา การแพทย์ และการแก้ปัญหาสภาพภูมิอากาศ
✅ ความเสี่ยงของ AI
- มีโอกาส 10-20% ที่ AI จะเข้าควบคุมมนุษย์ในอนาคต
- การพัฒนา AI ที่รวดเร็วและขาดการควบคุมอาจนำไปสู่เหตุการณ์ระดับการสูญพันธุ์
✅ การใช้ AI ในอาวุธทางทหาร
- บริษัทเทคโนโลยีให้ความสำคัญกับผลกำไรมากกว่าความปลอดภัย
- Google เปลี่ยนนโยบาย AI เพื่ออนุญาตให้ใช้เทคโนโลยีในอาวุธทางทหาร
✅ ข้อเสนอของ Hinton
- บริษัทควรจัดสรรทรัพยากรประมาณหนึ่งในสามเพื่อการวิจัยด้านความปลอดภัย
- AI มีศักยภาพในการเปลี่ยนแปลงการศึกษา การแพทย์ และการแก้ปัญหาสภาพภูมิอากาศ
✅ เป้าหมายของคำเตือน
- กระตุ้นให้มีการกำกับดูแลและการวิจัยด้านความปลอดภัยของ AI
https://www.techspot.com/news/107706-godfather-ai-geoffrey-hinton-warns-there-10-20.html
Hinton ยังวิจารณ์บริษัทเทคโนโลยีที่ให้ความสำคัญกับผลกำไรมากกว่าความปลอดภัย โดยเขาเสนอให้บริษัทจัดสรรทรัพยากรประมาณ หนึ่งในสาม เพื่อการวิจัยด้านความปลอดภัย ซึ่งปัจจุบันมีการจัดสรรเพียงเล็กน้อย นอกจากนี้ เขายังผิดหวังกับ Google ที่เปลี่ยนนโยบาย AI เพื่ออนุญาตให้ใช้เทคโนโลยีในอาวุธทางทหาร
แม้ว่า Hinton จะเตือนถึงความเสี่ยง แต่เขายังเชื่อว่า AI มีศักยภาพในการเปลี่ยนแปลงการศึกษา การแพทย์ และการแก้ปัญหาสภาพภูมิอากาศ
✅ ความเสี่ยงของ AI
- มีโอกาส 10-20% ที่ AI จะเข้าควบคุมมนุษย์ในอนาคต
- การพัฒนา AI ที่รวดเร็วและขาดการควบคุมอาจนำไปสู่เหตุการณ์ระดับการสูญพันธุ์
✅ การใช้ AI ในอาวุธทางทหาร
- บริษัทเทคโนโลยีให้ความสำคัญกับผลกำไรมากกว่าความปลอดภัย
- Google เปลี่ยนนโยบาย AI เพื่ออนุญาตให้ใช้เทคโนโลยีในอาวุธทางทหาร
✅ ข้อเสนอของ Hinton
- บริษัทควรจัดสรรทรัพยากรประมาณหนึ่งในสามเพื่อการวิจัยด้านความปลอดภัย
- AI มีศักยภาพในการเปลี่ยนแปลงการศึกษา การแพทย์ และการแก้ปัญหาสภาพภูมิอากาศ
✅ เป้าหมายของคำเตือน
- กระตุ้นให้มีการกำกับดูแลและการวิจัยด้านความปลอดภัยของ AI
https://www.techspot.com/news/107706-godfather-ai-geoffrey-hinton-warns-there-10-20.html
Geoffrey Hinton ผู้ได้รับการขนานนามว่าเป็น "Godfather of AI" ได้ออกมาเตือนถึงความเสี่ยงที่ AI อาจเข้าควบคุมมนุษย์ในอนาคต โดยเขาประเมินว่ามีโอกาส 10-20% ที่ AI จะสามารถควบคุมมนุษย์ได้หากไม่มีการกำกับดูแลที่เหมาะสม Hinton ซึ่งเป็นหนึ่งในผู้สร้างรากฐานเทคโนโลยี AI เช่น ChatGPT ได้แสดงความกังวลเกี่ยวกับการพัฒนา AI ที่รวดเร็วและขาดการควบคุม โดยเฉพาะการนำ AI ไปใช้ในอาวุธและยานพาหนะทางทหาร
Hinton ยังวิจารณ์บริษัทเทคโนโลยีที่ให้ความสำคัญกับผลกำไรมากกว่าความปลอดภัย โดยเขาเสนอให้บริษัทจัดสรรทรัพยากรประมาณ หนึ่งในสาม เพื่อการวิจัยด้านความปลอดภัย ซึ่งปัจจุบันมีการจัดสรรเพียงเล็กน้อย นอกจากนี้ เขายังผิดหวังกับ Google ที่เปลี่ยนนโยบาย AI เพื่ออนุญาตให้ใช้เทคโนโลยีในอาวุธทางทหาร
แม้ว่า Hinton จะเตือนถึงความเสี่ยง แต่เขายังเชื่อว่า AI มีศักยภาพในการเปลี่ยนแปลงการศึกษา การแพทย์ และการแก้ปัญหาสภาพภูมิอากาศ
✅ ความเสี่ยงของ AI
- มีโอกาส 10-20% ที่ AI จะเข้าควบคุมมนุษย์ในอนาคต
- การพัฒนา AI ที่รวดเร็วและขาดการควบคุมอาจนำไปสู่เหตุการณ์ระดับการสูญพันธุ์
✅ การใช้ AI ในอาวุธทางทหาร
- บริษัทเทคโนโลยีให้ความสำคัญกับผลกำไรมากกว่าความปลอดภัย
- Google เปลี่ยนนโยบาย AI เพื่ออนุญาตให้ใช้เทคโนโลยีในอาวุธทางทหาร
✅ ข้อเสนอของ Hinton
- บริษัทควรจัดสรรทรัพยากรประมาณหนึ่งในสามเพื่อการวิจัยด้านความปลอดภัย
- AI มีศักยภาพในการเปลี่ยนแปลงการศึกษา การแพทย์ และการแก้ปัญหาสภาพภูมิอากาศ
✅ เป้าหมายของคำเตือน
- กระตุ้นให้มีการกำกับดูแลและการวิจัยด้านความปลอดภัยของ AI
https://www.techspot.com/news/107706-godfather-ai-geoffrey-hinton-warns-there-10-20.html
0 Comments
0 Shares
43 Views
0 Reviews