Google ซึ่งเคยมีหลักการนำ AI ไปใช้งานในแบบที่ไม่ก่อให้เกิดความเสียหาย ได้ทำการเปลี่ยนแปลงนโยบายนี้โดยการเปิดโอกาสให้พัฒนาเทคโนโลยีที่เกี่ยวข้องกับอาวุธ นโยบายใหม่นี้ถูกสังเกตครั้งแรกโดย Bloomberg ซึ่งได้พบว่า Google ได้ลบข้อความสำคัญในหลักการ AI ของตนที่เคยระบุไว้ว่าจะไม่พัฒนาเทคโนโลยีที่ "อาจก่อให้เกิดความเสียหาย" รวมถึงอาวุธด้วย

ในคำตอบต่อการเปลี่ยนแปลงนี้ Google ได้ชี้ไปที่บล็อกโพสต์ที่เผยแพร่โดย James Manyika รองประธานอาวุโสของ Google และ Demis Hassabis ผู้บริหาร Google DeepMind ซึ่งกล่าวว่าประชาธิปไตยควรเป็นผู้นำในการพัฒนา AI โดยมีค่านิยมหลัก เช่น เสรีภาพ ความเท่าเทียมกัน และการเคารพสิทธิมนุษยชน

การเปลี่ยนแปลงนี้ทำให้เกิดความกังวลในหมู่นักวิชาการด้าน AI โดย Margaret Mitchell อดีตหัวหน้าทีม AI ของ Google และปัจจุบันดำรงตำแหน่งหัวหน้านักวิทยาศาสตร์ที่ Hugging Face ได้กล่าวว่า "การลบข้อความเรื่องความเสียหายออกไปนั้นหมายความว่า Google อาจกำลังพัฒนาเทคโนโลยีที่สามารถฆ่าคนได้โดยตรง"

แม้ว่า Google จะยืนยันว่า AI ของตนจะไม่ถูกใช้ในการทำลายมนุษย์ แต่การที่บริษัทเริ่มทำงานร่วมกับหน่วยงานทหารมากขึ้น เช่น การให้บริการคลาวด์กับกองทัพสหรัฐและอิสราเอล ก็ทำให้เกิดความกังวลภายในบริษัทเอง

สิ่งที่น่าสนใจเพิ่มเติมคือ Google คาดหวังว่าจะได้รับทุนวิจัยและพัฒนาจากแหล่งรัฐบาลมากขึ้น ทำให้การพัฒนา AI ของ Google ก้าวหน้าเร็วขึ้น การเปลี่ยนแปลงนี้ช่วยให้ Google สามารถแข่งขันกับบริษัทคู่แข่งที่มีส่วนร่วมในโครงการ AI ทหารอยู่แล้วได้มากขึ้น

สรุปแล้ว Google ได้เปลี่ยนนโยบาย AI ที่เคยยึดหลักไม่ก่อให้เกิดความเสียหาย โดยการเปิดโอกาสให้พัฒนาเทคโนโลยีที่เกี่ยวข้องกับอาวุธ การเปลี่ยนแปลงนี้ทำให้เกิดความกังวลและวิจารณ์จากผู้เชี่ยวชาญ แต่ก็มีโอกาสที่จะทำให้การพัฒนา AI ก้าวหน้าเร็วขึ้น

https://www.techspot.com/news/106646-google-abandons-do-no-harm-ai-stance-opens.html
Google ซึ่งเคยมีหลักการนำ AI ไปใช้งานในแบบที่ไม่ก่อให้เกิดความเสียหาย ได้ทำการเปลี่ยนแปลงนโยบายนี้โดยการเปิดโอกาสให้พัฒนาเทคโนโลยีที่เกี่ยวข้องกับอาวุธ นโยบายใหม่นี้ถูกสังเกตครั้งแรกโดย Bloomberg ซึ่งได้พบว่า Google ได้ลบข้อความสำคัญในหลักการ AI ของตนที่เคยระบุไว้ว่าจะไม่พัฒนาเทคโนโลยีที่ "อาจก่อให้เกิดความเสียหาย" รวมถึงอาวุธด้วย ในคำตอบต่อการเปลี่ยนแปลงนี้ Google ได้ชี้ไปที่บล็อกโพสต์ที่เผยแพร่โดย James Manyika รองประธานอาวุโสของ Google และ Demis Hassabis ผู้บริหาร Google DeepMind ซึ่งกล่าวว่าประชาธิปไตยควรเป็นผู้นำในการพัฒนา AI โดยมีค่านิยมหลัก เช่น เสรีภาพ ความเท่าเทียมกัน และการเคารพสิทธิมนุษยชน การเปลี่ยนแปลงนี้ทำให้เกิดความกังวลในหมู่นักวิชาการด้าน AI โดย Margaret Mitchell อดีตหัวหน้าทีม AI ของ Google และปัจจุบันดำรงตำแหน่งหัวหน้านักวิทยาศาสตร์ที่ Hugging Face ได้กล่าวว่า "การลบข้อความเรื่องความเสียหายออกไปนั้นหมายความว่า Google อาจกำลังพัฒนาเทคโนโลยีที่สามารถฆ่าคนได้โดยตรง" แม้ว่า Google จะยืนยันว่า AI ของตนจะไม่ถูกใช้ในการทำลายมนุษย์ แต่การที่บริษัทเริ่มทำงานร่วมกับหน่วยงานทหารมากขึ้น เช่น การให้บริการคลาวด์กับกองทัพสหรัฐและอิสราเอล ก็ทำให้เกิดความกังวลภายในบริษัทเอง สิ่งที่น่าสนใจเพิ่มเติมคือ Google คาดหวังว่าจะได้รับทุนวิจัยและพัฒนาจากแหล่งรัฐบาลมากขึ้น ทำให้การพัฒนา AI ของ Google ก้าวหน้าเร็วขึ้น การเปลี่ยนแปลงนี้ช่วยให้ Google สามารถแข่งขันกับบริษัทคู่แข่งที่มีส่วนร่วมในโครงการ AI ทหารอยู่แล้วได้มากขึ้น สรุปแล้ว Google ได้เปลี่ยนนโยบาย AI ที่เคยยึดหลักไม่ก่อให้เกิดความเสียหาย โดยการเปิดโอกาสให้พัฒนาเทคโนโลยีที่เกี่ยวข้องกับอาวุธ การเปลี่ยนแปลงนี้ทำให้เกิดความกังวลและวิจารณ์จากผู้เชี่ยวชาญ แต่ก็มีโอกาสที่จะทำให้การพัฒนา AI ก้าวหน้าเร็วขึ้น https://www.techspot.com/news/106646-google-abandons-do-no-harm-ai-stance-opens.html
WWW.TECHSPOT.COM
Google abandons 'do no harm' AI stance, opens door to military weapons
This change, first noticed by Bloomberg, marks a shift from the company's earlier stance on responsible AI development.
0 Comments 0 Shares 44 Views 0 Reviews