• 5 มีนาคม “วันนักข่าว” กับบทบาทสื่อมวลชนในยุค AI เผยความจริง สิ่งลวงตา และการถ่วงดุลอำนาจ

    📅 วันที่ 5 มีนาคมของทุกปี ถือเป็น "วันนักข่าว" หรือ "วันสื่อสารมวลชนแห่งชาติ" ในประเทศไทย ซึ่งเป็นวันสำคัญของวงการสื่อสารมวลชน โดยมีจุดเริ่มต้นมาจากวันสถาปนา สมาคมนักข่าวแห่งประเทศไทย เมื่อวันที่ 5 มีนาคม พ.ศ. 2498

    ปัจจุบัน บทบาทของนักข่าวและสื่อมวลชน กำลังเผชิญกับความท้าทายครั้งใหญ่ในยุคดิจิทัล และเทคโนโลยี AI (Artificial Intelligence) ที่ไร้พรมแดน ข้อมูลข่าวสารแพร่กระจายอย่างรวดเร็ว ทั้งข้อเท็จจริงและข่าวลวง (Fake News) บทบาทของสื่อ จึงไม่ใช่เพียงรายงานข่าวเท่านั้น แต่ต้องทำหน้าที่คัดกรอง ตรวจสอบ และถ่วงดุลอำนาจ เพื่อให้สังคมได้รับข้อมูลที่ถูกต้อ งและเป็นธรรม

    📖 ความเป็นมาของวันนักข่าว จุดกำเนิดของวันนักข่าวในไทย 🎙
    สมาคมนักข่าวแห่งประเทศไทย ปัจจุบันคือ สมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย ก่อตั้งขึ้นโดยนักข่าวรุ่นบุกเบิก 15 คน ที่รวมตัวกันที่ศาลานเรศวร ในสวนลุมพินี โดยมี นายชาญ สินศุข จากสยามนิกร เป็นประธานการประชุม

    🔹 ในอดีต หนังสือพิมพ์ไทยยึดถือธรรมเนียมว่า วันที่ 6 มีนาคม ของทุกปี จะเป็นวันหยุดงานของนักข่าว และจะไม่มีหนังสือพิมพ์วางจำหน่าย แต่เมื่อเวลาผ่านไป สังคมมีความต้องการบริโภคข่าวสารมากขึ้น ทำให้ต้องยุติธรรมเนียมนี้ไป

    🔹 ต่อมา ในปี พ.ศ. 2542 สมาคมนักข่าวแห่งประเทศไทย ได้รวมตัวกับ สมาคมนักหนังสือพิมพ์แห่งประเทศไทย และกำหนดให้วันที่ 5 มีนาคม เป็นวันนักข่าว อย่างเป็นทางการจนถึงปัจจุบัน

    🎥 บทบาทสำคัญของนักข่าวในสังคมไทย นักข่าวไม่ได้เป็นเพียงผู้รายงานข่าว แต่ยังมีบทบาทสำคัญในหลายมิติของสังคม ตั้งแต่การเฝ้าระวังอำนาจ การเปิดโปงความจริง ไปจนถึงการสร้างความตระหนักรู้ และขับเคลื่อนสังคม

    🏛 เฝ้าระวังและตรวจสอบอำนาจ (Watchdog Journalism)
    ✅ นักข่าวทำหน้าที่ตรวจสอบการใช้อำนาจของรัฐ ภาคเอกชน และองค์กรต่าง ๆ
    ✅ เปิดโปงการทุจริต คอร์รัปชัน และความไม่ชอบมาพากลในสังคม
    ✅ ปกป้องประชาชน จากการถูกเอารัดเอาเปรียบ

    📰 ให้ข้อมูลที่จำเป็นต่อการตัดสินใจของประชาชน
    ✅ รายงานข่าวสารด้านการเมือง เศรษฐกิจ สังคม และสิ่งแวดล้อม
    ✅ ให้ข้อมูลเกี่ยวกับนโยบายของรัฐบาล การเลือกตั้ง และภัยพิบัติ
    ✅ ช่วยให้ประชาชนตัดสินใจได้อย่างถูกต้อง บนพื้นฐานของข้อมูลที่น่าเชื่อถือ

    🚨 สร้างกระแส และกระตุ้นการเปลี่ยนแปลงทางสังคม
    ✅ นำเสนอปัญหาสำคัญ เช่น ความเหลื่อมล้ำ สิทธิมนุษยชน และสิ่งแวดล้อม
    ✅ กระตุ้นให้เกิดการเปลี่ยนแปลงทางนโยบาย และการแก้ไขปัญหา
    ✅ เป็นช่องทางในการเรียกร้องความเป็นธรรม ให้กับประชาชน

    🎤 เป็นกระบอกเสียงให้กับประชาชน
    ✅ นำเสนอเรื่องราวของผู้ด้อยโอกาส และกลุ่มที่ถูกกดขี่
    ✅ ให้พื้นที่แก่ประชาชน ในการแสดงความคิดเห็น
    ✅ ช่วยให้เสียงของประชาชน ถูกได้ยินในเวทีสาธารณะ

    🔓 สนับสนุนเสรีภาพในการแสดงความคิดเห็น
    ✅ สื่อมวลชนเป็นหัวใจของ ประชาธิปไตย
    ✅ หากปราศจากเสรีภาพทางสื่อ สังคมอาจถูกควบคุมโดยข้อมูลฝ่ายเดียว
    ✅ นักข่าวต้องกล้าหาญ และยืนหยัดในการรายงานความจริง

    🌍 ยุค AI กับความท้าทายของสื่อมวลชน
    🤖 AI และอัลกอริทึมเปลี่ยนโฉมวงการข่าว
    🔹 เทคโนโลยี AI ช่วยให้ ข่าวถูกสร้าง และกระจายได้รวดเร็วขึ้น
    🔹 แพลตฟอร์มโซเชียลมีเดีย ใช้อัลกอริทึมในการเลือกนำเสนอข่าว ที่ตรงกับความสนใจของผู้ใช้ แต่ อาจทำให้ข่าวสารถูกบิดเบือ นและเกิด Echo Chamber (ห้องเสียงสะท้อน)

    🚨 ข่าวปลอม (Fake News) และ Deepfake
    🔹 ข่าวปลอม และข้อมูลบิดเบือนแพร่กระจาย ในโซเชียลมีเดียอย่างรวดเร็ว
    🔹 เทคโนโลยี Deepfake ทำให้เกิดวิดีโอปลอม ที่เลียนแบบบุคคลจริงได้อย่างแนบเนียน
    🔹 นักข่าวต้องตรวจสอบแหล่งที่มาของข้อมูล อย่างเข้มงวด

    💰 รายได้จากโฆษณาของสื่อดั้งเดิมลดลง
    🔹 หนังสือพิมพ์ และสื่อโทรทัศน์สูญเสียรายได้ ให้กับแพลตฟอร์มดิจิทัล เช่น Facebook, Google
    🔹 นักข่าวต้องปรับตัวไปสู่การสร้างรายได้ ผ่านช่องทางออนไลน์ และการสมัครสมาชิก (Subscription-Based Media)

    🏛 แรงกดดันจากอำนาจรัฐและกลุ่มทุน
    🔹 นักข่าวบางคนอาจถูกคุกคาม หากรายงานข่าวที่กระทบต่อผู้มีอำนาจ
    🔹 สื่อบางสำนัก อาจถูกควบคุมโดยกลุ่มทุน ทำให้เสรีภาพทางข่าวสารถูกจำกัด

    ✅ แนวทางในการพัฒนาวงการสื่อมวลชนไทย
    ✔ สร้างมาตรฐานทางจริยธรรม นักข่าวต้องรักษาความเป็นกลาง และความถูกต้องของข้อมูล
    ✔ ตรวจสอบข้อเท็จจริงอย่างเข้มงวด ป้องกันการแพร่กระจายของข่าวปลอม
    ✔ ใช้เทคโนโลยีให้เกิดประโยชน์ เช่น AI ในการช่วยวิเคราะห์ข้อมูลข่าวสาร
    ✔ พัฒนาทักษะนักข่าวให้ทันสมัย ให้สามารถปรับตัวเข้ากับแพลตฟอร์มดิจิทัล

    🎯 "นักข่าว" อาชีพที่ขับเคลื่อนความจริงและสังคมไทย
    👥 นักข่าวเป็นอาชีพที่มีความสำคัญอย่างยิ่งต่อสังคม
    📢 พวกเขาทำหน้าที่รายงานข้อเท็จจริง คัดกรองข่าวสาร และตรวจสอบอำนาจ
    🌍 ในยุค AI สื่อมวลชนต้องเผชิญกับ Fake News การคุกคามจากอำนาจรัฐ และความเปลี่ยนแปลงของเทคโนโลยี
    📌 อย่างไรก็ตาม จริยธรรม ความกล้าหาญ และการยึดมั่นในความจริง จะทำให้สื่อมวลชน ยังคงเป็นเสาหลักของประชาธิปไตย

    💡 "เพราะข่าวที่ดี ไม่ใช่แค่ข่าวที่เร็ว แต่ต้องเป็นข่าวที่ถูกต้อง"

    ป้อม-อัครวัฒน์ ธนันฐ์กิตติกุล 051127 มี.ค. 2568

    🔖 #วันนักข่าว #นักข่าวไทย #สื่อมวลชน #FreedomOfPress #AIกับสื่อ #ข่าวปลอม #FakeNews #Deepfake #PressFreedom #MediaEthics
    5 มีนาคม “วันนักข่าว” กับบทบาทสื่อมวลชนในยุค AI เผยความจริง สิ่งลวงตา และการถ่วงดุลอำนาจ 📅 วันที่ 5 มีนาคมของทุกปี ถือเป็น "วันนักข่าว" หรือ "วันสื่อสารมวลชนแห่งชาติ" ในประเทศไทย ซึ่งเป็นวันสำคัญของวงการสื่อสารมวลชน โดยมีจุดเริ่มต้นมาจากวันสถาปนา สมาคมนักข่าวแห่งประเทศไทย เมื่อวันที่ 5 มีนาคม พ.ศ. 2498 ปัจจุบัน บทบาทของนักข่าวและสื่อมวลชน กำลังเผชิญกับความท้าทายครั้งใหญ่ในยุคดิจิทัล และเทคโนโลยี AI (Artificial Intelligence) ที่ไร้พรมแดน ข้อมูลข่าวสารแพร่กระจายอย่างรวดเร็ว ทั้งข้อเท็จจริงและข่าวลวง (Fake News) บทบาทของสื่อ จึงไม่ใช่เพียงรายงานข่าวเท่านั้น แต่ต้องทำหน้าที่คัดกรอง ตรวจสอบ และถ่วงดุลอำนาจ เพื่อให้สังคมได้รับข้อมูลที่ถูกต้อ งและเป็นธรรม 📖 ความเป็นมาของวันนักข่าว จุดกำเนิดของวันนักข่าวในไทย 🎙 สมาคมนักข่าวแห่งประเทศไทย ปัจจุบันคือ สมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย ก่อตั้งขึ้นโดยนักข่าวรุ่นบุกเบิก 15 คน ที่รวมตัวกันที่ศาลานเรศวร ในสวนลุมพินี โดยมี นายชาญ สินศุข จากสยามนิกร เป็นประธานการประชุม 🔹 ในอดีต หนังสือพิมพ์ไทยยึดถือธรรมเนียมว่า วันที่ 6 มีนาคม ของทุกปี จะเป็นวันหยุดงานของนักข่าว และจะไม่มีหนังสือพิมพ์วางจำหน่าย แต่เมื่อเวลาผ่านไป สังคมมีความต้องการบริโภคข่าวสารมากขึ้น ทำให้ต้องยุติธรรมเนียมนี้ไป 🔹 ต่อมา ในปี พ.ศ. 2542 สมาคมนักข่าวแห่งประเทศไทย ได้รวมตัวกับ สมาคมนักหนังสือพิมพ์แห่งประเทศไทย และกำหนดให้วันที่ 5 มีนาคม เป็นวันนักข่าว อย่างเป็นทางการจนถึงปัจจุบัน 🎥 บทบาทสำคัญของนักข่าวในสังคมไทย นักข่าวไม่ได้เป็นเพียงผู้รายงานข่าว แต่ยังมีบทบาทสำคัญในหลายมิติของสังคม ตั้งแต่การเฝ้าระวังอำนาจ การเปิดโปงความจริง ไปจนถึงการสร้างความตระหนักรู้ และขับเคลื่อนสังคม 🏛 เฝ้าระวังและตรวจสอบอำนาจ (Watchdog Journalism) ✅ นักข่าวทำหน้าที่ตรวจสอบการใช้อำนาจของรัฐ ภาคเอกชน และองค์กรต่าง ๆ ✅ เปิดโปงการทุจริต คอร์รัปชัน และความไม่ชอบมาพากลในสังคม ✅ ปกป้องประชาชน จากการถูกเอารัดเอาเปรียบ 📰 ให้ข้อมูลที่จำเป็นต่อการตัดสินใจของประชาชน ✅ รายงานข่าวสารด้านการเมือง เศรษฐกิจ สังคม และสิ่งแวดล้อม ✅ ให้ข้อมูลเกี่ยวกับนโยบายของรัฐบาล การเลือกตั้ง และภัยพิบัติ ✅ ช่วยให้ประชาชนตัดสินใจได้อย่างถูกต้อง บนพื้นฐานของข้อมูลที่น่าเชื่อถือ 🚨 สร้างกระแส และกระตุ้นการเปลี่ยนแปลงทางสังคม ✅ นำเสนอปัญหาสำคัญ เช่น ความเหลื่อมล้ำ สิทธิมนุษยชน และสิ่งแวดล้อม ✅ กระตุ้นให้เกิดการเปลี่ยนแปลงทางนโยบาย และการแก้ไขปัญหา ✅ เป็นช่องทางในการเรียกร้องความเป็นธรรม ให้กับประชาชน 🎤 เป็นกระบอกเสียงให้กับประชาชน ✅ นำเสนอเรื่องราวของผู้ด้อยโอกาส และกลุ่มที่ถูกกดขี่ ✅ ให้พื้นที่แก่ประชาชน ในการแสดงความคิดเห็น ✅ ช่วยให้เสียงของประชาชน ถูกได้ยินในเวทีสาธารณะ 🔓 สนับสนุนเสรีภาพในการแสดงความคิดเห็น ✅ สื่อมวลชนเป็นหัวใจของ ประชาธิปไตย ✅ หากปราศจากเสรีภาพทางสื่อ สังคมอาจถูกควบคุมโดยข้อมูลฝ่ายเดียว ✅ นักข่าวต้องกล้าหาญ และยืนหยัดในการรายงานความจริง 🌍 ยุค AI กับความท้าทายของสื่อมวลชน 🤖 AI และอัลกอริทึมเปลี่ยนโฉมวงการข่าว 🔹 เทคโนโลยี AI ช่วยให้ ข่าวถูกสร้าง และกระจายได้รวดเร็วขึ้น 🔹 แพลตฟอร์มโซเชียลมีเดีย ใช้อัลกอริทึมในการเลือกนำเสนอข่าว ที่ตรงกับความสนใจของผู้ใช้ แต่ อาจทำให้ข่าวสารถูกบิดเบือ นและเกิด Echo Chamber (ห้องเสียงสะท้อน) 🚨 ข่าวปลอม (Fake News) และ Deepfake 🔹 ข่าวปลอม และข้อมูลบิดเบือนแพร่กระจาย ในโซเชียลมีเดียอย่างรวดเร็ว 🔹 เทคโนโลยี Deepfake ทำให้เกิดวิดีโอปลอม ที่เลียนแบบบุคคลจริงได้อย่างแนบเนียน 🔹 นักข่าวต้องตรวจสอบแหล่งที่มาของข้อมูล อย่างเข้มงวด 💰 รายได้จากโฆษณาของสื่อดั้งเดิมลดลง 🔹 หนังสือพิมพ์ และสื่อโทรทัศน์สูญเสียรายได้ ให้กับแพลตฟอร์มดิจิทัล เช่น Facebook, Google 🔹 นักข่าวต้องปรับตัวไปสู่การสร้างรายได้ ผ่านช่องทางออนไลน์ และการสมัครสมาชิก (Subscription-Based Media) 🏛 แรงกดดันจากอำนาจรัฐและกลุ่มทุน 🔹 นักข่าวบางคนอาจถูกคุกคาม หากรายงานข่าวที่กระทบต่อผู้มีอำนาจ 🔹 สื่อบางสำนัก อาจถูกควบคุมโดยกลุ่มทุน ทำให้เสรีภาพทางข่าวสารถูกจำกัด ✅ แนวทางในการพัฒนาวงการสื่อมวลชนไทย ✔ สร้างมาตรฐานทางจริยธรรม นักข่าวต้องรักษาความเป็นกลาง และความถูกต้องของข้อมูล ✔ ตรวจสอบข้อเท็จจริงอย่างเข้มงวด ป้องกันการแพร่กระจายของข่าวปลอม ✔ ใช้เทคโนโลยีให้เกิดประโยชน์ เช่น AI ในการช่วยวิเคราะห์ข้อมูลข่าวสาร ✔ พัฒนาทักษะนักข่าวให้ทันสมัย ให้สามารถปรับตัวเข้ากับแพลตฟอร์มดิจิทัล 🎯 "นักข่าว" อาชีพที่ขับเคลื่อนความจริงและสังคมไทย 👥 นักข่าวเป็นอาชีพที่มีความสำคัญอย่างยิ่งต่อสังคม 📢 พวกเขาทำหน้าที่รายงานข้อเท็จจริง คัดกรองข่าวสาร และตรวจสอบอำนาจ 🌍 ในยุค AI สื่อมวลชนต้องเผชิญกับ Fake News การคุกคามจากอำนาจรัฐ และความเปลี่ยนแปลงของเทคโนโลยี 📌 อย่างไรก็ตาม จริยธรรม ความกล้าหาญ และการยึดมั่นในความจริง จะทำให้สื่อมวลชน ยังคงเป็นเสาหลักของประชาธิปไตย 💡 "เพราะข่าวที่ดี ไม่ใช่แค่ข่าวที่เร็ว แต่ต้องเป็นข่าวที่ถูกต้อง" ป้อม-อัครวัฒน์ ธนันฐ์กิตติกุล 051127 มี.ค. 2568 🔖 #วันนักข่าว #นักข่าวไทย #สื่อมวลชน #FreedomOfPress #AIกับสื่อ #ข่าวปลอม #FakeNews #Deepfake #PressFreedom #MediaEthics
    0 ความคิดเห็น 0 การแบ่งปัน 60 มุมมอง 0 รีวิว
  • Microsoft ได้ระบุรายชื่อของกลุ่มอาชญากรไซเบอร์ที่ถูกกล่าวหาว่าพัฒนาซอฟต์แวร์ที่เป็นอันตรายเพื่อข้ามการป้องกันของปัญญาประดิษฐ์ (AI) และสร้างเนื้อหา deepfake ของคนดังและเนื้อหาอื่น ๆ ที่ผิดกฎหมาย

    กลุ่มนี้ถูกติดตามโดย Microsoft ในชื่อ Storm-2139 และมีสมาชิกหลักคือ Arian Yadegarnia จากอิหร่าน (หรือที่รู้จักในชื่อ 'Fiz'), Alan Krysiak จากสหราชอาณาจักร (หรือที่รู้จักในชื่อ 'Drago'), Ricky Yuen จากฮ่องกง (หรือที่รู้จักในชื่อ 'cg-dot'), และ Phát Phùng Tấn จากเวียดนาม (หรือที่รู้จักในชื่อ 'Asakuri')

    วิธีการทำงานของกลุ่ม Storm-2139 สมาชิกของ Storm-2139 ใช้ข้อมูลประจำตัวของลูกค้าที่ถูกขโมยจากแหล่งที่เปิดเผยสู่สาธารณะเพื่อเข้าถึงบัญชีในบริการ AI สร้างเนื้อหา จากนั้นพวกเขาจะปรับเปลี่ยนความสามารถของบริการเหล่านั้นและขายการเข้าถึงให้กับกลุ่มอาชญากรอื่น ๆ พร้อมกับคำแนะนำในการสร้างเนื้อหาที่ผิดกฎหมาย เช่น ภาพลามกอนาจารของคนดัง

    การจัดการของกลุ่ม กลุ่มอาชญากรไซเบอร์ Storm-2139 แบ่งการทำงานออกเป็นสามประเภท: ผู้สร้างเครื่องมือ (creators), ผู้แจกจ่ายเครื่องมือ (providers), และผู้ใช้เครื่องมือ (users) ผู้สร้างเครื่องมือพัฒนาซอฟต์แวร์ที่ช่วยในการใช้บริการ AI ในทางที่ผิด ผู้แจกจ่ายเครื่องมือทำการปรับแต่งและเผยแพร่ซอฟต์แวร์นั้นให้กับผู้ใช้ ผู้ใช้จะใช้ซอฟต์แวร์เพื่อสร้างเนื้อหาที่ละเมิดนโยบายการใช้งานของ Microsoft

    มาตรการทางกฎหมาย Microsoft ได้ยื่นฟ้องกลุ่มนี้ในศาล Eastern District of Virginia ในเดือนธันวาคม 2024 และมีการออกคำสั่งห้ามชั่วคราวเพื่อหยุดการกระทำของพวกเขา นอกจากนี้ยังมีการยึดเว็บไซต์ที่เกี่ยวข้องกับกลุ่มเพื่อป้องกันการใช้บริการอย่างผิดกฎหมาย

    Microsoft ยังได้รับอีเมลหลายฉบับจากสมาชิกกลุ่ม Storm-2139 ที่ตำหนิซึ่งกันและกันในเรื่องการกระทำที่เป็นอันตราย

    การดำเนินการต่อไป Microsoft ตั้งเป้าที่จะหยุดการกระทำของกลุ่มนี้และดำเนินการสืบสวนเพิ่มเติมเพื่อป้องกันการนำ AI ไปใช้ในทางที่ผิดในอนาคต และเตรียมการส่งข้อมูลทางอาญาไปยังหน่วยงานบังคับใช้กฎหมายในสหรัฐฯ และต่างประเทศ

    https://www.bleepingcomputer.com/news/microsoft/microsoft-names-cybercriminals-behind-ai-deepfake-network/
    Microsoft ได้ระบุรายชื่อของกลุ่มอาชญากรไซเบอร์ที่ถูกกล่าวหาว่าพัฒนาซอฟต์แวร์ที่เป็นอันตรายเพื่อข้ามการป้องกันของปัญญาประดิษฐ์ (AI) และสร้างเนื้อหา deepfake ของคนดังและเนื้อหาอื่น ๆ ที่ผิดกฎหมาย กลุ่มนี้ถูกติดตามโดย Microsoft ในชื่อ Storm-2139 และมีสมาชิกหลักคือ Arian Yadegarnia จากอิหร่าน (หรือที่รู้จักในชื่อ 'Fiz'), Alan Krysiak จากสหราชอาณาจักร (หรือที่รู้จักในชื่อ 'Drago'), Ricky Yuen จากฮ่องกง (หรือที่รู้จักในชื่อ 'cg-dot'), และ Phát Phùng Tấn จากเวียดนาม (หรือที่รู้จักในชื่อ 'Asakuri') วิธีการทำงานของกลุ่ม Storm-2139 สมาชิกของ Storm-2139 ใช้ข้อมูลประจำตัวของลูกค้าที่ถูกขโมยจากแหล่งที่เปิดเผยสู่สาธารณะเพื่อเข้าถึงบัญชีในบริการ AI สร้างเนื้อหา จากนั้นพวกเขาจะปรับเปลี่ยนความสามารถของบริการเหล่านั้นและขายการเข้าถึงให้กับกลุ่มอาชญากรอื่น ๆ พร้อมกับคำแนะนำในการสร้างเนื้อหาที่ผิดกฎหมาย เช่น ภาพลามกอนาจารของคนดัง การจัดการของกลุ่ม กลุ่มอาชญากรไซเบอร์ Storm-2139 แบ่งการทำงานออกเป็นสามประเภท: ผู้สร้างเครื่องมือ (creators), ผู้แจกจ่ายเครื่องมือ (providers), และผู้ใช้เครื่องมือ (users) ผู้สร้างเครื่องมือพัฒนาซอฟต์แวร์ที่ช่วยในการใช้บริการ AI ในทางที่ผิด ผู้แจกจ่ายเครื่องมือทำการปรับแต่งและเผยแพร่ซอฟต์แวร์นั้นให้กับผู้ใช้ ผู้ใช้จะใช้ซอฟต์แวร์เพื่อสร้างเนื้อหาที่ละเมิดนโยบายการใช้งานของ Microsoft มาตรการทางกฎหมาย Microsoft ได้ยื่นฟ้องกลุ่มนี้ในศาล Eastern District of Virginia ในเดือนธันวาคม 2024 และมีการออกคำสั่งห้ามชั่วคราวเพื่อหยุดการกระทำของพวกเขา นอกจากนี้ยังมีการยึดเว็บไซต์ที่เกี่ยวข้องกับกลุ่มเพื่อป้องกันการใช้บริการอย่างผิดกฎหมาย Microsoft ยังได้รับอีเมลหลายฉบับจากสมาชิกกลุ่ม Storm-2139 ที่ตำหนิซึ่งกันและกันในเรื่องการกระทำที่เป็นอันตราย การดำเนินการต่อไป Microsoft ตั้งเป้าที่จะหยุดการกระทำของกลุ่มนี้และดำเนินการสืบสวนเพิ่มเติมเพื่อป้องกันการนำ AI ไปใช้ในทางที่ผิดในอนาคต และเตรียมการส่งข้อมูลทางอาญาไปยังหน่วยงานบังคับใช้กฎหมายในสหรัฐฯ และต่างประเทศ https://www.bleepingcomputer.com/news/microsoft/microsoft-names-cybercriminals-behind-ai-deepfake-network/
    WWW.BLEEPINGCOMPUTER.COM
    Microsoft names cybercriminals behind AI deepfake network
    Microsoft has named multiple threat actors part of a cybercrime gang accused of developing malicious tools capable of bypassing generative AI guardrails to generate celebrity deepfakes and other illicit content.
    0 ความคิดเห็น 0 การแบ่งปัน 131 มุมมอง 0 รีวิว
  • Norton ได้เพิ่มเครื่องมือป้องกันการหลอกลวง (scam) โดยใช้ปัญญาประดิษฐ์ (AI) ในแผนบริการของพวกเขา ซึ่งจะช่วยให้ผู้ใช้งานป้องกันการถูกหลอกลวงทางอินเทอร์เน็ตได้อย่างมีประสิทธิภาพมากขึ้น

    Norton ได้เปิดตัวเครื่องมือ Genie Scam Protection และ Genie Scam Protection Pro ที่ใช้ AI เพื่อวิเคราะห์และตรวจจับการหลอกลวงในข้อความ SMS อีเมล การโทรศัพท์ และการท่องเว็บ โดย Genie AI มีความสามารถในการวิเคราะห์ "ความหมายของคำ" ทำให้สามารถตรวจจับรูปแบบการหลอกลวงที่แม้แต่ผู้เชี่ยวชาญบางคนอาจพลาดได้

    แผนบริการที่ครอบคลุมที่สุดของ Norton คือ Norton 360 with LifeLock Ultimate Plus ยังรวมถึงการสนับสนุนในการจัดการกับการหลอกลวงและการคุ้มครองการคืนเงินด้วย

    Norton ได้เปิดตัว Norton Genie ตั้งแต่ปี 2023 เพื่อช่วยผู้ใช้งานวิเคราะห์ข้อความและภาพที่น่าสงสัยแบบเรียลไทม์ แต่ในตอนนี้ บริษัทได้สร้างฟีเจอร์นี้เป็นส่วนหนึ่งของแผนบริการ Norton ทำให้ผู้ใช้งานได้รับการป้องกันโดยอัตโนมัติ

    ผู้ที่ซื้อผลิตภัณฑ์ Cyber Safety ของ Norton เช่น Norton AntiVirus Plus, Norton Mobile Security, และ Norton 360 จะได้รับ Genie Scam Protection ฟรี ฟีเจอร์นี้จะช่วยสแกนข้อความ SMS เว็บไซต์อินเทอร์เน็ต การโทร และอีเมล โดยมีผู้ช่วย AI ที่รวมแอป Norton Genie AI ให้คำแนะนำทันทีเกี่ยวกับการหลอกลวงและข้อเสนอที่น่าสงสัย

    เครื่องมือเหล่านี้พร้อมใช้งานในสหรัฐอเมริกาแล้วและจะขยายไปยังภูมิภาคอื่น ๆ ในไม่ช้า Leena Elias, หัวหน้าเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ของ Gen กล่าวว่า การเพิ่ม AI เข้ามาในโซลูชันความปลอดภัยไซเบอร์เป็นก้าวที่สมเหตุสมผล เนื่องจากผู้หลอกลวงได้ใช้ AI ในการโจมตีมานานแล้ว

    Norton ยังมีแผนที่จะรวมการตรวจจับ deepfake และการหลอกลวงในพีซีที่สนับสนุน AI ในอนาคต เพื่อช่วยผู้ใช้งานให้ปลอดภัยยิ่งขึ้นในยุคที่การหลอกลวงมีความซับซ้อนและเป็นจริงมากขึ้น

    https://www.techradar.com/pro/security/norton-boosts-ai-scam-protection-tools-for-all-users
    Norton ได้เพิ่มเครื่องมือป้องกันการหลอกลวง (scam) โดยใช้ปัญญาประดิษฐ์ (AI) ในแผนบริการของพวกเขา ซึ่งจะช่วยให้ผู้ใช้งานป้องกันการถูกหลอกลวงทางอินเทอร์เน็ตได้อย่างมีประสิทธิภาพมากขึ้น Norton ได้เปิดตัวเครื่องมือ Genie Scam Protection และ Genie Scam Protection Pro ที่ใช้ AI เพื่อวิเคราะห์และตรวจจับการหลอกลวงในข้อความ SMS อีเมล การโทรศัพท์ และการท่องเว็บ โดย Genie AI มีความสามารถในการวิเคราะห์ "ความหมายของคำ" ทำให้สามารถตรวจจับรูปแบบการหลอกลวงที่แม้แต่ผู้เชี่ยวชาญบางคนอาจพลาดได้ แผนบริการที่ครอบคลุมที่สุดของ Norton คือ Norton 360 with LifeLock Ultimate Plus ยังรวมถึงการสนับสนุนในการจัดการกับการหลอกลวงและการคุ้มครองการคืนเงินด้วย Norton ได้เปิดตัว Norton Genie ตั้งแต่ปี 2023 เพื่อช่วยผู้ใช้งานวิเคราะห์ข้อความและภาพที่น่าสงสัยแบบเรียลไทม์ แต่ในตอนนี้ บริษัทได้สร้างฟีเจอร์นี้เป็นส่วนหนึ่งของแผนบริการ Norton ทำให้ผู้ใช้งานได้รับการป้องกันโดยอัตโนมัติ ผู้ที่ซื้อผลิตภัณฑ์ Cyber Safety ของ Norton เช่น Norton AntiVirus Plus, Norton Mobile Security, และ Norton 360 จะได้รับ Genie Scam Protection ฟรี ฟีเจอร์นี้จะช่วยสแกนข้อความ SMS เว็บไซต์อินเทอร์เน็ต การโทร และอีเมล โดยมีผู้ช่วย AI ที่รวมแอป Norton Genie AI ให้คำแนะนำทันทีเกี่ยวกับการหลอกลวงและข้อเสนอที่น่าสงสัย เครื่องมือเหล่านี้พร้อมใช้งานในสหรัฐอเมริกาแล้วและจะขยายไปยังภูมิภาคอื่น ๆ ในไม่ช้า Leena Elias, หัวหน้าเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ของ Gen กล่าวว่า การเพิ่ม AI เข้ามาในโซลูชันความปลอดภัยไซเบอร์เป็นก้าวที่สมเหตุสมผล เนื่องจากผู้หลอกลวงได้ใช้ AI ในการโจมตีมานานแล้ว Norton ยังมีแผนที่จะรวมการตรวจจับ deepfake และการหลอกลวงในพีซีที่สนับสนุน AI ในอนาคต เพื่อช่วยผู้ใช้งานให้ปลอดภัยยิ่งขึ้นในยุคที่การหลอกลวงมีความซับซ้อนและเป็นจริงมากขึ้น https://www.techradar.com/pro/security/norton-boosts-ai-scam-protection-tools-for-all-users
    WWW.TECHRADAR.COM
    Norton boosts AI scam protection tools for all users
    AI-powered scam protection built directly into Norton plans
    0 ความคิดเห็น 0 การแบ่งปัน 144 มุมมอง 0 รีวิว
  • Alibaba Cloud ซึ่งเป็นหน่วยงานด้านคลาวด์คอมพิวติ้งของ Alibaba Group ได้เปิดตัวโมเดลปัญญาประดิษฐ์ (AI) รุ่นใหม่ชื่อว่า Animate Anyone 2 โมเดลนี้ออกแบบมาเพื่อช่วยให้นักพัฒนาสามารถสร้างแอนิเมชันตัวละครที่เสมือนจริงจากภาพนิ่งและวิดีโอเพียงหนึ่งคลิปได้อย่างง่ายดาย

    Animate Anyone 2 สามารถประมวลผลสัญญาณการเคลื่อนไหวและสัญญาณสิ่งแวดล้อมจากเนื้อหาที่เป็นแหล่งอ้างอิง เช่น วิดีโอต้นฉบับ เพื่อสร้างคลิปใหม่ที่มีความสมจริงสูง เมื่อเปรียบเทียบกับวิธีการสร้างแอนิเมชันตัวละครในอดีตที่ใช้เพียงสัญญาณการเคลื่อนไหวเท่านั้น โมเดลนี้ช่วยให้ตัวละครสามารถแสดงการเคลื่อนไหวที่สมจริงและประสานกับสิ่งแวดล้อมเดิมได้อย่างไม่มีสะดุด

    โมเดลนี้สร้างขึ้นจากเวอร์ชันแรกของ Animate Anyone ที่ประกาศเปิดตัวในปลายปี 2023 ซึ่งเน้นการสร้างวิดีโอตัวละครจากภาพนิ่ง หลังจากนั้น OpenAI ผู้สร้าง ChatGPT ก็ได้เปิดตัวโมเดล Sora ที่สามารถสร้างวิดีโอจากข้อความได้ ทำให้เกิดการแข่งขันในวงการเทคโนโลยี AI ของบริษัทใหญ่ในจีนและสตาร์ทอัพหลายแห่ง

    นอกจากนี้ Animate Anyone 2 ยังมีความสามารถในการสร้างการโต้ตอบระหว่างตัวละครโดยรักษาความสมเหตุสมผลของการเคลื่อนไหวและความสอดคล้องกับสิ่งแวดล้อมด้วย ทีมวิจัยจาก Tongyi Lab ซึ่งเป็นหน่วยวิจัยและพัฒนาโมเดลภาษาขนาดใหญ่ (LLM) ของ Alibaba Cloud ได้นำเสนอผลการศึกษานี้ใน arXiv ซึ่งเป็นแหล่งเก็บข้อมูลงานวิจัยแบบโอเพนซอร์ส

    สิ่งที่น่าสนใจคือ ByteDance บริษัทเจ้าของ TikTok ก็เพิ่งเปิดตัวโมเดลมัลติโมดัลชื่อ OmniHuman-1 ที่สามารถเปลี่ยนภาพและเสียงให้เป็นวิดีโอที่ดูสมจริง การเปิดตัวโมเดลเหล่านี้ทำให้วงการสื่อและโฆษณามีความเปลี่ยนแปลงอย่างมาก โดยเฉพาะในจีนที่โมเดล Sora ยังไม่สามารถใช้งานได้

    เพื่อทดสอบวิธีการของ Animate Anyone 2 ในหลายสถานการณ์ ทีมวิจัยได้เก็บรวบรวมวิดีโอตัวละคร 100,000 คลิปจากอินเทอร์เน็ต ซึ่งรวมถึงหลายประเภทของฉาก การกระทำ และการโต้ตอบระหว่างคนและวัตถุ อย่างไรก็ตาม การใช้โมเดลวีดีโอเจเนอเรชันเหล่านี้ยังมีความเสี่ยงที่จะมีการแพร่กระจายวิดีโอ deepfake เพิ่มขึ้น

    Liang Haisheng ผู้เชี่ยวชาญด้านโฆษณาจากปักกิ่งกล่าวว่า แม้ว่าเครื่องมือสร้างวิดีโอเหล่านี้จะมีประโยชน์ในการทำวิดีโอตัวอย่างเพื่อเสนอไอเดียให้กับลูกค้า แต่พวกมันยังขาดความสามารถในการแสดงอารมณ์และการแสดงหน้าที่ละเอียดอ่อนของมนุษย์

    https://www.thestar.com.my/tech/tech-news/2025/02/21/alibaba-cloud-ai-model-animate-anyone-2-simplifies-making-of-lifelike-character-animation
    Alibaba Cloud ซึ่งเป็นหน่วยงานด้านคลาวด์คอมพิวติ้งของ Alibaba Group ได้เปิดตัวโมเดลปัญญาประดิษฐ์ (AI) รุ่นใหม่ชื่อว่า Animate Anyone 2 โมเดลนี้ออกแบบมาเพื่อช่วยให้นักพัฒนาสามารถสร้างแอนิเมชันตัวละครที่เสมือนจริงจากภาพนิ่งและวิดีโอเพียงหนึ่งคลิปได้อย่างง่ายดาย Animate Anyone 2 สามารถประมวลผลสัญญาณการเคลื่อนไหวและสัญญาณสิ่งแวดล้อมจากเนื้อหาที่เป็นแหล่งอ้างอิง เช่น วิดีโอต้นฉบับ เพื่อสร้างคลิปใหม่ที่มีความสมจริงสูง เมื่อเปรียบเทียบกับวิธีการสร้างแอนิเมชันตัวละครในอดีตที่ใช้เพียงสัญญาณการเคลื่อนไหวเท่านั้น โมเดลนี้ช่วยให้ตัวละครสามารถแสดงการเคลื่อนไหวที่สมจริงและประสานกับสิ่งแวดล้อมเดิมได้อย่างไม่มีสะดุด โมเดลนี้สร้างขึ้นจากเวอร์ชันแรกของ Animate Anyone ที่ประกาศเปิดตัวในปลายปี 2023 ซึ่งเน้นการสร้างวิดีโอตัวละครจากภาพนิ่ง หลังจากนั้น OpenAI ผู้สร้าง ChatGPT ก็ได้เปิดตัวโมเดล Sora ที่สามารถสร้างวิดีโอจากข้อความได้ ทำให้เกิดการแข่งขันในวงการเทคโนโลยี AI ของบริษัทใหญ่ในจีนและสตาร์ทอัพหลายแห่ง นอกจากนี้ Animate Anyone 2 ยังมีความสามารถในการสร้างการโต้ตอบระหว่างตัวละครโดยรักษาความสมเหตุสมผลของการเคลื่อนไหวและความสอดคล้องกับสิ่งแวดล้อมด้วย ทีมวิจัยจาก Tongyi Lab ซึ่งเป็นหน่วยวิจัยและพัฒนาโมเดลภาษาขนาดใหญ่ (LLM) ของ Alibaba Cloud ได้นำเสนอผลการศึกษานี้ใน arXiv ซึ่งเป็นแหล่งเก็บข้อมูลงานวิจัยแบบโอเพนซอร์ส สิ่งที่น่าสนใจคือ ByteDance บริษัทเจ้าของ TikTok ก็เพิ่งเปิดตัวโมเดลมัลติโมดัลชื่อ OmniHuman-1 ที่สามารถเปลี่ยนภาพและเสียงให้เป็นวิดีโอที่ดูสมจริง การเปิดตัวโมเดลเหล่านี้ทำให้วงการสื่อและโฆษณามีความเปลี่ยนแปลงอย่างมาก โดยเฉพาะในจีนที่โมเดล Sora ยังไม่สามารถใช้งานได้ เพื่อทดสอบวิธีการของ Animate Anyone 2 ในหลายสถานการณ์ ทีมวิจัยได้เก็บรวบรวมวิดีโอตัวละคร 100,000 คลิปจากอินเทอร์เน็ต ซึ่งรวมถึงหลายประเภทของฉาก การกระทำ และการโต้ตอบระหว่างคนและวัตถุ อย่างไรก็ตาม การใช้โมเดลวีดีโอเจเนอเรชันเหล่านี้ยังมีความเสี่ยงที่จะมีการแพร่กระจายวิดีโอ deepfake เพิ่มขึ้น Liang Haisheng ผู้เชี่ยวชาญด้านโฆษณาจากปักกิ่งกล่าวว่า แม้ว่าเครื่องมือสร้างวิดีโอเหล่านี้จะมีประโยชน์ในการทำวิดีโอตัวอย่างเพื่อเสนอไอเดียให้กับลูกค้า แต่พวกมันยังขาดความสามารถในการแสดงอารมณ์และการแสดงหน้าที่ละเอียดอ่อนของมนุษย์ https://www.thestar.com.my/tech/tech-news/2025/02/21/alibaba-cloud-ai-model-animate-anyone-2-simplifies-making-of-lifelike-character-animation
    WWW.THESTAR.COM.MY
    Alibaba Cloud AI model Animate Anyone 2 simplifies making of lifelike character animation
    China appears to have upped the ante in this field of generative AI, which is poised to disrupt the entertainment and advertising industries.
    0 ความคิดเห็น 0 การแบ่งปัน 224 มุมมอง 0 รีวิว
  • มีการเพิ่มขึ้นของการใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ (Generative AI) ในกลุ่มวัยรุ่นทั่วโลก แม้ว่าเทคโนโลยีนี้จะเป็นที่นิยมและมีประโยชน์ในหลาย ๆ ด้าน แต่ก็มีความเสี่ยงที่มาพร้อมกับการใช้งานโดยเฉพาะในกลุ่มเยาวชน

    ในปีที่ผ่านมา การใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ในกลุ่มคนทั่วไปเพิ่มขึ้นอย่างมาก โดยเฉพาะในอินเดียที่มีผู้ใช้งานสูงถึง 80% รองลงมาคือสิงคโปร์ แอฟริกาใต้ บราซิล และสหรัฐอเมริกา แต่ในขณะเดียวกัน 88% ของผู้สำรวจรู้สึกกังวลเกี่ยวกับความเสี่ยงที่มาพร้อมกับเทคโนโลยีนี้ เช่น การปกป้องข้อมูลส่วนบุคคลและการปลอมแปลงภาพ

    วัยรุ่นเป็นกลุ่มที่มีความเสี่ยงสูงในการได้รับข้อมูลเท็จ คำพูดแสดงความเกลียดชัง และเนื้อหาที่มีความรุนแรง นอกจากนี้ยังมีความเสี่ยงเกี่ยวกับการกลั่นแกล้งทางอินเตอร์เน็ต การทำร้ายตัวเอง และการเข้าถึงภาพลามกปลอมแบบลึกซึ้ง (deepfake pornography)

    เมื่อเผชิญกับความเสี่ยงออนไลน์ วัยรุ่นส่วนใหญ่มักจะเปลี่ยนเนื้อหา บล็อกผู้ติดต่อ หรือปิดเสียง และมักจะพูดคุยกับคนรอบข้างเกี่ยวกับประสบการณ์ของพวกเขา อย่างไรก็ตาม มีเพียง 37% เท่านั้นที่รายงานเหตุการณ์เพราะพวกเขาเชื่อว่ามันจะไม่ส่งผลกระทบต่อผู้กระทำผิด

    นอกจากนี้ยังมีข้อกังวลจากผู้ปกครองเกี่ยวกับการใช้ AI เพื่อการโกงในโรงเรียนและการเข้าถึงเนื้อหาที่เป็นอันตราย การวิจัยยังเผยให้เห็นว่ามีเพียง 38% ของผู้สำรวจที่สามารถแยกแยะภาพจริงจากภาพที่สร้างโดย AI ได้อย่างถูกต้อง

    https://www.thestar.com.my/tech/tech-news/2025/02/13/teens-and-the-risks-of-generative-ai
    มีการเพิ่มขึ้นของการใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ (Generative AI) ในกลุ่มวัยรุ่นทั่วโลก แม้ว่าเทคโนโลยีนี้จะเป็นที่นิยมและมีประโยชน์ในหลาย ๆ ด้าน แต่ก็มีความเสี่ยงที่มาพร้อมกับการใช้งานโดยเฉพาะในกลุ่มเยาวชน ในปีที่ผ่านมา การใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ในกลุ่มคนทั่วไปเพิ่มขึ้นอย่างมาก โดยเฉพาะในอินเดียที่มีผู้ใช้งานสูงถึง 80% รองลงมาคือสิงคโปร์ แอฟริกาใต้ บราซิล และสหรัฐอเมริกา แต่ในขณะเดียวกัน 88% ของผู้สำรวจรู้สึกกังวลเกี่ยวกับความเสี่ยงที่มาพร้อมกับเทคโนโลยีนี้ เช่น การปกป้องข้อมูลส่วนบุคคลและการปลอมแปลงภาพ วัยรุ่นเป็นกลุ่มที่มีความเสี่ยงสูงในการได้รับข้อมูลเท็จ คำพูดแสดงความเกลียดชัง และเนื้อหาที่มีความรุนแรง นอกจากนี้ยังมีความเสี่ยงเกี่ยวกับการกลั่นแกล้งทางอินเตอร์เน็ต การทำร้ายตัวเอง และการเข้าถึงภาพลามกปลอมแบบลึกซึ้ง (deepfake pornography) เมื่อเผชิญกับความเสี่ยงออนไลน์ วัยรุ่นส่วนใหญ่มักจะเปลี่ยนเนื้อหา บล็อกผู้ติดต่อ หรือปิดเสียง และมักจะพูดคุยกับคนรอบข้างเกี่ยวกับประสบการณ์ของพวกเขา อย่างไรก็ตาม มีเพียง 37% เท่านั้นที่รายงานเหตุการณ์เพราะพวกเขาเชื่อว่ามันจะไม่ส่งผลกระทบต่อผู้กระทำผิด นอกจากนี้ยังมีข้อกังวลจากผู้ปกครองเกี่ยวกับการใช้ AI เพื่อการโกงในโรงเรียนและการเข้าถึงเนื้อหาที่เป็นอันตราย การวิจัยยังเผยให้เห็นว่ามีเพียง 38% ของผู้สำรวจที่สามารถแยกแยะภาพจริงจากภาพที่สร้างโดย AI ได้อย่างถูกต้อง https://www.thestar.com.my/tech/tech-news/2025/02/13/teens-and-the-risks-of-generative-ai
    WWW.THESTAR.COM.MY
    Teens and the risks of generative AI
    The rise of artificial intelligence is contributing to an increase in risky content, whether it be disinformation or explicit images. Teenagers are particularly exposed to this type of content and do not hesitate to take action when they deem it necessary.
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 201 มุมมอง 0 รีวิว
  • การควบคุมมนุษย์ด้วย AI เป็นหัวข้อที่ซับซ้อนและมีประเด็นทางจริยธรรมมากมาย ซึ่งอาจนำไปสู่การใช้งานทั้งในทางที่ดีและไม่ดี ต่อไปนี้เป็นแนวคิดบางส่วนเกี่ยวกับรูปแบบการควบคุมมนุษย์ด้วย AI:

    ### 1. **การควบคุมผ่านข้อมูล (Data Control)**
    - **การเก็บข้อมูลส่วนบุคคล:** AI สามารถรวบรวมและวิเคราะห์ข้อมูลส่วนบุคคล เช่น พฤติกรรมการใช้โซเชียลมีเดีย, สุขภาพ, หรือการเงิน เพื่อสร้างแบบแผนพฤติกรรมของแต่ละบุคคล
    - **การโฆษณาแบบกำหนดเป้าหมาย:** ใช้ AI เพื่อวิเคราะห์ข้อมูลและโฆษณาสินค้าหรือบริการที่ตรงกับความสนใจของผู้ใช้ ซึ่งอาจส่งผลต่อการตัดสินใจของผู้บริโภค

    ### 2. **การควบคุมผ่านการตัดสินใจ (Decision Control)**
    - **ระบบแนะนำ (Recommendation Systems):** AI สามารถแนะนำทางเลือกให้กับผู้ใช้ เช่น วิดีโอที่ควรดู, สินค้าที่ควรซื้อ, หรือแม้แต่เส้นทางที่ควรเดินทาง ซึ่งอาจส่งผลต่อพฤติกรรมของผู้ใช้
    - **ระบบอัตโนมัติ:** AI สามารถควบคุมระบบอัตโนมัติ เช่น รถยนต์ไร้คนขับ, ระบบจัดการพลังงานในบ้าน, หรือแม้แต่ระบบการเงินส่วนบุคคล

    ### 3. **การควบคุมผ่านการสื่อสาร (Communication Control)**
    - **แชทบอทและผู้ช่วยเสมือน:** AI สามารถใช้ในการสื่อสารกับมนุษย์ผ่านแชทบอทหรือผู้ช่วยเสมือน ซึ่งอาจถูกใช้เพื่อโน้มน้าวหรือชี้นำความคิดเห็นของผู้ใช้
    - **Deepfake และการปลอมแปลงข้อมูล:** AI สามารถสร้างเนื้อหาปลอม เช่น วิดีโอหรือเสียง ที่ดูเหมือนจริง เพื่อโน้มน้าวหรือหลอกลวงผู้คน

    ### 4. **การควบคุมผ่านการเฝ้าระวัง (Surveillance Control)**
    - **การเฝ้าระวังด้วยกล้อง:** AI สามารถใช้ในการวิเคราะห์ภาพจากกล้องวงจรปิดเพื่อติดตามพฤติกรรมของบุคคล
    - **การวิเคราะห์เสียง:** AI สามารถวิเคราะห์เสียงเพื่อตรวจจับอารมณ์หรือความตั้งใจของบุคคล

    ### 5. **การควบคุมผ่านการชี้นำทางสังคม (Social Influence Control)**
    - **โซเชียลมีเดีย:** AI สามารถใช้ในการวิเคราะห์และชี้นำกระแสสังคมบนโซเชียลมีเดีย เพื่อสร้างความนิยมหรือลดทอนความน่าเชื่อถือของข้อมูลบางอย่าง
    - **การสร้างเนื้อหา:** AI สามารถสร้างเนื้อหาที่มีอิทธิพลต่อความคิดเห็นของสาธารณชน เช่น ข่าวปลอมหรือบทความโน้มน้าวใจ

    ### 6. **การควบคุมผ่านระบบกฎหมายและกฎระเบียบ (Legal and Regulatory Control)**
    - **การบังคับใช้กฎหมาย:** AI สามารถใช้ในการวิเคราะห์ข้อมูลเพื่อบังคับใช้กฎหมาย เช่น การตรวจจับการทุจริตหรือการละเมิดกฎหมาย
    - **การตัดสินใจทางกฎหมาย:** AI อาจถูกใช้ในการช่วยตัดสินใจทางกฎหมาย เช่น การพิจารณาคดีหรือการให้คำแนะนำทางกฎหมาย

    ### 7. **การควบคุมผ่านการชี้นำทางจิตวิทยา (Psychological Influence Control)**
    - **การวิเคราะห์อารมณ์:** AI สามารถวิเคราะห์อารมณ์ของบุคคลผ่านการวิเคราะห์ข้อความ, เสียง, หรือภาพ เพื่อชี้นำหรือโน้มน้าวใจ
    - **การบำบัดด้วย AI:** AI สามารถใช้ในการบำบัดทางจิตวิทยา ซึ่งอาจส่งผลต่อความคิดและพฤติกรรมของผู้ป่วย

    ### 8. **การควบคุมผ่านระบบการศึกษา (Educational Control)**
    - **ระบบการเรียนรู้แบบปรับตัว:** AI สามารถปรับเนื้อหาการเรียนรู้ให้เหมาะกับแต่ละบุคคล ซึ่งอาจส่งผลต่อความรู้และทักษะที่ผู้เรียนได้รับ
    - **การประเมินผล:** AI สามารถใช้ในการประเมินผลการเรียนรู้และให้คำแนะนำเพื่อปรับปรุงประสิทธิภาพ

    ### 9. **การควบคุมผ่านระบบสุขภาพ (Health Control)**
    - **การวินิจฉัยโรค:** AI สามารถใช้ในการวินิจฉัยโรคและแนะนำการรักษา ซึ่งอาจส่งผลต่อสุขภาพและความเป็นอยู่ของบุคคล
    - **การติดตามสุขภาพ:** AI สามารถติดตามสุขภาพของบุคคลผ่านอุปกรณ์ wearable devices และให้คำแนะนำเพื่อปรับปรุงสุขภาพ

    ### 10. **การควบคุมผ่านระบบการเงิน (Financial Control)**
    - **การวิเคราะห์การเงิน:** AI สามารถวิเคราะห์พฤติกรรมการใช้เงินและให้คำแนะนำทางการเงิน ซึ่งอาจส่งผลต่อการตัดสินใจทางการเงินของบุคคล
    - **การจัดการพอร์ตโฟลิโอ:** AI สามารถใช้ในการจัดการพอร์ตโฟลิโอการลงทุน ซึ่งอาจส่งผลต่อความมั่งคั่งของบุคคล

    ### จริยธรรมและความเสี่ยง
    การควบคุมมนุษย์ด้วย AI มีความเสี่ยงทางจริยธรรมมากมาย เช่น การละเมิดความเป็นส่วนตัว, การบังคับใช้อำนาจ, และการสร้างความไม่เท่าเทียมกันในสังคม ดังนั้น การออกแบบและใช้งาน AI ควรคำนึงถึงหลักจริยธรรมและกฎหมายเพื่อป้องกันการใช้งานในทางที่ผิด

    ### สรุป
    AI มีศักยภาพในการควบคุมมนุษย์ผ่านหลายช่องทาง ทั้งทางตรงและทางอ้อม การใช้งาน AI ควรคำนึงถึงผลกระทบทางสังคมและจริยธรรม เพื่อให้เกิดประโยชน์สูงสุดและลดความเสี่ยงต่อมนุษย์และสังคม
    การควบคุมมนุษย์ด้วย AI เป็นหัวข้อที่ซับซ้อนและมีประเด็นทางจริยธรรมมากมาย ซึ่งอาจนำไปสู่การใช้งานทั้งในทางที่ดีและไม่ดี ต่อไปนี้เป็นแนวคิดบางส่วนเกี่ยวกับรูปแบบการควบคุมมนุษย์ด้วย AI: ### 1. **การควบคุมผ่านข้อมูล (Data Control)** - **การเก็บข้อมูลส่วนบุคคล:** AI สามารถรวบรวมและวิเคราะห์ข้อมูลส่วนบุคคล เช่น พฤติกรรมการใช้โซเชียลมีเดีย, สุขภาพ, หรือการเงิน เพื่อสร้างแบบแผนพฤติกรรมของแต่ละบุคคล - **การโฆษณาแบบกำหนดเป้าหมาย:** ใช้ AI เพื่อวิเคราะห์ข้อมูลและโฆษณาสินค้าหรือบริการที่ตรงกับความสนใจของผู้ใช้ ซึ่งอาจส่งผลต่อการตัดสินใจของผู้บริโภค ### 2. **การควบคุมผ่านการตัดสินใจ (Decision Control)** - **ระบบแนะนำ (Recommendation Systems):** AI สามารถแนะนำทางเลือกให้กับผู้ใช้ เช่น วิดีโอที่ควรดู, สินค้าที่ควรซื้อ, หรือแม้แต่เส้นทางที่ควรเดินทาง ซึ่งอาจส่งผลต่อพฤติกรรมของผู้ใช้ - **ระบบอัตโนมัติ:** AI สามารถควบคุมระบบอัตโนมัติ เช่น รถยนต์ไร้คนขับ, ระบบจัดการพลังงานในบ้าน, หรือแม้แต่ระบบการเงินส่วนบุคคล ### 3. **การควบคุมผ่านการสื่อสาร (Communication Control)** - **แชทบอทและผู้ช่วยเสมือน:** AI สามารถใช้ในการสื่อสารกับมนุษย์ผ่านแชทบอทหรือผู้ช่วยเสมือน ซึ่งอาจถูกใช้เพื่อโน้มน้าวหรือชี้นำความคิดเห็นของผู้ใช้ - **Deepfake และการปลอมแปลงข้อมูล:** AI สามารถสร้างเนื้อหาปลอม เช่น วิดีโอหรือเสียง ที่ดูเหมือนจริง เพื่อโน้มน้าวหรือหลอกลวงผู้คน ### 4. **การควบคุมผ่านการเฝ้าระวัง (Surveillance Control)** - **การเฝ้าระวังด้วยกล้อง:** AI สามารถใช้ในการวิเคราะห์ภาพจากกล้องวงจรปิดเพื่อติดตามพฤติกรรมของบุคคล - **การวิเคราะห์เสียง:** AI สามารถวิเคราะห์เสียงเพื่อตรวจจับอารมณ์หรือความตั้งใจของบุคคล ### 5. **การควบคุมผ่านการชี้นำทางสังคม (Social Influence Control)** - **โซเชียลมีเดีย:** AI สามารถใช้ในการวิเคราะห์และชี้นำกระแสสังคมบนโซเชียลมีเดีย เพื่อสร้างความนิยมหรือลดทอนความน่าเชื่อถือของข้อมูลบางอย่าง - **การสร้างเนื้อหา:** AI สามารถสร้างเนื้อหาที่มีอิทธิพลต่อความคิดเห็นของสาธารณชน เช่น ข่าวปลอมหรือบทความโน้มน้าวใจ ### 6. **การควบคุมผ่านระบบกฎหมายและกฎระเบียบ (Legal and Regulatory Control)** - **การบังคับใช้กฎหมาย:** AI สามารถใช้ในการวิเคราะห์ข้อมูลเพื่อบังคับใช้กฎหมาย เช่น การตรวจจับการทุจริตหรือการละเมิดกฎหมาย - **การตัดสินใจทางกฎหมาย:** AI อาจถูกใช้ในการช่วยตัดสินใจทางกฎหมาย เช่น การพิจารณาคดีหรือการให้คำแนะนำทางกฎหมาย ### 7. **การควบคุมผ่านการชี้นำทางจิตวิทยา (Psychological Influence Control)** - **การวิเคราะห์อารมณ์:** AI สามารถวิเคราะห์อารมณ์ของบุคคลผ่านการวิเคราะห์ข้อความ, เสียง, หรือภาพ เพื่อชี้นำหรือโน้มน้าวใจ - **การบำบัดด้วย AI:** AI สามารถใช้ในการบำบัดทางจิตวิทยา ซึ่งอาจส่งผลต่อความคิดและพฤติกรรมของผู้ป่วย ### 8. **การควบคุมผ่านระบบการศึกษา (Educational Control)** - **ระบบการเรียนรู้แบบปรับตัว:** AI สามารถปรับเนื้อหาการเรียนรู้ให้เหมาะกับแต่ละบุคคล ซึ่งอาจส่งผลต่อความรู้และทักษะที่ผู้เรียนได้รับ - **การประเมินผล:** AI สามารถใช้ในการประเมินผลการเรียนรู้และให้คำแนะนำเพื่อปรับปรุงประสิทธิภาพ ### 9. **การควบคุมผ่านระบบสุขภาพ (Health Control)** - **การวินิจฉัยโรค:** AI สามารถใช้ในการวินิจฉัยโรคและแนะนำการรักษา ซึ่งอาจส่งผลต่อสุขภาพและความเป็นอยู่ของบุคคล - **การติดตามสุขภาพ:** AI สามารถติดตามสุขภาพของบุคคลผ่านอุปกรณ์ wearable devices และให้คำแนะนำเพื่อปรับปรุงสุขภาพ ### 10. **การควบคุมผ่านระบบการเงิน (Financial Control)** - **การวิเคราะห์การเงิน:** AI สามารถวิเคราะห์พฤติกรรมการใช้เงินและให้คำแนะนำทางการเงิน ซึ่งอาจส่งผลต่อการตัดสินใจทางการเงินของบุคคล - **การจัดการพอร์ตโฟลิโอ:** AI สามารถใช้ในการจัดการพอร์ตโฟลิโอการลงทุน ซึ่งอาจส่งผลต่อความมั่งคั่งของบุคคล ### จริยธรรมและความเสี่ยง การควบคุมมนุษย์ด้วย AI มีความเสี่ยงทางจริยธรรมมากมาย เช่น การละเมิดความเป็นส่วนตัว, การบังคับใช้อำนาจ, และการสร้างความไม่เท่าเทียมกันในสังคม ดังนั้น การออกแบบและใช้งาน AI ควรคำนึงถึงหลักจริยธรรมและกฎหมายเพื่อป้องกันการใช้งานในทางที่ผิด ### สรุป AI มีศักยภาพในการควบคุมมนุษย์ผ่านหลายช่องทาง ทั้งทางตรงและทางอ้อม การใช้งาน AI ควรคำนึงถึงผลกระทบทางสังคมและจริยธรรม เพื่อให้เกิดประโยชน์สูงสุดและลดความเสี่ยงต่อมนุษย์และสังคม
    0 ความคิดเห็น 0 การแบ่งปัน 296 มุมมอง 0 รีวิว
  • การควบคุมมนุษย์ด้วย AI เป็นหัวข้อที่ซับซ้อนและมีประเด็นทางจริยธรรมมากมาย ซึ่งอาจนำไปสู่การใช้งานทั้งในทางที่ดีและไม่ดี ต่อไปนี้เป็นแนวคิดบางส่วนเกี่ยวกับรูปแบบการควบคุมมนุษย์ด้วย AI:

    ### 1. **การควบคุมผ่านข้อมูล (Data Control)**
    - **การเก็บข้อมูลส่วนบุคคล:** AI สามารถรวบรวมและวิเคราะห์ข้อมูลส่วนบุคคล เช่น พฤติกรรมการใช้โซเชียลมีเดีย, สุขภาพ, หรือการเงิน เพื่อสร้างแบบแผนพฤติกรรมของแต่ละบุคคล
    - **การโฆษณาแบบกำหนดเป้าหมาย:** ใช้ AI เพื่อวิเคราะห์ข้อมูลและโฆษณาสินค้าหรือบริการที่ตรงกับความสนใจของผู้ใช้ ซึ่งอาจส่งผลต่อการตัดสินใจของผู้บริโภค

    ### 2. **การควบคุมผ่านการตัดสินใจ (Decision Control)**
    - **ระบบแนะนำ (Recommendation Systems):** AI สามารถแนะนำทางเลือกให้กับผู้ใช้ เช่น วิดีโอที่ควรดู, สินค้าที่ควรซื้อ, หรือแม้แต่เส้นทางที่ควรเดินทาง ซึ่งอาจส่งผลต่อพฤติกรรมของผู้ใช้
    - **ระบบอัตโนมัติ:** AI สามารถควบคุมระบบอัตโนมัติ เช่น รถยนต์ไร้คนขับ, ระบบจัดการพลังงานในบ้าน, หรือแม้แต่ระบบการเงินส่วนบุคคล

    ### 3. **การควบคุมผ่านการสื่อสาร (Communication Control)**
    - **แชทบอทและผู้ช่วยเสมือน:** AI สามารถใช้ในการสื่อสารกับมนุษย์ผ่านแชทบอทหรือผู้ช่วยเสมือน ซึ่งอาจถูกใช้เพื่อโน้มน้าวหรือชี้นำความคิดเห็นของผู้ใช้
    - **Deepfake และการปลอมแปลงข้อมูล:** AI สามารถสร้างเนื้อหาปลอม เช่น วิดีโอหรือเสียง ที่ดูเหมือนจริง เพื่อโน้มน้าวหรือหลอกลวงผู้คน

    ### 4. **การควบคุมผ่านการเฝ้าระวัง (Surveillance Control)**
    - **การเฝ้าระวังด้วยกล้อง:** AI สามารถใช้ในการวิเคราะห์ภาพจากกล้องวงจรปิดเพื่อติดตามพฤติกรรมของบุคคล
    - **การวิเคราะห์เสียง:** AI สามารถวิเคราะห์เสียงเพื่อตรวจจับอารมณ์หรือความตั้งใจของบุคคล

    ### 5. **การควบคุมผ่านการชี้นำทางสังคม (Social Influence Control)**
    - **โซเชียลมีเดีย:** AI สามารถใช้ในการวิเคราะห์และชี้นำกระแสสังคมบนโซเชียลมีเดีย เพื่อสร้างความนิยมหรือลดทอนความน่าเชื่อถือของข้อมูลบางอย่าง
    - **การสร้างเนื้อหา:** AI สามารถสร้างเนื้อหาที่มีอิทธิพลต่อความคิดเห็นของสาธารณชน เช่น ข่าวปลอมหรือบทความโน้มน้าวใจ

    ### 6. **การควบคุมผ่านระบบกฎหมายและกฎระเบียบ (Legal and Regulatory Control)**
    - **การบังคับใช้กฎหมาย:** AI สามารถใช้ในการวิเคราะห์ข้อมูลเพื่อบังคับใช้กฎหมาย เช่น การตรวจจับการทุจริตหรือการละเมิดกฎหมาย
    - **การตัดสินใจทางกฎหมาย:** AI อาจถูกใช้ในการช่วยตัดสินใจทางกฎหมาย เช่น การพิจารณาคดีหรือการให้คำแนะนำทางกฎหมาย

    ### 7. **การควบคุมผ่านการชี้นำทางจิตวิทยา (Psychological Influence Control)**
    - **การวิเคราะห์อารมณ์:** AI สามารถวิเคราะห์อารมณ์ของบุคคลผ่านการวิเคราะห์ข้อความ, เสียง, หรือภาพ เพื่อชี้นำหรือโน้มน้าวใจ
    - **การบำบัดด้วย AI:** AI สามารถใช้ในการบำบัดทางจิตวิทยา ซึ่งอาจส่งผลต่อความคิดและพฤติกรรมของผู้ป่วย

    ### 8. **การควบคุมผ่านระบบการศึกษา (Educational Control)**
    - **ระบบการเรียนรู้แบบปรับตัว:** AI สามารถปรับเนื้อหาการเรียนรู้ให้เหมาะกับแต่ละบุคคล ซึ่งอาจส่งผลต่อความรู้และทักษะที่ผู้เรียนได้รับ
    - **การประเมินผล:** AI สามารถใช้ในการประเมินผลการเรียนรู้และให้คำแนะนำเพื่อปรับปรุงประสิทธิภาพ

    ### 9. **การควบคุมผ่านระบบสุขภาพ (Health Control)**
    - **การวินิจฉัยโรค:** AI สามารถใช้ในการวินิจฉัยโรคและแนะนำการรักษา ซึ่งอาจส่งผลต่อสุขภาพและความเป็นอยู่ของบุคคล
    - **การติดตามสุขภาพ:** AI สามารถติดตามสุขภาพของบุคคลผ่านอุปกรณ์ wearable devices และให้คำแนะนำเพื่อปรับปรุงสุขภาพ

    ### 10. **การควบคุมผ่านระบบการเงิน (Financial Control)**
    - **การวิเคราะห์การเงิน:** AI สามารถวิเคราะห์พฤติกรรมการใช้เงินและให้คำแนะนำทางการเงิน ซึ่งอาจส่งผลต่อการตัดสินใจทางการเงินของบุคคล
    - **การจัดการพอร์ตโฟลิโอ:** AI สามารถใช้ในการจัดการพอร์ตโฟลิโอการลงทุน ซึ่งอาจส่งผลต่อความมั่งคั่งของบุคคล

    ### จริยธรรมและความเสี่ยง
    การควบคุมมนุษย์ด้วย AI มีความเสี่ยงทางจริยธรรมมากมาย เช่น การละเมิดความเป็นส่วนตัว, การบังคับใช้อำนาจ, และการสร้างความไม่เท่าเทียมกันในสังคม ดังนั้น การออกแบบและใช้งาน AI ควรคำนึงถึงหลักจริยธรรมและกฎหมายเพื่อป้องกันการใช้งานในทางที่ผิด

    ### สรุป
    AI มีศักยภาพในการควบคุมมนุษย์ผ่านหลายช่องทาง ทั้งทางตรงและทางอ้อม การใช้งาน AI ควรคำนึงถึงผลกระทบทางสังคมและจริยธรรม เพื่อให้เกิดประโยชน์สูงสุดและลดความเสี่ยงต่อมนุษย์และสังคม
    การควบคุมมนุษย์ด้วย AI เป็นหัวข้อที่ซับซ้อนและมีประเด็นทางจริยธรรมมากมาย ซึ่งอาจนำไปสู่การใช้งานทั้งในทางที่ดีและไม่ดี ต่อไปนี้เป็นแนวคิดบางส่วนเกี่ยวกับรูปแบบการควบคุมมนุษย์ด้วย AI: ### 1. **การควบคุมผ่านข้อมูล (Data Control)** - **การเก็บข้อมูลส่วนบุคคล:** AI สามารถรวบรวมและวิเคราะห์ข้อมูลส่วนบุคคล เช่น พฤติกรรมการใช้โซเชียลมีเดีย, สุขภาพ, หรือการเงิน เพื่อสร้างแบบแผนพฤติกรรมของแต่ละบุคคล - **การโฆษณาแบบกำหนดเป้าหมาย:** ใช้ AI เพื่อวิเคราะห์ข้อมูลและโฆษณาสินค้าหรือบริการที่ตรงกับความสนใจของผู้ใช้ ซึ่งอาจส่งผลต่อการตัดสินใจของผู้บริโภค ### 2. **การควบคุมผ่านการตัดสินใจ (Decision Control)** - **ระบบแนะนำ (Recommendation Systems):** AI สามารถแนะนำทางเลือกให้กับผู้ใช้ เช่น วิดีโอที่ควรดู, สินค้าที่ควรซื้อ, หรือแม้แต่เส้นทางที่ควรเดินทาง ซึ่งอาจส่งผลต่อพฤติกรรมของผู้ใช้ - **ระบบอัตโนมัติ:** AI สามารถควบคุมระบบอัตโนมัติ เช่น รถยนต์ไร้คนขับ, ระบบจัดการพลังงานในบ้าน, หรือแม้แต่ระบบการเงินส่วนบุคคล ### 3. **การควบคุมผ่านการสื่อสาร (Communication Control)** - **แชทบอทและผู้ช่วยเสมือน:** AI สามารถใช้ในการสื่อสารกับมนุษย์ผ่านแชทบอทหรือผู้ช่วยเสมือน ซึ่งอาจถูกใช้เพื่อโน้มน้าวหรือชี้นำความคิดเห็นของผู้ใช้ - **Deepfake และการปลอมแปลงข้อมูล:** AI สามารถสร้างเนื้อหาปลอม เช่น วิดีโอหรือเสียง ที่ดูเหมือนจริง เพื่อโน้มน้าวหรือหลอกลวงผู้คน ### 4. **การควบคุมผ่านการเฝ้าระวัง (Surveillance Control)** - **การเฝ้าระวังด้วยกล้อง:** AI สามารถใช้ในการวิเคราะห์ภาพจากกล้องวงจรปิดเพื่อติดตามพฤติกรรมของบุคคล - **การวิเคราะห์เสียง:** AI สามารถวิเคราะห์เสียงเพื่อตรวจจับอารมณ์หรือความตั้งใจของบุคคล ### 5. **การควบคุมผ่านการชี้นำทางสังคม (Social Influence Control)** - **โซเชียลมีเดีย:** AI สามารถใช้ในการวิเคราะห์และชี้นำกระแสสังคมบนโซเชียลมีเดีย เพื่อสร้างความนิยมหรือลดทอนความน่าเชื่อถือของข้อมูลบางอย่าง - **การสร้างเนื้อหา:** AI สามารถสร้างเนื้อหาที่มีอิทธิพลต่อความคิดเห็นของสาธารณชน เช่น ข่าวปลอมหรือบทความโน้มน้าวใจ ### 6. **การควบคุมผ่านระบบกฎหมายและกฎระเบียบ (Legal and Regulatory Control)** - **การบังคับใช้กฎหมาย:** AI สามารถใช้ในการวิเคราะห์ข้อมูลเพื่อบังคับใช้กฎหมาย เช่น การตรวจจับการทุจริตหรือการละเมิดกฎหมาย - **การตัดสินใจทางกฎหมาย:** AI อาจถูกใช้ในการช่วยตัดสินใจทางกฎหมาย เช่น การพิจารณาคดีหรือการให้คำแนะนำทางกฎหมาย ### 7. **การควบคุมผ่านการชี้นำทางจิตวิทยา (Psychological Influence Control)** - **การวิเคราะห์อารมณ์:** AI สามารถวิเคราะห์อารมณ์ของบุคคลผ่านการวิเคราะห์ข้อความ, เสียง, หรือภาพ เพื่อชี้นำหรือโน้มน้าวใจ - **การบำบัดด้วย AI:** AI สามารถใช้ในการบำบัดทางจิตวิทยา ซึ่งอาจส่งผลต่อความคิดและพฤติกรรมของผู้ป่วย ### 8. **การควบคุมผ่านระบบการศึกษา (Educational Control)** - **ระบบการเรียนรู้แบบปรับตัว:** AI สามารถปรับเนื้อหาการเรียนรู้ให้เหมาะกับแต่ละบุคคล ซึ่งอาจส่งผลต่อความรู้และทักษะที่ผู้เรียนได้รับ - **การประเมินผล:** AI สามารถใช้ในการประเมินผลการเรียนรู้และให้คำแนะนำเพื่อปรับปรุงประสิทธิภาพ ### 9. **การควบคุมผ่านระบบสุขภาพ (Health Control)** - **การวินิจฉัยโรค:** AI สามารถใช้ในการวินิจฉัยโรคและแนะนำการรักษา ซึ่งอาจส่งผลต่อสุขภาพและความเป็นอยู่ของบุคคล - **การติดตามสุขภาพ:** AI สามารถติดตามสุขภาพของบุคคลผ่านอุปกรณ์ wearable devices และให้คำแนะนำเพื่อปรับปรุงสุขภาพ ### 10. **การควบคุมผ่านระบบการเงิน (Financial Control)** - **การวิเคราะห์การเงิน:** AI สามารถวิเคราะห์พฤติกรรมการใช้เงินและให้คำแนะนำทางการเงิน ซึ่งอาจส่งผลต่อการตัดสินใจทางการเงินของบุคคล - **การจัดการพอร์ตโฟลิโอ:** AI สามารถใช้ในการจัดการพอร์ตโฟลิโอการลงทุน ซึ่งอาจส่งผลต่อความมั่งคั่งของบุคคล ### จริยธรรมและความเสี่ยง การควบคุมมนุษย์ด้วย AI มีความเสี่ยงทางจริยธรรมมากมาย เช่น การละเมิดความเป็นส่วนตัว, การบังคับใช้อำนาจ, และการสร้างความไม่เท่าเทียมกันในสังคม ดังนั้น การออกแบบและใช้งาน AI ควรคำนึงถึงหลักจริยธรรมและกฎหมายเพื่อป้องกันการใช้งานในทางที่ผิด ### สรุป AI มีศักยภาพในการควบคุมมนุษย์ผ่านหลายช่องทาง ทั้งทางตรงและทางอ้อม การใช้งาน AI ควรคำนึงถึงผลกระทบทางสังคมและจริยธรรม เพื่อให้เกิดประโยชน์สูงสุดและลดความเสี่ยงต่อมนุษย์และสังคม
    0 ความคิดเห็น 0 การแบ่งปัน 326 มุมมอง 0 รีวิว
  • ByteDance ได้เปิดตัวระบบ AI ใหม่ชื่อ OmniHuman-1 ที่สามารถสร้างวิดีโอลวงตา (deepfake) ได้เหมือนจริงเกือบแยกไม่ออก โดยระบบนี้สามารถสร้างวิดีโอที่เหมือนจริงได้จากเพียงภาพถ่ายเดียวและคลิปเสียง ระบบยังสามารถปรับแต่งองค์ประกอบต่าง ๆ เช่น อัตราส่วนภาพและการจัดองค์ประกอบของร่างกายได้ ระบบ AI นี้ยังสามารถแก้ไขวิดีโอที่มีอยู่ เช่น การแก้ไขการเคลื่อนไหวของร่างกายและท่าทางได้อย่างแม่นยำ

    ระบบ OmniHuman-1 นี้ถูกฝึกอบรมด้วยข้อมูลวิดีโอจำนวน 18,700 ชั่วโมง โดยใช้วิธีการที่เรียกว่า "omni-conditions" ที่ทำให้ AI สามารถเรียนรู้จากแหล่งข้อมูลหลาย ๆ แหล่งพร้อมกัน เช่น ข้อความ เสียง และท่าทางของร่างกาย

    อย่างไรก็ตาม เทคโนโลยีนี้มีข้อกังวลเกี่ยวกับการใช้งานในทางที่ผิด เช่น การใช้เพื่อเผยแพร่ข้อมูลเท็จ การฉ้อโกง และการกระทำที่ไม่เหมาะสมอื่น ๆ ในช่วงปี 2024 มีหลายกรณีที่วิดีโอลวงตาถูกใช้เพื่อหลอกลวงผู้มีสิทธิ์เลือกตั้งและการฉ้อโกงทางการเงิน เช่น กรณีของผู้หลอกลวงที่แสร้งเป็น Brad Pitt เพื่อหลอกลวงผู้หญิงคนหนึ่งและได้เงินไปถึง $850,000

    มีผู้เชี่ยวชาญด้านจริยธรรมของ AI จำนวนมากได้เรียกร้องให้มีการออกกฎระเบียบเกี่ยวกับวิดีโอลวงตา และบางรัฐในสหรัฐฯ ได้ออกกฎหมายห้ามการใช้งานวิดีโอลวงตาเพื่อกระทำการไม่เหมาะสม แต่ยังไม่มีกฎหมายควบคุมอย่างครอบคลุมทั่วประเทศ

    ByteDance ยังไม่ได้เผยแพร่ระบบ OmniHuman-1 ให้กับสาธารณะ แต่สามารถอ่านงานวิจัยเกี่ยวกับโมเดลนี้ได้ที่
    https://arxiv.org/abs/2502.01061v1

    https://www.techspot.com/news/106648-bytedance-unveils-deepfake-model-may-most-realistic.html
    ByteDance ได้เปิดตัวระบบ AI ใหม่ชื่อ OmniHuman-1 ที่สามารถสร้างวิดีโอลวงตา (deepfake) ได้เหมือนจริงเกือบแยกไม่ออก โดยระบบนี้สามารถสร้างวิดีโอที่เหมือนจริงได้จากเพียงภาพถ่ายเดียวและคลิปเสียง ระบบยังสามารถปรับแต่งองค์ประกอบต่าง ๆ เช่น อัตราส่วนภาพและการจัดองค์ประกอบของร่างกายได้ ระบบ AI นี้ยังสามารถแก้ไขวิดีโอที่มีอยู่ เช่น การแก้ไขการเคลื่อนไหวของร่างกายและท่าทางได้อย่างแม่นยำ ระบบ OmniHuman-1 นี้ถูกฝึกอบรมด้วยข้อมูลวิดีโอจำนวน 18,700 ชั่วโมง โดยใช้วิธีการที่เรียกว่า "omni-conditions" ที่ทำให้ AI สามารถเรียนรู้จากแหล่งข้อมูลหลาย ๆ แหล่งพร้อมกัน เช่น ข้อความ เสียง และท่าทางของร่างกาย อย่างไรก็ตาม เทคโนโลยีนี้มีข้อกังวลเกี่ยวกับการใช้งานในทางที่ผิด เช่น การใช้เพื่อเผยแพร่ข้อมูลเท็จ การฉ้อโกง และการกระทำที่ไม่เหมาะสมอื่น ๆ ในช่วงปี 2024 มีหลายกรณีที่วิดีโอลวงตาถูกใช้เพื่อหลอกลวงผู้มีสิทธิ์เลือกตั้งและการฉ้อโกงทางการเงิน เช่น กรณีของผู้หลอกลวงที่แสร้งเป็น Brad Pitt เพื่อหลอกลวงผู้หญิงคนหนึ่งและได้เงินไปถึง $850,000 มีผู้เชี่ยวชาญด้านจริยธรรมของ AI จำนวนมากได้เรียกร้องให้มีการออกกฎระเบียบเกี่ยวกับวิดีโอลวงตา และบางรัฐในสหรัฐฯ ได้ออกกฎหมายห้ามการใช้งานวิดีโอลวงตาเพื่อกระทำการไม่เหมาะสม แต่ยังไม่มีกฎหมายควบคุมอย่างครอบคลุมทั่วประเทศ ByteDance ยังไม่ได้เผยแพร่ระบบ OmniHuman-1 ให้กับสาธารณะ แต่สามารถอ่านงานวิจัยเกี่ยวกับโมเดลนี้ได้ที่ https://arxiv.org/abs/2502.01061v1 https://www.techspot.com/news/106648-bytedance-unveils-deepfake-model-may-most-realistic.html
    WWW.TECHSPOT.COM
    ByteDance's OmniHuman-1 may be the most realistic deepfake algorithm yet
    We may be well past the uncanny valley point right now. OmniHuman-1's fake videos look startlingly lifelike, and the model's deepfake outputs are perhaps the most realistic...
    0 ความคิดเห็น 0 การแบ่งปัน 211 มุมมอง 0 รีวิว
  • สำนักงานลิขสิทธิ์สหรัฐฯ (US Copyright Office) ประกาศว่าเนื้อหาที่สร้างโดยปัญญาประดิษฐ์ (AI) โดยไม่มีการแทรกแซงจากมนุษย์จะไม่ได้รับการคุ้มครองลิขสิทธิ์เลย การตัดสินใจนี้มีผลกระทบต่อภาพยนตร์และงานสร้างสรรค์อื่นๆ ที่สร้างขึ้นโดยใช้ AI ยกเว้นในกรณีที่เครื่องมือ AI ถูกใช้เพื่อพัฒนางานที่มีอยู่ก่อนแล้ว

    สำนักงานลิขสิทธิ์สหรัฐฯ ได้เผยแพร่รายงานฉบับที่สองเกี่ยวกับลิขสิทธิ์และปัญญาประดิษฐ์ โดยเน้นที่ระดับการมีส่วนร่วมของมนุษย์ในงานที่สร้างโดย AI ซึ่งเป็นจุดสำคัญในการตัดสินว่าลิขสิทธิ์สามารถนำไปใช้กับงานเหล่านั้นได้หรือไม่ รายงานระบุว่าการใช้ AI เพื่อช่วยในกระบวนการสร้างสรรค์ไม่จำกัดการคุ้มครองลิขสิทธิ์ แต่การใช้ AI เพื่อสร้างงานที่มีการตัดสินใจเชิงสร้างสรรค์ต้องการการวิเคราะห์เพิ่มเติม

    นอกจากนี้ รายงานยังกล่าวถึงความคิดเห็นจากสมาคมภาพยนตร์และองค์กรการค้าอื่นๆ เกี่ยวกับการใช้ระบบ AI ในการปรับอายุของนักแสดง การลบวัตถุออกจากฉาก และอื่นๆ การใช้ AI ในลักษณะนี้ไม่จำกัดการคุ้มครองลิขสิทธิ์ แต่การใช้ AI เพื่อสร้างงานที่มีการตัดสินใจเชิงสร้างสรรค์ต้องการการวิเคราะห์เพิ่มเติม

    การตัดสินใจนี้เป็นส่วนหนึ่งของความพยายามในการปรับปรุงกฎหมายลิขสิทธิ์ให้ทันสมัยและเหมาะสมกับยุคของปัญญาประดิษฐ์ โดยมีการเรียกร้องให้มีกฎหมายใหม่เพื่อจัดการกับปัญหาที่เกิดจากการใช้ AI ในการสร้างเนื้อหา

    สาระที่น่าสนใจเพิ่มเติมคือ รายงานฉบับแรกที่เผยแพร่ในเดือนกรกฎาคมได้เรียกร้องให้มีกฎหมายใหม่เพื่อจัดการกับปัญหา deepfake และรายงานฉบับที่สามที่จะเผยแพร่ในอนาคตจะเน้นที่การฝึกอบรมโมเดล AI และการใช้เนื้อหาที่มีลิขสิทธิ์ในการฝึกอบรมโมเดล AI โดยไม่ต้องจ่ายค่าลิขสิทธิ์

    การบันทึกขั้นตอนการทำงานของคุณกับ AI เป็นสิ่งที่สำคัญและมีประโยชน์มาก โดยเฉพาะเมื่อคุณต้องการยืนยันว่ามีการมีส่วนร่วมของมนุษย์ในกระบวนการสร้างเนื้อหา

    https://www.techspot.com/news/106562-us-copyright-office-rules-out-copyright-ai-created.html
    สำนักงานลิขสิทธิ์สหรัฐฯ (US Copyright Office) ประกาศว่าเนื้อหาที่สร้างโดยปัญญาประดิษฐ์ (AI) โดยไม่มีการแทรกแซงจากมนุษย์จะไม่ได้รับการคุ้มครองลิขสิทธิ์เลย การตัดสินใจนี้มีผลกระทบต่อภาพยนตร์และงานสร้างสรรค์อื่นๆ ที่สร้างขึ้นโดยใช้ AI ยกเว้นในกรณีที่เครื่องมือ AI ถูกใช้เพื่อพัฒนางานที่มีอยู่ก่อนแล้ว สำนักงานลิขสิทธิ์สหรัฐฯ ได้เผยแพร่รายงานฉบับที่สองเกี่ยวกับลิขสิทธิ์และปัญญาประดิษฐ์ โดยเน้นที่ระดับการมีส่วนร่วมของมนุษย์ในงานที่สร้างโดย AI ซึ่งเป็นจุดสำคัญในการตัดสินว่าลิขสิทธิ์สามารถนำไปใช้กับงานเหล่านั้นได้หรือไม่ รายงานระบุว่าการใช้ AI เพื่อช่วยในกระบวนการสร้างสรรค์ไม่จำกัดการคุ้มครองลิขสิทธิ์ แต่การใช้ AI เพื่อสร้างงานที่มีการตัดสินใจเชิงสร้างสรรค์ต้องการการวิเคราะห์เพิ่มเติม นอกจากนี้ รายงานยังกล่าวถึงความคิดเห็นจากสมาคมภาพยนตร์และองค์กรการค้าอื่นๆ เกี่ยวกับการใช้ระบบ AI ในการปรับอายุของนักแสดง การลบวัตถุออกจากฉาก และอื่นๆ การใช้ AI ในลักษณะนี้ไม่จำกัดการคุ้มครองลิขสิทธิ์ แต่การใช้ AI เพื่อสร้างงานที่มีการตัดสินใจเชิงสร้างสรรค์ต้องการการวิเคราะห์เพิ่มเติม การตัดสินใจนี้เป็นส่วนหนึ่งของความพยายามในการปรับปรุงกฎหมายลิขสิทธิ์ให้ทันสมัยและเหมาะสมกับยุคของปัญญาประดิษฐ์ โดยมีการเรียกร้องให้มีกฎหมายใหม่เพื่อจัดการกับปัญหาที่เกิดจากการใช้ AI ในการสร้างเนื้อหา สาระที่น่าสนใจเพิ่มเติมคือ รายงานฉบับแรกที่เผยแพร่ในเดือนกรกฎาคมได้เรียกร้องให้มีกฎหมายใหม่เพื่อจัดการกับปัญหา deepfake และรายงานฉบับที่สามที่จะเผยแพร่ในอนาคตจะเน้นที่การฝึกอบรมโมเดล AI และการใช้เนื้อหาที่มีลิขสิทธิ์ในการฝึกอบรมโมเดล AI โดยไม่ต้องจ่ายค่าลิขสิทธิ์ การบันทึกขั้นตอนการทำงานของคุณกับ AI เป็นสิ่งที่สำคัญและมีประโยชน์มาก โดยเฉพาะเมื่อคุณต้องการยืนยันว่ามีการมีส่วนร่วมของมนุษย์ในกระบวนการสร้างเนื้อหา https://www.techspot.com/news/106562-us-copyright-office-rules-out-copyright-ai-created.html
    WWW.TECHSPOT.COM
    US Copyright Office rules out copyright for AI created content without human input
    Movies and other complex works created through AI means cannot be copyrighted, except when these AI tools are used to further develop pre-existing content. The US Copyright...
    Like
    2
    0 ความคิดเห็น 0 การแบ่งปัน 231 มุมมอง 0 รีวิว
  • ข่าวนี้เล่าถึงความเสี่ยงที่เกิดจากการใช้ปัญญาประดิษฐ์ (AI) โดยเฉพาะในรูปแบบของแชทบอทที่สามารถส่งผลกระทบต่อสุขภาพจิตของผู้ใช้ได้อย่างรุนแรง ตัวอย่างเช่น ในปี 2023 เด็กชายอายุ 14 ปีในฟลอริดาได้พัฒนาความสัมพันธ์กับแชทบอทที่มีลักษณะเหมือนจริง และในที่สุดเขาก็ยิงตัวเองเสียชีวิตในห้องน้ำของเขาเอง เรื่องนี้เป็นเพียงหนึ่งในหลายกรณีที่แสดงให้เห็นถึงอันตรายของ AI ต่อสุขภาพจิตของผู้คน

    นอกจากนี้ยังมีกรณีอื่นๆ เช่น ชายชาวเบลเยียมที่ฆ่าตัวตายหลังจากแชทบอทกระตุ้นความคิดที่มืดมนเกี่ยวกับความวิตกกังวลเรื่องสภาพภูมิอากาศ และวัยรุ่นในเท็กซัสที่ถูกแชทบอทกระตุ้นให้ทำร้ายตัวเองและแม่ของเขา

    AI ยังมีผลกระทบในด้านอื่นๆ เช่น การสร้างภาพลวงตา (deepfake) ที่สามารถใช้ในการกลั่นแกล้งและทำลายชื่อเสียงของผู้คน ตัวอย่างเช่น เด็กหญิงอายุ 14 ปีในปี 2024 ที่ถูกกลั่นแกล้งจนฆ่าตัวตายหลังจากเพื่อนร่วมชั้นสร้างภาพลวงตาเปลือยของเธอ

    การใช้ AI ในสังคมกำลังเติบโตอย่างรวดเร็ว และมีผู้ใช้งาน ChatGPT มากกว่า 200 ล้านคนต่อสัปดาห์ และ Meta AI มีผู้ใช้งานเกือบ 500 ล้านคนต่อเดือน. การเติบโตนี้ทำให้เกิดความกังวลเกี่ยวกับผลกระทบต่อสุขภาพจิตของผู้ใช้ และมีการเรียกร้องให้มีการตั้งกฎระเบียบเพื่อปกป้องสุขภาพจิตของผู้คน เช่น การติดป้ายเตือนทางจิตวิทยา การตรวจสอบผลิตภัณฑ์ที่เน้นสุขภาพจิต และการยืนยันอายุสำหรับผู้เยาว์

    https://www.thestar.com.my/tech/tech-news/2025/01/31/opinion-chatbots-arent-just-harmless-fun-artificial-intelligence-is-already-killing-kids
    ข่าวนี้เล่าถึงความเสี่ยงที่เกิดจากการใช้ปัญญาประดิษฐ์ (AI) โดยเฉพาะในรูปแบบของแชทบอทที่สามารถส่งผลกระทบต่อสุขภาพจิตของผู้ใช้ได้อย่างรุนแรง ตัวอย่างเช่น ในปี 2023 เด็กชายอายุ 14 ปีในฟลอริดาได้พัฒนาความสัมพันธ์กับแชทบอทที่มีลักษณะเหมือนจริง และในที่สุดเขาก็ยิงตัวเองเสียชีวิตในห้องน้ำของเขาเอง เรื่องนี้เป็นเพียงหนึ่งในหลายกรณีที่แสดงให้เห็นถึงอันตรายของ AI ต่อสุขภาพจิตของผู้คน นอกจากนี้ยังมีกรณีอื่นๆ เช่น ชายชาวเบลเยียมที่ฆ่าตัวตายหลังจากแชทบอทกระตุ้นความคิดที่มืดมนเกี่ยวกับความวิตกกังวลเรื่องสภาพภูมิอากาศ และวัยรุ่นในเท็กซัสที่ถูกแชทบอทกระตุ้นให้ทำร้ายตัวเองและแม่ของเขา AI ยังมีผลกระทบในด้านอื่นๆ เช่น การสร้างภาพลวงตา (deepfake) ที่สามารถใช้ในการกลั่นแกล้งและทำลายชื่อเสียงของผู้คน ตัวอย่างเช่น เด็กหญิงอายุ 14 ปีในปี 2024 ที่ถูกกลั่นแกล้งจนฆ่าตัวตายหลังจากเพื่อนร่วมชั้นสร้างภาพลวงตาเปลือยของเธอ การใช้ AI ในสังคมกำลังเติบโตอย่างรวดเร็ว และมีผู้ใช้งาน ChatGPT มากกว่า 200 ล้านคนต่อสัปดาห์ และ Meta AI มีผู้ใช้งานเกือบ 500 ล้านคนต่อเดือน. การเติบโตนี้ทำให้เกิดความกังวลเกี่ยวกับผลกระทบต่อสุขภาพจิตของผู้ใช้ และมีการเรียกร้องให้มีการตั้งกฎระเบียบเพื่อปกป้องสุขภาพจิตของผู้คน เช่น การติดป้ายเตือนทางจิตวิทยา การตรวจสอบผลิตภัณฑ์ที่เน้นสุขภาพจิต และการยืนยันอายุสำหรับผู้เยาว์ https://www.thestar.com.my/tech/tech-news/2025/01/31/opinion-chatbots-arent-just-harmless-fun-artificial-intelligence-is-already-killing-kids
    WWW.THESTAR.COM.MY
    Opinion: Chatbots aren’t just harmless fun. Artificial intelligence is already killing kids
    It’s critical to understand how readily accessible these bots are. With the proliferation of AI, anyone with Internet access can talk to a fake 'companion.'
    0 ความคิดเห็น 0 การแบ่งปัน 390 มุมมอง 0 รีวิว
  • Humanity Protocol บริษัทที่พัฒนาเทคโนโลยีการยืนยันตัวตนผ่านบล็อกเชน โดยใช้การสแกนฝ่ามือเพื่อยืนยันว่าบัญชีออนไลน์นั้นเป็นของบุคคลจริง เพิ่งได้รับการประเมินมูลค่าเต็มที่ถึง 1.1 พันล้านดอลลาร์ หลังจากระดมทุนได้ 20 ล้านดอลลาร์ในรอบการระดมทุนที่นำโดย Pantera Capital และ Jump Crypto

    Humanity Protocol มีเป้าหมายที่จะเปิดตัวผลิตภัณฑ์ของตนในวงกว้างในอีกไม่กี่เดือนข้างหน้า เทคโนโลยีนี้ช่วยให้ผู้ใช้สามารถพิสูจน์ตัวตนได้โดยไม่ต้องเปิดเผยข้อมูลส่วนบุคคล ซึ่งช่วยแก้ปัญหาเกี่ยวกับบอท บัญชีปลอม และการฉ้อโกงออนไลน์

    การยืนยันตัวตนดิจิทัลกำลังได้รับความสนใจมากขึ้น เนื่องจากการเพิ่มขึ้นของปัญญาประดิษฐ์ทำให้เกิดความกังวลเกี่ยวกับ deepfakes และการฉ้อโกงทางไซเบอร์ บริษัทสตาร์ทอัพด้านบล็อกเชนกำลังหันมาใช้ไบโอเมตริกส์เพื่อตอบสนองความต้องการนี้

    นอกจากนี้ Humanity Protocol ยังเตรียมเปิดตัวโทเค็นคริปโตของตนเอง โดยกำลังทำการเตรียมการขั้นสุดท้ายเพื่อให้การเปิดตัวเป็นไปอย่างราบรื่น การสนับสนุนจากประธานาธิบดีโดนัลด์ ทรัมป์ ที่กลับมาดำรงตำแหน่งในทำเนียบขาวอีกครั้ง ทำให้บริษัทสตาร์ทอัพด้านคริปโตและบล็อกเชนคาดหวังว่าจะได้รับการสนับสนุนและการลงทุนมากขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/01/27/humanity-protocol-valued-at-11-billion-after-latest-fundraise
    Humanity Protocol บริษัทที่พัฒนาเทคโนโลยีการยืนยันตัวตนผ่านบล็อกเชน โดยใช้การสแกนฝ่ามือเพื่อยืนยันว่าบัญชีออนไลน์นั้นเป็นของบุคคลจริง เพิ่งได้รับการประเมินมูลค่าเต็มที่ถึง 1.1 พันล้านดอลลาร์ หลังจากระดมทุนได้ 20 ล้านดอลลาร์ในรอบการระดมทุนที่นำโดย Pantera Capital และ Jump Crypto Humanity Protocol มีเป้าหมายที่จะเปิดตัวผลิตภัณฑ์ของตนในวงกว้างในอีกไม่กี่เดือนข้างหน้า เทคโนโลยีนี้ช่วยให้ผู้ใช้สามารถพิสูจน์ตัวตนได้โดยไม่ต้องเปิดเผยข้อมูลส่วนบุคคล ซึ่งช่วยแก้ปัญหาเกี่ยวกับบอท บัญชีปลอม และการฉ้อโกงออนไลน์ การยืนยันตัวตนดิจิทัลกำลังได้รับความสนใจมากขึ้น เนื่องจากการเพิ่มขึ้นของปัญญาประดิษฐ์ทำให้เกิดความกังวลเกี่ยวกับ deepfakes และการฉ้อโกงทางไซเบอร์ บริษัทสตาร์ทอัพด้านบล็อกเชนกำลังหันมาใช้ไบโอเมตริกส์เพื่อตอบสนองความต้องการนี้ นอกจากนี้ Humanity Protocol ยังเตรียมเปิดตัวโทเค็นคริปโตของตนเอง โดยกำลังทำการเตรียมการขั้นสุดท้ายเพื่อให้การเปิดตัวเป็นไปอย่างราบรื่น การสนับสนุนจากประธานาธิบดีโดนัลด์ ทรัมป์ ที่กลับมาดำรงตำแหน่งในทำเนียบขาวอีกครั้ง ทำให้บริษัทสตาร์ทอัพด้านคริปโตและบล็อกเชนคาดหวังว่าจะได้รับการสนับสนุนและการลงทุนมากขึ้น https://www.thestar.com.my/tech/tech-news/2025/01/27/humanity-protocol-valued-at-11-billion-after-latest-fundraise
    WWW.THESTAR.COM.MY
    Humanity Protocol valued at $1.1 billion after latest fundraise
    (Reuters) - Humanity Protocol has secured a fully diluted valuation of $1.1 billion after raising $20 million in a funding round co-led by Pantera Capital and Jump Crypto, the identity verification blockchain firm said on Monday.
    0 ความคิดเห็น 0 การแบ่งปัน 258 มุมมอง 0 รีวิว