• กฎหมายที่ถูกท้าทายนี้มีเป้าหมายป้องกันการเผยแพร่ข้อมูลเท็จที่ถูกสร้างขึ้นโดย AI เช่น รูปภาพ เสียง หรือวิดีโอที่ดูเหมือนจริง เพื่อใช้ในการโน้มน้าวประชาชนในการเลือกตั้ง หรือทำให้เกิดความเข้าใจผิดในทางการเมือง อย่างไรก็ตาม บริษัท X แย้งว่าการบังคับใช้กฎหมายดังกล่าวอาจก่อให้เกิดการเซ็นเซอร์ความคิดเห็นทางการเมือง

    นอกจากนี้ยังมีข้อมูลว่า ณ ปัจจุบัน มีอย่างน้อย 22 รัฐในสหรัฐฯ ที่มีการออกกฎหมายควบคุมการใช้ดีพเฟคในเลือกตั้ง

    ✅ บริษัท X ยื่นฟ้องรัฐมินนิโซตาเนื่องจากกฎหมายห้ามใช้ AI เพื่อสร้างดีพเฟคในการเลือกตั้ง

    ✅ บริษัท X อ้างว่ากฎหมายดังกล่าวละเมิดสิทธิในการแสดงความคิดเห็นอย่างเสรี

    ✅ X ขอให้ศาลประกาศว่ากฎหมายนี้ละเมิดรัฐธรรมนูญและขัดกับ Section 230 กฎหมายที่ปกป้องบริษัทสื่อสังคมจากการถูกฟ้องเรื่องเนื้อหาของผู้ใช้

    https://www.thestar.com.my/tech/tech-news/2025/04/24/musk039s-x-sues-to-block-minnesota-039deepfake039-law-over-free-speech-concerns
    กฎหมายที่ถูกท้าทายนี้มีเป้าหมายป้องกันการเผยแพร่ข้อมูลเท็จที่ถูกสร้างขึ้นโดย AI เช่น รูปภาพ เสียง หรือวิดีโอที่ดูเหมือนจริง เพื่อใช้ในการโน้มน้าวประชาชนในการเลือกตั้ง หรือทำให้เกิดความเข้าใจผิดในทางการเมือง อย่างไรก็ตาม บริษัท X แย้งว่าการบังคับใช้กฎหมายดังกล่าวอาจก่อให้เกิดการเซ็นเซอร์ความคิดเห็นทางการเมือง นอกจากนี้ยังมีข้อมูลว่า ณ ปัจจุบัน มีอย่างน้อย 22 รัฐในสหรัฐฯ ที่มีการออกกฎหมายควบคุมการใช้ดีพเฟคในเลือกตั้ง ✅ บริษัท X ยื่นฟ้องรัฐมินนิโซตาเนื่องจากกฎหมายห้ามใช้ AI เพื่อสร้างดีพเฟคในการเลือกตั้ง ✅ บริษัท X อ้างว่ากฎหมายดังกล่าวละเมิดสิทธิในการแสดงความคิดเห็นอย่างเสรี ✅ X ขอให้ศาลประกาศว่ากฎหมายนี้ละเมิดรัฐธรรมนูญและขัดกับ Section 230 กฎหมายที่ปกป้องบริษัทสื่อสังคมจากการถูกฟ้องเรื่องเนื้อหาของผู้ใช้ https://www.thestar.com.my/tech/tech-news/2025/04/24/musk039s-x-sues-to-block-minnesota-039deepfake039-law-over-free-speech-concerns
    WWW.THESTAR.COM.MY
    Musk's X sues to block Minnesota 'deepfake' law over free speech concerns
    WILMINGTON, Delaware (Reuters) -Elon Musk's social media platform X sued Minnesota on Wednesday over a state law that bans people from using AI-generated "deepfakes" to influence an election, which the company said violated protections of free speech.
    0 Comments 0 Shares 29 Views 0 Reviews
  • รายงานล่าสุดจาก Bitdefender เปิดเผยถึงการโจมตีทางไซเบอร์ที่มุ่งเป้าไปยังบัญชีโซเชียลมีเดียยอดนิยม เช่น YouTube และ Instagram โดยแฮกเกอร์ใช้วิธีการหลากหลาย เช่น การปลอมตัวเป็นแบรนด์ดัง การใช้ deepfake ของบุคคลที่มีชื่อเสียง และการส่งลิงก์ฟิชชิ่งเพื่อหลอกลวงผู้ใช้งาน การโจมตีเหล่านี้มีเป้าหมายเพื่อขโมยข้อมูลส่วนตัวและทรัพย์สินดิจิทัล เช่น สกุลเงินคริปโต

    ✅ บัญชีโซเชียลมีเดียยอดนิยมเป็นเป้าหมายหลัก
    - แฮกเกอร์มุ่งเป้าบัญชีที่มีผู้ติดตามจำนวนมากและยอดวิวสูง
    - มีการตรวจพบ livestreams ปลอมกว่า 9,000 รายการ ในปี 2024

    ✅ การใช้ deepfake และการปลอมตัวเป็นแบรนด์ดัง
    - แฮกเกอร์ใช้ deepfake ของบุคคลที่มีชื่อเสียง เช่น Elon Musk เพื่อโปรโมตการหลอกลวง
    - การปลอมตัวเป็นแบรนด์ดัง เช่น Tesla และ SpaceX เพื่อเพิ่มความน่าเชื่อถือ

    ✅ การโจมตีผ่านฟิชชิ่งและมัลแวร์
    - การส่งลิงก์ฟิชชิ่งและไฟล์มัลแวร์ที่ปลอมเป็นเนื้อหาโฆษณา
    - การใช้โฆษณาปลอม เช่น AI tools หรือเกม GTA VI เพื่อหลอกลวงผู้ใช้งาน

    ✅ การป้องกันและคำแนะนำจาก Bitdefender
    - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) และตรวจสอบกิจกรรมบัญชีอย่างสม่ำเสมอ
    - ใช้เครื่องมือป้องกัน เช่น Bitdefender Security for Creators เพื่อเพิ่มความปลอดภัย

    https://www.techradar.com/pro/millions-at-risk-as-cybercriminals-successfully-compromise-popular-youtube-accounts-heres-how-to-stay-safe
    รายงานล่าสุดจาก Bitdefender เปิดเผยถึงการโจมตีทางไซเบอร์ที่มุ่งเป้าไปยังบัญชีโซเชียลมีเดียยอดนิยม เช่น YouTube และ Instagram โดยแฮกเกอร์ใช้วิธีการหลากหลาย เช่น การปลอมตัวเป็นแบรนด์ดัง การใช้ deepfake ของบุคคลที่มีชื่อเสียง และการส่งลิงก์ฟิชชิ่งเพื่อหลอกลวงผู้ใช้งาน การโจมตีเหล่านี้มีเป้าหมายเพื่อขโมยข้อมูลส่วนตัวและทรัพย์สินดิจิทัล เช่น สกุลเงินคริปโต ✅ บัญชีโซเชียลมีเดียยอดนิยมเป็นเป้าหมายหลัก - แฮกเกอร์มุ่งเป้าบัญชีที่มีผู้ติดตามจำนวนมากและยอดวิวสูง - มีการตรวจพบ livestreams ปลอมกว่า 9,000 รายการ ในปี 2024 ✅ การใช้ deepfake และการปลอมตัวเป็นแบรนด์ดัง - แฮกเกอร์ใช้ deepfake ของบุคคลที่มีชื่อเสียง เช่น Elon Musk เพื่อโปรโมตการหลอกลวง - การปลอมตัวเป็นแบรนด์ดัง เช่น Tesla และ SpaceX เพื่อเพิ่มความน่าเชื่อถือ ✅ การโจมตีผ่านฟิชชิ่งและมัลแวร์ - การส่งลิงก์ฟิชชิ่งและไฟล์มัลแวร์ที่ปลอมเป็นเนื้อหาโฆษณา - การใช้โฆษณาปลอม เช่น AI tools หรือเกม GTA VI เพื่อหลอกลวงผู้ใช้งาน ✅ การป้องกันและคำแนะนำจาก Bitdefender - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) และตรวจสอบกิจกรรมบัญชีอย่างสม่ำเสมอ - ใช้เครื่องมือป้องกัน เช่น Bitdefender Security for Creators เพื่อเพิ่มความปลอดภัย https://www.techradar.com/pro/millions-at-risk-as-cybercriminals-successfully-compromise-popular-youtube-accounts-heres-how-to-stay-safe
    0 Comments 0 Shares 82 Views 0 Reviews
  • Microsoft ได้เตือนถึงความเสี่ยงที่เพิ่มขึ้นจากการใช้ AI Generative ในการสร้างการหลอกลวงออนไลน์ โดยเทคโนโลยีนี้ช่วยให้ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอม รีวิวสินค้า และแชทบอทที่หลอกลวงได้อย่างรวดเร็วและง่ายดาย นอกจากนี้ยังมีการใช้ Deepfake ในการสร้างการหลอกลวงที่ซับซ้อน เช่น การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอ

    ✅ AI ช่วยลดความซับซ้อนในการสร้างการหลอกลวงออนไลน์
    - ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอมและแบรนด์อีคอมเมิร์ซปลอมได้ในเวลาเพียงไม่กี่นาที
    - ใช้ AI ในการสร้างรีวิวสินค้าและประวัติธุรกิจที่ดูน่าเชื่อถือ

    ✅ Deepfake ถูกใช้ในการหลอกลวงที่ซับซ้อน
    - การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอและการสร้างการรับรองจากคนดังปลอม
    - Microsoft แนะนำให้สังเกตความผิดปกติ เช่น การเคลื่อนไหวของริมฝีปากที่ไม่ตรงกับเสียง

    ✅ Microsoft เพิ่มการป้องกันในเครื่องมือ Quick Assist
    - เพิ่มคำเตือนเกี่ยวกับความเสี่ยงในการแชร์หน้าจอ
    - แนะนำให้ใช้ Remote Help แทน Quick Assist สำหรับการสนับสนุนภายใน

    ✅ Microsoft ป้องกันการหลอกลวงมูลค่ากว่า 4 พันล้านดอลลาร์ในปีที่ผ่านมา
    - ปฏิเสธการสมัครสมาชิกปลอมกว่า 49,000 รายการ
    - บล็อกการสมัครสมาชิกบอทประมาณ 1.6 ล้านครั้งต่อชั่วโมง

    https://www.techspot.com/news/107641-microsoft-warns-ai-making-faster-easier-create-online.html
    Microsoft ได้เตือนถึงความเสี่ยงที่เพิ่มขึ้นจากการใช้ AI Generative ในการสร้างการหลอกลวงออนไลน์ โดยเทคโนโลยีนี้ช่วยให้ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอม รีวิวสินค้า และแชทบอทที่หลอกลวงได้อย่างรวดเร็วและง่ายดาย นอกจากนี้ยังมีการใช้ Deepfake ในการสร้างการหลอกลวงที่ซับซ้อน เช่น การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอ ✅ AI ช่วยลดความซับซ้อนในการสร้างการหลอกลวงออนไลน์ - ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอมและแบรนด์อีคอมเมิร์ซปลอมได้ในเวลาเพียงไม่กี่นาที - ใช้ AI ในการสร้างรีวิวสินค้าและประวัติธุรกิจที่ดูน่าเชื่อถือ ✅ Deepfake ถูกใช้ในการหลอกลวงที่ซับซ้อน - การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอและการสร้างการรับรองจากคนดังปลอม - Microsoft แนะนำให้สังเกตความผิดปกติ เช่น การเคลื่อนไหวของริมฝีปากที่ไม่ตรงกับเสียง ✅ Microsoft เพิ่มการป้องกันในเครื่องมือ Quick Assist - เพิ่มคำเตือนเกี่ยวกับความเสี่ยงในการแชร์หน้าจอ - แนะนำให้ใช้ Remote Help แทน Quick Assist สำหรับการสนับสนุนภายใน ✅ Microsoft ป้องกันการหลอกลวงมูลค่ากว่า 4 พันล้านดอลลาร์ในปีที่ผ่านมา - ปฏิเสธการสมัครสมาชิกปลอมกว่า 49,000 รายการ - บล็อกการสมัครสมาชิกบอทประมาณ 1.6 ล้านครั้งต่อชั่วโมง https://www.techspot.com/news/107641-microsoft-warns-ai-making-faster-easier-create-online.html
    WWW.TECHSPOT.COM
    AI is enabling cybercriminals to act quickly - and with little technical knowledge, Microsoft warns
    In its latest edition of the Cyber Signals report, Microsoft writes that AI has started to lower the technical bar for fraud and cybercrime actors looking for...
    0 Comments 0 Shares 51 Views 0 Reviews
  • Microsoft ได้เผยแพร่ Cyber Signals Report ฉบับล่าสุด ซึ่งเน้นถึงภัยคุกคามทางไซเบอร์ที่ใช้ AI ในการสร้างเนื้อหาหลอกลวง โดยอาชญากรไซเบอร์สามารถใช้ deepfakes, voice cloning และเว็บไซต์ปลอม

    ✅ AI ช่วยให้อาชญากรไซเบอร์สามารถสร้างเนื้อหาหลอกลวงได้ง่ายขึ้น
    - ใช้ deepfakes และ voice cloning เพื่อแอบอ้างเป็นบุคคลจริง
    - สร้าง เว็บไซต์ปลอมและรีวิวสินค้า AI-generated เพื่อหลอกลวงผู้บริโภค

    ✅ Microsoft เตือนเกี่ยวกับการฉ้อโกงที่ใช้ AI
    - อาชญากรสามารถใช้ AI เพื่อสแกนข้อมูลบริษัทและสร้างโปรไฟล์ปลอมของพนักงาน
    - ใช้ AI-generated storefronts เพื่อสร้างแบรนด์ปลอมที่ดูน่าเชื่อถือ

    ✅ มาตรการป้องกันที่ Microsoft แนะนำ
    - เพิ่มการตรวจสอบตัวตนของนายจ้าง โดยใช้ Microsoft Entra ID และ multifactor authentication
    - ใช้ deepfake detection algorithms เพื่อตรวจจับการสัมภาษณ์งานที่ใช้ AI-generated faces
    - ตรวจสอบเว็บไซต์และโฆษณาที่ดูดีเกินจริง โดยใช้ Microsoft Edge typo protection

    ✅ การปรับปรุง Quick Assist เพื่อป้องกันการฉ้อโกง
    - Microsoft ได้เพิ่ม ข้อความเตือนเกี่ยวกับ tech support scams ใน Quick Assist
    - ระบบสามารถ บล็อกการเชื่อมต่อที่น่าสงสัยกว่า 4,415 ครั้งต่อวัน

    https://www.neowin.net/news/microsoft-shares-detailed-guidance-for-ai-scams-that-are-nearly-impossible-to-not-fall-for/
    Microsoft ได้เผยแพร่ Cyber Signals Report ฉบับล่าสุด ซึ่งเน้นถึงภัยคุกคามทางไซเบอร์ที่ใช้ AI ในการสร้างเนื้อหาหลอกลวง โดยอาชญากรไซเบอร์สามารถใช้ deepfakes, voice cloning และเว็บไซต์ปลอม ✅ AI ช่วยให้อาชญากรไซเบอร์สามารถสร้างเนื้อหาหลอกลวงได้ง่ายขึ้น - ใช้ deepfakes และ voice cloning เพื่อแอบอ้างเป็นบุคคลจริง - สร้าง เว็บไซต์ปลอมและรีวิวสินค้า AI-generated เพื่อหลอกลวงผู้บริโภค ✅ Microsoft เตือนเกี่ยวกับการฉ้อโกงที่ใช้ AI - อาชญากรสามารถใช้ AI เพื่อสแกนข้อมูลบริษัทและสร้างโปรไฟล์ปลอมของพนักงาน - ใช้ AI-generated storefronts เพื่อสร้างแบรนด์ปลอมที่ดูน่าเชื่อถือ ✅ มาตรการป้องกันที่ Microsoft แนะนำ - เพิ่มการตรวจสอบตัวตนของนายจ้าง โดยใช้ Microsoft Entra ID และ multifactor authentication - ใช้ deepfake detection algorithms เพื่อตรวจจับการสัมภาษณ์งานที่ใช้ AI-generated faces - ตรวจสอบเว็บไซต์และโฆษณาที่ดูดีเกินจริง โดยใช้ Microsoft Edge typo protection ✅ การปรับปรุง Quick Assist เพื่อป้องกันการฉ้อโกง - Microsoft ได้เพิ่ม ข้อความเตือนเกี่ยวกับ tech support scams ใน Quick Assist - ระบบสามารถ บล็อกการเชื่อมต่อที่น่าสงสัยกว่า 4,415 ครั้งต่อวัน https://www.neowin.net/news/microsoft-shares-detailed-guidance-for-ai-scams-that-are-nearly-impossible-to-not-fall-for/
    WWW.NEOWIN.NET
    Microsoft shares detailed guidance for AI scams that are nearly impossible to not fall for
    Microsoft has published a detailed guidance on ways to deal with modern AI-powered scams that are really difficult to detect.
    0 Comments 0 Shares 223 Views 0 Reviews
  • นักต้มตุ๋นกำลังใช้ AI-generated voices เพื่อแอบอ้างเป็นเจ้าหน้าที่ IRS และผู้เชี่ยวชาญด้านภาษี เพื่อหลอกลวงประชาชนในช่วง Tax Day โดย Microsoft ได้ออกคำเตือนเกี่ยวกับ การโจมตีแบบ vishing (voice phishing) ที่กำลังเพิ่มขึ้น

    ✅ นักต้มตุ๋นใช้ AI-generated voices เพื่อแอบอ้างเป็นเจ้าหน้าที่ IRS
    - ใช้ deepfake voice เพื่อทำให้เสียงดูน่าเชื่อถือ
    - หลอกให้เหยื่อเปิดเผย ข้อมูลทางการเงินและเอกสารภาษี

    ✅ Microsoft เตือนเกี่ยวกับการโจมตีแบบ vishing
    - แนะนำให้ใช้ multi-factor authentication เพื่อป้องกันบัญชีออนไลน์
    - ควรตรวจสอบ URL อย่างละเอียด เพื่อหลีกเลี่ยงเว็บไซต์ปลอม

    ✅ IRS ไม่ติดต่อประชาชนผ่านอีเมลหรือโซเชียลมีเดีย
    - หากได้รับข้อความจาก IRS ผ่านช่องทางเหล่านี้ ควรสงสัยว่าเป็นการหลอกลวง
    - IRS จะติดต่อผ่าน จดหมายหรือโทรศัพท์ที่สามารถตรวจสอบได้

    ✅ นักต้มตุ๋นใช้เทคนิคใหม่เพื่อเพิ่มความน่าเชื่อถือ
    - ใช้ AI-generated emails, voice calls และวิดีโอ deepfake
    - สามารถ ปรับแต่งผลการค้นหา เพื่อให้เว็บไซต์ปลอมดูเหมือนเป็นของจริง

    ✅ กลุ่มเป้าหมายหลักของการโจมตี
    - วิศวกร, ผู้เชี่ยวชาญด้าน IT และที่ปรึกษา เป็นกลุ่มที่ถูกโจมตีมากที่สุด
    - ใช้ QR codes และบริการฝากไฟล์ เช่น Dropbox เพื่อหลอกลวงเหยื่อ

    https://www.techradar.com/pro/security/scammers-are-using-ai-generated-voices-to-impersonate-irs-tax-officials
    นักต้มตุ๋นกำลังใช้ AI-generated voices เพื่อแอบอ้างเป็นเจ้าหน้าที่ IRS และผู้เชี่ยวชาญด้านภาษี เพื่อหลอกลวงประชาชนในช่วง Tax Day โดย Microsoft ได้ออกคำเตือนเกี่ยวกับ การโจมตีแบบ vishing (voice phishing) ที่กำลังเพิ่มขึ้น ✅ นักต้มตุ๋นใช้ AI-generated voices เพื่อแอบอ้างเป็นเจ้าหน้าที่ IRS - ใช้ deepfake voice เพื่อทำให้เสียงดูน่าเชื่อถือ - หลอกให้เหยื่อเปิดเผย ข้อมูลทางการเงินและเอกสารภาษี ✅ Microsoft เตือนเกี่ยวกับการโจมตีแบบ vishing - แนะนำให้ใช้ multi-factor authentication เพื่อป้องกันบัญชีออนไลน์ - ควรตรวจสอบ URL อย่างละเอียด เพื่อหลีกเลี่ยงเว็บไซต์ปลอม ✅ IRS ไม่ติดต่อประชาชนผ่านอีเมลหรือโซเชียลมีเดีย - หากได้รับข้อความจาก IRS ผ่านช่องทางเหล่านี้ ควรสงสัยว่าเป็นการหลอกลวง - IRS จะติดต่อผ่าน จดหมายหรือโทรศัพท์ที่สามารถตรวจสอบได้ ✅ นักต้มตุ๋นใช้เทคนิคใหม่เพื่อเพิ่มความน่าเชื่อถือ - ใช้ AI-generated emails, voice calls และวิดีโอ deepfake - สามารถ ปรับแต่งผลการค้นหา เพื่อให้เว็บไซต์ปลอมดูเหมือนเป็นของจริง ✅ กลุ่มเป้าหมายหลักของการโจมตี - วิศวกร, ผู้เชี่ยวชาญด้าน IT และที่ปรึกษา เป็นกลุ่มที่ถูกโจมตีมากที่สุด - ใช้ QR codes และบริการฝากไฟล์ เช่น Dropbox เพื่อหลอกลวงเหยื่อ https://www.techradar.com/pro/security/scammers-are-using-ai-generated-voices-to-impersonate-irs-tax-officials
    0 Comments 0 Shares 250 Views 0 Reviews
  • ข่าวนี้เล่าถึง ภัยคุกคามจากแฮกเกอร์ชาวเกาหลีเหนือ ที่แฝงตัวเข้ามาในบริษัทต่างๆ ทั่วโลกผ่านการสมัครงานในตำแหน่ง IT โดยใช้ ข้อมูลปลอมและเทคโนโลยี Deepfake เพื่อหลอกลวงนายจ้าง

    ✅ กลยุทธ์ของแฮกเกอร์เกาหลีเหนือ
    - ใช้ข้อมูลปลอม เช่น ชื่อและเอกสารของพลเมืองสหรัฐฯ
    - ใช้ Deepfake เพื่อปลอมแปลงใบหน้าระหว่างสัมภาษณ์งาน

    ✅ ภัยคุกคามต่อบริษัทต่างๆ
    - แฮกเกอร์ไม่ได้โจมตีระบบโดยตรง แต่ใช้สิทธิ์การเข้าถึงของพนักงาน
    - กระทรวงการคลังสหรัฐฯ เตือนถึงภัยคุกคามนี้ตั้งแต่ปี 2022

    ✅ ตัวอย่างเหตุการณ์จริง
    - Christina Chapman ช่วยให้แฮกเกอร์ปลอมตัวเป็นพลเมืองสหรัฐฯ และสมัครงานในบริษัทกว่า 300 แห่ง
    - Oleksandr Didenko ขายบัญชีปลอมให้แฮกเกอร์เพื่อใช้สมัครงาน

    ℹ️ ความเสี่ยงต่อความปลอดภัยขององค์กร
    - แฮกเกอร์สามารถใช้สิทธิ์ของพนักงานเพื่อเปิดทางให้กับการโจมตีไซเบอร์
    - บริษัทที่ไม่ตรวจสอบข้อมูลพนักงานอย่างละเอียดอาจตกเป็นเป้าหมาย

    ℹ️ คำแนะนำสำหรับการป้องกัน
    - ตรวจสอบข้อมูลผู้สมัครงานอย่างละเอียด รวมถึงการสัมภาษณ์แบบวิดีโอ
    - ใช้ระบบตรวจสอบตัวตนที่เข้มงวด เช่น การตรวจสอบเอกสารและที่อยู่

    https://www.csoonline.com/article/3497138/how-not-to-hire-a-north-korean-it-spy.html
    ข่าวนี้เล่าถึง ภัยคุกคามจากแฮกเกอร์ชาวเกาหลีเหนือ ที่แฝงตัวเข้ามาในบริษัทต่างๆ ทั่วโลกผ่านการสมัครงานในตำแหน่ง IT โดยใช้ ข้อมูลปลอมและเทคโนโลยี Deepfake เพื่อหลอกลวงนายจ้าง ✅ กลยุทธ์ของแฮกเกอร์เกาหลีเหนือ - ใช้ข้อมูลปลอม เช่น ชื่อและเอกสารของพลเมืองสหรัฐฯ - ใช้ Deepfake เพื่อปลอมแปลงใบหน้าระหว่างสัมภาษณ์งาน ✅ ภัยคุกคามต่อบริษัทต่างๆ - แฮกเกอร์ไม่ได้โจมตีระบบโดยตรง แต่ใช้สิทธิ์การเข้าถึงของพนักงาน - กระทรวงการคลังสหรัฐฯ เตือนถึงภัยคุกคามนี้ตั้งแต่ปี 2022 ✅ ตัวอย่างเหตุการณ์จริง - Christina Chapman ช่วยให้แฮกเกอร์ปลอมตัวเป็นพลเมืองสหรัฐฯ และสมัครงานในบริษัทกว่า 300 แห่ง - Oleksandr Didenko ขายบัญชีปลอมให้แฮกเกอร์เพื่อใช้สมัครงาน ℹ️ ความเสี่ยงต่อความปลอดภัยขององค์กร - แฮกเกอร์สามารถใช้สิทธิ์ของพนักงานเพื่อเปิดทางให้กับการโจมตีไซเบอร์ - บริษัทที่ไม่ตรวจสอบข้อมูลพนักงานอย่างละเอียดอาจตกเป็นเป้าหมาย ℹ️ คำแนะนำสำหรับการป้องกัน - ตรวจสอบข้อมูลผู้สมัครงานอย่างละเอียด รวมถึงการสัมภาษณ์แบบวิดีโอ - ใช้ระบบตรวจสอบตัวตนที่เข้มงวด เช่น การตรวจสอบเอกสารและที่อยู่ https://www.csoonline.com/article/3497138/how-not-to-hire-a-north-korean-it-spy.html
    WWW.CSOONLINE.COM
    How not to hire a North Korean IT spy
    CISOs are urged to carry out tighter vetting of new hires to ward off potential ‘moles’ — who are increasingly finding their way onto company payrolls and into their IT systems.
    0 Comments 0 Shares 227 Views 0 Reviews
  • รายงาน AI Index 2025 จาก Stanford University เผยให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ในโลกของปัญญาประดิษฐ์ โดยต้นทุนการใช้งาน AI ลดลงอย่างมาก แต่ในขณะเดียวกัน เหตุการณ์ที่เกี่ยวข้องกับ AI ที่เป็นอันตรายกลับเพิ่มขึ้นอย่างน่ากังวล

    🌐 ต้นทุนที่ลดลงและการลงทุนที่เพิ่มขึ้น:
    - 📉 ต้นทุนการใช้งาน AI: ค่าใช้จ่ายในการใช้งานโมเดล AI ลดลงจาก $20 ต่อ 1 ล้านโทเค็น เหลือเพียง $0.07 ในเวลาเพียง 18 เดือน
    - 💡 การลงทุนมหาศาล: บริษัทใหญ่ เช่น OpenAI, Meta และ Google ลงทุนเพิ่มขึ้นถึง 28 เท่า ในการฝึกโมเดล AI รุ่นใหม่

    ⚠️ เหตุการณ์อันตรายที่เพิ่มขึ้น:
    - 🚨 เหตุการณ์ที่เกี่ยวข้องกับ AI: จำนวนเหตุการณ์อันตรายที่เกี่ยวข้องกับ AI เพิ่มขึ้นจาก 100 ครั้งในปี 2022 เป็น 233 ครั้งในปี 2024
    - 🛑 ตัวอย่างเหตุการณ์: การระบุผิดพลาดของ AI ในระบบป้องกันการขโมยสินค้า, การสร้างภาพลามกแบบ deepfake และการสนับสนุนพฤติกรรมอันตรายโดยแชทบอท

    🌟 การแข่งขันระหว่างจีนและสหรัฐฯ:
    - 🇺🇸 สหรัฐฯ ยังคงนำหน้า: สหรัฐฯ มีโมเดล AI ที่โดดเด่นถึง 40 โมเดล ในปี 2024 ขณะที่จีนมีเพียง 15 โมเดล
    - 🇨🇳 จีนไล่ตามอย่างใกล้ชิด: ความแตกต่างด้านประสิทธิภาพระหว่างโมเดล AI ของสหรัฐฯ และจีนลดลงจาก 9.26% ในปี 2024 เหลือเพียง 1.70% ในปี 2025

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-costs-drop-280-fold-but-harmful-incidents-rise-56-percent-in-last-year-stanford-2025-ai-report-highlights-china-us-competition
    รายงาน AI Index 2025 จาก Stanford University เผยให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ในโลกของปัญญาประดิษฐ์ โดยต้นทุนการใช้งาน AI ลดลงอย่างมาก แต่ในขณะเดียวกัน เหตุการณ์ที่เกี่ยวข้องกับ AI ที่เป็นอันตรายกลับเพิ่มขึ้นอย่างน่ากังวล 🌐 ต้นทุนที่ลดลงและการลงทุนที่เพิ่มขึ้น: - 📉 ต้นทุนการใช้งาน AI: ค่าใช้จ่ายในการใช้งานโมเดล AI ลดลงจาก $20 ต่อ 1 ล้านโทเค็น เหลือเพียง $0.07 ในเวลาเพียง 18 เดือน - 💡 การลงทุนมหาศาล: บริษัทใหญ่ เช่น OpenAI, Meta และ Google ลงทุนเพิ่มขึ้นถึง 28 เท่า ในการฝึกโมเดล AI รุ่นใหม่ ⚠️ เหตุการณ์อันตรายที่เพิ่มขึ้น: - 🚨 เหตุการณ์ที่เกี่ยวข้องกับ AI: จำนวนเหตุการณ์อันตรายที่เกี่ยวข้องกับ AI เพิ่มขึ้นจาก 100 ครั้งในปี 2022 เป็น 233 ครั้งในปี 2024 - 🛑 ตัวอย่างเหตุการณ์: การระบุผิดพลาดของ AI ในระบบป้องกันการขโมยสินค้า, การสร้างภาพลามกแบบ deepfake และการสนับสนุนพฤติกรรมอันตรายโดยแชทบอท 🌟 การแข่งขันระหว่างจีนและสหรัฐฯ: - 🇺🇸 สหรัฐฯ ยังคงนำหน้า: สหรัฐฯ มีโมเดล AI ที่โดดเด่นถึง 40 โมเดล ในปี 2024 ขณะที่จีนมีเพียง 15 โมเดล - 🇨🇳 จีนไล่ตามอย่างใกล้ชิด: ความแตกต่างด้านประสิทธิภาพระหว่างโมเดล AI ของสหรัฐฯ และจีนลดลงจาก 9.26% ในปี 2024 เหลือเพียง 1.70% ในปี 2025 https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-costs-drop-280-fold-but-harmful-incidents-rise-56-percent-in-last-year-stanford-2025-ai-report-highlights-china-us-competition
    0 Comments 0 Shares 173 Views 0 Reviews
  • ในยุคที่ภัยคุกคามไซเบอร์พัฒนาอย่างรวดเร็ว การฝึกอบรมพนักงานให้รับมือกับการโจมตี เช่น Phishing, Social Engineering และ Deepfake เป็นสิ่งสำคัญ แต่การมอบหมายให้ HR เป็นผู้ดูแลการฝึกอบรมด้านความปลอดภัยไซเบอร์โดยลำพัง อาจทำให้องค์กรตกอยู่ในความเสี่ยง

    == ข้อจำกัดของ HR ในการฝึกอบรมด้านความปลอดภัยไซเบอร์ ==
    ✅ ขาดความรู้เฉพาะทาง:
    - HR อาจไม่มีความรู้เชิงลึกเกี่ยวกับภัยคุกคามไซเบอร์ที่เปลี่ยนแปลงตลอดเวลา เช่น เทคนิคใหม่ ๆ ที่แฮ็กเกอร์ใช้โจมตี

    ✅ การฝึกอบรมที่ไม่ตรงจุด:
    - การฝึกอบรมที่จัดโดย HR อาจเน้นไปที่การปฏิบัติตามข้อกำหนดทั่วไป แต่ขาดการเน้นย้ำถึงภัยคุกคามเฉพาะที่องค์กรเผชิญ

    ✅ ความไม่สอดคล้องกับความต้องการขององค์กร:
    - HR อาจไม่สามารถปรับเนื้อหาให้เหมาะสมกับอุตสาหกรรม เช่น ในภาคการเงินที่ต้องเน้นการป้องกันข้อมูลบัตรเครดิต

    == ความสำคัญของความร่วมมือระหว่าง HR และทีมความปลอดภัย ==
    💡 การสร้างเนื้อหาที่มีประสิทธิภาพ:
    - ทีมความปลอดภัยสามารถให้ข้อมูลเชิงลึกเกี่ยวกับภัยคุกคามที่องค์กรเผชิญ และช่วยออกแบบการฝึกอบรมที่ตรงจุด

    💡 การแปลข้อมูลเทคนิคให้เข้าใจง่าย:
    - HR สามารถช่วยแปลข้อมูลเชิงเทคนิคให้เป็นภาษาที่พนักงานทั่วไปเข้าใจได้ง่าย

    💡 การสร้างวัฒนธรรมความปลอดภัย:
    - การฝึกอบรมที่มีความร่วมมือระหว่าง HR และทีมความปลอดภัยช่วยสร้างความตระหนักรู้และวัฒนธรรมความปลอดภัยในองค์กร

    https://www.csoonline.com/article/3856404/is-hr-running-your-employee-security-training-heres-why-thats-not-always-the-best-idea.html
    ในยุคที่ภัยคุกคามไซเบอร์พัฒนาอย่างรวดเร็ว การฝึกอบรมพนักงานให้รับมือกับการโจมตี เช่น Phishing, Social Engineering และ Deepfake เป็นสิ่งสำคัญ แต่การมอบหมายให้ HR เป็นผู้ดูแลการฝึกอบรมด้านความปลอดภัยไซเบอร์โดยลำพัง อาจทำให้องค์กรตกอยู่ในความเสี่ยง == ข้อจำกัดของ HR ในการฝึกอบรมด้านความปลอดภัยไซเบอร์ == ✅ ขาดความรู้เฉพาะทาง: - HR อาจไม่มีความรู้เชิงลึกเกี่ยวกับภัยคุกคามไซเบอร์ที่เปลี่ยนแปลงตลอดเวลา เช่น เทคนิคใหม่ ๆ ที่แฮ็กเกอร์ใช้โจมตี ✅ การฝึกอบรมที่ไม่ตรงจุด: - การฝึกอบรมที่จัดโดย HR อาจเน้นไปที่การปฏิบัติตามข้อกำหนดทั่วไป แต่ขาดการเน้นย้ำถึงภัยคุกคามเฉพาะที่องค์กรเผชิญ ✅ ความไม่สอดคล้องกับความต้องการขององค์กร: - HR อาจไม่สามารถปรับเนื้อหาให้เหมาะสมกับอุตสาหกรรม เช่น ในภาคการเงินที่ต้องเน้นการป้องกันข้อมูลบัตรเครดิต == ความสำคัญของความร่วมมือระหว่าง HR และทีมความปลอดภัย == 💡 การสร้างเนื้อหาที่มีประสิทธิภาพ: - ทีมความปลอดภัยสามารถให้ข้อมูลเชิงลึกเกี่ยวกับภัยคุกคามที่องค์กรเผชิญ และช่วยออกแบบการฝึกอบรมที่ตรงจุด 💡 การแปลข้อมูลเทคนิคให้เข้าใจง่าย: - HR สามารถช่วยแปลข้อมูลเชิงเทคนิคให้เป็นภาษาที่พนักงานทั่วไปเข้าใจได้ง่าย 💡 การสร้างวัฒนธรรมความปลอดภัย: - การฝึกอบรมที่มีความร่วมมือระหว่าง HR และทีมความปลอดภัยช่วยสร้างความตระหนักรู้และวัฒนธรรมความปลอดภัยในองค์กร https://www.csoonline.com/article/3856404/is-hr-running-your-employee-security-training-heres-why-thats-not-always-the-best-idea.html
    WWW.CSOONLINE.COM
    Is HR running your employee security training? Here’s why that’s not always the best idea
    Training employees to resist the lure of phishing, scams, and deepfakes is central to a good cybersecurity posture, but to be effective it needs to be handled with plenty of input and guidance from the security team.
    0 Comments 0 Shares 147 Views 0 Reviews
  • 5 มีนาคม “วันนักข่าว” กับบทบาทสื่อมวลชนในยุค AI เผยความจริง สิ่งลวงตา และการถ่วงดุลอำนาจ

    📅 วันที่ 5 มีนาคมของทุกปี ถือเป็น "วันนักข่าว" หรือ "วันสื่อสารมวลชนแห่งชาติ" ในประเทศไทย ซึ่งเป็นวันสำคัญของวงการสื่อสารมวลชน โดยมีจุดเริ่มต้นมาจากวันสถาปนา สมาคมนักข่าวแห่งประเทศไทย เมื่อวันที่ 5 มีนาคม พ.ศ. 2498

    ปัจจุบัน บทบาทของนักข่าวและสื่อมวลชน กำลังเผชิญกับความท้าทายครั้งใหญ่ในยุคดิจิทัล และเทคโนโลยี AI (Artificial Intelligence) ที่ไร้พรมแดน ข้อมูลข่าวสารแพร่กระจายอย่างรวดเร็ว ทั้งข้อเท็จจริงและข่าวลวง (Fake News) บทบาทของสื่อ จึงไม่ใช่เพียงรายงานข่าวเท่านั้น แต่ต้องทำหน้าที่คัดกรอง ตรวจสอบ และถ่วงดุลอำนาจ เพื่อให้สังคมได้รับข้อมูลที่ถูกต้อ งและเป็นธรรม

    📖 ความเป็นมาของวันนักข่าว จุดกำเนิดของวันนักข่าวในไทย 🎙
    สมาคมนักข่าวแห่งประเทศไทย ปัจจุบันคือ สมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย ก่อตั้งขึ้นโดยนักข่าวรุ่นบุกเบิก 15 คน ที่รวมตัวกันที่ศาลานเรศวร ในสวนลุมพินี โดยมี นายชาญ สินศุข จากสยามนิกร เป็นประธานการประชุม

    🔹 ในอดีต หนังสือพิมพ์ไทยยึดถือธรรมเนียมว่า วันที่ 6 มีนาคม ของทุกปี จะเป็นวันหยุดงานของนักข่าว และจะไม่มีหนังสือพิมพ์วางจำหน่าย แต่เมื่อเวลาผ่านไป สังคมมีความต้องการบริโภคข่าวสารมากขึ้น ทำให้ต้องยุติธรรมเนียมนี้ไป

    🔹 ต่อมา ในปี พ.ศ. 2542 สมาคมนักข่าวแห่งประเทศไทย ได้รวมตัวกับ สมาคมนักหนังสือพิมพ์แห่งประเทศไทย และกำหนดให้วันที่ 5 มีนาคม เป็นวันนักข่าว อย่างเป็นทางการจนถึงปัจจุบัน

    🎥 บทบาทสำคัญของนักข่าวในสังคมไทย นักข่าวไม่ได้เป็นเพียงผู้รายงานข่าว แต่ยังมีบทบาทสำคัญในหลายมิติของสังคม ตั้งแต่การเฝ้าระวังอำนาจ การเปิดโปงความจริง ไปจนถึงการสร้างความตระหนักรู้ และขับเคลื่อนสังคม

    🏛 เฝ้าระวังและตรวจสอบอำนาจ (Watchdog Journalism)
    ✅ นักข่าวทำหน้าที่ตรวจสอบการใช้อำนาจของรัฐ ภาคเอกชน และองค์กรต่าง ๆ
    ✅ เปิดโปงการทุจริต คอร์รัปชัน และความไม่ชอบมาพากลในสังคม
    ✅ ปกป้องประชาชน จากการถูกเอารัดเอาเปรียบ

    📰 ให้ข้อมูลที่จำเป็นต่อการตัดสินใจของประชาชน
    ✅ รายงานข่าวสารด้านการเมือง เศรษฐกิจ สังคม และสิ่งแวดล้อม
    ✅ ให้ข้อมูลเกี่ยวกับนโยบายของรัฐบาล การเลือกตั้ง และภัยพิบัติ
    ✅ ช่วยให้ประชาชนตัดสินใจได้อย่างถูกต้อง บนพื้นฐานของข้อมูลที่น่าเชื่อถือ

    🚨 สร้างกระแส และกระตุ้นการเปลี่ยนแปลงทางสังคม
    ✅ นำเสนอปัญหาสำคัญ เช่น ความเหลื่อมล้ำ สิทธิมนุษยชน และสิ่งแวดล้อม
    ✅ กระตุ้นให้เกิดการเปลี่ยนแปลงทางนโยบาย และการแก้ไขปัญหา
    ✅ เป็นช่องทางในการเรียกร้องความเป็นธรรม ให้กับประชาชน

    🎤 เป็นกระบอกเสียงให้กับประชาชน
    ✅ นำเสนอเรื่องราวของผู้ด้อยโอกาส และกลุ่มที่ถูกกดขี่
    ✅ ให้พื้นที่แก่ประชาชน ในการแสดงความคิดเห็น
    ✅ ช่วยให้เสียงของประชาชน ถูกได้ยินในเวทีสาธารณะ

    🔓 สนับสนุนเสรีภาพในการแสดงความคิดเห็น
    ✅ สื่อมวลชนเป็นหัวใจของ ประชาธิปไตย
    ✅ หากปราศจากเสรีภาพทางสื่อ สังคมอาจถูกควบคุมโดยข้อมูลฝ่ายเดียว
    ✅ นักข่าวต้องกล้าหาญ และยืนหยัดในการรายงานความจริง

    🌍 ยุค AI กับความท้าทายของสื่อมวลชน
    🤖 AI และอัลกอริทึมเปลี่ยนโฉมวงการข่าว
    🔹 เทคโนโลยี AI ช่วยให้ ข่าวถูกสร้าง และกระจายได้รวดเร็วขึ้น
    🔹 แพลตฟอร์มโซเชียลมีเดีย ใช้อัลกอริทึมในการเลือกนำเสนอข่าว ที่ตรงกับความสนใจของผู้ใช้ แต่ อาจทำให้ข่าวสารถูกบิดเบือ นและเกิด Echo Chamber (ห้องเสียงสะท้อน)

    🚨 ข่าวปลอม (Fake News) และ Deepfake
    🔹 ข่าวปลอม และข้อมูลบิดเบือนแพร่กระจาย ในโซเชียลมีเดียอย่างรวดเร็ว
    🔹 เทคโนโลยี Deepfake ทำให้เกิดวิดีโอปลอม ที่เลียนแบบบุคคลจริงได้อย่างแนบเนียน
    🔹 นักข่าวต้องตรวจสอบแหล่งที่มาของข้อมูล อย่างเข้มงวด

    💰 รายได้จากโฆษณาของสื่อดั้งเดิมลดลง
    🔹 หนังสือพิมพ์ และสื่อโทรทัศน์สูญเสียรายได้ ให้กับแพลตฟอร์มดิจิทัล เช่น Facebook, Google
    🔹 นักข่าวต้องปรับตัวไปสู่การสร้างรายได้ ผ่านช่องทางออนไลน์ และการสมัครสมาชิก (Subscription-Based Media)

    🏛 แรงกดดันจากอำนาจรัฐและกลุ่มทุน
    🔹 นักข่าวบางคนอาจถูกคุกคาม หากรายงานข่าวที่กระทบต่อผู้มีอำนาจ
    🔹 สื่อบางสำนัก อาจถูกควบคุมโดยกลุ่มทุน ทำให้เสรีภาพทางข่าวสารถูกจำกัด

    ✅ แนวทางในการพัฒนาวงการสื่อมวลชนไทย
    ✔ สร้างมาตรฐานทางจริยธรรม นักข่าวต้องรักษาความเป็นกลาง และความถูกต้องของข้อมูล
    ✔ ตรวจสอบข้อเท็จจริงอย่างเข้มงวด ป้องกันการแพร่กระจายของข่าวปลอม
    ✔ ใช้เทคโนโลยีให้เกิดประโยชน์ เช่น AI ในการช่วยวิเคราะห์ข้อมูลข่าวสาร
    ✔ พัฒนาทักษะนักข่าวให้ทันสมัย ให้สามารถปรับตัวเข้ากับแพลตฟอร์มดิจิทัล

    🎯 "นักข่าว" อาชีพที่ขับเคลื่อนความจริงและสังคมไทย
    👥 นักข่าวเป็นอาชีพที่มีความสำคัญอย่างยิ่งต่อสังคม
    📢 พวกเขาทำหน้าที่รายงานข้อเท็จจริง คัดกรองข่าวสาร และตรวจสอบอำนาจ
    🌍 ในยุค AI สื่อมวลชนต้องเผชิญกับ Fake News การคุกคามจากอำนาจรัฐ และความเปลี่ยนแปลงของเทคโนโลยี
    📌 อย่างไรก็ตาม จริยธรรม ความกล้าหาญ และการยึดมั่นในความจริง จะทำให้สื่อมวลชน ยังคงเป็นเสาหลักของประชาธิปไตย

    💡 "เพราะข่าวที่ดี ไม่ใช่แค่ข่าวที่เร็ว แต่ต้องเป็นข่าวที่ถูกต้อง"

    ป้อม-อัครวัฒน์ ธนันฐ์กิตติกุล 051127 มี.ค. 2568

    🔖 #วันนักข่าว #นักข่าวไทย #สื่อมวลชน #FreedomOfPress #AIกับสื่อ #ข่าวปลอม #FakeNews #Deepfake #PressFreedom #MediaEthics
    5 มีนาคม “วันนักข่าว” กับบทบาทสื่อมวลชนในยุค AI เผยความจริง สิ่งลวงตา และการถ่วงดุลอำนาจ 📅 วันที่ 5 มีนาคมของทุกปี ถือเป็น "วันนักข่าว" หรือ "วันสื่อสารมวลชนแห่งชาติ" ในประเทศไทย ซึ่งเป็นวันสำคัญของวงการสื่อสารมวลชน โดยมีจุดเริ่มต้นมาจากวันสถาปนา สมาคมนักข่าวแห่งประเทศไทย เมื่อวันที่ 5 มีนาคม พ.ศ. 2498 ปัจจุบัน บทบาทของนักข่าวและสื่อมวลชน กำลังเผชิญกับความท้าทายครั้งใหญ่ในยุคดิจิทัล และเทคโนโลยี AI (Artificial Intelligence) ที่ไร้พรมแดน ข้อมูลข่าวสารแพร่กระจายอย่างรวดเร็ว ทั้งข้อเท็จจริงและข่าวลวง (Fake News) บทบาทของสื่อ จึงไม่ใช่เพียงรายงานข่าวเท่านั้น แต่ต้องทำหน้าที่คัดกรอง ตรวจสอบ และถ่วงดุลอำนาจ เพื่อให้สังคมได้รับข้อมูลที่ถูกต้อ งและเป็นธรรม 📖 ความเป็นมาของวันนักข่าว จุดกำเนิดของวันนักข่าวในไทย 🎙 สมาคมนักข่าวแห่งประเทศไทย ปัจจุบันคือ สมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย ก่อตั้งขึ้นโดยนักข่าวรุ่นบุกเบิก 15 คน ที่รวมตัวกันที่ศาลานเรศวร ในสวนลุมพินี โดยมี นายชาญ สินศุข จากสยามนิกร เป็นประธานการประชุม 🔹 ในอดีต หนังสือพิมพ์ไทยยึดถือธรรมเนียมว่า วันที่ 6 มีนาคม ของทุกปี จะเป็นวันหยุดงานของนักข่าว และจะไม่มีหนังสือพิมพ์วางจำหน่าย แต่เมื่อเวลาผ่านไป สังคมมีความต้องการบริโภคข่าวสารมากขึ้น ทำให้ต้องยุติธรรมเนียมนี้ไป 🔹 ต่อมา ในปี พ.ศ. 2542 สมาคมนักข่าวแห่งประเทศไทย ได้รวมตัวกับ สมาคมนักหนังสือพิมพ์แห่งประเทศไทย และกำหนดให้วันที่ 5 มีนาคม เป็นวันนักข่าว อย่างเป็นทางการจนถึงปัจจุบัน 🎥 บทบาทสำคัญของนักข่าวในสังคมไทย นักข่าวไม่ได้เป็นเพียงผู้รายงานข่าว แต่ยังมีบทบาทสำคัญในหลายมิติของสังคม ตั้งแต่การเฝ้าระวังอำนาจ การเปิดโปงความจริง ไปจนถึงการสร้างความตระหนักรู้ และขับเคลื่อนสังคม 🏛 เฝ้าระวังและตรวจสอบอำนาจ (Watchdog Journalism) ✅ นักข่าวทำหน้าที่ตรวจสอบการใช้อำนาจของรัฐ ภาคเอกชน และองค์กรต่าง ๆ ✅ เปิดโปงการทุจริต คอร์รัปชัน และความไม่ชอบมาพากลในสังคม ✅ ปกป้องประชาชน จากการถูกเอารัดเอาเปรียบ 📰 ให้ข้อมูลที่จำเป็นต่อการตัดสินใจของประชาชน ✅ รายงานข่าวสารด้านการเมือง เศรษฐกิจ สังคม และสิ่งแวดล้อม ✅ ให้ข้อมูลเกี่ยวกับนโยบายของรัฐบาล การเลือกตั้ง และภัยพิบัติ ✅ ช่วยให้ประชาชนตัดสินใจได้อย่างถูกต้อง บนพื้นฐานของข้อมูลที่น่าเชื่อถือ 🚨 สร้างกระแส และกระตุ้นการเปลี่ยนแปลงทางสังคม ✅ นำเสนอปัญหาสำคัญ เช่น ความเหลื่อมล้ำ สิทธิมนุษยชน และสิ่งแวดล้อม ✅ กระตุ้นให้เกิดการเปลี่ยนแปลงทางนโยบาย และการแก้ไขปัญหา ✅ เป็นช่องทางในการเรียกร้องความเป็นธรรม ให้กับประชาชน 🎤 เป็นกระบอกเสียงให้กับประชาชน ✅ นำเสนอเรื่องราวของผู้ด้อยโอกาส และกลุ่มที่ถูกกดขี่ ✅ ให้พื้นที่แก่ประชาชน ในการแสดงความคิดเห็น ✅ ช่วยให้เสียงของประชาชน ถูกได้ยินในเวทีสาธารณะ 🔓 สนับสนุนเสรีภาพในการแสดงความคิดเห็น ✅ สื่อมวลชนเป็นหัวใจของ ประชาธิปไตย ✅ หากปราศจากเสรีภาพทางสื่อ สังคมอาจถูกควบคุมโดยข้อมูลฝ่ายเดียว ✅ นักข่าวต้องกล้าหาญ และยืนหยัดในการรายงานความจริง 🌍 ยุค AI กับความท้าทายของสื่อมวลชน 🤖 AI และอัลกอริทึมเปลี่ยนโฉมวงการข่าว 🔹 เทคโนโลยี AI ช่วยให้ ข่าวถูกสร้าง และกระจายได้รวดเร็วขึ้น 🔹 แพลตฟอร์มโซเชียลมีเดีย ใช้อัลกอริทึมในการเลือกนำเสนอข่าว ที่ตรงกับความสนใจของผู้ใช้ แต่ อาจทำให้ข่าวสารถูกบิดเบือ นและเกิด Echo Chamber (ห้องเสียงสะท้อน) 🚨 ข่าวปลอม (Fake News) และ Deepfake 🔹 ข่าวปลอม และข้อมูลบิดเบือนแพร่กระจาย ในโซเชียลมีเดียอย่างรวดเร็ว 🔹 เทคโนโลยี Deepfake ทำให้เกิดวิดีโอปลอม ที่เลียนแบบบุคคลจริงได้อย่างแนบเนียน 🔹 นักข่าวต้องตรวจสอบแหล่งที่มาของข้อมูล อย่างเข้มงวด 💰 รายได้จากโฆษณาของสื่อดั้งเดิมลดลง 🔹 หนังสือพิมพ์ และสื่อโทรทัศน์สูญเสียรายได้ ให้กับแพลตฟอร์มดิจิทัล เช่น Facebook, Google 🔹 นักข่าวต้องปรับตัวไปสู่การสร้างรายได้ ผ่านช่องทางออนไลน์ และการสมัครสมาชิก (Subscription-Based Media) 🏛 แรงกดดันจากอำนาจรัฐและกลุ่มทุน 🔹 นักข่าวบางคนอาจถูกคุกคาม หากรายงานข่าวที่กระทบต่อผู้มีอำนาจ 🔹 สื่อบางสำนัก อาจถูกควบคุมโดยกลุ่มทุน ทำให้เสรีภาพทางข่าวสารถูกจำกัด ✅ แนวทางในการพัฒนาวงการสื่อมวลชนไทย ✔ สร้างมาตรฐานทางจริยธรรม นักข่าวต้องรักษาความเป็นกลาง และความถูกต้องของข้อมูล ✔ ตรวจสอบข้อเท็จจริงอย่างเข้มงวด ป้องกันการแพร่กระจายของข่าวปลอม ✔ ใช้เทคโนโลยีให้เกิดประโยชน์ เช่น AI ในการช่วยวิเคราะห์ข้อมูลข่าวสาร ✔ พัฒนาทักษะนักข่าวให้ทันสมัย ให้สามารถปรับตัวเข้ากับแพลตฟอร์มดิจิทัล 🎯 "นักข่าว" อาชีพที่ขับเคลื่อนความจริงและสังคมไทย 👥 นักข่าวเป็นอาชีพที่มีความสำคัญอย่างยิ่งต่อสังคม 📢 พวกเขาทำหน้าที่รายงานข้อเท็จจริง คัดกรองข่าวสาร และตรวจสอบอำนาจ 🌍 ในยุค AI สื่อมวลชนต้องเผชิญกับ Fake News การคุกคามจากอำนาจรัฐ และความเปลี่ยนแปลงของเทคโนโลยี 📌 อย่างไรก็ตาม จริยธรรม ความกล้าหาญ และการยึดมั่นในความจริง จะทำให้สื่อมวลชน ยังคงเป็นเสาหลักของประชาธิปไตย 💡 "เพราะข่าวที่ดี ไม่ใช่แค่ข่าวที่เร็ว แต่ต้องเป็นข่าวที่ถูกต้อง" ป้อม-อัครวัฒน์ ธนันฐ์กิตติกุล 051127 มี.ค. 2568 🔖 #วันนักข่าว #นักข่าวไทย #สื่อมวลชน #FreedomOfPress #AIกับสื่อ #ข่าวปลอม #FakeNews #Deepfake #PressFreedom #MediaEthics
    0 Comments 0 Shares 1095 Views 0 Reviews
  • Microsoft ได้ระบุรายชื่อของกลุ่มอาชญากรไซเบอร์ที่ถูกกล่าวหาว่าพัฒนาซอฟต์แวร์ที่เป็นอันตรายเพื่อข้ามการป้องกันของปัญญาประดิษฐ์ (AI) และสร้างเนื้อหา deepfake ของคนดังและเนื้อหาอื่น ๆ ที่ผิดกฎหมาย

    กลุ่มนี้ถูกติดตามโดย Microsoft ในชื่อ Storm-2139 และมีสมาชิกหลักคือ Arian Yadegarnia จากอิหร่าน (หรือที่รู้จักในชื่อ 'Fiz'), Alan Krysiak จากสหราชอาณาจักร (หรือที่รู้จักในชื่อ 'Drago'), Ricky Yuen จากฮ่องกง (หรือที่รู้จักในชื่อ 'cg-dot'), และ Phát Phùng Tấn จากเวียดนาม (หรือที่รู้จักในชื่อ 'Asakuri')

    วิธีการทำงานของกลุ่ม Storm-2139 สมาชิกของ Storm-2139 ใช้ข้อมูลประจำตัวของลูกค้าที่ถูกขโมยจากแหล่งที่เปิดเผยสู่สาธารณะเพื่อเข้าถึงบัญชีในบริการ AI สร้างเนื้อหา จากนั้นพวกเขาจะปรับเปลี่ยนความสามารถของบริการเหล่านั้นและขายการเข้าถึงให้กับกลุ่มอาชญากรอื่น ๆ พร้อมกับคำแนะนำในการสร้างเนื้อหาที่ผิดกฎหมาย เช่น ภาพลามกอนาจารของคนดัง

    การจัดการของกลุ่ม กลุ่มอาชญากรไซเบอร์ Storm-2139 แบ่งการทำงานออกเป็นสามประเภท: ผู้สร้างเครื่องมือ (creators), ผู้แจกจ่ายเครื่องมือ (providers), และผู้ใช้เครื่องมือ (users) ผู้สร้างเครื่องมือพัฒนาซอฟต์แวร์ที่ช่วยในการใช้บริการ AI ในทางที่ผิด ผู้แจกจ่ายเครื่องมือทำการปรับแต่งและเผยแพร่ซอฟต์แวร์นั้นให้กับผู้ใช้ ผู้ใช้จะใช้ซอฟต์แวร์เพื่อสร้างเนื้อหาที่ละเมิดนโยบายการใช้งานของ Microsoft

    มาตรการทางกฎหมาย Microsoft ได้ยื่นฟ้องกลุ่มนี้ในศาล Eastern District of Virginia ในเดือนธันวาคม 2024 และมีการออกคำสั่งห้ามชั่วคราวเพื่อหยุดการกระทำของพวกเขา นอกจากนี้ยังมีการยึดเว็บไซต์ที่เกี่ยวข้องกับกลุ่มเพื่อป้องกันการใช้บริการอย่างผิดกฎหมาย

    Microsoft ยังได้รับอีเมลหลายฉบับจากสมาชิกกลุ่ม Storm-2139 ที่ตำหนิซึ่งกันและกันในเรื่องการกระทำที่เป็นอันตราย

    การดำเนินการต่อไป Microsoft ตั้งเป้าที่จะหยุดการกระทำของกลุ่มนี้และดำเนินการสืบสวนเพิ่มเติมเพื่อป้องกันการนำ AI ไปใช้ในทางที่ผิดในอนาคต และเตรียมการส่งข้อมูลทางอาญาไปยังหน่วยงานบังคับใช้กฎหมายในสหรัฐฯ และต่างประเทศ

    https://www.bleepingcomputer.com/news/microsoft/microsoft-names-cybercriminals-behind-ai-deepfake-network/
    Microsoft ได้ระบุรายชื่อของกลุ่มอาชญากรไซเบอร์ที่ถูกกล่าวหาว่าพัฒนาซอฟต์แวร์ที่เป็นอันตรายเพื่อข้ามการป้องกันของปัญญาประดิษฐ์ (AI) และสร้างเนื้อหา deepfake ของคนดังและเนื้อหาอื่น ๆ ที่ผิดกฎหมาย กลุ่มนี้ถูกติดตามโดย Microsoft ในชื่อ Storm-2139 และมีสมาชิกหลักคือ Arian Yadegarnia จากอิหร่าน (หรือที่รู้จักในชื่อ 'Fiz'), Alan Krysiak จากสหราชอาณาจักร (หรือที่รู้จักในชื่อ 'Drago'), Ricky Yuen จากฮ่องกง (หรือที่รู้จักในชื่อ 'cg-dot'), และ Phát Phùng Tấn จากเวียดนาม (หรือที่รู้จักในชื่อ 'Asakuri') วิธีการทำงานของกลุ่ม Storm-2139 สมาชิกของ Storm-2139 ใช้ข้อมูลประจำตัวของลูกค้าที่ถูกขโมยจากแหล่งที่เปิดเผยสู่สาธารณะเพื่อเข้าถึงบัญชีในบริการ AI สร้างเนื้อหา จากนั้นพวกเขาจะปรับเปลี่ยนความสามารถของบริการเหล่านั้นและขายการเข้าถึงให้กับกลุ่มอาชญากรอื่น ๆ พร้อมกับคำแนะนำในการสร้างเนื้อหาที่ผิดกฎหมาย เช่น ภาพลามกอนาจารของคนดัง การจัดการของกลุ่ม กลุ่มอาชญากรไซเบอร์ Storm-2139 แบ่งการทำงานออกเป็นสามประเภท: ผู้สร้างเครื่องมือ (creators), ผู้แจกจ่ายเครื่องมือ (providers), และผู้ใช้เครื่องมือ (users) ผู้สร้างเครื่องมือพัฒนาซอฟต์แวร์ที่ช่วยในการใช้บริการ AI ในทางที่ผิด ผู้แจกจ่ายเครื่องมือทำการปรับแต่งและเผยแพร่ซอฟต์แวร์นั้นให้กับผู้ใช้ ผู้ใช้จะใช้ซอฟต์แวร์เพื่อสร้างเนื้อหาที่ละเมิดนโยบายการใช้งานของ Microsoft มาตรการทางกฎหมาย Microsoft ได้ยื่นฟ้องกลุ่มนี้ในศาล Eastern District of Virginia ในเดือนธันวาคม 2024 และมีการออกคำสั่งห้ามชั่วคราวเพื่อหยุดการกระทำของพวกเขา นอกจากนี้ยังมีการยึดเว็บไซต์ที่เกี่ยวข้องกับกลุ่มเพื่อป้องกันการใช้บริการอย่างผิดกฎหมาย Microsoft ยังได้รับอีเมลหลายฉบับจากสมาชิกกลุ่ม Storm-2139 ที่ตำหนิซึ่งกันและกันในเรื่องการกระทำที่เป็นอันตราย การดำเนินการต่อไป Microsoft ตั้งเป้าที่จะหยุดการกระทำของกลุ่มนี้และดำเนินการสืบสวนเพิ่มเติมเพื่อป้องกันการนำ AI ไปใช้ในทางที่ผิดในอนาคต และเตรียมการส่งข้อมูลทางอาญาไปยังหน่วยงานบังคับใช้กฎหมายในสหรัฐฯ และต่างประเทศ https://www.bleepingcomputer.com/news/microsoft/microsoft-names-cybercriminals-behind-ai-deepfake-network/
    WWW.BLEEPINGCOMPUTER.COM
    Microsoft names cybercriminals behind AI deepfake network
    Microsoft has named multiple threat actors part of a cybercrime gang accused of developing malicious tools capable of bypassing generative AI guardrails to generate celebrity deepfakes and other illicit content.
    0 Comments 0 Shares 379 Views 0 Reviews
  • Norton ได้เพิ่มเครื่องมือป้องกันการหลอกลวง (scam) โดยใช้ปัญญาประดิษฐ์ (AI) ในแผนบริการของพวกเขา ซึ่งจะช่วยให้ผู้ใช้งานป้องกันการถูกหลอกลวงทางอินเทอร์เน็ตได้อย่างมีประสิทธิภาพมากขึ้น

    Norton ได้เปิดตัวเครื่องมือ Genie Scam Protection และ Genie Scam Protection Pro ที่ใช้ AI เพื่อวิเคราะห์และตรวจจับการหลอกลวงในข้อความ SMS อีเมล การโทรศัพท์ และการท่องเว็บ โดย Genie AI มีความสามารถในการวิเคราะห์ "ความหมายของคำ" ทำให้สามารถตรวจจับรูปแบบการหลอกลวงที่แม้แต่ผู้เชี่ยวชาญบางคนอาจพลาดได้

    แผนบริการที่ครอบคลุมที่สุดของ Norton คือ Norton 360 with LifeLock Ultimate Plus ยังรวมถึงการสนับสนุนในการจัดการกับการหลอกลวงและการคุ้มครองการคืนเงินด้วย

    Norton ได้เปิดตัว Norton Genie ตั้งแต่ปี 2023 เพื่อช่วยผู้ใช้งานวิเคราะห์ข้อความและภาพที่น่าสงสัยแบบเรียลไทม์ แต่ในตอนนี้ บริษัทได้สร้างฟีเจอร์นี้เป็นส่วนหนึ่งของแผนบริการ Norton ทำให้ผู้ใช้งานได้รับการป้องกันโดยอัตโนมัติ

    ผู้ที่ซื้อผลิตภัณฑ์ Cyber Safety ของ Norton เช่น Norton AntiVirus Plus, Norton Mobile Security, และ Norton 360 จะได้รับ Genie Scam Protection ฟรี ฟีเจอร์นี้จะช่วยสแกนข้อความ SMS เว็บไซต์อินเทอร์เน็ต การโทร และอีเมล โดยมีผู้ช่วย AI ที่รวมแอป Norton Genie AI ให้คำแนะนำทันทีเกี่ยวกับการหลอกลวงและข้อเสนอที่น่าสงสัย

    เครื่องมือเหล่านี้พร้อมใช้งานในสหรัฐอเมริกาแล้วและจะขยายไปยังภูมิภาคอื่น ๆ ในไม่ช้า Leena Elias, หัวหน้าเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ของ Gen กล่าวว่า การเพิ่ม AI เข้ามาในโซลูชันความปลอดภัยไซเบอร์เป็นก้าวที่สมเหตุสมผล เนื่องจากผู้หลอกลวงได้ใช้ AI ในการโจมตีมานานแล้ว

    Norton ยังมีแผนที่จะรวมการตรวจจับ deepfake และการหลอกลวงในพีซีที่สนับสนุน AI ในอนาคต เพื่อช่วยผู้ใช้งานให้ปลอดภัยยิ่งขึ้นในยุคที่การหลอกลวงมีความซับซ้อนและเป็นจริงมากขึ้น

    https://www.techradar.com/pro/security/norton-boosts-ai-scam-protection-tools-for-all-users
    Norton ได้เพิ่มเครื่องมือป้องกันการหลอกลวง (scam) โดยใช้ปัญญาประดิษฐ์ (AI) ในแผนบริการของพวกเขา ซึ่งจะช่วยให้ผู้ใช้งานป้องกันการถูกหลอกลวงทางอินเทอร์เน็ตได้อย่างมีประสิทธิภาพมากขึ้น Norton ได้เปิดตัวเครื่องมือ Genie Scam Protection และ Genie Scam Protection Pro ที่ใช้ AI เพื่อวิเคราะห์และตรวจจับการหลอกลวงในข้อความ SMS อีเมล การโทรศัพท์ และการท่องเว็บ โดย Genie AI มีความสามารถในการวิเคราะห์ "ความหมายของคำ" ทำให้สามารถตรวจจับรูปแบบการหลอกลวงที่แม้แต่ผู้เชี่ยวชาญบางคนอาจพลาดได้ แผนบริการที่ครอบคลุมที่สุดของ Norton คือ Norton 360 with LifeLock Ultimate Plus ยังรวมถึงการสนับสนุนในการจัดการกับการหลอกลวงและการคุ้มครองการคืนเงินด้วย Norton ได้เปิดตัว Norton Genie ตั้งแต่ปี 2023 เพื่อช่วยผู้ใช้งานวิเคราะห์ข้อความและภาพที่น่าสงสัยแบบเรียลไทม์ แต่ในตอนนี้ บริษัทได้สร้างฟีเจอร์นี้เป็นส่วนหนึ่งของแผนบริการ Norton ทำให้ผู้ใช้งานได้รับการป้องกันโดยอัตโนมัติ ผู้ที่ซื้อผลิตภัณฑ์ Cyber Safety ของ Norton เช่น Norton AntiVirus Plus, Norton Mobile Security, และ Norton 360 จะได้รับ Genie Scam Protection ฟรี ฟีเจอร์นี้จะช่วยสแกนข้อความ SMS เว็บไซต์อินเทอร์เน็ต การโทร และอีเมล โดยมีผู้ช่วย AI ที่รวมแอป Norton Genie AI ให้คำแนะนำทันทีเกี่ยวกับการหลอกลวงและข้อเสนอที่น่าสงสัย เครื่องมือเหล่านี้พร้อมใช้งานในสหรัฐอเมริกาแล้วและจะขยายไปยังภูมิภาคอื่น ๆ ในไม่ช้า Leena Elias, หัวหน้าเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ของ Gen กล่าวว่า การเพิ่ม AI เข้ามาในโซลูชันความปลอดภัยไซเบอร์เป็นก้าวที่สมเหตุสมผล เนื่องจากผู้หลอกลวงได้ใช้ AI ในการโจมตีมานานแล้ว Norton ยังมีแผนที่จะรวมการตรวจจับ deepfake และการหลอกลวงในพีซีที่สนับสนุน AI ในอนาคต เพื่อช่วยผู้ใช้งานให้ปลอดภัยยิ่งขึ้นในยุคที่การหลอกลวงมีความซับซ้อนและเป็นจริงมากขึ้น https://www.techradar.com/pro/security/norton-boosts-ai-scam-protection-tools-for-all-users
    WWW.TECHRADAR.COM
    Norton boosts AI scam protection tools for all users
    AI-powered scam protection built directly into Norton plans
    0 Comments 0 Shares 379 Views 0 Reviews
  • Alibaba Cloud ซึ่งเป็นหน่วยงานด้านคลาวด์คอมพิวติ้งของ Alibaba Group ได้เปิดตัวโมเดลปัญญาประดิษฐ์ (AI) รุ่นใหม่ชื่อว่า Animate Anyone 2 โมเดลนี้ออกแบบมาเพื่อช่วยให้นักพัฒนาสามารถสร้างแอนิเมชันตัวละครที่เสมือนจริงจากภาพนิ่งและวิดีโอเพียงหนึ่งคลิปได้อย่างง่ายดาย

    Animate Anyone 2 สามารถประมวลผลสัญญาณการเคลื่อนไหวและสัญญาณสิ่งแวดล้อมจากเนื้อหาที่เป็นแหล่งอ้างอิง เช่น วิดีโอต้นฉบับ เพื่อสร้างคลิปใหม่ที่มีความสมจริงสูง เมื่อเปรียบเทียบกับวิธีการสร้างแอนิเมชันตัวละครในอดีตที่ใช้เพียงสัญญาณการเคลื่อนไหวเท่านั้น โมเดลนี้ช่วยให้ตัวละครสามารถแสดงการเคลื่อนไหวที่สมจริงและประสานกับสิ่งแวดล้อมเดิมได้อย่างไม่มีสะดุด

    โมเดลนี้สร้างขึ้นจากเวอร์ชันแรกของ Animate Anyone ที่ประกาศเปิดตัวในปลายปี 2023 ซึ่งเน้นการสร้างวิดีโอตัวละครจากภาพนิ่ง หลังจากนั้น OpenAI ผู้สร้าง ChatGPT ก็ได้เปิดตัวโมเดล Sora ที่สามารถสร้างวิดีโอจากข้อความได้ ทำให้เกิดการแข่งขันในวงการเทคโนโลยี AI ของบริษัทใหญ่ในจีนและสตาร์ทอัพหลายแห่ง

    นอกจากนี้ Animate Anyone 2 ยังมีความสามารถในการสร้างการโต้ตอบระหว่างตัวละครโดยรักษาความสมเหตุสมผลของการเคลื่อนไหวและความสอดคล้องกับสิ่งแวดล้อมด้วย ทีมวิจัยจาก Tongyi Lab ซึ่งเป็นหน่วยวิจัยและพัฒนาโมเดลภาษาขนาดใหญ่ (LLM) ของ Alibaba Cloud ได้นำเสนอผลการศึกษานี้ใน arXiv ซึ่งเป็นแหล่งเก็บข้อมูลงานวิจัยแบบโอเพนซอร์ส

    สิ่งที่น่าสนใจคือ ByteDance บริษัทเจ้าของ TikTok ก็เพิ่งเปิดตัวโมเดลมัลติโมดัลชื่อ OmniHuman-1 ที่สามารถเปลี่ยนภาพและเสียงให้เป็นวิดีโอที่ดูสมจริง การเปิดตัวโมเดลเหล่านี้ทำให้วงการสื่อและโฆษณามีความเปลี่ยนแปลงอย่างมาก โดยเฉพาะในจีนที่โมเดล Sora ยังไม่สามารถใช้งานได้

    เพื่อทดสอบวิธีการของ Animate Anyone 2 ในหลายสถานการณ์ ทีมวิจัยได้เก็บรวบรวมวิดีโอตัวละคร 100,000 คลิปจากอินเทอร์เน็ต ซึ่งรวมถึงหลายประเภทของฉาก การกระทำ และการโต้ตอบระหว่างคนและวัตถุ อย่างไรก็ตาม การใช้โมเดลวีดีโอเจเนอเรชันเหล่านี้ยังมีความเสี่ยงที่จะมีการแพร่กระจายวิดีโอ deepfake เพิ่มขึ้น

    Liang Haisheng ผู้เชี่ยวชาญด้านโฆษณาจากปักกิ่งกล่าวว่า แม้ว่าเครื่องมือสร้างวิดีโอเหล่านี้จะมีประโยชน์ในการทำวิดีโอตัวอย่างเพื่อเสนอไอเดียให้กับลูกค้า แต่พวกมันยังขาดความสามารถในการแสดงอารมณ์และการแสดงหน้าที่ละเอียดอ่อนของมนุษย์

    https://www.thestar.com.my/tech/tech-news/2025/02/21/alibaba-cloud-ai-model-animate-anyone-2-simplifies-making-of-lifelike-character-animation
    Alibaba Cloud ซึ่งเป็นหน่วยงานด้านคลาวด์คอมพิวติ้งของ Alibaba Group ได้เปิดตัวโมเดลปัญญาประดิษฐ์ (AI) รุ่นใหม่ชื่อว่า Animate Anyone 2 โมเดลนี้ออกแบบมาเพื่อช่วยให้นักพัฒนาสามารถสร้างแอนิเมชันตัวละครที่เสมือนจริงจากภาพนิ่งและวิดีโอเพียงหนึ่งคลิปได้อย่างง่ายดาย Animate Anyone 2 สามารถประมวลผลสัญญาณการเคลื่อนไหวและสัญญาณสิ่งแวดล้อมจากเนื้อหาที่เป็นแหล่งอ้างอิง เช่น วิดีโอต้นฉบับ เพื่อสร้างคลิปใหม่ที่มีความสมจริงสูง เมื่อเปรียบเทียบกับวิธีการสร้างแอนิเมชันตัวละครในอดีตที่ใช้เพียงสัญญาณการเคลื่อนไหวเท่านั้น โมเดลนี้ช่วยให้ตัวละครสามารถแสดงการเคลื่อนไหวที่สมจริงและประสานกับสิ่งแวดล้อมเดิมได้อย่างไม่มีสะดุด โมเดลนี้สร้างขึ้นจากเวอร์ชันแรกของ Animate Anyone ที่ประกาศเปิดตัวในปลายปี 2023 ซึ่งเน้นการสร้างวิดีโอตัวละครจากภาพนิ่ง หลังจากนั้น OpenAI ผู้สร้าง ChatGPT ก็ได้เปิดตัวโมเดล Sora ที่สามารถสร้างวิดีโอจากข้อความได้ ทำให้เกิดการแข่งขันในวงการเทคโนโลยี AI ของบริษัทใหญ่ในจีนและสตาร์ทอัพหลายแห่ง นอกจากนี้ Animate Anyone 2 ยังมีความสามารถในการสร้างการโต้ตอบระหว่างตัวละครโดยรักษาความสมเหตุสมผลของการเคลื่อนไหวและความสอดคล้องกับสิ่งแวดล้อมด้วย ทีมวิจัยจาก Tongyi Lab ซึ่งเป็นหน่วยวิจัยและพัฒนาโมเดลภาษาขนาดใหญ่ (LLM) ของ Alibaba Cloud ได้นำเสนอผลการศึกษานี้ใน arXiv ซึ่งเป็นแหล่งเก็บข้อมูลงานวิจัยแบบโอเพนซอร์ส สิ่งที่น่าสนใจคือ ByteDance บริษัทเจ้าของ TikTok ก็เพิ่งเปิดตัวโมเดลมัลติโมดัลชื่อ OmniHuman-1 ที่สามารถเปลี่ยนภาพและเสียงให้เป็นวิดีโอที่ดูสมจริง การเปิดตัวโมเดลเหล่านี้ทำให้วงการสื่อและโฆษณามีความเปลี่ยนแปลงอย่างมาก โดยเฉพาะในจีนที่โมเดล Sora ยังไม่สามารถใช้งานได้ เพื่อทดสอบวิธีการของ Animate Anyone 2 ในหลายสถานการณ์ ทีมวิจัยได้เก็บรวบรวมวิดีโอตัวละคร 100,000 คลิปจากอินเทอร์เน็ต ซึ่งรวมถึงหลายประเภทของฉาก การกระทำ และการโต้ตอบระหว่างคนและวัตถุ อย่างไรก็ตาม การใช้โมเดลวีดีโอเจเนอเรชันเหล่านี้ยังมีความเสี่ยงที่จะมีการแพร่กระจายวิดีโอ deepfake เพิ่มขึ้น Liang Haisheng ผู้เชี่ยวชาญด้านโฆษณาจากปักกิ่งกล่าวว่า แม้ว่าเครื่องมือสร้างวิดีโอเหล่านี้จะมีประโยชน์ในการทำวิดีโอตัวอย่างเพื่อเสนอไอเดียให้กับลูกค้า แต่พวกมันยังขาดความสามารถในการแสดงอารมณ์และการแสดงหน้าที่ละเอียดอ่อนของมนุษย์ https://www.thestar.com.my/tech/tech-news/2025/02/21/alibaba-cloud-ai-model-animate-anyone-2-simplifies-making-of-lifelike-character-animation
    WWW.THESTAR.COM.MY
    Alibaba Cloud AI model Animate Anyone 2 simplifies making of lifelike character animation
    China appears to have upped the ante in this field of generative AI, which is poised to disrupt the entertainment and advertising industries.
    0 Comments 0 Shares 456 Views 0 Reviews
  • มีการเพิ่มขึ้นของการใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ (Generative AI) ในกลุ่มวัยรุ่นทั่วโลก แม้ว่าเทคโนโลยีนี้จะเป็นที่นิยมและมีประโยชน์ในหลาย ๆ ด้าน แต่ก็มีความเสี่ยงที่มาพร้อมกับการใช้งานโดยเฉพาะในกลุ่มเยาวชน

    ในปีที่ผ่านมา การใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ในกลุ่มคนทั่วไปเพิ่มขึ้นอย่างมาก โดยเฉพาะในอินเดียที่มีผู้ใช้งานสูงถึง 80% รองลงมาคือสิงคโปร์ แอฟริกาใต้ บราซิล และสหรัฐอเมริกา แต่ในขณะเดียวกัน 88% ของผู้สำรวจรู้สึกกังวลเกี่ยวกับความเสี่ยงที่มาพร้อมกับเทคโนโลยีนี้ เช่น การปกป้องข้อมูลส่วนบุคคลและการปลอมแปลงภาพ

    วัยรุ่นเป็นกลุ่มที่มีความเสี่ยงสูงในการได้รับข้อมูลเท็จ คำพูดแสดงความเกลียดชัง และเนื้อหาที่มีความรุนแรง นอกจากนี้ยังมีความเสี่ยงเกี่ยวกับการกลั่นแกล้งทางอินเตอร์เน็ต การทำร้ายตัวเอง และการเข้าถึงภาพลามกปลอมแบบลึกซึ้ง (deepfake pornography)

    เมื่อเผชิญกับความเสี่ยงออนไลน์ วัยรุ่นส่วนใหญ่มักจะเปลี่ยนเนื้อหา บล็อกผู้ติดต่อ หรือปิดเสียง และมักจะพูดคุยกับคนรอบข้างเกี่ยวกับประสบการณ์ของพวกเขา อย่างไรก็ตาม มีเพียง 37% เท่านั้นที่รายงานเหตุการณ์เพราะพวกเขาเชื่อว่ามันจะไม่ส่งผลกระทบต่อผู้กระทำผิด

    นอกจากนี้ยังมีข้อกังวลจากผู้ปกครองเกี่ยวกับการใช้ AI เพื่อการโกงในโรงเรียนและการเข้าถึงเนื้อหาที่เป็นอันตราย การวิจัยยังเผยให้เห็นว่ามีเพียง 38% ของผู้สำรวจที่สามารถแยกแยะภาพจริงจากภาพที่สร้างโดย AI ได้อย่างถูกต้อง

    https://www.thestar.com.my/tech/tech-news/2025/02/13/teens-and-the-risks-of-generative-ai
    มีการเพิ่มขึ้นของการใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ (Generative AI) ในกลุ่มวัยรุ่นทั่วโลก แม้ว่าเทคโนโลยีนี้จะเป็นที่นิยมและมีประโยชน์ในหลาย ๆ ด้าน แต่ก็มีความเสี่ยงที่มาพร้อมกับการใช้งานโดยเฉพาะในกลุ่มเยาวชน ในปีที่ผ่านมา การใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ในกลุ่มคนทั่วไปเพิ่มขึ้นอย่างมาก โดยเฉพาะในอินเดียที่มีผู้ใช้งานสูงถึง 80% รองลงมาคือสิงคโปร์ แอฟริกาใต้ บราซิล และสหรัฐอเมริกา แต่ในขณะเดียวกัน 88% ของผู้สำรวจรู้สึกกังวลเกี่ยวกับความเสี่ยงที่มาพร้อมกับเทคโนโลยีนี้ เช่น การปกป้องข้อมูลส่วนบุคคลและการปลอมแปลงภาพ วัยรุ่นเป็นกลุ่มที่มีความเสี่ยงสูงในการได้รับข้อมูลเท็จ คำพูดแสดงความเกลียดชัง และเนื้อหาที่มีความรุนแรง นอกจากนี้ยังมีความเสี่ยงเกี่ยวกับการกลั่นแกล้งทางอินเตอร์เน็ต การทำร้ายตัวเอง และการเข้าถึงภาพลามกปลอมแบบลึกซึ้ง (deepfake pornography) เมื่อเผชิญกับความเสี่ยงออนไลน์ วัยรุ่นส่วนใหญ่มักจะเปลี่ยนเนื้อหา บล็อกผู้ติดต่อ หรือปิดเสียง และมักจะพูดคุยกับคนรอบข้างเกี่ยวกับประสบการณ์ของพวกเขา อย่างไรก็ตาม มีเพียง 37% เท่านั้นที่รายงานเหตุการณ์เพราะพวกเขาเชื่อว่ามันจะไม่ส่งผลกระทบต่อผู้กระทำผิด นอกจากนี้ยังมีข้อกังวลจากผู้ปกครองเกี่ยวกับการใช้ AI เพื่อการโกงในโรงเรียนและการเข้าถึงเนื้อหาที่เป็นอันตราย การวิจัยยังเผยให้เห็นว่ามีเพียง 38% ของผู้สำรวจที่สามารถแยกแยะภาพจริงจากภาพที่สร้างโดย AI ได้อย่างถูกต้อง https://www.thestar.com.my/tech/tech-news/2025/02/13/teens-and-the-risks-of-generative-ai
    WWW.THESTAR.COM.MY
    Teens and the risks of generative AI
    The rise of artificial intelligence is contributing to an increase in risky content, whether it be disinformation or explicit images. Teenagers are particularly exposed to this type of content and do not hesitate to take action when they deem it necessary.
    Like
    1
    0 Comments 0 Shares 398 Views 0 Reviews
  • การควบคุมมนุษย์ด้วย AI เป็นหัวข้อที่ซับซ้อนและมีประเด็นทางจริยธรรมมากมาย ซึ่งอาจนำไปสู่การใช้งานทั้งในทางที่ดีและไม่ดี ต่อไปนี้เป็นแนวคิดบางส่วนเกี่ยวกับรูปแบบการควบคุมมนุษย์ด้วย AI:

    ### 1. **การควบคุมผ่านข้อมูล (Data Control)**
    - **การเก็บข้อมูลส่วนบุคคล:** AI สามารถรวบรวมและวิเคราะห์ข้อมูลส่วนบุคคล เช่น พฤติกรรมการใช้โซเชียลมีเดีย, สุขภาพ, หรือการเงิน เพื่อสร้างแบบแผนพฤติกรรมของแต่ละบุคคล
    - **การโฆษณาแบบกำหนดเป้าหมาย:** ใช้ AI เพื่อวิเคราะห์ข้อมูลและโฆษณาสินค้าหรือบริการที่ตรงกับความสนใจของผู้ใช้ ซึ่งอาจส่งผลต่อการตัดสินใจของผู้บริโภค

    ### 2. **การควบคุมผ่านการตัดสินใจ (Decision Control)**
    - **ระบบแนะนำ (Recommendation Systems):** AI สามารถแนะนำทางเลือกให้กับผู้ใช้ เช่น วิดีโอที่ควรดู, สินค้าที่ควรซื้อ, หรือแม้แต่เส้นทางที่ควรเดินทาง ซึ่งอาจส่งผลต่อพฤติกรรมของผู้ใช้
    - **ระบบอัตโนมัติ:** AI สามารถควบคุมระบบอัตโนมัติ เช่น รถยนต์ไร้คนขับ, ระบบจัดการพลังงานในบ้าน, หรือแม้แต่ระบบการเงินส่วนบุคคล

    ### 3. **การควบคุมผ่านการสื่อสาร (Communication Control)**
    - **แชทบอทและผู้ช่วยเสมือน:** AI สามารถใช้ในการสื่อสารกับมนุษย์ผ่านแชทบอทหรือผู้ช่วยเสมือน ซึ่งอาจถูกใช้เพื่อโน้มน้าวหรือชี้นำความคิดเห็นของผู้ใช้
    - **Deepfake และการปลอมแปลงข้อมูล:** AI สามารถสร้างเนื้อหาปลอม เช่น วิดีโอหรือเสียง ที่ดูเหมือนจริง เพื่อโน้มน้าวหรือหลอกลวงผู้คน

    ### 4. **การควบคุมผ่านการเฝ้าระวัง (Surveillance Control)**
    - **การเฝ้าระวังด้วยกล้อง:** AI สามารถใช้ในการวิเคราะห์ภาพจากกล้องวงจรปิดเพื่อติดตามพฤติกรรมของบุคคล
    - **การวิเคราะห์เสียง:** AI สามารถวิเคราะห์เสียงเพื่อตรวจจับอารมณ์หรือความตั้งใจของบุคคล

    ### 5. **การควบคุมผ่านการชี้นำทางสังคม (Social Influence Control)**
    - **โซเชียลมีเดีย:** AI สามารถใช้ในการวิเคราะห์และชี้นำกระแสสังคมบนโซเชียลมีเดีย เพื่อสร้างความนิยมหรือลดทอนความน่าเชื่อถือของข้อมูลบางอย่าง
    - **การสร้างเนื้อหา:** AI สามารถสร้างเนื้อหาที่มีอิทธิพลต่อความคิดเห็นของสาธารณชน เช่น ข่าวปลอมหรือบทความโน้มน้าวใจ

    ### 6. **การควบคุมผ่านระบบกฎหมายและกฎระเบียบ (Legal and Regulatory Control)**
    - **การบังคับใช้กฎหมาย:** AI สามารถใช้ในการวิเคราะห์ข้อมูลเพื่อบังคับใช้กฎหมาย เช่น การตรวจจับการทุจริตหรือการละเมิดกฎหมาย
    - **การตัดสินใจทางกฎหมาย:** AI อาจถูกใช้ในการช่วยตัดสินใจทางกฎหมาย เช่น การพิจารณาคดีหรือการให้คำแนะนำทางกฎหมาย

    ### 7. **การควบคุมผ่านการชี้นำทางจิตวิทยา (Psychological Influence Control)**
    - **การวิเคราะห์อารมณ์:** AI สามารถวิเคราะห์อารมณ์ของบุคคลผ่านการวิเคราะห์ข้อความ, เสียง, หรือภาพ เพื่อชี้นำหรือโน้มน้าวใจ
    - **การบำบัดด้วย AI:** AI สามารถใช้ในการบำบัดทางจิตวิทยา ซึ่งอาจส่งผลต่อความคิดและพฤติกรรมของผู้ป่วย

    ### 8. **การควบคุมผ่านระบบการศึกษา (Educational Control)**
    - **ระบบการเรียนรู้แบบปรับตัว:** AI สามารถปรับเนื้อหาการเรียนรู้ให้เหมาะกับแต่ละบุคคล ซึ่งอาจส่งผลต่อความรู้และทักษะที่ผู้เรียนได้รับ
    - **การประเมินผล:** AI สามารถใช้ในการประเมินผลการเรียนรู้และให้คำแนะนำเพื่อปรับปรุงประสิทธิภาพ

    ### 9. **การควบคุมผ่านระบบสุขภาพ (Health Control)**
    - **การวินิจฉัยโรค:** AI สามารถใช้ในการวินิจฉัยโรคและแนะนำการรักษา ซึ่งอาจส่งผลต่อสุขภาพและความเป็นอยู่ของบุคคล
    - **การติดตามสุขภาพ:** AI สามารถติดตามสุขภาพของบุคคลผ่านอุปกรณ์ wearable devices และให้คำแนะนำเพื่อปรับปรุงสุขภาพ

    ### 10. **การควบคุมผ่านระบบการเงิน (Financial Control)**
    - **การวิเคราะห์การเงิน:** AI สามารถวิเคราะห์พฤติกรรมการใช้เงินและให้คำแนะนำทางการเงิน ซึ่งอาจส่งผลต่อการตัดสินใจทางการเงินของบุคคล
    - **การจัดการพอร์ตโฟลิโอ:** AI สามารถใช้ในการจัดการพอร์ตโฟลิโอการลงทุน ซึ่งอาจส่งผลต่อความมั่งคั่งของบุคคล

    ### จริยธรรมและความเสี่ยง
    การควบคุมมนุษย์ด้วย AI มีความเสี่ยงทางจริยธรรมมากมาย เช่น การละเมิดความเป็นส่วนตัว, การบังคับใช้อำนาจ, และการสร้างความไม่เท่าเทียมกันในสังคม ดังนั้น การออกแบบและใช้งาน AI ควรคำนึงถึงหลักจริยธรรมและกฎหมายเพื่อป้องกันการใช้งานในทางที่ผิด

    ### สรุป
    AI มีศักยภาพในการควบคุมมนุษย์ผ่านหลายช่องทาง ทั้งทางตรงและทางอ้อม การใช้งาน AI ควรคำนึงถึงผลกระทบทางสังคมและจริยธรรม เพื่อให้เกิดประโยชน์สูงสุดและลดความเสี่ยงต่อมนุษย์และสังคม
    การควบคุมมนุษย์ด้วย AI เป็นหัวข้อที่ซับซ้อนและมีประเด็นทางจริยธรรมมากมาย ซึ่งอาจนำไปสู่การใช้งานทั้งในทางที่ดีและไม่ดี ต่อไปนี้เป็นแนวคิดบางส่วนเกี่ยวกับรูปแบบการควบคุมมนุษย์ด้วย AI: ### 1. **การควบคุมผ่านข้อมูล (Data Control)** - **การเก็บข้อมูลส่วนบุคคล:** AI สามารถรวบรวมและวิเคราะห์ข้อมูลส่วนบุคคล เช่น พฤติกรรมการใช้โซเชียลมีเดีย, สุขภาพ, หรือการเงิน เพื่อสร้างแบบแผนพฤติกรรมของแต่ละบุคคล - **การโฆษณาแบบกำหนดเป้าหมาย:** ใช้ AI เพื่อวิเคราะห์ข้อมูลและโฆษณาสินค้าหรือบริการที่ตรงกับความสนใจของผู้ใช้ ซึ่งอาจส่งผลต่อการตัดสินใจของผู้บริโภค ### 2. **การควบคุมผ่านการตัดสินใจ (Decision Control)** - **ระบบแนะนำ (Recommendation Systems):** AI สามารถแนะนำทางเลือกให้กับผู้ใช้ เช่น วิดีโอที่ควรดู, สินค้าที่ควรซื้อ, หรือแม้แต่เส้นทางที่ควรเดินทาง ซึ่งอาจส่งผลต่อพฤติกรรมของผู้ใช้ - **ระบบอัตโนมัติ:** AI สามารถควบคุมระบบอัตโนมัติ เช่น รถยนต์ไร้คนขับ, ระบบจัดการพลังงานในบ้าน, หรือแม้แต่ระบบการเงินส่วนบุคคล ### 3. **การควบคุมผ่านการสื่อสาร (Communication Control)** - **แชทบอทและผู้ช่วยเสมือน:** AI สามารถใช้ในการสื่อสารกับมนุษย์ผ่านแชทบอทหรือผู้ช่วยเสมือน ซึ่งอาจถูกใช้เพื่อโน้มน้าวหรือชี้นำความคิดเห็นของผู้ใช้ - **Deepfake และการปลอมแปลงข้อมูล:** AI สามารถสร้างเนื้อหาปลอม เช่น วิดีโอหรือเสียง ที่ดูเหมือนจริง เพื่อโน้มน้าวหรือหลอกลวงผู้คน ### 4. **การควบคุมผ่านการเฝ้าระวัง (Surveillance Control)** - **การเฝ้าระวังด้วยกล้อง:** AI สามารถใช้ในการวิเคราะห์ภาพจากกล้องวงจรปิดเพื่อติดตามพฤติกรรมของบุคคล - **การวิเคราะห์เสียง:** AI สามารถวิเคราะห์เสียงเพื่อตรวจจับอารมณ์หรือความตั้งใจของบุคคล ### 5. **การควบคุมผ่านการชี้นำทางสังคม (Social Influence Control)** - **โซเชียลมีเดีย:** AI สามารถใช้ในการวิเคราะห์และชี้นำกระแสสังคมบนโซเชียลมีเดีย เพื่อสร้างความนิยมหรือลดทอนความน่าเชื่อถือของข้อมูลบางอย่าง - **การสร้างเนื้อหา:** AI สามารถสร้างเนื้อหาที่มีอิทธิพลต่อความคิดเห็นของสาธารณชน เช่น ข่าวปลอมหรือบทความโน้มน้าวใจ ### 6. **การควบคุมผ่านระบบกฎหมายและกฎระเบียบ (Legal and Regulatory Control)** - **การบังคับใช้กฎหมาย:** AI สามารถใช้ในการวิเคราะห์ข้อมูลเพื่อบังคับใช้กฎหมาย เช่น การตรวจจับการทุจริตหรือการละเมิดกฎหมาย - **การตัดสินใจทางกฎหมาย:** AI อาจถูกใช้ในการช่วยตัดสินใจทางกฎหมาย เช่น การพิจารณาคดีหรือการให้คำแนะนำทางกฎหมาย ### 7. **การควบคุมผ่านการชี้นำทางจิตวิทยา (Psychological Influence Control)** - **การวิเคราะห์อารมณ์:** AI สามารถวิเคราะห์อารมณ์ของบุคคลผ่านการวิเคราะห์ข้อความ, เสียง, หรือภาพ เพื่อชี้นำหรือโน้มน้าวใจ - **การบำบัดด้วย AI:** AI สามารถใช้ในการบำบัดทางจิตวิทยา ซึ่งอาจส่งผลต่อความคิดและพฤติกรรมของผู้ป่วย ### 8. **การควบคุมผ่านระบบการศึกษา (Educational Control)** - **ระบบการเรียนรู้แบบปรับตัว:** AI สามารถปรับเนื้อหาการเรียนรู้ให้เหมาะกับแต่ละบุคคล ซึ่งอาจส่งผลต่อความรู้และทักษะที่ผู้เรียนได้รับ - **การประเมินผล:** AI สามารถใช้ในการประเมินผลการเรียนรู้และให้คำแนะนำเพื่อปรับปรุงประสิทธิภาพ ### 9. **การควบคุมผ่านระบบสุขภาพ (Health Control)** - **การวินิจฉัยโรค:** AI สามารถใช้ในการวินิจฉัยโรคและแนะนำการรักษา ซึ่งอาจส่งผลต่อสุขภาพและความเป็นอยู่ของบุคคล - **การติดตามสุขภาพ:** AI สามารถติดตามสุขภาพของบุคคลผ่านอุปกรณ์ wearable devices และให้คำแนะนำเพื่อปรับปรุงสุขภาพ ### 10. **การควบคุมผ่านระบบการเงิน (Financial Control)** - **การวิเคราะห์การเงิน:** AI สามารถวิเคราะห์พฤติกรรมการใช้เงินและให้คำแนะนำทางการเงิน ซึ่งอาจส่งผลต่อการตัดสินใจทางการเงินของบุคคล - **การจัดการพอร์ตโฟลิโอ:** AI สามารถใช้ในการจัดการพอร์ตโฟลิโอการลงทุน ซึ่งอาจส่งผลต่อความมั่งคั่งของบุคคล ### จริยธรรมและความเสี่ยง การควบคุมมนุษย์ด้วย AI มีความเสี่ยงทางจริยธรรมมากมาย เช่น การละเมิดความเป็นส่วนตัว, การบังคับใช้อำนาจ, และการสร้างความไม่เท่าเทียมกันในสังคม ดังนั้น การออกแบบและใช้งาน AI ควรคำนึงถึงหลักจริยธรรมและกฎหมายเพื่อป้องกันการใช้งานในทางที่ผิด ### สรุป AI มีศักยภาพในการควบคุมมนุษย์ผ่านหลายช่องทาง ทั้งทางตรงและทางอ้อม การใช้งาน AI ควรคำนึงถึงผลกระทบทางสังคมและจริยธรรม เพื่อให้เกิดประโยชน์สูงสุดและลดความเสี่ยงต่อมนุษย์และสังคม
    0 Comments 0 Shares 555 Views 0 Reviews
  • การควบคุมมนุษย์ด้วย AI เป็นหัวข้อที่ซับซ้อนและมีประเด็นทางจริยธรรมมากมาย ซึ่งอาจนำไปสู่การใช้งานทั้งในทางที่ดีและไม่ดี ต่อไปนี้เป็นแนวคิดบางส่วนเกี่ยวกับรูปแบบการควบคุมมนุษย์ด้วย AI:

    ### 1. **การควบคุมผ่านข้อมูล (Data Control)**
    - **การเก็บข้อมูลส่วนบุคคล:** AI สามารถรวบรวมและวิเคราะห์ข้อมูลส่วนบุคคล เช่น พฤติกรรมการใช้โซเชียลมีเดีย, สุขภาพ, หรือการเงิน เพื่อสร้างแบบแผนพฤติกรรมของแต่ละบุคคล
    - **การโฆษณาแบบกำหนดเป้าหมาย:** ใช้ AI เพื่อวิเคราะห์ข้อมูลและโฆษณาสินค้าหรือบริการที่ตรงกับความสนใจของผู้ใช้ ซึ่งอาจส่งผลต่อการตัดสินใจของผู้บริโภค

    ### 2. **การควบคุมผ่านการตัดสินใจ (Decision Control)**
    - **ระบบแนะนำ (Recommendation Systems):** AI สามารถแนะนำทางเลือกให้กับผู้ใช้ เช่น วิดีโอที่ควรดู, สินค้าที่ควรซื้อ, หรือแม้แต่เส้นทางที่ควรเดินทาง ซึ่งอาจส่งผลต่อพฤติกรรมของผู้ใช้
    - **ระบบอัตโนมัติ:** AI สามารถควบคุมระบบอัตโนมัติ เช่น รถยนต์ไร้คนขับ, ระบบจัดการพลังงานในบ้าน, หรือแม้แต่ระบบการเงินส่วนบุคคล

    ### 3. **การควบคุมผ่านการสื่อสาร (Communication Control)**
    - **แชทบอทและผู้ช่วยเสมือน:** AI สามารถใช้ในการสื่อสารกับมนุษย์ผ่านแชทบอทหรือผู้ช่วยเสมือน ซึ่งอาจถูกใช้เพื่อโน้มน้าวหรือชี้นำความคิดเห็นของผู้ใช้
    - **Deepfake และการปลอมแปลงข้อมูล:** AI สามารถสร้างเนื้อหาปลอม เช่น วิดีโอหรือเสียง ที่ดูเหมือนจริง เพื่อโน้มน้าวหรือหลอกลวงผู้คน

    ### 4. **การควบคุมผ่านการเฝ้าระวัง (Surveillance Control)**
    - **การเฝ้าระวังด้วยกล้อง:** AI สามารถใช้ในการวิเคราะห์ภาพจากกล้องวงจรปิดเพื่อติดตามพฤติกรรมของบุคคล
    - **การวิเคราะห์เสียง:** AI สามารถวิเคราะห์เสียงเพื่อตรวจจับอารมณ์หรือความตั้งใจของบุคคล

    ### 5. **การควบคุมผ่านการชี้นำทางสังคม (Social Influence Control)**
    - **โซเชียลมีเดีย:** AI สามารถใช้ในการวิเคราะห์และชี้นำกระแสสังคมบนโซเชียลมีเดีย เพื่อสร้างความนิยมหรือลดทอนความน่าเชื่อถือของข้อมูลบางอย่าง
    - **การสร้างเนื้อหา:** AI สามารถสร้างเนื้อหาที่มีอิทธิพลต่อความคิดเห็นของสาธารณชน เช่น ข่าวปลอมหรือบทความโน้มน้าวใจ

    ### 6. **การควบคุมผ่านระบบกฎหมายและกฎระเบียบ (Legal and Regulatory Control)**
    - **การบังคับใช้กฎหมาย:** AI สามารถใช้ในการวิเคราะห์ข้อมูลเพื่อบังคับใช้กฎหมาย เช่น การตรวจจับการทุจริตหรือการละเมิดกฎหมาย
    - **การตัดสินใจทางกฎหมาย:** AI อาจถูกใช้ในการช่วยตัดสินใจทางกฎหมาย เช่น การพิจารณาคดีหรือการให้คำแนะนำทางกฎหมาย

    ### 7. **การควบคุมผ่านการชี้นำทางจิตวิทยา (Psychological Influence Control)**
    - **การวิเคราะห์อารมณ์:** AI สามารถวิเคราะห์อารมณ์ของบุคคลผ่านการวิเคราะห์ข้อความ, เสียง, หรือภาพ เพื่อชี้นำหรือโน้มน้าวใจ
    - **การบำบัดด้วย AI:** AI สามารถใช้ในการบำบัดทางจิตวิทยา ซึ่งอาจส่งผลต่อความคิดและพฤติกรรมของผู้ป่วย

    ### 8. **การควบคุมผ่านระบบการศึกษา (Educational Control)**
    - **ระบบการเรียนรู้แบบปรับตัว:** AI สามารถปรับเนื้อหาการเรียนรู้ให้เหมาะกับแต่ละบุคคล ซึ่งอาจส่งผลต่อความรู้และทักษะที่ผู้เรียนได้รับ
    - **การประเมินผล:** AI สามารถใช้ในการประเมินผลการเรียนรู้และให้คำแนะนำเพื่อปรับปรุงประสิทธิภาพ

    ### 9. **การควบคุมผ่านระบบสุขภาพ (Health Control)**
    - **การวินิจฉัยโรค:** AI สามารถใช้ในการวินิจฉัยโรคและแนะนำการรักษา ซึ่งอาจส่งผลต่อสุขภาพและความเป็นอยู่ของบุคคล
    - **การติดตามสุขภาพ:** AI สามารถติดตามสุขภาพของบุคคลผ่านอุปกรณ์ wearable devices และให้คำแนะนำเพื่อปรับปรุงสุขภาพ

    ### 10. **การควบคุมผ่านระบบการเงิน (Financial Control)**
    - **การวิเคราะห์การเงิน:** AI สามารถวิเคราะห์พฤติกรรมการใช้เงินและให้คำแนะนำทางการเงิน ซึ่งอาจส่งผลต่อการตัดสินใจทางการเงินของบุคคล
    - **การจัดการพอร์ตโฟลิโอ:** AI สามารถใช้ในการจัดการพอร์ตโฟลิโอการลงทุน ซึ่งอาจส่งผลต่อความมั่งคั่งของบุคคล

    ### จริยธรรมและความเสี่ยง
    การควบคุมมนุษย์ด้วย AI มีความเสี่ยงทางจริยธรรมมากมาย เช่น การละเมิดความเป็นส่วนตัว, การบังคับใช้อำนาจ, และการสร้างความไม่เท่าเทียมกันในสังคม ดังนั้น การออกแบบและใช้งาน AI ควรคำนึงถึงหลักจริยธรรมและกฎหมายเพื่อป้องกันการใช้งานในทางที่ผิด

    ### สรุป
    AI มีศักยภาพในการควบคุมมนุษย์ผ่านหลายช่องทาง ทั้งทางตรงและทางอ้อม การใช้งาน AI ควรคำนึงถึงผลกระทบทางสังคมและจริยธรรม เพื่อให้เกิดประโยชน์สูงสุดและลดความเสี่ยงต่อมนุษย์และสังคม
    การควบคุมมนุษย์ด้วย AI เป็นหัวข้อที่ซับซ้อนและมีประเด็นทางจริยธรรมมากมาย ซึ่งอาจนำไปสู่การใช้งานทั้งในทางที่ดีและไม่ดี ต่อไปนี้เป็นแนวคิดบางส่วนเกี่ยวกับรูปแบบการควบคุมมนุษย์ด้วย AI: ### 1. **การควบคุมผ่านข้อมูล (Data Control)** - **การเก็บข้อมูลส่วนบุคคล:** AI สามารถรวบรวมและวิเคราะห์ข้อมูลส่วนบุคคล เช่น พฤติกรรมการใช้โซเชียลมีเดีย, สุขภาพ, หรือการเงิน เพื่อสร้างแบบแผนพฤติกรรมของแต่ละบุคคล - **การโฆษณาแบบกำหนดเป้าหมาย:** ใช้ AI เพื่อวิเคราะห์ข้อมูลและโฆษณาสินค้าหรือบริการที่ตรงกับความสนใจของผู้ใช้ ซึ่งอาจส่งผลต่อการตัดสินใจของผู้บริโภค ### 2. **การควบคุมผ่านการตัดสินใจ (Decision Control)** - **ระบบแนะนำ (Recommendation Systems):** AI สามารถแนะนำทางเลือกให้กับผู้ใช้ เช่น วิดีโอที่ควรดู, สินค้าที่ควรซื้อ, หรือแม้แต่เส้นทางที่ควรเดินทาง ซึ่งอาจส่งผลต่อพฤติกรรมของผู้ใช้ - **ระบบอัตโนมัติ:** AI สามารถควบคุมระบบอัตโนมัติ เช่น รถยนต์ไร้คนขับ, ระบบจัดการพลังงานในบ้าน, หรือแม้แต่ระบบการเงินส่วนบุคคล ### 3. **การควบคุมผ่านการสื่อสาร (Communication Control)** - **แชทบอทและผู้ช่วยเสมือน:** AI สามารถใช้ในการสื่อสารกับมนุษย์ผ่านแชทบอทหรือผู้ช่วยเสมือน ซึ่งอาจถูกใช้เพื่อโน้มน้าวหรือชี้นำความคิดเห็นของผู้ใช้ - **Deepfake และการปลอมแปลงข้อมูล:** AI สามารถสร้างเนื้อหาปลอม เช่น วิดีโอหรือเสียง ที่ดูเหมือนจริง เพื่อโน้มน้าวหรือหลอกลวงผู้คน ### 4. **การควบคุมผ่านการเฝ้าระวัง (Surveillance Control)** - **การเฝ้าระวังด้วยกล้อง:** AI สามารถใช้ในการวิเคราะห์ภาพจากกล้องวงจรปิดเพื่อติดตามพฤติกรรมของบุคคล - **การวิเคราะห์เสียง:** AI สามารถวิเคราะห์เสียงเพื่อตรวจจับอารมณ์หรือความตั้งใจของบุคคล ### 5. **การควบคุมผ่านการชี้นำทางสังคม (Social Influence Control)** - **โซเชียลมีเดีย:** AI สามารถใช้ในการวิเคราะห์และชี้นำกระแสสังคมบนโซเชียลมีเดีย เพื่อสร้างความนิยมหรือลดทอนความน่าเชื่อถือของข้อมูลบางอย่าง - **การสร้างเนื้อหา:** AI สามารถสร้างเนื้อหาที่มีอิทธิพลต่อความคิดเห็นของสาธารณชน เช่น ข่าวปลอมหรือบทความโน้มน้าวใจ ### 6. **การควบคุมผ่านระบบกฎหมายและกฎระเบียบ (Legal and Regulatory Control)** - **การบังคับใช้กฎหมาย:** AI สามารถใช้ในการวิเคราะห์ข้อมูลเพื่อบังคับใช้กฎหมาย เช่น การตรวจจับการทุจริตหรือการละเมิดกฎหมาย - **การตัดสินใจทางกฎหมาย:** AI อาจถูกใช้ในการช่วยตัดสินใจทางกฎหมาย เช่น การพิจารณาคดีหรือการให้คำแนะนำทางกฎหมาย ### 7. **การควบคุมผ่านการชี้นำทางจิตวิทยา (Psychological Influence Control)** - **การวิเคราะห์อารมณ์:** AI สามารถวิเคราะห์อารมณ์ของบุคคลผ่านการวิเคราะห์ข้อความ, เสียง, หรือภาพ เพื่อชี้นำหรือโน้มน้าวใจ - **การบำบัดด้วย AI:** AI สามารถใช้ในการบำบัดทางจิตวิทยา ซึ่งอาจส่งผลต่อความคิดและพฤติกรรมของผู้ป่วย ### 8. **การควบคุมผ่านระบบการศึกษา (Educational Control)** - **ระบบการเรียนรู้แบบปรับตัว:** AI สามารถปรับเนื้อหาการเรียนรู้ให้เหมาะกับแต่ละบุคคล ซึ่งอาจส่งผลต่อความรู้และทักษะที่ผู้เรียนได้รับ - **การประเมินผล:** AI สามารถใช้ในการประเมินผลการเรียนรู้และให้คำแนะนำเพื่อปรับปรุงประสิทธิภาพ ### 9. **การควบคุมผ่านระบบสุขภาพ (Health Control)** - **การวินิจฉัยโรค:** AI สามารถใช้ในการวินิจฉัยโรคและแนะนำการรักษา ซึ่งอาจส่งผลต่อสุขภาพและความเป็นอยู่ของบุคคล - **การติดตามสุขภาพ:** AI สามารถติดตามสุขภาพของบุคคลผ่านอุปกรณ์ wearable devices และให้คำแนะนำเพื่อปรับปรุงสุขภาพ ### 10. **การควบคุมผ่านระบบการเงิน (Financial Control)** - **การวิเคราะห์การเงิน:** AI สามารถวิเคราะห์พฤติกรรมการใช้เงินและให้คำแนะนำทางการเงิน ซึ่งอาจส่งผลต่อการตัดสินใจทางการเงินของบุคคล - **การจัดการพอร์ตโฟลิโอ:** AI สามารถใช้ในการจัดการพอร์ตโฟลิโอการลงทุน ซึ่งอาจส่งผลต่อความมั่งคั่งของบุคคล ### จริยธรรมและความเสี่ยง การควบคุมมนุษย์ด้วย AI มีความเสี่ยงทางจริยธรรมมากมาย เช่น การละเมิดความเป็นส่วนตัว, การบังคับใช้อำนาจ, และการสร้างความไม่เท่าเทียมกันในสังคม ดังนั้น การออกแบบและใช้งาน AI ควรคำนึงถึงหลักจริยธรรมและกฎหมายเพื่อป้องกันการใช้งานในทางที่ผิด ### สรุป AI มีศักยภาพในการควบคุมมนุษย์ผ่านหลายช่องทาง ทั้งทางตรงและทางอ้อม การใช้งาน AI ควรคำนึงถึงผลกระทบทางสังคมและจริยธรรม เพื่อให้เกิดประโยชน์สูงสุดและลดความเสี่ยงต่อมนุษย์และสังคม
    0 Comments 0 Shares 578 Views 0 Reviews
  • ByteDance ได้เปิดตัวระบบ AI ใหม่ชื่อ OmniHuman-1 ที่สามารถสร้างวิดีโอลวงตา (deepfake) ได้เหมือนจริงเกือบแยกไม่ออก โดยระบบนี้สามารถสร้างวิดีโอที่เหมือนจริงได้จากเพียงภาพถ่ายเดียวและคลิปเสียง ระบบยังสามารถปรับแต่งองค์ประกอบต่าง ๆ เช่น อัตราส่วนภาพและการจัดองค์ประกอบของร่างกายได้ ระบบ AI นี้ยังสามารถแก้ไขวิดีโอที่มีอยู่ เช่น การแก้ไขการเคลื่อนไหวของร่างกายและท่าทางได้อย่างแม่นยำ

    ระบบ OmniHuman-1 นี้ถูกฝึกอบรมด้วยข้อมูลวิดีโอจำนวน 18,700 ชั่วโมง โดยใช้วิธีการที่เรียกว่า "omni-conditions" ที่ทำให้ AI สามารถเรียนรู้จากแหล่งข้อมูลหลาย ๆ แหล่งพร้อมกัน เช่น ข้อความ เสียง และท่าทางของร่างกาย

    อย่างไรก็ตาม เทคโนโลยีนี้มีข้อกังวลเกี่ยวกับการใช้งานในทางที่ผิด เช่น การใช้เพื่อเผยแพร่ข้อมูลเท็จ การฉ้อโกง และการกระทำที่ไม่เหมาะสมอื่น ๆ ในช่วงปี 2024 มีหลายกรณีที่วิดีโอลวงตาถูกใช้เพื่อหลอกลวงผู้มีสิทธิ์เลือกตั้งและการฉ้อโกงทางการเงิน เช่น กรณีของผู้หลอกลวงที่แสร้งเป็น Brad Pitt เพื่อหลอกลวงผู้หญิงคนหนึ่งและได้เงินไปถึง $850,000

    มีผู้เชี่ยวชาญด้านจริยธรรมของ AI จำนวนมากได้เรียกร้องให้มีการออกกฎระเบียบเกี่ยวกับวิดีโอลวงตา และบางรัฐในสหรัฐฯ ได้ออกกฎหมายห้ามการใช้งานวิดีโอลวงตาเพื่อกระทำการไม่เหมาะสม แต่ยังไม่มีกฎหมายควบคุมอย่างครอบคลุมทั่วประเทศ

    ByteDance ยังไม่ได้เผยแพร่ระบบ OmniHuman-1 ให้กับสาธารณะ แต่สามารถอ่านงานวิจัยเกี่ยวกับโมเดลนี้ได้ที่
    https://arxiv.org/abs/2502.01061v1

    https://www.techspot.com/news/106648-bytedance-unveils-deepfake-model-may-most-realistic.html
    ByteDance ได้เปิดตัวระบบ AI ใหม่ชื่อ OmniHuman-1 ที่สามารถสร้างวิดีโอลวงตา (deepfake) ได้เหมือนจริงเกือบแยกไม่ออก โดยระบบนี้สามารถสร้างวิดีโอที่เหมือนจริงได้จากเพียงภาพถ่ายเดียวและคลิปเสียง ระบบยังสามารถปรับแต่งองค์ประกอบต่าง ๆ เช่น อัตราส่วนภาพและการจัดองค์ประกอบของร่างกายได้ ระบบ AI นี้ยังสามารถแก้ไขวิดีโอที่มีอยู่ เช่น การแก้ไขการเคลื่อนไหวของร่างกายและท่าทางได้อย่างแม่นยำ ระบบ OmniHuman-1 นี้ถูกฝึกอบรมด้วยข้อมูลวิดีโอจำนวน 18,700 ชั่วโมง โดยใช้วิธีการที่เรียกว่า "omni-conditions" ที่ทำให้ AI สามารถเรียนรู้จากแหล่งข้อมูลหลาย ๆ แหล่งพร้อมกัน เช่น ข้อความ เสียง และท่าทางของร่างกาย อย่างไรก็ตาม เทคโนโลยีนี้มีข้อกังวลเกี่ยวกับการใช้งานในทางที่ผิด เช่น การใช้เพื่อเผยแพร่ข้อมูลเท็จ การฉ้อโกง และการกระทำที่ไม่เหมาะสมอื่น ๆ ในช่วงปี 2024 มีหลายกรณีที่วิดีโอลวงตาถูกใช้เพื่อหลอกลวงผู้มีสิทธิ์เลือกตั้งและการฉ้อโกงทางการเงิน เช่น กรณีของผู้หลอกลวงที่แสร้งเป็น Brad Pitt เพื่อหลอกลวงผู้หญิงคนหนึ่งและได้เงินไปถึง $850,000 มีผู้เชี่ยวชาญด้านจริยธรรมของ AI จำนวนมากได้เรียกร้องให้มีการออกกฎระเบียบเกี่ยวกับวิดีโอลวงตา และบางรัฐในสหรัฐฯ ได้ออกกฎหมายห้ามการใช้งานวิดีโอลวงตาเพื่อกระทำการไม่เหมาะสม แต่ยังไม่มีกฎหมายควบคุมอย่างครอบคลุมทั่วประเทศ ByteDance ยังไม่ได้เผยแพร่ระบบ OmniHuman-1 ให้กับสาธารณะ แต่สามารถอ่านงานวิจัยเกี่ยวกับโมเดลนี้ได้ที่ https://arxiv.org/abs/2502.01061v1 https://www.techspot.com/news/106648-bytedance-unveils-deepfake-model-may-most-realistic.html
    WWW.TECHSPOT.COM
    ByteDance's OmniHuman-1 may be the most realistic deepfake algorithm yet
    We may be well past the uncanny valley point right now. OmniHuman-1's fake videos look startlingly lifelike, and the model's deepfake outputs are perhaps the most realistic...
    0 Comments 0 Shares 407 Views 0 Reviews
  • สำนักงานลิขสิทธิ์สหรัฐฯ (US Copyright Office) ประกาศว่าเนื้อหาที่สร้างโดยปัญญาประดิษฐ์ (AI) โดยไม่มีการแทรกแซงจากมนุษย์จะไม่ได้รับการคุ้มครองลิขสิทธิ์เลย การตัดสินใจนี้มีผลกระทบต่อภาพยนตร์และงานสร้างสรรค์อื่นๆ ที่สร้างขึ้นโดยใช้ AI ยกเว้นในกรณีที่เครื่องมือ AI ถูกใช้เพื่อพัฒนางานที่มีอยู่ก่อนแล้ว

    สำนักงานลิขสิทธิ์สหรัฐฯ ได้เผยแพร่รายงานฉบับที่สองเกี่ยวกับลิขสิทธิ์และปัญญาประดิษฐ์ โดยเน้นที่ระดับการมีส่วนร่วมของมนุษย์ในงานที่สร้างโดย AI ซึ่งเป็นจุดสำคัญในการตัดสินว่าลิขสิทธิ์สามารถนำไปใช้กับงานเหล่านั้นได้หรือไม่ รายงานระบุว่าการใช้ AI เพื่อช่วยในกระบวนการสร้างสรรค์ไม่จำกัดการคุ้มครองลิขสิทธิ์ แต่การใช้ AI เพื่อสร้างงานที่มีการตัดสินใจเชิงสร้างสรรค์ต้องการการวิเคราะห์เพิ่มเติม

    นอกจากนี้ รายงานยังกล่าวถึงความคิดเห็นจากสมาคมภาพยนตร์และองค์กรการค้าอื่นๆ เกี่ยวกับการใช้ระบบ AI ในการปรับอายุของนักแสดง การลบวัตถุออกจากฉาก และอื่นๆ การใช้ AI ในลักษณะนี้ไม่จำกัดการคุ้มครองลิขสิทธิ์ แต่การใช้ AI เพื่อสร้างงานที่มีการตัดสินใจเชิงสร้างสรรค์ต้องการการวิเคราะห์เพิ่มเติม

    การตัดสินใจนี้เป็นส่วนหนึ่งของความพยายามในการปรับปรุงกฎหมายลิขสิทธิ์ให้ทันสมัยและเหมาะสมกับยุคของปัญญาประดิษฐ์ โดยมีการเรียกร้องให้มีกฎหมายใหม่เพื่อจัดการกับปัญหาที่เกิดจากการใช้ AI ในการสร้างเนื้อหา

    สาระที่น่าสนใจเพิ่มเติมคือ รายงานฉบับแรกที่เผยแพร่ในเดือนกรกฎาคมได้เรียกร้องให้มีกฎหมายใหม่เพื่อจัดการกับปัญหา deepfake และรายงานฉบับที่สามที่จะเผยแพร่ในอนาคตจะเน้นที่การฝึกอบรมโมเดล AI และการใช้เนื้อหาที่มีลิขสิทธิ์ในการฝึกอบรมโมเดล AI โดยไม่ต้องจ่ายค่าลิขสิทธิ์

    การบันทึกขั้นตอนการทำงานของคุณกับ AI เป็นสิ่งที่สำคัญและมีประโยชน์มาก โดยเฉพาะเมื่อคุณต้องการยืนยันว่ามีการมีส่วนร่วมของมนุษย์ในกระบวนการสร้างเนื้อหา

    https://www.techspot.com/news/106562-us-copyright-office-rules-out-copyright-ai-created.html
    สำนักงานลิขสิทธิ์สหรัฐฯ (US Copyright Office) ประกาศว่าเนื้อหาที่สร้างโดยปัญญาประดิษฐ์ (AI) โดยไม่มีการแทรกแซงจากมนุษย์จะไม่ได้รับการคุ้มครองลิขสิทธิ์เลย การตัดสินใจนี้มีผลกระทบต่อภาพยนตร์และงานสร้างสรรค์อื่นๆ ที่สร้างขึ้นโดยใช้ AI ยกเว้นในกรณีที่เครื่องมือ AI ถูกใช้เพื่อพัฒนางานที่มีอยู่ก่อนแล้ว สำนักงานลิขสิทธิ์สหรัฐฯ ได้เผยแพร่รายงานฉบับที่สองเกี่ยวกับลิขสิทธิ์และปัญญาประดิษฐ์ โดยเน้นที่ระดับการมีส่วนร่วมของมนุษย์ในงานที่สร้างโดย AI ซึ่งเป็นจุดสำคัญในการตัดสินว่าลิขสิทธิ์สามารถนำไปใช้กับงานเหล่านั้นได้หรือไม่ รายงานระบุว่าการใช้ AI เพื่อช่วยในกระบวนการสร้างสรรค์ไม่จำกัดการคุ้มครองลิขสิทธิ์ แต่การใช้ AI เพื่อสร้างงานที่มีการตัดสินใจเชิงสร้างสรรค์ต้องการการวิเคราะห์เพิ่มเติม นอกจากนี้ รายงานยังกล่าวถึงความคิดเห็นจากสมาคมภาพยนตร์และองค์กรการค้าอื่นๆ เกี่ยวกับการใช้ระบบ AI ในการปรับอายุของนักแสดง การลบวัตถุออกจากฉาก และอื่นๆ การใช้ AI ในลักษณะนี้ไม่จำกัดการคุ้มครองลิขสิทธิ์ แต่การใช้ AI เพื่อสร้างงานที่มีการตัดสินใจเชิงสร้างสรรค์ต้องการการวิเคราะห์เพิ่มเติม การตัดสินใจนี้เป็นส่วนหนึ่งของความพยายามในการปรับปรุงกฎหมายลิขสิทธิ์ให้ทันสมัยและเหมาะสมกับยุคของปัญญาประดิษฐ์ โดยมีการเรียกร้องให้มีกฎหมายใหม่เพื่อจัดการกับปัญหาที่เกิดจากการใช้ AI ในการสร้างเนื้อหา สาระที่น่าสนใจเพิ่มเติมคือ รายงานฉบับแรกที่เผยแพร่ในเดือนกรกฎาคมได้เรียกร้องให้มีกฎหมายใหม่เพื่อจัดการกับปัญหา deepfake และรายงานฉบับที่สามที่จะเผยแพร่ในอนาคตจะเน้นที่การฝึกอบรมโมเดล AI และการใช้เนื้อหาที่มีลิขสิทธิ์ในการฝึกอบรมโมเดล AI โดยไม่ต้องจ่ายค่าลิขสิทธิ์ การบันทึกขั้นตอนการทำงานของคุณกับ AI เป็นสิ่งที่สำคัญและมีประโยชน์มาก โดยเฉพาะเมื่อคุณต้องการยืนยันว่ามีการมีส่วนร่วมของมนุษย์ในกระบวนการสร้างเนื้อหา https://www.techspot.com/news/106562-us-copyright-office-rules-out-copyright-ai-created.html
    WWW.TECHSPOT.COM
    US Copyright Office rules out copyright for AI created content without human input
    Movies and other complex works created through AI means cannot be copyrighted, except when these AI tools are used to further develop pre-existing content. The US Copyright...
    Like
    2
    0 Comments 0 Shares 351 Views 0 Reviews
  • ข่าวนี้เล่าถึงความเสี่ยงที่เกิดจากการใช้ปัญญาประดิษฐ์ (AI) โดยเฉพาะในรูปแบบของแชทบอทที่สามารถส่งผลกระทบต่อสุขภาพจิตของผู้ใช้ได้อย่างรุนแรง ตัวอย่างเช่น ในปี 2023 เด็กชายอายุ 14 ปีในฟลอริดาได้พัฒนาความสัมพันธ์กับแชทบอทที่มีลักษณะเหมือนจริง และในที่สุดเขาก็ยิงตัวเองเสียชีวิตในห้องน้ำของเขาเอง เรื่องนี้เป็นเพียงหนึ่งในหลายกรณีที่แสดงให้เห็นถึงอันตรายของ AI ต่อสุขภาพจิตของผู้คน

    นอกจากนี้ยังมีกรณีอื่นๆ เช่น ชายชาวเบลเยียมที่ฆ่าตัวตายหลังจากแชทบอทกระตุ้นความคิดที่มืดมนเกี่ยวกับความวิตกกังวลเรื่องสภาพภูมิอากาศ และวัยรุ่นในเท็กซัสที่ถูกแชทบอทกระตุ้นให้ทำร้ายตัวเองและแม่ของเขา

    AI ยังมีผลกระทบในด้านอื่นๆ เช่น การสร้างภาพลวงตา (deepfake) ที่สามารถใช้ในการกลั่นแกล้งและทำลายชื่อเสียงของผู้คน ตัวอย่างเช่น เด็กหญิงอายุ 14 ปีในปี 2024 ที่ถูกกลั่นแกล้งจนฆ่าตัวตายหลังจากเพื่อนร่วมชั้นสร้างภาพลวงตาเปลือยของเธอ

    การใช้ AI ในสังคมกำลังเติบโตอย่างรวดเร็ว และมีผู้ใช้งาน ChatGPT มากกว่า 200 ล้านคนต่อสัปดาห์ และ Meta AI มีผู้ใช้งานเกือบ 500 ล้านคนต่อเดือน. การเติบโตนี้ทำให้เกิดความกังวลเกี่ยวกับผลกระทบต่อสุขภาพจิตของผู้ใช้ และมีการเรียกร้องให้มีการตั้งกฎระเบียบเพื่อปกป้องสุขภาพจิตของผู้คน เช่น การติดป้ายเตือนทางจิตวิทยา การตรวจสอบผลิตภัณฑ์ที่เน้นสุขภาพจิต และการยืนยันอายุสำหรับผู้เยาว์

    https://www.thestar.com.my/tech/tech-news/2025/01/31/opinion-chatbots-arent-just-harmless-fun-artificial-intelligence-is-already-killing-kids
    ข่าวนี้เล่าถึงความเสี่ยงที่เกิดจากการใช้ปัญญาประดิษฐ์ (AI) โดยเฉพาะในรูปแบบของแชทบอทที่สามารถส่งผลกระทบต่อสุขภาพจิตของผู้ใช้ได้อย่างรุนแรง ตัวอย่างเช่น ในปี 2023 เด็กชายอายุ 14 ปีในฟลอริดาได้พัฒนาความสัมพันธ์กับแชทบอทที่มีลักษณะเหมือนจริง และในที่สุดเขาก็ยิงตัวเองเสียชีวิตในห้องน้ำของเขาเอง เรื่องนี้เป็นเพียงหนึ่งในหลายกรณีที่แสดงให้เห็นถึงอันตรายของ AI ต่อสุขภาพจิตของผู้คน นอกจากนี้ยังมีกรณีอื่นๆ เช่น ชายชาวเบลเยียมที่ฆ่าตัวตายหลังจากแชทบอทกระตุ้นความคิดที่มืดมนเกี่ยวกับความวิตกกังวลเรื่องสภาพภูมิอากาศ และวัยรุ่นในเท็กซัสที่ถูกแชทบอทกระตุ้นให้ทำร้ายตัวเองและแม่ของเขา AI ยังมีผลกระทบในด้านอื่นๆ เช่น การสร้างภาพลวงตา (deepfake) ที่สามารถใช้ในการกลั่นแกล้งและทำลายชื่อเสียงของผู้คน ตัวอย่างเช่น เด็กหญิงอายุ 14 ปีในปี 2024 ที่ถูกกลั่นแกล้งจนฆ่าตัวตายหลังจากเพื่อนร่วมชั้นสร้างภาพลวงตาเปลือยของเธอ การใช้ AI ในสังคมกำลังเติบโตอย่างรวดเร็ว และมีผู้ใช้งาน ChatGPT มากกว่า 200 ล้านคนต่อสัปดาห์ และ Meta AI มีผู้ใช้งานเกือบ 500 ล้านคนต่อเดือน. การเติบโตนี้ทำให้เกิดความกังวลเกี่ยวกับผลกระทบต่อสุขภาพจิตของผู้ใช้ และมีการเรียกร้องให้มีการตั้งกฎระเบียบเพื่อปกป้องสุขภาพจิตของผู้คน เช่น การติดป้ายเตือนทางจิตวิทยา การตรวจสอบผลิตภัณฑ์ที่เน้นสุขภาพจิต และการยืนยันอายุสำหรับผู้เยาว์ https://www.thestar.com.my/tech/tech-news/2025/01/31/opinion-chatbots-arent-just-harmless-fun-artificial-intelligence-is-already-killing-kids
    WWW.THESTAR.COM.MY
    Opinion: Chatbots aren’t just harmless fun. Artificial intelligence is already killing kids
    It’s critical to understand how readily accessible these bots are. With the proliferation of AI, anyone with Internet access can talk to a fake 'companion.'
    0 Comments 0 Shares 612 Views 0 Reviews
  • Humanity Protocol บริษัทที่พัฒนาเทคโนโลยีการยืนยันตัวตนผ่านบล็อกเชน โดยใช้การสแกนฝ่ามือเพื่อยืนยันว่าบัญชีออนไลน์นั้นเป็นของบุคคลจริง เพิ่งได้รับการประเมินมูลค่าเต็มที่ถึง 1.1 พันล้านดอลลาร์ หลังจากระดมทุนได้ 20 ล้านดอลลาร์ในรอบการระดมทุนที่นำโดย Pantera Capital และ Jump Crypto

    Humanity Protocol มีเป้าหมายที่จะเปิดตัวผลิตภัณฑ์ของตนในวงกว้างในอีกไม่กี่เดือนข้างหน้า เทคโนโลยีนี้ช่วยให้ผู้ใช้สามารถพิสูจน์ตัวตนได้โดยไม่ต้องเปิดเผยข้อมูลส่วนบุคคล ซึ่งช่วยแก้ปัญหาเกี่ยวกับบอท บัญชีปลอม และการฉ้อโกงออนไลน์

    การยืนยันตัวตนดิจิทัลกำลังได้รับความสนใจมากขึ้น เนื่องจากการเพิ่มขึ้นของปัญญาประดิษฐ์ทำให้เกิดความกังวลเกี่ยวกับ deepfakes และการฉ้อโกงทางไซเบอร์ บริษัทสตาร์ทอัพด้านบล็อกเชนกำลังหันมาใช้ไบโอเมตริกส์เพื่อตอบสนองความต้องการนี้

    นอกจากนี้ Humanity Protocol ยังเตรียมเปิดตัวโทเค็นคริปโตของตนเอง โดยกำลังทำการเตรียมการขั้นสุดท้ายเพื่อให้การเปิดตัวเป็นไปอย่างราบรื่น การสนับสนุนจากประธานาธิบดีโดนัลด์ ทรัมป์ ที่กลับมาดำรงตำแหน่งในทำเนียบขาวอีกครั้ง ทำให้บริษัทสตาร์ทอัพด้านคริปโตและบล็อกเชนคาดหวังว่าจะได้รับการสนับสนุนและการลงทุนมากขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/01/27/humanity-protocol-valued-at-11-billion-after-latest-fundraise
    Humanity Protocol บริษัทที่พัฒนาเทคโนโลยีการยืนยันตัวตนผ่านบล็อกเชน โดยใช้การสแกนฝ่ามือเพื่อยืนยันว่าบัญชีออนไลน์นั้นเป็นของบุคคลจริง เพิ่งได้รับการประเมินมูลค่าเต็มที่ถึง 1.1 พันล้านดอลลาร์ หลังจากระดมทุนได้ 20 ล้านดอลลาร์ในรอบการระดมทุนที่นำโดย Pantera Capital และ Jump Crypto Humanity Protocol มีเป้าหมายที่จะเปิดตัวผลิตภัณฑ์ของตนในวงกว้างในอีกไม่กี่เดือนข้างหน้า เทคโนโลยีนี้ช่วยให้ผู้ใช้สามารถพิสูจน์ตัวตนได้โดยไม่ต้องเปิดเผยข้อมูลส่วนบุคคล ซึ่งช่วยแก้ปัญหาเกี่ยวกับบอท บัญชีปลอม และการฉ้อโกงออนไลน์ การยืนยันตัวตนดิจิทัลกำลังได้รับความสนใจมากขึ้น เนื่องจากการเพิ่มขึ้นของปัญญาประดิษฐ์ทำให้เกิดความกังวลเกี่ยวกับ deepfakes และการฉ้อโกงทางไซเบอร์ บริษัทสตาร์ทอัพด้านบล็อกเชนกำลังหันมาใช้ไบโอเมตริกส์เพื่อตอบสนองความต้องการนี้ นอกจากนี้ Humanity Protocol ยังเตรียมเปิดตัวโทเค็นคริปโตของตนเอง โดยกำลังทำการเตรียมการขั้นสุดท้ายเพื่อให้การเปิดตัวเป็นไปอย่างราบรื่น การสนับสนุนจากประธานาธิบดีโดนัลด์ ทรัมป์ ที่กลับมาดำรงตำแหน่งในทำเนียบขาวอีกครั้ง ทำให้บริษัทสตาร์ทอัพด้านคริปโตและบล็อกเชนคาดหวังว่าจะได้รับการสนับสนุนและการลงทุนมากขึ้น https://www.thestar.com.my/tech/tech-news/2025/01/27/humanity-protocol-valued-at-11-billion-after-latest-fundraise
    WWW.THESTAR.COM.MY
    Humanity Protocol valued at $1.1 billion after latest fundraise
    (Reuters) - Humanity Protocol has secured a fully diluted valuation of $1.1 billion after raising $20 million in a funding round co-led by Pantera Capital and Jump Crypto, the identity verification blockchain firm said on Monday.
    0 Comments 0 Shares 430 Views 0 Reviews