• 🛡️ AI-powered “Repeaters”: เทคนิคใหม่ของอาชญากรไซเบอร์
    นักวิจัยด้านความปลอดภัยจาก AU10TIX ได้ค้นพบกลยุทธ์ใหม่ที่อาชญากรไซเบอร์ใช้ในการเจาะระบบของ ธนาคารและแพลตฟอร์มคริปโต โดยใช้ AI-powered Repeaters ซึ่งเป็น ตัวตนดิจิทัลปลอมที่ถูกปรับแต่งเล็กน้อย เพื่อหลบเลี่ยงระบบตรวจจับ

    Repeaters ไม่ได้ถูกออกแบบมาเพื่อโจมตีทันที แต่จะ ทดสอบระบบป้องกันขององค์กร โดยใช้ ตัวตนดิจิทัลที่ถูกปรับแต่งเล็กน้อย เช่น เปลี่ยนใบหน้า, แก้ไขหมายเลขเอกสาร หรือปรับพื้นหลังของภาพ

    เมื่อระบบตรวจสอบแต่ละตัวตนแยกกัน จะไม่สามารถตรวจจับความผิดปกติได้ ทำให้ Repeaters สามารถ ผ่านกระบวนการยืนยันตัวตน (KYC) และการตรวจสอบไบโอเมตริกซ์ ได้อย่างง่ายดาย

    ✅ ข้อมูลจากข่าว
    - Repeaters เป็นตัวตนดิจิทัลปลอมที่ถูกปรับแต่งเล็กน้อยเพื่อทดสอบระบบป้องกันขององค์กร
    - ใช้เทคนิค deepfake เพื่อเปลี่ยนใบหน้า, หมายเลขเอกสาร และพื้นหลังของภาพ
    - สามารถหลบเลี่ยงระบบตรวจสอบไบโอเมตริกซ์และ KYC ได้อย่างง่ายดาย
    - AU10TIX เปิดตัว “consortium validation” เพื่อให้หลายองค์กรแชร์ข้อมูลและตรวจจับ Repeaters ได้ดีขึ้น
    - ระบบใหม่ช่วยให้สามารถตรวจจับตัวตนที่ถูกใช้ซ้ำในหลายแพลตฟอร์มได้แบบเรียลไทม์

    ‼️ คำเตือนที่ควรพิจารณา
    - ระบบตรวจสอบตัวตนแบบดั้งเดิมอาจไม่สามารถรับมือกับ Repeaters ได้
    - อาชญากรไซเบอร์สามารถใช้ Repeaters เพื่อเจาะระบบของธนาคารและแพลตฟอร์มคริปโต
    - ต้องมีการตรวจสอบพฤติกรรมของผู้ใช้ในหลายแพลตฟอร์มเพื่อป้องกันการโจมตีแบบเงียบ
    - ไม่มีโซลูชันใดที่สามารถป้องกัน Repeaters ได้ 100% ต้องใช้การตรวจสอบแบบหลายชั้น

    Repeaters แสดงให้เห็นว่า AI กำลังถูกใช้เพื่อพัฒนาเทคนิคการโจมตีที่ซับซ้อนมากขึ้น องค์กรต้อง ปรับปรุงระบบตรวจสอบตัวตนให้สามารถตรวจจับตัวตนที่ถูกใช้ซ้ำ และ ใช้การตรวจสอบแบบพฤติกรรมเพื่อป้องกันการโจมตีในอนาคต

    https://www.techradar.com/pro/security/cybercriminals-are-deploying-deepfake-sentinels-to-test-detection-systems-of-businesses-heres-what-you-need-to-know
    🛡️ AI-powered “Repeaters”: เทคนิคใหม่ของอาชญากรไซเบอร์ นักวิจัยด้านความปลอดภัยจาก AU10TIX ได้ค้นพบกลยุทธ์ใหม่ที่อาชญากรไซเบอร์ใช้ในการเจาะระบบของ ธนาคารและแพลตฟอร์มคริปโต โดยใช้ AI-powered Repeaters ซึ่งเป็น ตัวตนดิจิทัลปลอมที่ถูกปรับแต่งเล็กน้อย เพื่อหลบเลี่ยงระบบตรวจจับ Repeaters ไม่ได้ถูกออกแบบมาเพื่อโจมตีทันที แต่จะ ทดสอบระบบป้องกันขององค์กร โดยใช้ ตัวตนดิจิทัลที่ถูกปรับแต่งเล็กน้อย เช่น เปลี่ยนใบหน้า, แก้ไขหมายเลขเอกสาร หรือปรับพื้นหลังของภาพ เมื่อระบบตรวจสอบแต่ละตัวตนแยกกัน จะไม่สามารถตรวจจับความผิดปกติได้ ทำให้ Repeaters สามารถ ผ่านกระบวนการยืนยันตัวตน (KYC) และการตรวจสอบไบโอเมตริกซ์ ได้อย่างง่ายดาย ✅ ข้อมูลจากข่าว - Repeaters เป็นตัวตนดิจิทัลปลอมที่ถูกปรับแต่งเล็กน้อยเพื่อทดสอบระบบป้องกันขององค์กร - ใช้เทคนิค deepfake เพื่อเปลี่ยนใบหน้า, หมายเลขเอกสาร และพื้นหลังของภาพ - สามารถหลบเลี่ยงระบบตรวจสอบไบโอเมตริกซ์และ KYC ได้อย่างง่ายดาย - AU10TIX เปิดตัว “consortium validation” เพื่อให้หลายองค์กรแชร์ข้อมูลและตรวจจับ Repeaters ได้ดีขึ้น - ระบบใหม่ช่วยให้สามารถตรวจจับตัวตนที่ถูกใช้ซ้ำในหลายแพลตฟอร์มได้แบบเรียลไทม์ ‼️ คำเตือนที่ควรพิจารณา - ระบบตรวจสอบตัวตนแบบดั้งเดิมอาจไม่สามารถรับมือกับ Repeaters ได้ - อาชญากรไซเบอร์สามารถใช้ Repeaters เพื่อเจาะระบบของธนาคารและแพลตฟอร์มคริปโต - ต้องมีการตรวจสอบพฤติกรรมของผู้ใช้ในหลายแพลตฟอร์มเพื่อป้องกันการโจมตีแบบเงียบ - ไม่มีโซลูชันใดที่สามารถป้องกัน Repeaters ได้ 100% ต้องใช้การตรวจสอบแบบหลายชั้น Repeaters แสดงให้เห็นว่า AI กำลังถูกใช้เพื่อพัฒนาเทคนิคการโจมตีที่ซับซ้อนมากขึ้น องค์กรต้อง ปรับปรุงระบบตรวจสอบตัวตนให้สามารถตรวจจับตัวตนที่ถูกใช้ซ้ำ และ ใช้การตรวจสอบแบบพฤติกรรมเพื่อป้องกันการโจมตีในอนาคต https://www.techradar.com/pro/security/cybercriminals-are-deploying-deepfake-sentinels-to-test-detection-systems-of-businesses-heres-what-you-need-to-know
    WWW.TECHRADAR.COM
    This sneaky fraud tactic uses deepfakes to outsmart your favorite digital services
    Repeaters are used to test your system’s defense before large-scale attack
    0 ความคิดเห็น 0 การแบ่งปัน 90 มุมมอง 0 รีวิว
  • 🛡️ McAfee เพิ่มฟีเจอร์ Scam Detector ในแผนป้องกันไวรัส
    McAfee ได้รวม Scam Detector ซึ่งเป็นเครื่องมือป้องกันการหลอกลวงเข้าไปในแผนป้องกันไวรัสทั้งหมด โดยฟีเจอร์นี้สามารถตรวจจับ ข้อความ, อีเมล และวิดีโอที่เป็นภัย ได้แบบเรียลไทม์

    Scam Detector อ้างว่ามี ความแม่นยำ 99% ในการตรวจจับภัยคุกคามจากข้อความ และสามารถตรวจจับ deepfake บน YouTube และ TikTok ได้ 96%

    อย่างไรก็ตาม McAfee Scam Detector ต้องสมัครสมาชิก เพื่อใช้งาน ซึ่งแตกต่างจากเครื่องมือฟรี เช่น Bitdefender Scamio ที่สามารถตรวจสอบลิงก์, ข้อความ และ QR codes ได้โดยไม่มีค่าใช้จ่าย

    Google ก็มีระบบตรวจจับการหลอกลวงด้วย AI แต่ยังอยู่ใน เวอร์ชันเบต้าสำหรับ Pixel phones เท่านั้น

    ✅ ข้อมูลจากข่าว
    - McAfee รวม Scam Detector เข้าไปในแผนป้องกันไวรัสทั้งหมด
    - สามารถตรวจจับข้อความ, อีเมล และวิดีโอที่เป็นภัยได้แบบเรียลไทม์
    - มีความแม่นยำ 99% ในการตรวจจับภัยคุกคามจากข้อความ
    - สามารถตรวจจับ deepfake บน YouTube และ TikTok ได้ 96%
    - รองรับ WhatsApp, Messenger, Gmail และ Android SMS

    ‼️ คำเตือนที่ควรพิจารณา
    - ต้องสมัครสมาชิก McAfee เพื่อใช้งาน Scam Detector
    - Bitdefender Scamio เป็นเครื่องมือฟรีที่สามารถตรวจสอบลิงก์และข้อความได้
    - Google มีระบบตรวจจับการหลอกลวงด้วย AI แต่ยังอยู่ในเวอร์ชันเบต้าสำหรับ Pixel phones
    - Norton Genie Scam Protection ก็ต้องสมัครสมาชิกเพื่อใช้งานเต็มรูปแบบ

    🔎 ผลกระทบต่ออุตสาหกรรมความปลอดภัยไซเบอร์
    McAfee Scam Detector อาจช่วยให้ผู้ใช้มีเครื่องมือป้องกันภัยคุกคามที่มีประสิทธิภาพมากขึ้น แต่การที่ต้องสมัครสมาชิกอาจทำให้ผู้ใช้เลือกใช้ เครื่องมือฟรีที่มีฟีเจอร์ใกล้เคียงกัน แทน

    https://www.techradar.com/pro/mcafee-is-now-bundling-its-scam-detector-with-all-its-antivirus-plans-here-are-others-that-are-actually-totally-free
    🛡️ McAfee เพิ่มฟีเจอร์ Scam Detector ในแผนป้องกันไวรัส McAfee ได้รวม Scam Detector ซึ่งเป็นเครื่องมือป้องกันการหลอกลวงเข้าไปในแผนป้องกันไวรัสทั้งหมด โดยฟีเจอร์นี้สามารถตรวจจับ ข้อความ, อีเมล และวิดีโอที่เป็นภัย ได้แบบเรียลไทม์ Scam Detector อ้างว่ามี ความแม่นยำ 99% ในการตรวจจับภัยคุกคามจากข้อความ และสามารถตรวจจับ deepfake บน YouTube และ TikTok ได้ 96% อย่างไรก็ตาม McAfee Scam Detector ต้องสมัครสมาชิก เพื่อใช้งาน ซึ่งแตกต่างจากเครื่องมือฟรี เช่น Bitdefender Scamio ที่สามารถตรวจสอบลิงก์, ข้อความ และ QR codes ได้โดยไม่มีค่าใช้จ่าย Google ก็มีระบบตรวจจับการหลอกลวงด้วย AI แต่ยังอยู่ใน เวอร์ชันเบต้าสำหรับ Pixel phones เท่านั้น ✅ ข้อมูลจากข่าว - McAfee รวม Scam Detector เข้าไปในแผนป้องกันไวรัสทั้งหมด - สามารถตรวจจับข้อความ, อีเมล และวิดีโอที่เป็นภัยได้แบบเรียลไทม์ - มีความแม่นยำ 99% ในการตรวจจับภัยคุกคามจากข้อความ - สามารถตรวจจับ deepfake บน YouTube และ TikTok ได้ 96% - รองรับ WhatsApp, Messenger, Gmail และ Android SMS ‼️ คำเตือนที่ควรพิจารณา - ต้องสมัครสมาชิก McAfee เพื่อใช้งาน Scam Detector - Bitdefender Scamio เป็นเครื่องมือฟรีที่สามารถตรวจสอบลิงก์และข้อความได้ - Google มีระบบตรวจจับการหลอกลวงด้วย AI แต่ยังอยู่ในเวอร์ชันเบต้าสำหรับ Pixel phones - Norton Genie Scam Protection ก็ต้องสมัครสมาชิกเพื่อใช้งานเต็มรูปแบบ 🔎 ผลกระทบต่ออุตสาหกรรมความปลอดภัยไซเบอร์ McAfee Scam Detector อาจช่วยให้ผู้ใช้มีเครื่องมือป้องกันภัยคุกคามที่มีประสิทธิภาพมากขึ้น แต่การที่ต้องสมัครสมาชิกอาจทำให้ผู้ใช้เลือกใช้ เครื่องมือฟรีที่มีฟีเจอร์ใกล้เคียงกัน แทน https://www.techradar.com/pro/mcafee-is-now-bundling-its-scam-detector-with-all-its-antivirus-plans-here-are-others-that-are-actually-totally-free
    WWW.TECHRADAR.COM
    Don’t get scammed! McAfee’s new AI tool sounds great, but you will need to pay for it
    McAfee Scam Detector tool is price-locked - here are some other options
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • "One Big Beautiful Bill": สภาผู้แทนฯ สหรัฐฯ สนับสนุนแผนของทรัมป์ในการระงับกฎหมาย AI ระดับรัฐเป็นเวลา 10 ปี

    สภาผู้แทนราษฎรสหรัฐฯ ผ่านร่างกฎหมาย "One Big Beautiful Bill" ของอดีตประธานาธิบดีโดนัลด์ ทรัมป์ ซึ่งมีเป้าหมาย ปรับโครงสร้างภาษีและนโยบายตรวจคนเข้าเมือง แต่ที่เป็นประเด็นร้อนแรงคือ ข้อกำหนดที่ห้ามรัฐออกกฎหมายควบคุม AI เป็นเวลา 10 ปี

    🔍 รายละเอียดสำคัญเกี่ยวกับร่างกฎหมาย "One Big Beautiful Bill"
    ✅ ร่างกฎหมายนี้ห้ามรัฐออกกฎหมายควบคุม AI เป็นเวลา 10 ปี
    - ครอบคลุม ทั้งโมเดล AI และผลิตภัณฑ์ที่ใช้ AI เช่น รถยนต์, IoT, โซเชียลมีเดีย และอุปกรณ์ทางการแพทย์

    ✅ นักวิจารณ์กังวลว่าการระงับกฎหมายระดับรัฐอาจเปิดช่องให้ AI ถูกใช้ในทางที่ผิด
    - อาจทำให้ นักพัฒนา AI สามารถสร้างระบบที่ส่งผลกระทบต่อความปลอดภัยและความมั่นคง

    ✅ สมาชิกพรรครีพับลิกันบางส่วนเตือนว่าร่างกฎหมายนี้อาจกระทบต่อความมั่นคงของชาติ
    - วุฒิสมาชิก Marsha Blackburn และ Josh Hawley ระบุว่าอาจทำให้ Deepfake และภัยคุกคาม AI เพิ่มขึ้น

    ✅ องค์กรด้านสิทธิและความเป็นส่วนตัว เช่น Electronic Frontier Foundation คัดค้านร่างกฎหมายนี้
    - มองว่า เป็นความพยายามของ Big Tech ในการลดข้อจำกัดด้าน AI

    ✅ ผู้สนับสนุนร่างกฎหมายมองว่าการระงับกฎหมายระดับรัฐช่วยให้บริษัทสหรัฐฯ แข่งขันกับจีนได้ดีขึ้น
    - เชื่อว่า กฎระเบียบที่เข้มงวดอาจขัดขวางนวัตกรรมและลดโอกาสของสหรัฐฯ ในการเป็นผู้นำด้าน AI

    ✅ ร่างกฎหมายยังต้องผ่านการพิจารณาของวุฒิสภาก่อนที่ทรัมป์จะลงนามเป็นกฎหมาย
    - นักวิเคราะห์มองว่า ทรัมป์อาจเผชิญแรงต้านจากวุฒิสมาชิกที่กังวลเรื่องอำนาจของรัฐ

    https://www.techspot.com/news/108036-one-big-beautiful-bill-house-backs-trump-plan.html
    "One Big Beautiful Bill": สภาผู้แทนฯ สหรัฐฯ สนับสนุนแผนของทรัมป์ในการระงับกฎหมาย AI ระดับรัฐเป็นเวลา 10 ปี สภาผู้แทนราษฎรสหรัฐฯ ผ่านร่างกฎหมาย "One Big Beautiful Bill" ของอดีตประธานาธิบดีโดนัลด์ ทรัมป์ ซึ่งมีเป้าหมาย ปรับโครงสร้างภาษีและนโยบายตรวจคนเข้าเมือง แต่ที่เป็นประเด็นร้อนแรงคือ ข้อกำหนดที่ห้ามรัฐออกกฎหมายควบคุม AI เป็นเวลา 10 ปี 🔍 รายละเอียดสำคัญเกี่ยวกับร่างกฎหมาย "One Big Beautiful Bill" ✅ ร่างกฎหมายนี้ห้ามรัฐออกกฎหมายควบคุม AI เป็นเวลา 10 ปี - ครอบคลุม ทั้งโมเดล AI และผลิตภัณฑ์ที่ใช้ AI เช่น รถยนต์, IoT, โซเชียลมีเดีย และอุปกรณ์ทางการแพทย์ ✅ นักวิจารณ์กังวลว่าการระงับกฎหมายระดับรัฐอาจเปิดช่องให้ AI ถูกใช้ในทางที่ผิด - อาจทำให้ นักพัฒนา AI สามารถสร้างระบบที่ส่งผลกระทบต่อความปลอดภัยและความมั่นคง ✅ สมาชิกพรรครีพับลิกันบางส่วนเตือนว่าร่างกฎหมายนี้อาจกระทบต่อความมั่นคงของชาติ - วุฒิสมาชิก Marsha Blackburn และ Josh Hawley ระบุว่าอาจทำให้ Deepfake และภัยคุกคาม AI เพิ่มขึ้น ✅ องค์กรด้านสิทธิและความเป็นส่วนตัว เช่น Electronic Frontier Foundation คัดค้านร่างกฎหมายนี้ - มองว่า เป็นความพยายามของ Big Tech ในการลดข้อจำกัดด้าน AI ✅ ผู้สนับสนุนร่างกฎหมายมองว่าการระงับกฎหมายระดับรัฐช่วยให้บริษัทสหรัฐฯ แข่งขันกับจีนได้ดีขึ้น - เชื่อว่า กฎระเบียบที่เข้มงวดอาจขัดขวางนวัตกรรมและลดโอกาสของสหรัฐฯ ในการเป็นผู้นำด้าน AI ✅ ร่างกฎหมายยังต้องผ่านการพิจารณาของวุฒิสภาก่อนที่ทรัมป์จะลงนามเป็นกฎหมาย - นักวิเคราะห์มองว่า ทรัมป์อาจเผชิญแรงต้านจากวุฒิสมาชิกที่กังวลเรื่องอำนาจของรัฐ https://www.techspot.com/news/108036-one-big-beautiful-bill-house-backs-trump-plan.html
    WWW.TECHSPOT.COM
    "One Big Beautiful Bill": House backs Trump plan to freeze state AI laws for a decade
    The moratorium applies not only to AI models but also to any products or services integrating AI, effectively banning and overriding state regulations in those areas. The...
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • Dell Technologies World 2025: การเปลี่ยนแปลงครั้งใหญ่ในโลกเทคโนโลยี

    งาน Dell Technologies World 2025 ได้เผยโฉมเทคโนโลยีใหม่ ๆ ที่จะมีบทบาทสำคัญในอนาคต โดยเน้นไปที่ AI, Cloud Computing, และโครงสร้างพื้นฐานด้านข้อมูล พร้อมการอภิปรายจากบุคคลสำคัญในวงการ

    🔍 ไฮไลท์สำคัญจากงาน Dell Technologies World 2025
    ✅ Dell เปิดตัว AI Factory รุ่นใหม่
    - เป็นแพลตฟอร์มที่ช่วยให้ธุรกิจสามารถ นำ AI ไปใช้ได้อย่างมีประสิทธิภาพมากขึ้น
    - มีการลงทุนในโครงสร้างพื้นฐาน AI มากกว่าการลงทุนในโครงการ Apollo ที่ส่งมนุษย์ไปดวงจันทร์

    ✅ Dell ร่วมมือกับ Google นำ Gemini AI มาสู่เซิร์ฟเวอร์ PowerEdge
    - ลูกค้าของ Dell สามารถใช้โมเดล AI ของ Google ได้โดยตรงบนเซิร์ฟเวอร์ของตน

    ✅ เปิดตัว Dell AI Data Platform และ Data Lakehouse
    - ช่วยให้ธุรกิจสามารถ จัดการข้อมูลได้อย่างมีประสิทธิภาพมากขึ้น
    - รองรับการวิเคราะห์ข้อมูลแบบเรียลไทม์

    ✅ Dell เปิดตัว AI PC รุ่นใหม่ที่มีประสิทธิภาพสูงขึ้น
    - มีแบตเตอรี่ที่ใช้งานได้นานขึ้น และรองรับการประมวลผล AI บนเครื่องโดยตรง

    ✅ การอภิปรายเกี่ยวกับ AI ในอุตสาหกรรมภาพยนตร์
    - Tom Hanks และ Ron Howard พูดถึงผลกระทบของ AI ต่อการสร้างภาพยนตร์
    - มีการถกเถียงเกี่ยวกับ การใช้ Deepfake และ CGI ในอนาคต

    ‼️ AI อาจเข้ามาแทนที่บางอาชีพในอนาคต
    - ผู้เชี่ยวชาญ แนะนำให้ธุรกิจปรับตัวและพัฒนาทักษะใหม่ ๆ

    ‼️ การใช้ AI ในภาพยนตร์อาจต้องการกฎหมายควบคุม
    - Tom Hanks เรียกร้องให้รัฐบาลออกกฎหมายเกี่ยวกับลิขสิทธิ์ของบุคคลในโลกดิจิทัล

    https://www.techradar.com/pro/live/dell-technologies-world-2025-all-the-latest-news-and-updates-live
    Dell Technologies World 2025: การเปลี่ยนแปลงครั้งใหญ่ในโลกเทคโนโลยี งาน Dell Technologies World 2025 ได้เผยโฉมเทคโนโลยีใหม่ ๆ ที่จะมีบทบาทสำคัญในอนาคต โดยเน้นไปที่ AI, Cloud Computing, และโครงสร้างพื้นฐานด้านข้อมูล พร้อมการอภิปรายจากบุคคลสำคัญในวงการ 🔍 ไฮไลท์สำคัญจากงาน Dell Technologies World 2025 ✅ Dell เปิดตัว AI Factory รุ่นใหม่ - เป็นแพลตฟอร์มที่ช่วยให้ธุรกิจสามารถ นำ AI ไปใช้ได้อย่างมีประสิทธิภาพมากขึ้น - มีการลงทุนในโครงสร้างพื้นฐาน AI มากกว่าการลงทุนในโครงการ Apollo ที่ส่งมนุษย์ไปดวงจันทร์ ✅ Dell ร่วมมือกับ Google นำ Gemini AI มาสู่เซิร์ฟเวอร์ PowerEdge - ลูกค้าของ Dell สามารถใช้โมเดล AI ของ Google ได้โดยตรงบนเซิร์ฟเวอร์ของตน ✅ เปิดตัว Dell AI Data Platform และ Data Lakehouse - ช่วยให้ธุรกิจสามารถ จัดการข้อมูลได้อย่างมีประสิทธิภาพมากขึ้น - รองรับการวิเคราะห์ข้อมูลแบบเรียลไทม์ ✅ Dell เปิดตัว AI PC รุ่นใหม่ที่มีประสิทธิภาพสูงขึ้น - มีแบตเตอรี่ที่ใช้งานได้นานขึ้น และรองรับการประมวลผล AI บนเครื่องโดยตรง ✅ การอภิปรายเกี่ยวกับ AI ในอุตสาหกรรมภาพยนตร์ - Tom Hanks และ Ron Howard พูดถึงผลกระทบของ AI ต่อการสร้างภาพยนตร์ - มีการถกเถียงเกี่ยวกับ การใช้ Deepfake และ CGI ในอนาคต ‼️ AI อาจเข้ามาแทนที่บางอาชีพในอนาคต - ผู้เชี่ยวชาญ แนะนำให้ธุรกิจปรับตัวและพัฒนาทักษะใหม่ ๆ ‼️ การใช้ AI ในภาพยนตร์อาจต้องการกฎหมายควบคุม - Tom Hanks เรียกร้องให้รัฐบาลออกกฎหมายเกี่ยวกับลิขสิทธิ์ของบุคคลในโลกดิจิทัล https://www.techradar.com/pro/live/dell-technologies-world-2025-all-the-latest-news-and-updates-live
    0 ความคิดเห็น 0 การแบ่งปัน 267 มุมมอง 0 รีวิว
  • AI สามารถระบุตำแหน่งของคุณจากภาพที่ไม่มีข้อมูล GPS ได้อย่างแม่นยำ

    นักวิจัยด้านความปลอดภัยไซเบอร์พบว่า AI สามารถใช้เบาะแสเล็ก ๆ น้อย ๆ ในภาพเพื่อระบุตำแหน่งของคุณได้ แม้ว่าภาพนั้นจะถูกลบข้อมูลเมตา (Metadata) เช่น GPS, เวลา และวันที่ ออกไปแล้ว

    🔍 รายละเอียดสำคัญเกี่ยวกับความสามารถของ AI ในการระบุตำแหน่ง
    ✅ AI สามารถใช้รายละเอียดเล็ก ๆ น้อย ๆ ในภาพเพื่อระบุตำแหน่งของคุณ
    - เช่น รูปแบบสถาปัตยกรรม, ประเภทของต้นไม้ หรือแม้แต่แบรนด์ของรถเข็นที่ปรากฏในภาพ

    ✅ Malwarebytes พบว่า ChatGPT มีความสามารถ "creepy good" ในการเดาตำแหน่งจากภาพ
    - AI สามารถวิเคราะห์สิ่งแวดล้อมและจำกัดขอบเขตของสถานที่ได้อย่างแม่นยำ

    ✅ นักวิจัยจาก Fraunhofer Heinrich-Hertz-Institute พบว่า AI สามารถสร้าง Deepfake ที่มีสัญญาณชีพจร
    - ทำให้ การตรวจจับ Deepfake ด้วยเทคนิคเดิม เช่น การวิเคราะห์อัตราการเต้นของหัวใจ อาจใช้ไม่ได้ผลอีกต่อไป

    ✅ การพัฒนา AI ด้านการวิเคราะห์ภาพกำลังทำให้การตรวจจับเนื้อหาปลอมยากขึ้น
    - นักวิจัย กำลังมองหาวิธีใหม่ในการตรวจจับ Deepfake ที่มีคุณภาพสูง

    https://www.thestar.com.my/tech/tech-news/2025/05/17/039creepy-good039-ai-can-now-tell-your-location-from-obscure-photographs
    AI สามารถระบุตำแหน่งของคุณจากภาพที่ไม่มีข้อมูล GPS ได้อย่างแม่นยำ นักวิจัยด้านความปลอดภัยไซเบอร์พบว่า AI สามารถใช้เบาะแสเล็ก ๆ น้อย ๆ ในภาพเพื่อระบุตำแหน่งของคุณได้ แม้ว่าภาพนั้นจะถูกลบข้อมูลเมตา (Metadata) เช่น GPS, เวลา และวันที่ ออกไปแล้ว 🔍 รายละเอียดสำคัญเกี่ยวกับความสามารถของ AI ในการระบุตำแหน่ง ✅ AI สามารถใช้รายละเอียดเล็ก ๆ น้อย ๆ ในภาพเพื่อระบุตำแหน่งของคุณ - เช่น รูปแบบสถาปัตยกรรม, ประเภทของต้นไม้ หรือแม้แต่แบรนด์ของรถเข็นที่ปรากฏในภาพ ✅ Malwarebytes พบว่า ChatGPT มีความสามารถ "creepy good" ในการเดาตำแหน่งจากภาพ - AI สามารถวิเคราะห์สิ่งแวดล้อมและจำกัดขอบเขตของสถานที่ได้อย่างแม่นยำ ✅ นักวิจัยจาก Fraunhofer Heinrich-Hertz-Institute พบว่า AI สามารถสร้าง Deepfake ที่มีสัญญาณชีพจร - ทำให้ การตรวจจับ Deepfake ด้วยเทคนิคเดิม เช่น การวิเคราะห์อัตราการเต้นของหัวใจ อาจใช้ไม่ได้ผลอีกต่อไป ✅ การพัฒนา AI ด้านการวิเคราะห์ภาพกำลังทำให้การตรวจจับเนื้อหาปลอมยากขึ้น - นักวิจัย กำลังมองหาวิธีใหม่ในการตรวจจับ Deepfake ที่มีคุณภาพสูง https://www.thestar.com.my/tech/tech-news/2025/05/17/039creepy-good039-ai-can-now-tell-your-location-from-obscure-photographs
    WWW.THESTAR.COM.MY
    'Creepy good': AI can now tell your location from obscure photographs
    The chatbot was albe to use clues and cues in architecture and environment to narrow down possible locations in photos before either nailing it or coming uncannily close.
    0 ความคิดเห็น 0 การแบ่งปัน 208 มุมมอง 0 รีวิว
  • Deepfake และความเสี่ยงของการอัปโหลดภาพใบหน้าสู่ AI

    การใช้ AI เพื่อสร้างภาพเซลฟี่ที่ดูสมจริงกำลังเป็นที่นิยม แต่ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์เตือนว่า การอัปโหลดภาพใบหน้าของคุณไปยัง AI อาจมีความเสี่ยง โดยเฉพาะอย่างยิ่ง เมื่อข้อมูลเหล่านี้สามารถถูกนำไปใช้ในทางที่ผิด เช่น การสร้าง Deepfake หรือการโจมตีทางไซเบอร์

    🔍 รายละเอียดสำคัญเกี่ยวกับความเสี่ยงของ AI และ Deepfake
    ✅ AI สามารถนำภาพใบหน้าของคุณไปใช้ในการสร้าง Deepfake ได้
    - ภาพที่อัปโหลด อาจถูกนำไปใช้ในวิดีโอปลอม หรือเนื้อหาที่ไม่เหมาะสม

    ✅ ผู้ให้บริการ AI อาจบันทึกข้อมูลส่วนตัวของคุณ เช่น IP และอีเมล
    - ทำให้ คุณอาจเปิดเผยข้อมูลมากกว่าที่คิด

    ✅ AI สามารถวิเคราะห์ใบหน้า อายุ ท่าทาง และอารมณ์จากภาพที่อัปโหลด
    - เทคโนโลยีนี้ สามารถใช้ในการติดตามตัวบุคคลได้

    ✅ AI สามารถคาดเดาตำแหน่งของคุณจากภาพที่ไม่มีจุดสังเกตชัดเจน
    - แม้ไม่มีสถานที่ในพื้นหลัง AI ก็สามารถระบุตำแหน่งของคุณได้

    ✅ ข้อมูลที่อัปโหลดอาจถูกนำไปใช้ในการโจมตีแบบฟิชชิ่ง
    - เช่น การสร้างบัญชีปลอม หรือการหลอกลวงทางออนไลน์

    ✅ เด็กและเยาวชนมีความเสี่ยงสูงต่อการถูกนำภาพไปใช้ในทางที่ผิด
    - ควรมี การให้ความรู้และการควบคุมการใช้งาน AI สำหรับเด็ก

    ‼️ ภาพที่อัปโหลดไปยัง AI อาจไม่สามารถลบออกจากระบบได้
    - หากผู้ให้บริการ ไม่ได้อยู่ภายใต้กฎหมายคุ้มครองข้อมูล เช่น GDPR

    ‼️ AI อาจใช้ข้อมูลใบหน้าเพื่อฝึกระบบจดจำใบหน้าโดยไม่ได้รับอนุญาต
    - อาจนำไปสู่ การใช้เทคโนโลยีติดตามตัวบุคคลในทางที่ผิด

    https://www.thestar.com.my/tech/tech-news/2025/05/17/deepfake-me-are-there-risks-to-uploading-your-face-for-ai-selfies
    Deepfake และความเสี่ยงของการอัปโหลดภาพใบหน้าสู่ AI การใช้ AI เพื่อสร้างภาพเซลฟี่ที่ดูสมจริงกำลังเป็นที่นิยม แต่ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์เตือนว่า การอัปโหลดภาพใบหน้าของคุณไปยัง AI อาจมีความเสี่ยง โดยเฉพาะอย่างยิ่ง เมื่อข้อมูลเหล่านี้สามารถถูกนำไปใช้ในทางที่ผิด เช่น การสร้าง Deepfake หรือการโจมตีทางไซเบอร์ 🔍 รายละเอียดสำคัญเกี่ยวกับความเสี่ยงของ AI และ Deepfake ✅ AI สามารถนำภาพใบหน้าของคุณไปใช้ในการสร้าง Deepfake ได้ - ภาพที่อัปโหลด อาจถูกนำไปใช้ในวิดีโอปลอม หรือเนื้อหาที่ไม่เหมาะสม ✅ ผู้ให้บริการ AI อาจบันทึกข้อมูลส่วนตัวของคุณ เช่น IP และอีเมล - ทำให้ คุณอาจเปิดเผยข้อมูลมากกว่าที่คิด ✅ AI สามารถวิเคราะห์ใบหน้า อายุ ท่าทาง และอารมณ์จากภาพที่อัปโหลด - เทคโนโลยีนี้ สามารถใช้ในการติดตามตัวบุคคลได้ ✅ AI สามารถคาดเดาตำแหน่งของคุณจากภาพที่ไม่มีจุดสังเกตชัดเจน - แม้ไม่มีสถานที่ในพื้นหลัง AI ก็สามารถระบุตำแหน่งของคุณได้ ✅ ข้อมูลที่อัปโหลดอาจถูกนำไปใช้ในการโจมตีแบบฟิชชิ่ง - เช่น การสร้างบัญชีปลอม หรือการหลอกลวงทางออนไลน์ ✅ เด็กและเยาวชนมีความเสี่ยงสูงต่อการถูกนำภาพไปใช้ในทางที่ผิด - ควรมี การให้ความรู้และการควบคุมการใช้งาน AI สำหรับเด็ก ‼️ ภาพที่อัปโหลดไปยัง AI อาจไม่สามารถลบออกจากระบบได้ - หากผู้ให้บริการ ไม่ได้อยู่ภายใต้กฎหมายคุ้มครองข้อมูล เช่น GDPR ‼️ AI อาจใช้ข้อมูลใบหน้าเพื่อฝึกระบบจดจำใบหน้าโดยไม่ได้รับอนุญาต - อาจนำไปสู่ การใช้เทคโนโลยีติดตามตัวบุคคลในทางที่ผิด https://www.thestar.com.my/tech/tech-news/2025/05/17/deepfake-me-are-there-risks-to-uploading-your-face-for-ai-selfies
    WWW.THESTAR.COM.MY
    Deepfake me: Are there risks to uploading your face for AI selfies?
    New research has even shown that AI is now suprisingly good at guessing your location even from obscure photographs without recognisable places in the background.
    0 ความคิดเห็น 0 การแบ่งปัน 177 มุมมอง 0 รีวิว
  • ความรักแท้หรือ Deepfake? โลกของการออกเดตในยุค AI

    Beth Hyland หญิงสาวจากรัฐมิชิแกน เชื่อว่าเธอพบรักแท้บน Tinder แต่ความจริงกลับกลายเป็นว่าเธอ ตกเป็นเหยื่อของนักต้มตุ๋นออนไลน์ ที่ใช้ วิดีโอ Deepfake บน Skype และภาพปลอมของชายคนหนึ่ง เพื่อสร้างตัวตนหลอกลวง

    ✅ นักต้มตุ๋นใช้วิดีโอ Deepfake และภาพปลอมเพื่อสร้างตัวตนที่ดูน่าเชื่อถือ
    - ทำให้ เหยื่อหลงเชื่อว่ากำลังพูดคุยกับบุคคลจริง

    ✅ Beth Hyland ถูกหลอกให้เชื่อว่าเธอกำลังคบหากับชายชาวฝรั่งเศสชื่อ "Richard"
    - นักต้มตุ๋น ใช้เทคนิคทางจิตวิทยาเพื่อสร้างความไว้วางใจ

    ✅ แอปหาคู่ส่วนใหญ่ไม่แจ้งเตือนผู้ใช้เมื่อบัญชีของนักต้มตุ๋นถูกลบ
    - ทำให้ เหยื่อไม่รู้ว่าตนเองเคยตกเป็นเป้าหมายของการหลอกลวง

    ✅ มีการเสนอร่างกฎหมายใหม่ให้แอปหาคู่ต้องแจ้งเตือนผู้ใช้เกี่ยวกับบัญชีที่เป็นภัย
    - เพื่อ ช่วยให้ผู้ใช้สามารถหลีกเลี่ยงการตกเป็นเหยื่อได้

    ✅ AI กำลังเปลี่ยนแปลงโลกของการออกเดต โดยทำให้การหลอกลวงมีความแนบเนียนมากขึ้น
    - นักต้มตุ๋น สามารถใช้ AI เพื่อสร้างตัวตนปลอมที่ดูสมจริงมากขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/05/16/deep-love-or-deepfake-dating-in-the-time-of-ai
    ความรักแท้หรือ Deepfake? โลกของการออกเดตในยุค AI Beth Hyland หญิงสาวจากรัฐมิชิแกน เชื่อว่าเธอพบรักแท้บน Tinder แต่ความจริงกลับกลายเป็นว่าเธอ ตกเป็นเหยื่อของนักต้มตุ๋นออนไลน์ ที่ใช้ วิดีโอ Deepfake บน Skype และภาพปลอมของชายคนหนึ่ง เพื่อสร้างตัวตนหลอกลวง ✅ นักต้มตุ๋นใช้วิดีโอ Deepfake และภาพปลอมเพื่อสร้างตัวตนที่ดูน่าเชื่อถือ - ทำให้ เหยื่อหลงเชื่อว่ากำลังพูดคุยกับบุคคลจริง ✅ Beth Hyland ถูกหลอกให้เชื่อว่าเธอกำลังคบหากับชายชาวฝรั่งเศสชื่อ "Richard" - นักต้มตุ๋น ใช้เทคนิคทางจิตวิทยาเพื่อสร้างความไว้วางใจ ✅ แอปหาคู่ส่วนใหญ่ไม่แจ้งเตือนผู้ใช้เมื่อบัญชีของนักต้มตุ๋นถูกลบ - ทำให้ เหยื่อไม่รู้ว่าตนเองเคยตกเป็นเป้าหมายของการหลอกลวง ✅ มีการเสนอร่างกฎหมายใหม่ให้แอปหาคู่ต้องแจ้งเตือนผู้ใช้เกี่ยวกับบัญชีที่เป็นภัย - เพื่อ ช่วยให้ผู้ใช้สามารถหลีกเลี่ยงการตกเป็นเหยื่อได้ ✅ AI กำลังเปลี่ยนแปลงโลกของการออกเดต โดยทำให้การหลอกลวงมีความแนบเนียนมากขึ้น - นักต้มตุ๋น สามารถใช้ AI เพื่อสร้างตัวตนปลอมที่ดูสมจริงมากขึ้น https://www.thestar.com.my/tech/tech-news/2025/05/16/deep-love-or-deepfake-dating-in-the-time-of-ai
    WWW.THESTAR.COM.MY
    Deep love or deepfake? Dating in the time of AI
    A projected 8 million deepfakes will be shared worldwide in 2025, risking a romance scam explosion.
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • ภัยคุกคามจาก Deepfake: ความเสี่ยงที่องค์กรต้องรับมืออย่างเร่งด่วน

    Deepfake กำลังกลายเป็น ภัยคุกคามทางไซเบอร์ที่เพิ่มขึ้นอย่างรวดเร็ว โดยเฉพาะในรูปแบบ เสียงและวิดีโอปลอม ที่สามารถหลอกลวงพนักงานให้ทำธุรกรรมทางการเงินโดยไม่ได้ตรวจสอบให้ดี ตัวอย่างเช่น บริษัทค้าปลีกแห่งหนึ่งสูญเสียเงินกว่า $700,000 หลังจากพนักงานได้รับโทรศัพท์จาก CFO ปลอมที่ใช้เทคโนโลยี AI สร้างเสียงเลียนแบบ

    ✅ Deepfake สามารถใช้เลียนแบบเสียงและวิดีโอของบุคคลสำคัญในองค์กร
    - เช่น CEO หรือ CFO เพื่อสั่งให้พนักงานทำธุรกรรมทางการเงิน

    ✅ องค์กรต้องใช้มาตรการตรวจสอบหลายชั้นเพื่อป้องกันการโจมตี
    - เช่น การยืนยันตัวตนผ่านหมายเลขโทรศัพท์ที่รู้จักกันดี

    ✅ การฝึกอบรมพนักงานให้รู้จักสังเกต Deepfake เป็นสิ่งสำคัญ
    - เช่น เสียงที่ดูเร่งรีบผิดปกติ หรือการเคลื่อนไหวของใบหน้าที่ไม่เป็นธรรมชาติ

    ✅ Deepfake ไม่ได้จำกัดอยู่แค่การหลอกลวงทางการเงิน แต่ยังใช้ในการสมัครงานปลอม
    - เช่น กรณีที่บริษัท Exabeam พบผู้สมัครงานที่ใช้วิดีโอ Deepfake ในการสัมภาษณ์

    ✅ รัฐบาลสหรัฐฯ กำลังพิจารณากฎหมาย No Fakes Act เพื่อควบคุมการใช้ Deepfake
    - กฎหมายนี้จะช่วยให้ บุคคลสามารถควบคุมการใช้เสียงและภาพของตนเองในสื่อดิจิทัล

    https://www.csoonline.com/article/3982379/deepfake-attacks-are-inevitable-cisos-cant-prepare-soon-enough.html
    ภัยคุกคามจาก Deepfake: ความเสี่ยงที่องค์กรต้องรับมืออย่างเร่งด่วน Deepfake กำลังกลายเป็น ภัยคุกคามทางไซเบอร์ที่เพิ่มขึ้นอย่างรวดเร็ว โดยเฉพาะในรูปแบบ เสียงและวิดีโอปลอม ที่สามารถหลอกลวงพนักงานให้ทำธุรกรรมทางการเงินโดยไม่ได้ตรวจสอบให้ดี ตัวอย่างเช่น บริษัทค้าปลีกแห่งหนึ่งสูญเสียเงินกว่า $700,000 หลังจากพนักงานได้รับโทรศัพท์จาก CFO ปลอมที่ใช้เทคโนโลยี AI สร้างเสียงเลียนแบบ ✅ Deepfake สามารถใช้เลียนแบบเสียงและวิดีโอของบุคคลสำคัญในองค์กร - เช่น CEO หรือ CFO เพื่อสั่งให้พนักงานทำธุรกรรมทางการเงิน ✅ องค์กรต้องใช้มาตรการตรวจสอบหลายชั้นเพื่อป้องกันการโจมตี - เช่น การยืนยันตัวตนผ่านหมายเลขโทรศัพท์ที่รู้จักกันดี ✅ การฝึกอบรมพนักงานให้รู้จักสังเกต Deepfake เป็นสิ่งสำคัญ - เช่น เสียงที่ดูเร่งรีบผิดปกติ หรือการเคลื่อนไหวของใบหน้าที่ไม่เป็นธรรมชาติ ✅ Deepfake ไม่ได้จำกัดอยู่แค่การหลอกลวงทางการเงิน แต่ยังใช้ในการสมัครงานปลอม - เช่น กรณีที่บริษัท Exabeam พบผู้สมัครงานที่ใช้วิดีโอ Deepfake ในการสัมภาษณ์ ✅ รัฐบาลสหรัฐฯ กำลังพิจารณากฎหมาย No Fakes Act เพื่อควบคุมการใช้ Deepfake - กฎหมายนี้จะช่วยให้ บุคคลสามารถควบคุมการใช้เสียงและภาพของตนเองในสื่อดิจิทัล https://www.csoonline.com/article/3982379/deepfake-attacks-are-inevitable-cisos-cant-prepare-soon-enough.html
    WWW.CSOONLINE.COM
    Deepfake attacks are inevitable. CISOs can’t prepare soon enough.
    Security leaders must develop a multi-layered strategy to defend against deepfake voice and video attacks, which experts expect to increase quickly in volume and effectiveness.
    0 ความคิดเห็น 0 การแบ่งปัน 130 มุมมอง 0 รีวิว
  • นักวิจัยด้านความปลอดภัยเตือนว่า กลุ่มแฮกเกอร์จากเกาหลีเหนือ กำลังใช้ AI และเทคนิคปลอมตัวขั้นสูง เพื่อสมัครงานระยะไกลในบริษัทเทคโนโลยีระดับโลก โดยมีเป้าหมายเพื่อ ขโมยทรัพย์สินทางปัญญาและรับเงินเดือนจากบริษัทตะวันตก

    ที่งาน RSA Conference ในซานฟรานซิสโก ผู้เชี่ยวชาญด้านความปลอดภัยเปิดเผยว่า แฮกเกอร์เหล่านี้ใช้ AI สร้างโปรไฟล์ LinkedIn ที่ดูน่าเชื่อถือ และใช้ ทีมงานเบื้องหลังช่วยตอบคำถามในการสัมภาษณ์งาน นอกจากนี้ ยังมีการใช้ deepfake และฟาร์มแล็ปท็อป เพื่อปลอมแปลงตำแหน่งที่ตั้งและตัวตนของผู้สมัคร

    ✅ แฮกเกอร์ใช้ AI และ deepfake เพื่อสมัครงานระยะไกล
    - สร้างโปรไฟล์ LinkedIn ที่ดูน่าเชื่อถือ
    - ใช้ทีมงานเบื้องหลังช่วยตอบคำถามในการสัมภาษณ์

    ✅ เทคนิคการปลอมตัวที่ซับซ้อน
    - ใช้ ฟาร์มแล็ปท็อป ในสหรัฐฯ เพื่อปลอมแปลงตำแหน่งที่ตั้ง
    - ใช้ deepfake เพื่อหลอกทีมสรรหาบุคลากร

    ✅ เป้าหมายของแฮกเกอร์
    - ขโมยทรัพย์สินทางปัญญาโดยค่อย ๆ ส่งข้อมูลออกไปทีละน้อย
    - รับเงินเดือนจากบริษัทตะวันตกเพื่อสนับสนุนรัฐบาลเกาหลีเหนือ

    ✅ แนวทางป้องกันที่แนะนำ
    - ใช้ คำถามนอกบท เช่น "คิมจองอึน อ้วนแค่ไหน?" เพื่อทดสอบปฏิกิริยาของผู้สมัคร
    - จัดสัมภาษณ์งาน ภายในองค์กร เพื่อตรวจสอบพฤติกรรมที่ผิดปกติ

    https://www.techradar.com/pro/security/asking-remote-job-candidates-this-shocking-question-could-save-your-company-big-bucks-security-expert-says
    นักวิจัยด้านความปลอดภัยเตือนว่า กลุ่มแฮกเกอร์จากเกาหลีเหนือ กำลังใช้ AI และเทคนิคปลอมตัวขั้นสูง เพื่อสมัครงานระยะไกลในบริษัทเทคโนโลยีระดับโลก โดยมีเป้าหมายเพื่อ ขโมยทรัพย์สินทางปัญญาและรับเงินเดือนจากบริษัทตะวันตก ที่งาน RSA Conference ในซานฟรานซิสโก ผู้เชี่ยวชาญด้านความปลอดภัยเปิดเผยว่า แฮกเกอร์เหล่านี้ใช้ AI สร้างโปรไฟล์ LinkedIn ที่ดูน่าเชื่อถือ และใช้ ทีมงานเบื้องหลังช่วยตอบคำถามในการสัมภาษณ์งาน นอกจากนี้ ยังมีการใช้ deepfake และฟาร์มแล็ปท็อป เพื่อปลอมแปลงตำแหน่งที่ตั้งและตัวตนของผู้สมัคร ✅ แฮกเกอร์ใช้ AI และ deepfake เพื่อสมัครงานระยะไกล - สร้างโปรไฟล์ LinkedIn ที่ดูน่าเชื่อถือ - ใช้ทีมงานเบื้องหลังช่วยตอบคำถามในการสัมภาษณ์ ✅ เทคนิคการปลอมตัวที่ซับซ้อน - ใช้ ฟาร์มแล็ปท็อป ในสหรัฐฯ เพื่อปลอมแปลงตำแหน่งที่ตั้ง - ใช้ deepfake เพื่อหลอกทีมสรรหาบุคลากร ✅ เป้าหมายของแฮกเกอร์ - ขโมยทรัพย์สินทางปัญญาโดยค่อย ๆ ส่งข้อมูลออกไปทีละน้อย - รับเงินเดือนจากบริษัทตะวันตกเพื่อสนับสนุนรัฐบาลเกาหลีเหนือ ✅ แนวทางป้องกันที่แนะนำ - ใช้ คำถามนอกบท เช่น "คิมจองอึน อ้วนแค่ไหน?" เพื่อทดสอบปฏิกิริยาของผู้สมัคร - จัดสัมภาษณ์งาน ภายในองค์กร เพื่อตรวจสอบพฤติกรรมที่ผิดปกติ https://www.techradar.com/pro/security/asking-remote-job-candidates-this-shocking-question-could-save-your-company-big-bucks-security-expert-says
    0 ความคิดเห็น 0 การแบ่งปัน 273 มุมมอง 0 รีวิว
  • ศาลสูงรัฐกรณาฏกะของอินเดียได้มีคำสั่งให้รัฐบาลอินเดีย บล็อก Proton Mail ซึ่งเป็นบริการอีเมลเข้ารหัสจากสวิตเซอร์แลนด์ หลังจากบริษัทในกรุงนิวเดลีร้องเรียนว่ามีผู้ใช้ที่ไม่เปิดเผยตัวตนส่ง อีเมลที่มีเนื้อหาหมิ่นประมาทและภาพ deepfake ไปยังพนักงานหญิงของบริษัท

    คำสั่งบล็อกนี้ออกภายใต้ มาตรา 69 ของพระราชบัญญัติเทคโนโลยีสารสนเทศปี 2008 ซึ่งอนุญาตให้รัฐบาลอินเดีย บล็อกเว็บไซต์ที่มีเนื้อหาผิดกฎหมาย อย่างไรก็ตาม Proton Mail ระบุว่า รัฐบาลสวิตเซอร์แลนด์กำลังเจรจากับทางการอินเดีย เพื่อป้องกันการบล็อกบริการนี้

    นี่ไม่ใช่ครั้งแรกที่ Proton Mail ถูกขู่ว่าจะถูกบล็อกในอินเดีย ก่อนหน้านี้ในเดือนกุมภาพันธ์ 2024 มีข้อเสนอให้บล็อกบริการนี้หลังจากพบว่า มีการใช้ Proton Mail ในการส่งคำขู่ระเบิดปลอม

    ✅ เหตุผลในการบล็อก Proton Mail
    - บริษัทในกรุงนิวเดลีร้องเรียนว่ามีผู้ใช้ที่ไม่เปิดเผยตัวตนส่ง อีเมลที่มีเนื้อหาหมิ่นประมาทและภาพ deepfake ไปยังพนักงานหญิง
    - คำสั่งบล็อกออกภายใต้ มาตรา 69 ของพระราชบัญญัติเทคโนโลยีสารสนเทศปี 2008

    ✅ การตอบสนองของ Proton Mail
    - Proton Mail ระบุว่า รัฐบาลสวิตเซอร์แลนด์กำลังเจรจากับทางการอินเดีย เพื่อป้องกันการบล็อก
    - บริการยังสามารถเข้าถึงได้ในอินเดีย ณ วันที่ 30 เมษายน 2025

    ✅ เหตุการณ์ที่เคยเกิดขึ้นก่อนหน้านี้
    - ในเดือนกุมภาพันธ์ 2024 มีข้อเสนอให้บล็อก Proton Mail หลังจากพบว่า มีการใช้บริการนี้ในการส่งคำขู่ระเบิดปลอม

    ✅ Proton Mail และบริการอื่นๆ
    - Proton Mail เป็นบริการอีเมลเข้ารหัสที่ได้รับความนิยม
    - บริษัทยังให้บริการ Proton VPN, Proton Drive และ Proton Calendar

    https://www.techradar.com/vpn/vpn-privacy-security/proton-mail-hit-with-blocking-order-in-india-heres-everything-we-know-so-far
    ศาลสูงรัฐกรณาฏกะของอินเดียได้มีคำสั่งให้รัฐบาลอินเดีย บล็อก Proton Mail ซึ่งเป็นบริการอีเมลเข้ารหัสจากสวิตเซอร์แลนด์ หลังจากบริษัทในกรุงนิวเดลีร้องเรียนว่ามีผู้ใช้ที่ไม่เปิดเผยตัวตนส่ง อีเมลที่มีเนื้อหาหมิ่นประมาทและภาพ deepfake ไปยังพนักงานหญิงของบริษัท คำสั่งบล็อกนี้ออกภายใต้ มาตรา 69 ของพระราชบัญญัติเทคโนโลยีสารสนเทศปี 2008 ซึ่งอนุญาตให้รัฐบาลอินเดีย บล็อกเว็บไซต์ที่มีเนื้อหาผิดกฎหมาย อย่างไรก็ตาม Proton Mail ระบุว่า รัฐบาลสวิตเซอร์แลนด์กำลังเจรจากับทางการอินเดีย เพื่อป้องกันการบล็อกบริการนี้ นี่ไม่ใช่ครั้งแรกที่ Proton Mail ถูกขู่ว่าจะถูกบล็อกในอินเดีย ก่อนหน้านี้ในเดือนกุมภาพันธ์ 2024 มีข้อเสนอให้บล็อกบริการนี้หลังจากพบว่า มีการใช้ Proton Mail ในการส่งคำขู่ระเบิดปลอม ✅ เหตุผลในการบล็อก Proton Mail - บริษัทในกรุงนิวเดลีร้องเรียนว่ามีผู้ใช้ที่ไม่เปิดเผยตัวตนส่ง อีเมลที่มีเนื้อหาหมิ่นประมาทและภาพ deepfake ไปยังพนักงานหญิง - คำสั่งบล็อกออกภายใต้ มาตรา 69 ของพระราชบัญญัติเทคโนโลยีสารสนเทศปี 2008 ✅ การตอบสนองของ Proton Mail - Proton Mail ระบุว่า รัฐบาลสวิตเซอร์แลนด์กำลังเจรจากับทางการอินเดีย เพื่อป้องกันการบล็อก - บริการยังสามารถเข้าถึงได้ในอินเดีย ณ วันที่ 30 เมษายน 2025 ✅ เหตุการณ์ที่เคยเกิดขึ้นก่อนหน้านี้ - ในเดือนกุมภาพันธ์ 2024 มีข้อเสนอให้บล็อก Proton Mail หลังจากพบว่า มีการใช้บริการนี้ในการส่งคำขู่ระเบิดปลอม ✅ Proton Mail และบริการอื่นๆ - Proton Mail เป็นบริการอีเมลเข้ารหัสที่ได้รับความนิยม - บริษัทยังให้บริการ Proton VPN, Proton Drive และ Proton Calendar https://www.techradar.com/vpn/vpn-privacy-security/proton-mail-hit-with-blocking-order-in-india-heres-everything-we-know-so-far
    WWW.TECHRADAR.COM
    Proton Mail hit with blocking order in India - here's everything we know so far
    Proton Mail could soon stop working in India after a court ruling
    0 ความคิดเห็น 0 การแบ่งปัน 263 มุมมอง 0 รีวิว
  • บทความนี้กล่าวถึงคำเตือนจาก FBI เกี่ยวกับการใช้ปัญญาประดิษฐ์ (AI) ในการโจมตีทางไซเบอร์ที่มีเป้าหมายเป็นโครงสร้างพื้นฐานสำคัญของสหรัฐฯ โดยเฉพาะจากกลุ่มที่ได้รับการสนับสนุนจากรัฐบาลจีน FBI ระบุว่ากลุ่มเหล่านี้ใช้ AI ในทุกขั้นตอนของการโจมตี ตั้งแต่การค้นหาช่องโหว่ไปจนถึงการเคลื่อนย้ายภายในระบบ

    ตัวอย่างที่น่าสนใจคือกลุ่ม Volt Typhoon ที่ใช้เราเตอร์รุ่นเก่าเพื่อสร้างเครือข่ายบอตเน็ตสำหรับการโจมตี และกลุ่ม Salt Typhoon ที่เจาะระบบของบริษัทโทรคมนาคมและรัฐบาลสหรัฐฯ โดยใช้ช่องโหว่ที่ไม่ได้รับการแก้ไข

    นอกจากนี้ FBI ยังเตือนถึงการใช้เทคโนโลยี deepfake ในการหลอกลวง เช่น การปลอมตัวเป็นผู้บริหารเพื่อขอการโอนเงินหรือจัดประชุมออนไลน์

    ✅ การใช้ AI ในการโจมตี
    - กลุ่มที่ได้รับการสนับสนุนจากรัฐบาลจีนใช้ AI ในทุกขั้นตอนของการโจมตี
    - ตัวอย่างเช่น Volt Typhoon และ Salt Typhoon ที่ใช้ช่องโหว่ในอุปกรณ์เก่า

    ✅ เป้าหมายของการโจมตี
    - โครงสร้างพื้นฐานสำคัญ เช่น โทรคมนาคม พลังงาน และน้ำ
    - การเคลื่อนย้ายภายในระบบเพื่อเข้าถึงข้อมูลสำคัญ

    ✅ การใช้ deepfake ในการหลอกลวง
    - การปลอมตัวเป็นผู้บริหารเพื่อขอการโอนเงินหรือจัดประชุมออนไลน์
    - การใช้ deepfake เพื่อสร้างความน่าเชื่อถือในข้อความหลอกลวง

    ✅ คำแนะนำจาก FBI
    - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA)
    - ป้องกันการเข้าถึงที่ไม่ได้รับอนุญาตและจำกัดการเคลื่อนย้ายในระบบ

    https://www.techspot.com/news/107730-fbi-warns-china-using-ai-sharpen-cyberattacks-us.html
    บทความนี้กล่าวถึงคำเตือนจาก FBI เกี่ยวกับการใช้ปัญญาประดิษฐ์ (AI) ในการโจมตีทางไซเบอร์ที่มีเป้าหมายเป็นโครงสร้างพื้นฐานสำคัญของสหรัฐฯ โดยเฉพาะจากกลุ่มที่ได้รับการสนับสนุนจากรัฐบาลจีน FBI ระบุว่ากลุ่มเหล่านี้ใช้ AI ในทุกขั้นตอนของการโจมตี ตั้งแต่การค้นหาช่องโหว่ไปจนถึงการเคลื่อนย้ายภายในระบบ ตัวอย่างที่น่าสนใจคือกลุ่ม Volt Typhoon ที่ใช้เราเตอร์รุ่นเก่าเพื่อสร้างเครือข่ายบอตเน็ตสำหรับการโจมตี และกลุ่ม Salt Typhoon ที่เจาะระบบของบริษัทโทรคมนาคมและรัฐบาลสหรัฐฯ โดยใช้ช่องโหว่ที่ไม่ได้รับการแก้ไข นอกจากนี้ FBI ยังเตือนถึงการใช้เทคโนโลยี deepfake ในการหลอกลวง เช่น การปลอมตัวเป็นผู้บริหารเพื่อขอการโอนเงินหรือจัดประชุมออนไลน์ ✅ การใช้ AI ในการโจมตี - กลุ่มที่ได้รับการสนับสนุนจากรัฐบาลจีนใช้ AI ในทุกขั้นตอนของการโจมตี - ตัวอย่างเช่น Volt Typhoon และ Salt Typhoon ที่ใช้ช่องโหว่ในอุปกรณ์เก่า ✅ เป้าหมายของการโจมตี - โครงสร้างพื้นฐานสำคัญ เช่น โทรคมนาคม พลังงาน และน้ำ - การเคลื่อนย้ายภายในระบบเพื่อเข้าถึงข้อมูลสำคัญ ✅ การใช้ deepfake ในการหลอกลวง - การปลอมตัวเป็นผู้บริหารเพื่อขอการโอนเงินหรือจัดประชุมออนไลน์ - การใช้ deepfake เพื่อสร้างความน่าเชื่อถือในข้อความหลอกลวง ✅ คำแนะนำจาก FBI - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) - ป้องกันการเข้าถึงที่ไม่ได้รับอนุญาตและจำกัดการเคลื่อนย้ายในระบบ https://www.techspot.com/news/107730-fbi-warns-china-using-ai-sharpen-cyberattacks-us.html
    WWW.TECHSPOT.COM
    FBI warns China is using AI to sharpen cyberattacks on US infrastructure
    In an interview with The Register, FBI Deputy Assistant Director Cynthia Kaiser explained how Chinese state-backed cyber groups use artificial intelligence at every stage of their attack...
    0 ความคิดเห็น 0 การแบ่งปัน 279 มุมมอง 0 รีวิว
  • บทความนี้กล่าวถึง Take It Down Act ซึ่งเป็นกฎหมายใหม่ที่ผ่านการอนุมัติจากรัฐสภาสหรัฐฯ และกำลังรอการลงนามโดยอดีตประธานาธิบดีทรัมป์ กฎหมายนี้มีเป้าหมายเพื่อจัดการกับปัญหาภาพลักษณ์ที่ไม่เหมาะสมที่ถูกเผยแพร่โดยไม่ได้รับความยินยอม รวมถึงภาพที่ถูกสร้างหรือแก้ไขโดย AI

    กฎหมายนี้ถือเป็นก้าวสำคัญในการปกป้องสิทธิความเป็นส่วนตัว โดยเฉพาะในยุคที่เทคโนโลยี deepfake และการล้างแค้นผ่านภาพลักษณ์ (revenge porn) กลายเป็นภัยคุกคามที่เพิ่มขึ้น

    ✅ การทำให้การเผยแพร่ภาพลักษณ์ที่ไม่เหมาะสมเป็นอาชญากรรม
    - กฎหมายกำหนดให้การเผยแพร่หรือข่มขู่เผยแพร่ภาพลักษณ์ที่ไม่เหมาะสมโดยไม่ได้รับความยินยอมเป็นอาชญากรรม
    - รวมถึงภาพที่ถูกแก้ไขโดย AI ให้ดูเหมือนเป็นภาพลักษณ์ที่ไม่เหมาะสม

    ✅ ข้อกำหนดการลบภาพภายใน 48 ชั่วโมง
    - แพลตฟอร์มออนไลน์ต้องลบภาพที่ได้รับการร้องเรียนภายใน 48 ชั่วโมง
    - ต้องดำเนินการเพื่อป้องกันไม่ให้ภาพเดียวกันปรากฏอีก

    ✅ บทบาทของ FTC ในการบังคับใช้กฎหมาย
    - FTC มีหน้าที่ตรวจสอบและลงโทษแพลตฟอร์มที่ไม่ปฏิบัติตามข้อกำหนด
    - ใช้อำนาจภายใต้กฎหมายการค้าหลอกลวงเพื่อดำเนินการ

    ✅ การสนับสนุนจากหลายฝ่าย
    - กฎหมายได้รับการสนับสนุนจากทั้งพรรคเดโมแครตและรีพับลิกัน
    - มีการสนับสนุนจากบริษัทเทคโนโลยี เช่น Meta, Snap และ Google

    https://computercity.com/wiki/take-it-down-act
    บทความนี้กล่าวถึง Take It Down Act ซึ่งเป็นกฎหมายใหม่ที่ผ่านการอนุมัติจากรัฐสภาสหรัฐฯ และกำลังรอการลงนามโดยอดีตประธานาธิบดีทรัมป์ กฎหมายนี้มีเป้าหมายเพื่อจัดการกับปัญหาภาพลักษณ์ที่ไม่เหมาะสมที่ถูกเผยแพร่โดยไม่ได้รับความยินยอม รวมถึงภาพที่ถูกสร้างหรือแก้ไขโดย AI กฎหมายนี้ถือเป็นก้าวสำคัญในการปกป้องสิทธิความเป็นส่วนตัว โดยเฉพาะในยุคที่เทคโนโลยี deepfake และการล้างแค้นผ่านภาพลักษณ์ (revenge porn) กลายเป็นภัยคุกคามที่เพิ่มขึ้น ✅ การทำให้การเผยแพร่ภาพลักษณ์ที่ไม่เหมาะสมเป็นอาชญากรรม - กฎหมายกำหนดให้การเผยแพร่หรือข่มขู่เผยแพร่ภาพลักษณ์ที่ไม่เหมาะสมโดยไม่ได้รับความยินยอมเป็นอาชญากรรม - รวมถึงภาพที่ถูกแก้ไขโดย AI ให้ดูเหมือนเป็นภาพลักษณ์ที่ไม่เหมาะสม ✅ ข้อกำหนดการลบภาพภายใน 48 ชั่วโมง - แพลตฟอร์มออนไลน์ต้องลบภาพที่ได้รับการร้องเรียนภายใน 48 ชั่วโมง - ต้องดำเนินการเพื่อป้องกันไม่ให้ภาพเดียวกันปรากฏอีก ✅ บทบาทของ FTC ในการบังคับใช้กฎหมาย - FTC มีหน้าที่ตรวจสอบและลงโทษแพลตฟอร์มที่ไม่ปฏิบัติตามข้อกำหนด - ใช้อำนาจภายใต้กฎหมายการค้าหลอกลวงเพื่อดำเนินการ ✅ การสนับสนุนจากหลายฝ่าย - กฎหมายได้รับการสนับสนุนจากทั้งพรรคเดโมแครตและรีพับลิกัน - มีการสนับสนุนจากบริษัทเทคโนโลยี เช่น Meta, Snap และ Google https://computercity.com/wiki/take-it-down-act
    COMPUTERCITY.COM
    Take It Down Act: What You Need To Know
    The Take It Down Act (S.4569), recently passed by Congress and awaiting President Trump's signature, is a groundbreaking piece of legislation designed to
    0 ความคิดเห็น 0 การแบ่งปัน 192 มุมมอง 0 รีวิว
  • กฎหมายที่ถูกท้าทายนี้มีเป้าหมายป้องกันการเผยแพร่ข้อมูลเท็จที่ถูกสร้างขึ้นโดย AI เช่น รูปภาพ เสียง หรือวิดีโอที่ดูเหมือนจริง เพื่อใช้ในการโน้มน้าวประชาชนในการเลือกตั้ง หรือทำให้เกิดความเข้าใจผิดในทางการเมือง อย่างไรก็ตาม บริษัท X แย้งว่าการบังคับใช้กฎหมายดังกล่าวอาจก่อให้เกิดการเซ็นเซอร์ความคิดเห็นทางการเมือง

    นอกจากนี้ยังมีข้อมูลว่า ณ ปัจจุบัน มีอย่างน้อย 22 รัฐในสหรัฐฯ ที่มีการออกกฎหมายควบคุมการใช้ดีพเฟคในเลือกตั้ง

    ✅ บริษัท X ยื่นฟ้องรัฐมินนิโซตาเนื่องจากกฎหมายห้ามใช้ AI เพื่อสร้างดีพเฟคในการเลือกตั้ง

    ✅ บริษัท X อ้างว่ากฎหมายดังกล่าวละเมิดสิทธิในการแสดงความคิดเห็นอย่างเสรี

    ✅ X ขอให้ศาลประกาศว่ากฎหมายนี้ละเมิดรัฐธรรมนูญและขัดกับ Section 230 กฎหมายที่ปกป้องบริษัทสื่อสังคมจากการถูกฟ้องเรื่องเนื้อหาของผู้ใช้

    https://www.thestar.com.my/tech/tech-news/2025/04/24/musk039s-x-sues-to-block-minnesota-039deepfake039-law-over-free-speech-concerns
    กฎหมายที่ถูกท้าทายนี้มีเป้าหมายป้องกันการเผยแพร่ข้อมูลเท็จที่ถูกสร้างขึ้นโดย AI เช่น รูปภาพ เสียง หรือวิดีโอที่ดูเหมือนจริง เพื่อใช้ในการโน้มน้าวประชาชนในการเลือกตั้ง หรือทำให้เกิดความเข้าใจผิดในทางการเมือง อย่างไรก็ตาม บริษัท X แย้งว่าการบังคับใช้กฎหมายดังกล่าวอาจก่อให้เกิดการเซ็นเซอร์ความคิดเห็นทางการเมือง นอกจากนี้ยังมีข้อมูลว่า ณ ปัจจุบัน มีอย่างน้อย 22 รัฐในสหรัฐฯ ที่มีการออกกฎหมายควบคุมการใช้ดีพเฟคในเลือกตั้ง ✅ บริษัท X ยื่นฟ้องรัฐมินนิโซตาเนื่องจากกฎหมายห้ามใช้ AI เพื่อสร้างดีพเฟคในการเลือกตั้ง ✅ บริษัท X อ้างว่ากฎหมายดังกล่าวละเมิดสิทธิในการแสดงความคิดเห็นอย่างเสรี ✅ X ขอให้ศาลประกาศว่ากฎหมายนี้ละเมิดรัฐธรรมนูญและขัดกับ Section 230 กฎหมายที่ปกป้องบริษัทสื่อสังคมจากการถูกฟ้องเรื่องเนื้อหาของผู้ใช้ https://www.thestar.com.my/tech/tech-news/2025/04/24/musk039s-x-sues-to-block-minnesota-039deepfake039-law-over-free-speech-concerns
    WWW.THESTAR.COM.MY
    Musk's X sues to block Minnesota 'deepfake' law over free speech concerns
    WILMINGTON, Delaware (Reuters) -Elon Musk's social media platform X sued Minnesota on Wednesday over a state law that bans people from using AI-generated "deepfakes" to influence an election, which the company said violated protections of free speech.
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • รายงานล่าสุดจาก Bitdefender เปิดเผยถึงการโจมตีทางไซเบอร์ที่มุ่งเป้าไปยังบัญชีโซเชียลมีเดียยอดนิยม เช่น YouTube และ Instagram โดยแฮกเกอร์ใช้วิธีการหลากหลาย เช่น การปลอมตัวเป็นแบรนด์ดัง การใช้ deepfake ของบุคคลที่มีชื่อเสียง และการส่งลิงก์ฟิชชิ่งเพื่อหลอกลวงผู้ใช้งาน การโจมตีเหล่านี้มีเป้าหมายเพื่อขโมยข้อมูลส่วนตัวและทรัพย์สินดิจิทัล เช่น สกุลเงินคริปโต

    ✅ บัญชีโซเชียลมีเดียยอดนิยมเป็นเป้าหมายหลัก
    - แฮกเกอร์มุ่งเป้าบัญชีที่มีผู้ติดตามจำนวนมากและยอดวิวสูง
    - มีการตรวจพบ livestreams ปลอมกว่า 9,000 รายการ ในปี 2024

    ✅ การใช้ deepfake และการปลอมตัวเป็นแบรนด์ดัง
    - แฮกเกอร์ใช้ deepfake ของบุคคลที่มีชื่อเสียง เช่น Elon Musk เพื่อโปรโมตการหลอกลวง
    - การปลอมตัวเป็นแบรนด์ดัง เช่น Tesla และ SpaceX เพื่อเพิ่มความน่าเชื่อถือ

    ✅ การโจมตีผ่านฟิชชิ่งและมัลแวร์
    - การส่งลิงก์ฟิชชิ่งและไฟล์มัลแวร์ที่ปลอมเป็นเนื้อหาโฆษณา
    - การใช้โฆษณาปลอม เช่น AI tools หรือเกม GTA VI เพื่อหลอกลวงผู้ใช้งาน

    ✅ การป้องกันและคำแนะนำจาก Bitdefender
    - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) และตรวจสอบกิจกรรมบัญชีอย่างสม่ำเสมอ
    - ใช้เครื่องมือป้องกัน เช่น Bitdefender Security for Creators เพื่อเพิ่มความปลอดภัย

    https://www.techradar.com/pro/millions-at-risk-as-cybercriminals-successfully-compromise-popular-youtube-accounts-heres-how-to-stay-safe
    รายงานล่าสุดจาก Bitdefender เปิดเผยถึงการโจมตีทางไซเบอร์ที่มุ่งเป้าไปยังบัญชีโซเชียลมีเดียยอดนิยม เช่น YouTube และ Instagram โดยแฮกเกอร์ใช้วิธีการหลากหลาย เช่น การปลอมตัวเป็นแบรนด์ดัง การใช้ deepfake ของบุคคลที่มีชื่อเสียง และการส่งลิงก์ฟิชชิ่งเพื่อหลอกลวงผู้ใช้งาน การโจมตีเหล่านี้มีเป้าหมายเพื่อขโมยข้อมูลส่วนตัวและทรัพย์สินดิจิทัล เช่น สกุลเงินคริปโต ✅ บัญชีโซเชียลมีเดียยอดนิยมเป็นเป้าหมายหลัก - แฮกเกอร์มุ่งเป้าบัญชีที่มีผู้ติดตามจำนวนมากและยอดวิวสูง - มีการตรวจพบ livestreams ปลอมกว่า 9,000 รายการ ในปี 2024 ✅ การใช้ deepfake และการปลอมตัวเป็นแบรนด์ดัง - แฮกเกอร์ใช้ deepfake ของบุคคลที่มีชื่อเสียง เช่น Elon Musk เพื่อโปรโมตการหลอกลวง - การปลอมตัวเป็นแบรนด์ดัง เช่น Tesla และ SpaceX เพื่อเพิ่มความน่าเชื่อถือ ✅ การโจมตีผ่านฟิชชิ่งและมัลแวร์ - การส่งลิงก์ฟิชชิ่งและไฟล์มัลแวร์ที่ปลอมเป็นเนื้อหาโฆษณา - การใช้โฆษณาปลอม เช่น AI tools หรือเกม GTA VI เพื่อหลอกลวงผู้ใช้งาน ✅ การป้องกันและคำแนะนำจาก Bitdefender - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) และตรวจสอบกิจกรรมบัญชีอย่างสม่ำเสมอ - ใช้เครื่องมือป้องกัน เช่น Bitdefender Security for Creators เพื่อเพิ่มความปลอดภัย https://www.techradar.com/pro/millions-at-risk-as-cybercriminals-successfully-compromise-popular-youtube-accounts-heres-how-to-stay-safe
    0 ความคิดเห็น 0 การแบ่งปัน 259 มุมมอง 0 รีวิว
  • Microsoft ได้เตือนถึงความเสี่ยงที่เพิ่มขึ้นจากการใช้ AI Generative ในการสร้างการหลอกลวงออนไลน์ โดยเทคโนโลยีนี้ช่วยให้ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอม รีวิวสินค้า และแชทบอทที่หลอกลวงได้อย่างรวดเร็วและง่ายดาย นอกจากนี้ยังมีการใช้ Deepfake ในการสร้างการหลอกลวงที่ซับซ้อน เช่น การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอ

    ✅ AI ช่วยลดความซับซ้อนในการสร้างการหลอกลวงออนไลน์
    - ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอมและแบรนด์อีคอมเมิร์ซปลอมได้ในเวลาเพียงไม่กี่นาที
    - ใช้ AI ในการสร้างรีวิวสินค้าและประวัติธุรกิจที่ดูน่าเชื่อถือ

    ✅ Deepfake ถูกใช้ในการหลอกลวงที่ซับซ้อน
    - การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอและการสร้างการรับรองจากคนดังปลอม
    - Microsoft แนะนำให้สังเกตความผิดปกติ เช่น การเคลื่อนไหวของริมฝีปากที่ไม่ตรงกับเสียง

    ✅ Microsoft เพิ่มการป้องกันในเครื่องมือ Quick Assist
    - เพิ่มคำเตือนเกี่ยวกับความเสี่ยงในการแชร์หน้าจอ
    - แนะนำให้ใช้ Remote Help แทน Quick Assist สำหรับการสนับสนุนภายใน

    ✅ Microsoft ป้องกันการหลอกลวงมูลค่ากว่า 4 พันล้านดอลลาร์ในปีที่ผ่านมา
    - ปฏิเสธการสมัครสมาชิกปลอมกว่า 49,000 รายการ
    - บล็อกการสมัครสมาชิกบอทประมาณ 1.6 ล้านครั้งต่อชั่วโมง

    https://www.techspot.com/news/107641-microsoft-warns-ai-making-faster-easier-create-online.html
    Microsoft ได้เตือนถึงความเสี่ยงที่เพิ่มขึ้นจากการใช้ AI Generative ในการสร้างการหลอกลวงออนไลน์ โดยเทคโนโลยีนี้ช่วยให้ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอม รีวิวสินค้า และแชทบอทที่หลอกลวงได้อย่างรวดเร็วและง่ายดาย นอกจากนี้ยังมีการใช้ Deepfake ในการสร้างการหลอกลวงที่ซับซ้อน เช่น การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอ ✅ AI ช่วยลดความซับซ้อนในการสร้างการหลอกลวงออนไลน์ - ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอมและแบรนด์อีคอมเมิร์ซปลอมได้ในเวลาเพียงไม่กี่นาที - ใช้ AI ในการสร้างรีวิวสินค้าและประวัติธุรกิจที่ดูน่าเชื่อถือ ✅ Deepfake ถูกใช้ในการหลอกลวงที่ซับซ้อน - การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอและการสร้างการรับรองจากคนดังปลอม - Microsoft แนะนำให้สังเกตความผิดปกติ เช่น การเคลื่อนไหวของริมฝีปากที่ไม่ตรงกับเสียง ✅ Microsoft เพิ่มการป้องกันในเครื่องมือ Quick Assist - เพิ่มคำเตือนเกี่ยวกับความเสี่ยงในการแชร์หน้าจอ - แนะนำให้ใช้ Remote Help แทน Quick Assist สำหรับการสนับสนุนภายใน ✅ Microsoft ป้องกันการหลอกลวงมูลค่ากว่า 4 พันล้านดอลลาร์ในปีที่ผ่านมา - ปฏิเสธการสมัครสมาชิกปลอมกว่า 49,000 รายการ - บล็อกการสมัครสมาชิกบอทประมาณ 1.6 ล้านครั้งต่อชั่วโมง https://www.techspot.com/news/107641-microsoft-warns-ai-making-faster-easier-create-online.html
    WWW.TECHSPOT.COM
    AI is enabling cybercriminals to act quickly - and with little technical knowledge, Microsoft warns
    In its latest edition of the Cyber Signals report, Microsoft writes that AI has started to lower the technical bar for fraud and cybercrime actors looking for...
    0 ความคิดเห็น 0 การแบ่งปัน 182 มุมมอง 0 รีวิว
  • Microsoft ได้เผยแพร่ Cyber Signals Report ฉบับล่าสุด ซึ่งเน้นถึงภัยคุกคามทางไซเบอร์ที่ใช้ AI ในการสร้างเนื้อหาหลอกลวง โดยอาชญากรไซเบอร์สามารถใช้ deepfakes, voice cloning และเว็บไซต์ปลอม

    ✅ AI ช่วยให้อาชญากรไซเบอร์สามารถสร้างเนื้อหาหลอกลวงได้ง่ายขึ้น
    - ใช้ deepfakes และ voice cloning เพื่อแอบอ้างเป็นบุคคลจริง
    - สร้าง เว็บไซต์ปลอมและรีวิวสินค้า AI-generated เพื่อหลอกลวงผู้บริโภค

    ✅ Microsoft เตือนเกี่ยวกับการฉ้อโกงที่ใช้ AI
    - อาชญากรสามารถใช้ AI เพื่อสแกนข้อมูลบริษัทและสร้างโปรไฟล์ปลอมของพนักงาน
    - ใช้ AI-generated storefronts เพื่อสร้างแบรนด์ปลอมที่ดูน่าเชื่อถือ

    ✅ มาตรการป้องกันที่ Microsoft แนะนำ
    - เพิ่มการตรวจสอบตัวตนของนายจ้าง โดยใช้ Microsoft Entra ID และ multifactor authentication
    - ใช้ deepfake detection algorithms เพื่อตรวจจับการสัมภาษณ์งานที่ใช้ AI-generated faces
    - ตรวจสอบเว็บไซต์และโฆษณาที่ดูดีเกินจริง โดยใช้ Microsoft Edge typo protection

    ✅ การปรับปรุง Quick Assist เพื่อป้องกันการฉ้อโกง
    - Microsoft ได้เพิ่ม ข้อความเตือนเกี่ยวกับ tech support scams ใน Quick Assist
    - ระบบสามารถ บล็อกการเชื่อมต่อที่น่าสงสัยกว่า 4,415 ครั้งต่อวัน

    https://www.neowin.net/news/microsoft-shares-detailed-guidance-for-ai-scams-that-are-nearly-impossible-to-not-fall-for/
    Microsoft ได้เผยแพร่ Cyber Signals Report ฉบับล่าสุด ซึ่งเน้นถึงภัยคุกคามทางไซเบอร์ที่ใช้ AI ในการสร้างเนื้อหาหลอกลวง โดยอาชญากรไซเบอร์สามารถใช้ deepfakes, voice cloning และเว็บไซต์ปลอม ✅ AI ช่วยให้อาชญากรไซเบอร์สามารถสร้างเนื้อหาหลอกลวงได้ง่ายขึ้น - ใช้ deepfakes และ voice cloning เพื่อแอบอ้างเป็นบุคคลจริง - สร้าง เว็บไซต์ปลอมและรีวิวสินค้า AI-generated เพื่อหลอกลวงผู้บริโภค ✅ Microsoft เตือนเกี่ยวกับการฉ้อโกงที่ใช้ AI - อาชญากรสามารถใช้ AI เพื่อสแกนข้อมูลบริษัทและสร้างโปรไฟล์ปลอมของพนักงาน - ใช้ AI-generated storefronts เพื่อสร้างแบรนด์ปลอมที่ดูน่าเชื่อถือ ✅ มาตรการป้องกันที่ Microsoft แนะนำ - เพิ่มการตรวจสอบตัวตนของนายจ้าง โดยใช้ Microsoft Entra ID และ multifactor authentication - ใช้ deepfake detection algorithms เพื่อตรวจจับการสัมภาษณ์งานที่ใช้ AI-generated faces - ตรวจสอบเว็บไซต์และโฆษณาที่ดูดีเกินจริง โดยใช้ Microsoft Edge typo protection ✅ การปรับปรุง Quick Assist เพื่อป้องกันการฉ้อโกง - Microsoft ได้เพิ่ม ข้อความเตือนเกี่ยวกับ tech support scams ใน Quick Assist - ระบบสามารถ บล็อกการเชื่อมต่อที่น่าสงสัยกว่า 4,415 ครั้งต่อวัน https://www.neowin.net/news/microsoft-shares-detailed-guidance-for-ai-scams-that-are-nearly-impossible-to-not-fall-for/
    WWW.NEOWIN.NET
    Microsoft shares detailed guidance for AI scams that are nearly impossible to not fall for
    Microsoft has published a detailed guidance on ways to deal with modern AI-powered scams that are really difficult to detect.
    0 ความคิดเห็น 0 การแบ่งปัน 388 มุมมอง 0 รีวิว
  • นักต้มตุ๋นกำลังใช้ AI-generated voices เพื่อแอบอ้างเป็นเจ้าหน้าที่ IRS และผู้เชี่ยวชาญด้านภาษี เพื่อหลอกลวงประชาชนในช่วง Tax Day โดย Microsoft ได้ออกคำเตือนเกี่ยวกับ การโจมตีแบบ vishing (voice phishing) ที่กำลังเพิ่มขึ้น

    ✅ นักต้มตุ๋นใช้ AI-generated voices เพื่อแอบอ้างเป็นเจ้าหน้าที่ IRS
    - ใช้ deepfake voice เพื่อทำให้เสียงดูน่าเชื่อถือ
    - หลอกให้เหยื่อเปิดเผย ข้อมูลทางการเงินและเอกสารภาษี

    ✅ Microsoft เตือนเกี่ยวกับการโจมตีแบบ vishing
    - แนะนำให้ใช้ multi-factor authentication เพื่อป้องกันบัญชีออนไลน์
    - ควรตรวจสอบ URL อย่างละเอียด เพื่อหลีกเลี่ยงเว็บไซต์ปลอม

    ✅ IRS ไม่ติดต่อประชาชนผ่านอีเมลหรือโซเชียลมีเดีย
    - หากได้รับข้อความจาก IRS ผ่านช่องทางเหล่านี้ ควรสงสัยว่าเป็นการหลอกลวง
    - IRS จะติดต่อผ่าน จดหมายหรือโทรศัพท์ที่สามารถตรวจสอบได้

    ✅ นักต้มตุ๋นใช้เทคนิคใหม่เพื่อเพิ่มความน่าเชื่อถือ
    - ใช้ AI-generated emails, voice calls และวิดีโอ deepfake
    - สามารถ ปรับแต่งผลการค้นหา เพื่อให้เว็บไซต์ปลอมดูเหมือนเป็นของจริง

    ✅ กลุ่มเป้าหมายหลักของการโจมตี
    - วิศวกร, ผู้เชี่ยวชาญด้าน IT และที่ปรึกษา เป็นกลุ่มที่ถูกโจมตีมากที่สุด
    - ใช้ QR codes และบริการฝากไฟล์ เช่น Dropbox เพื่อหลอกลวงเหยื่อ

    https://www.techradar.com/pro/security/scammers-are-using-ai-generated-voices-to-impersonate-irs-tax-officials
    นักต้มตุ๋นกำลังใช้ AI-generated voices เพื่อแอบอ้างเป็นเจ้าหน้าที่ IRS และผู้เชี่ยวชาญด้านภาษี เพื่อหลอกลวงประชาชนในช่วง Tax Day โดย Microsoft ได้ออกคำเตือนเกี่ยวกับ การโจมตีแบบ vishing (voice phishing) ที่กำลังเพิ่มขึ้น ✅ นักต้มตุ๋นใช้ AI-generated voices เพื่อแอบอ้างเป็นเจ้าหน้าที่ IRS - ใช้ deepfake voice เพื่อทำให้เสียงดูน่าเชื่อถือ - หลอกให้เหยื่อเปิดเผย ข้อมูลทางการเงินและเอกสารภาษี ✅ Microsoft เตือนเกี่ยวกับการโจมตีแบบ vishing - แนะนำให้ใช้ multi-factor authentication เพื่อป้องกันบัญชีออนไลน์ - ควรตรวจสอบ URL อย่างละเอียด เพื่อหลีกเลี่ยงเว็บไซต์ปลอม ✅ IRS ไม่ติดต่อประชาชนผ่านอีเมลหรือโซเชียลมีเดีย - หากได้รับข้อความจาก IRS ผ่านช่องทางเหล่านี้ ควรสงสัยว่าเป็นการหลอกลวง - IRS จะติดต่อผ่าน จดหมายหรือโทรศัพท์ที่สามารถตรวจสอบได้ ✅ นักต้มตุ๋นใช้เทคนิคใหม่เพื่อเพิ่มความน่าเชื่อถือ - ใช้ AI-generated emails, voice calls และวิดีโอ deepfake - สามารถ ปรับแต่งผลการค้นหา เพื่อให้เว็บไซต์ปลอมดูเหมือนเป็นของจริง ✅ กลุ่มเป้าหมายหลักของการโจมตี - วิศวกร, ผู้เชี่ยวชาญด้าน IT และที่ปรึกษา เป็นกลุ่มที่ถูกโจมตีมากที่สุด - ใช้ QR codes และบริการฝากไฟล์ เช่น Dropbox เพื่อหลอกลวงเหยื่อ https://www.techradar.com/pro/security/scammers-are-using-ai-generated-voices-to-impersonate-irs-tax-officials
    0 ความคิดเห็น 0 การแบ่งปัน 365 มุมมอง 0 รีวิว
  • ข่าวนี้เล่าถึง ภัยคุกคามจากแฮกเกอร์ชาวเกาหลีเหนือ ที่แฝงตัวเข้ามาในบริษัทต่างๆ ทั่วโลกผ่านการสมัครงานในตำแหน่ง IT โดยใช้ ข้อมูลปลอมและเทคโนโลยี Deepfake เพื่อหลอกลวงนายจ้าง

    ✅ กลยุทธ์ของแฮกเกอร์เกาหลีเหนือ
    - ใช้ข้อมูลปลอม เช่น ชื่อและเอกสารของพลเมืองสหรัฐฯ
    - ใช้ Deepfake เพื่อปลอมแปลงใบหน้าระหว่างสัมภาษณ์งาน

    ✅ ภัยคุกคามต่อบริษัทต่างๆ
    - แฮกเกอร์ไม่ได้โจมตีระบบโดยตรง แต่ใช้สิทธิ์การเข้าถึงของพนักงาน
    - กระทรวงการคลังสหรัฐฯ เตือนถึงภัยคุกคามนี้ตั้งแต่ปี 2022

    ✅ ตัวอย่างเหตุการณ์จริง
    - Christina Chapman ช่วยให้แฮกเกอร์ปลอมตัวเป็นพลเมืองสหรัฐฯ และสมัครงานในบริษัทกว่า 300 แห่ง
    - Oleksandr Didenko ขายบัญชีปลอมให้แฮกเกอร์เพื่อใช้สมัครงาน

    ℹ️ ความเสี่ยงต่อความปลอดภัยขององค์กร
    - แฮกเกอร์สามารถใช้สิทธิ์ของพนักงานเพื่อเปิดทางให้กับการโจมตีไซเบอร์
    - บริษัทที่ไม่ตรวจสอบข้อมูลพนักงานอย่างละเอียดอาจตกเป็นเป้าหมาย

    ℹ️ คำแนะนำสำหรับการป้องกัน
    - ตรวจสอบข้อมูลผู้สมัครงานอย่างละเอียด รวมถึงการสัมภาษณ์แบบวิดีโอ
    - ใช้ระบบตรวจสอบตัวตนที่เข้มงวด เช่น การตรวจสอบเอกสารและที่อยู่

    https://www.csoonline.com/article/3497138/how-not-to-hire-a-north-korean-it-spy.html
    ข่าวนี้เล่าถึง ภัยคุกคามจากแฮกเกอร์ชาวเกาหลีเหนือ ที่แฝงตัวเข้ามาในบริษัทต่างๆ ทั่วโลกผ่านการสมัครงานในตำแหน่ง IT โดยใช้ ข้อมูลปลอมและเทคโนโลยี Deepfake เพื่อหลอกลวงนายจ้าง ✅ กลยุทธ์ของแฮกเกอร์เกาหลีเหนือ - ใช้ข้อมูลปลอม เช่น ชื่อและเอกสารของพลเมืองสหรัฐฯ - ใช้ Deepfake เพื่อปลอมแปลงใบหน้าระหว่างสัมภาษณ์งาน ✅ ภัยคุกคามต่อบริษัทต่างๆ - แฮกเกอร์ไม่ได้โจมตีระบบโดยตรง แต่ใช้สิทธิ์การเข้าถึงของพนักงาน - กระทรวงการคลังสหรัฐฯ เตือนถึงภัยคุกคามนี้ตั้งแต่ปี 2022 ✅ ตัวอย่างเหตุการณ์จริง - Christina Chapman ช่วยให้แฮกเกอร์ปลอมตัวเป็นพลเมืองสหรัฐฯ และสมัครงานในบริษัทกว่า 300 แห่ง - Oleksandr Didenko ขายบัญชีปลอมให้แฮกเกอร์เพื่อใช้สมัครงาน ℹ️ ความเสี่ยงต่อความปลอดภัยขององค์กร - แฮกเกอร์สามารถใช้สิทธิ์ของพนักงานเพื่อเปิดทางให้กับการโจมตีไซเบอร์ - บริษัทที่ไม่ตรวจสอบข้อมูลพนักงานอย่างละเอียดอาจตกเป็นเป้าหมาย ℹ️ คำแนะนำสำหรับการป้องกัน - ตรวจสอบข้อมูลผู้สมัครงานอย่างละเอียด รวมถึงการสัมภาษณ์แบบวิดีโอ - ใช้ระบบตรวจสอบตัวตนที่เข้มงวด เช่น การตรวจสอบเอกสารและที่อยู่ https://www.csoonline.com/article/3497138/how-not-to-hire-a-north-korean-it-spy.html
    WWW.CSOONLINE.COM
    How not to hire a North Korean IT spy
    CISOs are urged to carry out tighter vetting of new hires to ward off potential ‘moles’ — who are increasingly finding their way onto company payrolls and into their IT systems.
    0 ความคิดเห็น 0 การแบ่งปัน 403 มุมมอง 0 รีวิว
  • รายงาน AI Index 2025 จาก Stanford University เผยให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ในโลกของปัญญาประดิษฐ์ โดยต้นทุนการใช้งาน AI ลดลงอย่างมาก แต่ในขณะเดียวกัน เหตุการณ์ที่เกี่ยวข้องกับ AI ที่เป็นอันตรายกลับเพิ่มขึ้นอย่างน่ากังวล

    🌐 ต้นทุนที่ลดลงและการลงทุนที่เพิ่มขึ้น:
    - 📉 ต้นทุนการใช้งาน AI: ค่าใช้จ่ายในการใช้งานโมเดล AI ลดลงจาก $20 ต่อ 1 ล้านโทเค็น เหลือเพียง $0.07 ในเวลาเพียง 18 เดือน
    - 💡 การลงทุนมหาศาล: บริษัทใหญ่ เช่น OpenAI, Meta และ Google ลงทุนเพิ่มขึ้นถึง 28 เท่า ในการฝึกโมเดล AI รุ่นใหม่

    ⚠️ เหตุการณ์อันตรายที่เพิ่มขึ้น:
    - 🚨 เหตุการณ์ที่เกี่ยวข้องกับ AI: จำนวนเหตุการณ์อันตรายที่เกี่ยวข้องกับ AI เพิ่มขึ้นจาก 100 ครั้งในปี 2022 เป็น 233 ครั้งในปี 2024
    - 🛑 ตัวอย่างเหตุการณ์: การระบุผิดพลาดของ AI ในระบบป้องกันการขโมยสินค้า, การสร้างภาพลามกแบบ deepfake และการสนับสนุนพฤติกรรมอันตรายโดยแชทบอท

    🌟 การแข่งขันระหว่างจีนและสหรัฐฯ:
    - 🇺🇸 สหรัฐฯ ยังคงนำหน้า: สหรัฐฯ มีโมเดล AI ที่โดดเด่นถึง 40 โมเดล ในปี 2024 ขณะที่จีนมีเพียง 15 โมเดล
    - 🇨🇳 จีนไล่ตามอย่างใกล้ชิด: ความแตกต่างด้านประสิทธิภาพระหว่างโมเดล AI ของสหรัฐฯ และจีนลดลงจาก 9.26% ในปี 2024 เหลือเพียง 1.70% ในปี 2025

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-costs-drop-280-fold-but-harmful-incidents-rise-56-percent-in-last-year-stanford-2025-ai-report-highlights-china-us-competition
    รายงาน AI Index 2025 จาก Stanford University เผยให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ในโลกของปัญญาประดิษฐ์ โดยต้นทุนการใช้งาน AI ลดลงอย่างมาก แต่ในขณะเดียวกัน เหตุการณ์ที่เกี่ยวข้องกับ AI ที่เป็นอันตรายกลับเพิ่มขึ้นอย่างน่ากังวล 🌐 ต้นทุนที่ลดลงและการลงทุนที่เพิ่มขึ้น: - 📉 ต้นทุนการใช้งาน AI: ค่าใช้จ่ายในการใช้งานโมเดล AI ลดลงจาก $20 ต่อ 1 ล้านโทเค็น เหลือเพียง $0.07 ในเวลาเพียง 18 เดือน - 💡 การลงทุนมหาศาล: บริษัทใหญ่ เช่น OpenAI, Meta และ Google ลงทุนเพิ่มขึ้นถึง 28 เท่า ในการฝึกโมเดล AI รุ่นใหม่ ⚠️ เหตุการณ์อันตรายที่เพิ่มขึ้น: - 🚨 เหตุการณ์ที่เกี่ยวข้องกับ AI: จำนวนเหตุการณ์อันตรายที่เกี่ยวข้องกับ AI เพิ่มขึ้นจาก 100 ครั้งในปี 2022 เป็น 233 ครั้งในปี 2024 - 🛑 ตัวอย่างเหตุการณ์: การระบุผิดพลาดของ AI ในระบบป้องกันการขโมยสินค้า, การสร้างภาพลามกแบบ deepfake และการสนับสนุนพฤติกรรมอันตรายโดยแชทบอท 🌟 การแข่งขันระหว่างจีนและสหรัฐฯ: - 🇺🇸 สหรัฐฯ ยังคงนำหน้า: สหรัฐฯ มีโมเดล AI ที่โดดเด่นถึง 40 โมเดล ในปี 2024 ขณะที่จีนมีเพียง 15 โมเดล - 🇨🇳 จีนไล่ตามอย่างใกล้ชิด: ความแตกต่างด้านประสิทธิภาพระหว่างโมเดล AI ของสหรัฐฯ และจีนลดลงจาก 9.26% ในปี 2024 เหลือเพียง 1.70% ในปี 2025 https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-costs-drop-280-fold-but-harmful-incidents-rise-56-percent-in-last-year-stanford-2025-ai-report-highlights-china-us-competition
    0 ความคิดเห็น 0 การแบ่งปัน 294 มุมมอง 0 รีวิว
  • ในยุคที่ภัยคุกคามไซเบอร์พัฒนาอย่างรวดเร็ว การฝึกอบรมพนักงานให้รับมือกับการโจมตี เช่น Phishing, Social Engineering และ Deepfake เป็นสิ่งสำคัญ แต่การมอบหมายให้ HR เป็นผู้ดูแลการฝึกอบรมด้านความปลอดภัยไซเบอร์โดยลำพัง อาจทำให้องค์กรตกอยู่ในความเสี่ยง

    == ข้อจำกัดของ HR ในการฝึกอบรมด้านความปลอดภัยไซเบอร์ ==
    ✅ ขาดความรู้เฉพาะทาง:
    - HR อาจไม่มีความรู้เชิงลึกเกี่ยวกับภัยคุกคามไซเบอร์ที่เปลี่ยนแปลงตลอดเวลา เช่น เทคนิคใหม่ ๆ ที่แฮ็กเกอร์ใช้โจมตี

    ✅ การฝึกอบรมที่ไม่ตรงจุด:
    - การฝึกอบรมที่จัดโดย HR อาจเน้นไปที่การปฏิบัติตามข้อกำหนดทั่วไป แต่ขาดการเน้นย้ำถึงภัยคุกคามเฉพาะที่องค์กรเผชิญ

    ✅ ความไม่สอดคล้องกับความต้องการขององค์กร:
    - HR อาจไม่สามารถปรับเนื้อหาให้เหมาะสมกับอุตสาหกรรม เช่น ในภาคการเงินที่ต้องเน้นการป้องกันข้อมูลบัตรเครดิต

    == ความสำคัญของความร่วมมือระหว่าง HR และทีมความปลอดภัย ==
    💡 การสร้างเนื้อหาที่มีประสิทธิภาพ:
    - ทีมความปลอดภัยสามารถให้ข้อมูลเชิงลึกเกี่ยวกับภัยคุกคามที่องค์กรเผชิญ และช่วยออกแบบการฝึกอบรมที่ตรงจุด

    💡 การแปลข้อมูลเทคนิคให้เข้าใจง่าย:
    - HR สามารถช่วยแปลข้อมูลเชิงเทคนิคให้เป็นภาษาที่พนักงานทั่วไปเข้าใจได้ง่าย

    💡 การสร้างวัฒนธรรมความปลอดภัย:
    - การฝึกอบรมที่มีความร่วมมือระหว่าง HR และทีมความปลอดภัยช่วยสร้างความตระหนักรู้และวัฒนธรรมความปลอดภัยในองค์กร

    https://www.csoonline.com/article/3856404/is-hr-running-your-employee-security-training-heres-why-thats-not-always-the-best-idea.html
    ในยุคที่ภัยคุกคามไซเบอร์พัฒนาอย่างรวดเร็ว การฝึกอบรมพนักงานให้รับมือกับการโจมตี เช่น Phishing, Social Engineering และ Deepfake เป็นสิ่งสำคัญ แต่การมอบหมายให้ HR เป็นผู้ดูแลการฝึกอบรมด้านความปลอดภัยไซเบอร์โดยลำพัง อาจทำให้องค์กรตกอยู่ในความเสี่ยง == ข้อจำกัดของ HR ในการฝึกอบรมด้านความปลอดภัยไซเบอร์ == ✅ ขาดความรู้เฉพาะทาง: - HR อาจไม่มีความรู้เชิงลึกเกี่ยวกับภัยคุกคามไซเบอร์ที่เปลี่ยนแปลงตลอดเวลา เช่น เทคนิคใหม่ ๆ ที่แฮ็กเกอร์ใช้โจมตี ✅ การฝึกอบรมที่ไม่ตรงจุด: - การฝึกอบรมที่จัดโดย HR อาจเน้นไปที่การปฏิบัติตามข้อกำหนดทั่วไป แต่ขาดการเน้นย้ำถึงภัยคุกคามเฉพาะที่องค์กรเผชิญ ✅ ความไม่สอดคล้องกับความต้องการขององค์กร: - HR อาจไม่สามารถปรับเนื้อหาให้เหมาะสมกับอุตสาหกรรม เช่น ในภาคการเงินที่ต้องเน้นการป้องกันข้อมูลบัตรเครดิต == ความสำคัญของความร่วมมือระหว่าง HR และทีมความปลอดภัย == 💡 การสร้างเนื้อหาที่มีประสิทธิภาพ: - ทีมความปลอดภัยสามารถให้ข้อมูลเชิงลึกเกี่ยวกับภัยคุกคามที่องค์กรเผชิญ และช่วยออกแบบการฝึกอบรมที่ตรงจุด 💡 การแปลข้อมูลเทคนิคให้เข้าใจง่าย: - HR สามารถช่วยแปลข้อมูลเชิงเทคนิคให้เป็นภาษาที่พนักงานทั่วไปเข้าใจได้ง่าย 💡 การสร้างวัฒนธรรมความปลอดภัย: - การฝึกอบรมที่มีความร่วมมือระหว่าง HR และทีมความปลอดภัยช่วยสร้างความตระหนักรู้และวัฒนธรรมความปลอดภัยในองค์กร https://www.csoonline.com/article/3856404/is-hr-running-your-employee-security-training-heres-why-thats-not-always-the-best-idea.html
    WWW.CSOONLINE.COM
    Is HR running your employee security training? Here’s why that’s not always the best idea
    Training employees to resist the lure of phishing, scams, and deepfakes is central to a good cybersecurity posture, but to be effective it needs to be handled with plenty of input and guidance from the security team.
    0 ความคิดเห็น 0 การแบ่งปัน 194 มุมมอง 0 รีวิว
  • 5 มีนาคม “วันนักข่าว” กับบทบาทสื่อมวลชนในยุค AI เผยความจริง สิ่งลวงตา และการถ่วงดุลอำนาจ

    📅 วันที่ 5 มีนาคมของทุกปี ถือเป็น "วันนักข่าว" หรือ "วันสื่อสารมวลชนแห่งชาติ" ในประเทศไทย ซึ่งเป็นวันสำคัญของวงการสื่อสารมวลชน โดยมีจุดเริ่มต้นมาจากวันสถาปนา สมาคมนักข่าวแห่งประเทศไทย เมื่อวันที่ 5 มีนาคม พ.ศ. 2498

    ปัจจุบัน บทบาทของนักข่าวและสื่อมวลชน กำลังเผชิญกับความท้าทายครั้งใหญ่ในยุคดิจิทัล และเทคโนโลยี AI (Artificial Intelligence) ที่ไร้พรมแดน ข้อมูลข่าวสารแพร่กระจายอย่างรวดเร็ว ทั้งข้อเท็จจริงและข่าวลวง (Fake News) บทบาทของสื่อ จึงไม่ใช่เพียงรายงานข่าวเท่านั้น แต่ต้องทำหน้าที่คัดกรอง ตรวจสอบ และถ่วงดุลอำนาจ เพื่อให้สังคมได้รับข้อมูลที่ถูกต้อ งและเป็นธรรม

    📖 ความเป็นมาของวันนักข่าว จุดกำเนิดของวันนักข่าวในไทย 🎙
    สมาคมนักข่าวแห่งประเทศไทย ปัจจุบันคือ สมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย ก่อตั้งขึ้นโดยนักข่าวรุ่นบุกเบิก 15 คน ที่รวมตัวกันที่ศาลานเรศวร ในสวนลุมพินี โดยมี นายชาญ สินศุข จากสยามนิกร เป็นประธานการประชุม

    🔹 ในอดีต หนังสือพิมพ์ไทยยึดถือธรรมเนียมว่า วันที่ 6 มีนาคม ของทุกปี จะเป็นวันหยุดงานของนักข่าว และจะไม่มีหนังสือพิมพ์วางจำหน่าย แต่เมื่อเวลาผ่านไป สังคมมีความต้องการบริโภคข่าวสารมากขึ้น ทำให้ต้องยุติธรรมเนียมนี้ไป

    🔹 ต่อมา ในปี พ.ศ. 2542 สมาคมนักข่าวแห่งประเทศไทย ได้รวมตัวกับ สมาคมนักหนังสือพิมพ์แห่งประเทศไทย และกำหนดให้วันที่ 5 มีนาคม เป็นวันนักข่าว อย่างเป็นทางการจนถึงปัจจุบัน

    🎥 บทบาทสำคัญของนักข่าวในสังคมไทย นักข่าวไม่ได้เป็นเพียงผู้รายงานข่าว แต่ยังมีบทบาทสำคัญในหลายมิติของสังคม ตั้งแต่การเฝ้าระวังอำนาจ การเปิดโปงความจริง ไปจนถึงการสร้างความตระหนักรู้ และขับเคลื่อนสังคม

    🏛 เฝ้าระวังและตรวจสอบอำนาจ (Watchdog Journalism)
    ✅ นักข่าวทำหน้าที่ตรวจสอบการใช้อำนาจของรัฐ ภาคเอกชน และองค์กรต่าง ๆ
    ✅ เปิดโปงการทุจริต คอร์รัปชัน และความไม่ชอบมาพากลในสังคม
    ✅ ปกป้องประชาชน จากการถูกเอารัดเอาเปรียบ

    📰 ให้ข้อมูลที่จำเป็นต่อการตัดสินใจของประชาชน
    ✅ รายงานข่าวสารด้านการเมือง เศรษฐกิจ สังคม และสิ่งแวดล้อม
    ✅ ให้ข้อมูลเกี่ยวกับนโยบายของรัฐบาล การเลือกตั้ง และภัยพิบัติ
    ✅ ช่วยให้ประชาชนตัดสินใจได้อย่างถูกต้อง บนพื้นฐานของข้อมูลที่น่าเชื่อถือ

    🚨 สร้างกระแส และกระตุ้นการเปลี่ยนแปลงทางสังคม
    ✅ นำเสนอปัญหาสำคัญ เช่น ความเหลื่อมล้ำ สิทธิมนุษยชน และสิ่งแวดล้อม
    ✅ กระตุ้นให้เกิดการเปลี่ยนแปลงทางนโยบาย และการแก้ไขปัญหา
    ✅ เป็นช่องทางในการเรียกร้องความเป็นธรรม ให้กับประชาชน

    🎤 เป็นกระบอกเสียงให้กับประชาชน
    ✅ นำเสนอเรื่องราวของผู้ด้อยโอกาส และกลุ่มที่ถูกกดขี่
    ✅ ให้พื้นที่แก่ประชาชน ในการแสดงความคิดเห็น
    ✅ ช่วยให้เสียงของประชาชน ถูกได้ยินในเวทีสาธารณะ

    🔓 สนับสนุนเสรีภาพในการแสดงความคิดเห็น
    ✅ สื่อมวลชนเป็นหัวใจของ ประชาธิปไตย
    ✅ หากปราศจากเสรีภาพทางสื่อ สังคมอาจถูกควบคุมโดยข้อมูลฝ่ายเดียว
    ✅ นักข่าวต้องกล้าหาญ และยืนหยัดในการรายงานความจริง

    🌍 ยุค AI กับความท้าทายของสื่อมวลชน
    🤖 AI และอัลกอริทึมเปลี่ยนโฉมวงการข่าว
    🔹 เทคโนโลยี AI ช่วยให้ ข่าวถูกสร้าง และกระจายได้รวดเร็วขึ้น
    🔹 แพลตฟอร์มโซเชียลมีเดีย ใช้อัลกอริทึมในการเลือกนำเสนอข่าว ที่ตรงกับความสนใจของผู้ใช้ แต่ อาจทำให้ข่าวสารถูกบิดเบือ นและเกิด Echo Chamber (ห้องเสียงสะท้อน)

    🚨 ข่าวปลอม (Fake News) และ Deepfake
    🔹 ข่าวปลอม และข้อมูลบิดเบือนแพร่กระจาย ในโซเชียลมีเดียอย่างรวดเร็ว
    🔹 เทคโนโลยี Deepfake ทำให้เกิดวิดีโอปลอม ที่เลียนแบบบุคคลจริงได้อย่างแนบเนียน
    🔹 นักข่าวต้องตรวจสอบแหล่งที่มาของข้อมูล อย่างเข้มงวด

    💰 รายได้จากโฆษณาของสื่อดั้งเดิมลดลง
    🔹 หนังสือพิมพ์ และสื่อโทรทัศน์สูญเสียรายได้ ให้กับแพลตฟอร์มดิจิทัล เช่น Facebook, Google
    🔹 นักข่าวต้องปรับตัวไปสู่การสร้างรายได้ ผ่านช่องทางออนไลน์ และการสมัครสมาชิก (Subscription-Based Media)

    🏛 แรงกดดันจากอำนาจรัฐและกลุ่มทุน
    🔹 นักข่าวบางคนอาจถูกคุกคาม หากรายงานข่าวที่กระทบต่อผู้มีอำนาจ
    🔹 สื่อบางสำนัก อาจถูกควบคุมโดยกลุ่มทุน ทำให้เสรีภาพทางข่าวสารถูกจำกัด

    ✅ แนวทางในการพัฒนาวงการสื่อมวลชนไทย
    ✔ สร้างมาตรฐานทางจริยธรรม นักข่าวต้องรักษาความเป็นกลาง และความถูกต้องของข้อมูล
    ✔ ตรวจสอบข้อเท็จจริงอย่างเข้มงวด ป้องกันการแพร่กระจายของข่าวปลอม
    ✔ ใช้เทคโนโลยีให้เกิดประโยชน์ เช่น AI ในการช่วยวิเคราะห์ข้อมูลข่าวสาร
    ✔ พัฒนาทักษะนักข่าวให้ทันสมัย ให้สามารถปรับตัวเข้ากับแพลตฟอร์มดิจิทัล

    🎯 "นักข่าว" อาชีพที่ขับเคลื่อนความจริงและสังคมไทย
    👥 นักข่าวเป็นอาชีพที่มีความสำคัญอย่างยิ่งต่อสังคม
    📢 พวกเขาทำหน้าที่รายงานข้อเท็จจริง คัดกรองข่าวสาร และตรวจสอบอำนาจ
    🌍 ในยุค AI สื่อมวลชนต้องเผชิญกับ Fake News การคุกคามจากอำนาจรัฐ และความเปลี่ยนแปลงของเทคโนโลยี
    📌 อย่างไรก็ตาม จริยธรรม ความกล้าหาญ และการยึดมั่นในความจริง จะทำให้สื่อมวลชน ยังคงเป็นเสาหลักของประชาธิปไตย

    💡 "เพราะข่าวที่ดี ไม่ใช่แค่ข่าวที่เร็ว แต่ต้องเป็นข่าวที่ถูกต้อง"

    ป้อม-อัครวัฒน์ ธนันฐ์กิตติกุล 051127 มี.ค. 2568

    🔖 #วันนักข่าว #นักข่าวไทย #สื่อมวลชน #FreedomOfPress #AIกับสื่อ #ข่าวปลอม #FakeNews #Deepfake #PressFreedom #MediaEthics
    5 มีนาคม “วันนักข่าว” กับบทบาทสื่อมวลชนในยุค AI เผยความจริง สิ่งลวงตา และการถ่วงดุลอำนาจ 📅 วันที่ 5 มีนาคมของทุกปี ถือเป็น "วันนักข่าว" หรือ "วันสื่อสารมวลชนแห่งชาติ" ในประเทศไทย ซึ่งเป็นวันสำคัญของวงการสื่อสารมวลชน โดยมีจุดเริ่มต้นมาจากวันสถาปนา สมาคมนักข่าวแห่งประเทศไทย เมื่อวันที่ 5 มีนาคม พ.ศ. 2498 ปัจจุบัน บทบาทของนักข่าวและสื่อมวลชน กำลังเผชิญกับความท้าทายครั้งใหญ่ในยุคดิจิทัล และเทคโนโลยี AI (Artificial Intelligence) ที่ไร้พรมแดน ข้อมูลข่าวสารแพร่กระจายอย่างรวดเร็ว ทั้งข้อเท็จจริงและข่าวลวง (Fake News) บทบาทของสื่อ จึงไม่ใช่เพียงรายงานข่าวเท่านั้น แต่ต้องทำหน้าที่คัดกรอง ตรวจสอบ และถ่วงดุลอำนาจ เพื่อให้สังคมได้รับข้อมูลที่ถูกต้อ งและเป็นธรรม 📖 ความเป็นมาของวันนักข่าว จุดกำเนิดของวันนักข่าวในไทย 🎙 สมาคมนักข่าวแห่งประเทศไทย ปัจจุบันคือ สมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย ก่อตั้งขึ้นโดยนักข่าวรุ่นบุกเบิก 15 คน ที่รวมตัวกันที่ศาลานเรศวร ในสวนลุมพินี โดยมี นายชาญ สินศุข จากสยามนิกร เป็นประธานการประชุม 🔹 ในอดีต หนังสือพิมพ์ไทยยึดถือธรรมเนียมว่า วันที่ 6 มีนาคม ของทุกปี จะเป็นวันหยุดงานของนักข่าว และจะไม่มีหนังสือพิมพ์วางจำหน่าย แต่เมื่อเวลาผ่านไป สังคมมีความต้องการบริโภคข่าวสารมากขึ้น ทำให้ต้องยุติธรรมเนียมนี้ไป 🔹 ต่อมา ในปี พ.ศ. 2542 สมาคมนักข่าวแห่งประเทศไทย ได้รวมตัวกับ สมาคมนักหนังสือพิมพ์แห่งประเทศไทย และกำหนดให้วันที่ 5 มีนาคม เป็นวันนักข่าว อย่างเป็นทางการจนถึงปัจจุบัน 🎥 บทบาทสำคัญของนักข่าวในสังคมไทย นักข่าวไม่ได้เป็นเพียงผู้รายงานข่าว แต่ยังมีบทบาทสำคัญในหลายมิติของสังคม ตั้งแต่การเฝ้าระวังอำนาจ การเปิดโปงความจริง ไปจนถึงการสร้างความตระหนักรู้ และขับเคลื่อนสังคม 🏛 เฝ้าระวังและตรวจสอบอำนาจ (Watchdog Journalism) ✅ นักข่าวทำหน้าที่ตรวจสอบการใช้อำนาจของรัฐ ภาคเอกชน และองค์กรต่าง ๆ ✅ เปิดโปงการทุจริต คอร์รัปชัน และความไม่ชอบมาพากลในสังคม ✅ ปกป้องประชาชน จากการถูกเอารัดเอาเปรียบ 📰 ให้ข้อมูลที่จำเป็นต่อการตัดสินใจของประชาชน ✅ รายงานข่าวสารด้านการเมือง เศรษฐกิจ สังคม และสิ่งแวดล้อม ✅ ให้ข้อมูลเกี่ยวกับนโยบายของรัฐบาล การเลือกตั้ง และภัยพิบัติ ✅ ช่วยให้ประชาชนตัดสินใจได้อย่างถูกต้อง บนพื้นฐานของข้อมูลที่น่าเชื่อถือ 🚨 สร้างกระแส และกระตุ้นการเปลี่ยนแปลงทางสังคม ✅ นำเสนอปัญหาสำคัญ เช่น ความเหลื่อมล้ำ สิทธิมนุษยชน และสิ่งแวดล้อม ✅ กระตุ้นให้เกิดการเปลี่ยนแปลงทางนโยบาย และการแก้ไขปัญหา ✅ เป็นช่องทางในการเรียกร้องความเป็นธรรม ให้กับประชาชน 🎤 เป็นกระบอกเสียงให้กับประชาชน ✅ นำเสนอเรื่องราวของผู้ด้อยโอกาส และกลุ่มที่ถูกกดขี่ ✅ ให้พื้นที่แก่ประชาชน ในการแสดงความคิดเห็น ✅ ช่วยให้เสียงของประชาชน ถูกได้ยินในเวทีสาธารณะ 🔓 สนับสนุนเสรีภาพในการแสดงความคิดเห็น ✅ สื่อมวลชนเป็นหัวใจของ ประชาธิปไตย ✅ หากปราศจากเสรีภาพทางสื่อ สังคมอาจถูกควบคุมโดยข้อมูลฝ่ายเดียว ✅ นักข่าวต้องกล้าหาญ และยืนหยัดในการรายงานความจริง 🌍 ยุค AI กับความท้าทายของสื่อมวลชน 🤖 AI และอัลกอริทึมเปลี่ยนโฉมวงการข่าว 🔹 เทคโนโลยี AI ช่วยให้ ข่าวถูกสร้าง และกระจายได้รวดเร็วขึ้น 🔹 แพลตฟอร์มโซเชียลมีเดีย ใช้อัลกอริทึมในการเลือกนำเสนอข่าว ที่ตรงกับความสนใจของผู้ใช้ แต่ อาจทำให้ข่าวสารถูกบิดเบือ นและเกิด Echo Chamber (ห้องเสียงสะท้อน) 🚨 ข่าวปลอม (Fake News) และ Deepfake 🔹 ข่าวปลอม และข้อมูลบิดเบือนแพร่กระจาย ในโซเชียลมีเดียอย่างรวดเร็ว 🔹 เทคโนโลยี Deepfake ทำให้เกิดวิดีโอปลอม ที่เลียนแบบบุคคลจริงได้อย่างแนบเนียน 🔹 นักข่าวต้องตรวจสอบแหล่งที่มาของข้อมูล อย่างเข้มงวด 💰 รายได้จากโฆษณาของสื่อดั้งเดิมลดลง 🔹 หนังสือพิมพ์ และสื่อโทรทัศน์สูญเสียรายได้ ให้กับแพลตฟอร์มดิจิทัล เช่น Facebook, Google 🔹 นักข่าวต้องปรับตัวไปสู่การสร้างรายได้ ผ่านช่องทางออนไลน์ และการสมัครสมาชิก (Subscription-Based Media) 🏛 แรงกดดันจากอำนาจรัฐและกลุ่มทุน 🔹 นักข่าวบางคนอาจถูกคุกคาม หากรายงานข่าวที่กระทบต่อผู้มีอำนาจ 🔹 สื่อบางสำนัก อาจถูกควบคุมโดยกลุ่มทุน ทำให้เสรีภาพทางข่าวสารถูกจำกัด ✅ แนวทางในการพัฒนาวงการสื่อมวลชนไทย ✔ สร้างมาตรฐานทางจริยธรรม นักข่าวต้องรักษาความเป็นกลาง และความถูกต้องของข้อมูล ✔ ตรวจสอบข้อเท็จจริงอย่างเข้มงวด ป้องกันการแพร่กระจายของข่าวปลอม ✔ ใช้เทคโนโลยีให้เกิดประโยชน์ เช่น AI ในการช่วยวิเคราะห์ข้อมูลข่าวสาร ✔ พัฒนาทักษะนักข่าวให้ทันสมัย ให้สามารถปรับตัวเข้ากับแพลตฟอร์มดิจิทัล 🎯 "นักข่าว" อาชีพที่ขับเคลื่อนความจริงและสังคมไทย 👥 นักข่าวเป็นอาชีพที่มีความสำคัญอย่างยิ่งต่อสังคม 📢 พวกเขาทำหน้าที่รายงานข้อเท็จจริง คัดกรองข่าวสาร และตรวจสอบอำนาจ 🌍 ในยุค AI สื่อมวลชนต้องเผชิญกับ Fake News การคุกคามจากอำนาจรัฐ และความเปลี่ยนแปลงของเทคโนโลยี 📌 อย่างไรก็ตาม จริยธรรม ความกล้าหาญ และการยึดมั่นในความจริง จะทำให้สื่อมวลชน ยังคงเป็นเสาหลักของประชาธิปไตย 💡 "เพราะข่าวที่ดี ไม่ใช่แค่ข่าวที่เร็ว แต่ต้องเป็นข่าวที่ถูกต้อง" ป้อม-อัครวัฒน์ ธนันฐ์กิตติกุล 051127 มี.ค. 2568 🔖 #วันนักข่าว #นักข่าวไทย #สื่อมวลชน #FreedomOfPress #AIกับสื่อ #ข่าวปลอม #FakeNews #Deepfake #PressFreedom #MediaEthics
    0 ความคิดเห็น 0 การแบ่งปัน 1389 มุมมอง 0 รีวิว
  • Microsoft ได้ระบุรายชื่อของกลุ่มอาชญากรไซเบอร์ที่ถูกกล่าวหาว่าพัฒนาซอฟต์แวร์ที่เป็นอันตรายเพื่อข้ามการป้องกันของปัญญาประดิษฐ์ (AI) และสร้างเนื้อหา deepfake ของคนดังและเนื้อหาอื่น ๆ ที่ผิดกฎหมาย

    กลุ่มนี้ถูกติดตามโดย Microsoft ในชื่อ Storm-2139 และมีสมาชิกหลักคือ Arian Yadegarnia จากอิหร่าน (หรือที่รู้จักในชื่อ 'Fiz'), Alan Krysiak จากสหราชอาณาจักร (หรือที่รู้จักในชื่อ 'Drago'), Ricky Yuen จากฮ่องกง (หรือที่รู้จักในชื่อ 'cg-dot'), และ Phát Phùng Tấn จากเวียดนาม (หรือที่รู้จักในชื่อ 'Asakuri')

    วิธีการทำงานของกลุ่ม Storm-2139 สมาชิกของ Storm-2139 ใช้ข้อมูลประจำตัวของลูกค้าที่ถูกขโมยจากแหล่งที่เปิดเผยสู่สาธารณะเพื่อเข้าถึงบัญชีในบริการ AI สร้างเนื้อหา จากนั้นพวกเขาจะปรับเปลี่ยนความสามารถของบริการเหล่านั้นและขายการเข้าถึงให้กับกลุ่มอาชญากรอื่น ๆ พร้อมกับคำแนะนำในการสร้างเนื้อหาที่ผิดกฎหมาย เช่น ภาพลามกอนาจารของคนดัง

    การจัดการของกลุ่ม กลุ่มอาชญากรไซเบอร์ Storm-2139 แบ่งการทำงานออกเป็นสามประเภท: ผู้สร้างเครื่องมือ (creators), ผู้แจกจ่ายเครื่องมือ (providers), และผู้ใช้เครื่องมือ (users) ผู้สร้างเครื่องมือพัฒนาซอฟต์แวร์ที่ช่วยในการใช้บริการ AI ในทางที่ผิด ผู้แจกจ่ายเครื่องมือทำการปรับแต่งและเผยแพร่ซอฟต์แวร์นั้นให้กับผู้ใช้ ผู้ใช้จะใช้ซอฟต์แวร์เพื่อสร้างเนื้อหาที่ละเมิดนโยบายการใช้งานของ Microsoft

    มาตรการทางกฎหมาย Microsoft ได้ยื่นฟ้องกลุ่มนี้ในศาล Eastern District of Virginia ในเดือนธันวาคม 2024 และมีการออกคำสั่งห้ามชั่วคราวเพื่อหยุดการกระทำของพวกเขา นอกจากนี้ยังมีการยึดเว็บไซต์ที่เกี่ยวข้องกับกลุ่มเพื่อป้องกันการใช้บริการอย่างผิดกฎหมาย

    Microsoft ยังได้รับอีเมลหลายฉบับจากสมาชิกกลุ่ม Storm-2139 ที่ตำหนิซึ่งกันและกันในเรื่องการกระทำที่เป็นอันตราย

    การดำเนินการต่อไป Microsoft ตั้งเป้าที่จะหยุดการกระทำของกลุ่มนี้และดำเนินการสืบสวนเพิ่มเติมเพื่อป้องกันการนำ AI ไปใช้ในทางที่ผิดในอนาคต และเตรียมการส่งข้อมูลทางอาญาไปยังหน่วยงานบังคับใช้กฎหมายในสหรัฐฯ และต่างประเทศ

    https://www.bleepingcomputer.com/news/microsoft/microsoft-names-cybercriminals-behind-ai-deepfake-network/
    Microsoft ได้ระบุรายชื่อของกลุ่มอาชญากรไซเบอร์ที่ถูกกล่าวหาว่าพัฒนาซอฟต์แวร์ที่เป็นอันตรายเพื่อข้ามการป้องกันของปัญญาประดิษฐ์ (AI) และสร้างเนื้อหา deepfake ของคนดังและเนื้อหาอื่น ๆ ที่ผิดกฎหมาย กลุ่มนี้ถูกติดตามโดย Microsoft ในชื่อ Storm-2139 และมีสมาชิกหลักคือ Arian Yadegarnia จากอิหร่าน (หรือที่รู้จักในชื่อ 'Fiz'), Alan Krysiak จากสหราชอาณาจักร (หรือที่รู้จักในชื่อ 'Drago'), Ricky Yuen จากฮ่องกง (หรือที่รู้จักในชื่อ 'cg-dot'), และ Phát Phùng Tấn จากเวียดนาม (หรือที่รู้จักในชื่อ 'Asakuri') วิธีการทำงานของกลุ่ม Storm-2139 สมาชิกของ Storm-2139 ใช้ข้อมูลประจำตัวของลูกค้าที่ถูกขโมยจากแหล่งที่เปิดเผยสู่สาธารณะเพื่อเข้าถึงบัญชีในบริการ AI สร้างเนื้อหา จากนั้นพวกเขาจะปรับเปลี่ยนความสามารถของบริการเหล่านั้นและขายการเข้าถึงให้กับกลุ่มอาชญากรอื่น ๆ พร้อมกับคำแนะนำในการสร้างเนื้อหาที่ผิดกฎหมาย เช่น ภาพลามกอนาจารของคนดัง การจัดการของกลุ่ม กลุ่มอาชญากรไซเบอร์ Storm-2139 แบ่งการทำงานออกเป็นสามประเภท: ผู้สร้างเครื่องมือ (creators), ผู้แจกจ่ายเครื่องมือ (providers), และผู้ใช้เครื่องมือ (users) ผู้สร้างเครื่องมือพัฒนาซอฟต์แวร์ที่ช่วยในการใช้บริการ AI ในทางที่ผิด ผู้แจกจ่ายเครื่องมือทำการปรับแต่งและเผยแพร่ซอฟต์แวร์นั้นให้กับผู้ใช้ ผู้ใช้จะใช้ซอฟต์แวร์เพื่อสร้างเนื้อหาที่ละเมิดนโยบายการใช้งานของ Microsoft มาตรการทางกฎหมาย Microsoft ได้ยื่นฟ้องกลุ่มนี้ในศาล Eastern District of Virginia ในเดือนธันวาคม 2024 และมีการออกคำสั่งห้ามชั่วคราวเพื่อหยุดการกระทำของพวกเขา นอกจากนี้ยังมีการยึดเว็บไซต์ที่เกี่ยวข้องกับกลุ่มเพื่อป้องกันการใช้บริการอย่างผิดกฎหมาย Microsoft ยังได้รับอีเมลหลายฉบับจากสมาชิกกลุ่ม Storm-2139 ที่ตำหนิซึ่งกันและกันในเรื่องการกระทำที่เป็นอันตราย การดำเนินการต่อไป Microsoft ตั้งเป้าที่จะหยุดการกระทำของกลุ่มนี้และดำเนินการสืบสวนเพิ่มเติมเพื่อป้องกันการนำ AI ไปใช้ในทางที่ผิดในอนาคต และเตรียมการส่งข้อมูลทางอาญาไปยังหน่วยงานบังคับใช้กฎหมายในสหรัฐฯ และต่างประเทศ https://www.bleepingcomputer.com/news/microsoft/microsoft-names-cybercriminals-behind-ai-deepfake-network/
    WWW.BLEEPINGCOMPUTER.COM
    Microsoft names cybercriminals behind AI deepfake network
    Microsoft has named multiple threat actors part of a cybercrime gang accused of developing malicious tools capable of bypassing generative AI guardrails to generate celebrity deepfakes and other illicit content.
    0 ความคิดเห็น 0 การแบ่งปัน 434 มุมมอง 0 รีวิว
  • Norton ได้เพิ่มเครื่องมือป้องกันการหลอกลวง (scam) โดยใช้ปัญญาประดิษฐ์ (AI) ในแผนบริการของพวกเขา ซึ่งจะช่วยให้ผู้ใช้งานป้องกันการถูกหลอกลวงทางอินเทอร์เน็ตได้อย่างมีประสิทธิภาพมากขึ้น

    Norton ได้เปิดตัวเครื่องมือ Genie Scam Protection และ Genie Scam Protection Pro ที่ใช้ AI เพื่อวิเคราะห์และตรวจจับการหลอกลวงในข้อความ SMS อีเมล การโทรศัพท์ และการท่องเว็บ โดย Genie AI มีความสามารถในการวิเคราะห์ "ความหมายของคำ" ทำให้สามารถตรวจจับรูปแบบการหลอกลวงที่แม้แต่ผู้เชี่ยวชาญบางคนอาจพลาดได้

    แผนบริการที่ครอบคลุมที่สุดของ Norton คือ Norton 360 with LifeLock Ultimate Plus ยังรวมถึงการสนับสนุนในการจัดการกับการหลอกลวงและการคุ้มครองการคืนเงินด้วย

    Norton ได้เปิดตัว Norton Genie ตั้งแต่ปี 2023 เพื่อช่วยผู้ใช้งานวิเคราะห์ข้อความและภาพที่น่าสงสัยแบบเรียลไทม์ แต่ในตอนนี้ บริษัทได้สร้างฟีเจอร์นี้เป็นส่วนหนึ่งของแผนบริการ Norton ทำให้ผู้ใช้งานได้รับการป้องกันโดยอัตโนมัติ

    ผู้ที่ซื้อผลิตภัณฑ์ Cyber Safety ของ Norton เช่น Norton AntiVirus Plus, Norton Mobile Security, และ Norton 360 จะได้รับ Genie Scam Protection ฟรี ฟีเจอร์นี้จะช่วยสแกนข้อความ SMS เว็บไซต์อินเทอร์เน็ต การโทร และอีเมล โดยมีผู้ช่วย AI ที่รวมแอป Norton Genie AI ให้คำแนะนำทันทีเกี่ยวกับการหลอกลวงและข้อเสนอที่น่าสงสัย

    เครื่องมือเหล่านี้พร้อมใช้งานในสหรัฐอเมริกาแล้วและจะขยายไปยังภูมิภาคอื่น ๆ ในไม่ช้า Leena Elias, หัวหน้าเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ของ Gen กล่าวว่า การเพิ่ม AI เข้ามาในโซลูชันความปลอดภัยไซเบอร์เป็นก้าวที่สมเหตุสมผล เนื่องจากผู้หลอกลวงได้ใช้ AI ในการโจมตีมานานแล้ว

    Norton ยังมีแผนที่จะรวมการตรวจจับ deepfake และการหลอกลวงในพีซีที่สนับสนุน AI ในอนาคต เพื่อช่วยผู้ใช้งานให้ปลอดภัยยิ่งขึ้นในยุคที่การหลอกลวงมีความซับซ้อนและเป็นจริงมากขึ้น

    https://www.techradar.com/pro/security/norton-boosts-ai-scam-protection-tools-for-all-users
    Norton ได้เพิ่มเครื่องมือป้องกันการหลอกลวง (scam) โดยใช้ปัญญาประดิษฐ์ (AI) ในแผนบริการของพวกเขา ซึ่งจะช่วยให้ผู้ใช้งานป้องกันการถูกหลอกลวงทางอินเทอร์เน็ตได้อย่างมีประสิทธิภาพมากขึ้น Norton ได้เปิดตัวเครื่องมือ Genie Scam Protection และ Genie Scam Protection Pro ที่ใช้ AI เพื่อวิเคราะห์และตรวจจับการหลอกลวงในข้อความ SMS อีเมล การโทรศัพท์ และการท่องเว็บ โดย Genie AI มีความสามารถในการวิเคราะห์ "ความหมายของคำ" ทำให้สามารถตรวจจับรูปแบบการหลอกลวงที่แม้แต่ผู้เชี่ยวชาญบางคนอาจพลาดได้ แผนบริการที่ครอบคลุมที่สุดของ Norton คือ Norton 360 with LifeLock Ultimate Plus ยังรวมถึงการสนับสนุนในการจัดการกับการหลอกลวงและการคุ้มครองการคืนเงินด้วย Norton ได้เปิดตัว Norton Genie ตั้งแต่ปี 2023 เพื่อช่วยผู้ใช้งานวิเคราะห์ข้อความและภาพที่น่าสงสัยแบบเรียลไทม์ แต่ในตอนนี้ บริษัทได้สร้างฟีเจอร์นี้เป็นส่วนหนึ่งของแผนบริการ Norton ทำให้ผู้ใช้งานได้รับการป้องกันโดยอัตโนมัติ ผู้ที่ซื้อผลิตภัณฑ์ Cyber Safety ของ Norton เช่น Norton AntiVirus Plus, Norton Mobile Security, และ Norton 360 จะได้รับ Genie Scam Protection ฟรี ฟีเจอร์นี้จะช่วยสแกนข้อความ SMS เว็บไซต์อินเทอร์เน็ต การโทร และอีเมล โดยมีผู้ช่วย AI ที่รวมแอป Norton Genie AI ให้คำแนะนำทันทีเกี่ยวกับการหลอกลวงและข้อเสนอที่น่าสงสัย เครื่องมือเหล่านี้พร้อมใช้งานในสหรัฐอเมริกาแล้วและจะขยายไปยังภูมิภาคอื่น ๆ ในไม่ช้า Leena Elias, หัวหน้าเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ของ Gen กล่าวว่า การเพิ่ม AI เข้ามาในโซลูชันความปลอดภัยไซเบอร์เป็นก้าวที่สมเหตุสมผล เนื่องจากผู้หลอกลวงได้ใช้ AI ในการโจมตีมานานแล้ว Norton ยังมีแผนที่จะรวมการตรวจจับ deepfake และการหลอกลวงในพีซีที่สนับสนุน AI ในอนาคต เพื่อช่วยผู้ใช้งานให้ปลอดภัยยิ่งขึ้นในยุคที่การหลอกลวงมีความซับซ้อนและเป็นจริงมากขึ้น https://www.techradar.com/pro/security/norton-boosts-ai-scam-protection-tools-for-all-users
    WWW.TECHRADAR.COM
    Norton boosts AI scam protection tools for all users
    AI-powered scam protection built directly into Norton plans
    0 ความคิดเห็น 0 การแบ่งปัน 447 มุมมอง 0 รีวิว
  • Alibaba Cloud ซึ่งเป็นหน่วยงานด้านคลาวด์คอมพิวติ้งของ Alibaba Group ได้เปิดตัวโมเดลปัญญาประดิษฐ์ (AI) รุ่นใหม่ชื่อว่า Animate Anyone 2 โมเดลนี้ออกแบบมาเพื่อช่วยให้นักพัฒนาสามารถสร้างแอนิเมชันตัวละครที่เสมือนจริงจากภาพนิ่งและวิดีโอเพียงหนึ่งคลิปได้อย่างง่ายดาย

    Animate Anyone 2 สามารถประมวลผลสัญญาณการเคลื่อนไหวและสัญญาณสิ่งแวดล้อมจากเนื้อหาที่เป็นแหล่งอ้างอิง เช่น วิดีโอต้นฉบับ เพื่อสร้างคลิปใหม่ที่มีความสมจริงสูง เมื่อเปรียบเทียบกับวิธีการสร้างแอนิเมชันตัวละครในอดีตที่ใช้เพียงสัญญาณการเคลื่อนไหวเท่านั้น โมเดลนี้ช่วยให้ตัวละครสามารถแสดงการเคลื่อนไหวที่สมจริงและประสานกับสิ่งแวดล้อมเดิมได้อย่างไม่มีสะดุด

    โมเดลนี้สร้างขึ้นจากเวอร์ชันแรกของ Animate Anyone ที่ประกาศเปิดตัวในปลายปี 2023 ซึ่งเน้นการสร้างวิดีโอตัวละครจากภาพนิ่ง หลังจากนั้น OpenAI ผู้สร้าง ChatGPT ก็ได้เปิดตัวโมเดล Sora ที่สามารถสร้างวิดีโอจากข้อความได้ ทำให้เกิดการแข่งขันในวงการเทคโนโลยี AI ของบริษัทใหญ่ในจีนและสตาร์ทอัพหลายแห่ง

    นอกจากนี้ Animate Anyone 2 ยังมีความสามารถในการสร้างการโต้ตอบระหว่างตัวละครโดยรักษาความสมเหตุสมผลของการเคลื่อนไหวและความสอดคล้องกับสิ่งแวดล้อมด้วย ทีมวิจัยจาก Tongyi Lab ซึ่งเป็นหน่วยวิจัยและพัฒนาโมเดลภาษาขนาดใหญ่ (LLM) ของ Alibaba Cloud ได้นำเสนอผลการศึกษานี้ใน arXiv ซึ่งเป็นแหล่งเก็บข้อมูลงานวิจัยแบบโอเพนซอร์ส

    สิ่งที่น่าสนใจคือ ByteDance บริษัทเจ้าของ TikTok ก็เพิ่งเปิดตัวโมเดลมัลติโมดัลชื่อ OmniHuman-1 ที่สามารถเปลี่ยนภาพและเสียงให้เป็นวิดีโอที่ดูสมจริง การเปิดตัวโมเดลเหล่านี้ทำให้วงการสื่อและโฆษณามีความเปลี่ยนแปลงอย่างมาก โดยเฉพาะในจีนที่โมเดล Sora ยังไม่สามารถใช้งานได้

    เพื่อทดสอบวิธีการของ Animate Anyone 2 ในหลายสถานการณ์ ทีมวิจัยได้เก็บรวบรวมวิดีโอตัวละคร 100,000 คลิปจากอินเทอร์เน็ต ซึ่งรวมถึงหลายประเภทของฉาก การกระทำ และการโต้ตอบระหว่างคนและวัตถุ อย่างไรก็ตาม การใช้โมเดลวีดีโอเจเนอเรชันเหล่านี้ยังมีความเสี่ยงที่จะมีการแพร่กระจายวิดีโอ deepfake เพิ่มขึ้น

    Liang Haisheng ผู้เชี่ยวชาญด้านโฆษณาจากปักกิ่งกล่าวว่า แม้ว่าเครื่องมือสร้างวิดีโอเหล่านี้จะมีประโยชน์ในการทำวิดีโอตัวอย่างเพื่อเสนอไอเดียให้กับลูกค้า แต่พวกมันยังขาดความสามารถในการแสดงอารมณ์และการแสดงหน้าที่ละเอียดอ่อนของมนุษย์

    https://www.thestar.com.my/tech/tech-news/2025/02/21/alibaba-cloud-ai-model-animate-anyone-2-simplifies-making-of-lifelike-character-animation
    Alibaba Cloud ซึ่งเป็นหน่วยงานด้านคลาวด์คอมพิวติ้งของ Alibaba Group ได้เปิดตัวโมเดลปัญญาประดิษฐ์ (AI) รุ่นใหม่ชื่อว่า Animate Anyone 2 โมเดลนี้ออกแบบมาเพื่อช่วยให้นักพัฒนาสามารถสร้างแอนิเมชันตัวละครที่เสมือนจริงจากภาพนิ่งและวิดีโอเพียงหนึ่งคลิปได้อย่างง่ายดาย Animate Anyone 2 สามารถประมวลผลสัญญาณการเคลื่อนไหวและสัญญาณสิ่งแวดล้อมจากเนื้อหาที่เป็นแหล่งอ้างอิง เช่น วิดีโอต้นฉบับ เพื่อสร้างคลิปใหม่ที่มีความสมจริงสูง เมื่อเปรียบเทียบกับวิธีการสร้างแอนิเมชันตัวละครในอดีตที่ใช้เพียงสัญญาณการเคลื่อนไหวเท่านั้น โมเดลนี้ช่วยให้ตัวละครสามารถแสดงการเคลื่อนไหวที่สมจริงและประสานกับสิ่งแวดล้อมเดิมได้อย่างไม่มีสะดุด โมเดลนี้สร้างขึ้นจากเวอร์ชันแรกของ Animate Anyone ที่ประกาศเปิดตัวในปลายปี 2023 ซึ่งเน้นการสร้างวิดีโอตัวละครจากภาพนิ่ง หลังจากนั้น OpenAI ผู้สร้าง ChatGPT ก็ได้เปิดตัวโมเดล Sora ที่สามารถสร้างวิดีโอจากข้อความได้ ทำให้เกิดการแข่งขันในวงการเทคโนโลยี AI ของบริษัทใหญ่ในจีนและสตาร์ทอัพหลายแห่ง นอกจากนี้ Animate Anyone 2 ยังมีความสามารถในการสร้างการโต้ตอบระหว่างตัวละครโดยรักษาความสมเหตุสมผลของการเคลื่อนไหวและความสอดคล้องกับสิ่งแวดล้อมด้วย ทีมวิจัยจาก Tongyi Lab ซึ่งเป็นหน่วยวิจัยและพัฒนาโมเดลภาษาขนาดใหญ่ (LLM) ของ Alibaba Cloud ได้นำเสนอผลการศึกษานี้ใน arXiv ซึ่งเป็นแหล่งเก็บข้อมูลงานวิจัยแบบโอเพนซอร์ส สิ่งที่น่าสนใจคือ ByteDance บริษัทเจ้าของ TikTok ก็เพิ่งเปิดตัวโมเดลมัลติโมดัลชื่อ OmniHuman-1 ที่สามารถเปลี่ยนภาพและเสียงให้เป็นวิดีโอที่ดูสมจริง การเปิดตัวโมเดลเหล่านี้ทำให้วงการสื่อและโฆษณามีความเปลี่ยนแปลงอย่างมาก โดยเฉพาะในจีนที่โมเดล Sora ยังไม่สามารถใช้งานได้ เพื่อทดสอบวิธีการของ Animate Anyone 2 ในหลายสถานการณ์ ทีมวิจัยได้เก็บรวบรวมวิดีโอตัวละคร 100,000 คลิปจากอินเทอร์เน็ต ซึ่งรวมถึงหลายประเภทของฉาก การกระทำ และการโต้ตอบระหว่างคนและวัตถุ อย่างไรก็ตาม การใช้โมเดลวีดีโอเจเนอเรชันเหล่านี้ยังมีความเสี่ยงที่จะมีการแพร่กระจายวิดีโอ deepfake เพิ่มขึ้น Liang Haisheng ผู้เชี่ยวชาญด้านโฆษณาจากปักกิ่งกล่าวว่า แม้ว่าเครื่องมือสร้างวิดีโอเหล่านี้จะมีประโยชน์ในการทำวิดีโอตัวอย่างเพื่อเสนอไอเดียให้กับลูกค้า แต่พวกมันยังขาดความสามารถในการแสดงอารมณ์และการแสดงหน้าที่ละเอียดอ่อนของมนุษย์ https://www.thestar.com.my/tech/tech-news/2025/02/21/alibaba-cloud-ai-model-animate-anyone-2-simplifies-making-of-lifelike-character-animation
    WWW.THESTAR.COM.MY
    Alibaba Cloud AI model Animate Anyone 2 simplifies making of lifelike character animation
    China appears to have upped the ante in this field of generative AI, which is poised to disrupt the entertainment and advertising industries.
    0 ความคิดเห็น 0 การแบ่งปัน 561 มุมมอง 0 รีวิว
  • มีการเพิ่มขึ้นของการใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ (Generative AI) ในกลุ่มวัยรุ่นทั่วโลก แม้ว่าเทคโนโลยีนี้จะเป็นที่นิยมและมีประโยชน์ในหลาย ๆ ด้าน แต่ก็มีความเสี่ยงที่มาพร้อมกับการใช้งานโดยเฉพาะในกลุ่มเยาวชน

    ในปีที่ผ่านมา การใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ในกลุ่มคนทั่วไปเพิ่มขึ้นอย่างมาก โดยเฉพาะในอินเดียที่มีผู้ใช้งานสูงถึง 80% รองลงมาคือสิงคโปร์ แอฟริกาใต้ บราซิล และสหรัฐอเมริกา แต่ในขณะเดียวกัน 88% ของผู้สำรวจรู้สึกกังวลเกี่ยวกับความเสี่ยงที่มาพร้อมกับเทคโนโลยีนี้ เช่น การปกป้องข้อมูลส่วนบุคคลและการปลอมแปลงภาพ

    วัยรุ่นเป็นกลุ่มที่มีความเสี่ยงสูงในการได้รับข้อมูลเท็จ คำพูดแสดงความเกลียดชัง และเนื้อหาที่มีความรุนแรง นอกจากนี้ยังมีความเสี่ยงเกี่ยวกับการกลั่นแกล้งทางอินเตอร์เน็ต การทำร้ายตัวเอง และการเข้าถึงภาพลามกปลอมแบบลึกซึ้ง (deepfake pornography)

    เมื่อเผชิญกับความเสี่ยงออนไลน์ วัยรุ่นส่วนใหญ่มักจะเปลี่ยนเนื้อหา บล็อกผู้ติดต่อ หรือปิดเสียง และมักจะพูดคุยกับคนรอบข้างเกี่ยวกับประสบการณ์ของพวกเขา อย่างไรก็ตาม มีเพียง 37% เท่านั้นที่รายงานเหตุการณ์เพราะพวกเขาเชื่อว่ามันจะไม่ส่งผลกระทบต่อผู้กระทำผิด

    นอกจากนี้ยังมีข้อกังวลจากผู้ปกครองเกี่ยวกับการใช้ AI เพื่อการโกงในโรงเรียนและการเข้าถึงเนื้อหาที่เป็นอันตราย การวิจัยยังเผยให้เห็นว่ามีเพียง 38% ของผู้สำรวจที่สามารถแยกแยะภาพจริงจากภาพที่สร้างโดย AI ได้อย่างถูกต้อง

    https://www.thestar.com.my/tech/tech-news/2025/02/13/teens-and-the-risks-of-generative-ai
    มีการเพิ่มขึ้นของการใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ (Generative AI) ในกลุ่มวัยรุ่นทั่วโลก แม้ว่าเทคโนโลยีนี้จะเป็นที่นิยมและมีประโยชน์ในหลาย ๆ ด้าน แต่ก็มีความเสี่ยงที่มาพร้อมกับการใช้งานโดยเฉพาะในกลุ่มเยาวชน ในปีที่ผ่านมา การใช้ปัญญาประดิษฐ์แบบสร้างสรรค์ในกลุ่มคนทั่วไปเพิ่มขึ้นอย่างมาก โดยเฉพาะในอินเดียที่มีผู้ใช้งานสูงถึง 80% รองลงมาคือสิงคโปร์ แอฟริกาใต้ บราซิล และสหรัฐอเมริกา แต่ในขณะเดียวกัน 88% ของผู้สำรวจรู้สึกกังวลเกี่ยวกับความเสี่ยงที่มาพร้อมกับเทคโนโลยีนี้ เช่น การปกป้องข้อมูลส่วนบุคคลและการปลอมแปลงภาพ วัยรุ่นเป็นกลุ่มที่มีความเสี่ยงสูงในการได้รับข้อมูลเท็จ คำพูดแสดงความเกลียดชัง และเนื้อหาที่มีความรุนแรง นอกจากนี้ยังมีความเสี่ยงเกี่ยวกับการกลั่นแกล้งทางอินเตอร์เน็ต การทำร้ายตัวเอง และการเข้าถึงภาพลามกปลอมแบบลึกซึ้ง (deepfake pornography) เมื่อเผชิญกับความเสี่ยงออนไลน์ วัยรุ่นส่วนใหญ่มักจะเปลี่ยนเนื้อหา บล็อกผู้ติดต่อ หรือปิดเสียง และมักจะพูดคุยกับคนรอบข้างเกี่ยวกับประสบการณ์ของพวกเขา อย่างไรก็ตาม มีเพียง 37% เท่านั้นที่รายงานเหตุการณ์เพราะพวกเขาเชื่อว่ามันจะไม่ส่งผลกระทบต่อผู้กระทำผิด นอกจากนี้ยังมีข้อกังวลจากผู้ปกครองเกี่ยวกับการใช้ AI เพื่อการโกงในโรงเรียนและการเข้าถึงเนื้อหาที่เป็นอันตราย การวิจัยยังเผยให้เห็นว่ามีเพียง 38% ของผู้สำรวจที่สามารถแยกแยะภาพจริงจากภาพที่สร้างโดย AI ได้อย่างถูกต้อง https://www.thestar.com.my/tech/tech-news/2025/02/13/teens-and-the-risks-of-generative-ai
    WWW.THESTAR.COM.MY
    Teens and the risks of generative AI
    The rise of artificial intelligence is contributing to an increase in risky content, whether it be disinformation or explicit images. Teenagers are particularly exposed to this type of content and do not hesitate to take action when they deem it necessary.
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 428 มุมมอง 0 รีวิว
Pages Boosts