• เรื่องเล่าจากโลกไซเบอร์: เมื่อ AI กลายเป็นเครื่องมือของสายลับเกาหลีเหนือ

    ลองจินตนาการว่าคุณกำลังสัมภาษณ์พนักงานไอทีผ่านวิดีโอคอล—เขาดูมืออาชีพ พูดภาษาอังกฤษคล่อง และมีโปรไฟล์ LinkedIn สมบูรณ์แบบ แต่เบื้องหลังนั้นคือปฏิบัติการระดับชาติของเกาหลีเหนือที่ใช้ AI ปลอมตัวคน สร้างเอกสารปลอม และแทรกซึมเข้าไปในบริษัทเทคโนโลยีทั่วโลก เพื่อหาเงินสนับสนุนโครงการอาวุธนิวเคลียร์

    รายงานล่าสุดจาก CrowdStrike เผยว่าในช่วง 12 เดือนที่ผ่านมา มีกรณีที่สายลับไซเบอร์ของเกาหลีเหนือได้งานเป็นนักพัฒนาซอฟต์แวร์แบบรีโมตกว่า 320 ครั้ง โดยใช้เครื่องมือ AI สร้างเรซูเม่ ปลอมภาพโปรไฟล์ และแม้แต่ใช้ deepfake เปลี่ยนใบหน้าในวิดีโอคอลให้ดูเหมือนคนอื่น

    เมื่อได้งานแล้ว พวกเขาใช้ AI ช่วยเขียนโค้ด แปลภาษา และตอบอีเมลจากหัวหน้าอย่างมืออาชีพ ทั้งที่บางคนทำงานพร้อมกันถึง 3–4 บริษัท และไม่พูดอังกฤษได้จริง

    เบื้องหลังความสำเร็จนี้คือ “ฟาร์มแล็ปท็อป” ที่ตั้งอยู่ในสหรัฐฯ โดยมีผู้ร่วมขบวนการชาวอเมริกันช่วยรับเครื่องจากบริษัท แล้วติดตั้งซอฟต์แวร์ให้สายลับเกาหลีเหนือเข้าถึงระบบจากต่างประเทศได้อย่างแนบเนียน

    รายได้จากแผนนี้สูงถึง 600 ล้านดอลลาร์ต่อปี และบางกรณีมีการขโมยข้อมูลภายในบริษัทเพื่อใช้ในการแบล็กเมล์หรือขายต่อให้แฮกเกอร์อื่น

    แม้จะมีการจับกุมและลงโทษผู้ร่วมขบวนการในสหรัฐฯ แต่ CrowdStrike เตือนว่าการตรวจสอบตัวตนแบบเดิมไม่เพียงพออีกต่อไป และแนะนำให้ใช้เทคนิคใหม่ เช่น การทดสอบ deepfake แบบเรียลไทม์ในระหว่างสัมภาษณ์

    CrowdStrike พบการแทรกซึมของสายลับเกาหลีเหนือในบริษัทไอทีแบบรีโมตกว่า 320 กรณีใน 12 เดือน
    ใช้ AI สร้างเรซูเม่ ปลอมโปรไฟล์ และ deepfake ในวิดีโอคอล

    สายลับใช้ AI ช่วยทำงานจริง เช่น เขียนโค้ด แปลภาษา และตอบอีเมล
    บางคนทำงานพร้อมกันหลายบริษัทโดยไม่ถูกจับได้

    มีการตั้ง “ฟาร์มแล็ปท็อป” ในสหรัฐฯ เพื่อให้สายลับเข้าถึงระบบจากต่างประเทศ
    ผู้ร่วมขบวนการในสหรัฐฯ ถูกจับและจำคุกหลายปี

    รายได้จากแผนนี้ถูกนำไปสนับสนุนโครงการอาวุธของเกาหลีเหนือ
    สร้างรายได้สูงถึง 600 ล้านดอลลาร์ต่อปี

    Microsoft พบว่าเกาหลีเหนือใช้ AI เปลี่ยนภาพในเอกสารและใช้ซอฟต์แวร์เปลี่ยนเสียง
    เพื่อให้ดูเหมือนเป็นผู้สมัครงานจริงจากประเทศตะวันตก

    ทีมสายลับถูกฝึกจากมหาวิทยาลัยชั้นนำในเปียงยาง
    มีเป้าหมายหาเงินเดือนขั้นต่ำ $10,000 ต่อคนต่อเดือน

    ฟาร์มแล็ปท็อปในสหรัฐฯ มีการควบคุมอุปกรณ์หลายสิบเครื่องพร้อมกัน
    ใช้ซอฟต์แวร์รีโมตเพื่อให้สายลับทำงานจากต่างประเทศได้

    บริษัทที่จ้างพนักงานรีโมตโดยไม่ตรวจสอบตัวตนอาจตกเป็นเหยื่อ
    เสี่ยงต่อการถูกขโมยข้อมูลหรือถูกแบล็กเมล์

    การใช้ deepfake ทำให้การสัมภาษณ์ผ่านวิดีโอไม่ปลอดภัยอีกต่อไป
    ผู้สมัครสามารถเปลี่ยนใบหน้าและเสียงแบบเรียลไทม์

    การจ้างงานแบบรีโมตเปิดช่องให้สายลับแทรกซึมได้ง่ายขึ้น
    โดยเฉพาะในบริษัทที่ไม่มีระบบตรวจสอบดิจิทัลอย่างเข้มงวด

    https://www.tomshardware.com/tech-industry/cyber-security/crowdstrike-report-details-scale-of-north-koreas-use-of-ai-in-remote-work-schemes-320-known-cases-in-the-last-year-funding-nations-weapons-programs
    🕵️‍♂️ เรื่องเล่าจากโลกไซเบอร์: เมื่อ AI กลายเป็นเครื่องมือของสายลับเกาหลีเหนือ ลองจินตนาการว่าคุณกำลังสัมภาษณ์พนักงานไอทีผ่านวิดีโอคอล—เขาดูมืออาชีพ พูดภาษาอังกฤษคล่อง และมีโปรไฟล์ LinkedIn สมบูรณ์แบบ แต่เบื้องหลังนั้นคือปฏิบัติการระดับชาติของเกาหลีเหนือที่ใช้ AI ปลอมตัวคน สร้างเอกสารปลอม และแทรกซึมเข้าไปในบริษัทเทคโนโลยีทั่วโลก เพื่อหาเงินสนับสนุนโครงการอาวุธนิวเคลียร์ รายงานล่าสุดจาก CrowdStrike เผยว่าในช่วง 12 เดือนที่ผ่านมา มีกรณีที่สายลับไซเบอร์ของเกาหลีเหนือได้งานเป็นนักพัฒนาซอฟต์แวร์แบบรีโมตกว่า 320 ครั้ง โดยใช้เครื่องมือ AI สร้างเรซูเม่ ปลอมภาพโปรไฟล์ และแม้แต่ใช้ deepfake เปลี่ยนใบหน้าในวิดีโอคอลให้ดูเหมือนคนอื่น เมื่อได้งานแล้ว พวกเขาใช้ AI ช่วยเขียนโค้ด แปลภาษา และตอบอีเมลจากหัวหน้าอย่างมืออาชีพ ทั้งที่บางคนทำงานพร้อมกันถึง 3–4 บริษัท และไม่พูดอังกฤษได้จริง เบื้องหลังความสำเร็จนี้คือ “ฟาร์มแล็ปท็อป” ที่ตั้งอยู่ในสหรัฐฯ โดยมีผู้ร่วมขบวนการชาวอเมริกันช่วยรับเครื่องจากบริษัท แล้วติดตั้งซอฟต์แวร์ให้สายลับเกาหลีเหนือเข้าถึงระบบจากต่างประเทศได้อย่างแนบเนียน รายได้จากแผนนี้สูงถึง 600 ล้านดอลลาร์ต่อปี และบางกรณีมีการขโมยข้อมูลภายในบริษัทเพื่อใช้ในการแบล็กเมล์หรือขายต่อให้แฮกเกอร์อื่น แม้จะมีการจับกุมและลงโทษผู้ร่วมขบวนการในสหรัฐฯ แต่ CrowdStrike เตือนว่าการตรวจสอบตัวตนแบบเดิมไม่เพียงพออีกต่อไป และแนะนำให้ใช้เทคนิคใหม่ เช่น การทดสอบ deepfake แบบเรียลไทม์ในระหว่างสัมภาษณ์ ✅ CrowdStrike พบการแทรกซึมของสายลับเกาหลีเหนือในบริษัทไอทีแบบรีโมตกว่า 320 กรณีใน 12 เดือน ➡️ ใช้ AI สร้างเรซูเม่ ปลอมโปรไฟล์ และ deepfake ในวิดีโอคอล ✅ สายลับใช้ AI ช่วยทำงานจริง เช่น เขียนโค้ด แปลภาษา และตอบอีเมล ➡️ บางคนทำงานพร้อมกันหลายบริษัทโดยไม่ถูกจับได้ ✅ มีการตั้ง “ฟาร์มแล็ปท็อป” ในสหรัฐฯ เพื่อให้สายลับเข้าถึงระบบจากต่างประเทศ ➡️ ผู้ร่วมขบวนการในสหรัฐฯ ถูกจับและจำคุกหลายปี ✅ รายได้จากแผนนี้ถูกนำไปสนับสนุนโครงการอาวุธของเกาหลีเหนือ ➡️ สร้างรายได้สูงถึง 600 ล้านดอลลาร์ต่อปี ✅ Microsoft พบว่าเกาหลีเหนือใช้ AI เปลี่ยนภาพในเอกสารและใช้ซอฟต์แวร์เปลี่ยนเสียง ➡️ เพื่อให้ดูเหมือนเป็นผู้สมัครงานจริงจากประเทศตะวันตก ✅ ทีมสายลับถูกฝึกจากมหาวิทยาลัยชั้นนำในเปียงยาง ➡️ มีเป้าหมายหาเงินเดือนขั้นต่ำ $10,000 ต่อคนต่อเดือน ✅ ฟาร์มแล็ปท็อปในสหรัฐฯ มีการควบคุมอุปกรณ์หลายสิบเครื่องพร้อมกัน ➡️ ใช้ซอฟต์แวร์รีโมตเพื่อให้สายลับทำงานจากต่างประเทศได้ ‼️ บริษัทที่จ้างพนักงานรีโมตโดยไม่ตรวจสอบตัวตนอาจตกเป็นเหยื่อ ⛔ เสี่ยงต่อการถูกขโมยข้อมูลหรือถูกแบล็กเมล์ ‼️ การใช้ deepfake ทำให้การสัมภาษณ์ผ่านวิดีโอไม่ปลอดภัยอีกต่อไป ⛔ ผู้สมัครสามารถเปลี่ยนใบหน้าและเสียงแบบเรียลไทม์ ‼️ การจ้างงานแบบรีโมตเปิดช่องให้สายลับแทรกซึมได้ง่ายขึ้น ⛔ โดยเฉพาะในบริษัทที่ไม่มีระบบตรวจสอบดิจิทัลอย่างเข้มงวด https://www.tomshardware.com/tech-industry/cyber-security/crowdstrike-report-details-scale-of-north-koreas-use-of-ai-in-remote-work-schemes-320-known-cases-in-the-last-year-funding-nations-weapons-programs
    WWW.TOMSHARDWARE.COM
    CrowdStrike report details scale of North Korea's use of AI in remote work schemes — 320 known cases in the last year, funding nation's weapons programs
    The Democratic People's Republic of Korea is using generative AI tools to land agents jobs at tech companies to fund its weapons programs.
    0 ความคิดเห็น 0 การแบ่งปัน 34 มุมมอง 0 รีวิว


  • ฮุนเซนกับจักรวาลทุนสีเทา

    บทความโดย สุรวิชช์ วีรวรรณ

    และคำแปลเขมร

    ហ៊ុន សែន និងចក្រវិថីទុនពណ៌ប្រផេះ

    ក្នុងរយៈពេលប៉ុន្មានឆ្នាំចុងក្រោយនេះ ពិភពលោកបានផ្តោតទស្សនៈទៅលើប្រទេសកម្ពុជា មិនមែនថាជាប្រទេសដែលរួចផុតពីសង្គ្រាមស៊ីវិលទេ ប៉ុន្តែជាស្តាប់នៃអាជីវកម្មឧក្រិដ្ឋកម្មសាយបឺ និងបណ្តាញទុនប្រផេះដែលកំពុងលើកកំពស់អំណាចឲ្យក្រុមមនុស្សមួយចំនួននៅក្រោមរបាំងនៃ “សេដ្ឋកិច្ចពិសេស” និងកាស៊ីណូតាមព្រំដែន។ ប្រជាជនជាងម៉ឺននាក់ពីចិន ថៃ មីយ៉ាន់ម៉ា ឡាវ វៀតណាម និងហ្វ៊ីលីពីន ត្រូវបានបញ្ឆោតឲ្យធ្វើការនៅក្នុងមជ្ឈមណ្ឌលបោកប្រាស់តាមអនឡាញ និងត្រូវគេបង្ខំទុកឲ្យធ្វើការដូចជាឈ្លក់បម្រើក្នុងប្រព័ន្ធពាណិជ្ជកម្មទំនើបដែលមិនស្មើភាពនឹងសិទ្ធិមនុស្សទេ។

    នៅកណ្តាលប្រព័ន្ធនេះគឺជាគ្រួសាររបស់អតីតនាយករដ្ឋមន្ត្រី ហ៊ុន សែន ដែលគ្រប់គ្រងប្រទេសកម្ពុជាមកជិត៤០ឆ្នាំ។ ទោះបីជានៅឆ្នាំ២០២៣ លោកបានបញ្ជូនអំណាចទៅឲ្យកូនប្រុសឈ្មោះ ហ៊ុន ម៉ាណែត ក៏ដោយ តែលោកនៅតែជាអ្នកគ្រប់គ្រងខាងក្រោយនៃរបប “ទុនកូនចៅ” និងការផ្តល់អំណាចដល់ក្រុមមនុស្សមួយតិចតួច។ សេដ្ឋកិច្ចកម្ពុជា ត្រូវបានប្រើជាឧបករណ៍សេដ្ឋកិច្ចប្រផេះ និងអំណាច “ឧកញ៉ា” បានក្លាយជានិមិត្តសញ្ញានៃសិទ្ធិពិសេស និងភាពលើសច្បាប់។

    មជ្ឈមណ្ឌលដ៏សំខាន់មួយនៃទុនប្រផេះ គឺក្រុមហ៊ុន “Huione Group” ដែលមានមូលដ្ឋាននៅភ្នំពេញ។ ក្រុមហ៊ុននេះមានអាជីវកម្មសំខាន់ៗដូចជា Huione Pay, Huione Crypto និង Huione Guarantee ដែលត្រូវបានប្រើប្រាស់ដើម្បីលាងប្រាក់ និងផ្លាស់ប្តូរព័ត៌មានបោកប្រាស់ជាសកល។ អង្គការសហប្រជាជាតិ និងយោងតាមរបាយការណ៍សន្តិសុខសហរដ្ឋអាមេរិក បានបង្ហាញថា Huione Guarantee មានប្រតិបត្តិការពាណិជ្ជកម្មរហូតដល់ ២៤,០០០–២៧,០០០លានដុល្លារចាប់តាំងពីឆ្នាំ ២០២១ ហើយគឺជាមជ្ឈមណ្ឌលលាងប្រាក់ធំបំផុតលើពិភពលោក។ មនុស្សដែលពាក់ពន្ធ័ជាមួយក្រុមនេះគឺ “ហ៊ុន តូ” ប្អូនបង្កាត់នាយករដ្ឋមន្ត្រី ហ៊ុន ម៉ាណែត និងជាហៅថ្លៃរបស់ ហ៊ុន សែន។

    ក្រៅពី ហ៊ុន តូ មានក្រុមទុនធំៗទៀតដែលជាប់ទាក់ទងជាមួយគ្រួសារហ៊ុន រួមមាន “លី យុងផាត់” (Ly Yong Phat) ដែលជាអ្នកលេងអាជីវកម្មជនជាតិភាគច្រើនកម្ពុជា-ថៃ។ គាត់ជាម្ចាស់ក្រុមហ៊ុន LYP Group និងសេដ្ឋកិច្ចពិសេសនៅខេត្ត Koh Kong និងបើកដំណើរការកាស៊ីណូជាច្រើន។ ក្នុងឆ្នាំ២០២៤ រដ្ឋាភិបាលអាមេរិកបានចេញវិធានការផ្ដន្ទាទោសលី យុងផាត់ក្រោមច្បាប់ Global Magnitsky Act ដោយសារ ជាប់ពាក់ពន្ធ័នឹងការបង្ខំឲ្យប្រើប្រាស់កម្លាំងពលកម្មក្នុងមជ្ឈមណ្ឌលស្កែម (scam center)។

    លី យុងផាត់ មិនមែនត្រឹមជាអ្នកគាំទ្ររដ្ឋាភិបាលទេ ប៉ុន្តែគាត់មានការតភ្ជាប់គ្រួសារនឹង ហ៊ុន សែន តាមរយៈកូនស្រីរបស់គាត់ដែលរៀបការជាមួយហ៊ុន ជា (Hun Chea) ដែលជាកូនប្រុសរបស់ហ៊ុន សែន។ គាត់ក្លាយជាសមាជិកសំខាន់ម្នាក់នៃ “រាជវង្សអំណាច” ដែលទទួលបានសិទ្ធិពិសេសគ្រប់វិស័យ។

    អ្នកមានឥទ្ធិពលទៀតគឺ “កុក អាន” (Kok An) ជាជនជាតិចិន ដែលជាសមាជិកព្រឹទ្ធសភា CPP និងម្ចាស់កាស៊ីណូ Crown Casino នៅទីក្រុង Poipet និង Sihanoukville។ គាត់ត្រូវបានចោទថាពាក់ពន្ធ័នឹងការជួញដូរមនុស្ស និងកម្លាំងពលកម្មខុសច្បាប់ ប៉ុន្តែម្ចាស់អំណាចមិនសូវចាត់ការណ៍ទេ។

    Try Pheap គឺជាអ្នកធ្វើអាជីវកម្មធំម្នាក់ទៀតដែលបានទទួលសិទិ្ធប្រើប្រាស់ដីព្រៃធំៗ និងធនធានធម្មជាតិ។ គាត់ជាម្ចាស់ក្រុមហ៊ុន Try Pheap Group និងដឹកនាំសេដ្ឋកិច្ចពិសេស Thmor Da ដែលត្រូវបានយោងថាជាគេហដ្ឋានស្កែម។ គាត់ត្រូវបានអាមេរិកផ្ដន្ទាទោសនៅឆ្នាំ ២០១៩ ដោយសារ ទោសកាត់បន្ថយព្រៃឈើខុសច្បាប់ លាងប្រាក់ និងការគំរាមដល់សហគមន៍ជនជាតិដើម។

    Chen Zhi ជាជនជាតិចិនទទួលសញ្ជាតិកម្ពុជា និងជាប្រធានក្រុមហ៊ុន Prince Group។ គាត់បានទទួលតំណែងឧកញ៉ា និងសិទ្ធិពិសេសក្នុងគម្រោងអភិវឌ្ឍន៍នៅតាមបណ្តាខេត្ត ជាពិសេស Sihanoukville ដែលត្រូវបានចោទថាជាគេហដ្ឋាននៃមជ្ឈមណ្ឌលស្កែមធំបំផុតក្នុងប្រទេស។

    តំណែង “ឧកញ៉ា” ដែលអោយដល់មនុស្សទាំងនេះ គឺជាការពង្រឹងសិទ្ធិពិសេសលើច្បាប់។ ទោះបីជាតំណែងនេះជាសិទ្ធិផ្ដល់ដោយព្រះមហាក្សត្រដល់អ្នកឧបត្ថម្ភសាធារណៈ ក្នុងជាក់ស្ដែង វាបានក្លាយជារបប “ទិញអំណាច” ហើយជាសញ្ញានៃការបំប្លែងរដ្ឋឲ្យក្លាយជាគ្រឿងចក្រ សេដ្ឋកិច្ចប្រផេះ។

    ក្រៅពីក្រុមដែលជាប់នឹងគ្រួសារ ហ៊ុន នៅមានឧកញ៉ាផ្សេងទៀតដែលពាក់ពន្ធ័នឹងការលួចលេចដូចជា:

    Choeung Sopheap និង Lau Meng Khin ម្ចាស់ក្រុមហ៊ុន Pheapimex ដែលត្រូវបានចោទថាបង្ខំរំលោភដីសហគមន៍
    Leng Channa ដែលត្រូវដកឋានៈឧកញ៉ា ពីបទលួចលះលុយក្នុងគម្រោងអចលនទ្រព្យ
    Heng Sithy ដែលបង្ហាញអំពើអាសន្នក្នុងប្រព័ន្ធកាស៊ីណូ
    Srey Sina ដែលត្រូវទោសជាប់ជាប់ពន្ធនាគារៗជីវិតពីបទបាញ់សម្លាប់ពលរដ្ឋ

    នេះជាភស្តុតាងថា “ឧកញ៉ា” មិនមែនជាតំណែងសេដ្ឋកិច្ចសង្គមទេ ប៉ុន្តែជាឧបករណ៍អោយអំណាចប្រើច្បាប់ទៅរកផលប្រយោជន៍ផ្ទាល់ខ្លួន។

    អង្គការ UNODC, Human Rights Watch, Humanity Research Consultancy និងសារព័ត៌មានអន្តរជាតិមួយចំនួនរួមទាំង The Times, Reuters, Asia Financial, Wired និង The Guardian បានរាយការណ៍ថា ប្រព័ន្ធស្កែមនេះពាក់ពន្ធ័ជាស្ថាពរជាមួយរដ្ឋកម្ពុជា និងត្រូវការការពារដោយច្បាប់។ វាមានការប្រើប្រាស់បច្ចេកវិទ្យាចុងក្រោយដូចជា AI និង Deepfake ដើម្បីបង្កើនភាពជឿជាក់ និងរបៀបលាងប្រាក់តាមតម្លៃឌីជីថលរួមមាន Huione Pay និង Huione Crypto។

    ចំណាត់ការរដ្ឋបាលរបស់កម្ពុជា មិនសូវបង្ហាញភាពស្មោះត្រង់នៃការតវ៉ា ស្កែមទេ។ ជាធម្មតា រដ្ឋធ្វើការចាប់ឲ្យឃុំខ្លួនតែពលកម្មក្រោម ប៉ុន្តែឱ្យអ្នកដឹកនាំស្កែមគេចផុតពីការចោទប្រកាន់ ទោះមានភស្តុតាងពីជនរងគ្រោះក៏ដោយ។

    អ្វីដែលគួរឱ្យបារម្ភខ្លាំងនោះគឺ ប្រព័ន្ធនយោបាយកំពុងរលាយចូលទៅក្នុងទុនប្រផេះ។ ការត្រួតពិនិត្យដោយអង្គការឯករាជ្យមិនអាចដំណើរការបានពេញលេញទេ ព្រោះក្រុមទុននេះគឺជាអ្នកជួយជ្រោមជ្រែង CPP និងគ្រួសារហ៊ុនតាមរយៈទុនគាំទ្រការអភិវឌ្ឍន៍ និងសេដ្ឋកិច្ចរដ្ឋ។

    ក្រោមរូបរាងនៃសេដ្ឋកិច្ចបើកចំហនិងការអភិវឌ្ឍ ប្រទេសកម្ពុជាកំពុងដើរចូលទៅក្នុងរដ្ឋដែលក្លាយជាឧបករណ៍របស់ទុនឯកជនដែលគ្មានការទទួលខុសត្រូវ ខណៈពលរដ្ឋកំពុងរងគ្រោះនិងគ្មាននរណារងចាំ ក្នុងភាពងងឹតនៃពាណិជ្ជកម្មបោកប្រាស់ដែលមាន “ក្សត្រជាព្រះវិញ្ញាណ” និង “ទុនប្រផេះ” ជាអ្នកនាំផ្លូវ។


    Surawich Verawan

    คลิก>> https://mgronline.com/daily/detail/9680000072299
    ฮุนเซนกับจักรวาลทุนสีเทา บทความโดย สุรวิชช์ วีรวรรณ และคำแปลเขมร ហ៊ុន សែន និងចក្រវិថីទុនពណ៌ប្រផេះ ក្នុងរយៈពេលប៉ុន្មានឆ្នាំចុងក្រោយនេះ ពិភពលោកបានផ្តោតទស្សនៈទៅលើប្រទេសកម្ពុជា មិនមែនថាជាប្រទេសដែលរួចផុតពីសង្គ្រាមស៊ីវិលទេ ប៉ុន្តែជាស្តាប់នៃអាជីវកម្មឧក្រិដ្ឋកម្មសាយបឺ និងបណ្តាញទុនប្រផេះដែលកំពុងលើកកំពស់អំណាចឲ្យក្រុមមនុស្សមួយចំនួននៅក្រោមរបាំងនៃ “សេដ្ឋកិច្ចពិសេស” និងកាស៊ីណូតាមព្រំដែន។ ប្រជាជនជាងម៉ឺននាក់ពីចិន ថៃ មីយ៉ាន់ម៉ា ឡាវ វៀតណាម និងហ្វ៊ីលីពីន ត្រូវបានបញ្ឆោតឲ្យធ្វើការនៅក្នុងមជ្ឈមណ្ឌលបោកប្រាស់តាមអនឡាញ និងត្រូវគេបង្ខំទុកឲ្យធ្វើការដូចជាឈ្លក់បម្រើក្នុងប្រព័ន្ធពាណិជ្ជកម្មទំនើបដែលមិនស្មើភាពនឹងសិទ្ធិមនុស្សទេ។ នៅកណ្តាលប្រព័ន្ធនេះគឺជាគ្រួសាររបស់អតីតនាយករដ្ឋមន្ត្រី ហ៊ុន សែន ដែលគ្រប់គ្រងប្រទេសកម្ពុជាមកជិត៤០ឆ្នាំ។ ទោះបីជានៅឆ្នាំ២០២៣ លោកបានបញ្ជូនអំណាចទៅឲ្យកូនប្រុសឈ្មោះ ហ៊ុន ម៉ាណែត ក៏ដោយ តែលោកនៅតែជាអ្នកគ្រប់គ្រងខាងក្រោយនៃរបប “ទុនកូនចៅ” និងការផ្តល់អំណាចដល់ក្រុមមនុស្សមួយតិចតួច។ សេដ្ឋកិច្ចកម្ពុជា ត្រូវបានប្រើជាឧបករណ៍សេដ្ឋកិច្ចប្រផេះ និងអំណាច “ឧកញ៉ា” បានក្លាយជានិមិត្តសញ្ញានៃសិទ្ធិពិសេស និងភាពលើសច្បាប់។ មជ្ឈមណ្ឌលដ៏សំខាន់មួយនៃទុនប្រផេះ គឺក្រុមហ៊ុន “Huione Group” ដែលមានមូលដ្ឋាននៅភ្នំពេញ។ ក្រុមហ៊ុននេះមានអាជីវកម្មសំខាន់ៗដូចជា Huione Pay, Huione Crypto និង Huione Guarantee ដែលត្រូវបានប្រើប្រាស់ដើម្បីលាងប្រាក់ និងផ្លាស់ប្តូរព័ត៌មានបោកប្រាស់ជាសកល។ អង្គការសហប្រជាជាតិ និងយោងតាមរបាយការណ៍សន្តិសុខសហរដ្ឋអាមេរិក បានបង្ហាញថា Huione Guarantee មានប្រតិបត្តិការពាណិជ្ជកម្មរហូតដល់ ២៤,០០០–២៧,០០០លានដុល្លារចាប់តាំងពីឆ្នាំ ២០២១ ហើយគឺជាមជ្ឈមណ្ឌលលាងប្រាក់ធំបំផុតលើពិភពលោក។ មនុស្សដែលពាក់ពន្ធ័ជាមួយក្រុមនេះគឺ “ហ៊ុន តូ” ប្អូនបង្កាត់នាយករដ្ឋមន្ត្រី ហ៊ុន ម៉ាណែត និងជាហៅថ្លៃរបស់ ហ៊ុន សែន។ ក្រៅពី ហ៊ុន តូ មានក្រុមទុនធំៗទៀតដែលជាប់ទាក់ទងជាមួយគ្រួសារហ៊ុន រួមមាន “លី យុងផាត់” (Ly Yong Phat) ដែលជាអ្នកលេងអាជីវកម្មជនជាតិភាគច្រើនកម្ពុជា-ថៃ។ គាត់ជាម្ចាស់ក្រុមហ៊ុន LYP Group និងសេដ្ឋកិច្ចពិសេសនៅខេត្ត Koh Kong និងបើកដំណើរការកាស៊ីណូជាច្រើន។ ក្នុងឆ្នាំ២០២៤ រដ្ឋាភិបាលអាមេរិកបានចេញវិធានការផ្ដន្ទាទោសលី យុងផាត់ក្រោមច្បាប់ Global Magnitsky Act ដោយសារ ជាប់ពាក់ពន្ធ័នឹងការបង្ខំឲ្យប្រើប្រាស់កម្លាំងពលកម្មក្នុងមជ្ឈមណ្ឌលស្កែម (scam center)។ លី យុងផាត់ មិនមែនត្រឹមជាអ្នកគាំទ្ររដ្ឋាភិបាលទេ ប៉ុន្តែគាត់មានការតភ្ជាប់គ្រួសារនឹង ហ៊ុន សែន តាមរយៈកូនស្រីរបស់គាត់ដែលរៀបការជាមួយហ៊ុន ជា (Hun Chea) ដែលជាកូនប្រុសរបស់ហ៊ុន សែន។ គាត់ក្លាយជាសមាជិកសំខាន់ម្នាក់នៃ “រាជវង្សអំណាច” ដែលទទួលបានសិទ្ធិពិសេសគ្រប់វិស័យ។ អ្នកមានឥទ្ធិពលទៀតគឺ “កុក អាន” (Kok An) ជាជនជាតិចិន ដែលជាសមាជិកព្រឹទ្ធសភា CPP និងម្ចាស់កាស៊ីណូ Crown Casino នៅទីក្រុង Poipet និង Sihanoukville។ គាត់ត្រូវបានចោទថាពាក់ពន្ធ័នឹងការជួញដូរមនុស្ស និងកម្លាំងពលកម្មខុសច្បាប់ ប៉ុន្តែម្ចាស់អំណាចមិនសូវចាត់ការណ៍ទេ។ Try Pheap គឺជាអ្នកធ្វើអាជីវកម្មធំម្នាក់ទៀតដែលបានទទួលសិទិ្ធប្រើប្រាស់ដីព្រៃធំៗ និងធនធានធម្មជាតិ។ គាត់ជាម្ចាស់ក្រុមហ៊ុន Try Pheap Group និងដឹកនាំសេដ្ឋកិច្ចពិសេស Thmor Da ដែលត្រូវបានយោងថាជាគេហដ្ឋានស្កែម។ គាត់ត្រូវបានអាមេរិកផ្ដន្ទាទោសនៅឆ្នាំ ២០១៩ ដោយសារ ទោសកាត់បន្ថយព្រៃឈើខុសច្បាប់ លាងប្រាក់ និងការគំរាមដល់សហគមន៍ជនជាតិដើម។ Chen Zhi ជាជនជាតិចិនទទួលសញ្ជាតិកម្ពុជា និងជាប្រធានក្រុមហ៊ុន Prince Group។ គាត់បានទទួលតំណែងឧកញ៉ា និងសិទ្ធិពិសេសក្នុងគម្រោងអភិវឌ្ឍន៍នៅតាមបណ្តាខេត្ត ជាពិសេស Sihanoukville ដែលត្រូវបានចោទថាជាគេហដ្ឋាននៃមជ្ឈមណ្ឌលស្កែមធំបំផុតក្នុងប្រទេស។ តំណែង “ឧកញ៉ា” ដែលអោយដល់មនុស្សទាំងនេះ គឺជាការពង្រឹងសិទ្ធិពិសេសលើច្បាប់។ ទោះបីជាតំណែងនេះជាសិទ្ធិផ្ដល់ដោយព្រះមហាក្សត្រដល់អ្នកឧបត្ថម្ភសាធារណៈ ក្នុងជាក់ស្ដែង វាបានក្លាយជារបប “ទិញអំណាច” ហើយជាសញ្ញានៃការបំប្លែងរដ្ឋឲ្យក្លាយជាគ្រឿងចក្រ សេដ្ឋកិច្ចប្រផេះ។ ក្រៅពីក្រុមដែលជាប់នឹងគ្រួសារ ហ៊ុន នៅមានឧកញ៉ាផ្សេងទៀតដែលពាក់ពន្ធ័នឹងការលួចលេចដូចជា: Choeung Sopheap និង Lau Meng Khin ម្ចាស់ក្រុមហ៊ុន Pheapimex ដែលត្រូវបានចោទថាបង្ខំរំលោភដីសហគមន៍ Leng Channa ដែលត្រូវដកឋានៈឧកញ៉ា ពីបទលួចលះលុយក្នុងគម្រោងអចលនទ្រព្យ Heng Sithy ដែលបង្ហាញអំពើអាសន្នក្នុងប្រព័ន្ធកាស៊ីណូ Srey Sina ដែលត្រូវទោសជាប់ជាប់ពន្ធនាគារៗជីវិតពីបទបាញ់សម្លាប់ពលរដ្ឋ នេះជាភស្តុតាងថា “ឧកញ៉ា” មិនមែនជាតំណែងសេដ្ឋកិច្ចសង្គមទេ ប៉ុន្តែជាឧបករណ៍អោយអំណាចប្រើច្បាប់ទៅរកផលប្រយោជន៍ផ្ទាល់ខ្លួន។ អង្គការ UNODC, Human Rights Watch, Humanity Research Consultancy និងសារព័ត៌មានអន្តរជាតិមួយចំនួនរួមទាំង The Times, Reuters, Asia Financial, Wired និង The Guardian បានរាយការណ៍ថា ប្រព័ន្ធស្កែមនេះពាក់ពន្ធ័ជាស្ថាពរជាមួយរដ្ឋកម្ពុជា និងត្រូវការការពារដោយច្បាប់។ វាមានការប្រើប្រាស់បច្ចេកវិទ្យាចុងក្រោយដូចជា AI និង Deepfake ដើម្បីបង្កើនភាពជឿជាក់ និងរបៀបលាងប្រាក់តាមតម្លៃឌីជីថលរួមមាន Huione Pay និង Huione Crypto។ ចំណាត់ការរដ្ឋបាលរបស់កម្ពុជា មិនសូវបង្ហាញភាពស្មោះត្រង់នៃការតវ៉ា ស្កែមទេ។ ជាធម្មតា រដ្ឋធ្វើការចាប់ឲ្យឃុំខ្លួនតែពលកម្មក្រោម ប៉ុន្តែឱ្យអ្នកដឹកនាំស្កែមគេចផុតពីការចោទប្រកាន់ ទោះមានភស្តុតាងពីជនរងគ្រោះក៏ដោយ។ អ្វីដែលគួរឱ្យបារម្ភខ្លាំងនោះគឺ ប្រព័ន្ធនយោបាយកំពុងរលាយចូលទៅក្នុងទុនប្រផេះ។ ការត្រួតពិនិត្យដោយអង្គការឯករាជ្យមិនអាចដំណើរការបានពេញលេញទេ ព្រោះក្រុមទុននេះគឺជាអ្នកជួយជ្រោមជ្រែង CPP និងគ្រួសារហ៊ុនតាមរយៈទុនគាំទ្រការអភិវឌ្ឍន៍ និងសេដ្ឋកិច្ចរដ្ឋ។ ក្រោមរូបរាងនៃសេដ្ឋកិច្ចបើកចំហនិងការអភិវឌ្ឍ ប្រទេសកម្ពុជាកំពុងដើរចូលទៅក្នុងរដ្ឋដែលក្លាយជាឧបករណ៍របស់ទុនឯកជនដែលគ្មានការទទួលខុសត្រូវ ខណៈពលរដ្ឋកំពុងរងគ្រោះនិងគ្មាននរណារងចាំ ក្នុងភាពងងឹតនៃពាណិជ្ជកម្មបោកប្រាស់ដែលមាន “ក្សត្រជាព្រះវិញ្ញាណ” និង “ទុនប្រផេះ” ជាអ្នកនាំផ្លូវ។ — Surawich Verawan คลิก>> https://mgronline.com/daily/detail/9680000072299
    MGRONLINE.COM
    ฮุนเซนกับจักรวาลทุนสีเทา
    ในช่วงไม่กี่ปีที่ผ่านมาโลกเริ่มจับตา “กัมพูชา” ไม่ใช่ในฐานะประเทศที่พ้นจากสงครามกลางเมืองแต่ในฐานะ “ศูนย์กลางของอาชญากรรมไซเบอร์” และ “ธุรกิจสแกม”ระดับโลกซึ่งมีเครือข่ายทุนแฝงอยู่ภายใต้หน้ากากของนักธุรกิจสัมปทานเขตเศรษฐกิจพิเศษและ
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 145 มุมมอง 0 รีวิว
  • เรื่องเล่าจากภาพลวงตา: เมื่อภาพถ่ายกลายเป็นสนามรบของความจริง
    Microsoft ได้เปิดตัวเว็บไซต์เกม “Real or Not” ที่ให้ผู้ใช้ทดสอบความสามารถในการแยกแยะภาพจริงกับภาพที่สร้างโดย AI โดยใช้ภาพจากคลังภาพถ่ายและโมเดล AI หลายตัว เช่น Flux Pro และ GAN deepfakes

    จากการศึกษาภาพกว่า 287,000 ภาพ โดยผู้เข้าร่วม 12,500 คนทั่วโลก พบว่า:
    - คนทั่วไปสามารถแยกแยะภาพจริงจากภาพปลอมได้ถูกต้องเพียง 63%
    - ภาพที่สร้างโดย GAN ซึ่งเน้นเฉพาะใบหน้าหรือใช้เทคนิค inpainting หลอกผู้ชมได้ถึง 55%
    - ภาพจริงบางภาพกลับถูกเข้าใจผิดว่าเป็นภาพปลอม โดยเฉพาะภาพที่มีแสง สี หรือมุมกล้องแปลกตา เช่น ภาพทหารในสถานการณ์พิเศษ

    Microsoft ยังเผยว่าเครื่องมือตรวจจับภาพปลอมที่กำลังพัฒนาอยู่สามารถแยกแยะได้แม่นยำถึง 95% ซึ่งเหนือกว่าความสามารถของมนุษย์อย่างชัดเจน

    Microsoft เปิดตัวเว็บไซต์ “Real or Not” เพื่อทดสอบการแยกแยะภาพจริงกับภาพที่สร้างโดย AI
    ใช้ภาพจากคลังภาพถ่ายและโมเดล AI เช่น Flux Pro และ GAN deepfakes
    ผู้ใช้ต้องเลือกว่าภาพที่เห็นเป็นของจริงหรือของปลอม

    ผลการศึกษาจากภาพ 287,000 ภาพ โดยผู้เข้าร่วม 12,500 คนทั่วโลก
    ผู้ใช้สามารถแยกแยะภาพได้ถูกต้องเฉลี่ย 63%
    ภาพใบหน้าที่สร้างโดย GAN หลอกผู้ชมได้ถึง 55%

    ภาพจริงบางภาพกลับถูกเข้าใจผิดว่าเป็นภาพปลอม
    เช่น ภาพทหารในสถานการณ์แสงและสีแปลกตา
    แสดงให้เห็นว่าความแปลกของภาพจริงอาจทำให้คนสงสัยว่าเป็นภาพปลอม

    AI ที่ Microsoft กำลังพัฒนาสามารถตรวจจับภาพปลอมได้แม่นยำถึง 95%
    ใช้เทคนิคการวิเคราะห์ระดับพิกเซลและความถี่ของภาพ
    มีความแม่นยำสูงกว่าการตัดสินใจของมนุษย์

    Flux Pro AI สามารถสร้างภาพที่ดูเหมือนถ่ายจากมือถือทั่วไปได้
    ลดความเรียบเนียนเกินจริงของภาพ AI แบบเดิม
    ทำให้ภาพปลอมดูเหมือนภาพจริงในชีวิตประจำวันมากขึ้น

    ภาพที่สร้างโดย AI มีความสมจริงมากขึ้นจนยากต่อการตรวจจับด้วยสายตา
    ผู้ใช้ทั่วไปอาจถูกหลอกโดยภาพที่ดูเหมือนภาพถ่ายจริง
    ส่งผลต่อความน่าเชื่อถือของข้อมูลภาพในสื่อสังคมและข่าวสาร

    ภาพจริงที่มีองค์ประกอบแปลกตาอาจถูกเข้าใจผิดว่าเป็นภาพปลอม
    เช่น ภาพที่มีแสงผิดธรรมชาติหรือมุมกล้องไม่คุ้นเคย
    อาจทำให้เกิดการปฏิเสธข้อมูลที่เป็นความจริง

    การใช้ภาพปลอมเพื่อสร้างความเข้าใจผิดอาจนำไปสู่การเผยแพร่ข้อมูลเท็จ
    โดยเฉพาะในบริบททางการเมืองหรือข่าวปลอม
    เสี่ยงต่อการบิดเบือนความคิดเห็นสาธารณะ

    การพัฒนา AI ที่ตรวจจับภาพปลอมยังต้องการการปรับปรุงเพื่อรองรับโมเดลใหม่ๆ
    โมเดล GAN ใหม่ๆ อาจหลบเลี่ยงการตรวจจับได้
    ต้องมีการอัปเดตระบบตรวจจับเป็นประจำ

    https://www.techspot.com/news/108862-think-you-can-tell-fake-image-real-one.html
    🧠 เรื่องเล่าจากภาพลวงตา: เมื่อภาพถ่ายกลายเป็นสนามรบของความจริง Microsoft ได้เปิดตัวเว็บไซต์เกม “Real or Not” ที่ให้ผู้ใช้ทดสอบความสามารถในการแยกแยะภาพจริงกับภาพที่สร้างโดย AI โดยใช้ภาพจากคลังภาพถ่ายและโมเดล AI หลายตัว เช่น Flux Pro และ GAN deepfakes จากการศึกษาภาพกว่า 287,000 ภาพ โดยผู้เข้าร่วม 12,500 คนทั่วโลก พบว่า: - คนทั่วไปสามารถแยกแยะภาพจริงจากภาพปลอมได้ถูกต้องเพียง 63% - ภาพที่สร้างโดย GAN ซึ่งเน้นเฉพาะใบหน้าหรือใช้เทคนิค inpainting หลอกผู้ชมได้ถึง 55% - ภาพจริงบางภาพกลับถูกเข้าใจผิดว่าเป็นภาพปลอม โดยเฉพาะภาพที่มีแสง สี หรือมุมกล้องแปลกตา เช่น ภาพทหารในสถานการณ์พิเศษ Microsoft ยังเผยว่าเครื่องมือตรวจจับภาพปลอมที่กำลังพัฒนาอยู่สามารถแยกแยะได้แม่นยำถึง 95% ซึ่งเหนือกว่าความสามารถของมนุษย์อย่างชัดเจน ✅ Microsoft เปิดตัวเว็บไซต์ “Real or Not” เพื่อทดสอบการแยกแยะภาพจริงกับภาพที่สร้างโดย AI ➡️ ใช้ภาพจากคลังภาพถ่ายและโมเดล AI เช่น Flux Pro และ GAN deepfakes ➡️ ผู้ใช้ต้องเลือกว่าภาพที่เห็นเป็นของจริงหรือของปลอม ✅ ผลการศึกษาจากภาพ 287,000 ภาพ โดยผู้เข้าร่วม 12,500 คนทั่วโลก ➡️ ผู้ใช้สามารถแยกแยะภาพได้ถูกต้องเฉลี่ย 63% ➡️ ภาพใบหน้าที่สร้างโดย GAN หลอกผู้ชมได้ถึง 55% ✅ ภาพจริงบางภาพกลับถูกเข้าใจผิดว่าเป็นภาพปลอม ➡️ เช่น ภาพทหารในสถานการณ์แสงและสีแปลกตา ➡️ แสดงให้เห็นว่าความแปลกของภาพจริงอาจทำให้คนสงสัยว่าเป็นภาพปลอม ✅ AI ที่ Microsoft กำลังพัฒนาสามารถตรวจจับภาพปลอมได้แม่นยำถึง 95% ➡️ ใช้เทคนิคการวิเคราะห์ระดับพิกเซลและความถี่ของภาพ ➡️ มีความแม่นยำสูงกว่าการตัดสินใจของมนุษย์ ✅ Flux Pro AI สามารถสร้างภาพที่ดูเหมือนถ่ายจากมือถือทั่วไปได้ ➡️ ลดความเรียบเนียนเกินจริงของภาพ AI แบบเดิม ➡️ ทำให้ภาพปลอมดูเหมือนภาพจริงในชีวิตประจำวันมากขึ้น ‼️ ภาพที่สร้างโดย AI มีความสมจริงมากขึ้นจนยากต่อการตรวจจับด้วยสายตา ⛔ ผู้ใช้ทั่วไปอาจถูกหลอกโดยภาพที่ดูเหมือนภาพถ่ายจริง ⛔ ส่งผลต่อความน่าเชื่อถือของข้อมูลภาพในสื่อสังคมและข่าวสาร ‼️ ภาพจริงที่มีองค์ประกอบแปลกตาอาจถูกเข้าใจผิดว่าเป็นภาพปลอม ⛔ เช่น ภาพที่มีแสงผิดธรรมชาติหรือมุมกล้องไม่คุ้นเคย ⛔ อาจทำให้เกิดการปฏิเสธข้อมูลที่เป็นความจริง ‼️ การใช้ภาพปลอมเพื่อสร้างความเข้าใจผิดอาจนำไปสู่การเผยแพร่ข้อมูลเท็จ ⛔ โดยเฉพาะในบริบททางการเมืองหรือข่าวปลอม ⛔ เสี่ยงต่อการบิดเบือนความคิดเห็นสาธารณะ ‼️ การพัฒนา AI ที่ตรวจจับภาพปลอมยังต้องการการปรับปรุงเพื่อรองรับโมเดลใหม่ๆ ⛔ โมเดล GAN ใหม่ๆ อาจหลบเลี่ยงการตรวจจับได้ ⛔ ต้องมีการอัปเดตระบบตรวจจับเป็นประจำ https://www.techspot.com/news/108862-think-you-can-tell-fake-image-real-one.html
    WWW.TECHSPOT.COM
    Think you can tell a fake image from a real one? Microsoft's quiz will test you
    The study found that humans can accurately distinguish real photos from AI-generated ones about 63% of the time. In contrast, Microsoft's in-development AI detection tool reportedly achieves...
    0 ความคิดเห็น 0 การแบ่งปัน 117 มุมมอง 0 รีวิว
  • เรื่องเล่าจากบ้านที่มีเด็ก: เมื่อพ่อแม่ต้องตัดสินใจเรื่อง AI ก่อนที่โลกจะตัดสินใจให้

    Adam Tal นักการตลาดจากอิสราเอล บอกว่าเขา “กังวลมาก” กับอนาคตของลูกชายวัย 7 และ 9 ปี — ไม่ใช่แค่ deepfake หรือความจริงที่แยกไม่ออกจาก AI แต่รวมถึงภัยใหม่ ๆ ที่เขาไม่เคยถูกฝึกให้รับมือ

    Mike Brooks นักจิตวิทยาในเท็กซัสเสริมว่า พ่อแม่หลายคน “หลีกเลี่ยงการพูดเรื่อง AI” เพราะแค่รับมือกับ TikTok, เกม และการพาลูกออกจากห้องก็เหนื่อยพอแล้ว

    Melissa Franklin นักศึกษากฎหมายในรัฐเคนทักกี เลือกอีกทาง — เธอใช้ AI ร่วมกับลูกชายวัย 7 ปีเพื่อหาข้อมูลที่หาไม่ได้จากหนังสือหรือ Google โดยมีเงื่อนไขว่า “ต้องคิดเองก่อน แล้วค่อยใช้ AI เสริม”

    Marc Watkins อาจารย์จากมหาวิทยาลัยมิสซิสซิปปีบอกว่า “เราเลยจุดที่ห้ามเด็กใช้ AI ไปแล้ว” และแนะนำให้พ่อแม่ “พูดคุยอย่างลึกซึ้ง” กับลูกเรื่องข้อดีและข้อเสียของ AI

    แม้ CEO ของ NVIDIA จะบอกว่า AI คือ “พลังแห่งความเท่าเทียม” แต่ Watkins กลับมองว่า AI จะกลายเป็น “เครื่องมือของคนที่มีเงิน” เพราะการเข้าถึง AI ที่ดีต้องใช้ทรัพยากร — เช่นพ่อแม่ที่มี PhD ด้านคอมพิวเตอร์

    ผู้ปกครองหลายคนกังวลว่า AI จะส่งผลต่อเด็กในแบบที่ยังไม่มีงานวิจัยรองรับ
    เช่น deepfake, ความจริงที่แยกไม่ออก, และภัยใหม่ที่ไม่เคยรู้จัก

    MIT เคยเผยผลวิจัยว่า คนที่ไม่ใช้ Generative AI มีการกระตุ้นสมองและความจำมากกว่า
    ทำให้บางพ่อแม่เลือกให้ลูกใช้ AI เฉพาะเพื่อเสริมความรู้ ไม่ใช่แทนการคิด

    Melissa Franklin ใช้ AI กับลูกชายเพื่อหาข้อมูลที่หาไม่ได้จากแหล่งทั่วไป
    แต่เน้นให้ลูก “คิดเองก่อน” แล้วค่อยใช้ AI เป็นเครื่องมือเสริม

    Watkins แนะนำให้พ่อแม่พูดคุยกับลูกเรื่อง AI อย่างจริงจัง
    เพราะเด็กจะใช้ AI แน่นอน จึงควรรู้ทั้งข้อดีและข้อเสีย

    NVIDIA มองว่า AI คือพลังแห่งความเท่าเทียมในการเรียนรู้
    แต่ Watkins มองว่า AI จะกลายเป็นเครื่องมือของคนมีฐานะ

    พ่อแม่ที่มีความรู้ด้านเทคโนโลยีจะให้ลูกได้เปรียบในการใช้ AI
    เช่นครอบครัวที่มี PhD ด้านคอมพิวเตอร์สามารถสอนลูกได้ลึกกว่า

    ยังไม่มีงานวิจัยระยะยาวที่ชัดเจนเกี่ยวกับผลกระทบของ AI ต่อพัฒนาการเด็ก
    การใช้ AI โดยไม่มีการกำกับอาจส่งผลต่อความคิด, ความจำ และการเรียนรู้

    พ่อแม่บางคนหลีกเลี่ยงการพูดเรื่อง AI เพราะรู้สึกว่า “เหนื่อยเกินไป”
    อาจทำให้เด็กเรียนรู้จากแหล่งที่ไม่ปลอดภัยหรือขาดการชี้นำที่เหมาะสม

    การเข้าถึง AI ที่ดีอาจขึ้นอยู่กับฐานะทางเศรษฐกิจ
    เด็กจากครอบครัวที่มีทรัพยากรน้อยอาจเสียเปรียบในโลกที่ AI เป็นเครื่องมือหลัก

    การใช้ AI เป็น “ทางลัด” อาจทำให้เด็กพึ่งพาโดยไม่พัฒนาทักษะคิดวิเคราะห์
    ต้องมีการออกแบบการใช้ AI ให้ส่งเสริมการเรียนรู้ ไม่ใช่แทนที่การคิด

    https://www.thestar.com.my/tech/tech-news/2025/07/22/anxious-parents-face-tough-choices-on-ai
    🎙️ เรื่องเล่าจากบ้านที่มีเด็ก: เมื่อพ่อแม่ต้องตัดสินใจเรื่อง AI ก่อนที่โลกจะตัดสินใจให้ Adam Tal นักการตลาดจากอิสราเอล บอกว่าเขา “กังวลมาก” กับอนาคตของลูกชายวัย 7 และ 9 ปี — ไม่ใช่แค่ deepfake หรือความจริงที่แยกไม่ออกจาก AI แต่รวมถึงภัยใหม่ ๆ ที่เขาไม่เคยถูกฝึกให้รับมือ Mike Brooks นักจิตวิทยาในเท็กซัสเสริมว่า พ่อแม่หลายคน “หลีกเลี่ยงการพูดเรื่อง AI” เพราะแค่รับมือกับ TikTok, เกม และการพาลูกออกจากห้องก็เหนื่อยพอแล้ว Melissa Franklin นักศึกษากฎหมายในรัฐเคนทักกี เลือกอีกทาง — เธอใช้ AI ร่วมกับลูกชายวัย 7 ปีเพื่อหาข้อมูลที่หาไม่ได้จากหนังสือหรือ Google โดยมีเงื่อนไขว่า “ต้องคิดเองก่อน แล้วค่อยใช้ AI เสริม” Marc Watkins อาจารย์จากมหาวิทยาลัยมิสซิสซิปปีบอกว่า “เราเลยจุดที่ห้ามเด็กใช้ AI ไปแล้ว” และแนะนำให้พ่อแม่ “พูดคุยอย่างลึกซึ้ง” กับลูกเรื่องข้อดีและข้อเสียของ AI แม้ CEO ของ NVIDIA จะบอกว่า AI คือ “พลังแห่งความเท่าเทียม” แต่ Watkins กลับมองว่า AI จะกลายเป็น “เครื่องมือของคนที่มีเงิน” เพราะการเข้าถึง AI ที่ดีต้องใช้ทรัพยากร — เช่นพ่อแม่ที่มี PhD ด้านคอมพิวเตอร์ ✅ ผู้ปกครองหลายคนกังวลว่า AI จะส่งผลต่อเด็กในแบบที่ยังไม่มีงานวิจัยรองรับ ➡️ เช่น deepfake, ความจริงที่แยกไม่ออก, และภัยใหม่ที่ไม่เคยรู้จัก ✅ MIT เคยเผยผลวิจัยว่า คนที่ไม่ใช้ Generative AI มีการกระตุ้นสมองและความจำมากกว่า ➡️ ทำให้บางพ่อแม่เลือกให้ลูกใช้ AI เฉพาะเพื่อเสริมความรู้ ไม่ใช่แทนการคิด ✅ Melissa Franklin ใช้ AI กับลูกชายเพื่อหาข้อมูลที่หาไม่ได้จากแหล่งทั่วไป ➡️ แต่เน้นให้ลูก “คิดเองก่อน” แล้วค่อยใช้ AI เป็นเครื่องมือเสริม ✅ Watkins แนะนำให้พ่อแม่พูดคุยกับลูกเรื่อง AI อย่างจริงจัง ➡️ เพราะเด็กจะใช้ AI แน่นอน จึงควรรู้ทั้งข้อดีและข้อเสีย ✅ NVIDIA มองว่า AI คือพลังแห่งความเท่าเทียมในการเรียนรู้ ➡️ แต่ Watkins มองว่า AI จะกลายเป็นเครื่องมือของคนมีฐานะ ✅ พ่อแม่ที่มีความรู้ด้านเทคโนโลยีจะให้ลูกได้เปรียบในการใช้ AI ➡️ เช่นครอบครัวที่มี PhD ด้านคอมพิวเตอร์สามารถสอนลูกได้ลึกกว่า ‼️ ยังไม่มีงานวิจัยระยะยาวที่ชัดเจนเกี่ยวกับผลกระทบของ AI ต่อพัฒนาการเด็ก ⛔ การใช้ AI โดยไม่มีการกำกับอาจส่งผลต่อความคิด, ความจำ และการเรียนรู้ ‼️ พ่อแม่บางคนหลีกเลี่ยงการพูดเรื่อง AI เพราะรู้สึกว่า “เหนื่อยเกินไป” ⛔ อาจทำให้เด็กเรียนรู้จากแหล่งที่ไม่ปลอดภัยหรือขาดการชี้นำที่เหมาะสม ‼️ การเข้าถึง AI ที่ดีอาจขึ้นอยู่กับฐานะทางเศรษฐกิจ ⛔ เด็กจากครอบครัวที่มีทรัพยากรน้อยอาจเสียเปรียบในโลกที่ AI เป็นเครื่องมือหลัก ‼️ การใช้ AI เป็น “ทางลัด” อาจทำให้เด็กพึ่งพาโดยไม่พัฒนาทักษะคิดวิเคราะห์ ⛔ ต้องมีการออกแบบการใช้ AI ให้ส่งเสริมการเรียนรู้ ไม่ใช่แทนที่การคิด https://www.thestar.com.my/tech/tech-news/2025/07/22/anxious-parents-face-tough-choices-on-ai
    WWW.THESTAR.COM.MY
    Anxious parents face tough choices on AI
    When it comes to AI, many parents navigate between fear of the unknown and fear of their children missing out.
    0 ความคิดเห็น 0 การแบ่งปัน 223 มุมมอง 0 รีวิว
  • นักเรียนไทยยุค AI: อยู่รอดอย่างไรในโลกที่เปลี่ยนเร็วกว่าเดิม?
    โลกยุคใหม่ไม่ได้รอใครอีกต่อไป โดยเฉพาะเมื่อนวัตกรรมอย่าง AI เข้ามามีบทบาทในแทบทุกด้านของชีวิต ตั้งแต่การเรียน ไปจนถึงการทำงานในอนาคต และนักเรียนไทยจะต้องไม่ใช่แค่ “ปรับตัว” แต่ต้อง “เปลี่ยนวิธีคิด” เพื่อให้อยู่รอดและเติบโตในโลกที่ AI ครองเวที

    แล้วนักเรียนต้องพัฒนาอะไรบ้าง?
    1️⃣. AI Literacy – ทักษะความรู้เรื่อง AI
    ไม่ใช่แค่ใช้ ChatGPT ได้ แต่ต้องเข้าใจว่า AI ทำงานอย่างไร มีข้อดี ข้อจำกัด และ “อคติ” อย่างไรบ้าง นักเรียนต้องฝึกคิดแบบวิพากษ์ ไม่เชื่อทุกอย่างที่ AI บอกมา ต้องกล้าตั้งคำถาม และตรวจสอบแหล่งข้อมูลให้เป็น

    2️⃣. ทักษะการคิดวิเคราะห์และแก้ปัญหา
    AI เก่งในเรื่อง “การจำและประมวลผล” แต่การตั้งคำถาม การตีความ การแก้ปัญหาที่ซับซ้อน ยังเป็นทักษะของมนุษย์ นักเรียนควรฝึกคิดในเชิงลึก ฝึกตั้งสมมุติฐาน ทดลอง และปรับปรุง ไม่ใช่แค่หาคำตอบเร็วๆ จากอินเทอร์เน็ต

    3️⃣. ความคิดสร้างสรรค์ (Creativity)
    AI ช่วยเราคิดได้ แต่ไม่สามารถ “คิดแทนเราได้หมด” การสร้างผลงานที่เป็นเอกลักษณ์ เช่น เขียนเรื่องราว แต่งเพลง ทำโครงการนวัตกรรม หรือผลงานศิลปะ ยังคงต้องใช้พลังความคิดของมนุษย์อย่างแท้จริง

    4️⃣. การทำงานร่วมกันกับ AI และมนุษย์
    นักเรียนในยุคนี้ต้องทำงานเป็นทีม ทั้งกับคนและกับเทคโนโลยี ต้องรู้ว่าเมื่อไรควรใช้ AI ช่วย และเมื่อไรควรใช้หัวใจของมนุษย์ เช่น การฟังเพื่อน ความเข้าใจอารมณ์ หรือการทำโปรเจกต์ร่วมกัน

    5️⃣. จริยธรรมและความรับผิดชอบ
    การใช้ AI อย่างถูกจริยธรรมเป็นเรื่องใหญ่ เช่น ไม่คัดลอกเนื้อหาที่ AI สร้างมาโดยไม่เข้าใจ การเคารพความเป็นส่วนตัวของคนอื่น และรู้เท่าทัน Deepfake หรือข้อมูลบิดเบือนที่อาจเจอในชีวิตประจำวัน

    AI คือเพื่อน ไม่ใช่ศัตรู
    หลายคนกลัวว่า AI จะมาแย่งงาน หรือทำให้คนไม่มีความจำเป็นอีกต่อไป แต่ในความเป็นจริง AI คือ “เครื่องมือ” ที่ดีมาก ถ้าเราใช้เป็น มันจะช่วยให้เราเก่งขึ้น ไม่ใช่ถูกแทนที่

    เช่น:
    - นักเรียนสามารถใช้ AI ช่วยสรุปบทเรียน ติวสอบ หรือสร้างไอเดียสำหรับโปรเจกต์
    - ครูสามารถใช้ AI ช่วยตรวจข้อสอบ วางแผนบทเรียน และมีเวลาสอนนักเรียนแบบใกล้ชิดขึ้น
    - โรงเรียนหลายแห่งก็เริ่มใช้ AI อย่าง SplashLearn, ChatGPT หรือ Writable เพื่อช่วยให้การเรียนสนุกและเข้าถึงได้มากขึ้น

    แต่อย่าลืมความเสี่ยง
    แม้ว่า AI จะช่วยได้มาก แต่ก็มีความท้าทาย เช่น:
    - ความเครียดจากการอยู่กับหน้าจอนานๆ
    - ข้อมูลที่ผิดพลาดหรือมีอคติจาก AI
    - ความเหลื่อมล้ำเรื่องอุปกรณ์และทักษะในบางพื้นที่ของประเทศ

    ดังนั้น นักเรียน ครู ผู้ปกครอง และภาครัฐต้องร่วมมือกัน สร้างระบบการเรียนรู้ที่ปลอดภัย เท่าเทียม และพัฒนาความรู้รอบด้านไปพร้อมกัน

    สรุปง่ายๆ สำหรับนักเรียนไทยในยุค AI:
    - อย่าใช้ AI แค่ “ให้มันทำให้” แต่ต้อง “ใช้มันเพื่อให้เราเก่งขึ้น”
    - พัฒนาให้รอบด้าน ทั้งสมอง จิตใจ และจริยธรรม
    - ฝึกเรียนรู้ตลอดชีวิต เพราะเทคโนโลยีจะไม่หยุดรอเราแน่นอน

    #ลุงเขียนหลานอ่าน
    🎓 นักเรียนไทยยุค AI: อยู่รอดอย่างไรในโลกที่เปลี่ยนเร็วกว่าเดิม? โลกยุคใหม่ไม่ได้รอใครอีกต่อไป โดยเฉพาะเมื่อนวัตกรรมอย่าง AI เข้ามามีบทบาทในแทบทุกด้านของชีวิต ตั้งแต่การเรียน ไปจนถึงการทำงานในอนาคต และนักเรียนไทยจะต้องไม่ใช่แค่ “ปรับตัว” แต่ต้อง “เปลี่ยนวิธีคิด” เพื่อให้อยู่รอดและเติบโตในโลกที่ AI ครองเวที ✅ แล้วนักเรียนต้องพัฒนาอะไรบ้าง? 1️⃣. AI Literacy – ทักษะความรู้เรื่อง AI ไม่ใช่แค่ใช้ ChatGPT ได้ แต่ต้องเข้าใจว่า AI ทำงานอย่างไร มีข้อดี ข้อจำกัด และ “อคติ” อย่างไรบ้าง นักเรียนต้องฝึกคิดแบบวิพากษ์ ไม่เชื่อทุกอย่างที่ AI บอกมา ต้องกล้าตั้งคำถาม และตรวจสอบแหล่งข้อมูลให้เป็น 2️⃣. ทักษะการคิดวิเคราะห์และแก้ปัญหา AI เก่งในเรื่อง “การจำและประมวลผล” แต่การตั้งคำถาม การตีความ การแก้ปัญหาที่ซับซ้อน ยังเป็นทักษะของมนุษย์ นักเรียนควรฝึกคิดในเชิงลึก ฝึกตั้งสมมุติฐาน ทดลอง และปรับปรุง ไม่ใช่แค่หาคำตอบเร็วๆ จากอินเทอร์เน็ต 3️⃣. ความคิดสร้างสรรค์ (Creativity) AI ช่วยเราคิดได้ แต่ไม่สามารถ “คิดแทนเราได้หมด” การสร้างผลงานที่เป็นเอกลักษณ์ เช่น เขียนเรื่องราว แต่งเพลง ทำโครงการนวัตกรรม หรือผลงานศิลปะ ยังคงต้องใช้พลังความคิดของมนุษย์อย่างแท้จริง 4️⃣. การทำงานร่วมกันกับ AI และมนุษย์ นักเรียนในยุคนี้ต้องทำงานเป็นทีม ทั้งกับคนและกับเทคโนโลยี ต้องรู้ว่าเมื่อไรควรใช้ AI ช่วย และเมื่อไรควรใช้หัวใจของมนุษย์ เช่น การฟังเพื่อน ความเข้าใจอารมณ์ หรือการทำโปรเจกต์ร่วมกัน 5️⃣. จริยธรรมและความรับผิดชอบ การใช้ AI อย่างถูกจริยธรรมเป็นเรื่องใหญ่ เช่น ไม่คัดลอกเนื้อหาที่ AI สร้างมาโดยไม่เข้าใจ การเคารพความเป็นส่วนตัวของคนอื่น และรู้เท่าทัน Deepfake หรือข้อมูลบิดเบือนที่อาจเจอในชีวิตประจำวัน 📌 AI คือเพื่อน ไม่ใช่ศัตรู หลายคนกลัวว่า AI จะมาแย่งงาน หรือทำให้คนไม่มีความจำเป็นอีกต่อไป แต่ในความเป็นจริง AI คือ “เครื่องมือ” ที่ดีมาก ถ้าเราใช้เป็น มันจะช่วยให้เราเก่งขึ้น ไม่ใช่ถูกแทนที่ เช่น: - นักเรียนสามารถใช้ AI ช่วยสรุปบทเรียน ติวสอบ หรือสร้างไอเดียสำหรับโปรเจกต์ - ครูสามารถใช้ AI ช่วยตรวจข้อสอบ วางแผนบทเรียน และมีเวลาสอนนักเรียนแบบใกล้ชิดขึ้น - โรงเรียนหลายแห่งก็เริ่มใช้ AI อย่าง SplashLearn, ChatGPT หรือ Writable เพื่อช่วยให้การเรียนสนุกและเข้าถึงได้มากขึ้น 🚨 แต่อย่าลืมความเสี่ยง แม้ว่า AI จะช่วยได้มาก แต่ก็มีความท้าทาย เช่น: - ความเครียดจากการอยู่กับหน้าจอนานๆ - ข้อมูลที่ผิดพลาดหรือมีอคติจาก AI - ความเหลื่อมล้ำเรื่องอุปกรณ์และทักษะในบางพื้นที่ของประเทศ ดังนั้น นักเรียน ครู ผู้ปกครอง และภาครัฐต้องร่วมมือกัน สร้างระบบการเรียนรู้ที่ปลอดภัย เท่าเทียม และพัฒนาความรู้รอบด้านไปพร้อมกัน 💡 สรุปง่ายๆ สำหรับนักเรียนไทยในยุค AI: - อย่าใช้ AI แค่ “ให้มันทำให้” แต่ต้อง “ใช้มันเพื่อให้เราเก่งขึ้น” - พัฒนาให้รอบด้าน ทั้งสมอง จิตใจ และจริยธรรม - ฝึกเรียนรู้ตลอดชีวิต เพราะเทคโนโลยีจะไม่หยุดรอเราแน่นอน #ลุงเขียนหลานอ่าน
    1 ความคิดเห็น 0 การแบ่งปัน 367 มุมมอง 0 รีวิว
  • ในยุคที่ AI ทำภาพปลอมเหมือนจริงจนแยกไม่ออก และมีคลิปเสียงปลอมที่เหมือนดาราหรือผู้มีชื่อเสียงพูดสิ่งที่ไม่เคยพูดจริง — รัฐบาลเดนมาร์กบอกว่า "ถึงเวลาแล้วที่เราต้องปกป้องสิทธิ์ของพลเมืองจากการถูก 'ทำซ้ำทางดิจิทัล' โดยไม่ได้ยินยอม"

    สิ่งที่เดนมาร์กกำลังจะทำไม่ใช่แค่ห้ามทำ deepfake เล่น ๆ แต่คือออกกฎหมายปรับแก้ลิขสิทธิ์ให้:
    - ประชาชนมีกรรมสิทธิ์ในใบหน้า เสียง และรูปลักษณ์ของตนเอง
    - ถ้ามีใครใช้ AI ทำล้อเลียน เสียหาย หรือเอาไปใช้ในโฆษณาโดยไม่ได้ขอ → สามารถฟ้องให้ “ลบออก” ได้ทันที
    - แพลตฟอร์มที่ไม่ลบ deepfake เหล่านี้จะถูกลงโทษ “ค่าปรับรุนแรง” เพื่อบังคับให้รับผิดชอบ

    รัฐมนตรีกระทรวงวัฒนธรรม Jakob Engel-Schmidt บอกว่า “มนุษย์ไม่ควรถูกเอาไปใส่ใน ‘เครื่องถ่ายเอกสารดิจิทัล’ เพื่อสร้างภาพหลอกลวงใด ๆ โดยไม่ได้รับความยินยอม” — กฎหมายฉบับนี้ยังป้องกันไม่ให้ AI ลอกเลียนเสียง–ภาพศิลปินโดยไม่จ่ายค่าลิขสิทธิ์อีกด้วย

    https://www.techspot.com/news/108485-landmark-deepfake-law-aims-give-danish-citizens-legal.html
    ในยุคที่ AI ทำภาพปลอมเหมือนจริงจนแยกไม่ออก และมีคลิปเสียงปลอมที่เหมือนดาราหรือผู้มีชื่อเสียงพูดสิ่งที่ไม่เคยพูดจริง — รัฐบาลเดนมาร์กบอกว่า "ถึงเวลาแล้วที่เราต้องปกป้องสิทธิ์ของพลเมืองจากการถูก 'ทำซ้ำทางดิจิทัล' โดยไม่ได้ยินยอม" สิ่งที่เดนมาร์กกำลังจะทำไม่ใช่แค่ห้ามทำ deepfake เล่น ๆ แต่คือออกกฎหมายปรับแก้ลิขสิทธิ์ให้: - ประชาชนมีกรรมสิทธิ์ในใบหน้า เสียง และรูปลักษณ์ของตนเอง - ถ้ามีใครใช้ AI ทำล้อเลียน เสียหาย หรือเอาไปใช้ในโฆษณาโดยไม่ได้ขอ → สามารถฟ้องให้ “ลบออก” ได้ทันที - แพลตฟอร์มที่ไม่ลบ deepfake เหล่านี้จะถูกลงโทษ “ค่าปรับรุนแรง” เพื่อบังคับให้รับผิดชอบ รัฐมนตรีกระทรวงวัฒนธรรม Jakob Engel-Schmidt บอกว่า “มนุษย์ไม่ควรถูกเอาไปใส่ใน ‘เครื่องถ่ายเอกสารดิจิทัล’ เพื่อสร้างภาพหลอกลวงใด ๆ โดยไม่ได้รับความยินยอม” — กฎหมายฉบับนี้ยังป้องกันไม่ให้ AI ลอกเลียนเสียง–ภาพศิลปินโดยไม่จ่ายค่าลิขสิทธิ์อีกด้วย https://www.techspot.com/news/108485-landmark-deepfake-law-aims-give-danish-citizens-legal.html
    WWW.TECHSPOT.COM
    Landmark deepfake law aims to give Denmark's citizens rights over their image, voice, and likeness
    Denmark has proposed sweeping legislation to curb the rise of AI-generated deepfakes, positioning itself as a leader in European digital rights protection. The suggested amendment to Danish...
    0 ความคิดเห็น 0 การแบ่งปัน 224 มุมมอง 0 รีวิว
  • หลังจากงาน RSA Conference 2025 หลายคนเริ่มรู้สึกว่า “ข่าว AI น่ากลัวไปหมด” — ทั้ง deepfakes, hallucination, model leak, และ supply chain attack แบบใหม่ ๆ ที่อิง LLM

    แต่ Tony Martin-Vegue วิศวกรด้านความเสี่ยงของ Netflix บอกว่า สิ่งที่ CISO ต้องทำไม่ใช่ตื่นตระหนก แต่คือ กลับมาใช้วิธีคิดเดิม ๆ ที่เคยได้ผล — รู้ว่า AI ถูกใช้ที่ไหน โดยใคร และกับข้อมูลชนิดไหน แล้วค่อยวาง control

    Rob T. Lee จาก SANS ก็แนะนำว่า CISO ต้อง “ใช้ AI เองทุกวัน” จนเข้าใจพฤติกรรมของมัน ก่อนจะไปออกนโยบาย ส่วน Chris Hetner จาก NACD ก็เตือนว่าปัญหาไม่ใช่ AI แต่คือความวุ่นวายใน echo chamber ของวงการไซเบอร์เอง

    สุดท้าย Diana Kelley แห่ง Protect AI บอกว่า “อย่ารอจนโดน MSA (Model Serialization Attack)” ควรเริ่มวางแผนความปลอดภัยเฉพาะทางสำหรับ LLM แล้ว — ทั้งการสแกน model, ตรวจ typosquatting และจัดการ data flow จากต้นทาง

    ไม่ต้องตื่นตระหนกกับความเสี่ยงจาก LLM — แต่ให้กลับมาโฟกัสที่ security fundamentals ที่ใช้ได้เสมอ  
    • เช่น เข้าใจว่า AI ถูกใช้อย่างไร, ที่ไหน, โดยใคร, เพื่ออะไร

    ควรใช้แนวทางเดียวกับการบริหารความเสี่ยงของเทคโนโลยีใหม่ในอดีต  
    • เช่น BYOD, คลาวด์, SaaS

    Rob T. Lee (SANS) แนะนำให้ผู้บริหาร Cyber ลองใช้งาน AI จริงในชีวิตประจำวัน  
    • จะช่วยให้รู้ว่าควรตั้ง control อย่างไรในบริบทองค์กรจริง

    Chris Hetner (NACD) เตือนว่า FUD (ความกลัว, ความไม่แน่ใจ, ความสงสัย) มาจาก echo chamber และ vendor  
    • CISO ควรพากลับมาโฟกัสที่ profile ความเสี่ยง, asset, และผลกระทบ

    การปกป้อง AI = ต้องรู้ว่าใช้ข้อมูลชนิดใด feed เข้า model  
    • เช่น ข้อมูล HR, ลูกค้า, ผลิตภัณฑ์

    องค์กรต้องรู้ว่า “ใครใช้ AI บ้าง และใช้กับข้อมูลไหน” → เพื่อวาง data governance  
    • เช่น ใช้ scanning, encryption, redaction, การอนุญาต data input

    ควรปกป้อง “ตัว model” ด้วยการ:  
    • สแกน model file แบบเฉพาะทาง  
    • ป้องกัน typosquatting, neural backdoor, MSA (Model Serialization Attack)  
    • ตรวจสอบ supply chain model โดยเฉพาะ open-source

    ตัวอย่างองค์กรที่เปลี่ยนโครงสร้างแล้ว:  
    • Moderna รวม HR + IT เป็นตำแหน่งเดียว เพื่อดูแลทั้ง “คน + agent AI” พร้อมกัน

    https://www.csoonline.com/article/4006436/llms-hype-versus-reality-what-cisos-should-focus-on.html
    หลังจากงาน RSA Conference 2025 หลายคนเริ่มรู้สึกว่า “ข่าว AI น่ากลัวไปหมด” — ทั้ง deepfakes, hallucination, model leak, และ supply chain attack แบบใหม่ ๆ ที่อิง LLM แต่ Tony Martin-Vegue วิศวกรด้านความเสี่ยงของ Netflix บอกว่า สิ่งที่ CISO ต้องทำไม่ใช่ตื่นตระหนก แต่คือ กลับมาใช้วิธีคิดเดิม ๆ ที่เคยได้ผล — รู้ว่า AI ถูกใช้ที่ไหน โดยใคร และกับข้อมูลชนิดไหน แล้วค่อยวาง control Rob T. Lee จาก SANS ก็แนะนำว่า CISO ต้อง “ใช้ AI เองทุกวัน” จนเข้าใจพฤติกรรมของมัน ก่อนจะไปออกนโยบาย ส่วน Chris Hetner จาก NACD ก็เตือนว่าปัญหาไม่ใช่ AI แต่คือความวุ่นวายใน echo chamber ของวงการไซเบอร์เอง สุดท้าย Diana Kelley แห่ง Protect AI บอกว่า “อย่ารอจนโดน MSA (Model Serialization Attack)” ควรเริ่มวางแผนความปลอดภัยเฉพาะทางสำหรับ LLM แล้ว — ทั้งการสแกน model, ตรวจ typosquatting และจัดการ data flow จากต้นทาง ✅ ไม่ต้องตื่นตระหนกกับความเสี่ยงจาก LLM — แต่ให้กลับมาโฟกัสที่ security fundamentals ที่ใช้ได้เสมอ   • เช่น เข้าใจว่า AI ถูกใช้อย่างไร, ที่ไหน, โดยใคร, เพื่ออะไร ✅ ควรใช้แนวทางเดียวกับการบริหารความเสี่ยงของเทคโนโลยีใหม่ในอดีต   • เช่น BYOD, คลาวด์, SaaS ✅ Rob T. Lee (SANS) แนะนำให้ผู้บริหาร Cyber ลองใช้งาน AI จริงในชีวิตประจำวัน   • จะช่วยให้รู้ว่าควรตั้ง control อย่างไรในบริบทองค์กรจริง ✅ Chris Hetner (NACD) เตือนว่า FUD (ความกลัว, ความไม่แน่ใจ, ความสงสัย) มาจาก echo chamber และ vendor   • CISO ควรพากลับมาโฟกัสที่ profile ความเสี่ยง, asset, และผลกระทบ ✅ การปกป้อง AI = ต้องรู้ว่าใช้ข้อมูลชนิดใด feed เข้า model   • เช่น ข้อมูล HR, ลูกค้า, ผลิตภัณฑ์ ✅ องค์กรต้องรู้ว่า “ใครใช้ AI บ้าง และใช้กับข้อมูลไหน” → เพื่อวาง data governance   • เช่น ใช้ scanning, encryption, redaction, การอนุญาต data input ✅ ควรปกป้อง “ตัว model” ด้วยการ:   • สแกน model file แบบเฉพาะทาง   • ป้องกัน typosquatting, neural backdoor, MSA (Model Serialization Attack)   • ตรวจสอบ supply chain model โดยเฉพาะ open-source ✅ ตัวอย่างองค์กรที่เปลี่ยนโครงสร้างแล้ว:   • Moderna รวม HR + IT เป็นตำแหน่งเดียว เพื่อดูแลทั้ง “คน + agent AI” พร้อมกัน https://www.csoonline.com/article/4006436/llms-hype-versus-reality-what-cisos-should-focus-on.html
    WWW.CSOONLINE.COM
    LLMs hype versus reality: What CISOs should focus on
    In an overly reactive market to the risks posed by large language models (LLMs), CISO’s need not panic. Here are four common-sense security fundamentals to support AI-enabled business operations across the enterprise.
    0 ความคิดเห็น 0 การแบ่งปัน 307 มุมมอง 0 รีวิว
  • ตอนแรกหลายองค์กรคิดว่า “ระบบรักษาความปลอดภัยที่มีอยู่แล้ว” น่าจะพอเอาอยู่กับ AI — เพราะก็มี patch, มี asset inventory, มี firewall อยู่แล้ว แต่วันนี้กลายเป็นว่า... AI คือสัตว์คนละสายพันธุ์เลยครับ

    เพราะ AI ขยายพื้นที่โจมตีออกไปถึง API, third-party, supply chain และยังมีความเสี่ยงใหม่แบบเฉพาะตัว เช่น model poisoning, prompt injection, data inference ซึ่งไม่เคยต้องรับมือในโลก legacy มาก่อน

    และแม้ว่าองค์กรจะลงทุนกับ AI อย่างหนัก แต่เกือบครึ่ง (46%) ของโครงการ AI ถูกหยุดกลางคันหรือไม่เคยได้ไปถึง production ด้วยซ้ำ — ส่วนใหญ่เกิดจากความล้มเหลวในด้าน governance, ความเสี่ยง, ข้อมูลไม่สะอาด และขาดทีมที่เข้าใจ AI จริง ๆ

    ข่าวนี้จึงเสนอบทบาทใหม่ 5 แบบที่ CISO ต้องกลายร่างเป็น: “นักกฎหมาย, นักวิเคราะห์, ครู, นักวิจัย และนักสร้างพันธมิตร”

    5 ขั้นตอนสำคัญที่ CISO ต้องทำเพื่อรักษาความปลอดภัยของ AI:
    1. เริ่มทุกอย่างด้วยโมเดล AI Governance ที่แข็งแรงและครอบคลุม  
    • ต้องมี alignment ระหว่างทีมธุรกิจ–เทคโนโลยีว่า AI จะใช้ทำอะไร และใช้อย่างไร  
    • สร้าง framework ที่รวม ethics, compliance, transparency และ success metrics  
    • ใช้แนวทางจาก NIST AI RMF, ISO/IEC 42001:2023, UNESCO AI Ethics, RISE และ CARE

    2. พัฒนา “มุมมองความเสี่ยงของ AI” ที่ต่อเนื่องและลึกกว่าระบบปกติ  
    • สร้าง AI asset inventory, risk register, และ software bill of materials  
    • ติดตามภัยคุกคามเฉพาะ AI เช่น data leakage, model drift, prompt injection  
    • ใช้ MITRE ATLAS และตรวจสอบ vendor + third-party supply chain อย่างใกล้ชิด

    3. ขยายนิยาม “data integrity” ให้ครอบคลุมถึงโมเดล AI ด้วย  
    • ไม่ใช่แค่ข้อมูลไม่โดนแก้ไข แต่รวมถึง bias, fairness และ veracity  
    • เช่นเคยมีกรณี Amazon และ UK ใช้ AI ที่กลายเป็นอคติทางเพศและสีผิว

    4. ยกระดับ “AI literacy” ให้ทั้งองค์กรเข้าใจและใช้งานอย่างปลอดภัย  
    • เริ่มจากทีม Security → Dev → ฝ่ายธุรกิจ  
    • สอน OWASP Top 10 for LLMs, Google’s SAIF, CSA Secure AI  
    • End user ต้องรู้เรื่อง misuse, data leak และ deepfake ด้วย

    5. มอง AI Security แบบ “ผู้ช่วย” ไม่ใช่ “อัตโนมัติเต็มขั้น”  
    • ใช้ AI ช่วย triage alert, คัด log, วิเคราะห์ risk score แต่ยังต้องมีคนคุม  
    • พิจารณาผู้ให้บริการ AI Security อย่างรอบคอบ เพราะหลายเจ้าแค่ “แปะป้าย AI” แต่ยังไม่ mature

    https://www.csoonline.com/article/4011384/the-cisos-5-step-guide-to-securing-ai-operations.html
    ตอนแรกหลายองค์กรคิดว่า “ระบบรักษาความปลอดภัยที่มีอยู่แล้ว” น่าจะพอเอาอยู่กับ AI — เพราะก็มี patch, มี asset inventory, มี firewall อยู่แล้ว แต่วันนี้กลายเป็นว่า... AI คือสัตว์คนละสายพันธุ์เลยครับ เพราะ AI ขยายพื้นที่โจมตีออกไปถึง API, third-party, supply chain และยังมีความเสี่ยงใหม่แบบเฉพาะตัว เช่น model poisoning, prompt injection, data inference ซึ่งไม่เคยต้องรับมือในโลก legacy มาก่อน และแม้ว่าองค์กรจะลงทุนกับ AI อย่างหนัก แต่เกือบครึ่ง (46%) ของโครงการ AI ถูกหยุดกลางคันหรือไม่เคยได้ไปถึง production ด้วยซ้ำ — ส่วนใหญ่เกิดจากความล้มเหลวในด้าน governance, ความเสี่ยง, ข้อมูลไม่สะอาด และขาดทีมที่เข้าใจ AI จริง ๆ ข่าวนี้จึงเสนอบทบาทใหม่ 5 แบบที่ CISO ต้องกลายร่างเป็น: “นักกฎหมาย, นักวิเคราะห์, ครู, นักวิจัย และนักสร้างพันธมิตร” ✅ 5 ขั้นตอนสำคัญที่ CISO ต้องทำเพื่อรักษาความปลอดภัยของ AI: ✅ 1. เริ่มทุกอย่างด้วยโมเดล AI Governance ที่แข็งแรงและครอบคลุม   • ต้องมี alignment ระหว่างทีมธุรกิจ–เทคโนโลยีว่า AI จะใช้ทำอะไร และใช้อย่างไร   • สร้าง framework ที่รวม ethics, compliance, transparency และ success metrics   • ใช้แนวทางจาก NIST AI RMF, ISO/IEC 42001:2023, UNESCO AI Ethics, RISE และ CARE ✅ 2. พัฒนา “มุมมองความเสี่ยงของ AI” ที่ต่อเนื่องและลึกกว่าระบบปกติ   • สร้าง AI asset inventory, risk register, และ software bill of materials   • ติดตามภัยคุกคามเฉพาะ AI เช่น data leakage, model drift, prompt injection   • ใช้ MITRE ATLAS และตรวจสอบ vendor + third-party supply chain อย่างใกล้ชิด ✅ 3. ขยายนิยาม “data integrity” ให้ครอบคลุมถึงโมเดล AI ด้วย   • ไม่ใช่แค่ข้อมูลไม่โดนแก้ไข แต่รวมถึง bias, fairness และ veracity   • เช่นเคยมีกรณี Amazon และ UK ใช้ AI ที่กลายเป็นอคติทางเพศและสีผิว ✅ 4. ยกระดับ “AI literacy” ให้ทั้งองค์กรเข้าใจและใช้งานอย่างปลอดภัย   • เริ่มจากทีม Security → Dev → ฝ่ายธุรกิจ   • สอน OWASP Top 10 for LLMs, Google’s SAIF, CSA Secure AI   • End user ต้องรู้เรื่อง misuse, data leak และ deepfake ด้วย ✅ 5. มอง AI Security แบบ “ผู้ช่วย” ไม่ใช่ “อัตโนมัติเต็มขั้น”   • ใช้ AI ช่วย triage alert, คัด log, วิเคราะห์ risk score แต่ยังต้องมีคนคุม   • พิจารณาผู้ให้บริการ AI Security อย่างรอบคอบ เพราะหลายเจ้าแค่ “แปะป้าย AI” แต่ยังไม่ mature https://www.csoonline.com/article/4011384/the-cisos-5-step-guide-to-securing-ai-operations.html
    WWW.CSOONLINE.COM
    The CISO’s 5-step guide to securing AI operations
    Security leaders must become AI cheerleaders, risk experts, data stewards, teachers, and researchers. Here’s how to lead your organization toward more secure and effective AI use.
    0 ความคิดเห็น 0 การแบ่งปัน 318 มุมมอง 0 รีวิว
  • Microsoft เปิดตัวโครงการความปลอดภัยไซเบอร์ฟรีสำหรับรัฐบาลยุโรป
    Microsoft ได้เปิดตัว European Security Program ซึ่งเป็นโครงการที่ช่วยให้รัฐบาลยุโรปสามารถ รับมือกับภัยคุกคามไซเบอร์ที่ใช้ AI โดยไม่มีค่าใช้จ่าย

    โครงการนี้มุ่งเน้นไปที่ การแบ่งปันข้อมูลภัยคุกคามที่ใช้ AI และ การเพิ่มขีดความสามารถด้านความปลอดภัยไซเบอร์ ให้กับรัฐบาลยุโรป

    Microsoft ยังได้ร่วมมือกับ หน่วยงานบังคับใช้กฎหมายในยุโรป เพื่อจัดการกับ มัลแวร์ Lumma infostealer ซึ่งเป็นมัลแวร์ที่สามารถ ขโมยรหัสผ่าน, ข้อมูลทางการเงิน และกระเป๋าเงินคริปโต โดยในช่วงสองเดือนที่ผ่านมา Lumma infostealer ได้ติดไวรัสไปแล้วกว่า 400,000 เครื่องทั่วโลก

    นอกจากนี้ Microsoft ยังเตือนว่า อาชญากรไซเบอร์กำลังใช้ AI เพื่อสร้างอีเมลฟิชชิ่ง, ปลอมแปลงตัวตน และสร้างวิดีโอ deepfake ซึ่งเป็นภัยคุกคามที่เพิ่มขึ้นอย่างรวดเร็ว

    ข้อมูลจากข่าว
    - Microsoft เปิดตัว European Security Program เพื่อช่วยรัฐบาลยุโรปรับมือกับภัยคุกคามไซเบอร์ที่ใช้ AI
    - โครงการนี้เน้นการแบ่งปันข้อมูลภัยคุกคามและเพิ่มขีดความสามารถด้านความปลอดภัยไซเบอร์
    - Microsoft ร่วมมือกับหน่วยงานบังคับใช้กฎหมายในยุโรปเพื่อจัดการกับมัลแวร์ Lumma infostealer
    - Lumma infostealer ติดไวรัสไปแล้วกว่า 400,000 เครื่องทั่วโลกในช่วงสองเดือนที่ผ่านมา
    - อาชญากรไซเบอร์ใช้ AI เพื่อสร้างอีเมลฟิชชิ่ง, ปลอมแปลงตัวตน และสร้างวิดีโอ deepfake

    คำเตือนที่ควรพิจารณา
    - แม้โครงการนี้จะช่วยเพิ่มความปลอดภัย แต่รัฐบาลยุโรปยังต้องพัฒนาแนวทางป้องกันเพิ่มเติม
    - AI ที่ใช้ในอาชญากรรมไซเบอร์กำลังพัฒนาอย่างรวดเร็ว ทำให้การป้องกันต้องปรับตัวตาม
    - ต้องติดตามว่ารัฐบาลยุโรปจะนำข้อมูลภัยคุกคามที่ Microsoft แบ่งปันไปใช้ได้อย่างมีประสิทธิภาพหรือไม่
    - การใช้ AI ในการโจมตีไซเบอร์อาจทำให้เกิดภัยคุกคามรูปแบบใหม่ที่ยังไม่มีมาตรการรับมือ

    โครงการนี้ช่วยให้ รัฐบาลยุโรปสามารถรับมือกับภัยคุกคามไซเบอร์ที่ใช้ AI ได้ดีขึ้น อย่างไรก็ตาม ต้องติดตามว่าการแบ่งปันข้อมูลภัยคุกคามจะช่วยลดจำนวนการโจมตีได้มากน้อยเพียงใด

    https://www.neowin.net/news/microsoft-offers-free-cybersecurity-programs-to-european-governments/
    🛡️ Microsoft เปิดตัวโครงการความปลอดภัยไซเบอร์ฟรีสำหรับรัฐบาลยุโรป Microsoft ได้เปิดตัว European Security Program ซึ่งเป็นโครงการที่ช่วยให้รัฐบาลยุโรปสามารถ รับมือกับภัยคุกคามไซเบอร์ที่ใช้ AI โดยไม่มีค่าใช้จ่าย โครงการนี้มุ่งเน้นไปที่ การแบ่งปันข้อมูลภัยคุกคามที่ใช้ AI และ การเพิ่มขีดความสามารถด้านความปลอดภัยไซเบอร์ ให้กับรัฐบาลยุโรป Microsoft ยังได้ร่วมมือกับ หน่วยงานบังคับใช้กฎหมายในยุโรป เพื่อจัดการกับ มัลแวร์ Lumma infostealer ซึ่งเป็นมัลแวร์ที่สามารถ ขโมยรหัสผ่าน, ข้อมูลทางการเงิน และกระเป๋าเงินคริปโต โดยในช่วงสองเดือนที่ผ่านมา Lumma infostealer ได้ติดไวรัสไปแล้วกว่า 400,000 เครื่องทั่วโลก นอกจากนี้ Microsoft ยังเตือนว่า อาชญากรไซเบอร์กำลังใช้ AI เพื่อสร้างอีเมลฟิชชิ่ง, ปลอมแปลงตัวตน และสร้างวิดีโอ deepfake ซึ่งเป็นภัยคุกคามที่เพิ่มขึ้นอย่างรวดเร็ว ✅ ข้อมูลจากข่าว - Microsoft เปิดตัว European Security Program เพื่อช่วยรัฐบาลยุโรปรับมือกับภัยคุกคามไซเบอร์ที่ใช้ AI - โครงการนี้เน้นการแบ่งปันข้อมูลภัยคุกคามและเพิ่มขีดความสามารถด้านความปลอดภัยไซเบอร์ - Microsoft ร่วมมือกับหน่วยงานบังคับใช้กฎหมายในยุโรปเพื่อจัดการกับมัลแวร์ Lumma infostealer - Lumma infostealer ติดไวรัสไปแล้วกว่า 400,000 เครื่องทั่วโลกในช่วงสองเดือนที่ผ่านมา - อาชญากรไซเบอร์ใช้ AI เพื่อสร้างอีเมลฟิชชิ่ง, ปลอมแปลงตัวตน และสร้างวิดีโอ deepfake ‼️ คำเตือนที่ควรพิจารณา - แม้โครงการนี้จะช่วยเพิ่มความปลอดภัย แต่รัฐบาลยุโรปยังต้องพัฒนาแนวทางป้องกันเพิ่มเติม - AI ที่ใช้ในอาชญากรรมไซเบอร์กำลังพัฒนาอย่างรวดเร็ว ทำให้การป้องกันต้องปรับตัวตาม - ต้องติดตามว่ารัฐบาลยุโรปจะนำข้อมูลภัยคุกคามที่ Microsoft แบ่งปันไปใช้ได้อย่างมีประสิทธิภาพหรือไม่ - การใช้ AI ในการโจมตีไซเบอร์อาจทำให้เกิดภัยคุกคามรูปแบบใหม่ที่ยังไม่มีมาตรการรับมือ โครงการนี้ช่วยให้ รัฐบาลยุโรปสามารถรับมือกับภัยคุกคามไซเบอร์ที่ใช้ AI ได้ดีขึ้น อย่างไรก็ตาม ต้องติดตามว่าการแบ่งปันข้อมูลภัยคุกคามจะช่วยลดจำนวนการโจมตีได้มากน้อยเพียงใด https://www.neowin.net/news/microsoft-offers-free-cybersecurity-programs-to-european-governments/
    WWW.NEOWIN.NET
    Microsoft offers free cybersecurity programs to European governments
    Microsoft has launched a cybersecurity enhancement program for European countries to help them repel AI-powered attacks.
    0 ความคิดเห็น 0 การแบ่งปัน 270 มุมมอง 0 รีวิว
  • AI-powered “Repeaters”: เทคนิคใหม่ของอาชญากรไซเบอร์
    นักวิจัยด้านความปลอดภัยจาก AU10TIX ได้ค้นพบกลยุทธ์ใหม่ที่อาชญากรไซเบอร์ใช้ในการเจาะระบบของ ธนาคารและแพลตฟอร์มคริปโต โดยใช้ AI-powered Repeaters ซึ่งเป็น ตัวตนดิจิทัลปลอมที่ถูกปรับแต่งเล็กน้อย เพื่อหลบเลี่ยงระบบตรวจจับ

    Repeaters ไม่ได้ถูกออกแบบมาเพื่อโจมตีทันที แต่จะ ทดสอบระบบป้องกันขององค์กร โดยใช้ ตัวตนดิจิทัลที่ถูกปรับแต่งเล็กน้อย เช่น เปลี่ยนใบหน้า, แก้ไขหมายเลขเอกสาร หรือปรับพื้นหลังของภาพ

    เมื่อระบบตรวจสอบแต่ละตัวตนแยกกัน จะไม่สามารถตรวจจับความผิดปกติได้ ทำให้ Repeaters สามารถ ผ่านกระบวนการยืนยันตัวตน (KYC) และการตรวจสอบไบโอเมตริกซ์ ได้อย่างง่ายดาย

    ข้อมูลจากข่าว
    - Repeaters เป็นตัวตนดิจิทัลปลอมที่ถูกปรับแต่งเล็กน้อยเพื่อทดสอบระบบป้องกันขององค์กร
    - ใช้เทคนิค deepfake เพื่อเปลี่ยนใบหน้า, หมายเลขเอกสาร และพื้นหลังของภาพ
    - สามารถหลบเลี่ยงระบบตรวจสอบไบโอเมตริกซ์และ KYC ได้อย่างง่ายดาย
    - AU10TIX เปิดตัว “consortium validation” เพื่อให้หลายองค์กรแชร์ข้อมูลและตรวจจับ Repeaters ได้ดีขึ้น
    - ระบบใหม่ช่วยให้สามารถตรวจจับตัวตนที่ถูกใช้ซ้ำในหลายแพลตฟอร์มได้แบบเรียลไทม์

    คำเตือนที่ควรพิจารณา
    - ระบบตรวจสอบตัวตนแบบดั้งเดิมอาจไม่สามารถรับมือกับ Repeaters ได้
    - อาชญากรไซเบอร์สามารถใช้ Repeaters เพื่อเจาะระบบของธนาคารและแพลตฟอร์มคริปโต
    - ต้องมีการตรวจสอบพฤติกรรมของผู้ใช้ในหลายแพลตฟอร์มเพื่อป้องกันการโจมตีแบบเงียบ
    - ไม่มีโซลูชันใดที่สามารถป้องกัน Repeaters ได้ 100% ต้องใช้การตรวจสอบแบบหลายชั้น

    Repeaters แสดงให้เห็นว่า AI กำลังถูกใช้เพื่อพัฒนาเทคนิคการโจมตีที่ซับซ้อนมากขึ้น องค์กรต้อง ปรับปรุงระบบตรวจสอบตัวตนให้สามารถตรวจจับตัวตนที่ถูกใช้ซ้ำ และ ใช้การตรวจสอบแบบพฤติกรรมเพื่อป้องกันการโจมตีในอนาคต

    https://www.techradar.com/pro/security/cybercriminals-are-deploying-deepfake-sentinels-to-test-detection-systems-of-businesses-heres-what-you-need-to-know
    🛡️ AI-powered “Repeaters”: เทคนิคใหม่ของอาชญากรไซเบอร์ นักวิจัยด้านความปลอดภัยจาก AU10TIX ได้ค้นพบกลยุทธ์ใหม่ที่อาชญากรไซเบอร์ใช้ในการเจาะระบบของ ธนาคารและแพลตฟอร์มคริปโต โดยใช้ AI-powered Repeaters ซึ่งเป็น ตัวตนดิจิทัลปลอมที่ถูกปรับแต่งเล็กน้อย เพื่อหลบเลี่ยงระบบตรวจจับ Repeaters ไม่ได้ถูกออกแบบมาเพื่อโจมตีทันที แต่จะ ทดสอบระบบป้องกันขององค์กร โดยใช้ ตัวตนดิจิทัลที่ถูกปรับแต่งเล็กน้อย เช่น เปลี่ยนใบหน้า, แก้ไขหมายเลขเอกสาร หรือปรับพื้นหลังของภาพ เมื่อระบบตรวจสอบแต่ละตัวตนแยกกัน จะไม่สามารถตรวจจับความผิดปกติได้ ทำให้ Repeaters สามารถ ผ่านกระบวนการยืนยันตัวตน (KYC) และการตรวจสอบไบโอเมตริกซ์ ได้อย่างง่ายดาย ✅ ข้อมูลจากข่าว - Repeaters เป็นตัวตนดิจิทัลปลอมที่ถูกปรับแต่งเล็กน้อยเพื่อทดสอบระบบป้องกันขององค์กร - ใช้เทคนิค deepfake เพื่อเปลี่ยนใบหน้า, หมายเลขเอกสาร และพื้นหลังของภาพ - สามารถหลบเลี่ยงระบบตรวจสอบไบโอเมตริกซ์และ KYC ได้อย่างง่ายดาย - AU10TIX เปิดตัว “consortium validation” เพื่อให้หลายองค์กรแชร์ข้อมูลและตรวจจับ Repeaters ได้ดีขึ้น - ระบบใหม่ช่วยให้สามารถตรวจจับตัวตนที่ถูกใช้ซ้ำในหลายแพลตฟอร์มได้แบบเรียลไทม์ ‼️ คำเตือนที่ควรพิจารณา - ระบบตรวจสอบตัวตนแบบดั้งเดิมอาจไม่สามารถรับมือกับ Repeaters ได้ - อาชญากรไซเบอร์สามารถใช้ Repeaters เพื่อเจาะระบบของธนาคารและแพลตฟอร์มคริปโต - ต้องมีการตรวจสอบพฤติกรรมของผู้ใช้ในหลายแพลตฟอร์มเพื่อป้องกันการโจมตีแบบเงียบ - ไม่มีโซลูชันใดที่สามารถป้องกัน Repeaters ได้ 100% ต้องใช้การตรวจสอบแบบหลายชั้น Repeaters แสดงให้เห็นว่า AI กำลังถูกใช้เพื่อพัฒนาเทคนิคการโจมตีที่ซับซ้อนมากขึ้น องค์กรต้อง ปรับปรุงระบบตรวจสอบตัวตนให้สามารถตรวจจับตัวตนที่ถูกใช้ซ้ำ และ ใช้การตรวจสอบแบบพฤติกรรมเพื่อป้องกันการโจมตีในอนาคต https://www.techradar.com/pro/security/cybercriminals-are-deploying-deepfake-sentinels-to-test-detection-systems-of-businesses-heres-what-you-need-to-know
    WWW.TECHRADAR.COM
    This sneaky fraud tactic uses deepfakes to outsmart your favorite digital services
    Repeaters are used to test your system’s defense before large-scale attack
    0 ความคิดเห็น 0 การแบ่งปัน 312 มุมมอง 0 รีวิว
  • McAfee เพิ่มฟีเจอร์ Scam Detector ในแผนป้องกันไวรัส
    McAfee ได้รวม Scam Detector ซึ่งเป็นเครื่องมือป้องกันการหลอกลวงเข้าไปในแผนป้องกันไวรัสทั้งหมด โดยฟีเจอร์นี้สามารถตรวจจับ ข้อความ, อีเมล และวิดีโอที่เป็นภัย ได้แบบเรียลไทม์

    Scam Detector อ้างว่ามี ความแม่นยำ 99% ในการตรวจจับภัยคุกคามจากข้อความ และสามารถตรวจจับ deepfake บน YouTube และ TikTok ได้ 96%

    อย่างไรก็ตาม McAfee Scam Detector ต้องสมัครสมาชิก เพื่อใช้งาน ซึ่งแตกต่างจากเครื่องมือฟรี เช่น Bitdefender Scamio ที่สามารถตรวจสอบลิงก์, ข้อความ และ QR codes ได้โดยไม่มีค่าใช้จ่าย

    Google ก็มีระบบตรวจจับการหลอกลวงด้วย AI แต่ยังอยู่ใน เวอร์ชันเบต้าสำหรับ Pixel phones เท่านั้น

    ข้อมูลจากข่าว
    - McAfee รวม Scam Detector เข้าไปในแผนป้องกันไวรัสทั้งหมด
    - สามารถตรวจจับข้อความ, อีเมล และวิดีโอที่เป็นภัยได้แบบเรียลไทม์
    - มีความแม่นยำ 99% ในการตรวจจับภัยคุกคามจากข้อความ
    - สามารถตรวจจับ deepfake บน YouTube และ TikTok ได้ 96%
    - รองรับ WhatsApp, Messenger, Gmail และ Android SMS

    คำเตือนที่ควรพิจารณา
    - ต้องสมัครสมาชิก McAfee เพื่อใช้งาน Scam Detector
    - Bitdefender Scamio เป็นเครื่องมือฟรีที่สามารถตรวจสอบลิงก์และข้อความได้
    - Google มีระบบตรวจจับการหลอกลวงด้วย AI แต่ยังอยู่ในเวอร์ชันเบต้าสำหรับ Pixel phones
    - Norton Genie Scam Protection ก็ต้องสมัครสมาชิกเพื่อใช้งานเต็มรูปแบบ

    ผลกระทบต่ออุตสาหกรรมความปลอดภัยไซเบอร์
    McAfee Scam Detector อาจช่วยให้ผู้ใช้มีเครื่องมือป้องกันภัยคุกคามที่มีประสิทธิภาพมากขึ้น แต่การที่ต้องสมัครสมาชิกอาจทำให้ผู้ใช้เลือกใช้ เครื่องมือฟรีที่มีฟีเจอร์ใกล้เคียงกัน แทน

    https://www.techradar.com/pro/mcafee-is-now-bundling-its-scam-detector-with-all-its-antivirus-plans-here-are-others-that-are-actually-totally-free
    🛡️ McAfee เพิ่มฟีเจอร์ Scam Detector ในแผนป้องกันไวรัส McAfee ได้รวม Scam Detector ซึ่งเป็นเครื่องมือป้องกันการหลอกลวงเข้าไปในแผนป้องกันไวรัสทั้งหมด โดยฟีเจอร์นี้สามารถตรวจจับ ข้อความ, อีเมล และวิดีโอที่เป็นภัย ได้แบบเรียลไทม์ Scam Detector อ้างว่ามี ความแม่นยำ 99% ในการตรวจจับภัยคุกคามจากข้อความ และสามารถตรวจจับ deepfake บน YouTube และ TikTok ได้ 96% อย่างไรก็ตาม McAfee Scam Detector ต้องสมัครสมาชิก เพื่อใช้งาน ซึ่งแตกต่างจากเครื่องมือฟรี เช่น Bitdefender Scamio ที่สามารถตรวจสอบลิงก์, ข้อความ และ QR codes ได้โดยไม่มีค่าใช้จ่าย Google ก็มีระบบตรวจจับการหลอกลวงด้วย AI แต่ยังอยู่ใน เวอร์ชันเบต้าสำหรับ Pixel phones เท่านั้น ✅ ข้อมูลจากข่าว - McAfee รวม Scam Detector เข้าไปในแผนป้องกันไวรัสทั้งหมด - สามารถตรวจจับข้อความ, อีเมล และวิดีโอที่เป็นภัยได้แบบเรียลไทม์ - มีความแม่นยำ 99% ในการตรวจจับภัยคุกคามจากข้อความ - สามารถตรวจจับ deepfake บน YouTube และ TikTok ได้ 96% - รองรับ WhatsApp, Messenger, Gmail และ Android SMS ‼️ คำเตือนที่ควรพิจารณา - ต้องสมัครสมาชิก McAfee เพื่อใช้งาน Scam Detector - Bitdefender Scamio เป็นเครื่องมือฟรีที่สามารถตรวจสอบลิงก์และข้อความได้ - Google มีระบบตรวจจับการหลอกลวงด้วย AI แต่ยังอยู่ในเวอร์ชันเบต้าสำหรับ Pixel phones - Norton Genie Scam Protection ก็ต้องสมัครสมาชิกเพื่อใช้งานเต็มรูปแบบ 🔎 ผลกระทบต่ออุตสาหกรรมความปลอดภัยไซเบอร์ McAfee Scam Detector อาจช่วยให้ผู้ใช้มีเครื่องมือป้องกันภัยคุกคามที่มีประสิทธิภาพมากขึ้น แต่การที่ต้องสมัครสมาชิกอาจทำให้ผู้ใช้เลือกใช้ เครื่องมือฟรีที่มีฟีเจอร์ใกล้เคียงกัน แทน https://www.techradar.com/pro/mcafee-is-now-bundling-its-scam-detector-with-all-its-antivirus-plans-here-are-others-that-are-actually-totally-free
    WWW.TECHRADAR.COM
    Don’t get scammed! McAfee’s new AI tool sounds great, but you will need to pay for it
    McAfee Scam Detector tool is price-locked - here are some other options
    0 ความคิดเห็น 0 การแบ่งปัน 413 มุมมอง 0 รีวิว
  • "One Big Beautiful Bill": สภาผู้แทนฯ สหรัฐฯ สนับสนุนแผนของทรัมป์ในการระงับกฎหมาย AI ระดับรัฐเป็นเวลา 10 ปี

    สภาผู้แทนราษฎรสหรัฐฯ ผ่านร่างกฎหมาย "One Big Beautiful Bill" ของอดีตประธานาธิบดีโดนัลด์ ทรัมป์ ซึ่งมีเป้าหมาย ปรับโครงสร้างภาษีและนโยบายตรวจคนเข้าเมือง แต่ที่เป็นประเด็นร้อนแรงคือ ข้อกำหนดที่ห้ามรัฐออกกฎหมายควบคุม AI เป็นเวลา 10 ปี

    รายละเอียดสำคัญเกี่ยวกับร่างกฎหมาย "One Big Beautiful Bill"
    ร่างกฎหมายนี้ห้ามรัฐออกกฎหมายควบคุม AI เป็นเวลา 10 ปี
    - ครอบคลุม ทั้งโมเดล AI และผลิตภัณฑ์ที่ใช้ AI เช่น รถยนต์, IoT, โซเชียลมีเดีย และอุปกรณ์ทางการแพทย์

    นักวิจารณ์กังวลว่าการระงับกฎหมายระดับรัฐอาจเปิดช่องให้ AI ถูกใช้ในทางที่ผิด
    - อาจทำให้ นักพัฒนา AI สามารถสร้างระบบที่ส่งผลกระทบต่อความปลอดภัยและความมั่นคง

    สมาชิกพรรครีพับลิกันบางส่วนเตือนว่าร่างกฎหมายนี้อาจกระทบต่อความมั่นคงของชาติ
    - วุฒิสมาชิก Marsha Blackburn และ Josh Hawley ระบุว่าอาจทำให้ Deepfake และภัยคุกคาม AI เพิ่มขึ้น

    องค์กรด้านสิทธิและความเป็นส่วนตัว เช่น Electronic Frontier Foundation คัดค้านร่างกฎหมายนี้
    - มองว่า เป็นความพยายามของ Big Tech ในการลดข้อจำกัดด้าน AI

    ผู้สนับสนุนร่างกฎหมายมองว่าการระงับกฎหมายระดับรัฐช่วยให้บริษัทสหรัฐฯ แข่งขันกับจีนได้ดีขึ้น
    - เชื่อว่า กฎระเบียบที่เข้มงวดอาจขัดขวางนวัตกรรมและลดโอกาสของสหรัฐฯ ในการเป็นผู้นำด้าน AI

    ร่างกฎหมายยังต้องผ่านการพิจารณาของวุฒิสภาก่อนที่ทรัมป์จะลงนามเป็นกฎหมาย
    - นักวิเคราะห์มองว่า ทรัมป์อาจเผชิญแรงต้านจากวุฒิสมาชิกที่กังวลเรื่องอำนาจของรัฐ

    https://www.techspot.com/news/108036-one-big-beautiful-bill-house-backs-trump-plan.html
    "One Big Beautiful Bill": สภาผู้แทนฯ สหรัฐฯ สนับสนุนแผนของทรัมป์ในการระงับกฎหมาย AI ระดับรัฐเป็นเวลา 10 ปี สภาผู้แทนราษฎรสหรัฐฯ ผ่านร่างกฎหมาย "One Big Beautiful Bill" ของอดีตประธานาธิบดีโดนัลด์ ทรัมป์ ซึ่งมีเป้าหมาย ปรับโครงสร้างภาษีและนโยบายตรวจคนเข้าเมือง แต่ที่เป็นประเด็นร้อนแรงคือ ข้อกำหนดที่ห้ามรัฐออกกฎหมายควบคุม AI เป็นเวลา 10 ปี 🔍 รายละเอียดสำคัญเกี่ยวกับร่างกฎหมาย "One Big Beautiful Bill" ✅ ร่างกฎหมายนี้ห้ามรัฐออกกฎหมายควบคุม AI เป็นเวลา 10 ปี - ครอบคลุม ทั้งโมเดล AI และผลิตภัณฑ์ที่ใช้ AI เช่น รถยนต์, IoT, โซเชียลมีเดีย และอุปกรณ์ทางการแพทย์ ✅ นักวิจารณ์กังวลว่าการระงับกฎหมายระดับรัฐอาจเปิดช่องให้ AI ถูกใช้ในทางที่ผิด - อาจทำให้ นักพัฒนา AI สามารถสร้างระบบที่ส่งผลกระทบต่อความปลอดภัยและความมั่นคง ✅ สมาชิกพรรครีพับลิกันบางส่วนเตือนว่าร่างกฎหมายนี้อาจกระทบต่อความมั่นคงของชาติ - วุฒิสมาชิก Marsha Blackburn และ Josh Hawley ระบุว่าอาจทำให้ Deepfake และภัยคุกคาม AI เพิ่มขึ้น ✅ องค์กรด้านสิทธิและความเป็นส่วนตัว เช่น Electronic Frontier Foundation คัดค้านร่างกฎหมายนี้ - มองว่า เป็นความพยายามของ Big Tech ในการลดข้อจำกัดด้าน AI ✅ ผู้สนับสนุนร่างกฎหมายมองว่าการระงับกฎหมายระดับรัฐช่วยให้บริษัทสหรัฐฯ แข่งขันกับจีนได้ดีขึ้น - เชื่อว่า กฎระเบียบที่เข้มงวดอาจขัดขวางนวัตกรรมและลดโอกาสของสหรัฐฯ ในการเป็นผู้นำด้าน AI ✅ ร่างกฎหมายยังต้องผ่านการพิจารณาของวุฒิสภาก่อนที่ทรัมป์จะลงนามเป็นกฎหมาย - นักวิเคราะห์มองว่า ทรัมป์อาจเผชิญแรงต้านจากวุฒิสมาชิกที่กังวลเรื่องอำนาจของรัฐ https://www.techspot.com/news/108036-one-big-beautiful-bill-house-backs-trump-plan.html
    WWW.TECHSPOT.COM
    "One Big Beautiful Bill": House backs Trump plan to freeze state AI laws for a decade
    The moratorium applies not only to AI models but also to any products or services integrating AI, effectively banning and overriding state regulations in those areas. The...
    0 ความคิดเห็น 0 การแบ่งปัน 319 มุมมอง 0 รีวิว
  • Dell Technologies World 2025: การเปลี่ยนแปลงครั้งใหญ่ในโลกเทคโนโลยี

    งาน Dell Technologies World 2025 ได้เผยโฉมเทคโนโลยีใหม่ ๆ ที่จะมีบทบาทสำคัญในอนาคต โดยเน้นไปที่ AI, Cloud Computing, และโครงสร้างพื้นฐานด้านข้อมูล พร้อมการอภิปรายจากบุคคลสำคัญในวงการ

    ไฮไลท์สำคัญจากงาน Dell Technologies World 2025
    Dell เปิดตัว AI Factory รุ่นใหม่
    - เป็นแพลตฟอร์มที่ช่วยให้ธุรกิจสามารถ นำ AI ไปใช้ได้อย่างมีประสิทธิภาพมากขึ้น
    - มีการลงทุนในโครงสร้างพื้นฐาน AI มากกว่าการลงทุนในโครงการ Apollo ที่ส่งมนุษย์ไปดวงจันทร์

    Dell ร่วมมือกับ Google นำ Gemini AI มาสู่เซิร์ฟเวอร์ PowerEdge
    - ลูกค้าของ Dell สามารถใช้โมเดล AI ของ Google ได้โดยตรงบนเซิร์ฟเวอร์ของตน

    เปิดตัว Dell AI Data Platform และ Data Lakehouse
    - ช่วยให้ธุรกิจสามารถ จัดการข้อมูลได้อย่างมีประสิทธิภาพมากขึ้น
    - รองรับการวิเคราะห์ข้อมูลแบบเรียลไทม์

    Dell เปิดตัว AI PC รุ่นใหม่ที่มีประสิทธิภาพสูงขึ้น
    - มีแบตเตอรี่ที่ใช้งานได้นานขึ้น และรองรับการประมวลผล AI บนเครื่องโดยตรง

    การอภิปรายเกี่ยวกับ AI ในอุตสาหกรรมภาพยนตร์
    - Tom Hanks และ Ron Howard พูดถึงผลกระทบของ AI ต่อการสร้างภาพยนตร์
    - มีการถกเถียงเกี่ยวกับ การใช้ Deepfake และ CGI ในอนาคต

    AI อาจเข้ามาแทนที่บางอาชีพในอนาคต
    - ผู้เชี่ยวชาญ แนะนำให้ธุรกิจปรับตัวและพัฒนาทักษะใหม่ ๆ

    การใช้ AI ในภาพยนตร์อาจต้องการกฎหมายควบคุม
    - Tom Hanks เรียกร้องให้รัฐบาลออกกฎหมายเกี่ยวกับลิขสิทธิ์ของบุคคลในโลกดิจิทัล

    https://www.techradar.com/pro/live/dell-technologies-world-2025-all-the-latest-news-and-updates-live
    Dell Technologies World 2025: การเปลี่ยนแปลงครั้งใหญ่ในโลกเทคโนโลยี งาน Dell Technologies World 2025 ได้เผยโฉมเทคโนโลยีใหม่ ๆ ที่จะมีบทบาทสำคัญในอนาคต โดยเน้นไปที่ AI, Cloud Computing, และโครงสร้างพื้นฐานด้านข้อมูล พร้อมการอภิปรายจากบุคคลสำคัญในวงการ 🔍 ไฮไลท์สำคัญจากงาน Dell Technologies World 2025 ✅ Dell เปิดตัว AI Factory รุ่นใหม่ - เป็นแพลตฟอร์มที่ช่วยให้ธุรกิจสามารถ นำ AI ไปใช้ได้อย่างมีประสิทธิภาพมากขึ้น - มีการลงทุนในโครงสร้างพื้นฐาน AI มากกว่าการลงทุนในโครงการ Apollo ที่ส่งมนุษย์ไปดวงจันทร์ ✅ Dell ร่วมมือกับ Google นำ Gemini AI มาสู่เซิร์ฟเวอร์ PowerEdge - ลูกค้าของ Dell สามารถใช้โมเดล AI ของ Google ได้โดยตรงบนเซิร์ฟเวอร์ของตน ✅ เปิดตัว Dell AI Data Platform และ Data Lakehouse - ช่วยให้ธุรกิจสามารถ จัดการข้อมูลได้อย่างมีประสิทธิภาพมากขึ้น - รองรับการวิเคราะห์ข้อมูลแบบเรียลไทม์ ✅ Dell เปิดตัว AI PC รุ่นใหม่ที่มีประสิทธิภาพสูงขึ้น - มีแบตเตอรี่ที่ใช้งานได้นานขึ้น และรองรับการประมวลผล AI บนเครื่องโดยตรง ✅ การอภิปรายเกี่ยวกับ AI ในอุตสาหกรรมภาพยนตร์ - Tom Hanks และ Ron Howard พูดถึงผลกระทบของ AI ต่อการสร้างภาพยนตร์ - มีการถกเถียงเกี่ยวกับ การใช้ Deepfake และ CGI ในอนาคต ‼️ AI อาจเข้ามาแทนที่บางอาชีพในอนาคต - ผู้เชี่ยวชาญ แนะนำให้ธุรกิจปรับตัวและพัฒนาทักษะใหม่ ๆ ‼️ การใช้ AI ในภาพยนตร์อาจต้องการกฎหมายควบคุม - Tom Hanks เรียกร้องให้รัฐบาลออกกฎหมายเกี่ยวกับลิขสิทธิ์ของบุคคลในโลกดิจิทัล https://www.techradar.com/pro/live/dell-technologies-world-2025-all-the-latest-news-and-updates-live
    0 ความคิดเห็น 0 การแบ่งปัน 407 มุมมอง 0 รีวิว
  • AI สามารถระบุตำแหน่งของคุณจากภาพที่ไม่มีข้อมูล GPS ได้อย่างแม่นยำ

    นักวิจัยด้านความปลอดภัยไซเบอร์พบว่า AI สามารถใช้เบาะแสเล็ก ๆ น้อย ๆ ในภาพเพื่อระบุตำแหน่งของคุณได้ แม้ว่าภาพนั้นจะถูกลบข้อมูลเมตา (Metadata) เช่น GPS, เวลา และวันที่ ออกไปแล้ว

    รายละเอียดสำคัญเกี่ยวกับความสามารถของ AI ในการระบุตำแหน่ง
    AI สามารถใช้รายละเอียดเล็ก ๆ น้อย ๆ ในภาพเพื่อระบุตำแหน่งของคุณ
    - เช่น รูปแบบสถาปัตยกรรม, ประเภทของต้นไม้ หรือแม้แต่แบรนด์ของรถเข็นที่ปรากฏในภาพ

    Malwarebytes พบว่า ChatGPT มีความสามารถ "creepy good" ในการเดาตำแหน่งจากภาพ
    - AI สามารถวิเคราะห์สิ่งแวดล้อมและจำกัดขอบเขตของสถานที่ได้อย่างแม่นยำ

    นักวิจัยจาก Fraunhofer Heinrich-Hertz-Institute พบว่า AI สามารถสร้าง Deepfake ที่มีสัญญาณชีพจร
    - ทำให้ การตรวจจับ Deepfake ด้วยเทคนิคเดิม เช่น การวิเคราะห์อัตราการเต้นของหัวใจ อาจใช้ไม่ได้ผลอีกต่อไป

    การพัฒนา AI ด้านการวิเคราะห์ภาพกำลังทำให้การตรวจจับเนื้อหาปลอมยากขึ้น
    - นักวิจัย กำลังมองหาวิธีใหม่ในการตรวจจับ Deepfake ที่มีคุณภาพสูง

    https://www.thestar.com.my/tech/tech-news/2025/05/17/039creepy-good039-ai-can-now-tell-your-location-from-obscure-photographs
    AI สามารถระบุตำแหน่งของคุณจากภาพที่ไม่มีข้อมูล GPS ได้อย่างแม่นยำ นักวิจัยด้านความปลอดภัยไซเบอร์พบว่า AI สามารถใช้เบาะแสเล็ก ๆ น้อย ๆ ในภาพเพื่อระบุตำแหน่งของคุณได้ แม้ว่าภาพนั้นจะถูกลบข้อมูลเมตา (Metadata) เช่น GPS, เวลา และวันที่ ออกไปแล้ว 🔍 รายละเอียดสำคัญเกี่ยวกับความสามารถของ AI ในการระบุตำแหน่ง ✅ AI สามารถใช้รายละเอียดเล็ก ๆ น้อย ๆ ในภาพเพื่อระบุตำแหน่งของคุณ - เช่น รูปแบบสถาปัตยกรรม, ประเภทของต้นไม้ หรือแม้แต่แบรนด์ของรถเข็นที่ปรากฏในภาพ ✅ Malwarebytes พบว่า ChatGPT มีความสามารถ "creepy good" ในการเดาตำแหน่งจากภาพ - AI สามารถวิเคราะห์สิ่งแวดล้อมและจำกัดขอบเขตของสถานที่ได้อย่างแม่นยำ ✅ นักวิจัยจาก Fraunhofer Heinrich-Hertz-Institute พบว่า AI สามารถสร้าง Deepfake ที่มีสัญญาณชีพจร - ทำให้ การตรวจจับ Deepfake ด้วยเทคนิคเดิม เช่น การวิเคราะห์อัตราการเต้นของหัวใจ อาจใช้ไม่ได้ผลอีกต่อไป ✅ การพัฒนา AI ด้านการวิเคราะห์ภาพกำลังทำให้การตรวจจับเนื้อหาปลอมยากขึ้น - นักวิจัย กำลังมองหาวิธีใหม่ในการตรวจจับ Deepfake ที่มีคุณภาพสูง https://www.thestar.com.my/tech/tech-news/2025/05/17/039creepy-good039-ai-can-now-tell-your-location-from-obscure-photographs
    WWW.THESTAR.COM.MY
    'Creepy good': AI can now tell your location from obscure photographs
    The chatbot was albe to use clues and cues in architecture and environment to narrow down possible locations in photos before either nailing it or coming uncannily close.
    0 ความคิดเห็น 0 การแบ่งปัน 279 มุมมอง 0 รีวิว
  • Deepfake และความเสี่ยงของการอัปโหลดภาพใบหน้าสู่ AI

    การใช้ AI เพื่อสร้างภาพเซลฟี่ที่ดูสมจริงกำลังเป็นที่นิยม แต่ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์เตือนว่า การอัปโหลดภาพใบหน้าของคุณไปยัง AI อาจมีความเสี่ยง โดยเฉพาะอย่างยิ่ง เมื่อข้อมูลเหล่านี้สามารถถูกนำไปใช้ในทางที่ผิด เช่น การสร้าง Deepfake หรือการโจมตีทางไซเบอร์

    รายละเอียดสำคัญเกี่ยวกับความเสี่ยงของ AI และ Deepfake
    AI สามารถนำภาพใบหน้าของคุณไปใช้ในการสร้าง Deepfake ได้
    - ภาพที่อัปโหลด อาจถูกนำไปใช้ในวิดีโอปลอม หรือเนื้อหาที่ไม่เหมาะสม

    ผู้ให้บริการ AI อาจบันทึกข้อมูลส่วนตัวของคุณ เช่น IP และอีเมล
    - ทำให้ คุณอาจเปิดเผยข้อมูลมากกว่าที่คิด

    AI สามารถวิเคราะห์ใบหน้า อายุ ท่าทาง และอารมณ์จากภาพที่อัปโหลด
    - เทคโนโลยีนี้ สามารถใช้ในการติดตามตัวบุคคลได้

    AI สามารถคาดเดาตำแหน่งของคุณจากภาพที่ไม่มีจุดสังเกตชัดเจน
    - แม้ไม่มีสถานที่ในพื้นหลัง AI ก็สามารถระบุตำแหน่งของคุณได้

    ข้อมูลที่อัปโหลดอาจถูกนำไปใช้ในการโจมตีแบบฟิชชิ่ง
    - เช่น การสร้างบัญชีปลอม หรือการหลอกลวงทางออนไลน์

    เด็กและเยาวชนมีความเสี่ยงสูงต่อการถูกนำภาพไปใช้ในทางที่ผิด
    - ควรมี การให้ความรู้และการควบคุมการใช้งาน AI สำหรับเด็ก

    ภาพที่อัปโหลดไปยัง AI อาจไม่สามารถลบออกจากระบบได้
    - หากผู้ให้บริการ ไม่ได้อยู่ภายใต้กฎหมายคุ้มครองข้อมูล เช่น GDPR

    AI อาจใช้ข้อมูลใบหน้าเพื่อฝึกระบบจดจำใบหน้าโดยไม่ได้รับอนุญาต
    - อาจนำไปสู่ การใช้เทคโนโลยีติดตามตัวบุคคลในทางที่ผิด

    https://www.thestar.com.my/tech/tech-news/2025/05/17/deepfake-me-are-there-risks-to-uploading-your-face-for-ai-selfies
    Deepfake และความเสี่ยงของการอัปโหลดภาพใบหน้าสู่ AI การใช้ AI เพื่อสร้างภาพเซลฟี่ที่ดูสมจริงกำลังเป็นที่นิยม แต่ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์เตือนว่า การอัปโหลดภาพใบหน้าของคุณไปยัง AI อาจมีความเสี่ยง โดยเฉพาะอย่างยิ่ง เมื่อข้อมูลเหล่านี้สามารถถูกนำไปใช้ในทางที่ผิด เช่น การสร้าง Deepfake หรือการโจมตีทางไซเบอร์ 🔍 รายละเอียดสำคัญเกี่ยวกับความเสี่ยงของ AI และ Deepfake ✅ AI สามารถนำภาพใบหน้าของคุณไปใช้ในการสร้าง Deepfake ได้ - ภาพที่อัปโหลด อาจถูกนำไปใช้ในวิดีโอปลอม หรือเนื้อหาที่ไม่เหมาะสม ✅ ผู้ให้บริการ AI อาจบันทึกข้อมูลส่วนตัวของคุณ เช่น IP และอีเมล - ทำให้ คุณอาจเปิดเผยข้อมูลมากกว่าที่คิด ✅ AI สามารถวิเคราะห์ใบหน้า อายุ ท่าทาง และอารมณ์จากภาพที่อัปโหลด - เทคโนโลยีนี้ สามารถใช้ในการติดตามตัวบุคคลได้ ✅ AI สามารถคาดเดาตำแหน่งของคุณจากภาพที่ไม่มีจุดสังเกตชัดเจน - แม้ไม่มีสถานที่ในพื้นหลัง AI ก็สามารถระบุตำแหน่งของคุณได้ ✅ ข้อมูลที่อัปโหลดอาจถูกนำไปใช้ในการโจมตีแบบฟิชชิ่ง - เช่น การสร้างบัญชีปลอม หรือการหลอกลวงทางออนไลน์ ✅ เด็กและเยาวชนมีความเสี่ยงสูงต่อการถูกนำภาพไปใช้ในทางที่ผิด - ควรมี การให้ความรู้และการควบคุมการใช้งาน AI สำหรับเด็ก ‼️ ภาพที่อัปโหลดไปยัง AI อาจไม่สามารถลบออกจากระบบได้ - หากผู้ให้บริการ ไม่ได้อยู่ภายใต้กฎหมายคุ้มครองข้อมูล เช่น GDPR ‼️ AI อาจใช้ข้อมูลใบหน้าเพื่อฝึกระบบจดจำใบหน้าโดยไม่ได้รับอนุญาต - อาจนำไปสู่ การใช้เทคโนโลยีติดตามตัวบุคคลในทางที่ผิด https://www.thestar.com.my/tech/tech-news/2025/05/17/deepfake-me-are-there-risks-to-uploading-your-face-for-ai-selfies
    WWW.THESTAR.COM.MY
    Deepfake me: Are there risks to uploading your face for AI selfies?
    New research has even shown that AI is now suprisingly good at guessing your location even from obscure photographs without recognisable places in the background.
    0 ความคิดเห็น 0 การแบ่งปัน 332 มุมมอง 0 รีวิว
  • ความรักแท้หรือ Deepfake? โลกของการออกเดตในยุค AI

    Beth Hyland หญิงสาวจากรัฐมิชิแกน เชื่อว่าเธอพบรักแท้บน Tinder แต่ความจริงกลับกลายเป็นว่าเธอ ตกเป็นเหยื่อของนักต้มตุ๋นออนไลน์ ที่ใช้ วิดีโอ Deepfake บน Skype และภาพปลอมของชายคนหนึ่ง เพื่อสร้างตัวตนหลอกลวง

    นักต้มตุ๋นใช้วิดีโอ Deepfake และภาพปลอมเพื่อสร้างตัวตนที่ดูน่าเชื่อถือ
    - ทำให้ เหยื่อหลงเชื่อว่ากำลังพูดคุยกับบุคคลจริง

    Beth Hyland ถูกหลอกให้เชื่อว่าเธอกำลังคบหากับชายชาวฝรั่งเศสชื่อ "Richard"
    - นักต้มตุ๋น ใช้เทคนิคทางจิตวิทยาเพื่อสร้างความไว้วางใจ

    แอปหาคู่ส่วนใหญ่ไม่แจ้งเตือนผู้ใช้เมื่อบัญชีของนักต้มตุ๋นถูกลบ
    - ทำให้ เหยื่อไม่รู้ว่าตนเองเคยตกเป็นเป้าหมายของการหลอกลวง

    มีการเสนอร่างกฎหมายใหม่ให้แอปหาคู่ต้องแจ้งเตือนผู้ใช้เกี่ยวกับบัญชีที่เป็นภัย
    - เพื่อ ช่วยให้ผู้ใช้สามารถหลีกเลี่ยงการตกเป็นเหยื่อได้

    AI กำลังเปลี่ยนแปลงโลกของการออกเดต โดยทำให้การหลอกลวงมีความแนบเนียนมากขึ้น
    - นักต้มตุ๋น สามารถใช้ AI เพื่อสร้างตัวตนปลอมที่ดูสมจริงมากขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/05/16/deep-love-or-deepfake-dating-in-the-time-of-ai
    ความรักแท้หรือ Deepfake? โลกของการออกเดตในยุค AI Beth Hyland หญิงสาวจากรัฐมิชิแกน เชื่อว่าเธอพบรักแท้บน Tinder แต่ความจริงกลับกลายเป็นว่าเธอ ตกเป็นเหยื่อของนักต้มตุ๋นออนไลน์ ที่ใช้ วิดีโอ Deepfake บน Skype และภาพปลอมของชายคนหนึ่ง เพื่อสร้างตัวตนหลอกลวง ✅ นักต้มตุ๋นใช้วิดีโอ Deepfake และภาพปลอมเพื่อสร้างตัวตนที่ดูน่าเชื่อถือ - ทำให้ เหยื่อหลงเชื่อว่ากำลังพูดคุยกับบุคคลจริง ✅ Beth Hyland ถูกหลอกให้เชื่อว่าเธอกำลังคบหากับชายชาวฝรั่งเศสชื่อ "Richard" - นักต้มตุ๋น ใช้เทคนิคทางจิตวิทยาเพื่อสร้างความไว้วางใจ ✅ แอปหาคู่ส่วนใหญ่ไม่แจ้งเตือนผู้ใช้เมื่อบัญชีของนักต้มตุ๋นถูกลบ - ทำให้ เหยื่อไม่รู้ว่าตนเองเคยตกเป็นเป้าหมายของการหลอกลวง ✅ มีการเสนอร่างกฎหมายใหม่ให้แอปหาคู่ต้องแจ้งเตือนผู้ใช้เกี่ยวกับบัญชีที่เป็นภัย - เพื่อ ช่วยให้ผู้ใช้สามารถหลีกเลี่ยงการตกเป็นเหยื่อได้ ✅ AI กำลังเปลี่ยนแปลงโลกของการออกเดต โดยทำให้การหลอกลวงมีความแนบเนียนมากขึ้น - นักต้มตุ๋น สามารถใช้ AI เพื่อสร้างตัวตนปลอมที่ดูสมจริงมากขึ้น https://www.thestar.com.my/tech/tech-news/2025/05/16/deep-love-or-deepfake-dating-in-the-time-of-ai
    WWW.THESTAR.COM.MY
    Deep love or deepfake? Dating in the time of AI
    A projected 8 million deepfakes will be shared worldwide in 2025, risking a romance scam explosion.
    0 ความคิดเห็น 0 การแบ่งปัน 307 มุมมอง 0 รีวิว
  • ภัยคุกคามจาก Deepfake: ความเสี่ยงที่องค์กรต้องรับมืออย่างเร่งด่วน

    Deepfake กำลังกลายเป็น ภัยคุกคามทางไซเบอร์ที่เพิ่มขึ้นอย่างรวดเร็ว โดยเฉพาะในรูปแบบ เสียงและวิดีโอปลอม ที่สามารถหลอกลวงพนักงานให้ทำธุรกรรมทางการเงินโดยไม่ได้ตรวจสอบให้ดี ตัวอย่างเช่น บริษัทค้าปลีกแห่งหนึ่งสูญเสียเงินกว่า $700,000 หลังจากพนักงานได้รับโทรศัพท์จาก CFO ปลอมที่ใช้เทคโนโลยี AI สร้างเสียงเลียนแบบ

    Deepfake สามารถใช้เลียนแบบเสียงและวิดีโอของบุคคลสำคัญในองค์กร
    - เช่น CEO หรือ CFO เพื่อสั่งให้พนักงานทำธุรกรรมทางการเงิน

    องค์กรต้องใช้มาตรการตรวจสอบหลายชั้นเพื่อป้องกันการโจมตี
    - เช่น การยืนยันตัวตนผ่านหมายเลขโทรศัพท์ที่รู้จักกันดี

    การฝึกอบรมพนักงานให้รู้จักสังเกต Deepfake เป็นสิ่งสำคัญ
    - เช่น เสียงที่ดูเร่งรีบผิดปกติ หรือการเคลื่อนไหวของใบหน้าที่ไม่เป็นธรรมชาติ

    Deepfake ไม่ได้จำกัดอยู่แค่การหลอกลวงทางการเงิน แต่ยังใช้ในการสมัครงานปลอม
    - เช่น กรณีที่บริษัท Exabeam พบผู้สมัครงานที่ใช้วิดีโอ Deepfake ในการสัมภาษณ์

    รัฐบาลสหรัฐฯ กำลังพิจารณากฎหมาย No Fakes Act เพื่อควบคุมการใช้ Deepfake
    - กฎหมายนี้จะช่วยให้ บุคคลสามารถควบคุมการใช้เสียงและภาพของตนเองในสื่อดิจิทัล

    https://www.csoonline.com/article/3982379/deepfake-attacks-are-inevitable-cisos-cant-prepare-soon-enough.html
    ภัยคุกคามจาก Deepfake: ความเสี่ยงที่องค์กรต้องรับมืออย่างเร่งด่วน Deepfake กำลังกลายเป็น ภัยคุกคามทางไซเบอร์ที่เพิ่มขึ้นอย่างรวดเร็ว โดยเฉพาะในรูปแบบ เสียงและวิดีโอปลอม ที่สามารถหลอกลวงพนักงานให้ทำธุรกรรมทางการเงินโดยไม่ได้ตรวจสอบให้ดี ตัวอย่างเช่น บริษัทค้าปลีกแห่งหนึ่งสูญเสียเงินกว่า $700,000 หลังจากพนักงานได้รับโทรศัพท์จาก CFO ปลอมที่ใช้เทคโนโลยี AI สร้างเสียงเลียนแบบ ✅ Deepfake สามารถใช้เลียนแบบเสียงและวิดีโอของบุคคลสำคัญในองค์กร - เช่น CEO หรือ CFO เพื่อสั่งให้พนักงานทำธุรกรรมทางการเงิน ✅ องค์กรต้องใช้มาตรการตรวจสอบหลายชั้นเพื่อป้องกันการโจมตี - เช่น การยืนยันตัวตนผ่านหมายเลขโทรศัพท์ที่รู้จักกันดี ✅ การฝึกอบรมพนักงานให้รู้จักสังเกต Deepfake เป็นสิ่งสำคัญ - เช่น เสียงที่ดูเร่งรีบผิดปกติ หรือการเคลื่อนไหวของใบหน้าที่ไม่เป็นธรรมชาติ ✅ Deepfake ไม่ได้จำกัดอยู่แค่การหลอกลวงทางการเงิน แต่ยังใช้ในการสมัครงานปลอม - เช่น กรณีที่บริษัท Exabeam พบผู้สมัครงานที่ใช้วิดีโอ Deepfake ในการสัมภาษณ์ ✅ รัฐบาลสหรัฐฯ กำลังพิจารณากฎหมาย No Fakes Act เพื่อควบคุมการใช้ Deepfake - กฎหมายนี้จะช่วยให้ บุคคลสามารถควบคุมการใช้เสียงและภาพของตนเองในสื่อดิจิทัล https://www.csoonline.com/article/3982379/deepfake-attacks-are-inevitable-cisos-cant-prepare-soon-enough.html
    WWW.CSOONLINE.COM
    Deepfake attacks are inevitable. CISOs can’t prepare soon enough.
    Security leaders must develop a multi-layered strategy to defend against deepfake voice and video attacks, which experts expect to increase quickly in volume and effectiveness.
    0 ความคิดเห็น 0 การแบ่งปัน 179 มุมมอง 0 รีวิว
  • นักวิจัยด้านความปลอดภัยเตือนว่า กลุ่มแฮกเกอร์จากเกาหลีเหนือ กำลังใช้ AI และเทคนิคปลอมตัวขั้นสูง เพื่อสมัครงานระยะไกลในบริษัทเทคโนโลยีระดับโลก โดยมีเป้าหมายเพื่อ ขโมยทรัพย์สินทางปัญญาและรับเงินเดือนจากบริษัทตะวันตก

    ที่งาน RSA Conference ในซานฟรานซิสโก ผู้เชี่ยวชาญด้านความปลอดภัยเปิดเผยว่า แฮกเกอร์เหล่านี้ใช้ AI สร้างโปรไฟล์ LinkedIn ที่ดูน่าเชื่อถือ และใช้ ทีมงานเบื้องหลังช่วยตอบคำถามในการสัมภาษณ์งาน นอกจากนี้ ยังมีการใช้ deepfake และฟาร์มแล็ปท็อป เพื่อปลอมแปลงตำแหน่งที่ตั้งและตัวตนของผู้สมัคร

    แฮกเกอร์ใช้ AI และ deepfake เพื่อสมัครงานระยะไกล
    - สร้างโปรไฟล์ LinkedIn ที่ดูน่าเชื่อถือ
    - ใช้ทีมงานเบื้องหลังช่วยตอบคำถามในการสัมภาษณ์

    เทคนิคการปลอมตัวที่ซับซ้อน
    - ใช้ ฟาร์มแล็ปท็อป ในสหรัฐฯ เพื่อปลอมแปลงตำแหน่งที่ตั้ง
    - ใช้ deepfake เพื่อหลอกทีมสรรหาบุคลากร

    เป้าหมายของแฮกเกอร์
    - ขโมยทรัพย์สินทางปัญญาโดยค่อย ๆ ส่งข้อมูลออกไปทีละน้อย
    - รับเงินเดือนจากบริษัทตะวันตกเพื่อสนับสนุนรัฐบาลเกาหลีเหนือ

    แนวทางป้องกันที่แนะนำ
    - ใช้ คำถามนอกบท เช่น "คิมจองอึน อ้วนแค่ไหน?" เพื่อทดสอบปฏิกิริยาของผู้สมัคร
    - จัดสัมภาษณ์งาน ภายในองค์กร เพื่อตรวจสอบพฤติกรรมที่ผิดปกติ

    https://www.techradar.com/pro/security/asking-remote-job-candidates-this-shocking-question-could-save-your-company-big-bucks-security-expert-says
    นักวิจัยด้านความปลอดภัยเตือนว่า กลุ่มแฮกเกอร์จากเกาหลีเหนือ กำลังใช้ AI และเทคนิคปลอมตัวขั้นสูง เพื่อสมัครงานระยะไกลในบริษัทเทคโนโลยีระดับโลก โดยมีเป้าหมายเพื่อ ขโมยทรัพย์สินทางปัญญาและรับเงินเดือนจากบริษัทตะวันตก ที่งาน RSA Conference ในซานฟรานซิสโก ผู้เชี่ยวชาญด้านความปลอดภัยเปิดเผยว่า แฮกเกอร์เหล่านี้ใช้ AI สร้างโปรไฟล์ LinkedIn ที่ดูน่าเชื่อถือ และใช้ ทีมงานเบื้องหลังช่วยตอบคำถามในการสัมภาษณ์งาน นอกจากนี้ ยังมีการใช้ deepfake และฟาร์มแล็ปท็อป เพื่อปลอมแปลงตำแหน่งที่ตั้งและตัวตนของผู้สมัคร ✅ แฮกเกอร์ใช้ AI และ deepfake เพื่อสมัครงานระยะไกล - สร้างโปรไฟล์ LinkedIn ที่ดูน่าเชื่อถือ - ใช้ทีมงานเบื้องหลังช่วยตอบคำถามในการสัมภาษณ์ ✅ เทคนิคการปลอมตัวที่ซับซ้อน - ใช้ ฟาร์มแล็ปท็อป ในสหรัฐฯ เพื่อปลอมแปลงตำแหน่งที่ตั้ง - ใช้ deepfake เพื่อหลอกทีมสรรหาบุคลากร ✅ เป้าหมายของแฮกเกอร์ - ขโมยทรัพย์สินทางปัญญาโดยค่อย ๆ ส่งข้อมูลออกไปทีละน้อย - รับเงินเดือนจากบริษัทตะวันตกเพื่อสนับสนุนรัฐบาลเกาหลีเหนือ ✅ แนวทางป้องกันที่แนะนำ - ใช้ คำถามนอกบท เช่น "คิมจองอึน อ้วนแค่ไหน?" เพื่อทดสอบปฏิกิริยาของผู้สมัคร - จัดสัมภาษณ์งาน ภายในองค์กร เพื่อตรวจสอบพฤติกรรมที่ผิดปกติ https://www.techradar.com/pro/security/asking-remote-job-candidates-this-shocking-question-could-save-your-company-big-bucks-security-expert-says
    0 ความคิดเห็น 0 การแบ่งปัน 329 มุมมอง 0 รีวิว
  • ศาลสูงรัฐกรณาฏกะของอินเดียได้มีคำสั่งให้รัฐบาลอินเดีย บล็อก Proton Mail ซึ่งเป็นบริการอีเมลเข้ารหัสจากสวิตเซอร์แลนด์ หลังจากบริษัทในกรุงนิวเดลีร้องเรียนว่ามีผู้ใช้ที่ไม่เปิดเผยตัวตนส่ง อีเมลที่มีเนื้อหาหมิ่นประมาทและภาพ deepfake ไปยังพนักงานหญิงของบริษัท

    คำสั่งบล็อกนี้ออกภายใต้ มาตรา 69 ของพระราชบัญญัติเทคโนโลยีสารสนเทศปี 2008 ซึ่งอนุญาตให้รัฐบาลอินเดีย บล็อกเว็บไซต์ที่มีเนื้อหาผิดกฎหมาย อย่างไรก็ตาม Proton Mail ระบุว่า รัฐบาลสวิตเซอร์แลนด์กำลังเจรจากับทางการอินเดีย เพื่อป้องกันการบล็อกบริการนี้

    นี่ไม่ใช่ครั้งแรกที่ Proton Mail ถูกขู่ว่าจะถูกบล็อกในอินเดีย ก่อนหน้านี้ในเดือนกุมภาพันธ์ 2024 มีข้อเสนอให้บล็อกบริการนี้หลังจากพบว่า มีการใช้ Proton Mail ในการส่งคำขู่ระเบิดปลอม

    เหตุผลในการบล็อก Proton Mail
    - บริษัทในกรุงนิวเดลีร้องเรียนว่ามีผู้ใช้ที่ไม่เปิดเผยตัวตนส่ง อีเมลที่มีเนื้อหาหมิ่นประมาทและภาพ deepfake ไปยังพนักงานหญิง
    - คำสั่งบล็อกออกภายใต้ มาตรา 69 ของพระราชบัญญัติเทคโนโลยีสารสนเทศปี 2008

    การตอบสนองของ Proton Mail
    - Proton Mail ระบุว่า รัฐบาลสวิตเซอร์แลนด์กำลังเจรจากับทางการอินเดีย เพื่อป้องกันการบล็อก
    - บริการยังสามารถเข้าถึงได้ในอินเดีย ณ วันที่ 30 เมษายน 2025

    เหตุการณ์ที่เคยเกิดขึ้นก่อนหน้านี้
    - ในเดือนกุมภาพันธ์ 2024 มีข้อเสนอให้บล็อก Proton Mail หลังจากพบว่า มีการใช้บริการนี้ในการส่งคำขู่ระเบิดปลอม

    Proton Mail และบริการอื่นๆ
    - Proton Mail เป็นบริการอีเมลเข้ารหัสที่ได้รับความนิยม
    - บริษัทยังให้บริการ Proton VPN, Proton Drive และ Proton Calendar

    https://www.techradar.com/vpn/vpn-privacy-security/proton-mail-hit-with-blocking-order-in-india-heres-everything-we-know-so-far
    ศาลสูงรัฐกรณาฏกะของอินเดียได้มีคำสั่งให้รัฐบาลอินเดีย บล็อก Proton Mail ซึ่งเป็นบริการอีเมลเข้ารหัสจากสวิตเซอร์แลนด์ หลังจากบริษัทในกรุงนิวเดลีร้องเรียนว่ามีผู้ใช้ที่ไม่เปิดเผยตัวตนส่ง อีเมลที่มีเนื้อหาหมิ่นประมาทและภาพ deepfake ไปยังพนักงานหญิงของบริษัท คำสั่งบล็อกนี้ออกภายใต้ มาตรา 69 ของพระราชบัญญัติเทคโนโลยีสารสนเทศปี 2008 ซึ่งอนุญาตให้รัฐบาลอินเดีย บล็อกเว็บไซต์ที่มีเนื้อหาผิดกฎหมาย อย่างไรก็ตาม Proton Mail ระบุว่า รัฐบาลสวิตเซอร์แลนด์กำลังเจรจากับทางการอินเดีย เพื่อป้องกันการบล็อกบริการนี้ นี่ไม่ใช่ครั้งแรกที่ Proton Mail ถูกขู่ว่าจะถูกบล็อกในอินเดีย ก่อนหน้านี้ในเดือนกุมภาพันธ์ 2024 มีข้อเสนอให้บล็อกบริการนี้หลังจากพบว่า มีการใช้ Proton Mail ในการส่งคำขู่ระเบิดปลอม ✅ เหตุผลในการบล็อก Proton Mail - บริษัทในกรุงนิวเดลีร้องเรียนว่ามีผู้ใช้ที่ไม่เปิดเผยตัวตนส่ง อีเมลที่มีเนื้อหาหมิ่นประมาทและภาพ deepfake ไปยังพนักงานหญิง - คำสั่งบล็อกออกภายใต้ มาตรา 69 ของพระราชบัญญัติเทคโนโลยีสารสนเทศปี 2008 ✅ การตอบสนองของ Proton Mail - Proton Mail ระบุว่า รัฐบาลสวิตเซอร์แลนด์กำลังเจรจากับทางการอินเดีย เพื่อป้องกันการบล็อก - บริการยังสามารถเข้าถึงได้ในอินเดีย ณ วันที่ 30 เมษายน 2025 ✅ เหตุการณ์ที่เคยเกิดขึ้นก่อนหน้านี้ - ในเดือนกุมภาพันธ์ 2024 มีข้อเสนอให้บล็อก Proton Mail หลังจากพบว่า มีการใช้บริการนี้ในการส่งคำขู่ระเบิดปลอม ✅ Proton Mail และบริการอื่นๆ - Proton Mail เป็นบริการอีเมลเข้ารหัสที่ได้รับความนิยม - บริษัทยังให้บริการ Proton VPN, Proton Drive และ Proton Calendar https://www.techradar.com/vpn/vpn-privacy-security/proton-mail-hit-with-blocking-order-in-india-heres-everything-we-know-so-far
    WWW.TECHRADAR.COM
    Proton Mail hit with blocking order in India - here's everything we know so far
    Proton Mail could soon stop working in India after a court ruling
    0 ความคิดเห็น 0 การแบ่งปัน 360 มุมมอง 0 รีวิว
  • บทความนี้กล่าวถึงคำเตือนจาก FBI เกี่ยวกับการใช้ปัญญาประดิษฐ์ (AI) ในการโจมตีทางไซเบอร์ที่มีเป้าหมายเป็นโครงสร้างพื้นฐานสำคัญของสหรัฐฯ โดยเฉพาะจากกลุ่มที่ได้รับการสนับสนุนจากรัฐบาลจีน FBI ระบุว่ากลุ่มเหล่านี้ใช้ AI ในทุกขั้นตอนของการโจมตี ตั้งแต่การค้นหาช่องโหว่ไปจนถึงการเคลื่อนย้ายภายในระบบ

    ตัวอย่างที่น่าสนใจคือกลุ่ม Volt Typhoon ที่ใช้เราเตอร์รุ่นเก่าเพื่อสร้างเครือข่ายบอตเน็ตสำหรับการโจมตี และกลุ่ม Salt Typhoon ที่เจาะระบบของบริษัทโทรคมนาคมและรัฐบาลสหรัฐฯ โดยใช้ช่องโหว่ที่ไม่ได้รับการแก้ไข

    นอกจากนี้ FBI ยังเตือนถึงการใช้เทคโนโลยี deepfake ในการหลอกลวง เช่น การปลอมตัวเป็นผู้บริหารเพื่อขอการโอนเงินหรือจัดประชุมออนไลน์

    การใช้ AI ในการโจมตี
    - กลุ่มที่ได้รับการสนับสนุนจากรัฐบาลจีนใช้ AI ในทุกขั้นตอนของการโจมตี
    - ตัวอย่างเช่น Volt Typhoon และ Salt Typhoon ที่ใช้ช่องโหว่ในอุปกรณ์เก่า

    เป้าหมายของการโจมตี
    - โครงสร้างพื้นฐานสำคัญ เช่น โทรคมนาคม พลังงาน และน้ำ
    - การเคลื่อนย้ายภายในระบบเพื่อเข้าถึงข้อมูลสำคัญ

    การใช้ deepfake ในการหลอกลวง
    - การปลอมตัวเป็นผู้บริหารเพื่อขอการโอนเงินหรือจัดประชุมออนไลน์
    - การใช้ deepfake เพื่อสร้างความน่าเชื่อถือในข้อความหลอกลวง

    คำแนะนำจาก FBI
    - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA)
    - ป้องกันการเข้าถึงที่ไม่ได้รับอนุญาตและจำกัดการเคลื่อนย้ายในระบบ

    https://www.techspot.com/news/107730-fbi-warns-china-using-ai-sharpen-cyberattacks-us.html
    บทความนี้กล่าวถึงคำเตือนจาก FBI เกี่ยวกับการใช้ปัญญาประดิษฐ์ (AI) ในการโจมตีทางไซเบอร์ที่มีเป้าหมายเป็นโครงสร้างพื้นฐานสำคัญของสหรัฐฯ โดยเฉพาะจากกลุ่มที่ได้รับการสนับสนุนจากรัฐบาลจีน FBI ระบุว่ากลุ่มเหล่านี้ใช้ AI ในทุกขั้นตอนของการโจมตี ตั้งแต่การค้นหาช่องโหว่ไปจนถึงการเคลื่อนย้ายภายในระบบ ตัวอย่างที่น่าสนใจคือกลุ่ม Volt Typhoon ที่ใช้เราเตอร์รุ่นเก่าเพื่อสร้างเครือข่ายบอตเน็ตสำหรับการโจมตี และกลุ่ม Salt Typhoon ที่เจาะระบบของบริษัทโทรคมนาคมและรัฐบาลสหรัฐฯ โดยใช้ช่องโหว่ที่ไม่ได้รับการแก้ไข นอกจากนี้ FBI ยังเตือนถึงการใช้เทคโนโลยี deepfake ในการหลอกลวง เช่น การปลอมตัวเป็นผู้บริหารเพื่อขอการโอนเงินหรือจัดประชุมออนไลน์ ✅ การใช้ AI ในการโจมตี - กลุ่มที่ได้รับการสนับสนุนจากรัฐบาลจีนใช้ AI ในทุกขั้นตอนของการโจมตี - ตัวอย่างเช่น Volt Typhoon และ Salt Typhoon ที่ใช้ช่องโหว่ในอุปกรณ์เก่า ✅ เป้าหมายของการโจมตี - โครงสร้างพื้นฐานสำคัญ เช่น โทรคมนาคม พลังงาน และน้ำ - การเคลื่อนย้ายภายในระบบเพื่อเข้าถึงข้อมูลสำคัญ ✅ การใช้ deepfake ในการหลอกลวง - การปลอมตัวเป็นผู้บริหารเพื่อขอการโอนเงินหรือจัดประชุมออนไลน์ - การใช้ deepfake เพื่อสร้างความน่าเชื่อถือในข้อความหลอกลวง ✅ คำแนะนำจาก FBI - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) - ป้องกันการเข้าถึงที่ไม่ได้รับอนุญาตและจำกัดการเคลื่อนย้ายในระบบ https://www.techspot.com/news/107730-fbi-warns-china-using-ai-sharpen-cyberattacks-us.html
    WWW.TECHSPOT.COM
    FBI warns China is using AI to sharpen cyberattacks on US infrastructure
    In an interview with The Register, FBI Deputy Assistant Director Cynthia Kaiser explained how Chinese state-backed cyber groups use artificial intelligence at every stage of their attack...
    0 ความคิดเห็น 0 การแบ่งปัน 340 มุมมอง 0 รีวิว
  • บทความนี้กล่าวถึง Take It Down Act ซึ่งเป็นกฎหมายใหม่ที่ผ่านการอนุมัติจากรัฐสภาสหรัฐฯ และกำลังรอการลงนามโดยอดีตประธานาธิบดีทรัมป์ กฎหมายนี้มีเป้าหมายเพื่อจัดการกับปัญหาภาพลักษณ์ที่ไม่เหมาะสมที่ถูกเผยแพร่โดยไม่ได้รับความยินยอม รวมถึงภาพที่ถูกสร้างหรือแก้ไขโดย AI

    กฎหมายนี้ถือเป็นก้าวสำคัญในการปกป้องสิทธิความเป็นส่วนตัว โดยเฉพาะในยุคที่เทคโนโลยี deepfake และการล้างแค้นผ่านภาพลักษณ์ (revenge porn) กลายเป็นภัยคุกคามที่เพิ่มขึ้น

    การทำให้การเผยแพร่ภาพลักษณ์ที่ไม่เหมาะสมเป็นอาชญากรรม
    - กฎหมายกำหนดให้การเผยแพร่หรือข่มขู่เผยแพร่ภาพลักษณ์ที่ไม่เหมาะสมโดยไม่ได้รับความยินยอมเป็นอาชญากรรม
    - รวมถึงภาพที่ถูกแก้ไขโดย AI ให้ดูเหมือนเป็นภาพลักษณ์ที่ไม่เหมาะสม

    ข้อกำหนดการลบภาพภายใน 48 ชั่วโมง
    - แพลตฟอร์มออนไลน์ต้องลบภาพที่ได้รับการร้องเรียนภายใน 48 ชั่วโมง
    - ต้องดำเนินการเพื่อป้องกันไม่ให้ภาพเดียวกันปรากฏอีก

    บทบาทของ FTC ในการบังคับใช้กฎหมาย
    - FTC มีหน้าที่ตรวจสอบและลงโทษแพลตฟอร์มที่ไม่ปฏิบัติตามข้อกำหนด
    - ใช้อำนาจภายใต้กฎหมายการค้าหลอกลวงเพื่อดำเนินการ

    การสนับสนุนจากหลายฝ่าย
    - กฎหมายได้รับการสนับสนุนจากทั้งพรรคเดโมแครตและรีพับลิกัน
    - มีการสนับสนุนจากบริษัทเทคโนโลยี เช่น Meta, Snap และ Google

    https://computercity.com/wiki/take-it-down-act
    บทความนี้กล่าวถึง Take It Down Act ซึ่งเป็นกฎหมายใหม่ที่ผ่านการอนุมัติจากรัฐสภาสหรัฐฯ และกำลังรอการลงนามโดยอดีตประธานาธิบดีทรัมป์ กฎหมายนี้มีเป้าหมายเพื่อจัดการกับปัญหาภาพลักษณ์ที่ไม่เหมาะสมที่ถูกเผยแพร่โดยไม่ได้รับความยินยอม รวมถึงภาพที่ถูกสร้างหรือแก้ไขโดย AI กฎหมายนี้ถือเป็นก้าวสำคัญในการปกป้องสิทธิความเป็นส่วนตัว โดยเฉพาะในยุคที่เทคโนโลยี deepfake และการล้างแค้นผ่านภาพลักษณ์ (revenge porn) กลายเป็นภัยคุกคามที่เพิ่มขึ้น ✅ การทำให้การเผยแพร่ภาพลักษณ์ที่ไม่เหมาะสมเป็นอาชญากรรม - กฎหมายกำหนดให้การเผยแพร่หรือข่มขู่เผยแพร่ภาพลักษณ์ที่ไม่เหมาะสมโดยไม่ได้รับความยินยอมเป็นอาชญากรรม - รวมถึงภาพที่ถูกแก้ไขโดย AI ให้ดูเหมือนเป็นภาพลักษณ์ที่ไม่เหมาะสม ✅ ข้อกำหนดการลบภาพภายใน 48 ชั่วโมง - แพลตฟอร์มออนไลน์ต้องลบภาพที่ได้รับการร้องเรียนภายใน 48 ชั่วโมง - ต้องดำเนินการเพื่อป้องกันไม่ให้ภาพเดียวกันปรากฏอีก ✅ บทบาทของ FTC ในการบังคับใช้กฎหมาย - FTC มีหน้าที่ตรวจสอบและลงโทษแพลตฟอร์มที่ไม่ปฏิบัติตามข้อกำหนด - ใช้อำนาจภายใต้กฎหมายการค้าหลอกลวงเพื่อดำเนินการ ✅ การสนับสนุนจากหลายฝ่าย - กฎหมายได้รับการสนับสนุนจากทั้งพรรคเดโมแครตและรีพับลิกัน - มีการสนับสนุนจากบริษัทเทคโนโลยี เช่น Meta, Snap และ Google https://computercity.com/wiki/take-it-down-act
    COMPUTERCITY.COM
    Take It Down Act: What You Need To Know
    The Take It Down Act (S.4569), recently passed by Congress and awaiting President Trump's signature, is a groundbreaking piece of legislation designed to
    0 ความคิดเห็น 0 การแบ่งปัน 235 มุมมอง 0 รีวิว
  • กฎหมายที่ถูกท้าทายนี้มีเป้าหมายป้องกันการเผยแพร่ข้อมูลเท็จที่ถูกสร้างขึ้นโดย AI เช่น รูปภาพ เสียง หรือวิดีโอที่ดูเหมือนจริง เพื่อใช้ในการโน้มน้าวประชาชนในการเลือกตั้ง หรือทำให้เกิดความเข้าใจผิดในทางการเมือง อย่างไรก็ตาม บริษัท X แย้งว่าการบังคับใช้กฎหมายดังกล่าวอาจก่อให้เกิดการเซ็นเซอร์ความคิดเห็นทางการเมือง

    นอกจากนี้ยังมีข้อมูลว่า ณ ปัจจุบัน มีอย่างน้อย 22 รัฐในสหรัฐฯ ที่มีการออกกฎหมายควบคุมการใช้ดีพเฟคในเลือกตั้ง

    บริษัท X ยื่นฟ้องรัฐมินนิโซตาเนื่องจากกฎหมายห้ามใช้ AI เพื่อสร้างดีพเฟคในการเลือกตั้ง

    บริษัท X อ้างว่ากฎหมายดังกล่าวละเมิดสิทธิในการแสดงความคิดเห็นอย่างเสรี

    X ขอให้ศาลประกาศว่ากฎหมายนี้ละเมิดรัฐธรรมนูญและขัดกับ Section 230 กฎหมายที่ปกป้องบริษัทสื่อสังคมจากการถูกฟ้องเรื่องเนื้อหาของผู้ใช้

    https://www.thestar.com.my/tech/tech-news/2025/04/24/musk039s-x-sues-to-block-minnesota-039deepfake039-law-over-free-speech-concerns
    กฎหมายที่ถูกท้าทายนี้มีเป้าหมายป้องกันการเผยแพร่ข้อมูลเท็จที่ถูกสร้างขึ้นโดย AI เช่น รูปภาพ เสียง หรือวิดีโอที่ดูเหมือนจริง เพื่อใช้ในการโน้มน้าวประชาชนในการเลือกตั้ง หรือทำให้เกิดความเข้าใจผิดในทางการเมือง อย่างไรก็ตาม บริษัท X แย้งว่าการบังคับใช้กฎหมายดังกล่าวอาจก่อให้เกิดการเซ็นเซอร์ความคิดเห็นทางการเมือง นอกจากนี้ยังมีข้อมูลว่า ณ ปัจจุบัน มีอย่างน้อย 22 รัฐในสหรัฐฯ ที่มีการออกกฎหมายควบคุมการใช้ดีพเฟคในเลือกตั้ง ✅ บริษัท X ยื่นฟ้องรัฐมินนิโซตาเนื่องจากกฎหมายห้ามใช้ AI เพื่อสร้างดีพเฟคในการเลือกตั้ง ✅ บริษัท X อ้างว่ากฎหมายดังกล่าวละเมิดสิทธิในการแสดงความคิดเห็นอย่างเสรี ✅ X ขอให้ศาลประกาศว่ากฎหมายนี้ละเมิดรัฐธรรมนูญและขัดกับ Section 230 กฎหมายที่ปกป้องบริษัทสื่อสังคมจากการถูกฟ้องเรื่องเนื้อหาของผู้ใช้ https://www.thestar.com.my/tech/tech-news/2025/04/24/musk039s-x-sues-to-block-minnesota-039deepfake039-law-over-free-speech-concerns
    WWW.THESTAR.COM.MY
    Musk's X sues to block Minnesota 'deepfake' law over free speech concerns
    WILMINGTON, Delaware (Reuters) -Elon Musk's social media platform X sued Minnesota on Wednesday over a state law that bans people from using AI-generated "deepfakes" to influence an election, which the company said violated protections of free speech.
    0 ความคิดเห็น 0 การแบ่งปัน 203 มุมมอง 0 รีวิว
  • รายงานล่าสุดจาก Bitdefender เปิดเผยถึงการโจมตีทางไซเบอร์ที่มุ่งเป้าไปยังบัญชีโซเชียลมีเดียยอดนิยม เช่น YouTube และ Instagram โดยแฮกเกอร์ใช้วิธีการหลากหลาย เช่น การปลอมตัวเป็นแบรนด์ดัง การใช้ deepfake ของบุคคลที่มีชื่อเสียง และการส่งลิงก์ฟิชชิ่งเพื่อหลอกลวงผู้ใช้งาน การโจมตีเหล่านี้มีเป้าหมายเพื่อขโมยข้อมูลส่วนตัวและทรัพย์สินดิจิทัล เช่น สกุลเงินคริปโต

    บัญชีโซเชียลมีเดียยอดนิยมเป็นเป้าหมายหลัก
    - แฮกเกอร์มุ่งเป้าบัญชีที่มีผู้ติดตามจำนวนมากและยอดวิวสูง
    - มีการตรวจพบ livestreams ปลอมกว่า 9,000 รายการ ในปี 2024

    การใช้ deepfake และการปลอมตัวเป็นแบรนด์ดัง
    - แฮกเกอร์ใช้ deepfake ของบุคคลที่มีชื่อเสียง เช่น Elon Musk เพื่อโปรโมตการหลอกลวง
    - การปลอมตัวเป็นแบรนด์ดัง เช่น Tesla และ SpaceX เพื่อเพิ่มความน่าเชื่อถือ

    การโจมตีผ่านฟิชชิ่งและมัลแวร์
    - การส่งลิงก์ฟิชชิ่งและไฟล์มัลแวร์ที่ปลอมเป็นเนื้อหาโฆษณา
    - การใช้โฆษณาปลอม เช่น AI tools หรือเกม GTA VI เพื่อหลอกลวงผู้ใช้งาน

    การป้องกันและคำแนะนำจาก Bitdefender
    - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) และตรวจสอบกิจกรรมบัญชีอย่างสม่ำเสมอ
    - ใช้เครื่องมือป้องกัน เช่น Bitdefender Security for Creators เพื่อเพิ่มความปลอดภัย

    https://www.techradar.com/pro/millions-at-risk-as-cybercriminals-successfully-compromise-popular-youtube-accounts-heres-how-to-stay-safe
    รายงานล่าสุดจาก Bitdefender เปิดเผยถึงการโจมตีทางไซเบอร์ที่มุ่งเป้าไปยังบัญชีโซเชียลมีเดียยอดนิยม เช่น YouTube และ Instagram โดยแฮกเกอร์ใช้วิธีการหลากหลาย เช่น การปลอมตัวเป็นแบรนด์ดัง การใช้ deepfake ของบุคคลที่มีชื่อเสียง และการส่งลิงก์ฟิชชิ่งเพื่อหลอกลวงผู้ใช้งาน การโจมตีเหล่านี้มีเป้าหมายเพื่อขโมยข้อมูลส่วนตัวและทรัพย์สินดิจิทัล เช่น สกุลเงินคริปโต ✅ บัญชีโซเชียลมีเดียยอดนิยมเป็นเป้าหมายหลัก - แฮกเกอร์มุ่งเป้าบัญชีที่มีผู้ติดตามจำนวนมากและยอดวิวสูง - มีการตรวจพบ livestreams ปลอมกว่า 9,000 รายการ ในปี 2024 ✅ การใช้ deepfake และการปลอมตัวเป็นแบรนด์ดัง - แฮกเกอร์ใช้ deepfake ของบุคคลที่มีชื่อเสียง เช่น Elon Musk เพื่อโปรโมตการหลอกลวง - การปลอมตัวเป็นแบรนด์ดัง เช่น Tesla และ SpaceX เพื่อเพิ่มความน่าเชื่อถือ ✅ การโจมตีผ่านฟิชชิ่งและมัลแวร์ - การส่งลิงก์ฟิชชิ่งและไฟล์มัลแวร์ที่ปลอมเป็นเนื้อหาโฆษณา - การใช้โฆษณาปลอม เช่น AI tools หรือเกม GTA VI เพื่อหลอกลวงผู้ใช้งาน ✅ การป้องกันและคำแนะนำจาก Bitdefender - ใช้การยืนยันตัวตนแบบหลายขั้นตอน (MFA) และตรวจสอบกิจกรรมบัญชีอย่างสม่ำเสมอ - ใช้เครื่องมือป้องกัน เช่น Bitdefender Security for Creators เพื่อเพิ่มความปลอดภัย https://www.techradar.com/pro/millions-at-risk-as-cybercriminals-successfully-compromise-popular-youtube-accounts-heres-how-to-stay-safe
    0 ความคิดเห็น 0 การแบ่งปัน 305 มุมมอง 0 รีวิว
  • Microsoft ได้เตือนถึงความเสี่ยงที่เพิ่มขึ้นจากการใช้ AI Generative ในการสร้างการหลอกลวงออนไลน์ โดยเทคโนโลยีนี้ช่วยให้ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอม รีวิวสินค้า และแชทบอทที่หลอกลวงได้อย่างรวดเร็วและง่ายดาย นอกจากนี้ยังมีการใช้ Deepfake ในการสร้างการหลอกลวงที่ซับซ้อน เช่น การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอ

    AI ช่วยลดความซับซ้อนในการสร้างการหลอกลวงออนไลน์
    - ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอมและแบรนด์อีคอมเมิร์ซปลอมได้ในเวลาเพียงไม่กี่นาที
    - ใช้ AI ในการสร้างรีวิวสินค้าและประวัติธุรกิจที่ดูน่าเชื่อถือ

    Deepfake ถูกใช้ในการหลอกลวงที่ซับซ้อน
    - การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอและการสร้างการรับรองจากคนดังปลอม
    - Microsoft แนะนำให้สังเกตความผิดปกติ เช่น การเคลื่อนไหวของริมฝีปากที่ไม่ตรงกับเสียง

    Microsoft เพิ่มการป้องกันในเครื่องมือ Quick Assist
    - เพิ่มคำเตือนเกี่ยวกับความเสี่ยงในการแชร์หน้าจอ
    - แนะนำให้ใช้ Remote Help แทน Quick Assist สำหรับการสนับสนุนภายใน

    Microsoft ป้องกันการหลอกลวงมูลค่ากว่า 4 พันล้านดอลลาร์ในปีที่ผ่านมา
    - ปฏิเสธการสมัครสมาชิกปลอมกว่า 49,000 รายการ
    - บล็อกการสมัครสมาชิกบอทประมาณ 1.6 ล้านครั้งต่อชั่วโมง

    https://www.techspot.com/news/107641-microsoft-warns-ai-making-faster-easier-create-online.html
    Microsoft ได้เตือนถึงความเสี่ยงที่เพิ่มขึ้นจากการใช้ AI Generative ในการสร้างการหลอกลวงออนไลน์ โดยเทคโนโลยีนี้ช่วยให้ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอม รีวิวสินค้า และแชทบอทที่หลอกลวงได้อย่างรวดเร็วและง่ายดาย นอกจากนี้ยังมีการใช้ Deepfake ในการสร้างการหลอกลวงที่ซับซ้อน เช่น การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอ ✅ AI ช่วยลดความซับซ้อนในการสร้างการหลอกลวงออนไลน์ - ผู้ไม่หวังดีสามารถสร้างเว็บไซต์ปลอมและแบรนด์อีคอมเมิร์ซปลอมได้ในเวลาเพียงไม่กี่นาที - ใช้ AI ในการสร้างรีวิวสินค้าและประวัติธุรกิจที่ดูน่าเชื่อถือ ✅ Deepfake ถูกใช้ในการหลอกลวงที่ซับซ้อน - การปลอมแปลงการสัมภาษณ์งานผ่านวิดีโอและการสร้างการรับรองจากคนดังปลอม - Microsoft แนะนำให้สังเกตความผิดปกติ เช่น การเคลื่อนไหวของริมฝีปากที่ไม่ตรงกับเสียง ✅ Microsoft เพิ่มการป้องกันในเครื่องมือ Quick Assist - เพิ่มคำเตือนเกี่ยวกับความเสี่ยงในการแชร์หน้าจอ - แนะนำให้ใช้ Remote Help แทน Quick Assist สำหรับการสนับสนุนภายใน ✅ Microsoft ป้องกันการหลอกลวงมูลค่ากว่า 4 พันล้านดอลลาร์ในปีที่ผ่านมา - ปฏิเสธการสมัครสมาชิกปลอมกว่า 49,000 รายการ - บล็อกการสมัครสมาชิกบอทประมาณ 1.6 ล้านครั้งต่อชั่วโมง https://www.techspot.com/news/107641-microsoft-warns-ai-making-faster-easier-create-online.html
    WWW.TECHSPOT.COM
    AI is enabling cybercriminals to act quickly - and with little technical knowledge, Microsoft warns
    In its latest edition of the Cyber Signals report, Microsoft writes that AI has started to lower the technical bar for fraud and cybercrime actors looking for...
    0 ความคิดเห็น 0 การแบ่งปัน 217 มุมมอง 0 รีวิว
  • Microsoft ได้เผยแพร่ Cyber Signals Report ฉบับล่าสุด ซึ่งเน้นถึงภัยคุกคามทางไซเบอร์ที่ใช้ AI ในการสร้างเนื้อหาหลอกลวง โดยอาชญากรไซเบอร์สามารถใช้ deepfakes, voice cloning และเว็บไซต์ปลอม

    AI ช่วยให้อาชญากรไซเบอร์สามารถสร้างเนื้อหาหลอกลวงได้ง่ายขึ้น
    - ใช้ deepfakes และ voice cloning เพื่อแอบอ้างเป็นบุคคลจริง
    - สร้าง เว็บไซต์ปลอมและรีวิวสินค้า AI-generated เพื่อหลอกลวงผู้บริโภค

    Microsoft เตือนเกี่ยวกับการฉ้อโกงที่ใช้ AI
    - อาชญากรสามารถใช้ AI เพื่อสแกนข้อมูลบริษัทและสร้างโปรไฟล์ปลอมของพนักงาน
    - ใช้ AI-generated storefronts เพื่อสร้างแบรนด์ปลอมที่ดูน่าเชื่อถือ

    มาตรการป้องกันที่ Microsoft แนะนำ
    - เพิ่มการตรวจสอบตัวตนของนายจ้าง โดยใช้ Microsoft Entra ID และ multifactor authentication
    - ใช้ deepfake detection algorithms เพื่อตรวจจับการสัมภาษณ์งานที่ใช้ AI-generated faces
    - ตรวจสอบเว็บไซต์และโฆษณาที่ดูดีเกินจริง โดยใช้ Microsoft Edge typo protection

    การปรับปรุง Quick Assist เพื่อป้องกันการฉ้อโกง
    - Microsoft ได้เพิ่ม ข้อความเตือนเกี่ยวกับ tech support scams ใน Quick Assist
    - ระบบสามารถ บล็อกการเชื่อมต่อที่น่าสงสัยกว่า 4,415 ครั้งต่อวัน

    https://www.neowin.net/news/microsoft-shares-detailed-guidance-for-ai-scams-that-are-nearly-impossible-to-not-fall-for/
    Microsoft ได้เผยแพร่ Cyber Signals Report ฉบับล่าสุด ซึ่งเน้นถึงภัยคุกคามทางไซเบอร์ที่ใช้ AI ในการสร้างเนื้อหาหลอกลวง โดยอาชญากรไซเบอร์สามารถใช้ deepfakes, voice cloning และเว็บไซต์ปลอม ✅ AI ช่วยให้อาชญากรไซเบอร์สามารถสร้างเนื้อหาหลอกลวงได้ง่ายขึ้น - ใช้ deepfakes และ voice cloning เพื่อแอบอ้างเป็นบุคคลจริง - สร้าง เว็บไซต์ปลอมและรีวิวสินค้า AI-generated เพื่อหลอกลวงผู้บริโภค ✅ Microsoft เตือนเกี่ยวกับการฉ้อโกงที่ใช้ AI - อาชญากรสามารถใช้ AI เพื่อสแกนข้อมูลบริษัทและสร้างโปรไฟล์ปลอมของพนักงาน - ใช้ AI-generated storefronts เพื่อสร้างแบรนด์ปลอมที่ดูน่าเชื่อถือ ✅ มาตรการป้องกันที่ Microsoft แนะนำ - เพิ่มการตรวจสอบตัวตนของนายจ้าง โดยใช้ Microsoft Entra ID และ multifactor authentication - ใช้ deepfake detection algorithms เพื่อตรวจจับการสัมภาษณ์งานที่ใช้ AI-generated faces - ตรวจสอบเว็บไซต์และโฆษณาที่ดูดีเกินจริง โดยใช้ Microsoft Edge typo protection ✅ การปรับปรุง Quick Assist เพื่อป้องกันการฉ้อโกง - Microsoft ได้เพิ่ม ข้อความเตือนเกี่ยวกับ tech support scams ใน Quick Assist - ระบบสามารถ บล็อกการเชื่อมต่อที่น่าสงสัยกว่า 4,415 ครั้งต่อวัน https://www.neowin.net/news/microsoft-shares-detailed-guidance-for-ai-scams-that-are-nearly-impossible-to-not-fall-for/
    WWW.NEOWIN.NET
    Microsoft shares detailed guidance for AI scams that are nearly impossible to not fall for
    Microsoft has published a detailed guidance on ways to deal with modern AI-powered scams that are really difficult to detect.
    0 ความคิดเห็น 0 การแบ่งปัน 504 มุมมอง 0 รีวิว
Pages Boosts