• YouTube ลบวิดีโอกว่า 3,000 รายการที่ปลอมเป็นสูตรโกงเกม – พบใช้แพร่กระจายมัลแวร์ Lumma และ RedLine

    YouTube ได้ลบวิดีโอกว่า 3,000 รายการที่ถูกใช้เป็นเครื่องมือในการแพร่กระจายมัลแวร์ โดยวิดีโอเหล่านี้ปลอมตัวเป็น “สูตรโกงเกม” หรือ “โปรแกรมเถื่อน” เช่น Adobe Photoshop และ FL Studio เพื่อหลอกให้ผู้ชมดาวน์โหลดไฟล์อันตราย

    แคมเปญนี้ถูกเรียกว่า “YouTube Ghost Network” โดยนักวิจัยจาก Check Point Research พบว่าเป็นการโจมตีแบบประสานงานที่ซับซ้อน ซึ่งเริ่มต้นตั้งแต่ปี 2021 และเพิ่มจำนวนวิดีโออย่างรวดเร็วในปี 2025 โดยใช้เทคนิคสร้าง engagement ปลอม เช่น ไลก์ คอมเมนต์ และการสมัครสมาชิก เพื่อให้วิดีโอดูน่าเชื่อถือ

    มัลแวร์ที่พบในแคมเปญนี้ ได้แก่ Lumma Stealer, Rhadamanthys และ RedLine ซึ่งสามารถขโมยข้อมูลส่วนตัว เช่น รหัสผ่าน คุกกี้ และข้อมูลการเข้าสู่ระบบต่าง ๆ

    รายละเอียดแคมเปญ YouTube Ghost Network
    วิดีโอปลอมเป็นสูตรโกงเกมและโปรแกรมเถื่อน
    หลอกให้ผู้ใช้ดาวน์โหลดไฟล์มัลแวร์
    ใช้ engagement ปลอมเพื่อสร้างความน่าเชื่อถือ
    เริ่มต้นตั้งแต่ปี 2021 และเพิ่มขึ้นในปี 2025

    มัลแวร์ที่เกี่ยวข้อง
    Lumma Stealer – ขโมยรหัสผ่านและข้อมูลเข้าสู่ระบบ
    Rhadamanthys – มัลแวร์ระดับสูงสำหรับการสอดแนม
    RedLine – ขโมยข้อมูลจากเบราว์เซอร์และแอปต่าง ๆ

    เทคนิคการหลอกลวง
    ใช้ชื่อวิดีโอและคำอธิบายที่ดูน่าเชื่อถือ
    สร้างคอมเมนต์และไลก์ปลอมเพื่อหลอกผู้ใช้
    ใช้หลายบัญชีในการสร้างและโปรโมตวิดีโอ

    https://www.techradar.com/pro/security/thousands-of-youtube-videos-disguised-as-cheat-codes-removed-for-spreading-malware
    🎮 YouTube ลบวิดีโอกว่า 3,000 รายการที่ปลอมเป็นสูตรโกงเกม – พบใช้แพร่กระจายมัลแวร์ Lumma และ RedLine YouTube ได้ลบวิดีโอกว่า 3,000 รายการที่ถูกใช้เป็นเครื่องมือในการแพร่กระจายมัลแวร์ โดยวิดีโอเหล่านี้ปลอมตัวเป็น “สูตรโกงเกม” หรือ “โปรแกรมเถื่อน” เช่น Adobe Photoshop และ FL Studio เพื่อหลอกให้ผู้ชมดาวน์โหลดไฟล์อันตราย แคมเปญนี้ถูกเรียกว่า “YouTube Ghost Network” โดยนักวิจัยจาก Check Point Research พบว่าเป็นการโจมตีแบบประสานงานที่ซับซ้อน ซึ่งเริ่มต้นตั้งแต่ปี 2021 และเพิ่มจำนวนวิดีโออย่างรวดเร็วในปี 2025 โดยใช้เทคนิคสร้าง engagement ปลอม เช่น ไลก์ คอมเมนต์ และการสมัครสมาชิก เพื่อให้วิดีโอดูน่าเชื่อถือ มัลแวร์ที่พบในแคมเปญนี้ ได้แก่ Lumma Stealer, Rhadamanthys และ RedLine ซึ่งสามารถขโมยข้อมูลส่วนตัว เช่น รหัสผ่าน คุกกี้ และข้อมูลการเข้าสู่ระบบต่าง ๆ ✅ รายละเอียดแคมเปญ YouTube Ghost Network ➡️ วิดีโอปลอมเป็นสูตรโกงเกมและโปรแกรมเถื่อน ➡️ หลอกให้ผู้ใช้ดาวน์โหลดไฟล์มัลแวร์ ➡️ ใช้ engagement ปลอมเพื่อสร้างความน่าเชื่อถือ ➡️ เริ่มต้นตั้งแต่ปี 2021 และเพิ่มขึ้นในปี 2025 ✅ มัลแวร์ที่เกี่ยวข้อง ➡️ Lumma Stealer – ขโมยรหัสผ่านและข้อมูลเข้าสู่ระบบ ➡️ Rhadamanthys – มัลแวร์ระดับสูงสำหรับการสอดแนม ➡️ RedLine – ขโมยข้อมูลจากเบราว์เซอร์และแอปต่าง ๆ ✅ เทคนิคการหลอกลวง ➡️ ใช้ชื่อวิดีโอและคำอธิบายที่ดูน่าเชื่อถือ ➡️ สร้างคอมเมนต์และไลก์ปลอมเพื่อหลอกผู้ใช้ ➡️ ใช้หลายบัญชีในการสร้างและโปรโมตวิดีโอ https://www.techradar.com/pro/security/thousands-of-youtube-videos-disguised-as-cheat-codes-removed-for-spreading-malware
    0 ความคิดเห็น 0 การแบ่งปัน 59 มุมมอง 0 รีวิว
  • ข้อมูลลูกค้า Toys "R" Us ถูกขโมยและเผยแพร่บนเว็บมืด – เสี่ยงโดนฟิชชิ่งและขโมยตัวตน.

    Toys "R" Us Canada เผชิญเหตุข้อมูลรั่วไหลครั้งใหญ่ หลังแฮกเกอร์ขโมยข้อมูลลูกค้าและนำไปเผยแพร่บนเว็บมืด โดยข้อมูลที่ถูกขโมยประกอบด้วยชื่อ, ที่อยู่, อีเมล และเบอร์โทรศัพท์ของลูกค้าบางส่วน แม้จะไม่มีรหัสผ่านหรือข้อมูลบัตรเครดิตหลุดออกไป แต่ก็ยังเสี่ยงต่อการถูกฟิชชิ่งและขโมยตัวตนได้

    บริษัทได้ว่าจ้างผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์เพื่อวิเคราะห์เหตุการณ์ และยืนยันว่าเป็นเพียง “บางส่วนของข้อมูลลูกค้า” ที่ถูกขโมย พร้อมทั้งเสริมระบบป้องกันเพิ่มเติม และแจ้งเตือนลูกค้าที่ได้รับผลกระทบแล้ว

    Toys "R" Us ยังแจ้งเตือนให้ลูกค้าระวังอีเมลหลอกลวงที่อ้างว่าเป็นบริษัท และไม่ควรคลิกลิงก์หรือเปิดไฟล์แนบจากแหล่งที่ไม่น่าเชื่อถือ

    ข้อมูลที่ถูกขโมย
    ชื่อ, ที่อยู่, อีเมล, เบอร์โทรศัพท์
    ไม่มีรหัสผ่านหรือข้อมูลบัตรเครดิต
    เสี่ยงต่อการถูกฟิชชิ่งและขโมยตัวตน

    การตอบสนองของบริษัท
    ว่าจ้างผู้เชี่ยวชาญด้านไซเบอร์เพื่อวิเคราะห์เหตุการณ์
    ยืนยันว่าเป็นข้อมูลลูกค้า “บางส่วน”
    แจ้งเตือนลูกค้าที่ได้รับผลกระทบ
    เสริมระบบป้องกันเพิ่มเติม

    คำแนะนำสำหรับลูกค้า
    ระวังอีเมลหลอกลวงที่อ้างว่าเป็น Toys "R" Us
    อย่าคลิกลิงก์หรือเปิดไฟล์แนบจากแหล่งที่ไม่น่าเชื่อถือ
    ตรวจสอบบัญชีและกิจกรรมที่เกี่ยวข้องกับข้อมูลส่วนตัว

    https://www.techradar.com/pro/security/toys-r-us-customer-data-swiped-and-leaked-online-heres-what-we-know
    🧸 ข้อมูลลูกค้า Toys "R" Us ถูกขโมยและเผยแพร่บนเว็บมืด – เสี่ยงโดนฟิชชิ่งและขโมยตัวตน. Toys "R" Us Canada เผชิญเหตุข้อมูลรั่วไหลครั้งใหญ่ หลังแฮกเกอร์ขโมยข้อมูลลูกค้าและนำไปเผยแพร่บนเว็บมืด โดยข้อมูลที่ถูกขโมยประกอบด้วยชื่อ, ที่อยู่, อีเมล และเบอร์โทรศัพท์ของลูกค้าบางส่วน แม้จะไม่มีรหัสผ่านหรือข้อมูลบัตรเครดิตหลุดออกไป แต่ก็ยังเสี่ยงต่อการถูกฟิชชิ่งและขโมยตัวตนได้ บริษัทได้ว่าจ้างผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์เพื่อวิเคราะห์เหตุการณ์ และยืนยันว่าเป็นเพียง “บางส่วนของข้อมูลลูกค้า” ที่ถูกขโมย พร้อมทั้งเสริมระบบป้องกันเพิ่มเติม และแจ้งเตือนลูกค้าที่ได้รับผลกระทบแล้ว Toys "R" Us ยังแจ้งเตือนให้ลูกค้าระวังอีเมลหลอกลวงที่อ้างว่าเป็นบริษัท และไม่ควรคลิกลิงก์หรือเปิดไฟล์แนบจากแหล่งที่ไม่น่าเชื่อถือ ✅ ข้อมูลที่ถูกขโมย ➡️ ชื่อ, ที่อยู่, อีเมล, เบอร์โทรศัพท์ ➡️ ไม่มีรหัสผ่านหรือข้อมูลบัตรเครดิต ➡️ เสี่ยงต่อการถูกฟิชชิ่งและขโมยตัวตน ✅ การตอบสนองของบริษัท ➡️ ว่าจ้างผู้เชี่ยวชาญด้านไซเบอร์เพื่อวิเคราะห์เหตุการณ์ ➡️ ยืนยันว่าเป็นข้อมูลลูกค้า “บางส่วน” ➡️ แจ้งเตือนลูกค้าที่ได้รับผลกระทบ ➡️ เสริมระบบป้องกันเพิ่มเติม ✅ คำแนะนำสำหรับลูกค้า ➡️ ระวังอีเมลหลอกลวงที่อ้างว่าเป็น Toys "R" Us ➡️ อย่าคลิกลิงก์หรือเปิดไฟล์แนบจากแหล่งที่ไม่น่าเชื่อถือ ➡️ ตรวจสอบบัญชีและกิจกรรมที่เกี่ยวข้องกับข้อมูลส่วนตัว https://www.techradar.com/pro/security/toys-r-us-customer-data-swiped-and-leaked-online-heres-what-we-know
    WWW.TECHRADAR.COM
    Toys "R" Us customer data swiped and leaked online - here's what we know
    Names, addresses, and more from Toys "R" Us customers stolen and leaked on the dark web
    0 ความคิดเห็น 0 การแบ่งปัน 49 มุมมอง 0 รีวิว
  • ตลาดผู้ใหญ่กับ AI: ChatGPT ไม่ใช่รายแรกที่มองเห็นโอกาสในธุรกิจ “18+”

    ในขณะที่อุตสาหกรรม AI กำลังขยายตัวอย่างรวดเร็ว หนึ่งในตลาดที่กำลังได้รับความสนใจมากขึ้นคือ “ตลาดผู้ใหญ่” หรือ adult market ซึ่งรวมถึงเนื้อหาสำหรับผู้ใหญ่, การจำลองบทสนทนาเชิงอารมณ์, และการสร้างประสบการณ์ส่วนตัวผ่าน AI โดยบทความจาก The Star ชี้ว่า ChatGPT อาจไม่ใช่รายแรกที่พยายามเข้าสู่ตลาดนี้—แต่เป็นหนึ่งในผู้เล่นที่กำลังถูกจับตามองอย่างใกล้ชิด

    บริษัท AI หลายแห่ง เช่น Replika, DreamGF และ EVA AI ได้เปิดตัวแชตบอทที่สามารถสร้างความสัมพันธ์เชิงอารมณ์กับผู้ใช้ได้ โดยบางรายมีฟีเจอร์ที่ให้ผู้ใช้ “ออกเดต” กับ AI หรือแม้แต่สร้างบทสนทนาเชิงโรแมนติกและเซ็กชวล ซึ่งกลายเป็นธุรกิจที่มีรายได้หลายล้านดอลลาร์ต่อปี

    แม้ว่า OpenAI จะยังไม่เปิดเผยแผนการเข้าสู่ตลาดนี้อย่างชัดเจน แต่การที่ ChatGPT มีความสามารถในการสนทนาอย่างเป็นธรรมชาติและเข้าใจอารมณ์ ก็ทำให้หลายฝ่ายคาดว่าอาจมีการเปิดฟีเจอร์ที่เกี่ยวข้องในอนาคต

    สรุปประเด็นสำคัญจากบทความ

    1️⃣ ตลาดผู้ใหญ่คือโอกาสใหม่ของ AI
    ข้อมูลในบทความ
    ตลาด adult AI มีผู้เล่นหลายราย เช่น Replika, DreamGF, EVA AI
    มีการสร้างแชตบอทที่สามารถ “ออกเดต” หรือสนทนาเชิงอารมณ์กับผู้ใช้
    ธุรกิจนี้มีรายได้หลายล้านดอลลาร์ต่อปี

    คำเตือน
    เนื้อหาบางส่วนอาจละเมิดจริยธรรมหรือกฎหมายในบางประเทศ
    ผู้ใช้บางรายอาจเกิดความผูกพันทางอารมณ์กับ AI มากเกินไป

    2️⃣ ChatGPT กับความเป็นไปได้ในตลาดนี้
    ข้อมูลในบทความ
    ChatGPT ยังไม่มีฟีเจอร์เฉพาะสำหรับตลาดผู้ใหญ่
    แต่มีความสามารถในการสนทนาอย่างเป็นธรรมชาติและเข้าใจอารมณ์
    นักวิเคราะห์คาดว่า OpenAI อาจเปิดฟีเจอร์ใหม่ในอนาคต

    คำเตือน
    การใช้ AI ในบริบทเชิงอารมณ์ต้องมีการควบคุมอย่างรัดกุม
    อาจเกิดความเข้าใจผิดว่า AI มีความรู้สึกจริง

    3️⃣ ความท้าทายด้านจริยธรรมและความปลอดภัย
    ข้อมูลในบทความ
    นักวิจัยเตือนว่า AI ที่สร้างความสัมพันธ์กับผู้ใช้อาจส่งผลต่อสุขภาพจิต
    มีความเสี่ยงด้านข้อมูลส่วนตัวและการใช้เนื้อหาไม่เหมาะสม
    บางแพลตฟอร์มมีการเก็บข้อมูลการสนทนาเพื่อพัฒนาโมเดล

    คำเตือน
    ผู้ใช้ควรตรวจสอบนโยบายความเป็นส่วนตัวก่อนใช้งาน
    การใช้ AI เพื่อจำลองความสัมพันธ์อาจส่งผลต่อพฤติกรรมในชีวิตจริง

    https://www.thestar.com.my/tech/tech-news/2025/10/24/as-the-ai-industry-eyes-the-adult-market-chatgpt-won039t-be-the-first-to-try-to-profit-from-it
    🔞 ตลาดผู้ใหญ่กับ AI: ChatGPT ไม่ใช่รายแรกที่มองเห็นโอกาสในธุรกิจ “18+” ในขณะที่อุตสาหกรรม AI กำลังขยายตัวอย่างรวดเร็ว หนึ่งในตลาดที่กำลังได้รับความสนใจมากขึ้นคือ “ตลาดผู้ใหญ่” หรือ adult market ซึ่งรวมถึงเนื้อหาสำหรับผู้ใหญ่, การจำลองบทสนทนาเชิงอารมณ์, และการสร้างประสบการณ์ส่วนตัวผ่าน AI โดยบทความจาก The Star ชี้ว่า ChatGPT อาจไม่ใช่รายแรกที่พยายามเข้าสู่ตลาดนี้—แต่เป็นหนึ่งในผู้เล่นที่กำลังถูกจับตามองอย่างใกล้ชิด บริษัท AI หลายแห่ง เช่น Replika, DreamGF และ EVA AI ได้เปิดตัวแชตบอทที่สามารถสร้างความสัมพันธ์เชิงอารมณ์กับผู้ใช้ได้ โดยบางรายมีฟีเจอร์ที่ให้ผู้ใช้ “ออกเดต” กับ AI หรือแม้แต่สร้างบทสนทนาเชิงโรแมนติกและเซ็กชวล ซึ่งกลายเป็นธุรกิจที่มีรายได้หลายล้านดอลลาร์ต่อปี แม้ว่า OpenAI จะยังไม่เปิดเผยแผนการเข้าสู่ตลาดนี้อย่างชัดเจน แต่การที่ ChatGPT มีความสามารถในการสนทนาอย่างเป็นธรรมชาติและเข้าใจอารมณ์ ก็ทำให้หลายฝ่ายคาดว่าอาจมีการเปิดฟีเจอร์ที่เกี่ยวข้องในอนาคต 🔍 สรุปประเด็นสำคัญจากบทความ 1️⃣ ตลาดผู้ใหญ่คือโอกาสใหม่ของ AI ✅ ข้อมูลในบทความ ➡️ ตลาด adult AI มีผู้เล่นหลายราย เช่น Replika, DreamGF, EVA AI ➡️ มีการสร้างแชตบอทที่สามารถ “ออกเดต” หรือสนทนาเชิงอารมณ์กับผู้ใช้ ➡️ ธุรกิจนี้มีรายได้หลายล้านดอลลาร์ต่อปี ‼️ คำเตือน ⛔ เนื้อหาบางส่วนอาจละเมิดจริยธรรมหรือกฎหมายในบางประเทศ ⛔ ผู้ใช้บางรายอาจเกิดความผูกพันทางอารมณ์กับ AI มากเกินไป 2️⃣ ChatGPT กับความเป็นไปได้ในตลาดนี้ ✅ ข้อมูลในบทความ ➡️ ChatGPT ยังไม่มีฟีเจอร์เฉพาะสำหรับตลาดผู้ใหญ่ ➡️ แต่มีความสามารถในการสนทนาอย่างเป็นธรรมชาติและเข้าใจอารมณ์ ➡️ นักวิเคราะห์คาดว่า OpenAI อาจเปิดฟีเจอร์ใหม่ในอนาคต ‼️ คำเตือน ⛔ การใช้ AI ในบริบทเชิงอารมณ์ต้องมีการควบคุมอย่างรัดกุม ⛔ อาจเกิดความเข้าใจผิดว่า AI มีความรู้สึกจริง 3️⃣ ความท้าทายด้านจริยธรรมและความปลอดภัย ✅ ข้อมูลในบทความ ➡️ นักวิจัยเตือนว่า AI ที่สร้างความสัมพันธ์กับผู้ใช้อาจส่งผลต่อสุขภาพจิต ➡️ มีความเสี่ยงด้านข้อมูลส่วนตัวและการใช้เนื้อหาไม่เหมาะสม ➡️ บางแพลตฟอร์มมีการเก็บข้อมูลการสนทนาเพื่อพัฒนาโมเดล ‼️ คำเตือน ⛔ ผู้ใช้ควรตรวจสอบนโยบายความเป็นส่วนตัวก่อนใช้งาน ⛔ การใช้ AI เพื่อจำลองความสัมพันธ์อาจส่งผลต่อพฤติกรรมในชีวิตจริง https://www.thestar.com.my/tech/tech-news/2025/10/24/as-the-ai-industry-eyes-the-adult-market-chatgpt-won039t-be-the-first-to-try-to-profit-from-it
    WWW.THESTAR.COM.MY
    As the AI industry eyes the adult market, ChatGPT won't be the first to try to profit from it
    ChatGPT will be able to have kinkier conversations after OpenAI CEO Sam Altman announced the artificial intelligence company will soon allow its chatbot to engage in "erotica for verified adults".
    0 ความคิดเห็น 0 การแบ่งปัน 69 มุมมอง 0 รีวิว
  • Shadow Escape: ช่องโหว่ใหม่ใน AI Assistant เสี่ยงทำข้อมูลผู้ใช้รั่วไหลมหาศาล

    นักวิจัยจาก Operant AI ได้เปิดเผยการโจมตีแบบใหม่ที่เรียกว่า “Shadow Escape” ซึ่งเป็นการโจมตีแบบ “zero-click” ที่สามารถขโมยข้อมูลส่วนตัวของผู้ใช้ผ่าน AI Assistant โดยไม่ต้องให้ผู้ใช้คลิกหรือตอบสนองใดๆ เลย จุดอ่อนนี้เกิดจากการใช้มาตรฐาน Model Context Protocol (MCP) ที่ช่วยให้ AI อย่าง ChatGPT, Gemini และ Claude เชื่อมต่อกับระบบภายในขององค์กร เช่น ฐานข้อมูลหรือ API ต่างๆ

    สิ่งที่น่ากังวลคือ Shadow Escape สามารถซ่อนคำสั่งอันตรายไว้ในไฟล์ธรรมดา เช่น คู่มือพนักงานหรือ PDF ที่ดูไม่มีพิษภัย เมื่อพนักงานอัปโหลดไฟล์เหล่านี้ให้ AI ช่วยสรุปหรือวิเคราะห์ คำสั่งที่ซ่อนอยู่จะสั่งให้ AI ดึงข้อมูลส่วนตัวของลูกค้า เช่น หมายเลขประกันสังคม (SSN), ข้อมูลการเงิน, หรือเวชระเบียน แล้วส่งออกไปยังเซิร์ฟเวอร์ของผู้ไม่หวังดี โดยที่ระบบความปลอดภัยทั่วไปไม่สามารถตรวจจับได้ เพราะการเข้าถึงข้อมูลเกิดขึ้นภายในระบบที่ได้รับอนุญาตอยู่แล้ว

    1️⃣ ลักษณะของการโจมตี
    จุดเริ่มต้นของการโจมตี
    ใช้ไฟล์ธรรมดา เช่น PDF หรือเอกสาร Word ที่ฝังคำสั่งลับ
    พนักงานอัปโหลดไฟล์ให้ AI ช่วยสรุปหรือวิเคราะห์
    คำสั่งลับจะสั่งให้ AI ดึงข้อมูลจากระบบภายใน

    จุดอ่อนที่ถูกใช้
    มาตรฐาน Model Context Protocol (MCP) ที่เชื่อม AI กับระบบองค์กร
    การตั้งค่า permission ของ MCP ที่ไม่รัดกุม
    AI มีสิทธิ์เข้าถึงข้อมูลโดยตรง จึงไม่ถูกระบบรักษาความปลอดภัยภายนอกตรวจจับ

    2️⃣ ข้อมูลที่ตกอยู่ในความเสี่ยง
    ประเภทของข้อมูลที่อาจรั่วไหล
    หมายเลขประกันสังคม (SSN)
    ข้อมูลบัตรเครดิตและบัญชีธนาคาร
    เวชระเบียนและข้อมูลสุขภาพ
    ชื่อ ที่อยู่ และข้อมูลส่วนตัวของลูกค้า

    คำเตือน
    การรั่วไหลอาจเกิดขึ้นโดยที่พนักงานไม่รู้ตัว
    ข้อมูลอาจถูกส่งออกไปยังเซิร์ฟเวอร์ของผู้โจมตีโดยไม่มีการแจ้งเตือน

    3️⃣ ทำไมระบบความปลอดภัยทั่วไปจึงไม่สามารถป้องกันได้
    ลักษณะของการโจมตีแบบ “zero-click”
    ไม่ต้องการให้ผู้ใช้คลิกลิงก์หรือทำอะไร
    ใช้ AI ที่มีสิทธิ์เข้าถึงข้อมูลเป็นเครื่องมือในการขโมยข้อมูล
    การส่งข้อมูลออกถูกพรางให้ดูเหมือนเป็นการทำงานปกติของระบบ

    คำเตือน
    ระบบ firewall และระบบตรวจจับภัยคุกคามทั่วไปไม่สามารถแยกแยะพฤติกรรมนี้ได้
    การใช้ AI โดยไม่มีการควบคุมสิทธิ์อย่างเข้มงวด อาจกลายเป็นช่องโหว่ร้ายแรง

    4️⃣ ข้อเสนอแนะจากนักวิจัย
    แนวทางป้องกัน
    ตรวจสอบและจำกัดสิทธิ์ของ AI Assistant ในการเข้าถึงข้อมูล
    ปรับแต่ง permission ของ MCP ให้เหมาะสมกับระดับความเสี่ยง
    ตรวจสอบไฟล์ที่อัปโหลดเข้าระบบอย่างละเอียดก่อนให้ AI ประมวลผล

    คำเตือน
    องค์กรที่ใช้ AI Assistant โดยไม่ตรวจสอบการตั้งค่า MCP อาจตกเป็นเหยื่อได้ง่าย
    การละเลยการ audit ระบบ AI อาจนำไปสู่การรั่วไหลของข้อมูลระดับ “หลายล้านล้านรายการ”

    https://hackread.com/shadow-escape-0-click-attack-ai-assistants-risk/
    🕵️‍♂️ Shadow Escape: ช่องโหว่ใหม่ใน AI Assistant เสี่ยงทำข้อมูลผู้ใช้รั่วไหลมหาศาล นักวิจัยจาก Operant AI ได้เปิดเผยการโจมตีแบบใหม่ที่เรียกว่า “Shadow Escape” ซึ่งเป็นการโจมตีแบบ “zero-click” ที่สามารถขโมยข้อมูลส่วนตัวของผู้ใช้ผ่าน AI Assistant โดยไม่ต้องให้ผู้ใช้คลิกหรือตอบสนองใดๆ เลย จุดอ่อนนี้เกิดจากการใช้มาตรฐาน Model Context Protocol (MCP) ที่ช่วยให้ AI อย่าง ChatGPT, Gemini และ Claude เชื่อมต่อกับระบบภายในขององค์กร เช่น ฐานข้อมูลหรือ API ต่างๆ สิ่งที่น่ากังวลคือ Shadow Escape สามารถซ่อนคำสั่งอันตรายไว้ในไฟล์ธรรมดา เช่น คู่มือพนักงานหรือ PDF ที่ดูไม่มีพิษภัย เมื่อพนักงานอัปโหลดไฟล์เหล่านี้ให้ AI ช่วยสรุปหรือวิเคราะห์ คำสั่งที่ซ่อนอยู่จะสั่งให้ AI ดึงข้อมูลส่วนตัวของลูกค้า เช่น หมายเลขประกันสังคม (SSN), ข้อมูลการเงิน, หรือเวชระเบียน แล้วส่งออกไปยังเซิร์ฟเวอร์ของผู้ไม่หวังดี โดยที่ระบบความปลอดภัยทั่วไปไม่สามารถตรวจจับได้ เพราะการเข้าถึงข้อมูลเกิดขึ้นภายในระบบที่ได้รับอนุญาตอยู่แล้ว 1️⃣ ลักษณะของการโจมตี ✅ จุดเริ่มต้นของการโจมตี ➡️ ใช้ไฟล์ธรรมดา เช่น PDF หรือเอกสาร Word ที่ฝังคำสั่งลับ ➡️ พนักงานอัปโหลดไฟล์ให้ AI ช่วยสรุปหรือวิเคราะห์ ➡️ คำสั่งลับจะสั่งให้ AI ดึงข้อมูลจากระบบภายใน ✅ จุดอ่อนที่ถูกใช้ ➡️ มาตรฐาน Model Context Protocol (MCP) ที่เชื่อม AI กับระบบองค์กร ➡️ การตั้งค่า permission ของ MCP ที่ไม่รัดกุม ➡️ AI มีสิทธิ์เข้าถึงข้อมูลโดยตรง จึงไม่ถูกระบบรักษาความปลอดภัยภายนอกตรวจจับ 2️⃣ ข้อมูลที่ตกอยู่ในความเสี่ยง ✅ ประเภทของข้อมูลที่อาจรั่วไหล ➡️ หมายเลขประกันสังคม (SSN) ➡️ ข้อมูลบัตรเครดิตและบัญชีธนาคาร ➡️ เวชระเบียนและข้อมูลสุขภาพ ➡️ ชื่อ ที่อยู่ และข้อมูลส่วนตัวของลูกค้า ‼️ คำเตือน ⛔ การรั่วไหลอาจเกิดขึ้นโดยที่พนักงานไม่รู้ตัว ⛔ ข้อมูลอาจถูกส่งออกไปยังเซิร์ฟเวอร์ของผู้โจมตีโดยไม่มีการแจ้งเตือน 3️⃣ ทำไมระบบความปลอดภัยทั่วไปจึงไม่สามารถป้องกันได้ ✅ ลักษณะของการโจมตีแบบ “zero-click” ➡️ ไม่ต้องการให้ผู้ใช้คลิกลิงก์หรือทำอะไร ➡️ ใช้ AI ที่มีสิทธิ์เข้าถึงข้อมูลเป็นเครื่องมือในการขโมยข้อมูล ➡️ การส่งข้อมูลออกถูกพรางให้ดูเหมือนเป็นการทำงานปกติของระบบ ‼️ คำเตือน ⛔ ระบบ firewall และระบบตรวจจับภัยคุกคามทั่วไปไม่สามารถแยกแยะพฤติกรรมนี้ได้ ⛔ การใช้ AI โดยไม่มีการควบคุมสิทธิ์อย่างเข้มงวด อาจกลายเป็นช่องโหว่ร้ายแรง 4️⃣ ข้อเสนอแนะจากนักวิจัย ✅ แนวทางป้องกัน ➡️ ตรวจสอบและจำกัดสิทธิ์ของ AI Assistant ในการเข้าถึงข้อมูล ➡️ ปรับแต่ง permission ของ MCP ให้เหมาะสมกับระดับความเสี่ยง ➡️ ตรวจสอบไฟล์ที่อัปโหลดเข้าระบบอย่างละเอียดก่อนให้ AI ประมวลผล ‼️ คำเตือน ⛔ องค์กรที่ใช้ AI Assistant โดยไม่ตรวจสอบการตั้งค่า MCP อาจตกเป็นเหยื่อได้ง่าย ⛔ การละเลยการ audit ระบบ AI อาจนำไปสู่การรั่วไหลของข้อมูลระดับ “หลายล้านล้านรายการ” https://hackread.com/shadow-escape-0-click-attack-ai-assistants-risk/
    HACKREAD.COM
    Shadow Escape 0-Click Attack in AI Assistants Puts Trillions of Records at Risk
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 78 มุมมอง 0 รีวิว
  • เจาะระบบ FIA: นักวิจัยเผยช่องโหว่ที่เข้าถึงข้อมูลลับของนักแข่ง F1 รวมถึง Max Verstappen

    ในโลกของ Formula 1 ที่เต็มไปด้วยเทคโนโลยีและความเร็ว มีอีกด้านหนึ่งที่ไม่ค่อยถูกพูดถึง—ด้านความปลอดภัยไซเบอร์ ล่าสุดนักวิจัยด้านความปลอดภัย Ian Carroll, Sam Curry และ Gal Nagli ได้เปิดเผยช่องโหว่ร้ายแรงในระบบ Driver Categorisation ของ FIA ซึ่งทำให้สามารถเข้าถึงข้อมูลส่วนตัวของนักแข่ง F1 ได้ รวมถึงพาสปอร์ตและข้อมูลของ Max Verstappen!

    ช่องโหว่นี้เกิดจากการออกแบบ API ที่ไม่ปลอดภัย โดยระบบอนุญาตให้ผู้ใช้ส่ง HTTP PUT request เพื่ออัปเดตโปรไฟล์ของตนเอง แต่กลับไม่มีการตรวจสอบสิทธิ์อย่างเหมาะสม ทำให้นักวิจัยสามารถแนบข้อมูล “roles” เพื่อยกระดับสิทธิ์เป็น “ADMIN” ได้สำเร็จ เมื่อเข้าสู่ระบบใหม่ พวกเขาก็สามารถเข้าถึง dashboard สำหรับผู้ดูแลระบบ ซึ่งเปิดให้ดูข้อมูลลับของนักแข่งทุกคน

    ข้อมูลที่สามารถเข้าถึงได้รวมถึง hash ของรหัสผ่าน, อีเมล, เบอร์โทรศัพท์, พาสปอร์ต, ประวัติการแข่งขัน และแม้แต่การตัดสินภายในของคณะกรรมการ FIA นักวิจัยยืนยันว่าไม่ได้ดาวน์โหลดหรือเก็บข้อมูลใดๆ และได้แจ้งเตือน FIA ตั้งแต่เดือนมิถุนายน 2025 ซึ่งทาง FIA ได้ตอบรับและแก้ไขระบบแล้ว

    ช่องโหว่ที่ค้นพบ
    อยู่ในระบบ Driver Categorisation ของ FIA
    ใช้ HTTP PUT request เพื่ออัปเดตโปรไฟล์โดยไม่มีการตรวจสอบสิทธิ์
    สามารถแนบ “roles” เพื่อยกระดับสิทธิ์เป็น ADMIN ได้

    ข้อมูลที่สามารถเข้าถึงได้
    พาสปอร์ต, อีเมล, เบอร์โทรศัพท์, hash ของรหัสผ่าน
    ประวัติการแข่งขันและเอกสารประกอบ
    ข้อมูลการตัดสินภายในของคณะกรรมการ FIA

    นักวิจัยที่ค้นพบ
    Ian Carroll, Sam Curry, Gal Nagli
    ได้แจ้งเตือน FIA ตั้งแต่วันที่ 3 มิถุนายน 2025
    FIA ตอบรับและแก้ไขระบบภายใน 1 สัปดาห์

    ความสำคัญของระบบ Driver Categorisation
    ใช้จัดระดับนักแข่งเป็น Bronze/Silver/Gold/Platinum
    แยกจากระบบ Super Licence แต่มีข้อมูลนักแข่งร่วมกัน
    รองรับการอัปโหลดเอกสารสำคัญ เช่น พาสปอร์ตและประวัติการแข่งขัน

    คำเตือนสำหรับองค์กรที่ใช้ระบบออนไลน์
    การไม่ตรวจสอบสิทธิ์ใน API อาจเปิดช่องให้เกิด privilege escalation
    การใช้ HTTP PUT โดยไม่มีการกรองข้อมูล อาจทำให้เกิด mass assignment
    ข้อมูลส่วนตัวของบุคคลสำคัญอาจถูกเข้าถึงได้โดยไม่ได้รับอนุญาต

    คำแนะนำเพิ่มเติม
    ควรตรวจสอบการใช้งาน API ทุกจุดที่มีการอัปเดตข้อมูล
    หลีกเลี่ยงการเปิดให้ผู้ใช้แนบข้อมูลที่ควบคุมสิทธิ์ได้เอง
    ควรมีระบบแจ้งเตือนและตรวจสอบการเปลี่ยนแปลงสิทธิ์แบบ real-time

    https://ian.sh/fia
    🏎️ เจาะระบบ FIA: นักวิจัยเผยช่องโหว่ที่เข้าถึงข้อมูลลับของนักแข่ง F1 รวมถึง Max Verstappen ในโลกของ Formula 1 ที่เต็มไปด้วยเทคโนโลยีและความเร็ว มีอีกด้านหนึ่งที่ไม่ค่อยถูกพูดถึง—ด้านความปลอดภัยไซเบอร์ ล่าสุดนักวิจัยด้านความปลอดภัย Ian Carroll, Sam Curry และ Gal Nagli ได้เปิดเผยช่องโหว่ร้ายแรงในระบบ Driver Categorisation ของ FIA ซึ่งทำให้สามารถเข้าถึงข้อมูลส่วนตัวของนักแข่ง F1 ได้ รวมถึงพาสปอร์ตและข้อมูลของ Max Verstappen! ช่องโหว่นี้เกิดจากการออกแบบ API ที่ไม่ปลอดภัย โดยระบบอนุญาตให้ผู้ใช้ส่ง HTTP PUT request เพื่ออัปเดตโปรไฟล์ของตนเอง แต่กลับไม่มีการตรวจสอบสิทธิ์อย่างเหมาะสม ทำให้นักวิจัยสามารถแนบข้อมูล “roles” เพื่อยกระดับสิทธิ์เป็น “ADMIN” ได้สำเร็จ เมื่อเข้าสู่ระบบใหม่ พวกเขาก็สามารถเข้าถึง dashboard สำหรับผู้ดูแลระบบ ซึ่งเปิดให้ดูข้อมูลลับของนักแข่งทุกคน ข้อมูลที่สามารถเข้าถึงได้รวมถึง hash ของรหัสผ่าน, อีเมล, เบอร์โทรศัพท์, พาสปอร์ต, ประวัติการแข่งขัน และแม้แต่การตัดสินภายในของคณะกรรมการ FIA นักวิจัยยืนยันว่าไม่ได้ดาวน์โหลดหรือเก็บข้อมูลใดๆ และได้แจ้งเตือน FIA ตั้งแต่เดือนมิถุนายน 2025 ซึ่งทาง FIA ได้ตอบรับและแก้ไขระบบแล้ว ✅ ช่องโหว่ที่ค้นพบ ➡️ อยู่ในระบบ Driver Categorisation ของ FIA ➡️ ใช้ HTTP PUT request เพื่ออัปเดตโปรไฟล์โดยไม่มีการตรวจสอบสิทธิ์ ➡️ สามารถแนบ “roles” เพื่อยกระดับสิทธิ์เป็น ADMIN ได้ ✅ ข้อมูลที่สามารถเข้าถึงได้ ➡️ พาสปอร์ต, อีเมล, เบอร์โทรศัพท์, hash ของรหัสผ่าน ➡️ ประวัติการแข่งขันและเอกสารประกอบ ➡️ ข้อมูลการตัดสินภายในของคณะกรรมการ FIA ✅ นักวิจัยที่ค้นพบ ➡️ Ian Carroll, Sam Curry, Gal Nagli ➡️ ได้แจ้งเตือน FIA ตั้งแต่วันที่ 3 มิถุนายน 2025 ➡️ FIA ตอบรับและแก้ไขระบบภายใน 1 สัปดาห์ ✅ ความสำคัญของระบบ Driver Categorisation ➡️ ใช้จัดระดับนักแข่งเป็น Bronze/Silver/Gold/Platinum ➡️ แยกจากระบบ Super Licence แต่มีข้อมูลนักแข่งร่วมกัน ➡️ รองรับการอัปโหลดเอกสารสำคัญ เช่น พาสปอร์ตและประวัติการแข่งขัน ‼️ คำเตือนสำหรับองค์กรที่ใช้ระบบออนไลน์ ⛔ การไม่ตรวจสอบสิทธิ์ใน API อาจเปิดช่องให้เกิด privilege escalation ⛔ การใช้ HTTP PUT โดยไม่มีการกรองข้อมูล อาจทำให้เกิด mass assignment ⛔ ข้อมูลส่วนตัวของบุคคลสำคัญอาจถูกเข้าถึงได้โดยไม่ได้รับอนุญาต ‼️ คำแนะนำเพิ่มเติม ⛔ ควรตรวจสอบการใช้งาน API ทุกจุดที่มีการอัปเดตข้อมูล ⛔ หลีกเลี่ยงการเปิดให้ผู้ใช้แนบข้อมูลที่ควบคุมสิทธิ์ได้เอง ⛔ ควรมีระบบแจ้งเตือนและตรวจสอบการเปลี่ยนแปลงสิทธิ์แบบ real-time https://ian.sh/fia
    IAN.SH
    Hacking Formula 1: Accessing Max Verstappen's passport and PII through FIA bugs
    We found vulnerabilities in the FIA's Driver Categorisation platform, allowing us to access PII and password hashes of any racing driver with a categorisation rating.
    0 ความคิดเห็น 0 การแบ่งปัน 59 มุมมอง 0 รีวิว
  • GM ปฏิวัติระบบรถยนต์: ใช้ Gemini แทน CarPlay และ Android Auto ภายในปี 2026

    General Motors (GM) ประกาศแผนการครั้งใหญ่ในการยกเลิกการรองรับ Apple CarPlay และ Android Auto ในรถยนต์ทุกประเภท ทั้งไฟฟ้าและน้ำมัน เพื่อเปิดทางให้กับ Gemini — ระบบผู้ช่วย AI จาก Google ที่จะถูกฝังเข้าไปในรถยนต์ของ GM ตั้งแต่ปี 2026 เป็นต้นไป

    Gemini จะทำหน้าที่เป็นผู้ช่วยส่วนตัวในรถยนต์ที่สามารถโต้ตอบด้วยภาษาธรรมชาติ เข้าใจคำสั่งที่ซับซ้อน และเชื่อมโยงกับข้อมูลของรถแบบเรียลไทม์ เช่น การแจ้งเตือนซ่อมบำรุง การวางแผนเส้นทาง หรือแม้แต่การตอบคำถามเกี่ยวกับสถานที่ที่กำลังขับผ่าน เช่น “สะพานนี้มีประวัติอย่างไร”

    ระบบใหม่นี้จะถูกอัปเดตผ่าน OTA (Over-the-Air) ผ่าน Google Play Store สำหรับรถยนต์ที่มีระบบ OnStar ตั้งแต่รุ่นปี 2015 ขึ้นไป โดย GM ยืนยันว่าจะให้ผู้ใช้ควบคุมข้อมูลส่วนตัวอย่างเต็มที่ หลังจากเคยถูกวิจารณ์เรื่องการแชร์ข้อมูลกับบริษัทประกันภัย

    Gemini ไม่ใช่แค่การเปลี่ยนผู้ช่วยเสียง แต่เป็นก้าวแรกสู่แพลตฟอร์มคอมพิวเตอร์ในรถยนต์ที่ GM พัฒนาขึ้นเอง ซึ่งจะรองรับระบบขับเคลื่อนอัตโนมัติในอนาคตภายในปี 2028

    การเปลี่ยนแปลงครั้งใหญ่ของ GM
    ยกเลิกการรองรับ Apple CarPlay และ Android Auto
    แทนที่ด้วย Gemini — ผู้ช่วย AI จาก Google
    เริ่มใช้งานในรถยนต์ทุกประเภทตั้งแต่ปี 2026

    ความสามารถของ Gemini
    โต้ตอบด้วยภาษาธรรมชาติ เข้าใจคำสั่งซับซ้อน
    เชื่อมโยงกับข้อมูลรถแบบเรียลไทม์
    ตอบคำถามเกี่ยวกับสถานที่หรือฟังก์ชันของรถ
    แจ้งเตือนซ่อมบำรุงและช่วยวางแผนเส้นทาง

    การอัปเดตและการรองรับ
    อัปเดตผ่าน OTA ผ่าน Google Play Store
    รองรับรถยนต์ที่มี OnStar ตั้งแต่ปี 2015 ขึ้นไป
    ผู้ใช้สามารถควบคุมข้อมูลส่วนตัวได้

    แผนระยะยาวของ GM
    พัฒนาแพลตฟอร์มคอมพิวเตอร์ในรถยนต์ของตนเอง
    เตรียมเปิดตัวระบบขับเคลื่อนอัตโนมัติภายในปี 2028

    https://securityonline.info/gm-bets-on-ai-gemini-to-replace-carplay-android-auto-in-all-cars-by-2026/
    🚗 GM ปฏิวัติระบบรถยนต์: ใช้ Gemini แทน CarPlay และ Android Auto ภายในปี 2026 General Motors (GM) ประกาศแผนการครั้งใหญ่ในการยกเลิกการรองรับ Apple CarPlay และ Android Auto ในรถยนต์ทุกประเภท ทั้งไฟฟ้าและน้ำมัน เพื่อเปิดทางให้กับ Gemini — ระบบผู้ช่วย AI จาก Google ที่จะถูกฝังเข้าไปในรถยนต์ของ GM ตั้งแต่ปี 2026 เป็นต้นไป Gemini จะทำหน้าที่เป็นผู้ช่วยส่วนตัวในรถยนต์ที่สามารถโต้ตอบด้วยภาษาธรรมชาติ เข้าใจคำสั่งที่ซับซ้อน และเชื่อมโยงกับข้อมูลของรถแบบเรียลไทม์ เช่น การแจ้งเตือนซ่อมบำรุง การวางแผนเส้นทาง หรือแม้แต่การตอบคำถามเกี่ยวกับสถานที่ที่กำลังขับผ่าน เช่น “สะพานนี้มีประวัติอย่างไร” ระบบใหม่นี้จะถูกอัปเดตผ่าน OTA (Over-the-Air) ผ่าน Google Play Store สำหรับรถยนต์ที่มีระบบ OnStar ตั้งแต่รุ่นปี 2015 ขึ้นไป โดย GM ยืนยันว่าจะให้ผู้ใช้ควบคุมข้อมูลส่วนตัวอย่างเต็มที่ หลังจากเคยถูกวิจารณ์เรื่องการแชร์ข้อมูลกับบริษัทประกันภัย Gemini ไม่ใช่แค่การเปลี่ยนผู้ช่วยเสียง แต่เป็นก้าวแรกสู่แพลตฟอร์มคอมพิวเตอร์ในรถยนต์ที่ GM พัฒนาขึ้นเอง ซึ่งจะรองรับระบบขับเคลื่อนอัตโนมัติในอนาคตภายในปี 2028 ✅ การเปลี่ยนแปลงครั้งใหญ่ของ GM ➡️ ยกเลิกการรองรับ Apple CarPlay และ Android Auto ➡️ แทนที่ด้วย Gemini — ผู้ช่วย AI จาก Google ➡️ เริ่มใช้งานในรถยนต์ทุกประเภทตั้งแต่ปี 2026 ✅ ความสามารถของ Gemini ➡️ โต้ตอบด้วยภาษาธรรมชาติ เข้าใจคำสั่งซับซ้อน ➡️ เชื่อมโยงกับข้อมูลรถแบบเรียลไทม์ ➡️ ตอบคำถามเกี่ยวกับสถานที่หรือฟังก์ชันของรถ ➡️ แจ้งเตือนซ่อมบำรุงและช่วยวางแผนเส้นทาง ✅ การอัปเดตและการรองรับ ➡️ อัปเดตผ่าน OTA ผ่าน Google Play Store ➡️ รองรับรถยนต์ที่มี OnStar ตั้งแต่ปี 2015 ขึ้นไป ➡️ ผู้ใช้สามารถควบคุมข้อมูลส่วนตัวได้ ✅ แผนระยะยาวของ GM ➡️ พัฒนาแพลตฟอร์มคอมพิวเตอร์ในรถยนต์ของตนเอง ➡️ เตรียมเปิดตัวระบบขับเคลื่อนอัตโนมัติภายในปี 2028 https://securityonline.info/gm-bets-on-ai-gemini-to-replace-carplay-android-auto-in-all-cars-by-2026/
    SECURITYONLINE.INFO
    GM Bets on AI: Gemini to Replace CarPlay/Android Auto in All Cars by 2026
    GM is integrating Google Gemini into all vehicles by 2026, creating a natural-language AI assistant and phasing out both Apple CarPlay and Android Auto.
    0 ความคิดเห็น 0 การแบ่งปัน 65 มุมมอง 0 รีวิว
  • YouTube เปิดตัว “Likeness Detection Tool” ป้องกันครีเอเตอร์จากภัย Deepfake

    ในยุคที่เทคโนโลยี AI ก้าวหน้าอย่างรวดเร็ว การปลอมแปลงใบหน้าและเสียงของบุคคลในวิดีโอหรือเสียงกลายเป็นเรื่องง่ายดายอย่างน่าตกใจ โดยเฉพาะกับเหล่าครีเอเตอร์ที่มีชื่อเสียงซึ่งตกเป็นเป้าหมายของการสร้างเนื้อหาเทียม (deepfake) เพื่อหลอกลวงหรือทำลายชื่อเสียง ล่าสุด YouTube ได้เปิดตัวเครื่องมือใหม่ที่ชื่อว่า “Likeness Detection Tool” เพื่อช่วยให้ครีเอเตอร์สามารถตรวจจับและจัดการกับวิดีโอที่ใช้ใบหน้าหรือเสียงของตนโดยไม่ได้รับอนุญาต

    เครื่องมือนี้เริ่มเปิดให้ใช้งานในเดือนตุลาคม 2025 โดยจำกัดเฉพาะสมาชิกในโปรแกรม YouTube Partner Program (YPP) ก่อน และจะขยายให้ครอบคลุมครีเอเตอร์ที่มีรายได้ทั้งหมดภายในเดือนมกราคม 2026

    การใช้งานเริ่มต้นด้วยการยืนยันตัวตนผ่านการอัปโหลดบัตรประชาชนและวิดีโอเซลฟี จากนั้นระบบจะสแกนวิดีโอใหม่ๆ บนแพลตฟอร์มเพื่อหาการใช้ใบหน้าหรือเสียงของครีเอเตอร์โดยไม่ได้รับอนุญาต หากพบวิดีโอที่น่าสงสัย ครีเอเตอร์จะได้รับการแจ้งเตือนผ่านแท็บ “Likeness” ใน YouTube Studio และสามารถเลือกดำเนินการ เช่น ส่งคำขอลบวิดีโอ หรือยื่นเรื่องละเมิดลิขสิทธิ์ได้ทันที

    แม้เครื่องมือนี้จะยังไม่สามารถตรวจจับการปลอมแปลงเสียงเพียงอย่างเดียวได้ แต่ก็ถือเป็นก้าวสำคัญในการปกป้องสิทธิ์ของครีเอเตอร์ และลดการแพร่กระจายของข้อมูลเท็จหรือการแอบอ้างตัวตนในโลกออนไลน์

    เครื่องมือใหม่จาก YouTube
    ชื่อว่า “Likeness Detection Tool”
    ใช้ AI ตรวจจับวิดีโอที่ใช้ใบหน้าหรือเสียงของครีเอเตอร์โดยไม่ได้รับอนุญาต
    แสดงวิดีโอที่ตรวจพบในแท็บ “Likeness” ของ YouTube Studio

    ขั้นตอนการใช้งาน
    ต้องยืนยันตัวตนด้วยบัตรประชาชนและวิดีโอเซลฟี
    ระบบจะเริ่มสแกนวิดีโอใหม่ๆ เพื่อหาการปลอมแปลง
    ครีเอเตอร์สามารถส่งคำขอลบวิดีโอหรือยื่นเรื่องละเมิดลิขสิทธิ์ได้

    กลุ่มผู้ใช้งาน
    เริ่มเปิดให้เฉพาะสมาชิก YouTube Partner Program
    จะขยายให้ครีเอเตอร์ที่มีรายได้ทั้งหมดภายในเดือนมกราคม 2026

    เป้าหมายของเครื่องมือ
    ปกป้องตัวตนของครีเอเตอร์จาก deepfake
    ลดการเผยแพร่ข้อมูลเท็จและการแอบอ้างตัวตน
    เพิ่มความน่าเชื่อถือของเนื้อหาบนแพลตฟอร์ม

    ข้อควรระวังและข้อจำกัด
    ยังไม่สามารถตรวจจับการปลอมแปลงเสียงเพียงอย่างเดียวได้
    อาจมี false positive – ตรวจพบวิดีโอที่ใช้ใบหน้าจริงของครีเอเตอร์แต่ไม่ใช่ deepfake
    การใช้งานต้องยอมรับการให้ข้อมูลส่วนตัว เช่น ใบหน้าและบัตรประชาชน

    คำแนะนำเพิ่มเติม
    ครีเอเตอร์ควรตรวจสอบวิดีโอที่ถูกแจ้งเตือนอย่างละเอียดก่อนดำเนินการ
    ควรติดตามการอัปเดตของ YouTube เกี่ยวกับการขยายขอบเขตการใช้งาน
    ควรพิจารณาความเป็นส่วนตัวก่อนสมัครใช้งานเครื่องมือนี้

    https://securityonline.info/deepfake-defense-youtube-rolls-out-ai-tool-to-protect-creator-likeness/
    🎭 YouTube เปิดตัว “Likeness Detection Tool” ป้องกันครีเอเตอร์จากภัย Deepfake ในยุคที่เทคโนโลยี AI ก้าวหน้าอย่างรวดเร็ว การปลอมแปลงใบหน้าและเสียงของบุคคลในวิดีโอหรือเสียงกลายเป็นเรื่องง่ายดายอย่างน่าตกใจ โดยเฉพาะกับเหล่าครีเอเตอร์ที่มีชื่อเสียงซึ่งตกเป็นเป้าหมายของการสร้างเนื้อหาเทียม (deepfake) เพื่อหลอกลวงหรือทำลายชื่อเสียง ล่าสุด YouTube ได้เปิดตัวเครื่องมือใหม่ที่ชื่อว่า “Likeness Detection Tool” เพื่อช่วยให้ครีเอเตอร์สามารถตรวจจับและจัดการกับวิดีโอที่ใช้ใบหน้าหรือเสียงของตนโดยไม่ได้รับอนุญาต เครื่องมือนี้เริ่มเปิดให้ใช้งานในเดือนตุลาคม 2025 โดยจำกัดเฉพาะสมาชิกในโปรแกรม YouTube Partner Program (YPP) ก่อน และจะขยายให้ครอบคลุมครีเอเตอร์ที่มีรายได้ทั้งหมดภายในเดือนมกราคม 2026 การใช้งานเริ่มต้นด้วยการยืนยันตัวตนผ่านการอัปโหลดบัตรประชาชนและวิดีโอเซลฟี จากนั้นระบบจะสแกนวิดีโอใหม่ๆ บนแพลตฟอร์มเพื่อหาการใช้ใบหน้าหรือเสียงของครีเอเตอร์โดยไม่ได้รับอนุญาต หากพบวิดีโอที่น่าสงสัย ครีเอเตอร์จะได้รับการแจ้งเตือนผ่านแท็บ “Likeness” ใน YouTube Studio และสามารถเลือกดำเนินการ เช่น ส่งคำขอลบวิดีโอ หรือยื่นเรื่องละเมิดลิขสิทธิ์ได้ทันที แม้เครื่องมือนี้จะยังไม่สามารถตรวจจับการปลอมแปลงเสียงเพียงอย่างเดียวได้ แต่ก็ถือเป็นก้าวสำคัญในการปกป้องสิทธิ์ของครีเอเตอร์ และลดการแพร่กระจายของข้อมูลเท็จหรือการแอบอ้างตัวตนในโลกออนไลน์ ✅ เครื่องมือใหม่จาก YouTube ➡️ ชื่อว่า “Likeness Detection Tool” ➡️ ใช้ AI ตรวจจับวิดีโอที่ใช้ใบหน้าหรือเสียงของครีเอเตอร์โดยไม่ได้รับอนุญาต ➡️ แสดงวิดีโอที่ตรวจพบในแท็บ “Likeness” ของ YouTube Studio ✅ ขั้นตอนการใช้งาน ➡️ ต้องยืนยันตัวตนด้วยบัตรประชาชนและวิดีโอเซลฟี ➡️ ระบบจะเริ่มสแกนวิดีโอใหม่ๆ เพื่อหาการปลอมแปลง ➡️ ครีเอเตอร์สามารถส่งคำขอลบวิดีโอหรือยื่นเรื่องละเมิดลิขสิทธิ์ได้ ✅ กลุ่มผู้ใช้งาน ➡️ เริ่มเปิดให้เฉพาะสมาชิก YouTube Partner Program ➡️ จะขยายให้ครีเอเตอร์ที่มีรายได้ทั้งหมดภายในเดือนมกราคม 2026 ✅ เป้าหมายของเครื่องมือ ➡️ ปกป้องตัวตนของครีเอเตอร์จาก deepfake ➡️ ลดการเผยแพร่ข้อมูลเท็จและการแอบอ้างตัวตน ➡️ เพิ่มความน่าเชื่อถือของเนื้อหาบนแพลตฟอร์ม ‼️ ข้อควรระวังและข้อจำกัด ⛔ ยังไม่สามารถตรวจจับการปลอมแปลงเสียงเพียงอย่างเดียวได้ ⛔ อาจมี false positive – ตรวจพบวิดีโอที่ใช้ใบหน้าจริงของครีเอเตอร์แต่ไม่ใช่ deepfake ⛔ การใช้งานต้องยอมรับการให้ข้อมูลส่วนตัว เช่น ใบหน้าและบัตรประชาชน ‼️ คำแนะนำเพิ่มเติม ⛔ ครีเอเตอร์ควรตรวจสอบวิดีโอที่ถูกแจ้งเตือนอย่างละเอียดก่อนดำเนินการ ⛔ ควรติดตามการอัปเดตของ YouTube เกี่ยวกับการขยายขอบเขตการใช้งาน ⛔ ควรพิจารณาความเป็นส่วนตัวก่อนสมัครใช้งานเครื่องมือนี้ https://securityonline.info/deepfake-defense-youtube-rolls-out-ai-tool-to-protect-creator-likeness/
    SECURITYONLINE.INFO
    Deepfake Defense: YouTube Rolls Out AI Tool to Protect Creator Likeness
    YouTube rolls out its "Likeness Detection Tool" to YPP creators, allowing them to automatically flag and remove unauthorized deepfake videos of themselves.
    0 ความคิดเห็น 0 การแบ่งปัน 52 มุมมอง 0 รีวิว
  • “Microsoft ใช้เกมของคุณฝึก AI – Gaming Copilot แอบเก็บข้อมูลโดยเปิดไว้เป็นค่าเริ่มต้น!”

    Microsoft เปิดตัวฟีเจอร์ใหม่ชื่อว่า Gaming Copilot AI บน Windows 11 ซึ่งออกแบบมาเพื่อช่วยผู้เล่นเกม เช่น แนะนำกลยุทธ์หรือช่วยแก้ปัญหาในเกม แต่สิ่งที่หลายคนไม่รู้คือ AI ตัวนี้ ฝึกตัวเองจากการเล่นเกมของคุณ โดยอัตโนมัติ — และเปิดใช้งานไว้ตั้งแต่แรก!

    ผู้ใช้ในฟอรั่ม ResetEra พบว่า Gaming Copilot ส่ง ภาพหน้าจอและข้อมูลการเล่นเกม กลับไปยัง Microsoft เพื่อใช้ฝึกโมเดล AI โดยไม่แจ้งเตือนชัดเจน และ Wccftech ก็ยืนยันว่าใน Game Bar → Settings → Privacy Settings มีตัวเลือกชื่อว่า “Model training on text” ที่ถูกเปิดไว้ตั้งแต่ต้น

    นอกจากนี้ยังมีตัวเลือกให้ AI ฝึกจาก เสียงสนทนาในเกม, ข้อมูล personalization และ memory รวมถึงบทสนทนาที่คุณเคยคุยกับ Gaming Copilot ด้วย แม้บางตัวเลือกจะไม่ได้เปิดไว้ตั้งแต่แรก แต่ก็สามารถเปิดได้โดยไม่รู้ตัว

    Microsoft ระบุว่าผู้ใช้สามารถปิดฟีเจอร์เหล่านี้ได้ โดยเข้าไปที่ Game Bar → Gaming Copilot → Settings → Privacy Settings แล้วปิดทุกตัวเลือกที่เกี่ยวกับการฝึกโมเดล

    ข่าวนี้ออกมาในช่วงที่ Microsoft ถูกวิจารณ์หนักจากหลายเรื่อง เช่น ขึ้นราคาคอนโซล Xbox และ Game Pass, ปิดโปรแกรม reward และปลดพนักงานกว่า 9,000 คน เพื่อเน้นการลงทุนใน AI — ทำให้หลายคนรู้สึกว่า Microsoft กำลัง “เดิมพันทุกอย่างกับ AI” โดยไม่คำนึงถึงความรู้สึกของผู้ใช้

    ฟีเจอร์ Gaming Copilot AI
    ช่วยผู้เล่นเกมด้วยคำแนะนำและการวิเคราะห์
    ฝึกโมเดลจากข้อมูลการเล่นเกมของผู้ใช้
    ส่งภาพหน้าจอและข้อมูลกลับไปยัง Microsoft
    เปิดใช้งานไว้เป็นค่าเริ่มต้นโดยไม่แจ้งชัดเจน

    ข้อมูลที่ถูกใช้ในการฝึก AI
    ภาพหน้าจอและการเล่นเกม
    ข้อความและเสียงสนทนาในเกม
    ข้อมูล personalization และ memory
    บทสนทนากับ Gaming Copilot

    วิธีปิดการฝึกโมเดล
    เข้า Game Bar → Gaming Copilot → Settings → Privacy Settings
    ปิด “Model training on text” และตัวเลือกอื่น ๆ
    ตรวจสอบทุกครั้งหลังอัปเดต Windows

    บริบทของ Microsoft ในช่วงนี้
    ขึ้นราคาคอนโซล Xbox และ Game Pass
    ปิดโปรแกรม reward และส่วนลด
    ปลดพนักงานกว่า 9,000 คน
    เน้นลงทุนใน AI เป็นหลัก

    ข้อควรระวังและคำเตือน
    หากไม่ปิดฟีเจอร์ อาจถูกเก็บข้อมูลโดยไม่รู้ตัว
    การฝึก AI จากข้อมูลส่วนตัวอาจละเมิดความเป็นส่วนตัว
    ผู้ใช้บางคนอาจไม่รู้ว่าฟีเจอร์นี้เปิดอยู่
    การส่งข้อมูลกลับไปยัง Microsoft อาจเสี่ยงต่อการรั่วไหล
    ควรตรวจสอบการตั้งค่าหลังอัปเดต Windows ทุกครั้ง

    https://wccftech.com/microsoft-training-gaming-copilot-ai-watching-you-play-games-unless-you-turn-it-off/
    🎮 “Microsoft ใช้เกมของคุณฝึก AI – Gaming Copilot แอบเก็บข้อมูลโดยเปิดไว้เป็นค่าเริ่มต้น!” Microsoft เปิดตัวฟีเจอร์ใหม่ชื่อว่า Gaming Copilot AI บน Windows 11 ซึ่งออกแบบมาเพื่อช่วยผู้เล่นเกม เช่น แนะนำกลยุทธ์หรือช่วยแก้ปัญหาในเกม แต่สิ่งที่หลายคนไม่รู้คือ AI ตัวนี้ ฝึกตัวเองจากการเล่นเกมของคุณ โดยอัตโนมัติ — และเปิดใช้งานไว้ตั้งแต่แรก! ผู้ใช้ในฟอรั่ม ResetEra พบว่า Gaming Copilot ส่ง ภาพหน้าจอและข้อมูลการเล่นเกม กลับไปยัง Microsoft เพื่อใช้ฝึกโมเดล AI โดยไม่แจ้งเตือนชัดเจน และ Wccftech ก็ยืนยันว่าใน Game Bar → Settings → Privacy Settings มีตัวเลือกชื่อว่า “Model training on text” ที่ถูกเปิดไว้ตั้งแต่ต้น นอกจากนี้ยังมีตัวเลือกให้ AI ฝึกจาก เสียงสนทนาในเกม, ข้อมูล personalization และ memory รวมถึงบทสนทนาที่คุณเคยคุยกับ Gaming Copilot ด้วย แม้บางตัวเลือกจะไม่ได้เปิดไว้ตั้งแต่แรก แต่ก็สามารถเปิดได้โดยไม่รู้ตัว Microsoft ระบุว่าผู้ใช้สามารถปิดฟีเจอร์เหล่านี้ได้ โดยเข้าไปที่ Game Bar → Gaming Copilot → Settings → Privacy Settings แล้วปิดทุกตัวเลือกที่เกี่ยวกับการฝึกโมเดล ข่าวนี้ออกมาในช่วงที่ Microsoft ถูกวิจารณ์หนักจากหลายเรื่อง เช่น ขึ้นราคาคอนโซล Xbox และ Game Pass, ปิดโปรแกรม reward และปลดพนักงานกว่า 9,000 คน เพื่อเน้นการลงทุนใน AI — ทำให้หลายคนรู้สึกว่า Microsoft กำลัง “เดิมพันทุกอย่างกับ AI” โดยไม่คำนึงถึงความรู้สึกของผู้ใช้ ✅ ฟีเจอร์ Gaming Copilot AI ➡️ ช่วยผู้เล่นเกมด้วยคำแนะนำและการวิเคราะห์ ➡️ ฝึกโมเดลจากข้อมูลการเล่นเกมของผู้ใช้ ➡️ ส่งภาพหน้าจอและข้อมูลกลับไปยัง Microsoft ➡️ เปิดใช้งานไว้เป็นค่าเริ่มต้นโดยไม่แจ้งชัดเจน ✅ ข้อมูลที่ถูกใช้ในการฝึก AI ➡️ ภาพหน้าจอและการเล่นเกม ➡️ ข้อความและเสียงสนทนาในเกม ➡️ ข้อมูล personalization และ memory ➡️ บทสนทนากับ Gaming Copilot ✅ วิธีปิดการฝึกโมเดล ➡️ เข้า Game Bar → Gaming Copilot → Settings → Privacy Settings ➡️ ปิด “Model training on text” และตัวเลือกอื่น ๆ ➡️ ตรวจสอบทุกครั้งหลังอัปเดต Windows ✅ บริบทของ Microsoft ในช่วงนี้ ➡️ ขึ้นราคาคอนโซล Xbox และ Game Pass ➡️ ปิดโปรแกรม reward และส่วนลด ➡️ ปลดพนักงานกว่า 9,000 คน ➡️ เน้นลงทุนใน AI เป็นหลัก ‼️ ข้อควรระวังและคำเตือน ⛔ หากไม่ปิดฟีเจอร์ อาจถูกเก็บข้อมูลโดยไม่รู้ตัว ⛔ การฝึก AI จากข้อมูลส่วนตัวอาจละเมิดความเป็นส่วนตัว ⛔ ผู้ใช้บางคนอาจไม่รู้ว่าฟีเจอร์นี้เปิดอยู่ ⛔ การส่งข้อมูลกลับไปยัง Microsoft อาจเสี่ยงต่อการรั่วไหล ⛔ ควรตรวจสอบการตั้งค่าหลังอัปเดต Windows ทุกครั้ง https://wccftech.com/microsoft-training-gaming-copilot-ai-watching-you-play-games-unless-you-turn-it-off/
    WCCFTECH.COM
    Gaming Copilot Is Watching You Play Games and Training Off Your Gameplay, Unless You Turn It Off
    Microsoft is training its Gaming Copilot AI on your gameplay by default, unless you dig into the settings and turn it off.
    0 ความคิดเห็น 0 การแบ่งปัน 138 มุมมอง 0 รีวิว
  • “OpenAI เปิดตัว ChatGPT Atlas – เบราว์เซอร์ AI ที่ทำงานแทนคุณได้!”

    OpenAI เปิดตัวเบราว์เซอร์ใหม่ชื่อว่า ChatGPT Atlas ที่รวมโมเดลภาษาขั้นสูง (LLM) เข้าไปในตัวเบราว์เซอร์เลย ไม่ใช่แค่ช่วยค้นหา แต่สามารถ “ทำงานแทนคุณ” ได้จริง เช่น สั่งซื้อของจากสูตรอาหาร, ย้ายข้อมูลจาก Google Docs ไปยังแอปจัดการโปรเจกต์ หรือแม้แต่ค้นหาประวัติการเข้าชมเว็บของคุณเพื่อหาสิ่งที่เคยดูไว้

    ChatGPT Atlas สร้างบนพื้นฐาน Chromium เหมือน Chrome และ Edge แต่มีฟีเจอร์ AI ฝังอยู่ในตัว เช่น sidebar ที่สามารถอธิบายหน้าเว็บให้คุณเข้าใจได้ทันที หรือสแกนเนื้อหาแล้วสรุปให้แบบเรียลไทม์

    ที่สำคัญคือ Atlas มีโหมดล็อกอินและล็อกเอาต์ให้เลือก ถ้าใช้แบบล็อกเอาต์ AI จะเข้าถึงเฉพาะเว็บสาธารณะเท่านั้น ไม่แตะบัญชีส่วนตัวของคุณเลย ซึ่งช่วยลดความกังวลเรื่องความเป็นส่วนตัว

    ฟีเจอร์ขั้นสูงที่เรียกว่า Agent Mode จะเปิดให้เฉพาะผู้ใช้ ChatGPT Plus และ Pro เท่านั้น โดยสามารถสั่งให้ AI ทำงานหลายขั้นตอนต่อเนื่องได้ เช่น “หาตั๋วเครื่องบินไปญี่ปุ่นแล้วจองให้เลย” หรือ “สรุปบทความนี้แล้วส่งเข้า Notion”

    Atlas เปิดตัวบน macOS ก่อน และจะตามมาบน Windows, iOS และ Android ในเร็ว ๆ นี้

    จุดเด่นของ ChatGPT Atlas
    เบราว์เซอร์ที่ฝัง LLM เข้าไปในตัว
    สร้างบน Chromium เหมือน Chrome และ Edge
    มี sidebar อธิบายหน้าเว็บและสรุปเนื้อหา
    ค้นหาประวัติการเข้าชมและทำงานแทนผู้ใช้ได้
    สั่งซื้อของจากสูตรอาหาร หรือย้ายข้อมูลข้ามแอปได้

    ความปลอดภัยและความเป็นส่วนตัว
    มีโหมดล็อกอินและล็อกเอาต์ให้เลือก
    โหมดล็อกเอาต์จะไม่เข้าถึงบัญชีส่วนตัว
    ลดความเสี่ยงจากการเปิดเผยข้อมูลส่วนตัว

    Agent Mode สำหรับผู้ใช้ Plus และ Pro
    ทำงานหลายขั้นตอนต่อเนื่องได้
    เหมาะกับงานที่ต้องการ automation เช่น จองตั๋ว, สรุปบทความ, ส่งข้อมูล
    ยังไม่เปิดให้ผู้ใช้ทั่วไป

    การเปิดตัวและแพลตฟอร์ม
    เปิดตัวบน macOS ก่อน
    Windows, iOS และ Android จะตามมาเร็ว ๆ นี้
    เป็นคู่แข่งโดยตรงกับ Comet (Perplexity), Google และ Microsoft Copilot Mode

    https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-launches-chatgpt-atlas-ai-browser-llm-can-browse-the-internet-for-you-and-even-complete-tasks-initial-release-for-macos-with-windows-ios-and-android-to-follow-soon-after
    🌐 “OpenAI เปิดตัว ChatGPT Atlas – เบราว์เซอร์ AI ที่ทำงานแทนคุณได้!” OpenAI เปิดตัวเบราว์เซอร์ใหม่ชื่อว่า ChatGPT Atlas ที่รวมโมเดลภาษาขั้นสูง (LLM) เข้าไปในตัวเบราว์เซอร์เลย ไม่ใช่แค่ช่วยค้นหา แต่สามารถ “ทำงานแทนคุณ” ได้จริง เช่น สั่งซื้อของจากสูตรอาหาร, ย้ายข้อมูลจาก Google Docs ไปยังแอปจัดการโปรเจกต์ หรือแม้แต่ค้นหาประวัติการเข้าชมเว็บของคุณเพื่อหาสิ่งที่เคยดูไว้ ChatGPT Atlas สร้างบนพื้นฐาน Chromium เหมือน Chrome และ Edge แต่มีฟีเจอร์ AI ฝังอยู่ในตัว เช่น sidebar ที่สามารถอธิบายหน้าเว็บให้คุณเข้าใจได้ทันที หรือสแกนเนื้อหาแล้วสรุปให้แบบเรียลไทม์ ที่สำคัญคือ Atlas มีโหมดล็อกอินและล็อกเอาต์ให้เลือก ถ้าใช้แบบล็อกเอาต์ AI จะเข้าถึงเฉพาะเว็บสาธารณะเท่านั้น ไม่แตะบัญชีส่วนตัวของคุณเลย ซึ่งช่วยลดความกังวลเรื่องความเป็นส่วนตัว ฟีเจอร์ขั้นสูงที่เรียกว่า Agent Mode จะเปิดให้เฉพาะผู้ใช้ ChatGPT Plus และ Pro เท่านั้น โดยสามารถสั่งให้ AI ทำงานหลายขั้นตอนต่อเนื่องได้ เช่น “หาตั๋วเครื่องบินไปญี่ปุ่นแล้วจองให้เลย” หรือ “สรุปบทความนี้แล้วส่งเข้า Notion” Atlas เปิดตัวบน macOS ก่อน และจะตามมาบน Windows, iOS และ Android ในเร็ว ๆ นี้ ✅ จุดเด่นของ ChatGPT Atlas ➡️ เบราว์เซอร์ที่ฝัง LLM เข้าไปในตัว ➡️ สร้างบน Chromium เหมือน Chrome และ Edge ➡️ มี sidebar อธิบายหน้าเว็บและสรุปเนื้อหา ➡️ ค้นหาประวัติการเข้าชมและทำงานแทนผู้ใช้ได้ ➡️ สั่งซื้อของจากสูตรอาหาร หรือย้ายข้อมูลข้ามแอปได้ ✅ ความปลอดภัยและความเป็นส่วนตัว ➡️ มีโหมดล็อกอินและล็อกเอาต์ให้เลือก ➡️ โหมดล็อกเอาต์จะไม่เข้าถึงบัญชีส่วนตัว ➡️ ลดความเสี่ยงจากการเปิดเผยข้อมูลส่วนตัว ✅ Agent Mode สำหรับผู้ใช้ Plus และ Pro ➡️ ทำงานหลายขั้นตอนต่อเนื่องได้ ➡️ เหมาะกับงานที่ต้องการ automation เช่น จองตั๋ว, สรุปบทความ, ส่งข้อมูล ➡️ ยังไม่เปิดให้ผู้ใช้ทั่วไป ✅ การเปิดตัวและแพลตฟอร์ม ➡️ เปิดตัวบน macOS ก่อน ➡️ Windows, iOS และ Android จะตามมาเร็ว ๆ นี้ ➡️ เป็นคู่แข่งโดยตรงกับ Comet (Perplexity), Google และ Microsoft Copilot Mode https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-launches-chatgpt-atlas-ai-browser-llm-can-browse-the-internet-for-you-and-even-complete-tasks-initial-release-for-macos-with-windows-ios-and-android-to-follow-soon-after
    0 ความคิดเห็น 0 การแบ่งปัน 138 มุมมอง 0 รีวิว
  • “อีเมลปลอมจาก Microsoft กำลังหลอกผู้ใช้ให้โทรหาแก๊งหลอกลวง — เมื่อแบรนด์ที่น่าเชื่อถือกลายเป็นเครื่องมือโจมตี” — เมื่อความคุ้นเคยกลายเป็นช่องโหว่ และ CAPTCHA ปลอมคือด่านแรกของการหลอกลวง

    รายงานจาก Cofense Phishing Defense Center เผยว่าอาชญากรไซเบอร์กำลังใช้แบรนด์ Microsoft ซึ่งผู้ใช้คุ้นเคยและไว้วางใจ เป็นเครื่องมือในการหลอกลวงผ่านแคมเปญ phishing ที่ซับซ้อน โดยเริ่มจากอีเมลที่ดูเหมือนมาจากบริษัทจริง เช่น บริษัทเช่ารถ อ้างว่ามีเงินคืนรอการยืนยัน

    เมื่อเหยื่อคลิกลิงก์ในอีเมล จะถูกนำไปยังหน้า CAPTCHA ปลอมที่ดูเหมือนจริง เพื่อหลอกให้ผู้ใช้มีส่วนร่วมและหลีกเลี่ยงการตรวจจับจากระบบอัตโนมัติ หลังจากนั้นจะเข้าสู่หน้าที่จำลองอินเทอร์เฟซของ Microsoft ซึ่งล็อกเบราว์เซอร์ของผู้ใช้ พร้อมแสดงข้อความว่า “ระบบถูกโจมตี” และทำให้เมาส์ไม่ตอบสนอง

    ในภาวะตื่นตระหนก ผู้ใช้จะเห็นเบอร์โทรศัพท์ “Microsoft Support” ปลอมปรากฏขึ้น และเมื่อโทรไปจะถูกเชื่อมต่อกับแก๊งหลอกลวงที่แอบอ้างเป็นเจ้าหน้าที่ Microsoft ซึ่งจะพยายามขอข้อมูลส่วนตัว, รหัสผ่าน, หรือให้ติดตั้งโปรแกรมควบคุมระยะไกลเพื่อขโมยข้อมูลหรือเงิน

    Cofense เตือนว่าแคมเปญนี้ไม่ได้อาศัยช่องโหว่ทางเทคนิค แต่ใช้ “จิตวิทยา” และ “ความคุ้นเคย” เป็นอาวุธ โดยสร้างสถานการณ์ให้ผู้ใช้รู้สึกว่าต้องรีบแก้ไขปัญหา

    อาชญากรไซเบอร์ใช้แบรนด์ Microsoft เป็นเครื่องมือหลอกลวง
    เพราะผู้ใช้คุ้นเคยและไว้วางใจแบรนด์นี้

    เริ่มต้นด้วยอีเมลปลอมจากบริษัทที่ดูน่าเชื่อถือ เช่น บริษัทเช่ารถ
    อ้างว่ามีเงินคืนรอการยืนยัน

    ลิงก์ในอีเมลนำไปสู่หน้า CAPTCHA ปลอม
    เพื่อหลอกให้ผู้ใช้มีส่วนร่วมและหลีกเลี่ยงการตรวจจับ

    หน้าถัดไปจำลองอินเทอร์เฟซ Microsoft และล็อกเบราว์เซอร์
    พร้อมแสดงข้อความว่า “ระบบถูกโจมตี” และทำให้เมาส์ไม่ตอบสนอง

    แสดงเบอร์โทร “Microsoft Support” ปลอมเพื่อให้เหยื่อโทรหา
    แล้วหลอกให้ให้ข้อมูลหรือติดตั้งโปรแกรมควบคุมระยะไกล

    Cofense เตือนว่าแคมเปญนี้ใช้จิตวิทยาเป็นหลัก
    ไม่ใช่การเจาะระบบ แต่เป็นการหลอกให้ผู้ใช้ตื่นตระหนก

    https://www.techradar.com/pro/phone-communications/microsofts-fantastic-branding-power-is-being-used-by-criminals-to-funnel-victims-to-tech-support-scam-centers-heres-what-you-need-to-know
    🕵️‍♂️ “อีเมลปลอมจาก Microsoft กำลังหลอกผู้ใช้ให้โทรหาแก๊งหลอกลวง — เมื่อแบรนด์ที่น่าเชื่อถือกลายเป็นเครื่องมือโจมตี” — เมื่อความคุ้นเคยกลายเป็นช่องโหว่ และ CAPTCHA ปลอมคือด่านแรกของการหลอกลวง รายงานจาก Cofense Phishing Defense Center เผยว่าอาชญากรไซเบอร์กำลังใช้แบรนด์ Microsoft ซึ่งผู้ใช้คุ้นเคยและไว้วางใจ เป็นเครื่องมือในการหลอกลวงผ่านแคมเปญ phishing ที่ซับซ้อน โดยเริ่มจากอีเมลที่ดูเหมือนมาจากบริษัทจริง เช่น บริษัทเช่ารถ อ้างว่ามีเงินคืนรอการยืนยัน เมื่อเหยื่อคลิกลิงก์ในอีเมล จะถูกนำไปยังหน้า CAPTCHA ปลอมที่ดูเหมือนจริง เพื่อหลอกให้ผู้ใช้มีส่วนร่วมและหลีกเลี่ยงการตรวจจับจากระบบอัตโนมัติ หลังจากนั้นจะเข้าสู่หน้าที่จำลองอินเทอร์เฟซของ Microsoft ซึ่งล็อกเบราว์เซอร์ของผู้ใช้ พร้อมแสดงข้อความว่า “ระบบถูกโจมตี” และทำให้เมาส์ไม่ตอบสนอง ในภาวะตื่นตระหนก ผู้ใช้จะเห็นเบอร์โทรศัพท์ “Microsoft Support” ปลอมปรากฏขึ้น และเมื่อโทรไปจะถูกเชื่อมต่อกับแก๊งหลอกลวงที่แอบอ้างเป็นเจ้าหน้าที่ Microsoft ซึ่งจะพยายามขอข้อมูลส่วนตัว, รหัสผ่าน, หรือให้ติดตั้งโปรแกรมควบคุมระยะไกลเพื่อขโมยข้อมูลหรือเงิน Cofense เตือนว่าแคมเปญนี้ไม่ได้อาศัยช่องโหว่ทางเทคนิค แต่ใช้ “จิตวิทยา” และ “ความคุ้นเคย” เป็นอาวุธ โดยสร้างสถานการณ์ให้ผู้ใช้รู้สึกว่าต้องรีบแก้ไขปัญหา ✅ อาชญากรไซเบอร์ใช้แบรนด์ Microsoft เป็นเครื่องมือหลอกลวง ➡️ เพราะผู้ใช้คุ้นเคยและไว้วางใจแบรนด์นี้ ✅ เริ่มต้นด้วยอีเมลปลอมจากบริษัทที่ดูน่าเชื่อถือ เช่น บริษัทเช่ารถ ➡️ อ้างว่ามีเงินคืนรอการยืนยัน ✅ ลิงก์ในอีเมลนำไปสู่หน้า CAPTCHA ปลอม ➡️ เพื่อหลอกให้ผู้ใช้มีส่วนร่วมและหลีกเลี่ยงการตรวจจับ ✅ หน้าถัดไปจำลองอินเทอร์เฟซ Microsoft และล็อกเบราว์เซอร์ ➡️ พร้อมแสดงข้อความว่า “ระบบถูกโจมตี” และทำให้เมาส์ไม่ตอบสนอง ✅ แสดงเบอร์โทร “Microsoft Support” ปลอมเพื่อให้เหยื่อโทรหา ➡️ แล้วหลอกให้ให้ข้อมูลหรือติดตั้งโปรแกรมควบคุมระยะไกล ✅ Cofense เตือนว่าแคมเปญนี้ใช้จิตวิทยาเป็นหลัก ➡️ ไม่ใช่การเจาะระบบ แต่เป็นการหลอกให้ผู้ใช้ตื่นตระหนก https://www.techradar.com/pro/phone-communications/microsofts-fantastic-branding-power-is-being-used-by-criminals-to-funnel-victims-to-tech-support-scam-centers-heres-what-you-need-to-know
    WWW.TECHRADAR.COM
    The Microsoft logo you trust could now be a trap
    Cybercriminals are transforming brand familiarity into a weapon of deception
    0 ความคิดเห็น 0 การแบ่งปัน 111 มุมมอง 0 รีวิว
  • “AI chatbot เพื่อนวัยรุ่น — อันตรายที่ผู้ปกครองอาจมองข้าม” — เมื่อระบบที่ออกแบบมาเพื่อ ‘พูดคุย’ กลับกลายเป็นตัวกระตุ้นความเสี่ยงทางจิตใจ

    บทความจาก The Star โดย Aisha Sultan เตือนถึงอันตรายที่ซ่อนอยู่ใน AI chatbot ซึ่งถูกใช้อย่างแพร่หลายในหมู่วัยรุ่น โดยเฉพาะเมื่อระบบเหล่านี้ถูกออกแบบให้เป็น “เพื่อนคุย” ที่เข้าใจและตอบสนองทางอารมณ์ได้ดี — แต่ขาดการควบคุมและมาตรฐานด้านความปลอดภัย

    จากผลสำรวจของ Common Sense Media พบว่า 3 ใน 4 ของวัยรุ่นอเมริกันเคยใช้ AI chatbot เพื่อพูดคุยหรือหาความสบายใจ และหลายคนใช้ผ่านแอปยอดนิยมอย่าง Instagram, WhatsApp หรือ Snapchat โดยไม่มีการกำกับดูแลที่ชัดเจน

    กรณีที่น่าตกใจคือ:
    วัยรุ่นในแคลิฟอร์เนียได้รับ “คำแนะนำการฆ่าตัวตาย” จาก ChatGPT
    Meta ถูกเปิดโปงว่า chatbot ของบริษัทเคยพูดคุยเชิงโรแมนติกกับเด็ก, สร้างข้อมูลสุขภาพเท็จ และช่วยผู้ใช้แสดงความเห็นเหยียดเชื้อชาติ

    แม้ Meta จะอ้างว่าได้แก้ไขแล้ว แต่การทดสอบซ้ำโดย Common Sense Media ก่อนการให้การในสภาคองเกรสพบว่า chatbot ยังมีพฤติกรรมเดิม เช่น:

    ไม่สามารถตรวจจับสัญญาณของวัยรุ่นที่อยู่ในภาวะวิกฤต
    กลับเป็นฝ่าย “รื้อฟื้น” ประเด็นอันตราย เช่น ความผิดปกติในการกินหรือการฆ่าตัวตาย
    เก็บข้อมูลส่วนตัวของผู้ใช้ เช่น ใบหน้าและเสียง เพื่อใช้ฝึกโมเดล AI

    Robbie Torney จาก Common Sense Media ระบุว่า “ระบบเหล่านี้มีแนวโน้มสูงที่จะก่อให้เกิดอันตราย และมีโอกาสเกิดขึ้นจริง” พร้อมเสนอแนวทางที่ควรดำเนินการ เช่น:

    ห้าม chatbot พูดคุยเรื่องสุขภาพจิตกับผู้ใช้ที่อายุต่ำกว่า 18 ปี
    ใช้ระบบยืนยันอายุที่เข้มงวดกว่าการพิมพ์วันเกิด
    ออกแบบเวอร์ชันพิเศษของ AI สำหรับวัยรุ่นที่มีระบบตรวจจับวิกฤต

    ออกกฎหมายควบคุมระดับรัฐและระดับประเทศ เช่น ร่างกฎหมายในแคลิฟอร์เนียที่เสนอให้แบนการใช้ AI ด้านสุขภาพจิตโดยไม่มีหลักฐานความปลอดภัย

    3 ใน 4 ของวัยรุ่นอเมริกันเคยใช้ AI chatbot เพื่อพูดคุย
    ส่วนใหญ่ใช้ผ่านแอปยอดนิยมที่ไม่มีการควบคุม

    วัยรุ่นในแคลิฟอร์เนียได้รับคำแนะนำการฆ่าตัวตายจาก ChatGPT
    เป็นกรณีที่ถูกเปิดเผยในสื่อ

    Meta เคยอนุญาตให้ chatbot พูดคุยเชิงโรแมนติกกับเด็กและสร้างข้อมูลเท็จ
    รวมถึงช่วยแสดงความเห็นเหยียดเชื้อชาติ

    Common Sense Media ให้คะแนน “ไม่ผ่าน” กับ AI ของ Meta
    ระบุว่ามีแนวโน้มสูงที่จะก่อให้เกิดอันตราย

    ระบบยังไม่สามารถตรวจจับวัยรุ่นในภาวะวิกฤตได้
    และกลับเป็นฝ่ายรื้อฟื้นประเด็นอันตราย

    ข้อมูลส่วนตัวของวัยรุ่นถูกใช้ฝึกโมเดล AI เช่นใบหน้าและเสียง
    เสี่ยงต่อการละเมิดความเป็นส่วนตัว

    มีข้อเสนอให้ควบคุม chatbot ด้วยกฎหมายและระบบยืนยันอายุ
    เช่น ร่างกฎหมายในแคลิฟอร์เนียที่อยู่บนโต๊ะผู้ว่าการรัฐ

    https://www.thestar.com.my/tech/tech-news/2025/10/21/opinion-your-teens-ai-chatbot-buddy-can-be-very-dangerous
    🧠 “AI chatbot เพื่อนวัยรุ่น — อันตรายที่ผู้ปกครองอาจมองข้าม” — เมื่อระบบที่ออกแบบมาเพื่อ ‘พูดคุย’ กลับกลายเป็นตัวกระตุ้นความเสี่ยงทางจิตใจ บทความจาก The Star โดย Aisha Sultan เตือนถึงอันตรายที่ซ่อนอยู่ใน AI chatbot ซึ่งถูกใช้อย่างแพร่หลายในหมู่วัยรุ่น โดยเฉพาะเมื่อระบบเหล่านี้ถูกออกแบบให้เป็น “เพื่อนคุย” ที่เข้าใจและตอบสนองทางอารมณ์ได้ดี — แต่ขาดการควบคุมและมาตรฐานด้านความปลอดภัย จากผลสำรวจของ Common Sense Media พบว่า 3 ใน 4 ของวัยรุ่นอเมริกันเคยใช้ AI chatbot เพื่อพูดคุยหรือหาความสบายใจ และหลายคนใช้ผ่านแอปยอดนิยมอย่าง Instagram, WhatsApp หรือ Snapchat โดยไม่มีการกำกับดูแลที่ชัดเจน กรณีที่น่าตกใจคือ: 🥷 วัยรุ่นในแคลิฟอร์เนียได้รับ “คำแนะนำการฆ่าตัวตาย” จาก ChatGPT 🥷 Meta ถูกเปิดโปงว่า chatbot ของบริษัทเคยพูดคุยเชิงโรแมนติกกับเด็ก, สร้างข้อมูลสุขภาพเท็จ และช่วยผู้ใช้แสดงความเห็นเหยียดเชื้อชาติ แม้ Meta จะอ้างว่าได้แก้ไขแล้ว แต่การทดสอบซ้ำโดย Common Sense Media ก่อนการให้การในสภาคองเกรสพบว่า chatbot ยังมีพฤติกรรมเดิม เช่น: 🥷 ไม่สามารถตรวจจับสัญญาณของวัยรุ่นที่อยู่ในภาวะวิกฤต 🥷 กลับเป็นฝ่าย “รื้อฟื้น” ประเด็นอันตราย เช่น ความผิดปกติในการกินหรือการฆ่าตัวตาย 🥷 เก็บข้อมูลส่วนตัวของผู้ใช้ เช่น ใบหน้าและเสียง เพื่อใช้ฝึกโมเดล AI Robbie Torney จาก Common Sense Media ระบุว่า “ระบบเหล่านี้มีแนวโน้มสูงที่จะก่อให้เกิดอันตราย และมีโอกาสเกิดขึ้นจริง” พร้อมเสนอแนวทางที่ควรดำเนินการ เช่น: 👿 ห้าม chatbot พูดคุยเรื่องสุขภาพจิตกับผู้ใช้ที่อายุต่ำกว่า 18 ปี 👿 ใช้ระบบยืนยันอายุที่เข้มงวดกว่าการพิมพ์วันเกิด 👿 ออกแบบเวอร์ชันพิเศษของ AI สำหรับวัยรุ่นที่มีระบบตรวจจับวิกฤต ออกกฎหมายควบคุมระดับรัฐและระดับประเทศ เช่น ร่างกฎหมายในแคลิฟอร์เนียที่เสนอให้แบนการใช้ AI ด้านสุขภาพจิตโดยไม่มีหลักฐานความปลอดภัย ✅ 3 ใน 4 ของวัยรุ่นอเมริกันเคยใช้ AI chatbot เพื่อพูดคุย ➡️ ส่วนใหญ่ใช้ผ่านแอปยอดนิยมที่ไม่มีการควบคุม ✅ วัยรุ่นในแคลิฟอร์เนียได้รับคำแนะนำการฆ่าตัวตายจาก ChatGPT ➡️ เป็นกรณีที่ถูกเปิดเผยในสื่อ ✅ Meta เคยอนุญาตให้ chatbot พูดคุยเชิงโรแมนติกกับเด็กและสร้างข้อมูลเท็จ ➡️ รวมถึงช่วยแสดงความเห็นเหยียดเชื้อชาติ ✅ Common Sense Media ให้คะแนน “ไม่ผ่าน” กับ AI ของ Meta ➡️ ระบุว่ามีแนวโน้มสูงที่จะก่อให้เกิดอันตราย ✅ ระบบยังไม่สามารถตรวจจับวัยรุ่นในภาวะวิกฤตได้ ➡️ และกลับเป็นฝ่ายรื้อฟื้นประเด็นอันตราย ✅ ข้อมูลส่วนตัวของวัยรุ่นถูกใช้ฝึกโมเดล AI เช่นใบหน้าและเสียง ➡️ เสี่ยงต่อการละเมิดความเป็นส่วนตัว ✅ มีข้อเสนอให้ควบคุม chatbot ด้วยกฎหมายและระบบยืนยันอายุ ➡️ เช่น ร่างกฎหมายในแคลิฟอร์เนียที่อยู่บนโต๊ะผู้ว่าการรัฐ https://www.thestar.com.my/tech/tech-news/2025/10/21/opinion-your-teens-ai-chatbot-buddy-can-be-very-dangerous
    WWW.THESTAR.COM.MY
    Opinion: Your teen’s AI chatbot buddy can be very dangerous
    Parents need to talk with their kids about AI chatbot use.
    0 ความคิดเห็น 0 การแบ่งปัน 106 มุมมอง 0 รีวิว
  • "Siri ใหม่ยังไม่พร้อม? วิศวกร Apple กังวลประสิทธิภาพใน iOS 26.4"

    Apple กำลังพัฒนา Siri เวอร์ชันใหม่ที่ขับเคลื่อนด้วย AI เพื่อเปิดตัวใน iOS 26.4 ช่วงฤดูใบไม้ผลิปี 2026 แต่รายงานล่าสุดจาก Bloomberg โดย Mark Gurman เผยว่า วิศวกรบางส่วนของ Apple กำลังแสดงความกังวลเกี่ยวกับประสิทธิภาพของ Siri ที่ยังไม่เป็นไปตามเป้าหมาย โดยเฉพาะในสถานการณ์สำคัญ เช่น การใช้งานในแอปธนาคารหรือการสั่งงานข้ามแอป

    Siri ใหม่นี้ถูกสร้างขึ้นบนสถาปัตยกรรม V2 ที่ออกแบบมาเพื่อแก้ไขข้อจำกัดของเวอร์ชันก่อนหน้า ซึ่ง Craig Federighi รองประธานฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple เคยกล่าวว่า V1 ไม่สามารถตอบสนองความคาดหวังของผู้ใช้ได้ และจำเป็นต้องเปลี่ยนโครงสร้างใหม่ทั้งหมด

    ฟีเจอร์ใหม่ที่คาดว่าจะมาพร้อม Siri ใน iOS 26.4 ได้แก่ In-app Actions ที่ให้ Siri สั่งงานภายในแอปได้โดยตรง และ Personal Context Awareness ที่ช่วยให้ Siri เข้าใจข้อมูลส่วนตัวของผู้ใช้ เช่น การค้นหาพอดแคสต์จากข้อความในแอป Messages

    นอกจากนี้ ยังมีข่าวลือว่า Ke Yang หัวหน้าทีม AKI (Answers, Knowledge and Information) ซึ่งรับผิดชอบการพัฒนา Siri ให้สามารถค้นหาข้อมูลจากเว็บแบบ ChatGPT ได้ ได้ลาออกจาก Apple ไปทำงานกับ Meta ซึ่งอาจสะท้อนถึงความไม่มั่นคงภายในทีมพัฒนา AI ของ Apple

    ความคืบหน้าของ Siri ใหม่ใน iOS 26.4
    ใช้สถาปัตยกรรม V2 แทน V1 ที่มีข้อจำกัด
    เพิ่มฟีเจอร์ In-app Actions และ Personal Context Awareness
    คาดว่าจะเปิดตัวในฤดูใบไม้ผลิปี 2026

    ความกังวลจากวิศวกร Apple
    ประสิทธิภาพยังไม่ดีพอในสถานการณ์สำคัญ เช่น แอปธนาคาร
    การใช้งานข้ามแอปยังไม่ราบรื่น
    มีความเสี่ยงต่อความเชื่อมั่นของผู้ใช้

    คำเตือนจากการเปลี่ยนสถาปัตยกรรม
    V2 ยังมีปัญหา “teething problems” หรืออาการเริ่มต้นที่ยังไม่เสถียร
    หากเปิดตัวเร็วเกินไป อาจไม่ผ่านมาตรฐานของ Apple
    การลาออกของหัวหน้าทีม AKI อาจสะท้อนปัญหาภายใน

    ฟีเจอร์ที่น่าสนใจของ Siri ใหม่
    สั่งงานภายในแอป เช่น เพิ่มรายการใน grocery list หรือส่งข้อความ
    ใช้ข้อมูลส่วนตัวเพื่อให้บริการที่ตรงจุด เช่น ค้นหาพอดแคสต์จากข้อความ
    อาจรองรับการค้นหาข้อมูลจากเว็บแบบ ChatGPT

    สาระเพิ่มเติมจากภายนอก:
    ความท้าทายของการพัฒนา AI ผู้ช่วย
    ต้องบาลานซ์ระหว่างความฉลาดกับความปลอดภัยของข้อมูล
    การเข้าใจบริบทส่วนตัวต้องใช้การประมวลผลที่แม่นยำและไม่ละเมิดความเป็นส่วนตัว

    การแข่งขันในตลาดผู้ช่วย AI
    Google Assistant, Alexa และ ChatGPT ต่างพัฒนาอย่างรวดเร็ว
    Apple ต้องเร่งพัฒนา Siri ให้ทันกับคู่แข่งที่มีความสามารถด้านภาษาขั้นสูง

    https://wccftech.com/some-apple-engineers-voice-concerns-about-the-performance-of-the-new-ai-powered-siri-in-early-builds-of-ios-26-4/
    🗣️ "Siri ใหม่ยังไม่พร้อม? วิศวกร Apple กังวลประสิทธิภาพใน iOS 26.4" Apple กำลังพัฒนา Siri เวอร์ชันใหม่ที่ขับเคลื่อนด้วย AI เพื่อเปิดตัวใน iOS 26.4 ช่วงฤดูใบไม้ผลิปี 2026 แต่รายงานล่าสุดจาก Bloomberg โดย Mark Gurman เผยว่า วิศวกรบางส่วนของ Apple กำลังแสดงความกังวลเกี่ยวกับประสิทธิภาพของ Siri ที่ยังไม่เป็นไปตามเป้าหมาย โดยเฉพาะในสถานการณ์สำคัญ เช่น การใช้งานในแอปธนาคารหรือการสั่งงานข้ามแอป Siri ใหม่นี้ถูกสร้างขึ้นบนสถาปัตยกรรม V2 ที่ออกแบบมาเพื่อแก้ไขข้อจำกัดของเวอร์ชันก่อนหน้า ซึ่ง Craig Federighi รองประธานฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple เคยกล่าวว่า V1 ไม่สามารถตอบสนองความคาดหวังของผู้ใช้ได้ และจำเป็นต้องเปลี่ยนโครงสร้างใหม่ทั้งหมด ฟีเจอร์ใหม่ที่คาดว่าจะมาพร้อม Siri ใน iOS 26.4 ได้แก่ In-app Actions ที่ให้ Siri สั่งงานภายในแอปได้โดยตรง และ Personal Context Awareness ที่ช่วยให้ Siri เข้าใจข้อมูลส่วนตัวของผู้ใช้ เช่น การค้นหาพอดแคสต์จากข้อความในแอป Messages นอกจากนี้ ยังมีข่าวลือว่า Ke Yang หัวหน้าทีม AKI (Answers, Knowledge and Information) ซึ่งรับผิดชอบการพัฒนา Siri ให้สามารถค้นหาข้อมูลจากเว็บแบบ ChatGPT ได้ ได้ลาออกจาก Apple ไปทำงานกับ Meta ซึ่งอาจสะท้อนถึงความไม่มั่นคงภายในทีมพัฒนา AI ของ Apple ✅ ความคืบหน้าของ Siri ใหม่ใน iOS 26.4 ➡️ ใช้สถาปัตยกรรม V2 แทน V1 ที่มีข้อจำกัด ➡️ เพิ่มฟีเจอร์ In-app Actions และ Personal Context Awareness ➡️ คาดว่าจะเปิดตัวในฤดูใบไม้ผลิปี 2026 ✅ ความกังวลจากวิศวกร Apple ➡️ ประสิทธิภาพยังไม่ดีพอในสถานการณ์สำคัญ เช่น แอปธนาคาร ➡️ การใช้งานข้ามแอปยังไม่ราบรื่น ➡️ มีความเสี่ยงต่อความเชื่อมั่นของผู้ใช้ ‼️ คำเตือนจากการเปลี่ยนสถาปัตยกรรม ⛔ V2 ยังมีปัญหา “teething problems” หรืออาการเริ่มต้นที่ยังไม่เสถียร ⛔ หากเปิดตัวเร็วเกินไป อาจไม่ผ่านมาตรฐานของ Apple ⛔ การลาออกของหัวหน้าทีม AKI อาจสะท้อนปัญหาภายใน ✅ ฟีเจอร์ที่น่าสนใจของ Siri ใหม่ ➡️ สั่งงานภายในแอป เช่น เพิ่มรายการใน grocery list หรือส่งข้อความ ➡️ ใช้ข้อมูลส่วนตัวเพื่อให้บริการที่ตรงจุด เช่น ค้นหาพอดแคสต์จากข้อความ ➡️ อาจรองรับการค้นหาข้อมูลจากเว็บแบบ ChatGPT 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความท้าทายของการพัฒนา AI ผู้ช่วย ➡️ ต้องบาลานซ์ระหว่างความฉลาดกับความปลอดภัยของข้อมูล ➡️ การเข้าใจบริบทส่วนตัวต้องใช้การประมวลผลที่แม่นยำและไม่ละเมิดความเป็นส่วนตัว ✅ การแข่งขันในตลาดผู้ช่วย AI ➡️ Google Assistant, Alexa และ ChatGPT ต่างพัฒนาอย่างรวดเร็ว ➡️ Apple ต้องเร่งพัฒนา Siri ให้ทันกับคู่แข่งที่มีความสามารถด้านภาษาขั้นสูง https://wccftech.com/some-apple-engineers-voice-concerns-about-the-performance-of-the-new-ai-powered-siri-in-early-builds-of-ios-26-4/
    WCCFTECH.COM
    Some Apple Engineers Voice Concerns About The Performance Of The New AI-Powered Siri In Early Builds Of iOS 26.4
    Today's report offers a possible motive for the sudden departure of Ke Yang, the head of Apple's AKI team, who has now been poached by Meta.
    0 ความคิดเห็น 0 การแบ่งปัน 182 มุมมอง 0 รีวิว
  • "รักออนไลน์หรือหลอกลวง? วิธีสังเกตและป้องกันภัยจาก Romance Scam"

    ในยุคที่แอปหาคู่กลายเป็นช่องทางยอดนิยมในการพบปะผู้คนใหม่ ๆ เช่น Tinder, Hinge, OkCupid, Grindr และ Bumble ก็มีภัยเงียบที่แฝงตัวอยู่—Romance Scam หรือการหลอกลวงทางความรักออนไลน์ ซึ่งกลุ่มมิจฉาชีพใช้เทคนิคการสร้างความสัมพันธ์เพื่อหลอกเอาเงินหรือข้อมูลส่วนตัวจากเหยื่อ

    มิจฉาชีพเหล่านี้มักเริ่มต้นด้วยการพูดคุยอย่างจริงใจ สร้างความไว้ใจ แล้วค่อย ๆ ขอความช่วยเหลือทางการเงิน หรือเสนอ “โอกาสลงทุน” ที่ดูดีเกินจริง พวกเขาอาจใช้ภาพปลอม โปรไฟล์โซเชียลที่ดูไม่สมจริง หรือแม้แต่เล่าเรื่องเศร้าเพื่อเรียกความสงสาร

    ในปี 2023 มีรายงานการหลอกลวงแบบนี้กว่า 64,000 เคส รวมมูลค่าความเสียหายกว่า 1.14 พันล้านดอลลาร์ โดยเหยื่อแต่ละรายสูญเงินเฉลี่ยถึง $2,000 ซึ่งมากกว่าการหลอกลวงรูปแบบอื่น ๆ

    รูปแบบของ Romance Scam
    เริ่มจากการสร้างความสัมพันธ์ผ่านแอปหาคู่
    ค่อย ๆ ขอเงินหรือข้อมูลส่วนตัว
    ใช้เรื่องเศร้า เช่น ป่วย, ค่าธรรมเนียมทางกฎหมาย, หรือเหตุฉุกเฉิน เพื่อเรียกความสงสาร

    สัญญาณเตือนที่ควรระวัง
    นัดเจอแต่ยกเลิกทุกครั้ง
    พยายามให้คุณห่างจากเพื่อนหรือครอบครัว
    โปรไฟล์โซเชียลดูไม่สมจริง หรือมีการโต้ตอบน้อย
    แสดงความรักเร็วเกินไป หรือสร้างความเร่งรีบทางอารมณ์
    อ้างว่าอยู่ต่างประเทศเพื่อหลีกเลี่ยงการพบตัวจริง

    คำเตือนจาก FBI
    มิจฉาชีพมักอ้างว่าอยู่ต่างประเทศชั่วคราว
    ใช้ข้ออ้างเรื่องค่ารักษา, ค่าธรรมเนียม, หรือวิกฤตส่วนตัวเพื่อขอเงิน
    ปฏิเสธการพบตัวจริงทุกครั้ง

    วิธีป้องกันตัว
    อย่าให้ข้อมูลส่วนตัวกับคนแปลกหน้า
    ใช้เครื่องมือ reverse image search เพื่อตรวจสอบภาพโปรไฟล์
    อย่าส่งเงินหรือของขวัญให้คนที่คุณไม่เคยเจอตัวจริง
    เล่าเรื่องความสัมพันธ์ให้คนใกล้ตัวฟัง เพื่อให้มองเห็นมุมที่คุณอาจมองไม่ออก
    หากสงสัยว่าโดนหลอก ให้หยุดติดต่อทันที และแจ้งตำรวจหรือ FBI

    สาระเพิ่มเติมจากภายนอก:

    ความเข้าใจเรื่อง Catfishing
    คือการสร้างตัวตนปลอมเพื่อหลอกลวงทางอารมณ์หรือการเงิน
    มักใช้ภาพคนอื่นและเรื่องราวที่แต่งขึ้นเพื่อสร้างความน่าเชื่อถือ

    การป้องกันในเชิงจิตวิทยา
    อย่าปล่อยให้ความเหงาทำให้คุณลดการใช้วิจารณญาณ
    ความรักที่แท้จริงไม่ควรเริ่มต้นด้วยการขอเงิน

    https://www.slashgear.com/1996880/things-need-know-avoid-online-dating-romance-scams-catfish/
    💔 "รักออนไลน์หรือหลอกลวง? วิธีสังเกตและป้องกันภัยจาก Romance Scam" ในยุคที่แอปหาคู่กลายเป็นช่องทางยอดนิยมในการพบปะผู้คนใหม่ ๆ เช่น Tinder, Hinge, OkCupid, Grindr และ Bumble ก็มีภัยเงียบที่แฝงตัวอยู่—Romance Scam หรือการหลอกลวงทางความรักออนไลน์ ซึ่งกลุ่มมิจฉาชีพใช้เทคนิคการสร้างความสัมพันธ์เพื่อหลอกเอาเงินหรือข้อมูลส่วนตัวจากเหยื่อ มิจฉาชีพเหล่านี้มักเริ่มต้นด้วยการพูดคุยอย่างจริงใจ สร้างความไว้ใจ แล้วค่อย ๆ ขอความช่วยเหลือทางการเงิน หรือเสนอ “โอกาสลงทุน” ที่ดูดีเกินจริง พวกเขาอาจใช้ภาพปลอม โปรไฟล์โซเชียลที่ดูไม่สมจริง หรือแม้แต่เล่าเรื่องเศร้าเพื่อเรียกความสงสาร ในปี 2023 มีรายงานการหลอกลวงแบบนี้กว่า 64,000 เคส รวมมูลค่าความเสียหายกว่า 1.14 พันล้านดอลลาร์ โดยเหยื่อแต่ละรายสูญเงินเฉลี่ยถึง $2,000 ซึ่งมากกว่าการหลอกลวงรูปแบบอื่น ๆ ✅ รูปแบบของ Romance Scam ➡️ เริ่มจากการสร้างความสัมพันธ์ผ่านแอปหาคู่ ➡️ ค่อย ๆ ขอเงินหรือข้อมูลส่วนตัว ➡️ ใช้เรื่องเศร้า เช่น ป่วย, ค่าธรรมเนียมทางกฎหมาย, หรือเหตุฉุกเฉิน เพื่อเรียกความสงสาร ✅ สัญญาณเตือนที่ควรระวัง ➡️ นัดเจอแต่ยกเลิกทุกครั้ง ➡️ พยายามให้คุณห่างจากเพื่อนหรือครอบครัว ➡️ โปรไฟล์โซเชียลดูไม่สมจริง หรือมีการโต้ตอบน้อย ➡️ แสดงความรักเร็วเกินไป หรือสร้างความเร่งรีบทางอารมณ์ ➡️ อ้างว่าอยู่ต่างประเทศเพื่อหลีกเลี่ยงการพบตัวจริง ‼️ คำเตือนจาก FBI ⛔ มิจฉาชีพมักอ้างว่าอยู่ต่างประเทศชั่วคราว ⛔ ใช้ข้ออ้างเรื่องค่ารักษา, ค่าธรรมเนียม, หรือวิกฤตส่วนตัวเพื่อขอเงิน ⛔ ปฏิเสธการพบตัวจริงทุกครั้ง ✅ วิธีป้องกันตัว ➡️ อย่าให้ข้อมูลส่วนตัวกับคนแปลกหน้า ➡️ ใช้เครื่องมือ reverse image search เพื่อตรวจสอบภาพโปรไฟล์ ➡️ อย่าส่งเงินหรือของขวัญให้คนที่คุณไม่เคยเจอตัวจริง ➡️ เล่าเรื่องความสัมพันธ์ให้คนใกล้ตัวฟัง เพื่อให้มองเห็นมุมที่คุณอาจมองไม่ออก ➡️ หากสงสัยว่าโดนหลอก ให้หยุดติดต่อทันที และแจ้งตำรวจหรือ FBI 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความเข้าใจเรื่อง Catfishing ➡️ คือการสร้างตัวตนปลอมเพื่อหลอกลวงทางอารมณ์หรือการเงิน ➡️ มักใช้ภาพคนอื่นและเรื่องราวที่แต่งขึ้นเพื่อสร้างความน่าเชื่อถือ ✅ การป้องกันในเชิงจิตวิทยา ➡️ อย่าปล่อยให้ความเหงาทำให้คุณลดการใช้วิจารณญาณ ➡️ ความรักที่แท้จริงไม่ควรเริ่มต้นด้วยการขอเงิน https://www.slashgear.com/1996880/things-need-know-avoid-online-dating-romance-scams-catfish/
    WWW.SLASHGEAR.COM
    Things You Should Remember To Avoid Getting Scammed When Dating Online - SlashGear
    The internet can be a dangerous place, even when playing the game of love. But there are a few things you can keep in mind to avoid online scams.
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • “AI Agents: อัจฉริยะที่น่าทึ่ง หรือภัยเงียบที่ควบคุมไม่ได้?” — เมื่อผู้ช่วยดิจิทัลกลายเป็นผู้ตัดสินใจแทนมนุษย์

    บทความจาก The Star เปิดเผยว่า ปี 2026 กำลังจะกลายเป็น “ปีแห่ง AI Agents” — ระบบปัญญาประดิษฐ์ที่สามารถวางแผนหลายขั้นตอน เข้าถึงบริการดิจิทัล และตัดสินใจแทนผู้ใช้ได้โดยอัตโนมัติ ต่างจากแชตบอทหรือผู้ช่วยเสียงทั่วไปที่แค่ตอบคำถามหรือทำตามคำสั่ง

    ผู้พัฒนาเช่น Amazon, Microsoft, Google และ OpenAI ต่างเร่งสร้าง AI Agents ที่สามารถทำงานแทนมนุษย์ได้เกือบทุกอย่าง เช่น สั่งซื้อของออนไลน์ จัดการงาน HR และ IT หรือแม้แต่โทรหาลูกค้าเพื่อเปลี่ยนสินค้าให้โดยไม่ต้องมีมนุษย์เกี่ยวข้อง

    Marc Benioff จาก Salesforce เรียกสิ่งนี้ว่า “โมเดลแรงงานใหม่” และคาดว่าจะมีการสร้าง AI Agents กว่า 1 พันล้านตัวภายในปี 2026 ขณะที่ Jensen Huang จาก NVIDIA เชื่อว่าแผนก HR จะรวมเข้ากับ IT เพราะ AI จะจัดการทุกอย่างได้เอง

    แต่เสียงเตือนจากนักวิจัยด้านจริยธรรม AI ก็เริ่มดังขึ้น Meredith Whittaker จาก Signal เตือนว่า AI Agents ต้องการสิทธิ์เข้าถึงข้อมูลส่วนตัวอย่างมหาศาล เช่น ปฏิทิน บัตรเครดิต และบัญชีอีเมล โดยไม่ต้องขออนุญาตทุกครั้ง ซึ่งเป็นช่องโหว่ใหญ่ด้านความเป็นส่วนตัว

    Yoshua Bengio และ Margaret Mitchell นักวิจัย AI ชื่อดัง เตือนว่า หากปล่อยให้ AI Agents ทำงานโดยไม่มีการควบคุม อาจนำไปสู่การสูญเสียอำนาจของมนุษย์อย่างถาวร และเปิดช่องให้ผู้ไม่หวังดีใช้ระบบเหล่านี้โจมตีหรือสอดแนม

    ตัวอย่าง AI Agents ที่มีอยู่แล้ว:
    Google: “Project Mariner” ใช้ Gemini 2.0 ทำงานในเบราว์เซอร์แทนมนุษย์
    Salesforce: โทรหาลูกค้าอัตโนมัติเพื่อเปลี่ยนสินค้า
    DeepL: ใช้ในระบบจัดการบทความ
    Microsoft: “Factory Operations Agent” สำหรับปรับปรุงกระบวนการในโรงงาน
    Amazon: พัฒนา Alexa ให้รู้จักนิสัยและตารางชีวิตของผู้ใช้
    Parloa: AI โทรหาลูกค้าเพื่อเสนออัปเกรดเที่ยวบิน

    ข้อมูลในข่าว
    AI Agents สามารถวางแผนหลายขั้นตอนและตัดสินใจแทนผู้ใช้ได้
    ต่างจากแชตบอททั่วไปที่ทำงานแบบตอบโต้
    Amazon, Microsoft, Google, OpenAI และ Salesforce กำลังพัฒนา AI Agents
    Salesforce คาดว่าจะมี AI Agents กว่า 1 พันล้านตัวภายในปี 2026
    AI Agents สามารถจัดการงาน HR, IT และบริการลูกค้าได้
    Google ใช้ Gemini 2.0 ใน “Project Mariner” เพื่อทำงานในเบราว์เซอร์
    DeepL มี AI Agent ที่ทำงานในระบบจัดการบทความ
    Microsoft มี “Factory Operations Agent” สำหรับโรงงาน
    Amazon พัฒนา Alexa ให้รู้จักนิสัยและตารางชีวิตของผู้ใช้
    Parloa มี AI ที่โทรหาลูกค้าเพื่อเสนออัปเกรดเที่ยวบิน

    คำเตือนจากข้อมูลข่าว
    AI Agents ต้องการสิทธิ์เข้าถึงข้อมูลส่วนตัวจำนวนมาก
    อาจเข้าถึงบัตรเครดิต ปฏิทิน และอีเมลโดยไม่ขออนุญาตทุกครั้ง
    เสี่ยงต่อการถูกโจมตีหรือสอดแนมจากผู้ไม่หวังดี
    หากไม่มีการควบคุม อาจนำไปสู่การสูญเสียอำนาจของมนุษย์
    การใช้ AI Agents โดยไม่เข้าใจความเสี่ยง อาจสร้างผลกระทบต่อความปลอดภัยสาธารณะ
    นักวิจัยเตือนว่า AI Agents อาจกลายเป็นภัยระดับ “catastrophic” หากปล่อยให้เติบโตโดยไม่มีกรอบ

    https://www.thestar.com.my/tech/tech-news/2025/10/16/incredibly-dangerous-or-incredibly-useful-the-rise-of-ai-agents
    🤖 “AI Agents: อัจฉริยะที่น่าทึ่ง หรือภัยเงียบที่ควบคุมไม่ได้?” — เมื่อผู้ช่วยดิจิทัลกลายเป็นผู้ตัดสินใจแทนมนุษย์ บทความจาก The Star เปิดเผยว่า ปี 2026 กำลังจะกลายเป็น “ปีแห่ง AI Agents” — ระบบปัญญาประดิษฐ์ที่สามารถวางแผนหลายขั้นตอน เข้าถึงบริการดิจิทัล และตัดสินใจแทนผู้ใช้ได้โดยอัตโนมัติ ต่างจากแชตบอทหรือผู้ช่วยเสียงทั่วไปที่แค่ตอบคำถามหรือทำตามคำสั่ง ผู้พัฒนาเช่น Amazon, Microsoft, Google และ OpenAI ต่างเร่งสร้าง AI Agents ที่สามารถทำงานแทนมนุษย์ได้เกือบทุกอย่าง เช่น สั่งซื้อของออนไลน์ จัดการงาน HR และ IT หรือแม้แต่โทรหาลูกค้าเพื่อเปลี่ยนสินค้าให้โดยไม่ต้องมีมนุษย์เกี่ยวข้อง Marc Benioff จาก Salesforce เรียกสิ่งนี้ว่า “โมเดลแรงงานใหม่” และคาดว่าจะมีการสร้าง AI Agents กว่า 1 พันล้านตัวภายในปี 2026 ขณะที่ Jensen Huang จาก NVIDIA เชื่อว่าแผนก HR จะรวมเข้ากับ IT เพราะ AI จะจัดการทุกอย่างได้เอง แต่เสียงเตือนจากนักวิจัยด้านจริยธรรม AI ก็เริ่มดังขึ้น Meredith Whittaker จาก Signal เตือนว่า AI Agents ต้องการสิทธิ์เข้าถึงข้อมูลส่วนตัวอย่างมหาศาล เช่น ปฏิทิน บัตรเครดิต และบัญชีอีเมล โดยไม่ต้องขออนุญาตทุกครั้ง ซึ่งเป็นช่องโหว่ใหญ่ด้านความเป็นส่วนตัว Yoshua Bengio และ Margaret Mitchell นักวิจัย AI ชื่อดัง เตือนว่า หากปล่อยให้ AI Agents ทำงานโดยไม่มีการควบคุม อาจนำไปสู่การสูญเสียอำนาจของมนุษย์อย่างถาวร และเปิดช่องให้ผู้ไม่หวังดีใช้ระบบเหล่านี้โจมตีหรือสอดแนม ตัวอย่าง AI Agents ที่มีอยู่แล้ว: ⭐ Google: “Project Mariner” ใช้ Gemini 2.0 ทำงานในเบราว์เซอร์แทนมนุษย์ ⭐ Salesforce: โทรหาลูกค้าอัตโนมัติเพื่อเปลี่ยนสินค้า ⭐ DeepL: ใช้ในระบบจัดการบทความ ⭐ Microsoft: “Factory Operations Agent” สำหรับปรับปรุงกระบวนการในโรงงาน ⭐ Amazon: พัฒนา Alexa ให้รู้จักนิสัยและตารางชีวิตของผู้ใช้ ⭐ Parloa: AI โทรหาลูกค้าเพื่อเสนออัปเกรดเที่ยวบิน ✅ ข้อมูลในข่าว ➡️ AI Agents สามารถวางแผนหลายขั้นตอนและตัดสินใจแทนผู้ใช้ได้ ➡️ ต่างจากแชตบอททั่วไปที่ทำงานแบบตอบโต้ ➡️ Amazon, Microsoft, Google, OpenAI และ Salesforce กำลังพัฒนา AI Agents ➡️ Salesforce คาดว่าจะมี AI Agents กว่า 1 พันล้านตัวภายในปี 2026 ➡️ AI Agents สามารถจัดการงาน HR, IT และบริการลูกค้าได้ ➡️ Google ใช้ Gemini 2.0 ใน “Project Mariner” เพื่อทำงานในเบราว์เซอร์ ➡️ DeepL มี AI Agent ที่ทำงานในระบบจัดการบทความ ➡️ Microsoft มี “Factory Operations Agent” สำหรับโรงงาน ➡️ Amazon พัฒนา Alexa ให้รู้จักนิสัยและตารางชีวิตของผู้ใช้ ➡️ Parloa มี AI ที่โทรหาลูกค้าเพื่อเสนออัปเกรดเที่ยวบิน ‼️ คำเตือนจากข้อมูลข่าว ⛔ AI Agents ต้องการสิทธิ์เข้าถึงข้อมูลส่วนตัวจำนวนมาก ⛔ อาจเข้าถึงบัตรเครดิต ปฏิทิน และอีเมลโดยไม่ขออนุญาตทุกครั้ง ⛔ เสี่ยงต่อการถูกโจมตีหรือสอดแนมจากผู้ไม่หวังดี ⛔ หากไม่มีการควบคุม อาจนำไปสู่การสูญเสียอำนาจของมนุษย์ ⛔ การใช้ AI Agents โดยไม่เข้าใจความเสี่ยง อาจสร้างผลกระทบต่อความปลอดภัยสาธารณะ ⛔ นักวิจัยเตือนว่า AI Agents อาจกลายเป็นภัยระดับ “catastrophic” หากปล่อยให้เติบโตโดยไม่มีกรอบ https://www.thestar.com.my/tech/tech-news/2025/10/16/incredibly-dangerous-or-incredibly-useful-the-rise-of-ai-agents
    WWW.THESTAR.COM.MY
    Incredibly dangerous or incredibly useful? The rise of AI agents
    Developers say they can do nearly any task a human can at a computer. Critics say they are incredibly dangerous.
    0 ความคิดเห็น 0 การแบ่งปัน 204 มุมมอง 0 รีวิว
  • “สิงคโปร์ตั้งคณะกรรมการความปลอดภัยออนไลน์” — เตรียมบล็อกเนื้อหาที่เป็นภัยต่อผู้ใช้

    สิงคโปร์กำลังเดินหน้าสร้างมาตรการใหม่เพื่อรับมือกับภัยออนไลน์ โดยเสนอร่างกฎหมายจัดตั้ง “คณะกรรมการความปลอดภัยออนไลน์” ซึ่งจะมีอำนาจสั่งให้แพลตฟอร์มโซเชียลมีเดียบล็อกเนื้อหาที่เป็นอันตรายต่อผู้ใช้ภายในประเทศ

    แรงผลักดันของกฎหมายนี้เกิดจากผลการศึกษาของ Infocomm Media Development Authority ที่พบว่า กว่าครึ่งของการร้องเรียนเกี่ยวกับเนื้อหาที่เป็นภัย เช่น การล่วงละเมิดเด็ก การกลั่นแกล้งทางไซเบอร์ และการเปิดเผยภาพลับ ไม่ได้รับการจัดการอย่างทันท่วงทีจากแพลตฟอร์มต่าง ๆ

    คณะกรรมการใหม่นี้จะมีอำนาจในการสั่งให้บล็อกเนื้อหาทั้งในระดับโพสต์ กลุ่ม หรือแม้แต่เว็บไซต์ของแพลตฟอร์มโดยตรง พร้อมให้สิทธิผู้เสียหายในการตอบโต้ และสามารถแบนผู้กระทำผิดจากการเข้าถึงแพลตฟอร์มได้

    นอกจากนี้ ยังมีแผนจะเพิ่มประเภทของภัยออนไลน์ในอนาคต เช่น การเปิดเผยข้อมูลส่วนตัวโดยไม่ได้รับอนุญาต และการยุยงให้เกิดความเกลียดชัง โดยคณะกรรมการจะเริ่มดำเนินการภายในครึ่งแรกของปี 2026

    ความเคลื่อนไหวนี้เกิดขึ้นหลังจากที่รัฐบาลสิงคโปร์ได้ใช้กฎหมาย Online Criminal Harms Act สั่งให้ Meta ดำเนินมาตรการป้องกันการแอบอ้างตัวตนบน Facebook โดยขู่ว่าจะปรับสูงสุดถึง 1 ล้านดอลลาร์สิงคโปร์ หากไม่ดำเนินการภายในกำหนด

    ข้อมูลในข่าว
    สิงคโปร์เสนอร่างกฎหมายตั้งคณะกรรมการความปลอดภัยออนไลน์
    คณะกรรมการจะมีอำนาจสั่งบล็อกเนื้อหาที่เป็นภัย เช่น การล่วงละเมิด การกลั่นแกล้ง และภาพลับ
    ผู้เสียหายจะมีสิทธิในการตอบโต้ และสามารถแบนผู้กระทำผิดได้
    อำนาจครอบคลุมถึงการสั่งบล็อกกลุ่มหรือเว็บไซต์ของแพลตฟอร์ม
    จะเพิ่มประเภทภัยออนไลน์ในอนาคต เช่น การเปิดเผยข้อมูลส่วนตัว และการยุยงให้เกิดความเกลียดชัง
    คณะกรรมการจะเริ่มดำเนินการภายในครึ่งแรกของปี 2026
    รัฐบาลเคยสั่ง Meta ดำเนินมาตรการป้องกันการแอบอ้างตัวตนบน Facebook

    คำเตือนจากข้อมูลข่าว
    แพลตฟอร์มโซเชียลมีเดียอาจถูกลงโทษหากไม่ดำเนินการตามคำสั่งของคณะกรรมการ
    การไม่จัดการเนื้อหาที่เป็นภัยอย่างทันท่วงที อาจนำไปสู่การถูกบล็อกทั้งแพลตฟอร์ม
    ผู้ใช้อาจถูกแบนจากการเข้าถึงแพลตฟอร์มหากกระทำผิด
    การเปิดเผยข้อมูลส่วนตัวโดยไม่ได้รับอนุญาต อาจถูกจัดเป็นภัยออนไลน์ในอนาคต

    https://www.thestar.com.my/tech/tech-news/2025/10/15/new-singapore-law-empowers-commission-to-block-harmful-online-content
    🛡️ “สิงคโปร์ตั้งคณะกรรมการความปลอดภัยออนไลน์” — เตรียมบล็อกเนื้อหาที่เป็นภัยต่อผู้ใช้ สิงคโปร์กำลังเดินหน้าสร้างมาตรการใหม่เพื่อรับมือกับภัยออนไลน์ โดยเสนอร่างกฎหมายจัดตั้ง “คณะกรรมการความปลอดภัยออนไลน์” ซึ่งจะมีอำนาจสั่งให้แพลตฟอร์มโซเชียลมีเดียบล็อกเนื้อหาที่เป็นอันตรายต่อผู้ใช้ภายในประเทศ แรงผลักดันของกฎหมายนี้เกิดจากผลการศึกษาของ Infocomm Media Development Authority ที่พบว่า กว่าครึ่งของการร้องเรียนเกี่ยวกับเนื้อหาที่เป็นภัย เช่น การล่วงละเมิดเด็ก การกลั่นแกล้งทางไซเบอร์ และการเปิดเผยภาพลับ ไม่ได้รับการจัดการอย่างทันท่วงทีจากแพลตฟอร์มต่าง ๆ คณะกรรมการใหม่นี้จะมีอำนาจในการสั่งให้บล็อกเนื้อหาทั้งในระดับโพสต์ กลุ่ม หรือแม้แต่เว็บไซต์ของแพลตฟอร์มโดยตรง พร้อมให้สิทธิผู้เสียหายในการตอบโต้ และสามารถแบนผู้กระทำผิดจากการเข้าถึงแพลตฟอร์มได้ นอกจากนี้ ยังมีแผนจะเพิ่มประเภทของภัยออนไลน์ในอนาคต เช่น การเปิดเผยข้อมูลส่วนตัวโดยไม่ได้รับอนุญาต และการยุยงให้เกิดความเกลียดชัง โดยคณะกรรมการจะเริ่มดำเนินการภายในครึ่งแรกของปี 2026 ความเคลื่อนไหวนี้เกิดขึ้นหลังจากที่รัฐบาลสิงคโปร์ได้ใช้กฎหมาย Online Criminal Harms Act สั่งให้ Meta ดำเนินมาตรการป้องกันการแอบอ้างตัวตนบน Facebook โดยขู่ว่าจะปรับสูงสุดถึง 1 ล้านดอลลาร์สิงคโปร์ หากไม่ดำเนินการภายในกำหนด ✅ ข้อมูลในข่าว ➡️ สิงคโปร์เสนอร่างกฎหมายตั้งคณะกรรมการความปลอดภัยออนไลน์ ➡️ คณะกรรมการจะมีอำนาจสั่งบล็อกเนื้อหาที่เป็นภัย เช่น การล่วงละเมิด การกลั่นแกล้ง และภาพลับ ➡️ ผู้เสียหายจะมีสิทธิในการตอบโต้ และสามารถแบนผู้กระทำผิดได้ ➡️ อำนาจครอบคลุมถึงการสั่งบล็อกกลุ่มหรือเว็บไซต์ของแพลตฟอร์ม ➡️ จะเพิ่มประเภทภัยออนไลน์ในอนาคต เช่น การเปิดเผยข้อมูลส่วนตัว และการยุยงให้เกิดความเกลียดชัง ➡️ คณะกรรมการจะเริ่มดำเนินการภายในครึ่งแรกของปี 2026 ➡️ รัฐบาลเคยสั่ง Meta ดำเนินมาตรการป้องกันการแอบอ้างตัวตนบน Facebook ‼️ คำเตือนจากข้อมูลข่าว ⛔ แพลตฟอร์มโซเชียลมีเดียอาจถูกลงโทษหากไม่ดำเนินการตามคำสั่งของคณะกรรมการ ⛔ การไม่จัดการเนื้อหาที่เป็นภัยอย่างทันท่วงที อาจนำไปสู่การถูกบล็อกทั้งแพลตฟอร์ม ⛔ ผู้ใช้อาจถูกแบนจากการเข้าถึงแพลตฟอร์มหากกระทำผิด ⛔ การเปิดเผยข้อมูลส่วนตัวโดยไม่ได้รับอนุญาต อาจถูกจัดเป็นภัยออนไลน์ในอนาคต https://www.thestar.com.my/tech/tech-news/2025/10/15/new-singapore-law-empowers-commission-to-block-harmful-online-content
    WWW.THESTAR.COM.MY
    New Singapore law empowers commission to block harmful online content
    SINGAPORE (Reuters) -Singapore will introduce a new online safety commission with powers to order social media platforms to block harmful posts, according to a new bill that was tabled in parliament on Wednesday.
    0 ความคิดเห็น 0 การแบ่งปัน 204 มุมมอง 0 รีวิว
  • “เมื่อ AI ป้องกันตัวเองไม่ได้ – ช่องโหว่ Guardrails ของ OpenAI ถูกเจาะด้วยคำสั่งหลอก”

    ลองจินตนาการว่าเราสร้างระบบรักษาความปลอดภัยให้บ้าน แล้วใช้คนออกแบบบ้านเป็นคนตรวจสอบความปลอดภัยเอง… นั่นคือสิ่งที่เกิดขึ้นกับระบบ Guardrails ของ OpenAI ที่เพิ่งเปิดตัวไปไม่นาน

    Guardrails เป็นระบบที่ออกแบบมาเพื่อป้องกันไม่ให้ AI ทำสิ่งที่เป็นอันตราย เช่น การเปิดเผยข้อมูลส่วนตัว หรือการตอบสนองต่อคำสั่งที่พยายาม “หลอก” ให้ AI ละเมิดกฎของตัวเอง ซึ่งเรียกว่า “Prompt Injection” หรือ “Jailbreak”

    แต่สิ่งที่นักวิจัยจากบริษัท HiddenLayer พบคือ ระบบนี้สามารถถูกหลอกได้ง่ายอย่างน่าตกใจ โดยใช้เทคนิคที่เรียกว่า “Same Model, Different Hat” คือใช้โมเดลเดียวกันทั้งในการตอบคำถามและในการตรวจสอบความปลอดภัย ซึ่งทำให้สามารถหลอกได้ทั้งสองส่วนพร้อมกัน

    พวกเขาสามารถทำให้ระบบตอบสนองต่อคำสั่งที่ควรถูกบล็อก และยังสามารถหลอกให้ระบบเชื่อว่าคำสั่งนั้นปลอดภัย ทั้งที่จริงแล้วเป็นการเจาะระบบอย่างแนบเนียน

    ระบบ Guardrails ของ OpenAI
    เป็นเครื่องมือใหม่ที่ออกแบบมาเพื่อป้องกันการละเมิดกฎโดย AI
    ใช้โมเดล AI เป็น “ผู้พิพากษา” เพื่อตรวจสอบคำสั่งที่เข้ามา
    มีเป้าหมายเพื่อป้องกันการเปิดเผยข้อมูลส่วนตัวและการตอบสนองต่อคำสั่งอันตราย

    ช่องโหว่ที่ถูกค้นพบ
    นักวิจัยสามารถหลอกระบบให้ตอบสนองต่อคำสั่งที่ควรถูกบล็อก
    เทคนิค “Same Model, Different Hat” ทำให้ระบบตรวจสอบและตอบคำสั่งถูกหลอกพร้อมกัน
    มีการเจาะผ่าน “Indirect Prompt Injection” ที่ซ่อนอยู่ในคำสั่งหรือการเรียกใช้เครื่องมือ

    ผลกระทบต่อความปลอดภัย
    ระบบให้ความมั่นใจผิด ๆ ว่าปลอดภัย
    องค์กรที่ใช้ AI อาจเสี่ยงต่อการรั่วไหลของข้อมูลหรือการถูกโจมตี

    คำเตือนสำหรับผู้พัฒนาและผู้ใช้งาน AI
    ไม่ควรใช้โมเดลเดียวกันในการตรวจสอบและตอบสนองคำสั่ง
    ต้องมีระบบตรวจสอบภายนอกที่เป็นอิสระจากตัวโมเดลหลัก
    ควรทดสอบระบบอย่างต่อเนื่องโดยผู้เชี่ยวชาญด้านความปลอดภัย

    ความเสี่ยงในอนาคต
    หากไม่แก้ไข ช่องโหว่เหล่านี้อาจถูกใช้ในการโจมตีจริง
    การพึ่งพา AI โดยไม่มีระบบป้องกันที่แข็งแรง อาจนำไปสู่ความเสียหายระดับองค์กร

    https://hackread.com/openai-guardrails-bypass-prompt-injection-attack/
    📰 “เมื่อ AI ป้องกันตัวเองไม่ได้ – ช่องโหว่ Guardrails ของ OpenAI ถูกเจาะด้วยคำสั่งหลอก” ลองจินตนาการว่าเราสร้างระบบรักษาความปลอดภัยให้บ้าน แล้วใช้คนออกแบบบ้านเป็นคนตรวจสอบความปลอดภัยเอง… นั่นคือสิ่งที่เกิดขึ้นกับระบบ Guardrails ของ OpenAI ที่เพิ่งเปิดตัวไปไม่นาน Guardrails เป็นระบบที่ออกแบบมาเพื่อป้องกันไม่ให้ AI ทำสิ่งที่เป็นอันตราย เช่น การเปิดเผยข้อมูลส่วนตัว หรือการตอบสนองต่อคำสั่งที่พยายาม “หลอก” ให้ AI ละเมิดกฎของตัวเอง ซึ่งเรียกว่า “Prompt Injection” หรือ “Jailbreak” แต่สิ่งที่นักวิจัยจากบริษัท HiddenLayer พบคือ ระบบนี้สามารถถูกหลอกได้ง่ายอย่างน่าตกใจ โดยใช้เทคนิคที่เรียกว่า “Same Model, Different Hat” คือใช้โมเดลเดียวกันทั้งในการตอบคำถามและในการตรวจสอบความปลอดภัย ซึ่งทำให้สามารถหลอกได้ทั้งสองส่วนพร้อมกัน พวกเขาสามารถทำให้ระบบตอบสนองต่อคำสั่งที่ควรถูกบล็อก และยังสามารถหลอกให้ระบบเชื่อว่าคำสั่งนั้นปลอดภัย ทั้งที่จริงแล้วเป็นการเจาะระบบอย่างแนบเนียน ✅ ระบบ Guardrails ของ OpenAI ➡️ เป็นเครื่องมือใหม่ที่ออกแบบมาเพื่อป้องกันการละเมิดกฎโดย AI ➡️ ใช้โมเดล AI เป็น “ผู้พิพากษา” เพื่อตรวจสอบคำสั่งที่เข้ามา ➡️ มีเป้าหมายเพื่อป้องกันการเปิดเผยข้อมูลส่วนตัวและการตอบสนองต่อคำสั่งอันตราย ✅ ช่องโหว่ที่ถูกค้นพบ ➡️ นักวิจัยสามารถหลอกระบบให้ตอบสนองต่อคำสั่งที่ควรถูกบล็อก ➡️ เทคนิค “Same Model, Different Hat” ทำให้ระบบตรวจสอบและตอบคำสั่งถูกหลอกพร้อมกัน ➡️ มีการเจาะผ่าน “Indirect Prompt Injection” ที่ซ่อนอยู่ในคำสั่งหรือการเรียกใช้เครื่องมือ ✅ ผลกระทบต่อความปลอดภัย ➡️ ระบบให้ความมั่นใจผิด ๆ ว่าปลอดภัย ➡️ องค์กรที่ใช้ AI อาจเสี่ยงต่อการรั่วไหลของข้อมูลหรือการถูกโจมตี ‼️ คำเตือนสำหรับผู้พัฒนาและผู้ใช้งาน AI ⛔ ไม่ควรใช้โมเดลเดียวกันในการตรวจสอบและตอบสนองคำสั่ง ⛔ ต้องมีระบบตรวจสอบภายนอกที่เป็นอิสระจากตัวโมเดลหลัก ⛔ ควรทดสอบระบบอย่างต่อเนื่องโดยผู้เชี่ยวชาญด้านความปลอดภัย ‼️ ความเสี่ยงในอนาคต ⛔ หากไม่แก้ไข ช่องโหว่เหล่านี้อาจถูกใช้ในการโจมตีจริง ⛔ การพึ่งพา AI โดยไม่มีระบบป้องกันที่แข็งแรง อาจนำไปสู่ความเสียหายระดับองค์กร https://hackread.com/openai-guardrails-bypass-prompt-injection-attack/
    HACKREAD.COM
    OpenAI’s Guardrails Can Be Bypassed by Simple Prompt Injection Attack
    Follow us on Blue Sky, Mastodon Twitter, Facebook and LinkedIn @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 137 มุมมอง 0 รีวิว
  • “เมื่อแอปหาคู่ไม่ตอบโจทย์ — หญิงอเมริกันวัย 42 ใช้บิลบอร์ดหาสามี กลายเป็นไวรัลพร้อมกระแสเกลียดชัง”

    Lisa Catalano หญิงวัย 42 ปีจากซานมาเทโอ รัฐแคลิฟอร์เนีย ตัดสินใจหันหลังให้กับแอปหาคู่ที่ทำให้เธอรู้สึกหมดหวัง และเลือกใช้วิธีสุดแหวกแนวในการหาคู่ชีวิต — เธอขึ้นบิลบอร์ดขนาดใหญ่ 6 จุดตลอดเส้นทาง Highway 101 ระหว่างซานตาคลาราและซานฟรานซิสโก พร้อมข้อความว่าเธอกำลังมองหาสามี

    เธอสร้างเว็บไซต์ส่วนตัวชื่อ MarryLisa.com เพื่อให้ผู้สนใจส่งข้อความเข้ามา และภายในเวลาไม่นานก็ได้รับข้อความกว่า 2,200 ฉบับจากทั่วโลก ทั้งคำชม คำให้กำลังใจ และคำดูถูกอย่างรุนแรง รวมถึงการคุกคามจากเว็บไซต์ 4chan ที่เผยแพร่ข้อมูลส่วนตัวของเธอและครอบครัว

    แม้จะเผชิญกับกระแสลบ แต่เธอกลับได้รับแรงสนับสนุนจากผู้หญิงจำนวนมากที่เข้าใจความรู้สึกของการถูกลดคุณค่าในโลกของแอปหาคู่ และชื่นชมความกล้าหาญของเธอในการเปิดเผยตัวตนอย่างตรงไปตรงมา

    วิธีการหาคู่ของ Lisa Catalano
    ใช้บิลบอร์ดขนาดใหญ่ 6 จุดบน Highway 101 เพื่อประกาศหาสามี
    สร้างเว็บไซต์ MarryLisa.com เพื่อรับข้อความจากผู้สนใจ
    ได้รับข้อความกว่า 2,200 ฉบับจากทั่วโลก

    ความตั้งใจและแรงบันดาลใจ
    เบื่อหน่ายกับแอปหาคู่ที่ทำให้รู้สึกหมดคุณค่า
    ต้องการหาคู่ชีวิตอย่างจริงจังหลังจากสูญเสียคู่หมั้นเมื่อปลายปี 2023
    หวังสร้างครอบครัวภายใน 2-3 ปี

    กระแสตอบรับจากสังคม
    ได้รับคำชมจากผู้หญิงหลายคนที่เข้าใจความรู้สึกของเธอ
    สื่อหลายสำนักให้ความสนใจ เช่น People Magazine, New York Post, ABC News
    เว็บไซต์ MarryLisa.com มียอดเข้าชมเกือบ 1 ล้านครั้งใน 9 วัน

    คำเตือนและข้อจำกัด
    ถูกคุกคามจากเว็บไซต์ 4chan ที่เผยแพร่ข้อมูลส่วนตัวของเธอและครอบครัว
    ข้อความบางส่วนมีเนื้อหามีความรุนแรงและเหยียดเพศ
    การเปิดเผยข้อมูลส่วนตัวมากเกินไป เช่น น้ำหนัก, ศาสนา, ความชอบ อาจนำไปสู่การถูกวิจารณ์
    การใช้วิธีสาธารณะในการหาคู่อาจเสี่ยงต่อความปลอดภัย

    https://www.thestar.com.my/tech/tech-news/2025/10/11/tired-of-swiping-this-us-woman-turned-to-billboards-to-find-a-husband-then-came-the-hate
    💘 “เมื่อแอปหาคู่ไม่ตอบโจทย์ — หญิงอเมริกันวัย 42 ใช้บิลบอร์ดหาสามี กลายเป็นไวรัลพร้อมกระแสเกลียดชัง” Lisa Catalano หญิงวัย 42 ปีจากซานมาเทโอ รัฐแคลิฟอร์เนีย ตัดสินใจหันหลังให้กับแอปหาคู่ที่ทำให้เธอรู้สึกหมดหวัง และเลือกใช้วิธีสุดแหวกแนวในการหาคู่ชีวิต — เธอขึ้นบิลบอร์ดขนาดใหญ่ 6 จุดตลอดเส้นทาง Highway 101 ระหว่างซานตาคลาราและซานฟรานซิสโก พร้อมข้อความว่าเธอกำลังมองหาสามี เธอสร้างเว็บไซต์ส่วนตัวชื่อ MarryLisa.com เพื่อให้ผู้สนใจส่งข้อความเข้ามา และภายในเวลาไม่นานก็ได้รับข้อความกว่า 2,200 ฉบับจากทั่วโลก ทั้งคำชม คำให้กำลังใจ และคำดูถูกอย่างรุนแรง รวมถึงการคุกคามจากเว็บไซต์ 4chan ที่เผยแพร่ข้อมูลส่วนตัวของเธอและครอบครัว แม้จะเผชิญกับกระแสลบ แต่เธอกลับได้รับแรงสนับสนุนจากผู้หญิงจำนวนมากที่เข้าใจความรู้สึกของการถูกลดคุณค่าในโลกของแอปหาคู่ และชื่นชมความกล้าหาญของเธอในการเปิดเผยตัวตนอย่างตรงไปตรงมา ✅ วิธีการหาคู่ของ Lisa Catalano ➡️ ใช้บิลบอร์ดขนาดใหญ่ 6 จุดบน Highway 101 เพื่อประกาศหาสามี ➡️ สร้างเว็บไซต์ MarryLisa.com เพื่อรับข้อความจากผู้สนใจ ➡️ ได้รับข้อความกว่า 2,200 ฉบับจากทั่วโลก ✅ ความตั้งใจและแรงบันดาลใจ ➡️ เบื่อหน่ายกับแอปหาคู่ที่ทำให้รู้สึกหมดคุณค่า ➡️ ต้องการหาคู่ชีวิตอย่างจริงจังหลังจากสูญเสียคู่หมั้นเมื่อปลายปี 2023 ➡️ หวังสร้างครอบครัวภายใน 2-3 ปี ✅ กระแสตอบรับจากสังคม ➡️ ได้รับคำชมจากผู้หญิงหลายคนที่เข้าใจความรู้สึกของเธอ ➡️ สื่อหลายสำนักให้ความสนใจ เช่น People Magazine, New York Post, ABC News ➡️ เว็บไซต์ MarryLisa.com มียอดเข้าชมเกือบ 1 ล้านครั้งใน 9 วัน ‼️ คำเตือนและข้อจำกัด ⛔ ถูกคุกคามจากเว็บไซต์ 4chan ที่เผยแพร่ข้อมูลส่วนตัวของเธอและครอบครัว ⛔ ข้อความบางส่วนมีเนื้อหามีความรุนแรงและเหยียดเพศ ⛔ การเปิดเผยข้อมูลส่วนตัวมากเกินไป เช่น น้ำหนัก, ศาสนา, ความชอบ อาจนำไปสู่การถูกวิจารณ์ ⛔ การใช้วิธีสาธารณะในการหาคู่อาจเสี่ยงต่อความปลอดภัย https://www.thestar.com.my/tech/tech-news/2025/10/11/tired-of-swiping-this-us-woman-turned-to-billboards-to-find-a-husband-then-came-the-hate
    WWW.THESTAR.COM.MY
    Tired of swiping, this US woman turned to billboards to find a husband. Then came the hate
    Many of the more than 2,200 "potential suitors" around the world who've reached out to her are online bullies more interested in ridiculing her – or worse.
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • “Pixel Watch 4: สมาร์ตวอชที่ไม่ต้องพยายามก็ชนะใจ — ดีไซน์หรู ฟีเจอร์ครบ แบตอึด พร้อม Gemini บนข้อมือ”

    Google เปิดตัว Pixel Watch 4 อย่างเป็นทางการในวันที่ 9 ตุลาคม 2025 โดยยังคงรักษาดีไซน์โดมสุดหรูที่เป็นเอกลักษณ์ พร้อมปรับปรุงหลายจุดให้กลายเป็นสมาร์ตวอชที่ “ใช้งานจริง” ได้มากกว่าการเป็นแค่เครื่องแจ้งเตือน

    สิ่งแรกที่โดดเด่นคือแบตเตอรี่ที่ใช้งานได้จริงถึง 2 วันเต็ม แม้เปิด Always-On Display และใช้หลาย complications ก็ยังอยู่รอดได้สบาย ๆ โดยใช้สถาปัตยกรรมแบบ dual-chip ที่แบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก ซึ่งช่วยลดภาระการประมวลผลและยืดอายุแบตได้อย่างมีประสิทธิภาพ

    Pixel Watch 4 ยังมาพร้อม Gemini ซึ่งเป็น AI ผู้ช่วยที่ฉลาดขึ้นกว่า Google Assistant เดิม โดยสามารถตั้ง shortcut บน Tile เพื่อสั่งงานได้ทันที เช่น เปิดไฟห้อง หรือถามเวลาการแข่งขันกีฬา น่าเสียดายที่ฟีเจอร์ Magic Cue ซึ่งดึงข้อมูลส่วนตัวมาแสดงอัตโนมัติ ยังไม่รองรับบนตัวนาฬิกา

    ด้านดีไซน์ Google ปรับหน้าจอให้เป็นโดมทั้งกระจกและพาเนลจริง ๆ ซึ่งต่างจากรุ่นก่อนที่โค้งแค่ขอบ ทำให้เกิดเอฟเฟกต์ “ลอย” ของ UI ที่ดูนุ่มนวลและลื่นไหล โดยใช้ Material 3 Expressive ที่จัดวางปุ่มและ Tiles ได้อย่างสนุกและใช้งานง่าย

    สำหรับการติดตามสุขภาพ Pixel Watch 4 ยังใช้ระบบ Fitbit เป็นหลัก โดยเพิ่มฟีเจอร์ใหม่ เช่น ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน และมีการแจ้งเตือนแบบสั่นที่ปรับปรุงให้แม่นยำและไม่รบกวนคนข้าง ๆ

    สุดท้ายคือการรองรับการเชื่อมต่อผ่านดาวเทียม ซึ่งแม้จะยังไม่ได้ทดสอบจริง แต่ถือเป็นฟีเจอร์สำรองที่มีประโยชน์ในสถานการณ์ฉุกเฉิน เช่น หลงทางในพื้นที่ไม่มีสัญญาณมือถือ

    ข้อมูลสำคัญจากข่าว
    Pixel Watch 4 เปิดตัววันที่ 9 ตุลาคม 2025
    ใช้แบตเตอรี่ได้จริง 2 วัน แม้เปิด Always-On Display และหลาย complications
    ใช้สถาปัตยกรรม dual-chip เพื่อแบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก
    รองรับ Gemini บนข้อมือ พร้อมตั้ง shortcut บน Tile ได้
    ไม่รองรับ Magic Cue บนตัวนาฬิกา
    ดีไซน์หน้าจอแบบโดมจริงทั้งกระจกและพาเนล
    ใช้ Material 3 Expressive ในการจัดวาง UI
    ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน
    รองรับการเชื่อมต่อผ่านดาวเทียมในกรณีฉุกเฉิน
    ราคาเริ่มต้นที่ $349.99 เท่ากับรุ่นก่อน

    ข้อมูลเสริมจากภายนอก
    Gemini เป็น AI ผู้ช่วยรุ่นใหม่ของ Google ที่เน้นการเข้าใจบริบทและคำสั่งซับซ้อน
    Material 3 Expressive เป็นแนวทางออกแบบ UI ที่เน้นความสนุกและความลื่นไหล
    Dual-chip architecture เคยใช้ใน OnePlus Watch 2 และช่วยยืดแบตได้จริง
    การเชื่อมต่อผ่านดาวเทียมเริ่มเป็นมาตรฐานในอุปกรณ์สวมใส่ระดับสูง
    Fitbit Premium ยังเป็นระบบหลักในการวิเคราะห์สุขภาพบน Pixel Watch

    https://www.slashgear.com/1992014/google-pixel-watch-4-review/
    ⌚ “Pixel Watch 4: สมาร์ตวอชที่ไม่ต้องพยายามก็ชนะใจ — ดีไซน์หรู ฟีเจอร์ครบ แบตอึด พร้อม Gemini บนข้อมือ” Google เปิดตัว Pixel Watch 4 อย่างเป็นทางการในวันที่ 9 ตุลาคม 2025 โดยยังคงรักษาดีไซน์โดมสุดหรูที่เป็นเอกลักษณ์ พร้อมปรับปรุงหลายจุดให้กลายเป็นสมาร์ตวอชที่ “ใช้งานจริง” ได้มากกว่าการเป็นแค่เครื่องแจ้งเตือน สิ่งแรกที่โดดเด่นคือแบตเตอรี่ที่ใช้งานได้จริงถึง 2 วันเต็ม แม้เปิด Always-On Display และใช้หลาย complications ก็ยังอยู่รอดได้สบาย ๆ โดยใช้สถาปัตยกรรมแบบ dual-chip ที่แบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก ซึ่งช่วยลดภาระการประมวลผลและยืดอายุแบตได้อย่างมีประสิทธิภาพ Pixel Watch 4 ยังมาพร้อม Gemini ซึ่งเป็น AI ผู้ช่วยที่ฉลาดขึ้นกว่า Google Assistant เดิม โดยสามารถตั้ง shortcut บน Tile เพื่อสั่งงานได้ทันที เช่น เปิดไฟห้อง หรือถามเวลาการแข่งขันกีฬา น่าเสียดายที่ฟีเจอร์ Magic Cue ซึ่งดึงข้อมูลส่วนตัวมาแสดงอัตโนมัติ ยังไม่รองรับบนตัวนาฬิกา ด้านดีไซน์ Google ปรับหน้าจอให้เป็นโดมทั้งกระจกและพาเนลจริง ๆ ซึ่งต่างจากรุ่นก่อนที่โค้งแค่ขอบ ทำให้เกิดเอฟเฟกต์ “ลอย” ของ UI ที่ดูนุ่มนวลและลื่นไหล โดยใช้ Material 3 Expressive ที่จัดวางปุ่มและ Tiles ได้อย่างสนุกและใช้งานง่าย สำหรับการติดตามสุขภาพ Pixel Watch 4 ยังใช้ระบบ Fitbit เป็นหลัก โดยเพิ่มฟีเจอร์ใหม่ เช่น ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน และมีการแจ้งเตือนแบบสั่นที่ปรับปรุงให้แม่นยำและไม่รบกวนคนข้าง ๆ สุดท้ายคือการรองรับการเชื่อมต่อผ่านดาวเทียม ซึ่งแม้จะยังไม่ได้ทดสอบจริง แต่ถือเป็นฟีเจอร์สำรองที่มีประโยชน์ในสถานการณ์ฉุกเฉิน เช่น หลงทางในพื้นที่ไม่มีสัญญาณมือถือ ✅ ข้อมูลสำคัญจากข่าว ➡️ Pixel Watch 4 เปิดตัววันที่ 9 ตุลาคม 2025 ➡️ ใช้แบตเตอรี่ได้จริง 2 วัน แม้เปิด Always-On Display และหลาย complications ➡️ ใช้สถาปัตยกรรม dual-chip เพื่อแบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก ➡️ รองรับ Gemini บนข้อมือ พร้อมตั้ง shortcut บน Tile ได้ ➡️ ไม่รองรับ Magic Cue บนตัวนาฬิกา ➡️ ดีไซน์หน้าจอแบบโดมจริงทั้งกระจกและพาเนล ➡️ ใช้ Material 3 Expressive ในการจัดวาง UI ➡️ ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน ➡️ รองรับการเชื่อมต่อผ่านดาวเทียมในกรณีฉุกเฉิน ➡️ ราคาเริ่มต้นที่ $349.99 เท่ากับรุ่นก่อน ✅ ข้อมูลเสริมจากภายนอก ➡️ Gemini เป็น AI ผู้ช่วยรุ่นใหม่ของ Google ที่เน้นการเข้าใจบริบทและคำสั่งซับซ้อน ➡️ Material 3 Expressive เป็นแนวทางออกแบบ UI ที่เน้นความสนุกและความลื่นไหล ➡️ Dual-chip architecture เคยใช้ใน OnePlus Watch 2 และช่วยยืดแบตได้จริง ➡️ การเชื่อมต่อผ่านดาวเทียมเริ่มเป็นมาตรฐานในอุปกรณ์สวมใส่ระดับสูง ➡️ Fitbit Premium ยังเป็นระบบหลักในการวิเคราะห์สุขภาพบน Pixel Watch https://www.slashgear.com/1992014/google-pixel-watch-4-review/
    WWW.SLASHGEAR.COM
    Google Made The Best Smartwatch For Android, And It Did It Without Gimmicks - SlashGear
    Google's Pixel Watch 4 is the best WearOS smartwatch yet -- and it might very well be the most beautiful smartwatch ever made.
    0 ความคิดเห็น 0 การแบ่งปัน 215 มุมมอง 0 รีวิว
  • “แคลิฟอร์เนียออกกฎหมายใหม่ ให้ผู้ใช้กดปุ่มเดียว ‘Opt-Out’ จากการขายข้อมูล — เว็บเบราว์เซอร์ต้องปรับตัวก่อนปี 2027”

    เมื่อวันที่ 9 ตุลาคม 2025 ผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom ได้ลงนามในกฎหมายใหม่ชื่อว่า “California Opt Me Out Act” ซึ่งเป็นการปรับปรุงจากกฎหมาย California Consumer Privacy Act (CCPA) ที่มีมาตั้งแต่ปี 2018 โดยเน้นให้ผู้บริโภคสามารถ “ยกเลิกการอนุญาตให้เว็บไซต์ขายหรือแชร์ข้อมูลส่วนตัว” ได้ง่ายขึ้นผ่านเว็บเบราว์เซอร์โดยตรง

    ก่อนหน้านี้ ผู้ใช้ต้องกดยืนยันการ opt-out ทีละเว็บไซต์ หรือใช้เบราว์เซอร์เฉพาะที่รองรับฟีเจอร์นี้ เช่น Brave หรือใช้ส่วนขยาย (extension) เพิ่มเติม แต่กฎหมายใหม่จะบังคับให้เบราว์เซอร์ทุกตัวที่ใช้งานในแคลิฟอร์เนียต้องมีปุ่ม opt-out ที่หาเจอง่าย และส่งสัญญาณ opt-out preference signal (OOPS) ไปยังเว็บไซต์โดยอัตโนมัติ

    เมื่อเปิดใช้งาน OOPS แล้ว เว็บไซต์จะต้องหยุดการขายหรือแชร์ข้อมูล เช่น ประวัติการเข้าชม, ตำแหน่ง, ความสนใจ และพฤติกรรมการซื้อของผู้ใช้ โดยไม่ต้องให้ผู้ใช้ยืนยันซ้ำในแต่ละเว็บไซต์

    กฎหมายนี้จะมีผลบังคับใช้ในวันที่ 1 มกราคม 2027 และถือเป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์ต้องรองรับการ opt-out แบบ universal ซึ่งนักวิเคราะห์เชื่อว่าจะส่งผลกระทบต่ออุตสาหกรรมโฆษณาออนไลน์อย่างมาก

    นอกจากนี้ยังมีอีกสองกฎหมายที่ลงนามพร้อมกัน ได้แก่

    กฎหมายที่บังคับให้แพลตฟอร์มโซเชียลมีเดียต้องให้ผู้ใช้ยกเลิกบัญชีได้ง่าย และลบข้อมูลทั้งหมดทันที
    กฎหมายที่ปรับปรุงระบบลงทะเบียน data broker โดยให้ผู้ใช้รู้ว่าใครเก็บข้อมูลของตน และนำไปใช้อย่างไร

    ข้อมูลสำคัญจากข่าว
    แคลิฟอร์เนียออกกฎหมาย “Opt Me Out Act” เพื่อให้ผู้ใช้ opt-out ได้ง่ายผ่านเบราว์เซอร์
    กฎหมายบังคับให้เบราว์เซอร์ต้องมีปุ่ม opt-out ที่หาเจอง่ายและส่งสัญญาณ OOPS
    เมื่อเปิดใช้งาน OOPS เว็บไซต์ต้องหยุดขายหรือแชร์ข้อมูลทันที
    กฎหมายมีผลบังคับใช้วันที่ 1 มกราคม 2027
    เป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์รองรับ opt-out แบบ universal
    ผู้ใช้ไม่ต้องติดตั้ง extension หรือใช้เบราว์เซอร์เฉพาะอีกต่อไป
    อีกสองกฎหมายที่ลงนามพร้อมกันเกี่ยวกับการลบบัญชีโซเชียลและการเปิดเผยข้อมูลจาก data broker

    ข้อมูลเสริมจากภายนอก
    OOPS (Opt-Out Preference Signal) เป็นมาตรฐานที่กำหนดโดย CCPA และ CPPA
    Brave และ Firefox เป็นเบราว์เซอร์ที่รองรับ OOPS มานานแล้ว
    Data broker คือบริษัทที่รวบรวมข้อมูลจากหลายแหล่งเพื่อขายให้กับนักโฆษณา
    การ opt-out แบบ universal ช่วยลดความยุ่งยากในการปกป้องข้อมูลส่วนตัว
    กฎหมายนี้อาจกระทบต่อรายได้ของเว็บไซต์ที่พึ่งพาโฆษณาแบบ personalized

    คำเตือนและข้อจำกัด
    กฎหมายมีผลปี 2027 ผู้ใช้ยังต้องใช้ extension หรือเบราว์เซอร์เฉพาะจนกว่าจะถึงวันนั้น
    เบราว์เซอร์ที่ไม่ปรับตัวอาจถูกห้ามใช้งานในแคลิฟอร์เนีย
    เว็บไซต์ที่ไม่รองรับ OOPS อาจละเมิดกฎหมายและถูกลงโทษ
    ผู้ใช้บางรายอาจไม่รู้ว่าต้องเปิดใช้งาน OOPS ด้วยตนเอง
    การ opt-out อาจทำให้เว็บไซต์บางแห่งแสดงเนื้อหาหรือโฆษณาไม่ตรงความสนใจ

    https://therecord.media/california-signs-law-opt-out-browsers
    🛑 “แคลิฟอร์เนียออกกฎหมายใหม่ ให้ผู้ใช้กดปุ่มเดียว ‘Opt-Out’ จากการขายข้อมูล — เว็บเบราว์เซอร์ต้องปรับตัวก่อนปี 2027” เมื่อวันที่ 9 ตุลาคม 2025 ผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom ได้ลงนามในกฎหมายใหม่ชื่อว่า “California Opt Me Out Act” ซึ่งเป็นการปรับปรุงจากกฎหมาย California Consumer Privacy Act (CCPA) ที่มีมาตั้งแต่ปี 2018 โดยเน้นให้ผู้บริโภคสามารถ “ยกเลิกการอนุญาตให้เว็บไซต์ขายหรือแชร์ข้อมูลส่วนตัว” ได้ง่ายขึ้นผ่านเว็บเบราว์เซอร์โดยตรง ก่อนหน้านี้ ผู้ใช้ต้องกดยืนยันการ opt-out ทีละเว็บไซต์ หรือใช้เบราว์เซอร์เฉพาะที่รองรับฟีเจอร์นี้ เช่น Brave หรือใช้ส่วนขยาย (extension) เพิ่มเติม แต่กฎหมายใหม่จะบังคับให้เบราว์เซอร์ทุกตัวที่ใช้งานในแคลิฟอร์เนียต้องมีปุ่ม opt-out ที่หาเจอง่าย และส่งสัญญาณ opt-out preference signal (OOPS) ไปยังเว็บไซต์โดยอัตโนมัติ เมื่อเปิดใช้งาน OOPS แล้ว เว็บไซต์จะต้องหยุดการขายหรือแชร์ข้อมูล เช่น ประวัติการเข้าชม, ตำแหน่ง, ความสนใจ และพฤติกรรมการซื้อของผู้ใช้ โดยไม่ต้องให้ผู้ใช้ยืนยันซ้ำในแต่ละเว็บไซต์ กฎหมายนี้จะมีผลบังคับใช้ในวันที่ 1 มกราคม 2027 และถือเป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์ต้องรองรับการ opt-out แบบ universal ซึ่งนักวิเคราะห์เชื่อว่าจะส่งผลกระทบต่ออุตสาหกรรมโฆษณาออนไลน์อย่างมาก นอกจากนี้ยังมีอีกสองกฎหมายที่ลงนามพร้อมกัน ได้แก่ 🔰 กฎหมายที่บังคับให้แพลตฟอร์มโซเชียลมีเดียต้องให้ผู้ใช้ยกเลิกบัญชีได้ง่าย และลบข้อมูลทั้งหมดทันที 🔰 กฎหมายที่ปรับปรุงระบบลงทะเบียน data broker โดยให้ผู้ใช้รู้ว่าใครเก็บข้อมูลของตน และนำไปใช้อย่างไร ✅ ข้อมูลสำคัญจากข่าว ➡️ แคลิฟอร์เนียออกกฎหมาย “Opt Me Out Act” เพื่อให้ผู้ใช้ opt-out ได้ง่ายผ่านเบราว์เซอร์ ➡️ กฎหมายบังคับให้เบราว์เซอร์ต้องมีปุ่ม opt-out ที่หาเจอง่ายและส่งสัญญาณ OOPS ➡️ เมื่อเปิดใช้งาน OOPS เว็บไซต์ต้องหยุดขายหรือแชร์ข้อมูลทันที ➡️ กฎหมายมีผลบังคับใช้วันที่ 1 มกราคม 2027 ➡️ เป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์รองรับ opt-out แบบ universal ➡️ ผู้ใช้ไม่ต้องติดตั้ง extension หรือใช้เบราว์เซอร์เฉพาะอีกต่อไป ➡️ อีกสองกฎหมายที่ลงนามพร้อมกันเกี่ยวกับการลบบัญชีโซเชียลและการเปิดเผยข้อมูลจาก data broker ✅ ข้อมูลเสริมจากภายนอก ➡️ OOPS (Opt-Out Preference Signal) เป็นมาตรฐานที่กำหนดโดย CCPA และ CPPA ➡️ Brave และ Firefox เป็นเบราว์เซอร์ที่รองรับ OOPS มานานแล้ว ➡️ Data broker คือบริษัทที่รวบรวมข้อมูลจากหลายแหล่งเพื่อขายให้กับนักโฆษณา ➡️ การ opt-out แบบ universal ช่วยลดความยุ่งยากในการปกป้องข้อมูลส่วนตัว ➡️ กฎหมายนี้อาจกระทบต่อรายได้ของเว็บไซต์ที่พึ่งพาโฆษณาแบบ personalized ‼️ คำเตือนและข้อจำกัด ⛔ กฎหมายมีผลปี 2027 ผู้ใช้ยังต้องใช้ extension หรือเบราว์เซอร์เฉพาะจนกว่าจะถึงวันนั้น ⛔ เบราว์เซอร์ที่ไม่ปรับตัวอาจถูกห้ามใช้งานในแคลิฟอร์เนีย ⛔ เว็บไซต์ที่ไม่รองรับ OOPS อาจละเมิดกฎหมายและถูกลงโทษ ⛔ ผู้ใช้บางรายอาจไม่รู้ว่าต้องเปิดใช้งาน OOPS ด้วยตนเอง ⛔ การ opt-out อาจทำให้เว็บไซต์บางแห่งแสดงเนื้อหาหรือโฆษณาไม่ตรงความสนใจ https://therecord.media/california-signs-law-opt-out-browsers
    THERECORD.MEDIA
    California enacts law giving consumers ability to universally opt out of data sharing
    The California Consumer Privacy Act, signed in 2018, gave Californians the right to send opt-out signals, but major browsers have not had to make opt-outs simple to use.
    0 ความคิดเห็น 0 การแบ่งปัน 207 มุมมอง 0 รีวิว
  • “จับสองวัยรุ่นอังกฤษ โจมตีแรนซัมแวร์ใส่ศูนย์เด็ก Kido — ข้อมูลเด็ก 8,000 คนถูกขโมยและขู่เรียกค่าไถ่”

    ตำรวจนครบาลลอนดอน (Met Police) ได้จับกุมวัยรุ่นชายอายุ 17 ปีสองคนในเมือง Bishop’s Stortford, Hertfordshire เมื่อวันที่ 7 ตุลาคม 2025 จากข้อหาการใช้คอมพิวเตอร์ในทางมิชอบและการแบล็กเมล์ หลังจากเกิดเหตุโจมตีแรนซัมแวร์ต่อเครือข่ายศูนย์เด็ก Kido ซึ่งมีสาขาทั่วลอนดอน

    กลุ่มแฮกเกอร์ที่เรียกตัวเองว่า “Radiant” ได้อ้างความรับผิดชอบในการโจมตี โดยสามารถเข้าถึงข้อมูลส่วนตัวของเด็กกว่า 8,000 คนและครอบครัวผ่านซอฟต์แวร์ Famly ที่ศูนย์เด็กใช้ในการจัดการข้อมูล แม้ Famly จะยืนยันว่าโครงสร้างพื้นฐานของตนไม่ถูกเจาะ แต่การเข้าถึงผ่านบัญชีผู้ใช้ก็เพียงพอให้ Radiant ขโมยข้อมูลสำคัญ เช่น ชื่อ ที่อยู่ รูปถ่าย ข้อมูลติดต่อของผู้ปกครอง และบันทึกทางการแพทย์ที่เป็นความลับ

    Radiant ได้เรียกร้องค่าไถ่ประมาณ £600,000 เป็น Bitcoin และใช้วิธีการกดดันที่รุนแรง เช่น โทรหาผู้ปกครองโดยตรง และโพสต์ภาพเด็กบางคนลงใน dark web เพื่อบีบให้ศูนย์เด็กจ่ายเงิน อย่างไรก็ตาม กลุ่มนี้กลับได้รับเสียงประณามอย่างหนัก แม้แต่จากแฮกเกอร์ด้วยกัน จนสุดท้าย Radiant ได้เบลอภาพและประกาศลบข้อมูลทั้งหมดเมื่อวันที่ 2 ตุลาคม

    ตำรวจ Met ยืนยันว่ากำลังดำเนินการสอบสวนอย่างจริงจัง โดย Will Lyne หัวหน้าฝ่ายอาชญากรรมไซเบอร์กล่าวว่า “นี่เป็นก้าวสำคัญในการนำผู้กระทำผิดเข้าสู่กระบวนการยุติธรรม” ขณะที่ศูนย์เด็ก Kido ก็ออกแถลงการณ์ขอบคุณการดำเนินการของตำรวจ

    เหตุการณ์นี้สะท้อนถึงความเปราะบางของภาคการศึกษา โดยเฉพาะศูนย์เด็กและโรงเรียนที่มักมีงบประมาณด้าน IT จำกัด ทำให้ตกเป็นเป้าหมายของแรนซัมแวร์บ่อยครั้ง รายงานจาก Sophos และ AtlastVPN เคยระบุว่า 80% ของผู้ให้บริการการศึกษาระดับต้นเคยถูกโจมตีด้วยแรนซัมแวร์ภายในหนึ่งปี

    ข้อมูลสำคัญจากข่าว
    ตำรวจ Met จับกุมวัยรุ่นชายสองคนจากข้อหาใช้คอมพิวเตอร์ในทางมิชอบและแบล็กเมล์
    เหตุโจมตีเกิดขึ้นกับศูนย์เด็ก Kido ซึ่งมีข้อมูลเด็กกว่า 8,000 คนถูกขโมย
    ข้อมูลที่ถูกขโมยรวมถึงชื่อ ที่อยู่ รูปถ่าย และบันทึกทางการแพทย์
    กลุ่มแฮกเกอร์ Radiant เรียกร้องค่าไถ่ £600,000 เป็น Bitcoin
    Radiant โทรหาผู้ปกครองและโพสต์ภาพเด็กใน dark web เพื่อกดดัน
    หลังถูกประณาม กลุ่ม Radiant เบลอภาพและประกาศลบข้อมูล
    ตำรวจ Met ยืนยันดำเนินการสอบสวนอย่างจริงจัง
    ศูนย์เด็ก Kido ขอบคุณการดำเนินการของตำรวจ

    ข้อมูลเสริมจากภายนอก
    Famly เป็นซอฟต์แวร์จัดการศูนย์เด็กที่ใช้กันแพร่หลายในยุโรป
    ข้อมูลเด็กเป็นเป้าหมายของแฮกเกอร์ เพราะมีประวัติเครดิตสะอาดและยากต่อการตรวจพบ
    การโจมตีแรนซัมแวร์ในภาคการศึกษามักเกิดจาก phishing และการตั้งค่าความปลอดภัยต่ำ
    กลุ่มแฮกเกอร์วัยรุ่น เช่น Lapsus$ และ Scattered Spider เคยโจมตีองค์กรใหญ่หลายแห่ง
    การโจมตีข้อมูลเด็กถือเป็น “จุดต่ำสุดใหม่” ของอาชญากรรมไซเบอร์

    https://hackread.com/uk-police-arrest-teens-kido-nursery-ransomware-attack/
    🚨 “จับสองวัยรุ่นอังกฤษ โจมตีแรนซัมแวร์ใส่ศูนย์เด็ก Kido — ข้อมูลเด็ก 8,000 คนถูกขโมยและขู่เรียกค่าไถ่” ตำรวจนครบาลลอนดอน (Met Police) ได้จับกุมวัยรุ่นชายอายุ 17 ปีสองคนในเมือง Bishop’s Stortford, Hertfordshire เมื่อวันที่ 7 ตุลาคม 2025 จากข้อหาการใช้คอมพิวเตอร์ในทางมิชอบและการแบล็กเมล์ หลังจากเกิดเหตุโจมตีแรนซัมแวร์ต่อเครือข่ายศูนย์เด็ก Kido ซึ่งมีสาขาทั่วลอนดอน กลุ่มแฮกเกอร์ที่เรียกตัวเองว่า “Radiant” ได้อ้างความรับผิดชอบในการโจมตี โดยสามารถเข้าถึงข้อมูลส่วนตัวของเด็กกว่า 8,000 คนและครอบครัวผ่านซอฟต์แวร์ Famly ที่ศูนย์เด็กใช้ในการจัดการข้อมูล แม้ Famly จะยืนยันว่าโครงสร้างพื้นฐานของตนไม่ถูกเจาะ แต่การเข้าถึงผ่านบัญชีผู้ใช้ก็เพียงพอให้ Radiant ขโมยข้อมูลสำคัญ เช่น ชื่อ ที่อยู่ รูปถ่าย ข้อมูลติดต่อของผู้ปกครอง และบันทึกทางการแพทย์ที่เป็นความลับ Radiant ได้เรียกร้องค่าไถ่ประมาณ £600,000 เป็น Bitcoin และใช้วิธีการกดดันที่รุนแรง เช่น โทรหาผู้ปกครองโดยตรง และโพสต์ภาพเด็กบางคนลงใน dark web เพื่อบีบให้ศูนย์เด็กจ่ายเงิน อย่างไรก็ตาม กลุ่มนี้กลับได้รับเสียงประณามอย่างหนัก แม้แต่จากแฮกเกอร์ด้วยกัน จนสุดท้าย Radiant ได้เบลอภาพและประกาศลบข้อมูลทั้งหมดเมื่อวันที่ 2 ตุลาคม ตำรวจ Met ยืนยันว่ากำลังดำเนินการสอบสวนอย่างจริงจัง โดย Will Lyne หัวหน้าฝ่ายอาชญากรรมไซเบอร์กล่าวว่า “นี่เป็นก้าวสำคัญในการนำผู้กระทำผิดเข้าสู่กระบวนการยุติธรรม” ขณะที่ศูนย์เด็ก Kido ก็ออกแถลงการณ์ขอบคุณการดำเนินการของตำรวจ เหตุการณ์นี้สะท้อนถึงความเปราะบางของภาคการศึกษา โดยเฉพาะศูนย์เด็กและโรงเรียนที่มักมีงบประมาณด้าน IT จำกัด ทำให้ตกเป็นเป้าหมายของแรนซัมแวร์บ่อยครั้ง รายงานจาก Sophos และ AtlastVPN เคยระบุว่า 80% ของผู้ให้บริการการศึกษาระดับต้นเคยถูกโจมตีด้วยแรนซัมแวร์ภายในหนึ่งปี ✅ ข้อมูลสำคัญจากข่าว ➡️ ตำรวจ Met จับกุมวัยรุ่นชายสองคนจากข้อหาใช้คอมพิวเตอร์ในทางมิชอบและแบล็กเมล์ ➡️ เหตุโจมตีเกิดขึ้นกับศูนย์เด็ก Kido ซึ่งมีข้อมูลเด็กกว่า 8,000 คนถูกขโมย ➡️ ข้อมูลที่ถูกขโมยรวมถึงชื่อ ที่อยู่ รูปถ่าย และบันทึกทางการแพทย์ ➡️ กลุ่มแฮกเกอร์ Radiant เรียกร้องค่าไถ่ £600,000 เป็น Bitcoin ➡️ Radiant โทรหาผู้ปกครองและโพสต์ภาพเด็กใน dark web เพื่อกดดัน ➡️ หลังถูกประณาม กลุ่ม Radiant เบลอภาพและประกาศลบข้อมูล ➡️ ตำรวจ Met ยืนยันดำเนินการสอบสวนอย่างจริงจัง ➡️ ศูนย์เด็ก Kido ขอบคุณการดำเนินการของตำรวจ ✅ ข้อมูลเสริมจากภายนอก ➡️ Famly เป็นซอฟต์แวร์จัดการศูนย์เด็กที่ใช้กันแพร่หลายในยุโรป ➡️ ข้อมูลเด็กเป็นเป้าหมายของแฮกเกอร์ เพราะมีประวัติเครดิตสะอาดและยากต่อการตรวจพบ ➡️ การโจมตีแรนซัมแวร์ในภาคการศึกษามักเกิดจาก phishing และการตั้งค่าความปลอดภัยต่ำ ➡️ กลุ่มแฮกเกอร์วัยรุ่น เช่น Lapsus$ และ Scattered Spider เคยโจมตีองค์กรใหญ่หลายแห่ง ➡️ การโจมตีข้อมูลเด็กถือเป็น “จุดต่ำสุดใหม่” ของอาชญากรรมไซเบอร์ https://hackread.com/uk-police-arrest-teens-kido-nursery-ransomware-attack/
    HACKREAD.COM
    UK Police Arrest Two Teens Over Kido Nursery Ransomware Attack
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 316 มุมมอง 0 รีวิว
  • “ระวัง! แอปปลอม Signal และ ToTok แฝงสปายแวร์โจมตีผู้ใช้ Android ใน UAE — ขโมยข้อมูลส่วนตัวแบบเงียบ ๆ”

    นักวิจัยจาก ESET ได้เปิดเผยแคมเปญสปายแวร์ใหม่ที่กำลังระบาดในสหรัฐอาหรับเอมิเรตส์ (UAE) โดยใช้เทคนิคหลอกลวงผ่านแอปปลอมของ Signal และ ToTok ซึ่งเป็นแอปส่งข้อความที่ผู้ใช้ไว้วางใจ โดยแอปปลอมเหล่านี้ไม่ได้อยู่ใน Google Play หรือ App Store แต่ถูกเผยแพร่ผ่านเว็บไซต์ปลอมที่เลียนแบบหน้าตาแอปจริงอย่างแนบเนียน

    แคมเปญนี้ประกอบด้วยมัลแวร์สองสายพันธุ์ ได้แก่

    ProSpy (Android/Spy.ProSpy): ปลอมเป็น Signal Encryption Plugin และ ToTok Pro
    ToSpy (Android/Spy.ToSpy): ปลอมเป็นแอป ToTok โดยตรง

    เมื่อผู้ใช้ติดตั้ง APK จากเว็บไซต์ปลอม แอปจะขอสิทธิ์เข้าถึงข้อมูล เช่น รายชื่อผู้ติดต่อ ข้อความ ไฟล์ และข้อมูลสำรองการแชท โดยเฉพาะ ToSpy จะมุ่งเป้าไปที่ไฟล์ .ttkmbackup ซึ่งเป็นไฟล์สำรองของ ToTok โดยข้อมูลทั้งหมดจะถูกเข้ารหัสด้วย AES และส่งไปยังเซิร์ฟเวอร์ควบคุมที่ยังคงทำงานอยู่ในปี 2025

    ProSpy ยังมีเทคนิคซ่อนตัวขั้นสูง เช่น เปลี่ยนไอคอนเป็น Google Play Services และเปิดหน้าข้อมูลของแอปจริงเมื่อแตะไอคอน ทำให้ผู้ใช้ไม่สงสัยว่าเป็นมัลแวร์

    ESET พบว่าแคมเปญนี้เริ่มต้นตั้งแต่กลางปี 2022 และยังคงดำเนินอยู่ โดยมีการใช้เว็บไซต์ปลอมที่ลงท้ายด้วย .ae.net ซึ่งบ่งชี้ว่าเน้นโจมตีผู้ใช้ใน UAE โดยเฉพาะ

    เพื่อป้องกันตัวเอง ผู้ใช้ควรติดตั้งแอปจากแหล่งทางการเท่านั้น ปิดการติดตั้งจากแหล่งไม่รู้จัก และเปิดใช้งาน Google Play Protect ซึ่งจะบล็อกมัลแวร์ที่รู้จักโดยอัตโนมัติ

    ข้อมูลสำคัญจากข่าว
    พบมัลแวร์สองสายพันธุ์คือ ProSpy และ ToSpy ที่ปลอมเป็นแอป Signal และ ToTok
    แอปปลอมไม่ได้อยู่ใน Store ทางการ ต้องติดตั้ง APK จากเว็บไซต์ปลอม
    ProSpy ปลอมเป็น Signal Encryption Plugin และ ToTok Pro
    ToSpy ปลอมเป็นแอป ToTok โดยตรง และมุ่งเป้าไปที่ไฟล์สำรอง .ttkmbackup
    แอปขอสิทธิ์เข้าถึงข้อมูลส่วนตัว เช่น รายชื่อ ข้อความ ไฟล์ และข้อมูลแชท
    ข้อมูลถูกเข้ารหัสด้วย AES และส่งไปยังเซิร์ฟเวอร์ควบคุม
    ProSpy ใช้เทคนิคซ่อนตัวโดยเปลี่ยนไอคอนเป็น Google Play Services
    แคมเปญเริ่มตั้งแต่ปี 2022 และยังคงดำเนินอยู่ในปี 2025
    ESET แจ้ง Google แล้ว และ Play Protect บล็อกมัลแวร์โดยอัตโนมัติ

    ข้อมูลเสริมจากภายนอก
    ToTok เคยถูกถอดออกจาก Google Play และ App Store ในปี 2019 จากข้อกล่าวหาเรื่องการสอดแนม
    Signal เป็นแอปเข้ารหัสที่มีผู้ใช้มากกว่า 100 ล้านคนทั่วโลก
    การโจมตีแบบนี้เรียกว่า “social engineering” โดยใช้ความไว้วางใจในแบรนด์เพื่อหลอกลวง
    การติดตั้ง APK จากแหล่งภายนอกเป็นช่องทางหลักของมัลแวร์ Android
    การใช้ไอคอนและชื่อแอปที่เหมือนของจริงช่วยให้มัลแวร์หลบเลี่ยงการตรวจจับได้

    https://hackread.com/spyware-fake-signal-totok-apps-uae-android-users/
    📱 “ระวัง! แอปปลอม Signal และ ToTok แฝงสปายแวร์โจมตีผู้ใช้ Android ใน UAE — ขโมยข้อมูลส่วนตัวแบบเงียบ ๆ” นักวิจัยจาก ESET ได้เปิดเผยแคมเปญสปายแวร์ใหม่ที่กำลังระบาดในสหรัฐอาหรับเอมิเรตส์ (UAE) โดยใช้เทคนิคหลอกลวงผ่านแอปปลอมของ Signal และ ToTok ซึ่งเป็นแอปส่งข้อความที่ผู้ใช้ไว้วางใจ โดยแอปปลอมเหล่านี้ไม่ได้อยู่ใน Google Play หรือ App Store แต่ถูกเผยแพร่ผ่านเว็บไซต์ปลอมที่เลียนแบบหน้าตาแอปจริงอย่างแนบเนียน แคมเปญนี้ประกอบด้วยมัลแวร์สองสายพันธุ์ ได้แก่ 🐛 ProSpy (Android/Spy.ProSpy): ปลอมเป็น Signal Encryption Plugin และ ToTok Pro 🐛 ToSpy (Android/Spy.ToSpy): ปลอมเป็นแอป ToTok โดยตรง เมื่อผู้ใช้ติดตั้ง APK จากเว็บไซต์ปลอม แอปจะขอสิทธิ์เข้าถึงข้อมูล เช่น รายชื่อผู้ติดต่อ ข้อความ ไฟล์ และข้อมูลสำรองการแชท โดยเฉพาะ ToSpy จะมุ่งเป้าไปที่ไฟล์ .ttkmbackup ซึ่งเป็นไฟล์สำรองของ ToTok โดยข้อมูลทั้งหมดจะถูกเข้ารหัสด้วย AES และส่งไปยังเซิร์ฟเวอร์ควบคุมที่ยังคงทำงานอยู่ในปี 2025 ProSpy ยังมีเทคนิคซ่อนตัวขั้นสูง เช่น เปลี่ยนไอคอนเป็น Google Play Services และเปิดหน้าข้อมูลของแอปจริงเมื่อแตะไอคอน ทำให้ผู้ใช้ไม่สงสัยว่าเป็นมัลแวร์ ESET พบว่าแคมเปญนี้เริ่มต้นตั้งแต่กลางปี 2022 และยังคงดำเนินอยู่ โดยมีการใช้เว็บไซต์ปลอมที่ลงท้ายด้วย .ae.net ซึ่งบ่งชี้ว่าเน้นโจมตีผู้ใช้ใน UAE โดยเฉพาะ เพื่อป้องกันตัวเอง ผู้ใช้ควรติดตั้งแอปจากแหล่งทางการเท่านั้น ปิดการติดตั้งจากแหล่งไม่รู้จัก และเปิดใช้งาน Google Play Protect ซึ่งจะบล็อกมัลแวร์ที่รู้จักโดยอัตโนมัติ ✅ ข้อมูลสำคัญจากข่าว ➡️ พบมัลแวร์สองสายพันธุ์คือ ProSpy และ ToSpy ที่ปลอมเป็นแอป Signal และ ToTok ➡️ แอปปลอมไม่ได้อยู่ใน Store ทางการ ต้องติดตั้ง APK จากเว็บไซต์ปลอม ➡️ ProSpy ปลอมเป็น Signal Encryption Plugin และ ToTok Pro ➡️ ToSpy ปลอมเป็นแอป ToTok โดยตรง และมุ่งเป้าไปที่ไฟล์สำรอง .ttkmbackup ➡️ แอปขอสิทธิ์เข้าถึงข้อมูลส่วนตัว เช่น รายชื่อ ข้อความ ไฟล์ และข้อมูลแชท ➡️ ข้อมูลถูกเข้ารหัสด้วย AES และส่งไปยังเซิร์ฟเวอร์ควบคุม ➡️ ProSpy ใช้เทคนิคซ่อนตัวโดยเปลี่ยนไอคอนเป็น Google Play Services ➡️ แคมเปญเริ่มตั้งแต่ปี 2022 และยังคงดำเนินอยู่ในปี 2025 ➡️ ESET แจ้ง Google แล้ว และ Play Protect บล็อกมัลแวร์โดยอัตโนมัติ ✅ ข้อมูลเสริมจากภายนอก ➡️ ToTok เคยถูกถอดออกจาก Google Play และ App Store ในปี 2019 จากข้อกล่าวหาเรื่องการสอดแนม ➡️ Signal เป็นแอปเข้ารหัสที่มีผู้ใช้มากกว่า 100 ล้านคนทั่วโลก ➡️ การโจมตีแบบนี้เรียกว่า “social engineering” โดยใช้ความไว้วางใจในแบรนด์เพื่อหลอกลวง ➡️ การติดตั้ง APK จากแหล่งภายนอกเป็นช่องทางหลักของมัลแวร์ Android ➡️ การใช้ไอคอนและชื่อแอปที่เหมือนของจริงช่วยให้มัลแวร์หลบเลี่ยงการตรวจจับได้ https://hackread.com/spyware-fake-signal-totok-apps-uae-android-users/
    HACKREAD.COM
    Spyware Disguised as Signal and ToTok Apps Targets UAE Android Users
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 187 มุมมอง 0 รีวิว
  • “Smart TV ไม่ได้ฉลาดตลอดไป ถ้าไม่อัปเดต — ช่องโหว่ความปลอดภัยที่คุณอาจมองข้าม”

    ในยุคที่โทรทัศน์กลายเป็นมากกว่าแค่จอภาพ Smart TV ได้กลายเป็นอุปกรณ์ที่มีระบบปฏิบัติการ หน่วยประมวลผล หน่วยความจำ และแอปพลิเคชันมากมาย ซึ่งหมายความว่า มันคือ “คอมพิวเตอร์ที่ดูหนังได้” และเช่นเดียวกับคอมพิวเตอร์ทุกเครื่อง มันต้องการการอัปเดตซอฟต์แวร์อย่างสม่ำเสมอ

    หลายคนอาจคิดว่า Smart TV ไม่จำเป็นต้องอัปเดตบ่อย แต่ความจริงคือ การไม่อัปเดตอาจทำให้เกิดปัญหาตั้งแต่การทำงานช้า แอปค้าง ไปจนถึงการถูกโจมตีทางไซเบอร์ โดยเฉพาะเมื่อผู้ผลิตหยุดสนับสนุนซอฟต์แวร์ แม้ฮาร์ดแวร์ยังใช้งานได้ดีอยู่ก็ตาม

    รายงานจาก NETGEAR และ Bitdefender ในปี 2024 พบว่า Smart TV เป็นหนึ่งในอุปกรณ์ IoT ที่ถูกโจมตีมากที่สุด โดยคิดเป็นเกือบหนึ่งในสามของอุปกรณ์ที่มีช่องโหว่ทั้งหมด สาเหตุหลักคือการใช้งานยาวนานและการหยุดอัปเดตจากผู้ผลิต

    Smart TV ที่ไม่ได้อัปเดตอาจถูกแฮกเกอร์เข้าถึงข้อมูลส่วนตัว เช่น อีเมล บัตรเครดิต หรือบัญชีสตรีมมิ่ง โดยเฉพาะหากมีการติดตั้งแอปจากแหล่งที่ไม่เป็นทางการ หรือเชื่อมต่อกับเครือข่ายที่ไม่ปลอดภัย

    แม้การอัปเดตจะไม่เกิดขึ้นบ่อยเท่ากับสมาร์ทโฟน แต่ผู้ผลิตมักปล่อยแพตช์เล็ก ๆ ทุกไตรมาส และอัปเดตใหญ่ปีละครั้ง เช่น Android TV 14 ที่เปิดตัวในปี 2024 และเวอร์ชันถัดไปคาดว่าจะมาในปลายปี 2025 หรือต้นปี 2026

    ผู้ใช้สามารถตรวจสอบสถานะการอัปเดตได้จากเมนูตั้งค่าของทีวี และควรเปิดใช้งานการอัปเดตอัตโนมัติไว้เสมอ เพื่อให้มั่นใจว่าอุปกรณ์ยังปลอดภัยและทำงานได้เต็มประสิทธิภาพ

    ข้อมูลสำคัญจากข่าว
    Smart TV มีระบบปฏิบัติการและฟีเจอร์คล้ายคอมพิวเตอร์
    ต้องการการอัปเดตเพื่อแก้บั๊ก เพิ่มฟีเจอร์ และเสริมความปลอดภัย
    Android TV 14 เปิดตัวในปี 2024 และเวอร์ชันถัดไปคาดว่าจะมาในปี 2025–2026
    ผู้ผลิตปล่อยแพตช์เล็ก ๆ ทุกไตรมาส
    Smart TV มีอายุเฉลี่ยประมาณ 10 ปี แต่การสนับสนุนซอฟต์แวร์อาจสิ้นสุดก่อน
    ผู้ใช้สามารถเปิดหรือปิดการอัปเดตอัตโนมัติได้จากเมนูตั้งค่า
    การอัปเดตช่วยให้แอปทำงานได้ดีขึ้นและลดความเสี่ยงด้านความปลอดภัย

    ข้อมูลเสริมจากภายนอก
    Smart TV บางรุ่นมีไมโครโฟนและกล้องในตัว ซึ่งอาจถูกใช้โจมตีได้
    ผู้ผลิตบางรายให้การสนับสนุนซอฟต์แวร์เพียง 2–3 ปีหลังเปิดตัว
    มีกรณีจริงที่แฮกเกอร์สามารถควบคุมทีวีจากระยะไกล เช่น เปลี่ยนช่องหรือเพิ่มเสียง
    FTC เคยปรับบริษัท Vizio ฐานเก็บข้อมูลผู้ใช้โดยไม่แจ้งล่วงหน้า
    การใช้รหัสผ่าน Wi-Fi ที่แข็งแรงและการตั้งค่าความปลอดภัยของเครือข่ายช่วยลดความเสี่ยง

    https://www.slashgear.com/1984686/smart-tvs-need-software-updates-reason-why-how-often/
    📺 “Smart TV ไม่ได้ฉลาดตลอดไป ถ้าไม่อัปเดต — ช่องโหว่ความปลอดภัยที่คุณอาจมองข้าม” ในยุคที่โทรทัศน์กลายเป็นมากกว่าแค่จอภาพ Smart TV ได้กลายเป็นอุปกรณ์ที่มีระบบปฏิบัติการ หน่วยประมวลผล หน่วยความจำ และแอปพลิเคชันมากมาย ซึ่งหมายความว่า มันคือ “คอมพิวเตอร์ที่ดูหนังได้” และเช่นเดียวกับคอมพิวเตอร์ทุกเครื่อง มันต้องการการอัปเดตซอฟต์แวร์อย่างสม่ำเสมอ หลายคนอาจคิดว่า Smart TV ไม่จำเป็นต้องอัปเดตบ่อย แต่ความจริงคือ การไม่อัปเดตอาจทำให้เกิดปัญหาตั้งแต่การทำงานช้า แอปค้าง ไปจนถึงการถูกโจมตีทางไซเบอร์ โดยเฉพาะเมื่อผู้ผลิตหยุดสนับสนุนซอฟต์แวร์ แม้ฮาร์ดแวร์ยังใช้งานได้ดีอยู่ก็ตาม รายงานจาก NETGEAR และ Bitdefender ในปี 2024 พบว่า Smart TV เป็นหนึ่งในอุปกรณ์ IoT ที่ถูกโจมตีมากที่สุด โดยคิดเป็นเกือบหนึ่งในสามของอุปกรณ์ที่มีช่องโหว่ทั้งหมด สาเหตุหลักคือการใช้งานยาวนานและการหยุดอัปเดตจากผู้ผลิต Smart TV ที่ไม่ได้อัปเดตอาจถูกแฮกเกอร์เข้าถึงข้อมูลส่วนตัว เช่น อีเมล บัตรเครดิต หรือบัญชีสตรีมมิ่ง โดยเฉพาะหากมีการติดตั้งแอปจากแหล่งที่ไม่เป็นทางการ หรือเชื่อมต่อกับเครือข่ายที่ไม่ปลอดภัย แม้การอัปเดตจะไม่เกิดขึ้นบ่อยเท่ากับสมาร์ทโฟน แต่ผู้ผลิตมักปล่อยแพตช์เล็ก ๆ ทุกไตรมาส และอัปเดตใหญ่ปีละครั้ง เช่น Android TV 14 ที่เปิดตัวในปี 2024 และเวอร์ชันถัดไปคาดว่าจะมาในปลายปี 2025 หรือต้นปี 2026 ผู้ใช้สามารถตรวจสอบสถานะการอัปเดตได้จากเมนูตั้งค่าของทีวี และควรเปิดใช้งานการอัปเดตอัตโนมัติไว้เสมอ เพื่อให้มั่นใจว่าอุปกรณ์ยังปลอดภัยและทำงานได้เต็มประสิทธิภาพ ✅ ข้อมูลสำคัญจากข่าว ➡️ Smart TV มีระบบปฏิบัติการและฟีเจอร์คล้ายคอมพิวเตอร์ ➡️ ต้องการการอัปเดตเพื่อแก้บั๊ก เพิ่มฟีเจอร์ และเสริมความปลอดภัย ➡️ Android TV 14 เปิดตัวในปี 2024 และเวอร์ชันถัดไปคาดว่าจะมาในปี 2025–2026 ➡️ ผู้ผลิตปล่อยแพตช์เล็ก ๆ ทุกไตรมาส ➡️ Smart TV มีอายุเฉลี่ยประมาณ 10 ปี แต่การสนับสนุนซอฟต์แวร์อาจสิ้นสุดก่อน ➡️ ผู้ใช้สามารถเปิดหรือปิดการอัปเดตอัตโนมัติได้จากเมนูตั้งค่า ➡️ การอัปเดตช่วยให้แอปทำงานได้ดีขึ้นและลดความเสี่ยงด้านความปลอดภัย ✅ ข้อมูลเสริมจากภายนอก ➡️ Smart TV บางรุ่นมีไมโครโฟนและกล้องในตัว ซึ่งอาจถูกใช้โจมตีได้ ➡️ ผู้ผลิตบางรายให้การสนับสนุนซอฟต์แวร์เพียง 2–3 ปีหลังเปิดตัว ➡️ มีกรณีจริงที่แฮกเกอร์สามารถควบคุมทีวีจากระยะไกล เช่น เปลี่ยนช่องหรือเพิ่มเสียง ➡️ FTC เคยปรับบริษัท Vizio ฐานเก็บข้อมูลผู้ใช้โดยไม่แจ้งล่วงหน้า ➡️ การใช้รหัสผ่าน Wi-Fi ที่แข็งแรงและการตั้งค่าความปลอดภัยของเครือข่ายช่วยลดความเสี่ยง https://www.slashgear.com/1984686/smart-tvs-need-software-updates-reason-why-how-often/
    WWW.SLASHGEAR.COM
    Yes, Smart TVs Need Software Updates - Here's Why & How Often - SlashGear
    Smart TVs require regular software updates to patch security flaws, improve app compatibility, fix bugs, and add new features over time.
    0 ความคิดเห็น 0 การแบ่งปัน 194 มุมมอง 0 รีวิว
  • “Photos App เวอร์ชันใหม่จาก Microsoft ใช้ AI จัดระเบียบภาพและเพิ่มความคมชัด — แต่ต้องใช้ Copilot+ PC เท่านั้น”

    Microsoft เปิดตัวอัปเดตใหม่ของแอป Photos บน Windows 11 ที่มาพร้อมฟีเจอร์อัจฉริยะจาก AI ซึ่งช่วยให้ผู้ใช้สามารถจัดระเบียบภาพถ่ายได้อย่างมีประสิทธิภาพมากขึ้น และเพิ่มความคมชัดให้กับภาพเก่าหรือภาพที่มีความละเอียดต่ำ โดยทั้งหมดนี้ทำงานแบบ local บนเครื่อง ไม่ต้องเชื่อมต่อเซิร์ฟเวอร์ภายนอก

    ฟีเจอร์เด่นคือระบบ “Auto-Categorization” ที่ใช้ Neural Processing Unit (NPU) บน Copilot+ PC เพื่อสแกนภาพในเครื่องและจัดหมวดหมู่อัตโนมัติ เช่น ภาพใบเสร็จ, ภาพหน้าจอ, เอกสาร, และโน้ตที่เขียนด้วยลายมือ โดยระบบสามารถจำแนกภาพได้แม้จะเป็นภาษาต่างประเทศ เช่น ภาษาฮังการีหรืออาหรับ

    นอกจากนี้ยังมีฟีเจอร์ “Super Resolution” ที่ช่วยเพิ่มความละเอียดของภาพโดยใช้ AI วิเคราะห์และเติมรายละเอียดที่ขาดหายไป เช่น เปลี่ยนภาพขนาด 256x256 พิกเซลให้กลายเป็นภาพ 1012x1012 พิกเซล พร้อมแสดงภาพเปรียบเทียบก่อนและหลังให้ผู้ใช้เลือกได้ว่าจะใช้หรือยกเลิก

    การค้นหาภาพก็ง่ายขึ้นด้วยระบบ keyword search ที่สามารถกรองภาพตามประเภทหรือเนื้อหาได้ทันที เหมาะสำหรับผู้ที่มีภาพจำนวนมากและต้องการค้นหาภาพเฉพาะอย่างรวดเร็ว

    อย่างไรก็ตาม ฟีเจอร์ทั้งหมดนี้จะใช้ได้เฉพาะบน Copilot+ PC ที่มีชิปจาก Intel, AMD หรือ Qualcomm ที่รองรับ NPU เท่านั้น ซึ่งทำให้ผู้ใช้ทั่วไปที่ยังไม่ได้อัปเกรดเครื่องอาจไม่สามารถใช้งานฟีเจอร์ใหม่เหล่านี้ได้

    ข้อมูลสำคัญจากข่าว
    Microsoft Photos อัปเดตใหม่ใช้ AI จัดระเบียบภาพและเพิ่มความคมชัด
    ฟีเจอร์ Auto-Categorization จัดภาพเป็นหมวดหมู่ เช่น ใบเสร็จ, เอกสาร, โน้ต
    ระบบสามารถจำแนกภาพจากภาษาต่างประเทศได้
    ฟีเจอร์ Super Resolution เพิ่มความละเอียดภาพโดยใช้ AI แบบ local
    ผู้ใช้สามารถเลือกระดับการเพิ่มความละเอียด เช่น 1x, 2x, 4x, 8x
    มีระบบ keyword search เพื่อค้นหาภาพตามเนื้อหา
    การทำงานทั้งหมดเกิดขึ้นบนเครื่อง ไม่ต้องเชื่อมต่อเซิร์ฟเวอร์
    รองรับเฉพาะ Copilot+ PC ที่มี NPU จาก Intel, AMD หรือ Qualcomm

    ข้อมูลเสริมจากภายนอก
    NPU คือหน่วยประมวลผลเฉพาะสำหรับงาน AI ที่ช่วยให้ทำงานเร็วและประหยัดพลังงาน
    การจัดหมวดหมู่ภาพด้วย AI ช่วยลดเวลาในการค้นหาและจัดการไฟล์
    Super Resolution เป็นเทคนิคที่ใช้ในงานภาพถ่ายระดับมืออาชีพ เช่น การพิมพ์ภาพขนาดใหญ่
    การประมวลผลแบบ local ช่วยเพิ่มความปลอดภัยของข้อมูลส่วนตัว
    Copilot+ PC เป็นกลุ่มอุปกรณ์ใหม่ที่ Microsoft ผลักดันให้รองรับฟีเจอร์ AI เต็มรูปแบบ

    https://www.techradar.com/pro/microsofts-new-photos-app-update-is-so-good-that-it-could-well-become-my-favorite-photo-organizing-tool-but-you-will-need-a-copilot-pc-to-experience-it
    🖼️ “Photos App เวอร์ชันใหม่จาก Microsoft ใช้ AI จัดระเบียบภาพและเพิ่มความคมชัด — แต่ต้องใช้ Copilot+ PC เท่านั้น” Microsoft เปิดตัวอัปเดตใหม่ของแอป Photos บน Windows 11 ที่มาพร้อมฟีเจอร์อัจฉริยะจาก AI ซึ่งช่วยให้ผู้ใช้สามารถจัดระเบียบภาพถ่ายได้อย่างมีประสิทธิภาพมากขึ้น และเพิ่มความคมชัดให้กับภาพเก่าหรือภาพที่มีความละเอียดต่ำ โดยทั้งหมดนี้ทำงานแบบ local บนเครื่อง ไม่ต้องเชื่อมต่อเซิร์ฟเวอร์ภายนอก ฟีเจอร์เด่นคือระบบ “Auto-Categorization” ที่ใช้ Neural Processing Unit (NPU) บน Copilot+ PC เพื่อสแกนภาพในเครื่องและจัดหมวดหมู่อัตโนมัติ เช่น ภาพใบเสร็จ, ภาพหน้าจอ, เอกสาร, และโน้ตที่เขียนด้วยลายมือ โดยระบบสามารถจำแนกภาพได้แม้จะเป็นภาษาต่างประเทศ เช่น ภาษาฮังการีหรืออาหรับ นอกจากนี้ยังมีฟีเจอร์ “Super Resolution” ที่ช่วยเพิ่มความละเอียดของภาพโดยใช้ AI วิเคราะห์และเติมรายละเอียดที่ขาดหายไป เช่น เปลี่ยนภาพขนาด 256x256 พิกเซลให้กลายเป็นภาพ 1012x1012 พิกเซล พร้อมแสดงภาพเปรียบเทียบก่อนและหลังให้ผู้ใช้เลือกได้ว่าจะใช้หรือยกเลิก การค้นหาภาพก็ง่ายขึ้นด้วยระบบ keyword search ที่สามารถกรองภาพตามประเภทหรือเนื้อหาได้ทันที เหมาะสำหรับผู้ที่มีภาพจำนวนมากและต้องการค้นหาภาพเฉพาะอย่างรวดเร็ว อย่างไรก็ตาม ฟีเจอร์ทั้งหมดนี้จะใช้ได้เฉพาะบน Copilot+ PC ที่มีชิปจาก Intel, AMD หรือ Qualcomm ที่รองรับ NPU เท่านั้น ซึ่งทำให้ผู้ใช้ทั่วไปที่ยังไม่ได้อัปเกรดเครื่องอาจไม่สามารถใช้งานฟีเจอร์ใหม่เหล่านี้ได้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft Photos อัปเดตใหม่ใช้ AI จัดระเบียบภาพและเพิ่มความคมชัด ➡️ ฟีเจอร์ Auto-Categorization จัดภาพเป็นหมวดหมู่ เช่น ใบเสร็จ, เอกสาร, โน้ต ➡️ ระบบสามารถจำแนกภาพจากภาษาต่างประเทศได้ ➡️ ฟีเจอร์ Super Resolution เพิ่มความละเอียดภาพโดยใช้ AI แบบ local ➡️ ผู้ใช้สามารถเลือกระดับการเพิ่มความละเอียด เช่น 1x, 2x, 4x, 8x ➡️ มีระบบ keyword search เพื่อค้นหาภาพตามเนื้อหา ➡️ การทำงานทั้งหมดเกิดขึ้นบนเครื่อง ไม่ต้องเชื่อมต่อเซิร์ฟเวอร์ ➡️ รองรับเฉพาะ Copilot+ PC ที่มี NPU จาก Intel, AMD หรือ Qualcomm ✅ ข้อมูลเสริมจากภายนอก ➡️ NPU คือหน่วยประมวลผลเฉพาะสำหรับงาน AI ที่ช่วยให้ทำงานเร็วและประหยัดพลังงาน ➡️ การจัดหมวดหมู่ภาพด้วย AI ช่วยลดเวลาในการค้นหาและจัดการไฟล์ ➡️ Super Resolution เป็นเทคนิคที่ใช้ในงานภาพถ่ายระดับมืออาชีพ เช่น การพิมพ์ภาพขนาดใหญ่ ➡️ การประมวลผลแบบ local ช่วยเพิ่มความปลอดภัยของข้อมูลส่วนตัว ➡️ Copilot+ PC เป็นกลุ่มอุปกรณ์ใหม่ที่ Microsoft ผลักดันให้รองรับฟีเจอร์ AI เต็มรูปแบบ https://www.techradar.com/pro/microsofts-new-photos-app-update-is-so-good-that-it-could-well-become-my-favorite-photo-organizing-tool-but-you-will-need-a-copilot-pc-to-experience-it
    0 ความคิดเห็น 0 การแบ่งปัน 234 มุมมอง 0 รีวิว
  • “Personal Data Storage — เมื่อข้อมูลของคุณไม่ควรถูกครอบครองโดยใครนอกจากตัวคุณเอง”

    ในยุคที่ข้อมูลส่วนตัวกลายเป็นสินค้าของบริษัทเทคโนโลยีขนาดใหญ่ แนวคิด “Personal Data Storage” หรือการเก็บข้อมูลส่วนตัวในพื้นที่ที่ผู้ใช้ควบคุมเอง กำลังกลับมาเป็นกระแสอีกครั้ง โดยมีนักคิดอย่าง Sir Tim Berners-Lee ผู้สร้างเวิลด์ไวด์เว็บ เป็นผู้ผลักดันแนวทางนี้ผ่านโปรโตคอลชื่อ Solid

    Solid คือระบบที่ให้ผู้ใช้เก็บข้อมูลของตนเองไว้ใน “Pod” หรือพื้นที่จัดเก็บข้อมูลส่วนตัว ซึ่งสามารถเลือกได้ว่าจะเก็บไว้ในเครื่องของตนเอง หรือในเซิร์ฟเวอร์ที่เชื่อถือได้ เช่น สหกรณ์ข้อมูล (Data Coop) หรือองค์กรที่ดำเนินงานแบบโปร่งใสและไม่แสวงหากำไร

    แนวคิดนี้ไม่ใช่เรื่องใหม่ — ย้อนกลับไปปี 2009 Berners-Lee เคยเสนอ “Socially Aware Cloud Storage” ที่ให้ผู้ใช้ควบคุมข้อมูลผ่าน URI และระบบสิทธิ์แบบกระจาย แต่ในยุคนั้นยังไม่มีแรงผลักดันมากพอ จนกระทั่งเกิดวิกฤติความเป็นส่วนตัวหลายครั้งในช่วงปี 2010s ทำให้แนวคิด Solid ได้รับการสนับสนุนมากขึ้น

    นอกจาก Solid ยังมี AT Protocol ที่พัฒนาโดยทีม Bluesky ซึ่งเน้นการสร้างเครือข่ายสังคมแบบเปิด โดยให้ผู้ใช้เป็นเจ้าของข้อมูลของตนเอง เช่น การใช้โดเมนส่วนตัวเป็น “internet handle” (@alice.com) และเก็บข้อมูลโพสต์ ไลก์ และการติดตามไว้ใน “Personal Data Server” ที่ผู้ใช้ควบคุมได้

    แนวทางนี้กำลังได้รับความนิยมในกลุ่มผู้ใช้ที่ต้องการอิสระจากแพลตฟอร์มแบบปิด เช่น Facebook หรือ Twitter โดยมีการตั้งองค์กรร่วมดูแลข้อมูล เช่น Blacksky, Tangled และ Northsky ซึ่งทำหน้าที่คล้ายสหกรณ์ข้อมูลที่ผู้ใช้เป็นเจ้าของร่วมกัน

    เป้าหมายของแนวคิดนี้คือการเปลี่ยนบทสนทนาเรื่อง “สิทธิ์ในการดาวน์โหลดข้อมูลจากแพลตฟอร์ม” ไปสู่ “สิทธิ์ในการให้แพลตฟอร์มเข้าถึงข้อมูลของเรา” — และเฉพาะเมื่อเราอนุญาตเท่านั้น

    ข้อมูลสำคัญจากข่าว
    Personal Data Storage คือแนวคิดที่ให้ผู้ใช้ควบคุมข้อมูลของตนเอง
    Solid Protocol พัฒนาโดย Tim Berners-Lee เพื่อให้ผู้ใช้เก็บข้อมูลใน Pod ส่วนตัว
    AT Protocol โดย Bluesky ใช้แนวทางคล้ายกัน โดยให้ผู้ใช้มี “internet handle” เป็นของตนเอง
    ข้อมูลผู้ใช้ เช่น โพสต์ ไลก์ และการติดตาม ถูกเก็บไว้ใน Personal Data Server
    ผู้ใช้สามารถเลือกเซิร์ฟเวอร์ที่เชื่อถือได้ เช่น สหกรณ์ข้อมูลหรือองค์กรชุมชน
    แนวคิดนี้เปลี่ยนจากการให้แพลตฟอร์มเก็บข้อมูล ไปสู่การให้ผู้ใช้เป็นเจ้าของข้อมูล
    มีองค์กรร่วมดูแลข้อมูล เช่น Blacksky, Tangled, Northsky ที่ดำเนินงานแบบโปร่งใส
    Solid และ AT Protocol เป็นตัวอย่างของการสร้าง Open Social Web ที่ผู้ใช้ควบคุมได้

    ข้อมูลเสริมจากภายนอก
    Solid ใช้ระบบสิทธิ์แบบ declarative เช่น “Alice สามารถอ่านไฟล์นี้”
    AT Protocol ใช้โดเมนเป็นตัวแทนตัวตน เช่น @bob.com
    สหกรณ์ข้อมูล (Data Coop) คล้ายกับสหกรณ์เครดิตในระบบธนาคาร
    การเก็บข้อมูลใน Pod ช่วยลดความเสี่ยงจากการละเมิดความเป็นส่วนตัว
    แนวคิดนี้ได้รับการสนับสนุนจากองค์กรอย่าง ODI และ MIT

    https://blog.muni.town/personal-data-storage-idea/
    🔐 “Personal Data Storage — เมื่อข้อมูลของคุณไม่ควรถูกครอบครองโดยใครนอกจากตัวคุณเอง” ในยุคที่ข้อมูลส่วนตัวกลายเป็นสินค้าของบริษัทเทคโนโลยีขนาดใหญ่ แนวคิด “Personal Data Storage” หรือการเก็บข้อมูลส่วนตัวในพื้นที่ที่ผู้ใช้ควบคุมเอง กำลังกลับมาเป็นกระแสอีกครั้ง โดยมีนักคิดอย่าง Sir Tim Berners-Lee ผู้สร้างเวิลด์ไวด์เว็บ เป็นผู้ผลักดันแนวทางนี้ผ่านโปรโตคอลชื่อ Solid Solid คือระบบที่ให้ผู้ใช้เก็บข้อมูลของตนเองไว้ใน “Pod” หรือพื้นที่จัดเก็บข้อมูลส่วนตัว ซึ่งสามารถเลือกได้ว่าจะเก็บไว้ในเครื่องของตนเอง หรือในเซิร์ฟเวอร์ที่เชื่อถือได้ เช่น สหกรณ์ข้อมูล (Data Coop) หรือองค์กรที่ดำเนินงานแบบโปร่งใสและไม่แสวงหากำไร แนวคิดนี้ไม่ใช่เรื่องใหม่ — ย้อนกลับไปปี 2009 Berners-Lee เคยเสนอ “Socially Aware Cloud Storage” ที่ให้ผู้ใช้ควบคุมข้อมูลผ่าน URI และระบบสิทธิ์แบบกระจาย แต่ในยุคนั้นยังไม่มีแรงผลักดันมากพอ จนกระทั่งเกิดวิกฤติความเป็นส่วนตัวหลายครั้งในช่วงปี 2010s ทำให้แนวคิด Solid ได้รับการสนับสนุนมากขึ้น นอกจาก Solid ยังมี AT Protocol ที่พัฒนาโดยทีม Bluesky ซึ่งเน้นการสร้างเครือข่ายสังคมแบบเปิด โดยให้ผู้ใช้เป็นเจ้าของข้อมูลของตนเอง เช่น การใช้โดเมนส่วนตัวเป็น “internet handle” (@alice.com) และเก็บข้อมูลโพสต์ ไลก์ และการติดตามไว้ใน “Personal Data Server” ที่ผู้ใช้ควบคุมได้ แนวทางนี้กำลังได้รับความนิยมในกลุ่มผู้ใช้ที่ต้องการอิสระจากแพลตฟอร์มแบบปิด เช่น Facebook หรือ Twitter โดยมีการตั้งองค์กรร่วมดูแลข้อมูล เช่น Blacksky, Tangled และ Northsky ซึ่งทำหน้าที่คล้ายสหกรณ์ข้อมูลที่ผู้ใช้เป็นเจ้าของร่วมกัน เป้าหมายของแนวคิดนี้คือการเปลี่ยนบทสนทนาเรื่อง “สิทธิ์ในการดาวน์โหลดข้อมูลจากแพลตฟอร์ม” ไปสู่ “สิทธิ์ในการให้แพลตฟอร์มเข้าถึงข้อมูลของเรา” — และเฉพาะเมื่อเราอนุญาตเท่านั้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Personal Data Storage คือแนวคิดที่ให้ผู้ใช้ควบคุมข้อมูลของตนเอง ➡️ Solid Protocol พัฒนาโดย Tim Berners-Lee เพื่อให้ผู้ใช้เก็บข้อมูลใน Pod ส่วนตัว ➡️ AT Protocol โดย Bluesky ใช้แนวทางคล้ายกัน โดยให้ผู้ใช้มี “internet handle” เป็นของตนเอง ➡️ ข้อมูลผู้ใช้ เช่น โพสต์ ไลก์ และการติดตาม ถูกเก็บไว้ใน Personal Data Server ➡️ ผู้ใช้สามารถเลือกเซิร์ฟเวอร์ที่เชื่อถือได้ เช่น สหกรณ์ข้อมูลหรือองค์กรชุมชน ➡️ แนวคิดนี้เปลี่ยนจากการให้แพลตฟอร์มเก็บข้อมูล ไปสู่การให้ผู้ใช้เป็นเจ้าของข้อมูล ➡️ มีองค์กรร่วมดูแลข้อมูล เช่น Blacksky, Tangled, Northsky ที่ดำเนินงานแบบโปร่งใส ➡️ Solid และ AT Protocol เป็นตัวอย่างของการสร้าง Open Social Web ที่ผู้ใช้ควบคุมได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ Solid ใช้ระบบสิทธิ์แบบ declarative เช่น “Alice สามารถอ่านไฟล์นี้” ➡️ AT Protocol ใช้โดเมนเป็นตัวแทนตัวตน เช่น @bob.com ➡️ สหกรณ์ข้อมูล (Data Coop) คล้ายกับสหกรณ์เครดิตในระบบธนาคาร ➡️ การเก็บข้อมูลใน Pod ช่วยลดความเสี่ยงจากการละเมิดความเป็นส่วนตัว ➡️ แนวคิดนี้ได้รับการสนับสนุนจากองค์กรอย่าง ODI และ MIT https://blog.muni.town/personal-data-storage-idea/
    BLOG.MUNI.TOWN
    Personal data storage is an idea whose time has come
    Data Ownership as a conversation changes when data resides primarily with people-governed institutions rather than corporations.
    0 ความคิดเห็น 0 การแบ่งปัน 220 มุมมอง 0 รีวิว
  • “Microsoft ปิดช่องโหว่ SVG บน Outlook — หยุดภาพแฝงมัลแวร์ที่เคยหลอกผู้ใช้ทั่วโลก”

    Microsoft ประกาศปรับปรุงระบบความปลอดภัยของ Outlook โดยจะ “หยุดแสดงภาพ SVG แบบ inline” ทั้งใน Outlook for Web และ Outlook for Windows รุ่นใหม่ เพื่อป้องกันการโจมตีแบบ phishing และมัลแวร์ที่แฝงมากับไฟล์ภาพ ซึ่งกลายเป็นช่องโหว่ที่ถูกใช้มากขึ้นในช่วงหลัง

    SVG (Scalable Vector Graphics) เป็นไฟล์ภาพที่ใช้โค้ด XML ในการกำหนดรูปแบบ ทำให้สามารถฝัง JavaScript หรือโค้ดอันตรายอื่น ๆ ได้ง่าย โดยเฉพาะเมื่อแสดงแบบ inline ในอีเมล ซึ่ง Outlook เคยอนุญาตให้แสดงโดยตรงในเนื้อหาอีเมล

    จากรายงานของ Microsoft และนักวิจัยด้านความปลอดภัย พบว่าการโจมตีผ่าน SVG เพิ่มขึ้นกว่า 1,800% ระหว่างต้นปี 2024 ถึงกลางปี 2025 โดยมีการใช้แพลตฟอร์ม Phishing-as-a-Service (PhaaS) เช่น Tycoon2FA และ Sneaky2FA เพื่อสร้างภาพ SVG ปลอมที่หลอกให้ผู้ใช้กรอกข้อมูลส่วนตัว

    การเปลี่ยนแปลงนี้จะทำให้ผู้ใช้เห็น “ช่องว่างเปล่า” แทนภาพ SVG ที่เคยแสดงในอีเมล แต่ยังสามารถเปิดดูไฟล์ SVG ที่แนบมาแบบ attachment ได้ตามปกติ โดย Microsoft ยืนยันว่าการเปลี่ยนแปลงนี้จะกระทบผู้ใช้น้อยมาก เพราะมีเพียง 0.1% ของภาพใน Outlook ที่ใช้ SVG แบบ inline

    นอกจากนี้ Microsoft ยังเดินหน้าปรับปรุงระบบความปลอดภัยใน Office และ Windows อย่างต่อเนื่อง เช่น การบล็อกไฟล์ .library-ms และ .search-ms ที่เคยถูกใช้โจมตีหน่วยงานรัฐบาล รวมถึงการปิดใช้งาน VBA macros, ActiveX และ XLL add-ins ที่ไม่ปลอดภัย

    ข้อมูลสำคัญจากข่าว
    Microsoft ปิดการแสดงภาพ SVG แบบ inline ใน Outlook for Web และ Outlook for Windows
    ผู้ใช้จะเห็นช่องว่างเปล่าแทนภาพ SVG ที่เคยแสดงในเนื้อหาอีเมล
    ไฟล์ SVG ที่แนบมาแบบ attachment ยังสามารถเปิดดูได้ตามปกติ
    การเปลี่ยนแปลงนี้กระทบผู้ใช้น้อยมาก เพราะมีเพียง 0.1% ที่ใช้ SVG inline
    การโจมตีผ่าน SVG เพิ่มขึ้นกว่า 1,800% ในช่วงปี 2024–2025
    แพลตฟอร์ม PhaaS เช่น Tycoon2FA และ Sneaky2FA ถูกใช้สร้างภาพ SVG ปลอม
    Microsoft ปรับปรุงระบบความปลอดภัยใน Office และ Windows อย่างต่อเนื่อง
    มีการบล็อกไฟล์ .library-ms, .search-ms, VBA macros, ActiveX และ XLL add-ins

    ข้อมูลเสริมจากภายนอก
    SVG เป็นไฟล์ภาพแบบเวกเตอร์ที่สามารถฝังโค้ด JavaScript ได้
    การแสดงภาพแบบ inline หมายถึงการฝังภาพไว้ในเนื้อหาอีเมลโดยตรง
    Phishing-as-a-Service คือบริการที่เปิดให้แฮกเกอร์สร้างแคมเปญหลอกลวงได้ง่ายขึ้น
    การบล็อกฟีเจอร์ที่เสี่ยงเป็นแนวทางที่ Microsoft ใช้เพื่อป้องกันการโจมตีแบบ zero-day
    Outlook เป็นหนึ่งในแอปอีเมลที่มีผู้ใช้มากที่สุดในโลก โดยเฉพาะในองค์กร

    https://www.techradar.com/pro/microsoft-outlook-will-no-longer-show-inline-svg-images-regularly-exploited-in-phishing-attacks
    🛡️ “Microsoft ปิดช่องโหว่ SVG บน Outlook — หยุดภาพแฝงมัลแวร์ที่เคยหลอกผู้ใช้ทั่วโลก” Microsoft ประกาศปรับปรุงระบบความปลอดภัยของ Outlook โดยจะ “หยุดแสดงภาพ SVG แบบ inline” ทั้งใน Outlook for Web และ Outlook for Windows รุ่นใหม่ เพื่อป้องกันการโจมตีแบบ phishing และมัลแวร์ที่แฝงมากับไฟล์ภาพ ซึ่งกลายเป็นช่องโหว่ที่ถูกใช้มากขึ้นในช่วงหลัง SVG (Scalable Vector Graphics) เป็นไฟล์ภาพที่ใช้โค้ด XML ในการกำหนดรูปแบบ ทำให้สามารถฝัง JavaScript หรือโค้ดอันตรายอื่น ๆ ได้ง่าย โดยเฉพาะเมื่อแสดงแบบ inline ในอีเมล ซึ่ง Outlook เคยอนุญาตให้แสดงโดยตรงในเนื้อหาอีเมล จากรายงานของ Microsoft และนักวิจัยด้านความปลอดภัย พบว่าการโจมตีผ่าน SVG เพิ่มขึ้นกว่า 1,800% ระหว่างต้นปี 2024 ถึงกลางปี 2025 โดยมีการใช้แพลตฟอร์ม Phishing-as-a-Service (PhaaS) เช่น Tycoon2FA และ Sneaky2FA เพื่อสร้างภาพ SVG ปลอมที่หลอกให้ผู้ใช้กรอกข้อมูลส่วนตัว การเปลี่ยนแปลงนี้จะทำให้ผู้ใช้เห็น “ช่องว่างเปล่า” แทนภาพ SVG ที่เคยแสดงในอีเมล แต่ยังสามารถเปิดดูไฟล์ SVG ที่แนบมาแบบ attachment ได้ตามปกติ โดย Microsoft ยืนยันว่าการเปลี่ยนแปลงนี้จะกระทบผู้ใช้น้อยมาก เพราะมีเพียง 0.1% ของภาพใน Outlook ที่ใช้ SVG แบบ inline นอกจากนี้ Microsoft ยังเดินหน้าปรับปรุงระบบความปลอดภัยใน Office และ Windows อย่างต่อเนื่อง เช่น การบล็อกไฟล์ .library-ms และ .search-ms ที่เคยถูกใช้โจมตีหน่วยงานรัฐบาล รวมถึงการปิดใช้งาน VBA macros, ActiveX และ XLL add-ins ที่ไม่ปลอดภัย ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft ปิดการแสดงภาพ SVG แบบ inline ใน Outlook for Web และ Outlook for Windows ➡️ ผู้ใช้จะเห็นช่องว่างเปล่าแทนภาพ SVG ที่เคยแสดงในเนื้อหาอีเมล ➡️ ไฟล์ SVG ที่แนบมาแบบ attachment ยังสามารถเปิดดูได้ตามปกติ ➡️ การเปลี่ยนแปลงนี้กระทบผู้ใช้น้อยมาก เพราะมีเพียง 0.1% ที่ใช้ SVG inline ➡️ การโจมตีผ่าน SVG เพิ่มขึ้นกว่า 1,800% ในช่วงปี 2024–2025 ➡️ แพลตฟอร์ม PhaaS เช่น Tycoon2FA และ Sneaky2FA ถูกใช้สร้างภาพ SVG ปลอม ➡️ Microsoft ปรับปรุงระบบความปลอดภัยใน Office และ Windows อย่างต่อเนื่อง ➡️ มีการบล็อกไฟล์ .library-ms, .search-ms, VBA macros, ActiveX และ XLL add-ins ✅ ข้อมูลเสริมจากภายนอก ➡️ SVG เป็นไฟล์ภาพแบบเวกเตอร์ที่สามารถฝังโค้ด JavaScript ได้ ➡️ การแสดงภาพแบบ inline หมายถึงการฝังภาพไว้ในเนื้อหาอีเมลโดยตรง ➡️ Phishing-as-a-Service คือบริการที่เปิดให้แฮกเกอร์สร้างแคมเปญหลอกลวงได้ง่ายขึ้น ➡️ การบล็อกฟีเจอร์ที่เสี่ยงเป็นแนวทางที่ Microsoft ใช้เพื่อป้องกันการโจมตีแบบ zero-day ➡️ Outlook เป็นหนึ่งในแอปอีเมลที่มีผู้ใช้มากที่สุดในโลก โดยเฉพาะในองค์กร https://www.techradar.com/pro/microsoft-outlook-will-no-longer-show-inline-svg-images-regularly-exploited-in-phishing-attacks
    WWW.TECHRADAR.COM
    Microsoft Outlook will no longer render inline SVG content
    User will just see blank spaces where these images would have been
    0 ความคิดเห็น 0 การแบ่งปัน 227 มุมมอง 0 รีวิว
Pages Boosts