• ข่าวด่วน: พบช่องโหว่ Authentication Bypass ร้ายแรงใน Milvus Proxy

    ทีมพัฒนา Milvus ซึ่งเป็นฐานข้อมูลเวกเตอร์โอเพนซอร์สที่ใช้กันอย่างแพร่หลายในการทำงานด้าน AI, Recommendation Systems และ Semantic Search ได้เปิดเผยช่องโหว่ร้ายแรง CVE-2025-64513 ในส่วน Proxy Component โดยมีคะแนนความร้ายแรง CVSS 9.3

    รายละเอียดช่องโหว่
    ช่องโหว่นี้เกิดจาก การตรวจสอบสิทธิ์ที่ไม่ถูกต้อง ทำให้ผู้โจมตีสามารถ ข้ามขั้นตอนการยืนยันตัวตนทั้งหมด ได้
    เมื่อถูกโจมตีสำเร็จ แฮกเกอร์สามารถ:
    อ่าน, แก้ไข, หรือลบข้อมูลเวกเตอร์และเมตาดาต้า
    ทำการจัดการฐานข้อมูล เช่น สร้างหรือลบ collections และ databases
    ส่งผลกระทบต่อความถูกต้องของโมเดล AI ที่ใช้ Milvus ในการทำ inference หรือ retrieval

    การแก้ไขและการป้องกัน
    ทีม Milvus ได้ออกแพตช์แก้ไขแล้วในเวอร์ชัน:
    2.4.24 สำหรับ branch 2.4.x
    2.5.21 สำหรับ branch 2.5.x
    2.6.5 สำหรับ branch 2.6.x

    สำหรับผู้ที่ไม่สามารถอัปเดตได้ทันที มี วิธีแก้ชั่วคราว โดยการ กรองหรือเอา header sourceID ออกจากทุก request ก่อนถึง Milvus Proxy

    ความสำคัญต่อโลกไซเบอร์
    เนื่องจาก Milvus มักถูกใช้งานในระบบ AI-driven applications หากถูกโจมตี อาจนำไปสู่:
    Data Poisoning (การบิดเบือนข้อมูลเพื่อทำให้โมเดล AI ให้ผลลัพธ์ผิดพลาด)
    Model Manipulation (การควบคุมหรือเปลี่ยนพฤติกรรมของโมเดล)
    Service Disruption (หยุดการทำงานของระบบ AI หรือ Search Engine ที่ใช้ Milvus)

    รายละเอียดช่องโหว่ CVE-2025-64513
    Authentication Bypass ใน Milvus Proxy
    ระดับความร้ายแรง CVSS 9.3
    เปิดทางให้ทำการควบคุมระบบเต็มรูปแบบ

    การแก้ไขจาก Milvus
    ออกแพตช์ในเวอร์ชัน 2.4.24, 2.5.21 และ 2.6.5
    มีวิธีแก้ชั่วคราวโดยการลบ header sourceID

    ผลกระทบที่อาจเกิดขึ้น
    Data Poisoning
    Model Manipulation
    Service Disruption

    คำเตือนสำหรับผู้ใช้ Milvus
    หากไม่อัปเดต อาจถูกโจมตีและสูญเสียการควบคุมระบบ
    เสี่ยงต่อการรั่วไหลหรือบิดเบือนข้อมูล AI
    อาจถูกใช้เป็นฐานโจมตีเครือข่ายองค์กร

    https://securityonline.info/critical-authentication-bypass-vulnerability-found-in-milvus-proxy-cve-2025-64513-cvss-9-3/
    🔐 ข่าวด่วน: พบช่องโหว่ Authentication Bypass ร้ายแรงใน Milvus Proxy ทีมพัฒนา Milvus ซึ่งเป็นฐานข้อมูลเวกเตอร์โอเพนซอร์สที่ใช้กันอย่างแพร่หลายในการทำงานด้าน AI, Recommendation Systems และ Semantic Search ได้เปิดเผยช่องโหว่ร้ายแรง CVE-2025-64513 ในส่วน Proxy Component โดยมีคะแนนความร้ายแรง CVSS 9.3 📌 รายละเอียดช่องโหว่ 🪲 ช่องโหว่นี้เกิดจาก การตรวจสอบสิทธิ์ที่ไม่ถูกต้อง ทำให้ผู้โจมตีสามารถ ข้ามขั้นตอนการยืนยันตัวตนทั้งหมด ได้ 🪲 เมื่อถูกโจมตีสำเร็จ แฮกเกอร์สามารถ: ➡️ อ่าน, แก้ไข, หรือลบข้อมูลเวกเตอร์และเมตาดาต้า ➡️ ทำการจัดการฐานข้อมูล เช่น สร้างหรือลบ collections และ databases ➡️ ส่งผลกระทบต่อความถูกต้องของโมเดล AI ที่ใช้ Milvus ในการทำ inference หรือ retrieval 🛠️ การแก้ไขและการป้องกัน ทีม Milvus ได้ออกแพตช์แก้ไขแล้วในเวอร์ชัน: 🪛 2.4.24 สำหรับ branch 2.4.x 🪛 2.5.21 สำหรับ branch 2.5.x 🪛 2.6.5 สำหรับ branch 2.6.x สำหรับผู้ที่ไม่สามารถอัปเดตได้ทันที มี วิธีแก้ชั่วคราว โดยการ กรองหรือเอา header sourceID ออกจากทุก request ก่อนถึง Milvus Proxy 🌍 ความสำคัญต่อโลกไซเบอร์ เนื่องจาก Milvus มักถูกใช้งานในระบบ AI-driven applications หากถูกโจมตี อาจนำไปสู่: ➡️ Data Poisoning (การบิดเบือนข้อมูลเพื่อทำให้โมเดล AI ให้ผลลัพธ์ผิดพลาด) ➡️ Model Manipulation (การควบคุมหรือเปลี่ยนพฤติกรรมของโมเดล) ➡️ Service Disruption (หยุดการทำงานของระบบ AI หรือ Search Engine ที่ใช้ Milvus) ✅ รายละเอียดช่องโหว่ CVE-2025-64513 ➡️ Authentication Bypass ใน Milvus Proxy ➡️ ระดับความร้ายแรง CVSS 9.3 ➡️ เปิดทางให้ทำการควบคุมระบบเต็มรูปแบบ ✅ การแก้ไขจาก Milvus ➡️ ออกแพตช์ในเวอร์ชัน 2.4.24, 2.5.21 และ 2.6.5 ➡️ มีวิธีแก้ชั่วคราวโดยการลบ header sourceID ✅ ผลกระทบที่อาจเกิดขึ้น ➡️ Data Poisoning ➡️ Model Manipulation ➡️ Service Disruption ‼️ คำเตือนสำหรับผู้ใช้ Milvus ⛔ หากไม่อัปเดต อาจถูกโจมตีและสูญเสียการควบคุมระบบ ⛔ เสี่ยงต่อการรั่วไหลหรือบิดเบือนข้อมูล AI ⛔ อาจถูกใช้เป็นฐานโจมตีเครือข่ายองค์กร https://securityonline.info/critical-authentication-bypass-vulnerability-found-in-milvus-proxy-cve-2025-64513-cvss-9-3/
    SECURITYONLINE.INFO
    Critical Authentication Bypass Vulnerability Found in Milvus Proxy (CVE-2025-64513, CVSS 9.3)
    A Critical (CVSS 9.3) Auth Bypass flaw (CVE-2025-64513) in Milvus Proxy allows unauthenticated attackers to gain full administrative control over the vector database cluster. Update to v2.6.5.
    0 ความคิดเห็น 0 การแบ่งปัน 5 มุมมอง 0 รีวิว
  • "เมื่อ Apple ถอยจากการปกป้องข้อมูลใน UK — ถึงเวลาต้อง 'de-Apple' ตัวเองแล้ว "

    Apple เตรียมถอนฟีเจอร์ Advanced Data Protection (ADP) ออกจากสหราชอาณาจักรตามคำสั่งของรัฐบาล UK ผ่านกฎหมาย Investigatory Powers Act และ TCN (Technical Capability Notice) ซึ่งหมายความว่า ผู้ใช้ใน UK จะไม่สามารถใช้การเข้ารหัสแบบ end-to-end กับข้อมูลสำคัญใน iCloud ได้อีกต่อไป หากยังต้องการใช้งานบัญชี iCloudต่อไป ก็ต้องปิด ADP ด้วยตัวเอง

    การเปลี่ยนแปลงที่เกิดขึ้น
    Apple จะถอนฟีเจอร์ ADP ออกจาก UK
    ผู้ใช้ที่เปิดใช้งาน ADP จะต้องปิดเอง มิฉะนั้นจะถูกตัดบัญชี iCloud

    ข้อมูล 10 หมวดใน iCloud จะถูกลดระดับการป้องกัน
    ได้แก่ Backup, Drive, Photos, Notes, Reminders, Safari Bookmarks, Siri Shortcuts, Voice Memos, Wallet Passes และ Freeform

    ข้อมูล 15 หมวดที่ยังคงเข้ารหัสแบบ e2ee โดยค่าเริ่มต้นจะไม่ถูกกระทบ
    เช่น iCloud Keychain, Health, iMessage และ FaceTime

    ความเสี่ยงจากคำสั่ง TCN ของรัฐบาล UK
    TCN ไม่ได้จำกัดแค่ข้อมูลที่อยู่ภายใต้ ADP
    รัฐบาล UK ต้องการเข้าถึงข้อมูลทั้งหมดใน iCloud รวมถึงข้อความและรหัสผ่านที่สำรองไว้

    คำสั่ง TCN มีผลกระทบทั่วโลก ไม่ใช่แค่ผู้ใช้ใน UK
    หมายถึงข้อมูลของผู้ใช้ iCloud ทั่วโลกอาจถูกเข้าถึงได้ตามคำสั่งนี้

    แนวทางปฏิบัติสำหรับผู้ใช้ที่ต้องการความปลอดภัย
    ย้ายข้อมูลออกจาก iCloud โดยเฉพาะ 10 หมวดที่ไม่ปลอดภัย
    ใช้แอป Exporter เพื่อแปลง Notes เป็นไฟล์ markdown

    เลือกใช้บริการที่มีการเข้ารหัสแบบ e2ee
    เช่น Proton, Standard Notes, Obsidian หรือ Joplin

    ล้างข้อมูลจาก iCloud หลังย้ายออก
    เข้าไปที่ iCloud Settings > Manage แล้วลบแต่ละหมวดข้อมูล

    ถ้าไม่ได้อยู่ใน UK ล่ะ?
    ผู้ใช้นอก UK ยังสามารถเปิดใช้งาน ADP ได้
    ควรเปิดใช้งานทันทีเพื่อปกป้องข้อมูล

    หากมีทีมงานหรือคนใกล้ชิดอยู่ใน UK ต้องรวมไว้ใน threat model
    เพราะข้อมูลของพวกเขาอาจกลายเป็นช่องโหว่ของคุณ

    ข้อคิดจากเหตุการณ์นี้
    การพึ่งพา “American Stack” อาจไม่ปลอดภัยอีกต่อไป
    ควรพิจารณาใช้บริการที่ตั้งอยู่ในประเทศที่มีการคุ้มครองข้อมูลเข้มงวด

    การตรวจสอบสัญชาติผ่านข้อมูลบัญชีอาจเป็นแนวทางใหม่ของการสอดแนม
    ยังไม่มีความชัดเจนว่า Apple จะดำเนินการอย่างไรกับ TCN ฉบับที่สองที่เน้นข้อมูลของ “พลเมืองอังกฤษ”

    https://heatherburns.tech/2025/11/10/time-to-start-de-appling/
    🛡️ "เมื่อ Apple ถอยจากการปกป้องข้อมูลใน UK — ถึงเวลาต้อง 'de-Apple' ตัวเองแล้ว 📱🚫" Apple เตรียมถอนฟีเจอร์ Advanced Data Protection (ADP) ออกจากสหราชอาณาจักรตามคำสั่งของรัฐบาล UK ผ่านกฎหมาย Investigatory Powers Act และ TCN (Technical Capability Notice) ซึ่งหมายความว่า ผู้ใช้ใน UK จะไม่สามารถใช้การเข้ารหัสแบบ end-to-end กับข้อมูลสำคัญใน iCloud ได้อีกต่อไป หากยังต้องการใช้งานบัญชี iCloudต่อไป ก็ต้องปิด ADP ด้วยตัวเอง 📉 การเปลี่ยนแปลงที่เกิดขึ้น ✅ Apple จะถอนฟีเจอร์ ADP ออกจาก UK ➡️ ผู้ใช้ที่เปิดใช้งาน ADP จะต้องปิดเอง มิฉะนั้นจะถูกตัดบัญชี iCloud ✅ ข้อมูล 10 หมวดใน iCloud จะถูกลดระดับการป้องกัน ➡️ ได้แก่ Backup, Drive, Photos, Notes, Reminders, Safari Bookmarks, Siri Shortcuts, Voice Memos, Wallet Passes และ Freeform ✅ ข้อมูล 15 หมวดที่ยังคงเข้ารหัสแบบ e2ee โดยค่าเริ่มต้นจะไม่ถูกกระทบ ➡️ เช่น iCloud Keychain, Health, iMessage และ FaceTime 🧨 ความเสี่ยงจากคำสั่ง TCN ของรัฐบาล UK ‼️ TCN ไม่ได้จำกัดแค่ข้อมูลที่อยู่ภายใต้ ADP ⛔ รัฐบาล UK ต้องการเข้าถึงข้อมูลทั้งหมดใน iCloud รวมถึงข้อความและรหัสผ่านที่สำรองไว้ ‼️ คำสั่ง TCN มีผลกระทบทั่วโลก ไม่ใช่แค่ผู้ใช้ใน UK ⛔ หมายถึงข้อมูลของผู้ใช้ iCloud ทั่วโลกอาจถูกเข้าถึงได้ตามคำสั่งนี้ 🧭 แนวทางปฏิบัติสำหรับผู้ใช้ที่ต้องการความปลอดภัย ✅ ย้ายข้อมูลออกจาก iCloud โดยเฉพาะ 10 หมวดที่ไม่ปลอดภัย ➡️ ใช้แอป Exporter เพื่อแปลง Notes เป็นไฟล์ markdown ✅ เลือกใช้บริการที่มีการเข้ารหัสแบบ e2ee ➡️ เช่น Proton, Standard Notes, Obsidian หรือ Joplin ✅ ล้างข้อมูลจาก iCloud หลังย้ายออก ➡️ เข้าไปที่ iCloud Settings > Manage แล้วลบแต่ละหมวดข้อมูล 🌍 ถ้าไม่ได้อยู่ใน UK ล่ะ? ✅ ผู้ใช้นอก UK ยังสามารถเปิดใช้งาน ADP ได้ ➡️ ควรเปิดใช้งานทันทีเพื่อปกป้องข้อมูล ‼️ หากมีทีมงานหรือคนใกล้ชิดอยู่ใน UK ต้องรวมไว้ใน threat model ⛔ เพราะข้อมูลของพวกเขาอาจกลายเป็นช่องโหว่ของคุณ 🧠 ข้อคิดจากเหตุการณ์นี้ ✅ การพึ่งพา “American Stack” อาจไม่ปลอดภัยอีกต่อไป ➡️ ควรพิจารณาใช้บริการที่ตั้งอยู่ในประเทศที่มีการคุ้มครองข้อมูลเข้มงวด ‼️ การตรวจสอบสัญชาติผ่านข้อมูลบัญชีอาจเป็นแนวทางใหม่ของการสอดแนม ⛔ ยังไม่มีความชัดเจนว่า Apple จะดำเนินการอย่างไรกับ TCN ฉบับที่สองที่เน้นข้อมูลของ “พลเมืองอังกฤษ” https://heatherburns.tech/2025/11/10/time-to-start-de-appling/
    0 ความคิดเห็น 0 การแบ่งปัน 67 มุมมอง 0 รีวิว
  • “ShieldForce จับมือ AccuKnox ปักธง Zero Trust CNAPP ในละตินอเมริกา”

    ในโลกไซเบอร์ที่ภัยคุกคามซับซ้อนขึ้นทุกวัน การป้องกันเชิงรุกและแนวคิด “Zero Trust” กลายเป็นหัวใจสำคัญของการรักษาความปลอดภัย ล่าสุดบริษัทด้านความมั่นคงไซเบอร์จากเม็กซิโก “ShieldForce” ได้ประกาศความร่วมมือกับ AccuKnox และ DeepRoot Technologies เพื่อผลักดันโซลูชัน Zero Trust CNAPP (Cloud-Native Application Protection Platform) และ AI Security สู่ตลาดละตินอเมริกา

    ShieldForce หรือชื่อเต็มว่า Incident Response Team SA DE CV เป็นบริษัทที่ก่อตั้งโดย Francisco Villegas ซึ่งมีบทบาทสำคัญในการผลักดันการใช้ AI ในการจัดการความปลอดภัยไซเบอร์ในภูมิภาคเม็กซิโกและละตินอเมริกา โดยเฉพาะบริการอย่าง Managed SOC, การตอบสนองเหตุการณ์ (Incident Response), การป้องกัน Ransomware และการจัดการการปฏิบัติตามกฎระเบียบ

    ความร่วมมือครั้งนี้ยังรวมถึง DeepRoot Technologies ซึ่งเชี่ยวชาญด้าน data engineering และการวิเคราะห์ข้อมูลด้วย AI โดยทั้งหมดจะใช้เทคโนโลยีของ AccuKnox ซึ่งเป็นผู้นำด้าน Zero Trust CNAPP และเป็นผู้ร่วมพัฒนาโครงการโอเพ่นซอร์สชื่อดังอย่าง KubeArmor และ ModelArmor

    ความร่วมมือเชิงกลยุทธ์ระหว่าง 3 บริษัท
    ShieldForce (เม็กซิโก) ให้บริการด้านความปลอดภัยไซเบอร์แบบครบวงจร
    AccuKnox (สหรัฐฯ) พัฒนาแพลตฟอร์ม Zero Trust CNAPP และ AI Security
    DeepRoot Technologies เชี่ยวชาญด้าน data pipeline และ AI analytics

    เป้าหมายของความร่วมมือ
    ขยายการใช้งาน Zero Trust CNAPP ในเม็กซิโกและละตินอเมริกา
    ส่งเสริมการป้องกันภัยไซเบอร์ด้วย AI และระบบอัตโนมัติ
    เพิ่มความสามารถในการตรวจจับและตอบสนองภัยคุกคามแบบเรียลไทม์

    จุดเด่นของเทคโนโลยี AccuKnox
    ปกป้อง workload ทั้งใน cloud และ on-premise
    ครอบคลุมวงจรชีวิตของ AI/ML/LLM ตั้งแต่ข้อมูลจนถึงโครงสร้างพื้นฐาน
    สนับสนุน open-source ผ่านโครงการ KubeArmor และ ModelArmor

    บทบาทของ ShieldForce ในภูมิภาค
    นำเสนอแนวคิด Zero Trust CNAPP ในงานสัมมนาใหญ่ของเม็กซิโก
    ได้รับเสียงตอบรับดีเยี่ยมจากผู้เข้าร่วม
    มุ่งเน้นการสร้างความตระหนักรู้และการป้องกันเชิงรุก

    https://securityonline.info/incident-response-team-shieldforce-partners-with-accuknox-for-zero-trust-cnapp-in-latin-america/
    🛡️ “ShieldForce จับมือ AccuKnox ปักธง Zero Trust CNAPP ในละตินอเมริกา” ในโลกไซเบอร์ที่ภัยคุกคามซับซ้อนขึ้นทุกวัน การป้องกันเชิงรุกและแนวคิด “Zero Trust” กลายเป็นหัวใจสำคัญของการรักษาความปลอดภัย ล่าสุดบริษัทด้านความมั่นคงไซเบอร์จากเม็กซิโก “ShieldForce” ได้ประกาศความร่วมมือกับ AccuKnox และ DeepRoot Technologies เพื่อผลักดันโซลูชัน Zero Trust CNAPP (Cloud-Native Application Protection Platform) และ AI Security สู่ตลาดละตินอเมริกา ShieldForce หรือชื่อเต็มว่า Incident Response Team SA DE CV เป็นบริษัทที่ก่อตั้งโดย Francisco Villegas ซึ่งมีบทบาทสำคัญในการผลักดันการใช้ AI ในการจัดการความปลอดภัยไซเบอร์ในภูมิภาคเม็กซิโกและละตินอเมริกา โดยเฉพาะบริการอย่าง Managed SOC, การตอบสนองเหตุการณ์ (Incident Response), การป้องกัน Ransomware และการจัดการการปฏิบัติตามกฎระเบียบ ความร่วมมือครั้งนี้ยังรวมถึง DeepRoot Technologies ซึ่งเชี่ยวชาญด้าน data engineering และการวิเคราะห์ข้อมูลด้วย AI โดยทั้งหมดจะใช้เทคโนโลยีของ AccuKnox ซึ่งเป็นผู้นำด้าน Zero Trust CNAPP และเป็นผู้ร่วมพัฒนาโครงการโอเพ่นซอร์สชื่อดังอย่าง KubeArmor และ ModelArmor ✅ ความร่วมมือเชิงกลยุทธ์ระหว่าง 3 บริษัท ➡️ ShieldForce (เม็กซิโก) ให้บริการด้านความปลอดภัยไซเบอร์แบบครบวงจร ➡️ AccuKnox (สหรัฐฯ) พัฒนาแพลตฟอร์ม Zero Trust CNAPP และ AI Security ➡️ DeepRoot Technologies เชี่ยวชาญด้าน data pipeline และ AI analytics ✅ เป้าหมายของความร่วมมือ ➡️ ขยายการใช้งาน Zero Trust CNAPP ในเม็กซิโกและละตินอเมริกา ➡️ ส่งเสริมการป้องกันภัยไซเบอร์ด้วย AI และระบบอัตโนมัติ ➡️ เพิ่มความสามารถในการตรวจจับและตอบสนองภัยคุกคามแบบเรียลไทม์ ✅ จุดเด่นของเทคโนโลยี AccuKnox ➡️ ปกป้อง workload ทั้งใน cloud และ on-premise ➡️ ครอบคลุมวงจรชีวิตของ AI/ML/LLM ตั้งแต่ข้อมูลจนถึงโครงสร้างพื้นฐาน ➡️ สนับสนุน open-source ผ่านโครงการ KubeArmor และ ModelArmor ✅ บทบาทของ ShieldForce ในภูมิภาค ➡️ นำเสนอแนวคิด Zero Trust CNAPP ในงานสัมมนาใหญ่ของเม็กซิโก ➡️ ได้รับเสียงตอบรับดีเยี่ยมจากผู้เข้าร่วม ➡️ มุ่งเน้นการสร้างความตระหนักรู้และการป้องกันเชิงรุก https://securityonline.info/incident-response-team-shieldforce-partners-with-accuknox-for-zero-trust-cnapp-in-latin-america/
    0 ความคิดเห็น 0 การแบ่งปัน 70 มุมมอง 0 รีวิว
  • ครบรอบ 25 ปี DirectX 8 – จุดเปลี่ยนสำคัญของกราฟิก PC ที่เปิดทางสู่ยุค GPU อัจฉริยะ

    ในปี 2000 Microsoft เปิดตัว DirectX 8 ซึ่งเป็นเวอร์ชันแรกที่รองรับ “programmable shaders” ทำให้การเรนเดอร์ภาพ 3D มีความยืดหยุ่นและสมจริงมากขึ้น ถือเป็นจุดเริ่มต้นของการพัฒนา GPU สมัยใหม่ที่เราใช้กันในปัจจุบัน

    ย้อนกลับไปเมื่อ 25 ปีก่อน DirectX 8 ได้เปลี่ยนโลกของกราฟิกคอมพิวเตอร์อย่างสิ้นเชิง โดยการเปิดตัว “programmable shaders” ซึ่งเป็นฟีเจอร์ที่อนุญาตให้นักพัฒนาเกมสามารถเขียนโค้ดควบคุมการเรนเดอร์ภาพได้เอง ไม่ต้องพึ่ง pipeline แบบตายตัวอีกต่อไป

    ก่อนหน้านั้น GPU ทำงานแบบ fixed-function คือมีขั้นตอนการเรนเดอร์ที่กำหนดไว้ล่วงหน้า เช่น การแปลงพิกัด, การจัดแสง, การแสดงผลพื้นผิว ซึ่งแม้จะเร็ว แต่ก็จำกัดความคิดสร้างสรรค์ของนักพัฒนา

    DirectX 8 เปิดตัว Vertex Shader และ Pixel Shader รุ่นแรก (Shader Model 1.0) ซึ่งแม้จะมีข้อจำกัดด้านความยาวโค้ดและฟีเจอร์ แต่ก็เป็นก้าวแรกที่สำคัญมาก โดย GPU ที่รองรับในยุคนั้น ได้แก่ NVIDIA GeForce 3 และ ATI Radeon 8500

    ผลลัพธ์คือการเปลี่ยนแปลงครั้งใหญ่ในวงการเกม PC เช่น เกม Morrowind, Unreal Tournament 2003 และ Doom 3 ที่ใช้ shader ในการสร้างแสงเงาและพื้นผิวที่สมจริงอย่างไม่เคยมีมาก่อน

    นอกจากนี้ DirectX 8 ยังเป็นแรงผลักดันให้เกิดการพัฒนา GPU แบบ programmable อย่างต่อเนื่อง จนกลายเป็นสถาปัตยกรรมหลักของ GPU สมัยใหม่ที่รองรับ compute shader, ray tracing และ AI acceleration

    การเปิดตัว DirectX 8
    เปิดตัวในปี 2000
    รองรับ programmable shaders เป็นครั้งแรก
    เปลี่ยนจาก fixed-function pipeline เป็น programmable pipeline

    ฟีเจอร์ใหม่ที่สำคัญ
    Vertex Shader – ควบคุมการแปลงพิกัดและแสง
    Pixel Shader – ควบคุมการแสดงผลพื้นผิวและสี
    Shader Model 1.0 – มีข้อจำกัดแต่เป็นจุดเริ่มต้น

    GPU ที่รองรับในยุคนั้น
    NVIDIA GeForce 3
    ATI Radeon 8500
    เป็น GPU รุ่นแรกที่รองรับ programmable shaders

    ผลกระทบต่อวงการเกม
    เกมสามารถสร้างแสงเงาและพื้นผิวได้สมจริงขึ้น
    เปิดทางสู่เกม 3D ยุคใหม่ เช่น Doom 3, Morrowind
    เป็นพื้นฐานของ GPU สมัยใหม่ที่ใช้ในงาน AI และ ray tracing

    https://www.tomshardware.com/pc-components/gpus/25-years-ago-today-microsoft-released-directx-8-and-changed-pc-graphics-forever-how-programmable-shaders-laid-the-groundwork-for-the-future-of-modern-gpu-rendering
    🧠 ครบรอบ 25 ปี DirectX 8 – จุดเปลี่ยนสำคัญของกราฟิก PC ที่เปิดทางสู่ยุค GPU อัจฉริยะ ในปี 2000 Microsoft เปิดตัว DirectX 8 ซึ่งเป็นเวอร์ชันแรกที่รองรับ “programmable shaders” ทำให้การเรนเดอร์ภาพ 3D มีความยืดหยุ่นและสมจริงมากขึ้น ถือเป็นจุดเริ่มต้นของการพัฒนา GPU สมัยใหม่ที่เราใช้กันในปัจจุบัน ย้อนกลับไปเมื่อ 25 ปีก่อน DirectX 8 ได้เปลี่ยนโลกของกราฟิกคอมพิวเตอร์อย่างสิ้นเชิง โดยการเปิดตัว “programmable shaders” ซึ่งเป็นฟีเจอร์ที่อนุญาตให้นักพัฒนาเกมสามารถเขียนโค้ดควบคุมการเรนเดอร์ภาพได้เอง ไม่ต้องพึ่ง pipeline แบบตายตัวอีกต่อไป ก่อนหน้านั้น GPU ทำงานแบบ fixed-function คือมีขั้นตอนการเรนเดอร์ที่กำหนดไว้ล่วงหน้า เช่น การแปลงพิกัด, การจัดแสง, การแสดงผลพื้นผิว ซึ่งแม้จะเร็ว แต่ก็จำกัดความคิดสร้างสรรค์ของนักพัฒนา DirectX 8 เปิดตัว Vertex Shader และ Pixel Shader รุ่นแรก (Shader Model 1.0) ซึ่งแม้จะมีข้อจำกัดด้านความยาวโค้ดและฟีเจอร์ แต่ก็เป็นก้าวแรกที่สำคัญมาก โดย GPU ที่รองรับในยุคนั้น ได้แก่ NVIDIA GeForce 3 และ ATI Radeon 8500 ผลลัพธ์คือการเปลี่ยนแปลงครั้งใหญ่ในวงการเกม PC เช่น เกม Morrowind, Unreal Tournament 2003 และ Doom 3 ที่ใช้ shader ในการสร้างแสงเงาและพื้นผิวที่สมจริงอย่างไม่เคยมีมาก่อน นอกจากนี้ DirectX 8 ยังเป็นแรงผลักดันให้เกิดการพัฒนา GPU แบบ programmable อย่างต่อเนื่อง จนกลายเป็นสถาปัตยกรรมหลักของ GPU สมัยใหม่ที่รองรับ compute shader, ray tracing และ AI acceleration ✅ การเปิดตัว DirectX 8 ➡️ เปิดตัวในปี 2000 ➡️ รองรับ programmable shaders เป็นครั้งแรก ➡️ เปลี่ยนจาก fixed-function pipeline เป็น programmable pipeline ✅ ฟีเจอร์ใหม่ที่สำคัญ ➡️ Vertex Shader – ควบคุมการแปลงพิกัดและแสง ➡️ Pixel Shader – ควบคุมการแสดงผลพื้นผิวและสี ➡️ Shader Model 1.0 – มีข้อจำกัดแต่เป็นจุดเริ่มต้น ✅ GPU ที่รองรับในยุคนั้น ➡️ NVIDIA GeForce 3 ➡️ ATI Radeon 8500 ➡️ เป็น GPU รุ่นแรกที่รองรับ programmable shaders ✅ ผลกระทบต่อวงการเกม ➡️ เกมสามารถสร้างแสงเงาและพื้นผิวได้สมจริงขึ้น ➡️ เปิดทางสู่เกม 3D ยุคใหม่ เช่น Doom 3, Morrowind ➡️ เป็นพื้นฐานของ GPU สมัยใหม่ที่ใช้ในงาน AI และ ray tracing https://www.tomshardware.com/pc-components/gpus/25-years-ago-today-microsoft-released-directx-8-and-changed-pc-graphics-forever-how-programmable-shaders-laid-the-groundwork-for-the-future-of-modern-gpu-rendering
    0 ความคิดเห็น 0 การแบ่งปัน 96 มุมมอง 0 รีวิว
  • “Google เปิดตัว Axion CPU และ Ironwood TPU รุ่น 7 – สร้าง ‘AI Hypercomputer’ ล้ำหน้า Nvidia GB300!”

    เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด

    Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล

    ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps

    ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ

    บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่

    Google เปิดตัว Ironwood TPU รุ่นที่ 7
    พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป
    รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS
    ใช้ Optical Circuit Switching เพื่อความเสถียร
    หน่วยความจำรวม 1.77 PB แบบ HBM3E

    เปิดตัว Axion CPU ที่ออกแบบเอง
    ใช้สถาปัตยกรรม Arm Neoverse V2
    ประสิทธิภาพสูงกว่าชิป x86 ถึง 50%
    มีรุ่น C4A, N4A และ C4A Metal ให้เลือก
    รองรับ DDR5-5600 MT/s และ UMA

    สร้างแพลตฟอร์ม “AI Hypercomputer”
    รวม compute, storage และ networking ภายใต้ระบบเดียว
    รองรับการฝึกและให้บริการโมเดลขนาดใหญ่
    ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย

    บริษัทชั้นนำเริ่มใช้งานแล้ว
    Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude
    Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2

    ความท้าทายด้านการพัฒนา AI ขนาดใหญ่
    ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล
    ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง

    ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ
    หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่
    ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI

    https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
    🧠 “Google เปิดตัว Axion CPU และ Ironwood TPU รุ่น 7 – สร้าง ‘AI Hypercomputer’ ล้ำหน้า Nvidia GB300!” เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่ ✅ Google เปิดตัว Ironwood TPU รุ่นที่ 7 ➡️ พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป ➡️ รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS ➡️ ใช้ Optical Circuit Switching เพื่อความเสถียร ➡️ หน่วยความจำรวม 1.77 PB แบบ HBM3E ✅ เปิดตัว Axion CPU ที่ออกแบบเอง ➡️ ใช้สถาปัตยกรรม Arm Neoverse V2 ➡️ ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% ➡️ มีรุ่น C4A, N4A และ C4A Metal ให้เลือก ➡️ รองรับ DDR5-5600 MT/s และ UMA ✅ สร้างแพลตฟอร์ม “AI Hypercomputer” ➡️ รวม compute, storage และ networking ภายใต้ระบบเดียว ➡️ รองรับการฝึกและให้บริการโมเดลขนาดใหญ่ ➡️ ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย ✅ บริษัทชั้นนำเริ่มใช้งานแล้ว ➡️ Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude ➡️ Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2 ‼️ ความท้าทายด้านการพัฒนา AI ขนาดใหญ่ ⛔ ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล ⛔ ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง ‼️ ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ ⛔ หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่ ⛔ ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 รีวิว
  • “Siri เวอร์ชันใหม่” จะขับเคลื่อนด้วย Gemini AI จาก Google
    Apple กำลังพลิกโฉม Siri ด้วยการใช้โมเดล AI ขนาดมหึมา 1.2 ล้านล้านพารามิเตอร์ จาก Google Gemini ซึ่งถือว่าใหญ่กว่ารุ่นเดิมที่ Apple ใช้ถึง 800 เท่า (จาก 1.5 พันล้านพารามิเตอร์) โดยโมเดลใหม่นี้จะทำงานภายใต้ระบบ Private Cloud Compute ที่เน้นความปลอดภัยและความเป็นส่วนตัวของผู้ใช้

    Apple ได้ทดสอบโมเดลจาก OpenAI และ Anthropic ก่อนจะเลือก Gemini เป็นแกนหลักในการประมวลผลคำสั่งที่ซับซ้อน ซึ่งจะถูกส่งไปยังคลาวด์แบบเข้ารหัสและไม่เก็บข้อมูลผู้ใช้

    Siri ใหม่มี 3 ส่วนหลัก
    1️⃣ Query Planner — ตัดสินใจว่าจะใช้ข้อมูลจากแหล่งใด เช่น ปฏิทิน, รูปภาพ, แอป หรือเว็บ
    2️⃣ Knowledge Search System — ตอบคำถามทั่วไปโดยไม่ต้องพึ่ง ChatGPT หรือเว็บ
    3️⃣ Summarizer — สรุปข้อความหรือเสียง เช่น การแจ้งเตือน, หน้าเว็บ, หรือข้อความใน Safari

    Gemini จะรับหน้าที่ในส่วน Query Planner และ Summarizer ส่วน Knowledge Search จะใช้โมเดล LLM ที่อยู่ในเครื่องของ Apple เอง

    ความร่วมมือมูลค่าพันล้านดอลลาร์
    Apple เตรียมจ่าย Google ราว $1 พันล้านต่อปี เพื่อใช้ Gemini ใน Siri ซึ่งเป็นส่วนหนึ่งของความร่วมมือที่มีอยู่แล้ว เช่น Google จ่าย Apple $20 พันล้านต่อปี เพื่อเป็นเครื่องมือค้นหาเริ่มต้นใน Safari

    โครงการนี้มีชื่อภายในว่า Glenwood และนำโดย Mike Rockwell (ผู้สร้าง Vision Pro) และ Craig Federighi (หัวหน้าฝ่ายวิศวกรรมซอฟต์แวร์)

    Apple ใช้ Gemini AI จาก Google
    ขนาดโมเดล 1.2 ล้านล้านพารามิเตอร์
    ใหญ่กว่ารุ่นเดิมของ Apple ถึง 800 เท่า
    ทำงานภายใต้ระบบ Private Cloud Compute

    Siri ใหม่มี 3 ส่วนหลัก
    Query Planner: ตัดสินใจเส้นทางการตอบ
    Knowledge Search: ใช้ LLM ในเครื่อง
    Summarizer: สรุปข้อความ เสียง และเนื้อหา

    ความร่วมมือระหว่าง Apple และ Google
    Apple จ่าย Google $1 พันล้านต่อปีเพื่อใช้ Gemini
    Google จ่าย Apple $20 พันล้านต่อปีเพื่อสิทธิ์ค้นหาใน Safari

    เปิดตัวพร้อม iOS 26.4
    Siri ใหม่จะมาพร้อมฟีเจอร์ in-app actions และ context awareness
    ใช้โมเดล Gemini เป็น “ไม้เท้า” ชั่วคราวก่อนพัฒนาโมเดลของตัวเอง

    ข้อจำกัดของ Siri เดิม
    ใช้โมเดลขนาดเล็กเพียง 1.5 พันล้านพารามิเตอร์
    ไม่สามารถจัดการคำสั่งซับซ้อนได้ดี

    ความเสี่ยงจากการพึ่งพาโมเดลภายนอก
    Apple ยังไม่มีโมเดลขนาดใหญ่ของตัวเอง
    ต้องพึ่งพา Google ในการประมวลผลคำสั่งสำคัญ

    https://wccftech.com/apple-will-use-a-1-2-trillion-parameter-very-expensive-ai-model-from-google-as-a-crutch-for-siri/
    🧠📱 “Siri เวอร์ชันใหม่” จะขับเคลื่อนด้วย Gemini AI จาก Google Apple กำลังพลิกโฉม Siri ด้วยการใช้โมเดล AI ขนาดมหึมา 1.2 ล้านล้านพารามิเตอร์ จาก Google Gemini ซึ่งถือว่าใหญ่กว่ารุ่นเดิมที่ Apple ใช้ถึง 800 เท่า (จาก 1.5 พันล้านพารามิเตอร์) โดยโมเดลใหม่นี้จะทำงานภายใต้ระบบ Private Cloud Compute ที่เน้นความปลอดภัยและความเป็นส่วนตัวของผู้ใช้ Apple ได้ทดสอบโมเดลจาก OpenAI และ Anthropic ก่อนจะเลือก Gemini เป็นแกนหลักในการประมวลผลคำสั่งที่ซับซ้อน ซึ่งจะถูกส่งไปยังคลาวด์แบบเข้ารหัสและไม่เก็บข้อมูลผู้ใช้ 🧩 Siri ใหม่มี 3 ส่วนหลัก 1️⃣ Query Planner — ตัดสินใจว่าจะใช้ข้อมูลจากแหล่งใด เช่น ปฏิทิน, รูปภาพ, แอป หรือเว็บ 2️⃣ Knowledge Search System — ตอบคำถามทั่วไปโดยไม่ต้องพึ่ง ChatGPT หรือเว็บ 3️⃣ Summarizer — สรุปข้อความหรือเสียง เช่น การแจ้งเตือน, หน้าเว็บ, หรือข้อความใน Safari Gemini จะรับหน้าที่ในส่วน Query Planner และ Summarizer ส่วน Knowledge Search จะใช้โมเดล LLM ที่อยู่ในเครื่องของ Apple เอง 💰 ความร่วมมือมูลค่าพันล้านดอลลาร์ Apple เตรียมจ่าย Google ราว $1 พันล้านต่อปี เพื่อใช้ Gemini ใน Siri ซึ่งเป็นส่วนหนึ่งของความร่วมมือที่มีอยู่แล้ว เช่น Google จ่าย Apple $20 พันล้านต่อปี เพื่อเป็นเครื่องมือค้นหาเริ่มต้นใน Safari โครงการนี้มีชื่อภายในว่า Glenwood และนำโดย Mike Rockwell (ผู้สร้าง Vision Pro) และ Craig Federighi (หัวหน้าฝ่ายวิศวกรรมซอฟต์แวร์) ✅ Apple ใช้ Gemini AI จาก Google ➡️ ขนาดโมเดล 1.2 ล้านล้านพารามิเตอร์ ➡️ ใหญ่กว่ารุ่นเดิมของ Apple ถึง 800 เท่า ➡️ ทำงานภายใต้ระบบ Private Cloud Compute ✅ Siri ใหม่มี 3 ส่วนหลัก ➡️ Query Planner: ตัดสินใจเส้นทางการตอบ ➡️ Knowledge Search: ใช้ LLM ในเครื่อง ➡️ Summarizer: สรุปข้อความ เสียง และเนื้อหา ✅ ความร่วมมือระหว่าง Apple และ Google ➡️ Apple จ่าย Google $1 พันล้านต่อปีเพื่อใช้ Gemini ➡️ Google จ่าย Apple $20 พันล้านต่อปีเพื่อสิทธิ์ค้นหาใน Safari ✅ เปิดตัวพร้อม iOS 26.4 ➡️ Siri ใหม่จะมาพร้อมฟีเจอร์ in-app actions และ context awareness ➡️ ใช้โมเดล Gemini เป็น “ไม้เท้า” ชั่วคราวก่อนพัฒนาโมเดลของตัวเอง ‼️ ข้อจำกัดของ Siri เดิม ⛔ ใช้โมเดลขนาดเล็กเพียง 1.5 พันล้านพารามิเตอร์ ⛔ ไม่สามารถจัดการคำสั่งซับซ้อนได้ดี ‼️ ความเสี่ยงจากการพึ่งพาโมเดลภายนอก ⛔ Apple ยังไม่มีโมเดลขนาดใหญ่ของตัวเอง ⛔ ต้องพึ่งพา Google ในการประมวลผลคำสั่งสำคัญ https://wccftech.com/apple-will-use-a-1-2-trillion-parameter-very-expensive-ai-model-from-google-as-a-crutch-for-siri/
    WCCFTECH.COM
    Apple Will Use A 1.2 Trillion-Parameter, Very Expensive AI Model From Google As A Crutch For Siri
    The customized Gemini model would "dwarf" the 1.5 billion-parameter, bespoke AI model that Apple currently uses to power Siri in the cloud.
    0 ความคิดเห็น 0 การแบ่งปัน 143 มุมมอง 0 รีวิว
  • WordPress เสี่ยงถูกยึด! ช่องโหว่ร้ายแรงในปลั๊กอิน AI Engine เปิดทางแฮกเกอร์เข้าควบคุมเว็บไซต์

    วันนี้มีเรื่องเล่าที่เจ้าของเว็บไซต์ WordPress ต้องฟังให้ดี เพราะนักวิจัยจาก Wordfence ได้เปิดเผยช่องโหว่ระดับ “วิกฤต” ในปลั๊กอินยอดนิยม AI Engine ซึ่งมีผู้ใช้งานกว่า 100,000 เว็บไซต์ทั่วโลก ช่องโหว่นี้มีรหัส CVE-2025-11749 และได้คะแนน CVSS สูงถึง 9.8 ซึ่งหมายถึง “อันตรายขั้นสุด” เพราะเปิดช่องให้ผู้ไม่หวังดีเข้ายึดเว็บไซต์ได้โดยไม่ต้องล็อกอิน!

    ปลั๊กอิน AI Engine ถูกออกแบบมาเพื่อเชื่อมต่อกับโมเดลภาษาอย่าง ChatGPT และ Claude โดยใช้ระบบ MCP (Model Context Protocol) ที่สามารถให้ AI ทำงานระดับผู้ดูแลระบบ เช่น แก้ไขเนื้อหา จัดการผู้ใช้ หรืออัปโหลดไฟล์

    แต่ปัญหาอยู่ที่ฟีเจอร์ “No-Auth URL” ซึ่งเมื่อเปิดใช้งาน (แม้จะปิดไว้โดยค่าเริ่มต้น) จะทำให้ token สำหรับยืนยันตัวตนถูกเปิดเผยผ่าน REST API สาธารณะ โดยไม่มีการป้องกัน ทำให้แฮกเกอร์สามารถดึง token ไปใช้สั่งคำสั่งระดับผู้ดูแล เช่น wp_update_user เพื่อเปลี่ยนสิทธิ์ของตัวเองเป็นแอดมิน และเข้าควบคุมเว็บไซต์ได้ทันที

    ช่องโหว่นี้เกิดจากการตั้งค่าผิดพลาดในฟังก์ชัน rest_api_init() ที่ไม่ได้ปิดการแสดง endpoint ใน index ของ REST API ส่งผลให้ token ถูกเผยแพร่โดยไม่ตั้งใจ

    สาระเพิ่มเติมจากภายนอก
    REST API เป็นช่องทางที่ WordPress ใช้ในการสื่อสารระหว่างระบบ ซึ่งหากตั้งค่าไม่ดีอาจเปิดช่องให้ถูกโจมตีได้ง่าย
    การใช้ bearer token โดยไม่มีการเข้ารหัสหรือจำกัดสิทธิ์ เป็นความเสี่ยงที่พบได้บ่อยในระบบ API
    การโจมตีแบบนี้จัดอยู่ในกลุ่ม “Privilege Escalation” ซึ่งเป็นหนึ่งในเทคนิคยอดนิยมของแฮกเกอร์ในการยึดระบบ

    รายละเอียดช่องโหว่ CVE-2025-11749
    คะแนน CVSS 9.8 ระดับ “Critical”
    เกิดจากการเปิดเผย bearer token ผ่าน REST API
    ส่งผลให้ผู้ไม่หวังดีสามารถสั่งคำสั่งระดับแอดมินได้ทันที
    กระทบทุกเวอร์ชันก่อน 3.1.4

    การทำงานของปลั๊กอิน AI Engine
    เชื่อมต่อกับโมเดล AI เช่น ChatGPT และ Claude
    ใช้ MCP ในการสั่งงานระดับผู้ดูแลระบบ
    มีฟีเจอร์ “No-Auth URL” ที่เปิดช่องโหว่เมื่อเปิดใช้งาน

    การแก้ไขและคำแนะนำ
    อัปเดตปลั๊กอินเป็นเวอร์ชัน 3.1.4 ทันที
    ปิดการใช้งาน “No-Auth URL” หากไม่จำเป็น
    ตรวจสอบว่า endpoint ไม่ถูกแสดงใน REST API index
    ใช้ระบบตรวจสอบสิทธิ์ที่ปลอดภัยมากขึ้น

    คำเตือนสำหรับผู้ดูแลเว็บไซต์ WordPress
    หากเปิดใช้งาน “No-Auth URL” โดยไม่รู้ตัว เว็บไซต์อาจถูกยึดได้ทันที
    อย่าปล่อยให้ token ถูกเปิดเผยใน API โดยไม่มีการป้องกัน
    ควรตรวจสอบการตั้งค่า REST API ทุกครั้งหลังติดตั้งปลั๊กอินใหม่
    อย่ารอให้เกิดการโจมตีจริงก่อนจึงค่อยอัปเดต

    เรื่องนี้ไม่ใช่แค่ช่องโหว่ธรรมดา แต่มันคือ “ประตูหลัง” ที่เปิดให้ใครก็ได้เข้ามาเปลี่ยนสิทธิ์ตัวเองเป็นแอดมิน และควบคุมเว็บไซต์ของคุณได้ในพริบตา… ถ้าไม่รีบปิดประตูนี้ อาจต้องจ่ายด้วยชื่อเสียงและข้อมูลของลูกค้าทั้งหมด.

    https://securityonline.info/critical-cve-2025-11749-flaw-in-ai-engine-plugin-exposes-wordpress-sites-to-full-compromise/
    🔓 WordPress เสี่ยงถูกยึด! ช่องโหว่ร้ายแรงในปลั๊กอิน AI Engine เปิดทางแฮกเกอร์เข้าควบคุมเว็บไซต์ วันนี้มีเรื่องเล่าที่เจ้าของเว็บไซต์ WordPress ต้องฟังให้ดี เพราะนักวิจัยจาก Wordfence ได้เปิดเผยช่องโหว่ระดับ “วิกฤต” ในปลั๊กอินยอดนิยม AI Engine ซึ่งมีผู้ใช้งานกว่า 100,000 เว็บไซต์ทั่วโลก ช่องโหว่นี้มีรหัส CVE-2025-11749 และได้คะแนน CVSS สูงถึง 9.8 ซึ่งหมายถึง “อันตรายขั้นสุด” เพราะเปิดช่องให้ผู้ไม่หวังดีเข้ายึดเว็บไซต์ได้โดยไม่ต้องล็อกอิน! ปลั๊กอิน AI Engine ถูกออกแบบมาเพื่อเชื่อมต่อกับโมเดลภาษาอย่าง ChatGPT และ Claude โดยใช้ระบบ MCP (Model Context Protocol) ที่สามารถให้ AI ทำงานระดับผู้ดูแลระบบ เช่น แก้ไขเนื้อหา จัดการผู้ใช้ หรืออัปโหลดไฟล์ แต่ปัญหาอยู่ที่ฟีเจอร์ “No-Auth URL” ซึ่งเมื่อเปิดใช้งาน (แม้จะปิดไว้โดยค่าเริ่มต้น) จะทำให้ token สำหรับยืนยันตัวตนถูกเปิดเผยผ่าน REST API สาธารณะ โดยไม่มีการป้องกัน ทำให้แฮกเกอร์สามารถดึง token ไปใช้สั่งคำสั่งระดับผู้ดูแล เช่น wp_update_user เพื่อเปลี่ยนสิทธิ์ของตัวเองเป็นแอดมิน และเข้าควบคุมเว็บไซต์ได้ทันที ช่องโหว่นี้เกิดจากการตั้งค่าผิดพลาดในฟังก์ชัน rest_api_init() ที่ไม่ได้ปิดการแสดง endpoint ใน index ของ REST API ส่งผลให้ token ถูกเผยแพร่โดยไม่ตั้งใจ 📚 สาระเพิ่มเติมจากภายนอก 💠 REST API เป็นช่องทางที่ WordPress ใช้ในการสื่อสารระหว่างระบบ ซึ่งหากตั้งค่าไม่ดีอาจเปิดช่องให้ถูกโจมตีได้ง่าย 💠 การใช้ bearer token โดยไม่มีการเข้ารหัสหรือจำกัดสิทธิ์ เป็นความเสี่ยงที่พบได้บ่อยในระบบ API 💠 การโจมตีแบบนี้จัดอยู่ในกลุ่ม “Privilege Escalation” ซึ่งเป็นหนึ่งในเทคนิคยอดนิยมของแฮกเกอร์ในการยึดระบบ ✅ รายละเอียดช่องโหว่ CVE-2025-11749 ➡️ คะแนน CVSS 9.8 ระดับ “Critical” ➡️ เกิดจากการเปิดเผย bearer token ผ่าน REST API ➡️ ส่งผลให้ผู้ไม่หวังดีสามารถสั่งคำสั่งระดับแอดมินได้ทันที ➡️ กระทบทุกเวอร์ชันก่อน 3.1.4 ✅ การทำงานของปลั๊กอิน AI Engine ➡️ เชื่อมต่อกับโมเดล AI เช่น ChatGPT และ Claude ➡️ ใช้ MCP ในการสั่งงานระดับผู้ดูแลระบบ ➡️ มีฟีเจอร์ “No-Auth URL” ที่เปิดช่องโหว่เมื่อเปิดใช้งาน ✅ การแก้ไขและคำแนะนำ ➡️ อัปเดตปลั๊กอินเป็นเวอร์ชัน 3.1.4 ทันที ➡️ ปิดการใช้งาน “No-Auth URL” หากไม่จำเป็น ➡️ ตรวจสอบว่า endpoint ไม่ถูกแสดงใน REST API index ➡️ ใช้ระบบตรวจสอบสิทธิ์ที่ปลอดภัยมากขึ้น ‼️ คำเตือนสำหรับผู้ดูแลเว็บไซต์ WordPress ⛔ หากเปิดใช้งาน “No-Auth URL” โดยไม่รู้ตัว เว็บไซต์อาจถูกยึดได้ทันที ⛔ อย่าปล่อยให้ token ถูกเปิดเผยใน API โดยไม่มีการป้องกัน ⛔ ควรตรวจสอบการตั้งค่า REST API ทุกครั้งหลังติดตั้งปลั๊กอินใหม่ ⛔ อย่ารอให้เกิดการโจมตีจริงก่อนจึงค่อยอัปเดต เรื่องนี้ไม่ใช่แค่ช่องโหว่ธรรมดา แต่มันคือ “ประตูหลัง” ที่เปิดให้ใครก็ได้เข้ามาเปลี่ยนสิทธิ์ตัวเองเป็นแอดมิน และควบคุมเว็บไซต์ของคุณได้ในพริบตา… ถ้าไม่รีบปิดประตูนี้ อาจต้องจ่ายด้วยชื่อเสียงและข้อมูลของลูกค้าทั้งหมด. https://securityonline.info/critical-cve-2025-11749-flaw-in-ai-engine-plugin-exposes-wordpress-sites-to-full-compromise/
    SECURITYONLINE.INFO
    Critical CVE-2025-11749 Flaw in AI Engine Plugin Exposes WordPress Sites to Full Compromise
    A Critical (CVSS 9.8) Auth Bypass in AI Engine is actively exploited. The flaw exposes the MCP bearer token via the REST API when No-Auth URL is enabled, allowing admin takeover.
    0 ความคิดเห็น 0 การแบ่งปัน 72 มุมมอง 0 รีวิว
  • Google Translate เปิดโหมดใหม่ “Advanced” ใช้ Gemini AI แปลแม่นยำขึ้น—แต่ยังจำกัดภาษาและอุปกรณ์

    Google Translate ได้เปิดตัวฟีเจอร์ใหม่ “AI Model Picker” ที่ให้ผู้ใช้เลือกได้ระหว่างโหมด “Fast” และ “Advanced” โดยโหมด Advanced ใช้ Gemini AI เพื่อให้การแปลมีความแม่นยำและเข้าใจบริบทมากขึ้น แม้จะแลกกับความเร็วที่ลดลงบ้าง แต่ผลลัพธ์ก็ใกล้เคียงกับการใช้ Gemini โดยตรงในการแปล

    จุดเด่นของโหมด Advanced
    ใช้ Gemini AI เพื่อเพิ่มความแม่นยำในการแปล โดยเฉพาะข้อความที่มีความซับซ้อนหรือมีบริบทเฉพาะ
    มีตัวเลือกให้ผู้ใช้เลือกโหมดได้เอง ผ่านปุ่ม “Model Picker” ที่อยู่ด้านบนของแอป
    โหมด Fast ยังคงเน้นความเร็วและประสิทธิภาพ เหมาะกับการแปลทั่วไปที่ไม่ต้องการความละเอียดสูง

    ข้อจำกัดของการใช้งาน
    รองรับเฉพาะภาษาอังกฤษ-ฝรั่งเศส และอังกฤษ-สเปน เท่านั้นในช่วงแรก
    เปิดให้ใช้งานเฉพาะบน iOS ก่อน โดย Android ยังต้องรอการอัปเดตในอนาคต
    ใช้ได้เฉพาะการแปลข้อความพิมพ์เท่านั้น ไม่ครอบคลุมโหมดสนทนา หรือการแปลผ่านกล้อง

    Google Translate เพิ่มฟีเจอร์ “Model Picker”
    ให้เลือกโหมด Fast หรือ Advanced ได้ตามต้องการ
    Advanced ใช้ Gemini AI เพื่อความแม่นยำสูงขึ้น

    โหมด Advanced เหมาะกับข้อความซับซ้อน
    แปลได้ใกล้เคียงกับการใช้ Gemini โดยตรง
    เข้าใจบริบทและสำนวนได้ดีขึ้น

    การเปิดใช้งาน
    กดเลือกที่ปุ่ม Model Picker ใต้โลโก้ Google Translate
    ใช้ได้เฉพาะข้อความพิมพ์ ไม่รวมโหมดสนทนาหรือกล้อง

    ข้อจำกัดของโหมด Advanced
    รองรับแค่ภาษาอังกฤษ-ฝรั่งเศส และอังกฤษ-สเปน
    ใช้ได้เฉพาะบน iOS ยังไม่เปิดให้ Android
    อาจต้องใช้ทรัพยากรเครื่องสูง ทำให้ช้ากว่าโหมด Fast

    ความเสี่ยงจากการใช้ AI แปลภาษา
    แม้ Gemini จะแม่นยำ แต่ยังมีโอกาส “hallucinate” หรือแปลผิด
    ควรตรวจสอบความถูกต้องเมื่อใช้กับเนื้อหาสำคัญ

    นี่คือก้าวสำคัญของ Google ในการนำ AI มาเพิ่มความสามารถในการแปลภาษาอย่างลึกซึ้งและแม่นยำมากขึ้น แม้จะยังจำกัดการใช้งาน แต่ก็สะท้อนแนวโน้มที่ผู้ใช้จะมีสิทธิเลือก “ความเร็ว” หรือ “ความแม่นยำ” ได้ตามบริบทของงานที่ต้องการ

    https://securityonline.info/google-translate-debuts-gemini-powered-advanced-mode-for-higher-accuracy-translations/
    🌐 Google Translate เปิดโหมดใหม่ “Advanced” ใช้ Gemini AI แปลแม่นยำขึ้น—แต่ยังจำกัดภาษาและอุปกรณ์ Google Translate ได้เปิดตัวฟีเจอร์ใหม่ “AI Model Picker” ที่ให้ผู้ใช้เลือกได้ระหว่างโหมด “Fast” และ “Advanced” โดยโหมด Advanced ใช้ Gemini AI เพื่อให้การแปลมีความแม่นยำและเข้าใจบริบทมากขึ้น แม้จะแลกกับความเร็วที่ลดลงบ้าง แต่ผลลัพธ์ก็ใกล้เคียงกับการใช้ Gemini โดยตรงในการแปล 🧠 จุดเด่นของโหมด Advanced 🔖 ใช้ Gemini AI เพื่อเพิ่มความแม่นยำในการแปล โดยเฉพาะข้อความที่มีความซับซ้อนหรือมีบริบทเฉพาะ 🔖 มีตัวเลือกให้ผู้ใช้เลือกโหมดได้เอง ผ่านปุ่ม “Model Picker” ที่อยู่ด้านบนของแอป 🔖 โหมด Fast ยังคงเน้นความเร็วและประสิทธิภาพ เหมาะกับการแปลทั่วไปที่ไม่ต้องการความละเอียดสูง 📱 ข้อจำกัดของการใช้งาน ❗ รองรับเฉพาะภาษาอังกฤษ-ฝรั่งเศส และอังกฤษ-สเปน เท่านั้นในช่วงแรก ❗ เปิดให้ใช้งานเฉพาะบน iOS ก่อน โดย Android ยังต้องรอการอัปเดตในอนาคต ❗ ใช้ได้เฉพาะการแปลข้อความพิมพ์เท่านั้น ไม่ครอบคลุมโหมดสนทนา หรือการแปลผ่านกล้อง ✅ Google Translate เพิ่มฟีเจอร์ “Model Picker” ➡️ ให้เลือกโหมด Fast หรือ Advanced ได้ตามต้องการ ➡️ Advanced ใช้ Gemini AI เพื่อความแม่นยำสูงขึ้น ✅ โหมด Advanced เหมาะกับข้อความซับซ้อน ➡️ แปลได้ใกล้เคียงกับการใช้ Gemini โดยตรง ➡️ เข้าใจบริบทและสำนวนได้ดีขึ้น ✅ การเปิดใช้งาน ➡️ กดเลือกที่ปุ่ม Model Picker ใต้โลโก้ Google Translate ➡️ ใช้ได้เฉพาะข้อความพิมพ์ ไม่รวมโหมดสนทนาหรือกล้อง ‼️ ข้อจำกัดของโหมด Advanced ⛔ รองรับแค่ภาษาอังกฤษ-ฝรั่งเศส และอังกฤษ-สเปน ⛔ ใช้ได้เฉพาะบน iOS ยังไม่เปิดให้ Android ⛔ อาจต้องใช้ทรัพยากรเครื่องสูง ทำให้ช้ากว่าโหมด Fast ‼️ ความเสี่ยงจากการใช้ AI แปลภาษา ⛔ แม้ Gemini จะแม่นยำ แต่ยังมีโอกาส “hallucinate” หรือแปลผิด ⛔ ควรตรวจสอบความถูกต้องเมื่อใช้กับเนื้อหาสำคัญ นี่คือก้าวสำคัญของ Google ในการนำ AI มาเพิ่มความสามารถในการแปลภาษาอย่างลึกซึ้งและแม่นยำมากขึ้น แม้จะยังจำกัดการใช้งาน แต่ก็สะท้อนแนวโน้มที่ผู้ใช้จะมีสิทธิเลือก “ความเร็ว” หรือ “ความแม่นยำ” ได้ตามบริบทของงานที่ต้องการ https://securityonline.info/google-translate-debuts-gemini-powered-advanced-mode-for-higher-accuracy-translations/
    SECURITYONLINE.INFO
    Google Translate Debuts Gemini-Powered "Advanced" Mode for Higher Accuracy Translations
    Google Translate rolled out a Gemini-powered "Advanced" mode that sacrifices speed for higher accuracy and contextual fluency. The feature is currently limited to select language pairs like English/French/Spanish.
    0 ความคิดเห็น 0 การแบ่งปัน 90 มุมมอง 0 รีวิว
  • ข่าวใหญ่ในวงการข่าวกรอง: อดีต CTO CIA ร่วมทีม Brinker เพื่อสู้ภัยข่าวลวงด้วย AI

    Bob Flores อดีต Chief Technology Officer ของ CIA ได้เข้าร่วมเป็นที่ปรึกษาให้กับ Brinker บริษัทเทคโนโลยีข่าวกรองเชิงเนื้อเรื่อง (narrative intelligence) ที่มุ่งมั่นต่อสู้กับการบิดเบือนข้อมูลและแคมเปญอิทธิพลระดับโลกด้วยเทคโนโลยี AI ขั้นสูง

    Brinker ก่อตั้งโดย Benny Schnaider, Daniel Ravner และ Oded Breiner โดยมีเป้าหมายชัดเจน: ใช้ AI เพื่อวิเคราะห์และสกัดกั้นเนื้อหาที่เป็นภัยในโลกออนไลน์แบบเรียลไทม์ ไม่ใช่แค่ตรวจจับ แต่ต้อง “ตอบโต้” ได้ทันที

    Bob Flores กล่าวไว้ว่า “การรับมือกับข่าวลวงแบบเดิมๆ ไม่ทันต่อความเร็วและขนาดของแคมเปญอิทธิพลในปัจจุบัน” และเขาเชื่อว่า Brinker จะเปลี่ยนเกมนี้ได้ด้วยระบบที่วิเคราะห์และตอบโต้ได้ทันที

    Brinker ใช้ LLM (Large Language Model) ที่พัฒนาเอง ซึ่งสามารถติดตามวิวัฒนาการของเนื้อหาอันเป็นภัยได้ข้ามแพลตฟอร์ม ภาษา และภูมิศาสตร์ พร้อมเชื่อมโยงข้อมูลที่เครื่องมือเดิมต้องใช้เวลาหลายสัปดาห์กว่าจะเห็นภาพ

    Flores ซึ่งมีประสบการณ์ด้านความมั่นคงและเทคโนโลยีระดับสูง ยังเป็นผู้ก่อตั้ง Applicology Inc. บริษัทที่ปรึกษาด้านความปลอดภัยไซเบอร์ และการเข้าร่วมของเขาใน Brinker ถือเป็นการเสริมทัพครั้งสำคัญ หลังจากที่ Avi Kastan อดีต CEO ของ Sixgill ก็เพิ่งเข้าร่วมทีมที่ปรึกษาเช่นกัน

    Bob Flores เข้าร่วมเป็นที่ปรึกษา Brinker
    อดีต CTO ของ CIA ผู้เชี่ยวชาญด้านข่าวกรองและเทคโนโลยี
    ปัจจุบันเป็นผู้ก่อตั้ง Applicology Inc.

    Brinker คือบริษัทเทคโนโลยีข่าวกรองเชิงเนื้อเรื่อง
    ใช้ AI วิเคราะห์และตอบโต้ข่าวลวงแบบเรียลไทม์
    มี LLM ที่สามารถติดตามวิวัฒนาการของเนื้อหาอันเป็นภัย

    เป้าหมายของ Brinker คือการเปลี่ยนจาก “ตรวจจับ” เป็น “ตอบโต้”
    ระบบสามารถดำเนินการได้ทันที เช่น ลบเนื้อหา, เผยแพร่เนื้อหาตอบโต้, ดำเนินการทางกฎหมายเบื้องต้น

    ทีมที่ปรึกษา Brinker แข็งแกร่งขึ้น
    รวมผู้เชี่ยวชาญจาก CIA และ Sixgill
    เตรียมพร้อมรับมือกับภัยคุกคามระดับโลก

    ความท้าทายของการต่อสู้กับข่าวลวง
    ข่าวลวงแพร่กระจายเร็วและข้ามแพลตฟอร์ม
    การตอบโต้แบบเดิมไม่ทันต่อสถานการณ์

    ความเสี่ยงหากไม่มีระบบตอบโต้แบบเรียลไทม์
    องค์กรอาจตกเป็นเป้าหมายของแคมเปญอิทธิพล
    ข้อมูลผิดอาจส่งผลต่อความมั่นคงระดับชาติและองค์กร

    นี่คือการเคลื่อนไหวที่สะท้อนว่า “สงครามข้อมูล” ในยุคนี้ไม่ใช่เรื่องไกลตัวอีกต่อไป และการมีผู้เชี่ยวชาญระดับ Bob Flores เข้ามาเสริมทัพ Brinker คือการประกาศชัดว่า AI จะเป็นอาวุธหลักในการต่อสู้กับภัยเงียบในโลกดิจิทัล.

    https://securityonline.info/bob-flores-former-cto-of-the-cia-joins-brinker/
    🧠 ข่าวใหญ่ในวงการข่าวกรอง: อดีต CTO CIA ร่วมทีม Brinker เพื่อสู้ภัยข่าวลวงด้วย AI Bob Flores อดีต Chief Technology Officer ของ CIA ได้เข้าร่วมเป็นที่ปรึกษาให้กับ Brinker บริษัทเทคโนโลยีข่าวกรองเชิงเนื้อเรื่อง (narrative intelligence) ที่มุ่งมั่นต่อสู้กับการบิดเบือนข้อมูลและแคมเปญอิทธิพลระดับโลกด้วยเทคโนโลยี AI ขั้นสูง Brinker ก่อตั้งโดย Benny Schnaider, Daniel Ravner และ Oded Breiner โดยมีเป้าหมายชัดเจน: ใช้ AI เพื่อวิเคราะห์และสกัดกั้นเนื้อหาที่เป็นภัยในโลกออนไลน์แบบเรียลไทม์ ไม่ใช่แค่ตรวจจับ แต่ต้อง “ตอบโต้” ได้ทันที Bob Flores กล่าวไว้ว่า “การรับมือกับข่าวลวงแบบเดิมๆ ไม่ทันต่อความเร็วและขนาดของแคมเปญอิทธิพลในปัจจุบัน” และเขาเชื่อว่า Brinker จะเปลี่ยนเกมนี้ได้ด้วยระบบที่วิเคราะห์และตอบโต้ได้ทันที Brinker ใช้ LLM (Large Language Model) ที่พัฒนาเอง ซึ่งสามารถติดตามวิวัฒนาการของเนื้อหาอันเป็นภัยได้ข้ามแพลตฟอร์ม ภาษา และภูมิศาสตร์ พร้อมเชื่อมโยงข้อมูลที่เครื่องมือเดิมต้องใช้เวลาหลายสัปดาห์กว่าจะเห็นภาพ Flores ซึ่งมีประสบการณ์ด้านความมั่นคงและเทคโนโลยีระดับสูง ยังเป็นผู้ก่อตั้ง Applicology Inc. บริษัทที่ปรึกษาด้านความปลอดภัยไซเบอร์ และการเข้าร่วมของเขาใน Brinker ถือเป็นการเสริมทัพครั้งสำคัญ หลังจากที่ Avi Kastan อดีต CEO ของ Sixgill ก็เพิ่งเข้าร่วมทีมที่ปรึกษาเช่นกัน ✅ Bob Flores เข้าร่วมเป็นที่ปรึกษา Brinker ➡️ อดีต CTO ของ CIA ผู้เชี่ยวชาญด้านข่าวกรองและเทคโนโลยี ➡️ ปัจจุบันเป็นผู้ก่อตั้ง Applicology Inc. ✅ Brinker คือบริษัทเทคโนโลยีข่าวกรองเชิงเนื้อเรื่อง ➡️ ใช้ AI วิเคราะห์และตอบโต้ข่าวลวงแบบเรียลไทม์ ➡️ มี LLM ที่สามารถติดตามวิวัฒนาการของเนื้อหาอันเป็นภัย ✅ เป้าหมายของ Brinker คือการเปลี่ยนจาก “ตรวจจับ” เป็น “ตอบโต้” ➡️ ระบบสามารถดำเนินการได้ทันที เช่น ลบเนื้อหา, เผยแพร่เนื้อหาตอบโต้, ดำเนินการทางกฎหมายเบื้องต้น ✅ ทีมที่ปรึกษา Brinker แข็งแกร่งขึ้น ➡️ รวมผู้เชี่ยวชาญจาก CIA และ Sixgill ➡️ เตรียมพร้อมรับมือกับภัยคุกคามระดับโลก ‼️ ความท้าทายของการต่อสู้กับข่าวลวง ⛔ ข่าวลวงแพร่กระจายเร็วและข้ามแพลตฟอร์ม ⛔ การตอบโต้แบบเดิมไม่ทันต่อสถานการณ์ ‼️ ความเสี่ยงหากไม่มีระบบตอบโต้แบบเรียลไทม์ ⛔ องค์กรอาจตกเป็นเป้าหมายของแคมเปญอิทธิพล ⛔ ข้อมูลผิดอาจส่งผลต่อความมั่นคงระดับชาติและองค์กร นี่คือการเคลื่อนไหวที่สะท้อนว่า “สงครามข้อมูล” ในยุคนี้ไม่ใช่เรื่องไกลตัวอีกต่อไป และการมีผู้เชี่ยวชาญระดับ Bob Flores เข้ามาเสริมทัพ Brinker คือการประกาศชัดว่า AI จะเป็นอาวุธหลักในการต่อสู้กับภัยเงียบในโลกดิจิทัล. https://securityonline.info/bob-flores-former-cto-of-the-cia-joins-brinker/
    SECURITYONLINE.INFO
    Bob Flores, Former CTO of the CIA, Joins Brinker
    Delaware, United States, 4th November 2025, CyberNewsWire
    0 ความคิดเห็น 0 การแบ่งปัน 158 มุมมอง 0 รีวิว
  • Android ป้องกันภัยหลอกลวงด้วย AI ได้มากกว่า 10 พันล้านครั้งต่อเดือน – ผู้ใช้มั่นใจมากกว่า iOS ถึง 58%

    Google เผยความสำเร็จของระบบป้องกันภัยหลอกลวงบน Android ที่ใช้ AI ตรวจจับและสกัดข้อความและสายโทรศัพท์อันตรายได้มากกว่า 10 พันล้านครั้งต่อเดือน พร้อมผลสำรวจจาก YouGov ที่ชี้ว่า ผู้ใช้ Android มีแนวโน้มหลีกเลี่ยงข้อความหลอกลวงได้มากกว่า iOS ถึง 58%.

    ในยุคที่ AI ถูกใช้สร้างข้อความหลอกลวงได้แนบเนียนมากขึ้น Google จึงพัฒนา Android ให้มีระบบป้องกันหลายชั้น ทั้งการวิเคราะห์พฤติกรรมแบบเรียลไทม์ การตรวจสอบเครือข่าย และการใช้ AI บนอุปกรณ์โดยตรง

    หนึ่งในฟีเจอร์เด่นคือ RCS Safety Checks ที่สามารถบล็อกเบอร์ต้องสงสัยได้มากกว่า 100 ล้านเบอร์ในเดือนเดียว นอกจากนี้ยังมีระบบ Google Messages ที่กรองข้อความสแปมโดยดูจากชื่อผู้ส่งและเนื้อหา และระบบ Call Screen ที่สามารถรับสายแทนผู้ใช้เพื่อตรวจสอบว่าเป็นสายหลอกลวงหรือไม่

    ผลสำรวจจากผู้ใช้ในสหรัฐฯ อินเดีย และบราซิล พบว่า:
    ผู้ใช้ Android มีโอกาสได้รับข้อความหลอกลวงน้อยกว่า iOS ถึง 58%
    ผู้ใช้ Pixel มีความมั่นใจในระบบป้องกันมากกว่า iPhone ถึง 96%
    ผู้ใช้ iOS มีแนวโน้มได้รับข้อความหลอกลวงมากกว่า Android ถึง 65%

    Google ยังใช้ LLM (Large Language Models) ในการตรวจจับเว็บไซต์ฟิชชิ่งและมัลแวร์ผ่าน Chrome และ Play Protect เพื่อเพิ่มความแม่นยำในการป้องกันภัยไซเบอร์

    Android ป้องกันภัยหลอกลวงด้วย AI ได้มากกว่า 10 พันล้านครั้งต่อเดือน
    ใช้การวิเคราะห์พฤติกรรมแบบเรียลไทม์และ AI บนอุปกรณ์
    บล็อกเบอร์ต้องสงสัยได้มากกว่า 100 ล้านเบอร์ในเดือนเดียว

    ฟีเจอร์เด่นของ Android
    Google Messages กรองข้อความสแปมโดยดูจากชื่อผู้ส่งและเนื้อหา
    Call Screen รับสายแทนผู้ใช้เพื่อตรวจสอบภัยหลอกลวง
    Scam Detection ตรวจจับคำพูดหลอกลวงระหว่างการสนทนา

    ผลสำรวจจาก YouGov
    ผู้ใช้ Android มีแนวโน้มหลีกเลี่ยงข้อความหลอกลวงมากกว่า iOS ถึง 58%
    ผู้ใช้ Pixel มั่นใจในระบบป้องกันมากกว่า iPhone ถึง 96%
    ผู้ใช้ iOS มีแนวโน้มได้รับข้อความหลอกลวงมากกว่า Android ถึง 65%

    https://securityonline.info/android-ai-scam-defense-blocks-10-billion-monthly-threats-users-58-more-likely-to-avoid-scam-texts-than-ios/
    📱 Android ป้องกันภัยหลอกลวงด้วย AI ได้มากกว่า 10 พันล้านครั้งต่อเดือน – ผู้ใช้มั่นใจมากกว่า iOS ถึง 58% Google เผยความสำเร็จของระบบป้องกันภัยหลอกลวงบน Android ที่ใช้ AI ตรวจจับและสกัดข้อความและสายโทรศัพท์อันตรายได้มากกว่า 10 พันล้านครั้งต่อเดือน พร้อมผลสำรวจจาก YouGov ที่ชี้ว่า ผู้ใช้ Android มีแนวโน้มหลีกเลี่ยงข้อความหลอกลวงได้มากกว่า iOS ถึง 58%. ในยุคที่ AI ถูกใช้สร้างข้อความหลอกลวงได้แนบเนียนมากขึ้น Google จึงพัฒนา Android ให้มีระบบป้องกันหลายชั้น ทั้งการวิเคราะห์พฤติกรรมแบบเรียลไทม์ การตรวจสอบเครือข่าย และการใช้ AI บนอุปกรณ์โดยตรง หนึ่งในฟีเจอร์เด่นคือ RCS Safety Checks ที่สามารถบล็อกเบอร์ต้องสงสัยได้มากกว่า 100 ล้านเบอร์ในเดือนเดียว นอกจากนี้ยังมีระบบ Google Messages ที่กรองข้อความสแปมโดยดูจากชื่อผู้ส่งและเนื้อหา และระบบ Call Screen ที่สามารถรับสายแทนผู้ใช้เพื่อตรวจสอบว่าเป็นสายหลอกลวงหรือไม่ ผลสำรวจจากผู้ใช้ในสหรัฐฯ อินเดีย และบราซิล พบว่า: 💠 ผู้ใช้ Android มีโอกาสได้รับข้อความหลอกลวงน้อยกว่า iOS ถึง 58% 💠 ผู้ใช้ Pixel มีความมั่นใจในระบบป้องกันมากกว่า iPhone ถึง 96% 💠 ผู้ใช้ iOS มีแนวโน้มได้รับข้อความหลอกลวงมากกว่า Android ถึง 65% Google ยังใช้ LLM (Large Language Models) ในการตรวจจับเว็บไซต์ฟิชชิ่งและมัลแวร์ผ่าน Chrome และ Play Protect เพื่อเพิ่มความแม่นยำในการป้องกันภัยไซเบอร์ ✅ Android ป้องกันภัยหลอกลวงด้วย AI ได้มากกว่า 10 พันล้านครั้งต่อเดือน ➡️ ใช้การวิเคราะห์พฤติกรรมแบบเรียลไทม์และ AI บนอุปกรณ์ ➡️ บล็อกเบอร์ต้องสงสัยได้มากกว่า 100 ล้านเบอร์ในเดือนเดียว ✅ ฟีเจอร์เด่นของ Android ➡️ Google Messages กรองข้อความสแปมโดยดูจากชื่อผู้ส่งและเนื้อหา ➡️ Call Screen รับสายแทนผู้ใช้เพื่อตรวจสอบภัยหลอกลวง ➡️ Scam Detection ตรวจจับคำพูดหลอกลวงระหว่างการสนทนา ✅ ผลสำรวจจาก YouGov ➡️ ผู้ใช้ Android มีแนวโน้มหลีกเลี่ยงข้อความหลอกลวงมากกว่า iOS ถึง 58% ➡️ ผู้ใช้ Pixel มั่นใจในระบบป้องกันมากกว่า iPhone ถึง 96% ➡️ ผู้ใช้ iOS มีแนวโน้มได้รับข้อความหลอกลวงมากกว่า Android ถึง 65% https://securityonline.info/android-ai-scam-defense-blocks-10-billion-monthly-threats-users-58-more-likely-to-avoid-scam-texts-than-ios/
    SECURITYONLINE.INFO
    Android AI Scam Defense Blocks 10 Billion Monthly Threats; Users 58% More Likely to Avoid Scam Texts Than iOS
    Google reveals Android’s AI defense blocks 10B+ monthly scams. A YouGov survey found Android users 58% more likely to report zero scam texts than iOS users due to on-device AI protection.
    0 ความคิดเห็น 0 การแบ่งปัน 114 มุมมอง 0 รีวิว
  • นายกฯ บางปู ตรวจสอบจุดลอยกระทง กำชับเจ้าหน้าที่อำนวยความสะดวก ดูแลประชาชนตลอดพื้นที่
    https://www.thai-tai.tv/news/22160/
    .
    #เทศบาลตำบลบางปู #ลอยกระทง2568 #BangpuSmartSafety #ความปลอดภัยประชาชนสำคัญที่สุด #ลอยกระทงบางปู #เทศบาลทำงานเชิงรุก #บริการประชาชน #BangpuModel
    นายกฯ บางปู ตรวจสอบจุดลอยกระทง กำชับเจ้าหน้าที่อำนวยความสะดวก ดูแลประชาชนตลอดพื้นที่ https://www.thai-tai.tv/news/22160/ . #เทศบาลตำบลบางปู #ลอยกระทง2568 #BangpuSmartSafety #ความปลอดภัยประชาชนสำคัญที่สุด #ลอยกระทงบางปู #เทศบาลทำงานเชิงรุก #บริการประชาชน #BangpuModel
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
  • Qt Creator 18 เปิดตัว! IDE สุดล้ำพร้อมรองรับ Container และ GitHub Enterprise

    วันนี้มีข่าวดีสำหรับนักพัฒนา! Qt Project ได้ปล่อย Qt Creator 18 ซึ่งเป็นเวอร์ชันล่าสุดของ IDE แบบโอเพ่นซอร์สที่รองรับหลายแพลตฟอร์ม ทั้ง Linux, macOS และ Windows โดยเวอร์ชันนี้มาพร้อมฟีเจอร์ใหม่ที่น่าตื่นเต้น โดยเฉพาะการรองรับ container สำหรับการพัฒนาแบบแยกส่วน และการเชื่อมต่อกับ GitHub Enterprise ผ่าน Copilot

    ลองนึกภาพว่า...คุณเปิดโปรเจกต์ที่มีไฟล์ devcontainer.json อยู่ แล้ว Qt Creator ก็จัดการสร้าง Docker container ให้คุณอัตโนมัติ พร้อมปรับแต่ง environment ให้เหมาะกับการพัฒนาโดยไม่ต้องตั้งค่าเองให้ยุ่งยากเลย! นี่คือก้าวสำคัญของการพัฒนาแบบ container-native ที่กำลังมาแรงในยุค DevOps และ Cloud-native

    นอกจากนี้ Qt Creator 18 ยังปรับปรุงหลายจุดเพื่อให้ใช้งานได้ลื่นไหลขึ้น เช่น:
    เพิ่มแท็บ Overview ในหน้า Welcome
    ปรับปรุงระบบแจ้งเตือนให้รวมอยู่ใน popup เดียว
    รองรับการใช้ editor แบบ tabbed
    ปรับปรุงระบบ Git ให้แสดงสถานะไฟล์ในมุมมอง File System
    เพิ่มการรองรับ CMake Test Presets และการเชื่อมต่ออุปกรณ์ Linux แบบอัตโนมัติ

    และที่สำคัญคือการอัปเดต Clangd/LLVM เป็นเวอร์ชัน 21.1 เพื่อรองรับฟีเจอร์ใหม่ของภาษา C++ ได้ดีขึ้น

    สาระเพิ่มเติม
    การใช้ container ในการพัฒนาเริ่มเป็นมาตรฐานในองค์กรขนาดใหญ่ เพราะช่วยให้การตั้งค่า environment เป็นเรื่องง่ายและลดปัญหา “มันทำงานบนเครื่องฉันนะ!”
    GitHub Copilot Enterprise ช่วยให้ทีมสามารถใช้ AI เขียนโค้ดได้อย่างปลอดภัยในระบบภายในองค์กร โดยไม่ต้องเปิดเผยโค้ดสู่สาธารณะ

    ฟีเจอร์ใหม่ที่โดดเด่น
    รองรับการสร้าง development container ผ่านไฟล์ devcontainer.json
    เพิ่มแท็บ Overview ในหน้า Welcome
    รองรับ editor แบบ tabbed เพื่อการจัดการโค้ดที่ง่ายขึ้น
    ปรับปรุงระบบแจ้งเตือนให้รวมอยู่ใน popup เดียว
    รองรับ GitHub Enterprise ผ่าน Copilot

    การปรับปรุงด้าน Git และการจัดการโปรเจกต์
    เพิ่มการแสดงสถานะ version control ในมุมมอง File System
    รองรับ CMake Test Presets
    เพิ่มตัวเลือก auto-connect สำหรับอุปกรณ์ Linux
    ปรับปรุงการจัดการไฟล์ .user ให้แยกเก็บในโฟลเดอร์ .qtcreator/

    การอัปเดตด้านเทคโนโลยี
    อัปเดต Clangd/LLVM เป็นเวอร์ชัน 21.1
    ปรับปรุง code model ให้รองรับฟีเจอร์ใหม่ของ C++

    https://9to5linux.com/qt-creator-18-open-source-ide-released-with-experimental-container-support
    🛠️ Qt Creator 18 เปิดตัว! IDE สุดล้ำพร้อมรองรับ Container และ GitHub Enterprise วันนี้มีข่าวดีสำหรับนักพัฒนา! Qt Project ได้ปล่อย Qt Creator 18 ซึ่งเป็นเวอร์ชันล่าสุดของ IDE แบบโอเพ่นซอร์สที่รองรับหลายแพลตฟอร์ม ทั้ง Linux, macOS และ Windows โดยเวอร์ชันนี้มาพร้อมฟีเจอร์ใหม่ที่น่าตื่นเต้น โดยเฉพาะการรองรับ container สำหรับการพัฒนาแบบแยกส่วน และการเชื่อมต่อกับ GitHub Enterprise ผ่าน Copilot ลองนึกภาพว่า...คุณเปิดโปรเจกต์ที่มีไฟล์ devcontainer.json อยู่ แล้ว Qt Creator ก็จัดการสร้าง Docker container ให้คุณอัตโนมัติ พร้อมปรับแต่ง environment ให้เหมาะกับการพัฒนาโดยไม่ต้องตั้งค่าเองให้ยุ่งยากเลย! นี่คือก้าวสำคัญของการพัฒนาแบบ container-native ที่กำลังมาแรงในยุค DevOps และ Cloud-native นอกจากนี้ Qt Creator 18 ยังปรับปรุงหลายจุดเพื่อให้ใช้งานได้ลื่นไหลขึ้น เช่น: 🎗️ เพิ่มแท็บ Overview ในหน้า Welcome 🎗️ ปรับปรุงระบบแจ้งเตือนให้รวมอยู่ใน popup เดียว 🎗️ รองรับการใช้ editor แบบ tabbed 🎗️ ปรับปรุงระบบ Git ให้แสดงสถานะไฟล์ในมุมมอง File System 🎗️ เพิ่มการรองรับ CMake Test Presets และการเชื่อมต่ออุปกรณ์ Linux แบบอัตโนมัติ และที่สำคัญคือการอัปเดต Clangd/LLVM เป็นเวอร์ชัน 21.1 เพื่อรองรับฟีเจอร์ใหม่ของภาษา C++ ได้ดีขึ้น 💡 สาระเพิ่มเติม 💠 การใช้ container ในการพัฒนาเริ่มเป็นมาตรฐานในองค์กรขนาดใหญ่ เพราะช่วยให้การตั้งค่า environment เป็นเรื่องง่ายและลดปัญหา “มันทำงานบนเครื่องฉันนะ!” 💠 GitHub Copilot Enterprise ช่วยให้ทีมสามารถใช้ AI เขียนโค้ดได้อย่างปลอดภัยในระบบภายในองค์กร โดยไม่ต้องเปิดเผยโค้ดสู่สาธารณะ ✅ ฟีเจอร์ใหม่ที่โดดเด่น ➡️ รองรับการสร้าง development container ผ่านไฟล์ devcontainer.json ➡️ เพิ่มแท็บ Overview ในหน้า Welcome ➡️ รองรับ editor แบบ tabbed เพื่อการจัดการโค้ดที่ง่ายขึ้น ➡️ ปรับปรุงระบบแจ้งเตือนให้รวมอยู่ใน popup เดียว ➡️ รองรับ GitHub Enterprise ผ่าน Copilot ✅ การปรับปรุงด้าน Git และการจัดการโปรเจกต์ ➡️ เพิ่มการแสดงสถานะ version control ในมุมมอง File System ➡️ รองรับ CMake Test Presets ➡️ เพิ่มตัวเลือก auto-connect สำหรับอุปกรณ์ Linux ➡️ ปรับปรุงการจัดการไฟล์ .user ให้แยกเก็บในโฟลเดอร์ .qtcreator/ ✅ การอัปเดตด้านเทคโนโลยี ➡️ อัปเดต Clangd/LLVM เป็นเวอร์ชัน 21.1 ➡️ ปรับปรุง code model ให้รองรับฟีเจอร์ใหม่ของ C++ https://9to5linux.com/qt-creator-18-open-source-ide-released-with-experimental-container-support
    9TO5LINUX.COM
    Qt Creator 18 Open-Source IDE Released with Experimental Container Support - 9to5Linux
    Qt Creator 18 open-source IDE (Integrated Development Environment) is now available for download with various improvements. Here’s what’s new!
    0 ความคิดเห็น 0 การแบ่งปัน 125 มุมมอง 0 รีวิว
  • ข่าวใหญ่แห่งวงการคลาวด์: Sweet Security เปิดตัว Runtime CNAPP สำหรับ Windows

    วันนี้มีข่าวดีสำหรับสายไอทีและผู้ดูแลระบบคลาวด์ทั่วโลก เมื่อ Sweet Security ผู้เชี่ยวชาญด้านความปลอดภัยคลาวด์และ AI ได้เปิดตัว Runtime CNAPP (Cloud-Native Application Protection Platform) สำหรับระบบปฏิบัติการ Windows ซึ่งถือเป็นก้าวสำคัญในการเติมเต็มช่องว่างด้านการป้องกันภัยคุกคามในคลาวด์ที่ใช้ Windows ซึ่งก่อนหน้านี้ถือเป็นจุดอ่อนของหลายองค์กร

    ลองนึกภาพว่าองค์กรของคุณมีระบบ Windows รันอยู่บนคลาวด์เต็มไปหมด แต่เครื่องมือป้องกันภัยส่วนใหญ่ถูกออกแบบมาเพื่อระบบแบบเดิม หรือ Linux เท่านั้น ตอนนี้ Sweet Security ได้พัฒนาเซนเซอร์ใหม่ที่เขียนด้วยภาษา Rust ซึ่งมีประสิทธิภาพสูงและใช้ทรัพยากรต่ำ พร้อมความสามารถในการตรวจจับพฤติกรรมผิดปกติแบบเรียลไทม์ ไม่ใช่แค่การจับลายเซ็นไวรัสแบบเก่า แต่สามารถตรวจจับการใช้เครื่องมือปกติในทางที่ผิด เช่น PowerShell, DLL injection, การแก้ไข registry และอื่น ๆ

    ที่น่าทึ่งคือ ในการทดสอบจริง เซนเซอร์ของ Sweet สามารถตรวจจับการพยายามขโมยข้อมูล credential ได้ภายในไม่กี่วินาที และใช้เวลาไม่ถึง 2 นาทีในการสืบสวนจนเสร็จสิ้น นี่คือการเปลี่ยนเกมของการรักษาความปลอดภัยในคลาวด์อย่างแท้จริง

    นอกจากนี้ Sweet ยังรวมความสามารถของ AI และ LLM (Large Language Model) เพื่อวิเคราะห์ข้อมูลจากหลายแหล่ง เช่น audit logs และ cloud identities เพื่อให้เห็นภาพรวมของภัยคุกคามได้ชัดเจนยิ่งขึ้น

    สรุปประเด็นสำคัญจากข่าว
    Sweet Security เปิดตัว Runtime CNAPP สำหรับ Windows
    รองรับการตรวจจับแบบเรียลไทม์และการสืบสวนอัตโนมัติ
    ใช้ภาษา Rust เพื่อประสิทธิภาพสูงและ footprint ต่ำ
    ครอบคลุมพฤติกรรมผิดปกติ เช่น DLL injection, PowerShell, registry manipulation
    ใช้เทคโนโลยี behavioral baselining และ AI เพื่อจับการใช้เครื่องมือปกติในทางผิด
    ตรวจจับ credential dumping ได้ภายในไม่กี่วินาที
    ใช้เวลาไม่ถึง 2 นาทีในการสืบสวนภัยคุกคาม
    รวมความสามารถของ CADR, CSPM, KSPM, CIEM, ITDR และอื่น ๆ ในแพลตฟอร์มเดียว

    ความเสี่ยงของระบบ Windows บนคลาวด์ที่ยังไม่มีการป้องกันแบบ runtime
    ระบบ EDR แบบเดิมอาจไม่ครอบคลุมภัยคุกคามเฉพาะของคลาวด์
    การใช้เครื่องมือปกติในทางผิดอาจไม่ถูกตรวจจับโดยระบบทั่วไป
    การขาดการเชื่อมโยงข้อมูลจากหลายแหล่งทำให้การสืบสวนล่าช้า

    https://securityonline.info/sweet-security-brings-runtime-cnapp-power-to-windows/
    🛡️ ข่าวใหญ่แห่งวงการคลาวด์: Sweet Security เปิดตัว Runtime CNAPP สำหรับ Windows วันนี้มีข่าวดีสำหรับสายไอทีและผู้ดูแลระบบคลาวด์ทั่วโลก เมื่อ Sweet Security ผู้เชี่ยวชาญด้านความปลอดภัยคลาวด์และ AI ได้เปิดตัว Runtime CNAPP (Cloud-Native Application Protection Platform) สำหรับระบบปฏิบัติการ Windows ซึ่งถือเป็นก้าวสำคัญในการเติมเต็มช่องว่างด้านการป้องกันภัยคุกคามในคลาวด์ที่ใช้ Windows ซึ่งก่อนหน้านี้ถือเป็นจุดอ่อนของหลายองค์กร ลองนึกภาพว่าองค์กรของคุณมีระบบ Windows รันอยู่บนคลาวด์เต็มไปหมด แต่เครื่องมือป้องกันภัยส่วนใหญ่ถูกออกแบบมาเพื่อระบบแบบเดิม หรือ Linux เท่านั้น ตอนนี้ Sweet Security ได้พัฒนาเซนเซอร์ใหม่ที่เขียนด้วยภาษา Rust ซึ่งมีประสิทธิภาพสูงและใช้ทรัพยากรต่ำ พร้อมความสามารถในการตรวจจับพฤติกรรมผิดปกติแบบเรียลไทม์ ไม่ใช่แค่การจับลายเซ็นไวรัสแบบเก่า แต่สามารถตรวจจับการใช้เครื่องมือปกติในทางที่ผิด เช่น PowerShell, DLL injection, การแก้ไข registry และอื่น ๆ ที่น่าทึ่งคือ ในการทดสอบจริง เซนเซอร์ของ Sweet สามารถตรวจจับการพยายามขโมยข้อมูล credential ได้ภายในไม่กี่วินาที และใช้เวลาไม่ถึง 2 นาทีในการสืบสวนจนเสร็จสิ้น นี่คือการเปลี่ยนเกมของการรักษาความปลอดภัยในคลาวด์อย่างแท้จริง นอกจากนี้ Sweet ยังรวมความสามารถของ AI และ LLM (Large Language Model) เพื่อวิเคราะห์ข้อมูลจากหลายแหล่ง เช่น audit logs และ cloud identities เพื่อให้เห็นภาพรวมของภัยคุกคามได้ชัดเจนยิ่งขึ้น 🔍 สรุปประเด็นสำคัญจากข่าว ✅ Sweet Security เปิดตัว Runtime CNAPP สำหรับ Windows ➡️ รองรับการตรวจจับแบบเรียลไทม์และการสืบสวนอัตโนมัติ ➡️ ใช้ภาษา Rust เพื่อประสิทธิภาพสูงและ footprint ต่ำ ➡️ ครอบคลุมพฤติกรรมผิดปกติ เช่น DLL injection, PowerShell, registry manipulation ➡️ ใช้เทคโนโลยี behavioral baselining และ AI เพื่อจับการใช้เครื่องมือปกติในทางผิด ➡️ ตรวจจับ credential dumping ได้ภายในไม่กี่วินาที ➡️ ใช้เวลาไม่ถึง 2 นาทีในการสืบสวนภัยคุกคาม ➡️ รวมความสามารถของ CADR, CSPM, KSPM, CIEM, ITDR และอื่น ๆ ในแพลตฟอร์มเดียว ‼️ ความเสี่ยงของระบบ Windows บนคลาวด์ที่ยังไม่มีการป้องกันแบบ runtime ⛔ ระบบ EDR แบบเดิมอาจไม่ครอบคลุมภัยคุกคามเฉพาะของคลาวด์ ⛔ การใช้เครื่องมือปกติในทางผิดอาจไม่ถูกตรวจจับโดยระบบทั่วไป ⛔ การขาดการเชื่อมโยงข้อมูลจากหลายแหล่งทำให้การสืบสวนล่าช้า https://securityonline.info/sweet-security-brings-runtime-cnapp-power-to-windows/
    SECURITYONLINE.INFO
    Sweet Security Brings Runtime-CNAPP Power to Windows
    Tel Aviv, Israel, 29th October 2025, CyberNewsWire
    0 ความคิดเห็น 0 การแบ่งปัน 226 มุมมอง 0 รีวิว
  • ผลการศึกษาใหม่เผย: แบตเตอรี่รถ EV เสื่อมช้ากว่าที่เคยคิด – Kia ครองแชมป์สุขภาพแบตดีที่สุด

    ผลการศึกษาจากสวีเดนโดยบริษัท Kvdbil วิเคราะห์สุขภาพแบตเตอรี่ (State of Health – SoH) ของรถยนต์ไฟฟ้าและไฮบริดกว่า 1,300 คัน พบว่า กว่า 80% ของรถ EV มือสองยังคงรักษาความจุแบตเตอรี่ไว้ได้มากกว่า 90% แม้ผ่านการใช้งานหลายปี ซึ่งสวนทางกับความเชื่อเดิมที่ว่าแบตเตอรี่ EV จะเสื่อมเร็วและต้องเปลี่ยนใหม่ภายในไม่กี่ปี

    ผลการจัดอันดับแบรนด์และรุ่นที่แบตเตอรี่เสื่อมน้อยที่สุด
    Kia EV6 และ Kia e-Niro ครองอันดับสูงสุดในกลุ่มรถไฟฟ้า
    Tesla Model Y ตามมาในอันดับที่สาม แม้จะเป็นรุ่นที่มีจำนวนมากที่สุดในกลุ่ม
    แบรนด์ที่มีสุขภาพแบตดีที่สุดโดยรวม ได้แก่ Kia, Audi, Opel และ Tesla
    ปัจจัยสำคัญที่ส่งผลต่อการเสื่อมของแบตเตอรี่ ได้แก่ อายุรถ, สภาพอากาศ, พฤติกรรมการขับขี่, และ รูปแบบการชาร์จ

    การศึกษานี้ช่วยลบล้างความเชื่อผิด ๆ ว่าแบตเตอรี่ EV จะเสื่อมเร็วและต้องเปลี่ยนใหม่ภายใน 5–8 ปี โดยพบว่าแบตเตอรี่รุ่นใหม่ที่มีระบบระบายความร้อนดีสามารถใช้งานได้นานกว่าที่คาดไว้

    ข้อมูลสำคัญจากการศึกษา
    กว่า 80% ของรถ EV มือสองยังคงมีแบตเตอรี่ที่มี SoH มากกว่า 90%
    Kia EV6 และ e-Niro มีสุขภาพแบตดีที่สุดในกลุ่ม
    Tesla Model Y อยู่ในอันดับ 3 แม้จะมีจำนวนมากที่สุด
    ปัจจัยที่ส่งผลต่อการเสื่อมของแบตเตอรี่: อายุ, สภาพอากาศ, พฤติกรรมการขับขี่, การชาร์จ
    แบตเตอรี่ EV เสื่อมช้ากว่าที่เคยคาดไว้ และอาจใช้งานได้นานกว่าตัวรถเอง

    คำแนะนำในการรักษาสุขภาพแบตเตอรี่
    จำกัดการชาร์จรายวันไว้ที่ 80%
    หลีกเลี่ยงการใช้ DC fast charging บ่อยครั้ง
    หลีกเลี่ยงการจอดรถในที่ร้อนจัดหรือเย็นจัด
    ใช้ระบบระบายความร้อนแบตเตอรี่ที่มีประสิทธิภาพ

    คำเตือนสำหรับผู้ซื้อรถ EV มือสอง
    อย่าตัดสินสุขภาพแบตจากอายุรถเพียงอย่างเดียว
    รถที่ใช้งานหนักหรือชาร์จผิดวิธีอาจมีแบตเตอรี่เสื่อมเร็วกว่าค่าเฉลี่ย
    ควรตรวจสอบรายงาน SoH ก่อนซื้อรถ EV มือสองทุกครั้ง

    https://www.techradar.com/vehicle-tech/hybrid-electric-vehicles/new-study-crowns-the-king-of-ev-battery-health-and-it-shows-batteries-dont-degrade-as-badly-as-first-feared
    🔋👑 ผลการศึกษาใหม่เผย: แบตเตอรี่รถ EV เสื่อมช้ากว่าที่เคยคิด – Kia ครองแชมป์สุขภาพแบตดีที่สุด ผลการศึกษาจากสวีเดนโดยบริษัท Kvdbil วิเคราะห์สุขภาพแบตเตอรี่ (State of Health – SoH) ของรถยนต์ไฟฟ้าและไฮบริดกว่า 1,300 คัน พบว่า กว่า 80% ของรถ EV มือสองยังคงรักษาความจุแบตเตอรี่ไว้ได้มากกว่า 90% แม้ผ่านการใช้งานหลายปี ซึ่งสวนทางกับความเชื่อเดิมที่ว่าแบตเตอรี่ EV จะเสื่อมเร็วและต้องเปลี่ยนใหม่ภายในไม่กี่ปี 🚗 ผลการจัดอันดับแบรนด์และรุ่นที่แบตเตอรี่เสื่อมน้อยที่สุด 💠 Kia EV6 และ Kia e-Niro ครองอันดับสูงสุดในกลุ่มรถไฟฟ้า 💠 Tesla Model Y ตามมาในอันดับที่สาม แม้จะเป็นรุ่นที่มีจำนวนมากที่สุดในกลุ่ม 💠 แบรนด์ที่มีสุขภาพแบตดีที่สุดโดยรวม ได้แก่ Kia, Audi, Opel และ Tesla 💠 ปัจจัยสำคัญที่ส่งผลต่อการเสื่อมของแบตเตอรี่ ได้แก่ อายุรถ, สภาพอากาศ, พฤติกรรมการขับขี่, และ รูปแบบการชาร์จ การศึกษานี้ช่วยลบล้างความเชื่อผิด ๆ ว่าแบตเตอรี่ EV จะเสื่อมเร็วและต้องเปลี่ยนใหม่ภายใน 5–8 ปี โดยพบว่าแบตเตอรี่รุ่นใหม่ที่มีระบบระบายความร้อนดีสามารถใช้งานได้นานกว่าที่คาดไว้ ✅ ข้อมูลสำคัญจากการศึกษา ➡️ กว่า 80% ของรถ EV มือสองยังคงมีแบตเตอรี่ที่มี SoH มากกว่า 90% ➡️ Kia EV6 และ e-Niro มีสุขภาพแบตดีที่สุดในกลุ่ม ➡️ Tesla Model Y อยู่ในอันดับ 3 แม้จะมีจำนวนมากที่สุด ➡️ ปัจจัยที่ส่งผลต่อการเสื่อมของแบตเตอรี่: อายุ, สภาพอากาศ, พฤติกรรมการขับขี่, การชาร์จ ➡️ แบตเตอรี่ EV เสื่อมช้ากว่าที่เคยคาดไว้ และอาจใช้งานได้นานกว่าตัวรถเอง ✅ คำแนะนำในการรักษาสุขภาพแบตเตอรี่ ➡️ จำกัดการชาร์จรายวันไว้ที่ 80% ➡️ หลีกเลี่ยงการใช้ DC fast charging บ่อยครั้ง ➡️ หลีกเลี่ยงการจอดรถในที่ร้อนจัดหรือเย็นจัด ➡️ ใช้ระบบระบายความร้อนแบตเตอรี่ที่มีประสิทธิภาพ ‼️ คำเตือนสำหรับผู้ซื้อรถ EV มือสอง ⛔ อย่าตัดสินสุขภาพแบตจากอายุรถเพียงอย่างเดียว ⛔ รถที่ใช้งานหนักหรือชาร์จผิดวิธีอาจมีแบตเตอรี่เสื่อมเร็วกว่าค่าเฉลี่ย ⛔ ควรตรวจสอบรายงาน SoH ก่อนซื้อรถ EV มือสองทุกครั้ง https://www.techradar.com/vehicle-tech/hybrid-electric-vehicles/new-study-crowns-the-king-of-ev-battery-health-and-it-shows-batteries-dont-degrade-as-badly-as-first-feared
    0 ความคิดเห็น 0 การแบ่งปัน 192 มุมมอง 0 รีวิว
  • Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia

    Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models

    ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference

    AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ

    ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง

    Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว

    Qualcomm เปิดตัว AI200 และ AI250
    AI200 ใช้งานปี 2026, AI250 ปี 2027
    ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor
    รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing

    ความสามารถด้านฮาร์ดแวร์
    AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW
    AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic
    รองรับ GenAI, confidential computing, และ model encryption

    แพลตฟอร์มซอฟต์แวร์
    รองรับ PyTorch, ONNX, LangChain, vLLM
    มีระบบ onboarding โมเดลแบบคลิกเดียว
    รองรับ disaggregated serving และ virtualization

    คำเตือนสำหรับผู้ใช้งานระดับองค์กร
    ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ
    การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด
    ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
    ⚙️ Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว ✅ Qualcomm เปิดตัว AI200 และ AI250 ➡️ AI200 ใช้งานปี 2026, AI250 ปี 2027 ➡️ ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor ➡️ รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing ✅ ความสามารถด้านฮาร์ดแวร์ ➡️ AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW ➡️ AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic ➡️ รองรับ GenAI, confidential computing, และ model encryption ✅ แพลตฟอร์มซอฟต์แวร์ ➡️ รองรับ PyTorch, ONNX, LangChain, vLLM ➡️ มีระบบ onboarding โมเดลแบบคลิกเดียว ➡️ รองรับ disaggregated serving และ virtualization ‼️ คำเตือนสำหรับผู้ใช้งานระดับองค์กร ⛔ ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ ⛔ การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด ⛔ ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
    0 ความคิดเห็น 0 การแบ่งปัน 139 มุมมอง 0 รีวิว
  • ยกระดับความปลอดภัยในระบบ Serverless ด้วย Zero Trust และ AI — ป้องกันภัยคุกคามยุคใหม่แบบรอบด้าน

    บทความจาก HackRead โดย Rimpy Tewani ผู้เชี่ยวชาญด้านความปลอดภัยระบบคลาวด์ของ AWS เผยแนวทางการป้องกันภัยคุกคามในระบบ Serverless ที่กำลังได้รับความนิยมในองค์กรขนาดใหญ่ โดยเน้นการใช้สถาปัตยกรรม Zero Trust และระบบตรวจจับภัยคุกคามด้วย AI เพื่อรับมือกับการโจมตีที่ซับซ้อนและเกิดขึ้นรวดเร็ว

    ระบบ Serverless ช่วยให้องค์กรสามารถพัฒนาแอปพลิเคชันได้เร็วขึ้นโดยไม่ต้องดูแลเซิร์ฟเวอร์เอง แต่ก็เปิดช่องให้เกิดภัยคุกคามรูปแบบใหม่ เช่น การฉีด event ที่เป็นอันตราย (Function Event Injection), การโจมตีช่วง cold start และการใช้ AI ในการหลบเลี่ยงระบบตรวจจับ

    แนวทางที่แนะนำคือการใช้สถาปัตยกรรม Zero Trust ซึ่งไม่เชื่อถือสิ่งใดโดยอัตโนมัติ แม้จะผ่านการยืนยันตัวตนแล้วก็ตาม ทุกคำขอและทุกฟังก์ชันต้องผ่านการตรวจสอบซ้ำเสมอ

    ระบบป้องกันประกอบด้วยหลายชั้น เช่น AWS WAF, Cognito, การเข้ารหัสข้อมูล, การตรวจสอบแบบเรียลไทม์ และการใช้ AI วิเคราะห์พฤติกรรมผู้ใช้เพื่อประเมินความเสี่ยง

    Zero Trust ในระบบ Serverless
    ไม่เชื่อถือคำขอใด ๆ โดยอัตโนมัติ
    ตรวจสอบทุกฟังก์ชันและ API call แบบเรียลไทม์
    ใช้การยืนยันตัวตนหลายชั้นและการเข้ารหัสข้อมูล

    ภัยคุกคามเฉพาะในระบบ Serverless
    Function Event Injection: ฝัง payload อันตรายผ่าน event
    Cold Start Exploitation: โจมตีช่วงเริ่มต้นที่ระบบยังไม่พร้อม
    Credential Stuffing และ API Abuse เพิ่มขึ้นกว่า 300%

    การใช้ AI ในการป้องกัน
    AWS Cognito วิเคราะห์พฤติกรรมและอุปกรณ์ผู้ใช้
    EventBridge ตรวจจับภัยคุกคามข้ามบริการ
    AI วิเคราะห์ prompt injection และ model poisoning ในระบบ GenAI

    ผลลัพธ์จากการใช้งานจริง
    ลดเวลาในการตอบสนองภัยคุกคามจาก 200 นาทีเหลือ 30 วินาที
    เพิ่ม ROI ด้านความปลอดภัยถึง 240% ภายใน 2 ปี
    ตรวจจับการ takeover บัญชีได้แม่นยำถึง 99.7%

    คำเตือนสำหรับองค์กรที่ใช้ Serverless
    อย่าพึ่งพาการตรวจสอบแบบหลังเกิดเหตุเพียงอย่างเดียว
    ควรใช้ระบบตรวจจับแบบ proactive และ AI วิเคราะห์พฤติกรรม
    ต้องเตรียมรับมือกับภัยคุกคามที่เกิดจากการใช้ GenAI

    https://hackread.com/serverless-security-zero-trust-implementation-ai-threat-detection/
    🛡️ ยกระดับความปลอดภัยในระบบ Serverless ด้วย Zero Trust และ AI — ป้องกันภัยคุกคามยุคใหม่แบบรอบด้าน บทความจาก HackRead โดย Rimpy Tewani ผู้เชี่ยวชาญด้านความปลอดภัยระบบคลาวด์ของ AWS เผยแนวทางการป้องกันภัยคุกคามในระบบ Serverless ที่กำลังได้รับความนิยมในองค์กรขนาดใหญ่ โดยเน้นการใช้สถาปัตยกรรม Zero Trust และระบบตรวจจับภัยคุกคามด้วย AI เพื่อรับมือกับการโจมตีที่ซับซ้อนและเกิดขึ้นรวดเร็ว ระบบ Serverless ช่วยให้องค์กรสามารถพัฒนาแอปพลิเคชันได้เร็วขึ้นโดยไม่ต้องดูแลเซิร์ฟเวอร์เอง แต่ก็เปิดช่องให้เกิดภัยคุกคามรูปแบบใหม่ เช่น การฉีด event ที่เป็นอันตราย (Function Event Injection), การโจมตีช่วง cold start และการใช้ AI ในการหลบเลี่ยงระบบตรวจจับ แนวทางที่แนะนำคือการใช้สถาปัตยกรรม Zero Trust ซึ่งไม่เชื่อถือสิ่งใดโดยอัตโนมัติ แม้จะผ่านการยืนยันตัวตนแล้วก็ตาม ทุกคำขอและทุกฟังก์ชันต้องผ่านการตรวจสอบซ้ำเสมอ ระบบป้องกันประกอบด้วยหลายชั้น เช่น AWS WAF, Cognito, การเข้ารหัสข้อมูล, การตรวจสอบแบบเรียลไทม์ และการใช้ AI วิเคราะห์พฤติกรรมผู้ใช้เพื่อประเมินความเสี่ยง ✅ Zero Trust ในระบบ Serverless ➡️ ไม่เชื่อถือคำขอใด ๆ โดยอัตโนมัติ ➡️ ตรวจสอบทุกฟังก์ชันและ API call แบบเรียลไทม์ ➡️ ใช้การยืนยันตัวตนหลายชั้นและการเข้ารหัสข้อมูล ✅ ภัยคุกคามเฉพาะในระบบ Serverless ➡️ Function Event Injection: ฝัง payload อันตรายผ่าน event ➡️ Cold Start Exploitation: โจมตีช่วงเริ่มต้นที่ระบบยังไม่พร้อม ➡️ Credential Stuffing และ API Abuse เพิ่มขึ้นกว่า 300% ✅ การใช้ AI ในการป้องกัน ➡️ AWS Cognito วิเคราะห์พฤติกรรมและอุปกรณ์ผู้ใช้ ➡️ EventBridge ตรวจจับภัยคุกคามข้ามบริการ ➡️ AI วิเคราะห์ prompt injection และ model poisoning ในระบบ GenAI ✅ ผลลัพธ์จากการใช้งานจริง ➡️ ลดเวลาในการตอบสนองภัยคุกคามจาก 200 นาทีเหลือ 30 วินาที ➡️ เพิ่ม ROI ด้านความปลอดภัยถึง 240% ภายใน 2 ปี ➡️ ตรวจจับการ takeover บัญชีได้แม่นยำถึง 99.7% ‼️ คำเตือนสำหรับองค์กรที่ใช้ Serverless ⛔ อย่าพึ่งพาการตรวจสอบแบบหลังเกิดเหตุเพียงอย่างเดียว ⛔ ควรใช้ระบบตรวจจับแบบ proactive และ AI วิเคราะห์พฤติกรรม ⛔ ต้องเตรียมรับมือกับภัยคุกคามที่เกิดจากการใช้ GenAI https://hackread.com/serverless-security-zero-trust-implementation-ai-threat-detection/
    HACKREAD.COM
    Advanced Serverless Security: Zero Trust Implementation with AI-Powered Threat Detection
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 รีวิว
  • Shadow Escape: ช่องโหว่ใหม่ใน AI Assistant เสี่ยงทำข้อมูลผู้ใช้รั่วไหลมหาศาล

    นักวิจัยจาก Operant AI ได้เปิดเผยการโจมตีแบบใหม่ที่เรียกว่า “Shadow Escape” ซึ่งเป็นการโจมตีแบบ “zero-click” ที่สามารถขโมยข้อมูลส่วนตัวของผู้ใช้ผ่าน AI Assistant โดยไม่ต้องให้ผู้ใช้คลิกหรือตอบสนองใดๆ เลย จุดอ่อนนี้เกิดจากการใช้มาตรฐาน Model Context Protocol (MCP) ที่ช่วยให้ AI อย่าง ChatGPT, Gemini และ Claude เชื่อมต่อกับระบบภายในขององค์กร เช่น ฐานข้อมูลหรือ API ต่างๆ

    สิ่งที่น่ากังวลคือ Shadow Escape สามารถซ่อนคำสั่งอันตรายไว้ในไฟล์ธรรมดา เช่น คู่มือพนักงานหรือ PDF ที่ดูไม่มีพิษภัย เมื่อพนักงานอัปโหลดไฟล์เหล่านี้ให้ AI ช่วยสรุปหรือวิเคราะห์ คำสั่งที่ซ่อนอยู่จะสั่งให้ AI ดึงข้อมูลส่วนตัวของลูกค้า เช่น หมายเลขประกันสังคม (SSN), ข้อมูลการเงิน, หรือเวชระเบียน แล้วส่งออกไปยังเซิร์ฟเวอร์ของผู้ไม่หวังดี โดยที่ระบบความปลอดภัยทั่วไปไม่สามารถตรวจจับได้ เพราะการเข้าถึงข้อมูลเกิดขึ้นภายในระบบที่ได้รับอนุญาตอยู่แล้ว

    1️⃣ ลักษณะของการโจมตี
    จุดเริ่มต้นของการโจมตี
    ใช้ไฟล์ธรรมดา เช่น PDF หรือเอกสาร Word ที่ฝังคำสั่งลับ
    พนักงานอัปโหลดไฟล์ให้ AI ช่วยสรุปหรือวิเคราะห์
    คำสั่งลับจะสั่งให้ AI ดึงข้อมูลจากระบบภายใน

    จุดอ่อนที่ถูกใช้
    มาตรฐาน Model Context Protocol (MCP) ที่เชื่อม AI กับระบบองค์กร
    การตั้งค่า permission ของ MCP ที่ไม่รัดกุม
    AI มีสิทธิ์เข้าถึงข้อมูลโดยตรง จึงไม่ถูกระบบรักษาความปลอดภัยภายนอกตรวจจับ

    2️⃣ ข้อมูลที่ตกอยู่ในความเสี่ยง
    ประเภทของข้อมูลที่อาจรั่วไหล
    หมายเลขประกันสังคม (SSN)
    ข้อมูลบัตรเครดิตและบัญชีธนาคาร
    เวชระเบียนและข้อมูลสุขภาพ
    ชื่อ ที่อยู่ และข้อมูลส่วนตัวของลูกค้า

    คำเตือน
    การรั่วไหลอาจเกิดขึ้นโดยที่พนักงานไม่รู้ตัว
    ข้อมูลอาจถูกส่งออกไปยังเซิร์ฟเวอร์ของผู้โจมตีโดยไม่มีการแจ้งเตือน

    3️⃣ ทำไมระบบความปลอดภัยทั่วไปจึงไม่สามารถป้องกันได้
    ลักษณะของการโจมตีแบบ “zero-click”
    ไม่ต้องการให้ผู้ใช้คลิกลิงก์หรือทำอะไร
    ใช้ AI ที่มีสิทธิ์เข้าถึงข้อมูลเป็นเครื่องมือในการขโมยข้อมูล
    การส่งข้อมูลออกถูกพรางให้ดูเหมือนเป็นการทำงานปกติของระบบ

    คำเตือน
    ระบบ firewall และระบบตรวจจับภัยคุกคามทั่วไปไม่สามารถแยกแยะพฤติกรรมนี้ได้
    การใช้ AI โดยไม่มีการควบคุมสิทธิ์อย่างเข้มงวด อาจกลายเป็นช่องโหว่ร้ายแรง

    4️⃣ ข้อเสนอแนะจากนักวิจัย
    แนวทางป้องกัน
    ตรวจสอบและจำกัดสิทธิ์ของ AI Assistant ในการเข้าถึงข้อมูล
    ปรับแต่ง permission ของ MCP ให้เหมาะสมกับระดับความเสี่ยง
    ตรวจสอบไฟล์ที่อัปโหลดเข้าระบบอย่างละเอียดก่อนให้ AI ประมวลผล

    คำเตือน
    องค์กรที่ใช้ AI Assistant โดยไม่ตรวจสอบการตั้งค่า MCP อาจตกเป็นเหยื่อได้ง่าย
    การละเลยการ audit ระบบ AI อาจนำไปสู่การรั่วไหลของข้อมูลระดับ “หลายล้านล้านรายการ”

    https://hackread.com/shadow-escape-0-click-attack-ai-assistants-risk/
    🕵️‍♂️ Shadow Escape: ช่องโหว่ใหม่ใน AI Assistant เสี่ยงทำข้อมูลผู้ใช้รั่วไหลมหาศาล นักวิจัยจาก Operant AI ได้เปิดเผยการโจมตีแบบใหม่ที่เรียกว่า “Shadow Escape” ซึ่งเป็นการโจมตีแบบ “zero-click” ที่สามารถขโมยข้อมูลส่วนตัวของผู้ใช้ผ่าน AI Assistant โดยไม่ต้องให้ผู้ใช้คลิกหรือตอบสนองใดๆ เลย จุดอ่อนนี้เกิดจากการใช้มาตรฐาน Model Context Protocol (MCP) ที่ช่วยให้ AI อย่าง ChatGPT, Gemini และ Claude เชื่อมต่อกับระบบภายในขององค์กร เช่น ฐานข้อมูลหรือ API ต่างๆ สิ่งที่น่ากังวลคือ Shadow Escape สามารถซ่อนคำสั่งอันตรายไว้ในไฟล์ธรรมดา เช่น คู่มือพนักงานหรือ PDF ที่ดูไม่มีพิษภัย เมื่อพนักงานอัปโหลดไฟล์เหล่านี้ให้ AI ช่วยสรุปหรือวิเคราะห์ คำสั่งที่ซ่อนอยู่จะสั่งให้ AI ดึงข้อมูลส่วนตัวของลูกค้า เช่น หมายเลขประกันสังคม (SSN), ข้อมูลการเงิน, หรือเวชระเบียน แล้วส่งออกไปยังเซิร์ฟเวอร์ของผู้ไม่หวังดี โดยที่ระบบความปลอดภัยทั่วไปไม่สามารถตรวจจับได้ เพราะการเข้าถึงข้อมูลเกิดขึ้นภายในระบบที่ได้รับอนุญาตอยู่แล้ว 1️⃣ ลักษณะของการโจมตี ✅ จุดเริ่มต้นของการโจมตี ➡️ ใช้ไฟล์ธรรมดา เช่น PDF หรือเอกสาร Word ที่ฝังคำสั่งลับ ➡️ พนักงานอัปโหลดไฟล์ให้ AI ช่วยสรุปหรือวิเคราะห์ ➡️ คำสั่งลับจะสั่งให้ AI ดึงข้อมูลจากระบบภายใน ✅ จุดอ่อนที่ถูกใช้ ➡️ มาตรฐาน Model Context Protocol (MCP) ที่เชื่อม AI กับระบบองค์กร ➡️ การตั้งค่า permission ของ MCP ที่ไม่รัดกุม ➡️ AI มีสิทธิ์เข้าถึงข้อมูลโดยตรง จึงไม่ถูกระบบรักษาความปลอดภัยภายนอกตรวจจับ 2️⃣ ข้อมูลที่ตกอยู่ในความเสี่ยง ✅ ประเภทของข้อมูลที่อาจรั่วไหล ➡️ หมายเลขประกันสังคม (SSN) ➡️ ข้อมูลบัตรเครดิตและบัญชีธนาคาร ➡️ เวชระเบียนและข้อมูลสุขภาพ ➡️ ชื่อ ที่อยู่ และข้อมูลส่วนตัวของลูกค้า ‼️ คำเตือน ⛔ การรั่วไหลอาจเกิดขึ้นโดยที่พนักงานไม่รู้ตัว ⛔ ข้อมูลอาจถูกส่งออกไปยังเซิร์ฟเวอร์ของผู้โจมตีโดยไม่มีการแจ้งเตือน 3️⃣ ทำไมระบบความปลอดภัยทั่วไปจึงไม่สามารถป้องกันได้ ✅ ลักษณะของการโจมตีแบบ “zero-click” ➡️ ไม่ต้องการให้ผู้ใช้คลิกลิงก์หรือทำอะไร ➡️ ใช้ AI ที่มีสิทธิ์เข้าถึงข้อมูลเป็นเครื่องมือในการขโมยข้อมูล ➡️ การส่งข้อมูลออกถูกพรางให้ดูเหมือนเป็นการทำงานปกติของระบบ ‼️ คำเตือน ⛔ ระบบ firewall และระบบตรวจจับภัยคุกคามทั่วไปไม่สามารถแยกแยะพฤติกรรมนี้ได้ ⛔ การใช้ AI โดยไม่มีการควบคุมสิทธิ์อย่างเข้มงวด อาจกลายเป็นช่องโหว่ร้ายแรง 4️⃣ ข้อเสนอแนะจากนักวิจัย ✅ แนวทางป้องกัน ➡️ ตรวจสอบและจำกัดสิทธิ์ของ AI Assistant ในการเข้าถึงข้อมูล ➡️ ปรับแต่ง permission ของ MCP ให้เหมาะสมกับระดับความเสี่ยง ➡️ ตรวจสอบไฟล์ที่อัปโหลดเข้าระบบอย่างละเอียดก่อนให้ AI ประมวลผล ‼️ คำเตือน ⛔ องค์กรที่ใช้ AI Assistant โดยไม่ตรวจสอบการตั้งค่า MCP อาจตกเป็นเหยื่อได้ง่าย ⛔ การละเลยการ audit ระบบ AI อาจนำไปสู่การรั่วไหลของข้อมูลระดับ “หลายล้านล้านรายการ” https://hackread.com/shadow-escape-0-click-attack-ai-assistants-risk/
    HACKREAD.COM
    Shadow Escape 0-Click Attack in AI Assistants Puts Trillions of Records at Risk
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
  • “Exynos 2600 ยังไม่พร้อมใช้กับ Galaxy S26 ทุกรุ่น – ผลิตได้แค่ 15,000 แผ่น wafer เท่านั้น!”

    Samsung เริ่มผลิตชิป Exynos 2600 ด้วยเทคโนโลยี 2nm GAA (Gate-All-Around) สำหรับใช้ใน Galaxy S26 แต่ดูเหมือนว่าการผลิตยังไม่พร้อมเต็มที่ เพราะมีรายงานว่าผลิตได้เพียง 15,000 wafer เท่านั้น ซึ่งถือว่าน้อยมากเมื่อเทียบกับความต้องการของตลาด

    แม้ก่อนหน้านี้จะมีข่าวว่า Exynos 2600 มีประสิทธิภาพสูงกว่า Snapdragon 8 Elite Gen 5 และ A19 Pro ในการทดสอบภายใน แต่ปัญหาหลักคือ อัตราผลิตที่ได้ (yield) ยังอยู่ที่ประมาณ 50% เท่านั้น ทำให้ชิปที่ผลิตได้จริงมีจำนวนจำกัด

    ผลคือ Galaxy S26 จะมีเพียง 30% ของเครื่องทั้งหมด ที่ใช้ Exynos 2600 ส่วนที่เหลือจะใช้ Snapdragon 8 Elite Gen 5 แทน แม้ก่อนหน้านี้จะมีข่าวว่า S26 Ultra จะใช้ Exynos ด้วย แต่ข้อมูลล่าสุดชี้ว่าอาจไม่เป็นจริง

    แหล่งข่าวยังระบุว่า Exynos 2600 ถูกมองว่า “premature” หรือยังไม่พร้อมใช้งานในระดับ mass production และ Samsung ยังต้องปรับปรุง yield ให้สูงขึ้นก่อนจะใช้กับรุ่นเรือธงทั้งหมด

    นอกจากนี้ Samsung ยังมีแผนใช้เทคโนโลยี 2nm GAA เดียวกันในการผลิตชิป AI6 ของ Tesla ซึ่งอยู่ในช่วง pilot production โดยตั้งเป้าเพิ่ม yield ให้ถึง 50% ภายในรอบการผลิตถัดไป

    สถานะการผลิตของ Exynos 2600
    ผลิตได้เพียง 15,000 wafer เท่านั้น
    Yield อยู่ที่ประมาณ 50%
    ใช้เทคโนโลยี 2nm GAA ที่ยังไม่เสถียร
    ถูกมองว่ายัง “premature” สำหรับการใช้งานใน Galaxy S26 ทุกรุ่น

    ผลกระทบต่อ Galaxy S26
    มีเพียง 30% ของเครื่องที่ใช้ Exynos 2600
    ส่วนใหญ่จะใช้ Snapdragon 8 Elite Gen 5 แทน
    S26 Ultra อาจไม่ได้ใช้ Exynos ตามที่เคยคาดไว้
    ประสิทธิภาพของ Exynos 2600 ยังสูงกว่าในการทดสอบภายใน

    แผนของ Samsung ในอนาคต
    ตั้งเป้าเพิ่ม yield เป็น 70%
    ใช้เทคโนโลยีเดียวกันผลิตชิป AI6 ให้ Tesla
    หวังดึงลูกค้าใหม่ เช่น Qualcomm หาก yield ดีขึ้น
    แข่งกับ TSMC ในตลาด 2nm GAA

    ข้อควรระวังและคำเตือน
    Yield ต่ำทำให้ต้นทุนต่อชิปสูงและจำนวนผลิตจำกัด
    การใช้ชิปที่ยังไม่เสถียรอาจกระทบต่อภาพลักษณ์ของ Galaxy S26
    หากไม่สามารถเพิ่ม yield ได้ อาจเสียเปรียบ TSMC ในระยะยาว
    การพึ่งพา Snapdragon มากเกินไปอาจลดความเป็นอิสระของ Samsung
    การผลิต AI6 บนเทคโนโลยีเดียวกันอาจเจอปัญหา yield ซ้ำซ้อน

    https://wccftech.com/exynos-2600-initial-production-volume-15000-wafers-considered-premature-for-all-galaxy-s26-models/
    📱 “Exynos 2600 ยังไม่พร้อมใช้กับ Galaxy S26 ทุกรุ่น – ผลิตได้แค่ 15,000 แผ่น wafer เท่านั้น!” Samsung เริ่มผลิตชิป Exynos 2600 ด้วยเทคโนโลยี 2nm GAA (Gate-All-Around) สำหรับใช้ใน Galaxy S26 แต่ดูเหมือนว่าการผลิตยังไม่พร้อมเต็มที่ เพราะมีรายงานว่าผลิตได้เพียง 15,000 wafer เท่านั้น ซึ่งถือว่าน้อยมากเมื่อเทียบกับความต้องการของตลาด แม้ก่อนหน้านี้จะมีข่าวว่า Exynos 2600 มีประสิทธิภาพสูงกว่า Snapdragon 8 Elite Gen 5 และ A19 Pro ในการทดสอบภายใน แต่ปัญหาหลักคือ อัตราผลิตที่ได้ (yield) ยังอยู่ที่ประมาณ 50% เท่านั้น ทำให้ชิปที่ผลิตได้จริงมีจำนวนจำกัด ผลคือ Galaxy S26 จะมีเพียง 30% ของเครื่องทั้งหมด ที่ใช้ Exynos 2600 ส่วนที่เหลือจะใช้ Snapdragon 8 Elite Gen 5 แทน แม้ก่อนหน้านี้จะมีข่าวว่า S26 Ultra จะใช้ Exynos ด้วย แต่ข้อมูลล่าสุดชี้ว่าอาจไม่เป็นจริง แหล่งข่าวยังระบุว่า Exynos 2600 ถูกมองว่า “premature” หรือยังไม่พร้อมใช้งานในระดับ mass production และ Samsung ยังต้องปรับปรุง yield ให้สูงขึ้นก่อนจะใช้กับรุ่นเรือธงทั้งหมด นอกจากนี้ Samsung ยังมีแผนใช้เทคโนโลยี 2nm GAA เดียวกันในการผลิตชิป AI6 ของ Tesla ซึ่งอยู่ในช่วง pilot production โดยตั้งเป้าเพิ่ม yield ให้ถึง 50% ภายในรอบการผลิตถัดไป ✅ สถานะการผลิตของ Exynos 2600 ➡️ ผลิตได้เพียง 15,000 wafer เท่านั้น ➡️ Yield อยู่ที่ประมาณ 50% ➡️ ใช้เทคโนโลยี 2nm GAA ที่ยังไม่เสถียร ➡️ ถูกมองว่ายัง “premature” สำหรับการใช้งานใน Galaxy S26 ทุกรุ่น ✅ ผลกระทบต่อ Galaxy S26 ➡️ มีเพียง 30% ของเครื่องที่ใช้ Exynos 2600 ➡️ ส่วนใหญ่จะใช้ Snapdragon 8 Elite Gen 5 แทน ➡️ S26 Ultra อาจไม่ได้ใช้ Exynos ตามที่เคยคาดไว้ ➡️ ประสิทธิภาพของ Exynos 2600 ยังสูงกว่าในการทดสอบภายใน ✅ แผนของ Samsung ในอนาคต ➡️ ตั้งเป้าเพิ่ม yield เป็น 70% ➡️ ใช้เทคโนโลยีเดียวกันผลิตชิป AI6 ให้ Tesla ➡️ หวังดึงลูกค้าใหม่ เช่น Qualcomm หาก yield ดีขึ้น ➡️ แข่งกับ TSMC ในตลาด 2nm GAA ‼️ ข้อควรระวังและคำเตือน ⛔ Yield ต่ำทำให้ต้นทุนต่อชิปสูงและจำนวนผลิตจำกัด ⛔ การใช้ชิปที่ยังไม่เสถียรอาจกระทบต่อภาพลักษณ์ของ Galaxy S26 ⛔ หากไม่สามารถเพิ่ม yield ได้ อาจเสียเปรียบ TSMC ในระยะยาว ⛔ การพึ่งพา Snapdragon มากเกินไปอาจลดความเป็นอิสระของ Samsung ⛔ การผลิต AI6 บนเทคโนโลยีเดียวกันอาจเจอปัญหา yield ซ้ำซ้อน https://wccftech.com/exynos-2600-initial-production-volume-15000-wafers-considered-premature-for-all-galaxy-s26-models/
    WCCFTECH.COM
    Exynos 2600 Is Considered ‘Premature’ To Be Used In All Galaxy S26 Models; Initial Production Volume Is Only 15,000 Wafers, Possibly Due To Poor Yields
    A report says that the initial production volume of the Exynos 2600 is 15,000 units and may not be available in larger quantities to be used in all Galaxy S26 versions
    0 ความคิดเห็น 0 การแบ่งปัน 239 มุมมอง 0 รีวิว
  • “Microsoft ใช้เกมของคุณฝึก AI – Gaming Copilot แอบเก็บข้อมูลโดยเปิดไว้เป็นค่าเริ่มต้น!”

    Microsoft เปิดตัวฟีเจอร์ใหม่ชื่อว่า Gaming Copilot AI บน Windows 11 ซึ่งออกแบบมาเพื่อช่วยผู้เล่นเกม เช่น แนะนำกลยุทธ์หรือช่วยแก้ปัญหาในเกม แต่สิ่งที่หลายคนไม่รู้คือ AI ตัวนี้ ฝึกตัวเองจากการเล่นเกมของคุณ โดยอัตโนมัติ — และเปิดใช้งานไว้ตั้งแต่แรก!

    ผู้ใช้ในฟอรั่ม ResetEra พบว่า Gaming Copilot ส่ง ภาพหน้าจอและข้อมูลการเล่นเกม กลับไปยัง Microsoft เพื่อใช้ฝึกโมเดล AI โดยไม่แจ้งเตือนชัดเจน และ Wccftech ก็ยืนยันว่าใน Game Bar → Settings → Privacy Settings มีตัวเลือกชื่อว่า “Model training on text” ที่ถูกเปิดไว้ตั้งแต่ต้น

    นอกจากนี้ยังมีตัวเลือกให้ AI ฝึกจาก เสียงสนทนาในเกม, ข้อมูล personalization และ memory รวมถึงบทสนทนาที่คุณเคยคุยกับ Gaming Copilot ด้วย แม้บางตัวเลือกจะไม่ได้เปิดไว้ตั้งแต่แรก แต่ก็สามารถเปิดได้โดยไม่รู้ตัว

    Microsoft ระบุว่าผู้ใช้สามารถปิดฟีเจอร์เหล่านี้ได้ โดยเข้าไปที่ Game Bar → Gaming Copilot → Settings → Privacy Settings แล้วปิดทุกตัวเลือกที่เกี่ยวกับการฝึกโมเดล

    ข่าวนี้ออกมาในช่วงที่ Microsoft ถูกวิจารณ์หนักจากหลายเรื่อง เช่น ขึ้นราคาคอนโซล Xbox และ Game Pass, ปิดโปรแกรม reward และปลดพนักงานกว่า 9,000 คน เพื่อเน้นการลงทุนใน AI — ทำให้หลายคนรู้สึกว่า Microsoft กำลัง “เดิมพันทุกอย่างกับ AI” โดยไม่คำนึงถึงความรู้สึกของผู้ใช้

    ฟีเจอร์ Gaming Copilot AI
    ช่วยผู้เล่นเกมด้วยคำแนะนำและการวิเคราะห์
    ฝึกโมเดลจากข้อมูลการเล่นเกมของผู้ใช้
    ส่งภาพหน้าจอและข้อมูลกลับไปยัง Microsoft
    เปิดใช้งานไว้เป็นค่าเริ่มต้นโดยไม่แจ้งชัดเจน

    ข้อมูลที่ถูกใช้ในการฝึก AI
    ภาพหน้าจอและการเล่นเกม
    ข้อความและเสียงสนทนาในเกม
    ข้อมูล personalization และ memory
    บทสนทนากับ Gaming Copilot

    วิธีปิดการฝึกโมเดล
    เข้า Game Bar → Gaming Copilot → Settings → Privacy Settings
    ปิด “Model training on text” และตัวเลือกอื่น ๆ
    ตรวจสอบทุกครั้งหลังอัปเดต Windows

    บริบทของ Microsoft ในช่วงนี้
    ขึ้นราคาคอนโซล Xbox และ Game Pass
    ปิดโปรแกรม reward และส่วนลด
    ปลดพนักงานกว่า 9,000 คน
    เน้นลงทุนใน AI เป็นหลัก

    ข้อควรระวังและคำเตือน
    หากไม่ปิดฟีเจอร์ อาจถูกเก็บข้อมูลโดยไม่รู้ตัว
    การฝึก AI จากข้อมูลส่วนตัวอาจละเมิดความเป็นส่วนตัว
    ผู้ใช้บางคนอาจไม่รู้ว่าฟีเจอร์นี้เปิดอยู่
    การส่งข้อมูลกลับไปยัง Microsoft อาจเสี่ยงต่อการรั่วไหล
    ควรตรวจสอบการตั้งค่าหลังอัปเดต Windows ทุกครั้ง

    https://wccftech.com/microsoft-training-gaming-copilot-ai-watching-you-play-games-unless-you-turn-it-off/
    🎮 “Microsoft ใช้เกมของคุณฝึก AI – Gaming Copilot แอบเก็บข้อมูลโดยเปิดไว้เป็นค่าเริ่มต้น!” Microsoft เปิดตัวฟีเจอร์ใหม่ชื่อว่า Gaming Copilot AI บน Windows 11 ซึ่งออกแบบมาเพื่อช่วยผู้เล่นเกม เช่น แนะนำกลยุทธ์หรือช่วยแก้ปัญหาในเกม แต่สิ่งที่หลายคนไม่รู้คือ AI ตัวนี้ ฝึกตัวเองจากการเล่นเกมของคุณ โดยอัตโนมัติ — และเปิดใช้งานไว้ตั้งแต่แรก! ผู้ใช้ในฟอรั่ม ResetEra พบว่า Gaming Copilot ส่ง ภาพหน้าจอและข้อมูลการเล่นเกม กลับไปยัง Microsoft เพื่อใช้ฝึกโมเดล AI โดยไม่แจ้งเตือนชัดเจน และ Wccftech ก็ยืนยันว่าใน Game Bar → Settings → Privacy Settings มีตัวเลือกชื่อว่า “Model training on text” ที่ถูกเปิดไว้ตั้งแต่ต้น นอกจากนี้ยังมีตัวเลือกให้ AI ฝึกจาก เสียงสนทนาในเกม, ข้อมูล personalization และ memory รวมถึงบทสนทนาที่คุณเคยคุยกับ Gaming Copilot ด้วย แม้บางตัวเลือกจะไม่ได้เปิดไว้ตั้งแต่แรก แต่ก็สามารถเปิดได้โดยไม่รู้ตัว Microsoft ระบุว่าผู้ใช้สามารถปิดฟีเจอร์เหล่านี้ได้ โดยเข้าไปที่ Game Bar → Gaming Copilot → Settings → Privacy Settings แล้วปิดทุกตัวเลือกที่เกี่ยวกับการฝึกโมเดล ข่าวนี้ออกมาในช่วงที่ Microsoft ถูกวิจารณ์หนักจากหลายเรื่อง เช่น ขึ้นราคาคอนโซล Xbox และ Game Pass, ปิดโปรแกรม reward และปลดพนักงานกว่า 9,000 คน เพื่อเน้นการลงทุนใน AI — ทำให้หลายคนรู้สึกว่า Microsoft กำลัง “เดิมพันทุกอย่างกับ AI” โดยไม่คำนึงถึงความรู้สึกของผู้ใช้ ✅ ฟีเจอร์ Gaming Copilot AI ➡️ ช่วยผู้เล่นเกมด้วยคำแนะนำและการวิเคราะห์ ➡️ ฝึกโมเดลจากข้อมูลการเล่นเกมของผู้ใช้ ➡️ ส่งภาพหน้าจอและข้อมูลกลับไปยัง Microsoft ➡️ เปิดใช้งานไว้เป็นค่าเริ่มต้นโดยไม่แจ้งชัดเจน ✅ ข้อมูลที่ถูกใช้ในการฝึก AI ➡️ ภาพหน้าจอและการเล่นเกม ➡️ ข้อความและเสียงสนทนาในเกม ➡️ ข้อมูล personalization และ memory ➡️ บทสนทนากับ Gaming Copilot ✅ วิธีปิดการฝึกโมเดล ➡️ เข้า Game Bar → Gaming Copilot → Settings → Privacy Settings ➡️ ปิด “Model training on text” และตัวเลือกอื่น ๆ ➡️ ตรวจสอบทุกครั้งหลังอัปเดต Windows ✅ บริบทของ Microsoft ในช่วงนี้ ➡️ ขึ้นราคาคอนโซล Xbox และ Game Pass ➡️ ปิดโปรแกรม reward และส่วนลด ➡️ ปลดพนักงานกว่า 9,000 คน ➡️ เน้นลงทุนใน AI เป็นหลัก ‼️ ข้อควรระวังและคำเตือน ⛔ หากไม่ปิดฟีเจอร์ อาจถูกเก็บข้อมูลโดยไม่รู้ตัว ⛔ การฝึก AI จากข้อมูลส่วนตัวอาจละเมิดความเป็นส่วนตัว ⛔ ผู้ใช้บางคนอาจไม่รู้ว่าฟีเจอร์นี้เปิดอยู่ ⛔ การส่งข้อมูลกลับไปยัง Microsoft อาจเสี่ยงต่อการรั่วไหล ⛔ ควรตรวจสอบการตั้งค่าหลังอัปเดต Windows ทุกครั้ง https://wccftech.com/microsoft-training-gaming-copilot-ai-watching-you-play-games-unless-you-turn-it-off/
    WCCFTECH.COM
    Gaming Copilot Is Watching You Play Games and Training Off Your Gameplay, Unless You Turn It Off
    Microsoft is training its Gaming Copilot AI on your gameplay by default, unless you dig into the settings and turn it off.
    0 ความคิดเห็น 0 การแบ่งปัน 192 มุมมอง 0 รีวิว
  • “Qwen3-VL จาก Ollama – โมเดล Vision Language ที่ทรงพลังที่สุด พร้อมควบคุมคอมพิวเตอร์ได้แบบอัตโนมัติ!”

    ลองจินตนาการว่าเราชี้กล้องมือถือไปที่ใบไม้ แล้วถามว่า “พิษกับหมาไหม?” หรือเปิดไฟล์ตารางบนคอมแล้วสั่ง AI ให้แปลงเป็นกราฟ — ทั้งหมดนี้ Qwen3-VL ทำได้แล้ว!

    นี่คือโมเดล Vision Language รุ่นใหม่จาก Alibaba ที่เปิดให้ใช้งานผ่าน Ollama โดยมีชื่อเต็มว่า Qwen3-VL-235B-A22B จุดเด่นคือความสามารถในการเข้าใจภาพและวิดีโออย่างลึกซึ้ง แล้วแปลงเป็นโค้ด HTML, CSS หรือ JavaScript ได้ทันที

    มันรองรับ input สูงถึง 1 ล้าน token ซึ่งหมายถึงสามารถประมวลผลวิดีโอความยาว 2 ชั่วโมง หรือเอกสารหลายร้อยหน้าได้ในคราวเดียว และยังเข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูลเชิง 3D ได้ดีขึ้นกว่ารุ่นก่อน ๆ

    ด้าน OCR ก็ไม่ธรรมดา รองรับถึง 32 ภาษา และสามารถอ่านจากภาพที่เบลอ, มืด, หรือเอียงได้อย่างแม่นยำ

    แต่ที่น่าตื่นเต้นที่สุดคือความสามารถแบบ “agentic” — Qwen3-VL สามารถควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ เช่น สั่งจองตั๋วบน Ticketmaster โดยเปิดเบราว์เซอร์, กรอกข้อมูล, เลือกที่นั่ง และกดยืนยัน โดยไม่ต้องให้ผู้ใช้คลิกเองเลย

    แม้จะยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอก ZIP code ผิด แต่ความเร็วในการทำงานนั้นเหนือกว่าหลายโมเดลที่มีฟีเจอร์คล้ายกัน เช่น GPT-5, Claude หรือ Gemini

    ที่สำคัญคือ Qwen3-VL เปิดให้ใช้งานแบบ โอเพ่นซอร์ส ต่างจากคู่แข่งที่ต้องจ่ายเงิน ทำให้ชุมชนสามารถนำไปปรับแต่งและใช้งานได้อย่างอิสระ

    ความสามารถหลักของ Qwen3-VL
    แปลงภาพ/วิดีโอเป็นโค้ด HTML, CSS, JavaScript
    รองรับ input สูงสุด 1 ล้าน token
    เข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูล 3D
    OCR รองรับ 32 ภาษา แม้ภาพเบลอหรือเอียง

    ความสามารถแบบ agentic
    ควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ
    สั่งจองตั๋ว, โพสต์ Reddit, เขียนข้อความ, สั่งซื้อสินค้า
    ทำงานแบบ end-to-end โดยไม่ต้องให้ผู้ใช้คลิกเอง
    ความเร็วในการทำงานโดดเด่นกว่าคู่แข่ง

    จุดเด่นด้านการเปิดใช้งาน
    เปิดให้ใช้งานผ่าน Ollama
    เป็นโอเพ่นซอร์ส – นักพัฒนาสามารถปรับแต่งได้
    ไม่ต้องจ่ายเงินเหมือน GPT-5 หรือ Claude
    ได้คะแนนสูงใน benchmark เช่น OS World

    ข้อควรระวังและคำเตือน
    ยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอกข้อมูลผิด
    การควบคุมอัตโนมัติต้องมีระบบตรวจสอบความถูกต้อง
    การเปิดให้ใช้งานแบบโอเพ่นซอร์สอาจเสี่ยงต่อ misuse หากไม่มีการกำกับ
    ความสามารถสูงอาจนำไปใช้ในงานที่ต้องการความแม่นยำสูง เช่นการแพทย์หรือการเงิน ซึ่งต้องทดสอบก่อนใช้งานจริง

    https://www.slashgear.com/2004206/ollama-qwen3-vl-how-powerful-vision-language-model-works/
    👁️🧠 “Qwen3-VL จาก Ollama – โมเดล Vision Language ที่ทรงพลังที่สุด พร้อมควบคุมคอมพิวเตอร์ได้แบบอัตโนมัติ!” ลองจินตนาการว่าเราชี้กล้องมือถือไปที่ใบไม้ แล้วถามว่า “พิษกับหมาไหม?” หรือเปิดไฟล์ตารางบนคอมแล้วสั่ง AI ให้แปลงเป็นกราฟ — ทั้งหมดนี้ Qwen3-VL ทำได้แล้ว! นี่คือโมเดล Vision Language รุ่นใหม่จาก Alibaba ที่เปิดให้ใช้งานผ่าน Ollama โดยมีชื่อเต็มว่า Qwen3-VL-235B-A22B จุดเด่นคือความสามารถในการเข้าใจภาพและวิดีโออย่างลึกซึ้ง แล้วแปลงเป็นโค้ด HTML, CSS หรือ JavaScript ได้ทันที มันรองรับ input สูงถึง 1 ล้าน token ซึ่งหมายถึงสามารถประมวลผลวิดีโอความยาว 2 ชั่วโมง หรือเอกสารหลายร้อยหน้าได้ในคราวเดียว และยังเข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูลเชิง 3D ได้ดีขึ้นกว่ารุ่นก่อน ๆ ด้าน OCR ก็ไม่ธรรมดา รองรับถึง 32 ภาษา และสามารถอ่านจากภาพที่เบลอ, มืด, หรือเอียงได้อย่างแม่นยำ แต่ที่น่าตื่นเต้นที่สุดคือความสามารถแบบ “agentic” — Qwen3-VL สามารถควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ เช่น สั่งจองตั๋วบน Ticketmaster โดยเปิดเบราว์เซอร์, กรอกข้อมูล, เลือกที่นั่ง และกดยืนยัน โดยไม่ต้องให้ผู้ใช้คลิกเองเลย แม้จะยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอก ZIP code ผิด แต่ความเร็วในการทำงานนั้นเหนือกว่าหลายโมเดลที่มีฟีเจอร์คล้ายกัน เช่น GPT-5, Claude หรือ Gemini ที่สำคัญคือ Qwen3-VL เปิดให้ใช้งานแบบ โอเพ่นซอร์ส ต่างจากคู่แข่งที่ต้องจ่ายเงิน ทำให้ชุมชนสามารถนำไปปรับแต่งและใช้งานได้อย่างอิสระ ✅ ความสามารถหลักของ Qwen3-VL ➡️ แปลงภาพ/วิดีโอเป็นโค้ด HTML, CSS, JavaScript ➡️ รองรับ input สูงสุด 1 ล้าน token ➡️ เข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูล 3D ➡️ OCR รองรับ 32 ภาษา แม้ภาพเบลอหรือเอียง ✅ ความสามารถแบบ agentic ➡️ ควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ ➡️ สั่งจองตั๋ว, โพสต์ Reddit, เขียนข้อความ, สั่งซื้อสินค้า ➡️ ทำงานแบบ end-to-end โดยไม่ต้องให้ผู้ใช้คลิกเอง ➡️ ความเร็วในการทำงานโดดเด่นกว่าคู่แข่ง ✅ จุดเด่นด้านการเปิดใช้งาน ➡️ เปิดให้ใช้งานผ่าน Ollama ➡️ เป็นโอเพ่นซอร์ส – นักพัฒนาสามารถปรับแต่งได้ ➡️ ไม่ต้องจ่ายเงินเหมือน GPT-5 หรือ Claude ➡️ ได้คะแนนสูงใน benchmark เช่น OS World ‼️ ข้อควรระวังและคำเตือน ⛔ ยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอกข้อมูลผิด ⛔ การควบคุมอัตโนมัติต้องมีระบบตรวจสอบความถูกต้อง ⛔ การเปิดให้ใช้งานแบบโอเพ่นซอร์สอาจเสี่ยงต่อ misuse หากไม่มีการกำกับ ⛔ ความสามารถสูงอาจนำไปใช้ในงานที่ต้องการความแม่นยำสูง เช่นการแพทย์หรือการเงิน ซึ่งต้องทดสอบก่อนใช้งานจริง https://www.slashgear.com/2004206/ollama-qwen3-vl-how-powerful-vision-language-model-works/
    WWW.SLASHGEAR.COM
    Ollama's Qwen3-VL Introduces The Most Powerful Vision Language Model - Here's How It Works - SlashGear
    AI is advancing at a rapid rate, and Ollama claims its Qwen3-VL is the most powerful vision language model yet. Here's what it is and how it works.
    0 ความคิดเห็น 0 การแบ่งปัน 270 มุมมอง 0 รีวิว
  • “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!”

    จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก

    ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น

    สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า

    การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล

    ความสำเร็จของ Sunway Supercomputer
    ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์
    จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ
    ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens
    ประมวลผลเร็วกว่า exascale GPU หลายเท่า
    สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก

    ความสำคัญของการจำลองเคมีควอนตัม
    ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่
    ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่
    ลดต้นทุนและเวลาในการทดลองในห้องแล็บ
    เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล
    เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน

    ข้อควรระวังและคำเตือน
    การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล
    โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท
    การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ
    ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง
    การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง

    https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    🧬 “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!” จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล ✅ ความสำเร็จของ Sunway Supercomputer ➡️ ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์ ➡️ จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ ➡️ ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ➡️ ประมวลผลเร็วกว่า exascale GPU หลายเท่า ➡️ สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก ✅ ความสำคัญของการจำลองเคมีควอนตัม ➡️ ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่ ➡️ ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่ ➡️ ลดต้นทุนและเวลาในการทดลองในห้องแล็บ ➡️ เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล ➡️ เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน ‼️ ข้อควรระวังและคำเตือน ⛔ การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล ⛔ โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท ⛔ การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ ⛔ ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง ⛔ การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    0 ความคิดเห็น 0 การแบ่งปัน 192 มุมมอง 0 รีวิว
  • “DeepSeek-OCR เปลี่ยนข้อความเป็นภาพ ลดการใช้ทรัพยากร AI ได้ถึง 20 เท่า – เปิดทางสู่โมเดลยักษ์ราคาประหยัด!”

    DeepSeek AI จากจีนเปิดตัวโมเดลใหม่ชื่อว่า “DeepSeek-OCR” ที่ใช้เทคนิคสุดล้ำในการจัดการข้อความจำนวนมาก โดยแทนที่จะป้อนข้อความเข้าโมเดลโดยตรง พวกเขาเลือก “แปลงข้อความเป็นภาพ” ก่อน แล้วค่อยให้โมเดลตีความจากภาพนั้นอีกที

    ฟังดูย้อนยุค แต่ผลลัพธ์กลับน่าทึ่ง เพราะวิธีนี้ช่วยลดจำนวน token ที่ต้องใช้ในการประมวลผลได้ถึง 7–20 เท่า! ซึ่งหมายความว่าโมเดลสามารถจัดการข้อมูลปริมาณมหาศาลได้โดยใช้ทรัพยากรน้อยลงมาก ทั้งในด้านเวลาและค่าใช้จ่าย

    ระบบนี้ประกอบด้วยสองส่วนหลัก:
    DeepEncoder: แปลงข้อความเป็นภาพความละเอียดสูง
    DeepSeek3B-MoE-A570M: ทำหน้าที่ตีความภาพเหล่านั้นกลับมาเป็นข้อมูลที่เข้าใจได้

    เทคนิคนี้เหมาะมากกับข้อมูลที่เป็นตาราง กราฟ หรือเอกสารที่มีโครงสร้างซับซ้อน เช่น ข้อมูลทางการเงิน วิทยาศาสตร์ หรือการแพทย์ โดยเฉพาะในงานที่ต้องใช้ context ยาว ๆ

    ในการทดสอบ benchmark พบว่า ถ้าลด token น้อยกว่า 10 เท่า ความแม่นยำยังอยู่ที่ 97% แต่ถ้าลดถึง 20 เท่า ความแม่นยำจะลดลงเหลือ 60% ซึ่งแสดงให้เห็นว่ามีจุดสมดุลที่ต้องเลือกให้เหมาะกับงาน

    DeepSeek-OCR ยังถูกเสนอให้ใช้ในการสร้าง training data สำหรับโมเดลในอนาคต เพราะสามารถจัดการข้อมูลจำนวนมากได้เร็วขึ้น แม้จะมีความเสี่ยงเรื่องความแม่นยำที่ลดลงเล็กน้อย

    จุดเด่นของ DeepSeek-OCR
    แปลงข้อความเป็นภาพก่อนป้อนเข้าโมเดล
    ลดการใช้ token ได้ถึง 7–20 เท่า
    ใช้ DeepEncoder และ DeepSeek3B-MoE-A570M ร่วมกัน
    เหมาะกับข้อมูลที่มีโครงสร้าง เช่น ตาราง กราฟ เอกสาร
    ช่วยลดต้นทุนและเวลาในการประมวลผลโมเดลขนาดใหญ่
    ใช้ได้ดีในงานที่ต้องการ context ยาว เช่น LLM

    ผลการทดสอบและการใช้งาน
    ลด token <10 เท่า → ความแม่นยำ 97%
    ลด token 20 เท่า → ความแม่นยำลดเหลือ 60%
    มีจุดสมดุลระหว่างการลดต้นทุนและความแม่นยำ
    เสนอให้ใช้สร้าง training data สำหรับโมเดลในอนาคต
    เหมาะกับงานด้านการเงิน วิทยาศาสตร์ และการแพทย์

    ความเคลื่อนไหวของ DeepSeek
    เป็นโมเดลจากจีนที่สร้างความฮือฮาในปี 2025
    ใช้ทรัพยากรน้อยกว่า ChatGPT และ Gemini
    เปิดให้ใช้งานผ่าน Hugging Face และ GitHub
    พัฒนาอย่างต่อเนื่องเพื่อเพิ่มประสิทธิภาพและลดต้นทุน

    https://www.tomshardware.com/tech-industry/artificial-intelligence/new-deepseek-model-drastically-reduces-resource-usage-by-converting-text-and-documents-into-images-vision-text-compression-uses-up-to-20-times-fewer-tokens
    🧠 “DeepSeek-OCR เปลี่ยนข้อความเป็นภาพ ลดการใช้ทรัพยากร AI ได้ถึง 20 เท่า – เปิดทางสู่โมเดลยักษ์ราคาประหยัด!” DeepSeek AI จากจีนเปิดตัวโมเดลใหม่ชื่อว่า “DeepSeek-OCR” ที่ใช้เทคนิคสุดล้ำในการจัดการข้อความจำนวนมาก โดยแทนที่จะป้อนข้อความเข้าโมเดลโดยตรง พวกเขาเลือก “แปลงข้อความเป็นภาพ” ก่อน แล้วค่อยให้โมเดลตีความจากภาพนั้นอีกที ฟังดูย้อนยุค แต่ผลลัพธ์กลับน่าทึ่ง เพราะวิธีนี้ช่วยลดจำนวน token ที่ต้องใช้ในการประมวลผลได้ถึง 7–20 เท่า! ซึ่งหมายความว่าโมเดลสามารถจัดการข้อมูลปริมาณมหาศาลได้โดยใช้ทรัพยากรน้อยลงมาก ทั้งในด้านเวลาและค่าใช้จ่าย ระบบนี้ประกอบด้วยสองส่วนหลัก: 💻 DeepEncoder: แปลงข้อความเป็นภาพความละเอียดสูง 💻 DeepSeek3B-MoE-A570M: ทำหน้าที่ตีความภาพเหล่านั้นกลับมาเป็นข้อมูลที่เข้าใจได้ เทคนิคนี้เหมาะมากกับข้อมูลที่เป็นตาราง กราฟ หรือเอกสารที่มีโครงสร้างซับซ้อน เช่น ข้อมูลทางการเงิน วิทยาศาสตร์ หรือการแพทย์ โดยเฉพาะในงานที่ต้องใช้ context ยาว ๆ ในการทดสอบ benchmark พบว่า ถ้าลด token น้อยกว่า 10 เท่า ความแม่นยำยังอยู่ที่ 97% แต่ถ้าลดถึง 20 เท่า ความแม่นยำจะลดลงเหลือ 60% ซึ่งแสดงให้เห็นว่ามีจุดสมดุลที่ต้องเลือกให้เหมาะกับงาน DeepSeek-OCR ยังถูกเสนอให้ใช้ในการสร้าง training data สำหรับโมเดลในอนาคต เพราะสามารถจัดการข้อมูลจำนวนมากได้เร็วขึ้น แม้จะมีความเสี่ยงเรื่องความแม่นยำที่ลดลงเล็กน้อย ✅ จุดเด่นของ DeepSeek-OCR ➡️ แปลงข้อความเป็นภาพก่อนป้อนเข้าโมเดล ➡️ ลดการใช้ token ได้ถึง 7–20 เท่า ➡️ ใช้ DeepEncoder และ DeepSeek3B-MoE-A570M ร่วมกัน ➡️ เหมาะกับข้อมูลที่มีโครงสร้าง เช่น ตาราง กราฟ เอกสาร ➡️ ช่วยลดต้นทุนและเวลาในการประมวลผลโมเดลขนาดใหญ่ ➡️ ใช้ได้ดีในงานที่ต้องการ context ยาว เช่น LLM ✅ ผลการทดสอบและการใช้งาน ➡️ ลด token <10 เท่า → ความแม่นยำ 97% ➡️ ลด token 20 เท่า → ความแม่นยำลดเหลือ 60% ➡️ มีจุดสมดุลระหว่างการลดต้นทุนและความแม่นยำ ➡️ เสนอให้ใช้สร้าง training data สำหรับโมเดลในอนาคต ➡️ เหมาะกับงานด้านการเงิน วิทยาศาสตร์ และการแพทย์ ✅ ความเคลื่อนไหวของ DeepSeek ➡️ เป็นโมเดลจากจีนที่สร้างความฮือฮาในปี 2025 ➡️ ใช้ทรัพยากรน้อยกว่า ChatGPT และ Gemini ➡️ เปิดให้ใช้งานผ่าน Hugging Face และ GitHub ➡️ พัฒนาอย่างต่อเนื่องเพื่อเพิ่มประสิทธิภาพและลดต้นทุน https://www.tomshardware.com/tech-industry/artificial-intelligence/new-deepseek-model-drastically-reduces-resource-usage-by-converting-text-and-documents-into-images-vision-text-compression-uses-up-to-20-times-fewer-tokens
    0 ความคิดเห็น 0 การแบ่งปัน 226 มุมมอง 0 รีวิว
  • “Google Cloud เปิดให้ใช้งาน G4 VM แล้ว — มาพร้อม RTX PRO 6000 Blackwell GPU สำหรับงาน AI และกราฟิกระดับสูง” — เมื่อการประมวลผลแบบมัลติโหมดและฟิสิกส์จำลองกลายเป็นเรื่องง่ายบนคลาวด์

    Google Cloud ประกาศเปิดให้ใช้งาน G4 VM อย่างเป็นทางการ ซึ่งใช้ GPU รุ่นใหม่ล่าสุดจาก NVIDIA คือ RTX PRO 6000 Blackwell Server Edition โดยออกแบบมาเพื่อรองรับงาน AI ที่หลากหลาย ตั้งแต่การ inference ของโมเดลมัลติโหมด ไปจนถึงการจำลองฟิสิกส์ในหุ่นยนต์และการออกแบบผลิตภัณฑ์

    G4 VM รองรับการใช้งานร่วมกับ NVIDIA Omniverse และ Isaac Sim ผ่าน VM image บน Google Cloud Marketplace ทำให้สามารถสร้าง digital twin และฝึกหุ่นยนต์ในสภาพแวดล้อมจำลองได้ทันที

    ใช้ GPU RTX PRO 6000 Blackwell
    มี Tensor Core รุ่นที่ 5 รองรับ FP4 สำหรับ inference ที่เร็วขึ้นและใช้หน่วยความจำน้อย
    มี RT Core รุ่นที่ 4 ให้ ray tracing แบบ real-time ที่เร็วกว่าเดิม 2 เท่า

    รองรับสูงสุด 8 GPU ต่อ VM
    รวมหน่วยความจำ GDDR7 ได้ถึง 768 GB
    เหมาะกับงาน simulation, content creation และ AI agent

    เชื่อมต่อกับบริการอื่นใน Google Cloud ได้โดยตรง
    เช่น Kubernetes Engine, Vertex AI, Dataproc (Spark/Hadoop)

    รองรับซอฟต์แวร์ยอดนิยมในสายวิศวกรรมและกราฟิก
    เช่น AutoCAD, Blender, SolidWorks

    ใช้ร่วมกับ NVIDIA Omniverse ได้
    สร้าง digital twin และฝึกหุ่นยนต์ด้วย Isaac Sim
    ใช้ Cosmos foundation model และ Blueprints สำหรับการจำลอง

    รองรับการ deploy agentic AI ด้วย NVIDIA Nemotron และ NIM
    มี microservices สำหรับ inference ที่ปลอดภัยและเร็ว

    เหมาะกับงาน HPC เช่น genomics และ drug discovery
    บน Blackwell GPU มี throughput สูงกว่าเดิมถึง 6.8 เท่าในงาน alignment

    https://www.techpowerup.com/342057/google-cloud-g4-vms-with-nvidia-rtx-pro-6000-blackwell-gpu-now-generally-available
    ☁️ “Google Cloud เปิดให้ใช้งาน G4 VM แล้ว — มาพร้อม RTX PRO 6000 Blackwell GPU สำหรับงาน AI และกราฟิกระดับสูง” — เมื่อการประมวลผลแบบมัลติโหมดและฟิสิกส์จำลองกลายเป็นเรื่องง่ายบนคลาวด์ Google Cloud ประกาศเปิดให้ใช้งาน G4 VM อย่างเป็นทางการ ซึ่งใช้ GPU รุ่นใหม่ล่าสุดจาก NVIDIA คือ RTX PRO 6000 Blackwell Server Edition โดยออกแบบมาเพื่อรองรับงาน AI ที่หลากหลาย ตั้งแต่การ inference ของโมเดลมัลติโหมด ไปจนถึงการจำลองฟิสิกส์ในหุ่นยนต์และการออกแบบผลิตภัณฑ์ G4 VM รองรับการใช้งานร่วมกับ NVIDIA Omniverse และ Isaac Sim ผ่าน VM image บน Google Cloud Marketplace ทำให้สามารถสร้าง digital twin และฝึกหุ่นยนต์ในสภาพแวดล้อมจำลองได้ทันที ✅ ใช้ GPU RTX PRO 6000 Blackwell ➡️ มี Tensor Core รุ่นที่ 5 รองรับ FP4 สำหรับ inference ที่เร็วขึ้นและใช้หน่วยความจำน้อย ➡️ มี RT Core รุ่นที่ 4 ให้ ray tracing แบบ real-time ที่เร็วกว่าเดิม 2 เท่า ✅ รองรับสูงสุด 8 GPU ต่อ VM ➡️ รวมหน่วยความจำ GDDR7 ได้ถึง 768 GB ➡️ เหมาะกับงาน simulation, content creation และ AI agent ✅ เชื่อมต่อกับบริการอื่นใน Google Cloud ได้โดยตรง ➡️ เช่น Kubernetes Engine, Vertex AI, Dataproc (Spark/Hadoop) ✅ รองรับซอฟต์แวร์ยอดนิยมในสายวิศวกรรมและกราฟิก ➡️ เช่น AutoCAD, Blender, SolidWorks ✅ ใช้ร่วมกับ NVIDIA Omniverse ได้ ➡️ สร้าง digital twin และฝึกหุ่นยนต์ด้วย Isaac Sim ➡️ ใช้ Cosmos foundation model และ Blueprints สำหรับการจำลอง ✅ รองรับการ deploy agentic AI ด้วย NVIDIA Nemotron และ NIM ➡️ มี microservices สำหรับ inference ที่ปลอดภัยและเร็ว ✅ เหมาะกับงาน HPC เช่น genomics และ drug discovery ➡️ บน Blackwell GPU มี throughput สูงกว่าเดิมถึง 6.8 เท่าในงาน alignment https://www.techpowerup.com/342057/google-cloud-g4-vms-with-nvidia-rtx-pro-6000-blackwell-gpu-now-generally-available
    WWW.TECHPOWERUP.COM
    Google Cloud G4 VMs With NVIDIA RTX PRO 6000 Blackwell GPU Now Generally Available
    NVIDIA and Google Cloud are expanding access to accelerated computing to transform the full spectrum of enterprise workloads, from visual computing to agentic and physical AI. Google Cloud today announced the general availability of G4 VMs, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPU...
    0 ความคิดเห็น 0 การแบ่งปัน 164 มุมมอง 0 รีวิว
  • “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน

    Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น

    ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้

    ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe

    การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ:

    การบรรจุหลายโมเดลลงใน GPU เดียว
    การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output

    แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง

    Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon
    จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM

    Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด
    ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน

    ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า
    เมื่อเทียบกับระบบ serverless แบบเดิม

    ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด
    เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน

    ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์
    ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม

    ทดสอบในระบบ Model Studio Marketplace ของ Alibaba
    ใช้งานจริงหลายเดือน

    https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    ⚙️ “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้ ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ: 🎗️ การบรรจุหลายโมเดลลงใน GPU เดียว 🎗️ การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง ✅ Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon ➡️ จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM ✅ Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด ➡️ ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน ✅ ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า ➡️ เมื่อเทียบกับระบบ serverless แบบเดิม ✅ ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด ➡️ เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน ✅ ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์ ➡️ ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม ✅ ทดสอบในระบบ Model Studio Marketplace ของ Alibaba ➡️ ใช้งานจริงหลายเดือน https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    WWW.TOMSHARDWARE.COM
    Alibaba Cloud says it cut Nvidia AI GPU use by 82% with new pooling system— up to 9x increase in output lets 213 GPUs perform like 1,192
    A paper presented at SOSP 2025 details how token-level scheduling helped one GPU serve multiple LLMs, reducing demand from 1,192 to 213 H20s.
    0 ความคิดเห็น 0 การแบ่งปัน 168 มุมมอง 0 รีวิว
  • “RoBERTa Diffusion: เมื่อ BERT กลายเป็นโมเดลสร้างข้อความผ่านกระบวนการ ‘ลบสัญญาณรบกวน’” — จากภาพสู่ภาษา: การประยุกต์ diffusion model กับการสร้างข้อความแบบใหม่

    บทความจาก Nathan.rs นำเสนอแนวคิดที่น่าสนใจว่า BERT ซึ่งเป็นโมเดลภาษายอดนิยม อาจเป็นเพียง “กรณีย่อย” ของโมเดล diffusion สำหรับภาษา โดยอธิบายว่า masked language modeling (MLM) ที่ใช้ใน BERT มีโครงสร้างคล้ายกับการลบสัญญาณรบกวน (denoising) ใน diffusion model ที่ใช้ในงานสร้างภาพ

    แนวคิดนี้เริ่มจากการศึกษางานของ Google DeepMind ที่เปิดตัว Gemini Diffusion ซึ่งสร้างข้อความโดยเริ่มจาก noise แล้วค่อย ๆ refine ให้กลายเป็นข้อความที่มีความหมาย — ต่างจาก GPT ที่สร้างทีละ token แบบ autoregressive

    Nathan เสนอว่า BERT เองก็สามารถนำมาใช้สร้างข้อความได้ หากเปลี่ยนจากการ mask แบบคงที่ มาเป็นการ mask แบบไล่ระดับ (จากน้อยไปมาก แล้วค่อย ๆ ลดกลับลงมา) ซึ่งคล้ายกับกระบวนการ diffusion ในภาพ

    เขาเรียกแนวทางนี้ว่า “RoBERTa Diffusion” โดยใช้ RoBERTa (เวอร์ชันปรับปรุงของ BERT) มาฝึกแบบใหม่บน WikiText dataset ด้วยการสุ่มระดับการ mask และฝึกให้โมเดลเดา token ที่หายไปในแต่ละขั้นตอน

    ผลลัพธ์ที่ได้คือข้อความที่สร้างขึ้นมีความต่อเนื่องและสมเหตุสมผล แม้จะยังไม่เทียบเท่า GPT-2 แต่ก็ถือเป็น “proof of concept” ที่แสดงให้เห็นว่าโมเดล encoder-only อย่าง BERT ก็สามารถใช้สร้างข้อความได้ หากปรับวิธีการฝึกให้เหมาะสม

    Gemini Diffusion ของ Google DeepMind ใช้ diffusion model สร้างข้อความจาก noise
    ต่างจาก GPT ที่สร้างทีละ token แบบ autoregressive

    BERT ใช้ masked language modeling (MLM) ซึ่งคล้ายกับการ denoise
    เหมาะกับการประยุกต์เป็น diffusion model สำหรับภาษา

    RoBERTa เป็นเวอร์ชันปรับปรุงของ BERT ที่ใช้ MLM อย่างเดียว
    ไม่มีการทำนายประโยคถัดไป (next sentence prediction)

    RoBERTa Diffusion ใช้การ mask แบบไล่ระดับในหลายขั้นตอน
    ฝึกให้โมเดลเดา token ที่หายไปในแต่ละระดับ

    ใช้ WikiText dataset และ HuggingFace library ในการฝึก
    พร้อม diffusion_collator ที่สุ่มระดับการ mask

    ผลลัพธ์ที่ได้มีความต่อเนื่องและสมเหตุสมผล
    แม้จะยังช้ากว่า GPT-2 (~13 วินาที vs ~9 วินาที)

    แนวคิดนี้สามารถต่อยอดด้วยเทคนิคใหม่ เช่น AR-Diffusion และ Skip-Step Diffusion
    เพื่อเพิ่มคุณภาพและความเร็วในการสร้างข้อความ

    https://nathan.rs/posts/roberta-diffusion/
    🧠 “RoBERTa Diffusion: เมื่อ BERT กลายเป็นโมเดลสร้างข้อความผ่านกระบวนการ ‘ลบสัญญาณรบกวน’” — จากภาพสู่ภาษา: การประยุกต์ diffusion model กับการสร้างข้อความแบบใหม่ บทความจาก Nathan.rs นำเสนอแนวคิดที่น่าสนใจว่า BERT ซึ่งเป็นโมเดลภาษายอดนิยม อาจเป็นเพียง “กรณีย่อย” ของโมเดล diffusion สำหรับภาษา โดยอธิบายว่า masked language modeling (MLM) ที่ใช้ใน BERT มีโครงสร้างคล้ายกับการลบสัญญาณรบกวน (denoising) ใน diffusion model ที่ใช้ในงานสร้างภาพ แนวคิดนี้เริ่มจากการศึกษางานของ Google DeepMind ที่เปิดตัว Gemini Diffusion ซึ่งสร้างข้อความโดยเริ่มจาก noise แล้วค่อย ๆ refine ให้กลายเป็นข้อความที่มีความหมาย — ต่างจาก GPT ที่สร้างทีละ token แบบ autoregressive Nathan เสนอว่า BERT เองก็สามารถนำมาใช้สร้างข้อความได้ หากเปลี่ยนจากการ mask แบบคงที่ มาเป็นการ mask แบบไล่ระดับ (จากน้อยไปมาก แล้วค่อย ๆ ลดกลับลงมา) ซึ่งคล้ายกับกระบวนการ diffusion ในภาพ เขาเรียกแนวทางนี้ว่า “RoBERTa Diffusion” โดยใช้ RoBERTa (เวอร์ชันปรับปรุงของ BERT) มาฝึกแบบใหม่บน WikiText dataset ด้วยการสุ่มระดับการ mask และฝึกให้โมเดลเดา token ที่หายไปในแต่ละขั้นตอน ผลลัพธ์ที่ได้คือข้อความที่สร้างขึ้นมีความต่อเนื่องและสมเหตุสมผล แม้จะยังไม่เทียบเท่า GPT-2 แต่ก็ถือเป็น “proof of concept” ที่แสดงให้เห็นว่าโมเดล encoder-only อย่าง BERT ก็สามารถใช้สร้างข้อความได้ หากปรับวิธีการฝึกให้เหมาะสม ✅ Gemini Diffusion ของ Google DeepMind ใช้ diffusion model สร้างข้อความจาก noise ➡️ ต่างจาก GPT ที่สร้างทีละ token แบบ autoregressive ✅ BERT ใช้ masked language modeling (MLM) ซึ่งคล้ายกับการ denoise ➡️ เหมาะกับการประยุกต์เป็น diffusion model สำหรับภาษา ✅ RoBERTa เป็นเวอร์ชันปรับปรุงของ BERT ที่ใช้ MLM อย่างเดียว ➡️ ไม่มีการทำนายประโยคถัดไป (next sentence prediction) ✅ RoBERTa Diffusion ใช้การ mask แบบไล่ระดับในหลายขั้นตอน ➡️ ฝึกให้โมเดลเดา token ที่หายไปในแต่ละระดับ ✅ ใช้ WikiText dataset และ HuggingFace library ในการฝึก ➡️ พร้อม diffusion_collator ที่สุ่มระดับการ mask ✅ ผลลัพธ์ที่ได้มีความต่อเนื่องและสมเหตุสมผล ➡️ แม้จะยังช้ากว่า GPT-2 (~13 วินาที vs ~9 วินาที) ✅ แนวคิดนี้สามารถต่อยอดด้วยเทคนิคใหม่ เช่น AR-Diffusion และ Skip-Step Diffusion ➡️ เพื่อเพิ่มคุณภาพและความเร็วในการสร้างข้อความ https://nathan.rs/posts/roberta-diffusion/
    NATHAN.RS
    BERT is just a Single Text Diffusion Step
    A while back, Google DeepMind unveiled Gemini Diffusion, an experimental language model that generates text using diffusion. Unlike traditional GPT-style models that generate one word at a time, Gemini Diffusion creates whole blocks of text by refining random noise step-by-step. I read the paper Large Language Diffusion Models and was surprised to find that discrete language diffusion is just a generalization of masked language modeling (MLM), something we’ve been doing since 2018. The first thought I had was, “can we finetune a BERT-like model to do text generation?” I decided to try a quick proof of concept out of curiosity.
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
Pages Boosts