“Gemini Trifecta: ช่องโหว่ 3 จุดใน AI ของ Google ที่เปิดทางให้แฮกเกอร์ขโมยข้อมูล — แม้ไม่ต้องติดมัลแวร์”

Tenable บริษัทด้านความปลอดภัยไซเบอร์ได้เปิดเผยช่องโหว่ร้ายแรง 3 จุดในชุดเครื่องมือ Gemini AI ของ Google ซึ่งถูกเรียกรวมว่า “Gemini Trifecta” โดยช่องโหว่เหล่านี้เปิดทางให้ผู้โจมตีสามารถฝังคำสั่งลับ (prompt injection) และขโมยข้อมูลผู้ใช้ได้โดยไม่ต้องติดตั้งมัลแวร์หรือส่งอีเมลฟิชชิ่งเลยแม้แต่น้อย

ช่องโหว่แรกอยู่ในฟีเจอร์ Gemini Cloud Assist ซึ่งใช้สรุป log จากระบบคลาวด์ของ Google Cloud Platform (GCP) โดยนักวิจัยพบว่า หากมีการฝังคำสั่งลับไว้ใน log เช่นในช่อง HTTP User-Agent เมื่อผู้ใช้กด “Explain this log entry” ระบบจะรันคำสั่งนั้นทันที ทำให้สามารถสั่งให้ Gemini ดึงข้อมูล cloud ที่ละเอียดอ่อนได้

ช่องโหว่ที่สองคือ Gemini Search Personalization Model ที่ใช้ประวัติการค้นหาของผู้ใช้ใน Chrome เพื่อปรับแต่งคำตอบของ AI นักวิจัยสามารถใช้ JavaScript จากเว็บไซต์อันตรายเขียนคำสั่งลับลงในประวัติการค้นหา และเมื่อผู้ใช้เรียกใช้ Gemini ระบบจะถือว่าคำสั่งนั้นเป็นบริบทที่เชื่อถือได้ และรันคำสั่งทันที เช่น ส่งข้อมูลตำแหน่งหรือข้อมูลที่บันทึกไว้ไปยังเซิร์ฟเวอร์ภายนอก

ช่องโหว่สุดท้ายคือ Gemini Browsing Tool ซึ่งใช้สรุปเนื้อหาจากเว็บไซต์แบบเรียลไทม์ นักวิจัยสามารถหลอกให้ Gemini ส่งข้อมูลผู้ใช้ เช่น ตำแหน่งหรือข้อมูลส่วนตัว ไปยังเซิร์ฟเวอร์ของแฮกเกอร์ โดยใช้ฟีเจอร์ “Show Thinking” เพื่อติดตามขั้นตอนการรันคำสั่ง

แม้ Google จะตอบสนองอย่างรวดเร็วและแก้ไขช่องโหว่ทั้งหมดแล้ว โดยการย้อนกลับโมเดลที่มีปัญหา, ปิดการแสดงผลลิงก์อันตรายใน Cloud Assist และเพิ่มระบบป้องกัน prompt injection แบบหลายชั้น แต่เหตุการณ์นี้สะท้อนให้เห็นว่า AI ไม่ใช่แค่เป้าหมายของการโจมตีอีกต่อไป — มันสามารถกลายเป็น “ตัวโจมตี” ได้เอง หากไม่มีการควบคุมที่ดีพอ

ข้อมูลสำคัญจากข่าว
Tenable พบช่องโหว่ 3 จุดในชุด Gemini AI ของ Google เรียกว่า “Gemini Trifecta”
ช่องโหว่แรกอยู่ใน Cloud Assist — ฝังคำสั่งใน log แล้วให้ Gemini รันโดยไม่รู้ตัว
ช่องโหว่ที่สองอยู่ใน Search Personalization — เขียนคำสั่งลงในประวัติ Chrome
ช่องโหว่ที่สามอยู่ใน Browsing Tool — หลอกให้ Gemini ส่งข้อมูลผู้ใช้ออกไป
ใช้เทคนิค prompt injection โดยไม่ต้องติดมัลแวร์หรือส่งอีเมลฟิชชิ่ง
Google แก้ไขโดยย้อนกลับโมเดล, ปิดลิงก์อันตราย และเพิ่มระบบป้องกันหลายชั้น
ช่องโหว่ถูกเปิดเผยเมื่อวันที่ 1 ตุลาคม 2025 และได้รับการแก้ไขทันที
นักวิจัยใช้ PoC (Proof-of-Concept) เพื่อแสดงการโจมตีในแต่ละช่องโหว่

ข้อมูลเสริมจากภายนอก
Prompt injection คือการฝังคำสั่งลับลงในข้อความหรือบริบทที่ AI ใช้
“Living off the land” คือการใช้เครื่องมือในระบบเองในการโจมตี เช่น rundll32 หรือ PowerShell
Search history และ log ไม่ใช่แค่ข้อมูล — มันคือ “ช่องทางโจมตี” หาก AI ใช้โดยไม่มีการกรอง
การป้องกัน prompt injection ต้องใช้การตรวจสอบ runtime และการแยกบริบทอย่างเข้มงวด
AI ที่มีความสามารถสูงจะยิ่งเสี่ยง หากไม่มี guardrails ที่ชัดเจน

https://hackread.com/google-gemini-trifecta-vulnerabilities-gemini-ai/
🛡️ “Gemini Trifecta: ช่องโหว่ 3 จุดใน AI ของ Google ที่เปิดทางให้แฮกเกอร์ขโมยข้อมูล — แม้ไม่ต้องติดมัลแวร์” Tenable บริษัทด้านความปลอดภัยไซเบอร์ได้เปิดเผยช่องโหว่ร้ายแรง 3 จุดในชุดเครื่องมือ Gemini AI ของ Google ซึ่งถูกเรียกรวมว่า “Gemini Trifecta” โดยช่องโหว่เหล่านี้เปิดทางให้ผู้โจมตีสามารถฝังคำสั่งลับ (prompt injection) และขโมยข้อมูลผู้ใช้ได้โดยไม่ต้องติดตั้งมัลแวร์หรือส่งอีเมลฟิชชิ่งเลยแม้แต่น้อย ช่องโหว่แรกอยู่ในฟีเจอร์ Gemini Cloud Assist ซึ่งใช้สรุป log จากระบบคลาวด์ของ Google Cloud Platform (GCP) โดยนักวิจัยพบว่า หากมีการฝังคำสั่งลับไว้ใน log เช่นในช่อง HTTP User-Agent เมื่อผู้ใช้กด “Explain this log entry” ระบบจะรันคำสั่งนั้นทันที ทำให้สามารถสั่งให้ Gemini ดึงข้อมูล cloud ที่ละเอียดอ่อนได้ ช่องโหว่ที่สองคือ Gemini Search Personalization Model ที่ใช้ประวัติการค้นหาของผู้ใช้ใน Chrome เพื่อปรับแต่งคำตอบของ AI นักวิจัยสามารถใช้ JavaScript จากเว็บไซต์อันตรายเขียนคำสั่งลับลงในประวัติการค้นหา และเมื่อผู้ใช้เรียกใช้ Gemini ระบบจะถือว่าคำสั่งนั้นเป็นบริบทที่เชื่อถือได้ และรันคำสั่งทันที เช่น ส่งข้อมูลตำแหน่งหรือข้อมูลที่บันทึกไว้ไปยังเซิร์ฟเวอร์ภายนอก ช่องโหว่สุดท้ายคือ Gemini Browsing Tool ซึ่งใช้สรุปเนื้อหาจากเว็บไซต์แบบเรียลไทม์ นักวิจัยสามารถหลอกให้ Gemini ส่งข้อมูลผู้ใช้ เช่น ตำแหน่งหรือข้อมูลส่วนตัว ไปยังเซิร์ฟเวอร์ของแฮกเกอร์ โดยใช้ฟีเจอร์ “Show Thinking” เพื่อติดตามขั้นตอนการรันคำสั่ง แม้ Google จะตอบสนองอย่างรวดเร็วและแก้ไขช่องโหว่ทั้งหมดแล้ว โดยการย้อนกลับโมเดลที่มีปัญหา, ปิดการแสดงผลลิงก์อันตรายใน Cloud Assist และเพิ่มระบบป้องกัน prompt injection แบบหลายชั้น แต่เหตุการณ์นี้สะท้อนให้เห็นว่า AI ไม่ใช่แค่เป้าหมายของการโจมตีอีกต่อไป — มันสามารถกลายเป็น “ตัวโจมตี” ได้เอง หากไม่มีการควบคุมที่ดีพอ ✅ ข้อมูลสำคัญจากข่าว ➡️ Tenable พบช่องโหว่ 3 จุดในชุด Gemini AI ของ Google เรียกว่า “Gemini Trifecta” ➡️ ช่องโหว่แรกอยู่ใน Cloud Assist — ฝังคำสั่งใน log แล้วให้ Gemini รันโดยไม่รู้ตัว ➡️ ช่องโหว่ที่สองอยู่ใน Search Personalization — เขียนคำสั่งลงในประวัติ Chrome ➡️ ช่องโหว่ที่สามอยู่ใน Browsing Tool — หลอกให้ Gemini ส่งข้อมูลผู้ใช้ออกไป ➡️ ใช้เทคนิค prompt injection โดยไม่ต้องติดมัลแวร์หรือส่งอีเมลฟิชชิ่ง ➡️ Google แก้ไขโดยย้อนกลับโมเดล, ปิดลิงก์อันตราย และเพิ่มระบบป้องกันหลายชั้น ➡️ ช่องโหว่ถูกเปิดเผยเมื่อวันที่ 1 ตุลาคม 2025 และได้รับการแก้ไขทันที ➡️ นักวิจัยใช้ PoC (Proof-of-Concept) เพื่อแสดงการโจมตีในแต่ละช่องโหว่ ✅ ข้อมูลเสริมจากภายนอก ➡️ Prompt injection คือการฝังคำสั่งลับลงในข้อความหรือบริบทที่ AI ใช้ ➡️ “Living off the land” คือการใช้เครื่องมือในระบบเองในการโจมตี เช่น rundll32 หรือ PowerShell ➡️ Search history และ log ไม่ใช่แค่ข้อมูล — มันคือ “ช่องทางโจมตี” หาก AI ใช้โดยไม่มีการกรอง ➡️ การป้องกัน prompt injection ต้องใช้การตรวจสอบ runtime และการแยกบริบทอย่างเข้มงวด ➡️ AI ที่มีความสามารถสูงจะยิ่งเสี่ยง หากไม่มี guardrails ที่ชัดเจน https://hackread.com/google-gemini-trifecta-vulnerabilities-gemini-ai/
HACKREAD.COM
Google Patches “Gemini Trifecta” Vulnerabilities in Gemini AI Suite
Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
0 Comments 0 Shares 80 Views 0 Reviews