“Gemini Trifecta: ช่องโหว่ 3 จุดใน AI ของ Google ที่เปิดทางให้แฮกเกอร์ขโมยข้อมูล — แม้ไม่ต้องติดมัลแวร์”
Tenable บริษัทด้านความปลอดภัยไซเบอร์ได้เปิดเผยช่องโหว่ร้ายแรง 3 จุดในชุดเครื่องมือ Gemini AI ของ Google ซึ่งถูกเรียกรวมว่า “Gemini Trifecta” โดยช่องโหว่เหล่านี้เปิดทางให้ผู้โจมตีสามารถฝังคำสั่งลับ (prompt injection) และขโมยข้อมูลผู้ใช้ได้โดยไม่ต้องติดตั้งมัลแวร์หรือส่งอีเมลฟิชชิ่งเลยแม้แต่น้อย
ช่องโหว่แรกอยู่ในฟีเจอร์ Gemini Cloud Assist ซึ่งใช้สรุป log จากระบบคลาวด์ของ Google Cloud Platform (GCP) โดยนักวิจัยพบว่า หากมีการฝังคำสั่งลับไว้ใน log เช่นในช่อง HTTP User-Agent เมื่อผู้ใช้กด “Explain this log entry” ระบบจะรันคำสั่งนั้นทันที ทำให้สามารถสั่งให้ Gemini ดึงข้อมูล cloud ที่ละเอียดอ่อนได้
ช่องโหว่ที่สองคือ Gemini Search Personalization Model ที่ใช้ประวัติการค้นหาของผู้ใช้ใน Chrome เพื่อปรับแต่งคำตอบของ AI นักวิจัยสามารถใช้ JavaScript จากเว็บไซต์อันตรายเขียนคำสั่งลับลงในประวัติการค้นหา และเมื่อผู้ใช้เรียกใช้ Gemini ระบบจะถือว่าคำสั่งนั้นเป็นบริบทที่เชื่อถือได้ และรันคำสั่งทันที เช่น ส่งข้อมูลตำแหน่งหรือข้อมูลที่บันทึกไว้ไปยังเซิร์ฟเวอร์ภายนอก
ช่องโหว่สุดท้ายคือ Gemini Browsing Tool ซึ่งใช้สรุปเนื้อหาจากเว็บไซต์แบบเรียลไทม์ นักวิจัยสามารถหลอกให้ Gemini ส่งข้อมูลผู้ใช้ เช่น ตำแหน่งหรือข้อมูลส่วนตัว ไปยังเซิร์ฟเวอร์ของแฮกเกอร์ โดยใช้ฟีเจอร์ “Show Thinking” เพื่อติดตามขั้นตอนการรันคำสั่ง
แม้ Google จะตอบสนองอย่างรวดเร็วและแก้ไขช่องโหว่ทั้งหมดแล้ว โดยการย้อนกลับโมเดลที่มีปัญหา, ปิดการแสดงผลลิงก์อันตรายใน Cloud Assist และเพิ่มระบบป้องกัน prompt injection แบบหลายชั้น แต่เหตุการณ์นี้สะท้อนให้เห็นว่า AI ไม่ใช่แค่เป้าหมายของการโจมตีอีกต่อไป — มันสามารถกลายเป็น “ตัวโจมตี” ได้เอง หากไม่มีการควบคุมที่ดีพอ
ข้อมูลสำคัญจากข่าว
Tenable พบช่องโหว่ 3 จุดในชุด Gemini AI ของ Google เรียกว่า “Gemini Trifecta”
ช่องโหว่แรกอยู่ใน Cloud Assist — ฝังคำสั่งใน log แล้วให้ Gemini รันโดยไม่รู้ตัว
ช่องโหว่ที่สองอยู่ใน Search Personalization — เขียนคำสั่งลงในประวัติ Chrome
ช่องโหว่ที่สามอยู่ใน Browsing Tool — หลอกให้ Gemini ส่งข้อมูลผู้ใช้ออกไป
ใช้เทคนิค prompt injection โดยไม่ต้องติดมัลแวร์หรือส่งอีเมลฟิชชิ่ง
Google แก้ไขโดยย้อนกลับโมเดล, ปิดลิงก์อันตราย และเพิ่มระบบป้องกันหลายชั้น
ช่องโหว่ถูกเปิดเผยเมื่อวันที่ 1 ตุลาคม 2025 และได้รับการแก้ไขทันที
นักวิจัยใช้ PoC (Proof-of-Concept) เพื่อแสดงการโจมตีในแต่ละช่องโหว่
ข้อมูลเสริมจากภายนอก
Prompt injection คือการฝังคำสั่งลับลงในข้อความหรือบริบทที่ AI ใช้
“Living off the land” คือการใช้เครื่องมือในระบบเองในการโจมตี เช่น rundll32 หรือ PowerShell
Search history และ log ไม่ใช่แค่ข้อมูล — มันคือ “ช่องทางโจมตี” หาก AI ใช้โดยไม่มีการกรอง
การป้องกัน prompt injection ต้องใช้การตรวจสอบ runtime และการแยกบริบทอย่างเข้มงวด
AI ที่มีความสามารถสูงจะยิ่งเสี่ยง หากไม่มี guardrails ที่ชัดเจน
https://hackread.com/google-gemini-trifecta-vulnerabilities-gemini-ai/
Tenable บริษัทด้านความปลอดภัยไซเบอร์ได้เปิดเผยช่องโหว่ร้ายแรง 3 จุดในชุดเครื่องมือ Gemini AI ของ Google ซึ่งถูกเรียกรวมว่า “Gemini Trifecta” โดยช่องโหว่เหล่านี้เปิดทางให้ผู้โจมตีสามารถฝังคำสั่งลับ (prompt injection) และขโมยข้อมูลผู้ใช้ได้โดยไม่ต้องติดตั้งมัลแวร์หรือส่งอีเมลฟิชชิ่งเลยแม้แต่น้อย
ช่องโหว่แรกอยู่ในฟีเจอร์ Gemini Cloud Assist ซึ่งใช้สรุป log จากระบบคลาวด์ของ Google Cloud Platform (GCP) โดยนักวิจัยพบว่า หากมีการฝังคำสั่งลับไว้ใน log เช่นในช่อง HTTP User-Agent เมื่อผู้ใช้กด “Explain this log entry” ระบบจะรันคำสั่งนั้นทันที ทำให้สามารถสั่งให้ Gemini ดึงข้อมูล cloud ที่ละเอียดอ่อนได้
ช่องโหว่ที่สองคือ Gemini Search Personalization Model ที่ใช้ประวัติการค้นหาของผู้ใช้ใน Chrome เพื่อปรับแต่งคำตอบของ AI นักวิจัยสามารถใช้ JavaScript จากเว็บไซต์อันตรายเขียนคำสั่งลับลงในประวัติการค้นหา และเมื่อผู้ใช้เรียกใช้ Gemini ระบบจะถือว่าคำสั่งนั้นเป็นบริบทที่เชื่อถือได้ และรันคำสั่งทันที เช่น ส่งข้อมูลตำแหน่งหรือข้อมูลที่บันทึกไว้ไปยังเซิร์ฟเวอร์ภายนอก
ช่องโหว่สุดท้ายคือ Gemini Browsing Tool ซึ่งใช้สรุปเนื้อหาจากเว็บไซต์แบบเรียลไทม์ นักวิจัยสามารถหลอกให้ Gemini ส่งข้อมูลผู้ใช้ เช่น ตำแหน่งหรือข้อมูลส่วนตัว ไปยังเซิร์ฟเวอร์ของแฮกเกอร์ โดยใช้ฟีเจอร์ “Show Thinking” เพื่อติดตามขั้นตอนการรันคำสั่ง
แม้ Google จะตอบสนองอย่างรวดเร็วและแก้ไขช่องโหว่ทั้งหมดแล้ว โดยการย้อนกลับโมเดลที่มีปัญหา, ปิดการแสดงผลลิงก์อันตรายใน Cloud Assist และเพิ่มระบบป้องกัน prompt injection แบบหลายชั้น แต่เหตุการณ์นี้สะท้อนให้เห็นว่า AI ไม่ใช่แค่เป้าหมายของการโจมตีอีกต่อไป — มันสามารถกลายเป็น “ตัวโจมตี” ได้เอง หากไม่มีการควบคุมที่ดีพอ
ข้อมูลสำคัญจากข่าว
Tenable พบช่องโหว่ 3 จุดในชุด Gemini AI ของ Google เรียกว่า “Gemini Trifecta”
ช่องโหว่แรกอยู่ใน Cloud Assist — ฝังคำสั่งใน log แล้วให้ Gemini รันโดยไม่รู้ตัว
ช่องโหว่ที่สองอยู่ใน Search Personalization — เขียนคำสั่งลงในประวัติ Chrome
ช่องโหว่ที่สามอยู่ใน Browsing Tool — หลอกให้ Gemini ส่งข้อมูลผู้ใช้ออกไป
ใช้เทคนิค prompt injection โดยไม่ต้องติดมัลแวร์หรือส่งอีเมลฟิชชิ่ง
Google แก้ไขโดยย้อนกลับโมเดล, ปิดลิงก์อันตราย และเพิ่มระบบป้องกันหลายชั้น
ช่องโหว่ถูกเปิดเผยเมื่อวันที่ 1 ตุลาคม 2025 และได้รับการแก้ไขทันที
นักวิจัยใช้ PoC (Proof-of-Concept) เพื่อแสดงการโจมตีในแต่ละช่องโหว่
ข้อมูลเสริมจากภายนอก
Prompt injection คือการฝังคำสั่งลับลงในข้อความหรือบริบทที่ AI ใช้
“Living off the land” คือการใช้เครื่องมือในระบบเองในการโจมตี เช่น rundll32 หรือ PowerShell
Search history และ log ไม่ใช่แค่ข้อมูล — มันคือ “ช่องทางโจมตี” หาก AI ใช้โดยไม่มีการกรอง
การป้องกัน prompt injection ต้องใช้การตรวจสอบ runtime และการแยกบริบทอย่างเข้มงวด
AI ที่มีความสามารถสูงจะยิ่งเสี่ยง หากไม่มี guardrails ที่ชัดเจน
https://hackread.com/google-gemini-trifecta-vulnerabilities-gemini-ai/
🛡️ “Gemini Trifecta: ช่องโหว่ 3 จุดใน AI ของ Google ที่เปิดทางให้แฮกเกอร์ขโมยข้อมูล — แม้ไม่ต้องติดมัลแวร์”
Tenable บริษัทด้านความปลอดภัยไซเบอร์ได้เปิดเผยช่องโหว่ร้ายแรง 3 จุดในชุดเครื่องมือ Gemini AI ของ Google ซึ่งถูกเรียกรวมว่า “Gemini Trifecta” โดยช่องโหว่เหล่านี้เปิดทางให้ผู้โจมตีสามารถฝังคำสั่งลับ (prompt injection) และขโมยข้อมูลผู้ใช้ได้โดยไม่ต้องติดตั้งมัลแวร์หรือส่งอีเมลฟิชชิ่งเลยแม้แต่น้อย
ช่องโหว่แรกอยู่ในฟีเจอร์ Gemini Cloud Assist ซึ่งใช้สรุป log จากระบบคลาวด์ของ Google Cloud Platform (GCP) โดยนักวิจัยพบว่า หากมีการฝังคำสั่งลับไว้ใน log เช่นในช่อง HTTP User-Agent เมื่อผู้ใช้กด “Explain this log entry” ระบบจะรันคำสั่งนั้นทันที ทำให้สามารถสั่งให้ Gemini ดึงข้อมูล cloud ที่ละเอียดอ่อนได้
ช่องโหว่ที่สองคือ Gemini Search Personalization Model ที่ใช้ประวัติการค้นหาของผู้ใช้ใน Chrome เพื่อปรับแต่งคำตอบของ AI นักวิจัยสามารถใช้ JavaScript จากเว็บไซต์อันตรายเขียนคำสั่งลับลงในประวัติการค้นหา และเมื่อผู้ใช้เรียกใช้ Gemini ระบบจะถือว่าคำสั่งนั้นเป็นบริบทที่เชื่อถือได้ และรันคำสั่งทันที เช่น ส่งข้อมูลตำแหน่งหรือข้อมูลที่บันทึกไว้ไปยังเซิร์ฟเวอร์ภายนอก
ช่องโหว่สุดท้ายคือ Gemini Browsing Tool ซึ่งใช้สรุปเนื้อหาจากเว็บไซต์แบบเรียลไทม์ นักวิจัยสามารถหลอกให้ Gemini ส่งข้อมูลผู้ใช้ เช่น ตำแหน่งหรือข้อมูลส่วนตัว ไปยังเซิร์ฟเวอร์ของแฮกเกอร์ โดยใช้ฟีเจอร์ “Show Thinking” เพื่อติดตามขั้นตอนการรันคำสั่ง
แม้ Google จะตอบสนองอย่างรวดเร็วและแก้ไขช่องโหว่ทั้งหมดแล้ว โดยการย้อนกลับโมเดลที่มีปัญหา, ปิดการแสดงผลลิงก์อันตรายใน Cloud Assist และเพิ่มระบบป้องกัน prompt injection แบบหลายชั้น แต่เหตุการณ์นี้สะท้อนให้เห็นว่า AI ไม่ใช่แค่เป้าหมายของการโจมตีอีกต่อไป — มันสามารถกลายเป็น “ตัวโจมตี” ได้เอง หากไม่มีการควบคุมที่ดีพอ
✅ ข้อมูลสำคัญจากข่าว
➡️ Tenable พบช่องโหว่ 3 จุดในชุด Gemini AI ของ Google เรียกว่า “Gemini Trifecta”
➡️ ช่องโหว่แรกอยู่ใน Cloud Assist — ฝังคำสั่งใน log แล้วให้ Gemini รันโดยไม่รู้ตัว
➡️ ช่องโหว่ที่สองอยู่ใน Search Personalization — เขียนคำสั่งลงในประวัติ Chrome
➡️ ช่องโหว่ที่สามอยู่ใน Browsing Tool — หลอกให้ Gemini ส่งข้อมูลผู้ใช้ออกไป
➡️ ใช้เทคนิค prompt injection โดยไม่ต้องติดมัลแวร์หรือส่งอีเมลฟิชชิ่ง
➡️ Google แก้ไขโดยย้อนกลับโมเดล, ปิดลิงก์อันตราย และเพิ่มระบบป้องกันหลายชั้น
➡️ ช่องโหว่ถูกเปิดเผยเมื่อวันที่ 1 ตุลาคม 2025 และได้รับการแก้ไขทันที
➡️ นักวิจัยใช้ PoC (Proof-of-Concept) เพื่อแสดงการโจมตีในแต่ละช่องโหว่
✅ ข้อมูลเสริมจากภายนอก
➡️ Prompt injection คือการฝังคำสั่งลับลงในข้อความหรือบริบทที่ AI ใช้
➡️ “Living off the land” คือการใช้เครื่องมือในระบบเองในการโจมตี เช่น rundll32 หรือ PowerShell
➡️ Search history และ log ไม่ใช่แค่ข้อมูล — มันคือ “ช่องทางโจมตี” หาก AI ใช้โดยไม่มีการกรอง
➡️ การป้องกัน prompt injection ต้องใช้การตรวจสอบ runtime และการแยกบริบทอย่างเข้มงวด
➡️ AI ที่มีความสามารถสูงจะยิ่งเสี่ยง หากไม่มี guardrails ที่ชัดเจน
https://hackread.com/google-gemini-trifecta-vulnerabilities-gemini-ai/
0 Comments
0 Shares
81 Views
0 Reviews