เรื่องเล่าจาก Trail of Bits: เมื่อภาพที่ดูธรรมดา กลายเป็นประตูสู่การขโมยข้อมูล
ในโลกที่ AI กลายเป็นผู้ช่วยประจำวันของเรา ไม่ว่าจะเป็น Chatbot, Assistant หรือระบบ CLI การอัปโหลดภาพดูเหมือนจะเป็นเรื่องปลอดภัย แต่ทีมนักวิจัยจาก Trail of Bits ได้เปิดเผยช่องโหว่ใหม่ที่น่าตกใจ—“image scaling attack” ที่ใช้ภาพความละเอียดสูงซ่อนคำสั่งลับไว้ แล้วปล่อยให้ AI อ่านออกเมื่อภาพถูกย่อขนาด
ภาพที่ดูปกติสำหรับมนุษย์ อาจมีข้อความแอบซ่อนอยู่ในพิกเซลที่ถูกจัดวางอย่างจงใจ เมื่อ AI ทำการ downscale ภาพเพื่อประมวลผล คำสั่งที่ซ่อนอยู่จะปรากฏขึ้นในรูปแบบที่โมเดลสามารถอ่านและ “เชื่อว่าเป็นคำสั่งจากผู้ใช้” ได้ทันที โดยไม่ต้องมีการยืนยันใด ๆ
นักวิจัยได้สาธิตการโจมตีนี้บนระบบจริง เช่น Gemini CLI, Google Assistant และ Gemini web interface โดยใช้ภาพที่แฝงคำสั่งให้ AI เข้าถึง Google Calendar แล้วส่งข้อมูลไปยังอีเมลของผู้โจมตี—all done silently.
เพื่อรับมือกับภัยคุกคามนี้ Trail of Bits ได้เปิดตัวเครื่องมือชื่อ “Anamorpher” ที่สามารถสร้างภาพแบบนี้เพื่อใช้ในการทดสอบระบบ และแนะนำให้ผู้พัฒนา AI แสดง preview ของภาพหลังการ downscale ก่อนดำเนินการใด ๆ พร้อมบังคับให้มีการยืนยันจากผู้ใช้ก่อนทำงานที่อ่อนไหว
https://hackread.com/hidden-commands-images-exploit-ai-chatbots-steal-data/
ในโลกที่ AI กลายเป็นผู้ช่วยประจำวันของเรา ไม่ว่าจะเป็น Chatbot, Assistant หรือระบบ CLI การอัปโหลดภาพดูเหมือนจะเป็นเรื่องปลอดภัย แต่ทีมนักวิจัยจาก Trail of Bits ได้เปิดเผยช่องโหว่ใหม่ที่น่าตกใจ—“image scaling attack” ที่ใช้ภาพความละเอียดสูงซ่อนคำสั่งลับไว้ แล้วปล่อยให้ AI อ่านออกเมื่อภาพถูกย่อขนาด
ภาพที่ดูปกติสำหรับมนุษย์ อาจมีข้อความแอบซ่อนอยู่ในพิกเซลที่ถูกจัดวางอย่างจงใจ เมื่อ AI ทำการ downscale ภาพเพื่อประมวลผล คำสั่งที่ซ่อนอยู่จะปรากฏขึ้นในรูปแบบที่โมเดลสามารถอ่านและ “เชื่อว่าเป็นคำสั่งจากผู้ใช้” ได้ทันที โดยไม่ต้องมีการยืนยันใด ๆ
นักวิจัยได้สาธิตการโจมตีนี้บนระบบจริง เช่น Gemini CLI, Google Assistant และ Gemini web interface โดยใช้ภาพที่แฝงคำสั่งให้ AI เข้าถึง Google Calendar แล้วส่งข้อมูลไปยังอีเมลของผู้โจมตี—all done silently.
เพื่อรับมือกับภัยคุกคามนี้ Trail of Bits ได้เปิดตัวเครื่องมือชื่อ “Anamorpher” ที่สามารถสร้างภาพแบบนี้เพื่อใช้ในการทดสอบระบบ และแนะนำให้ผู้พัฒนา AI แสดง preview ของภาพหลังการ downscale ก่อนดำเนินการใด ๆ พร้อมบังคับให้มีการยืนยันจากผู้ใช้ก่อนทำงานที่อ่อนไหว
https://hackread.com/hidden-commands-images-exploit-ai-chatbots-steal-data/
🎙️ เรื่องเล่าจาก Trail of Bits: เมื่อภาพที่ดูธรรมดา กลายเป็นประตูสู่การขโมยข้อมูล
ในโลกที่ AI กลายเป็นผู้ช่วยประจำวันของเรา ไม่ว่าจะเป็น Chatbot, Assistant หรือระบบ CLI การอัปโหลดภาพดูเหมือนจะเป็นเรื่องปลอดภัย แต่ทีมนักวิจัยจาก Trail of Bits ได้เปิดเผยช่องโหว่ใหม่ที่น่าตกใจ—“image scaling attack” ที่ใช้ภาพความละเอียดสูงซ่อนคำสั่งลับไว้ แล้วปล่อยให้ AI อ่านออกเมื่อภาพถูกย่อขนาด
ภาพที่ดูปกติสำหรับมนุษย์ อาจมีข้อความแอบซ่อนอยู่ในพิกเซลที่ถูกจัดวางอย่างจงใจ เมื่อ AI ทำการ downscale ภาพเพื่อประมวลผล คำสั่งที่ซ่อนอยู่จะปรากฏขึ้นในรูปแบบที่โมเดลสามารถอ่านและ “เชื่อว่าเป็นคำสั่งจากผู้ใช้” ได้ทันที โดยไม่ต้องมีการยืนยันใด ๆ
นักวิจัยได้สาธิตการโจมตีนี้บนระบบจริง เช่น Gemini CLI, Google Assistant และ Gemini web interface โดยใช้ภาพที่แฝงคำสั่งให้ AI เข้าถึง Google Calendar แล้วส่งข้อมูลไปยังอีเมลของผู้โจมตี—all done silently.
เพื่อรับมือกับภัยคุกคามนี้ Trail of Bits ได้เปิดตัวเครื่องมือชื่อ “Anamorpher” ที่สามารถสร้างภาพแบบนี้เพื่อใช้ในการทดสอบระบบ และแนะนำให้ผู้พัฒนา AI แสดง preview ของภาพหลังการ downscale ก่อนดำเนินการใด ๆ พร้อมบังคับให้มีการยืนยันจากผู้ใช้ก่อนทำงานที่อ่อนไหว
https://hackread.com/hidden-commands-images-exploit-ai-chatbots-steal-data/
0 Comments
0 Shares
32 Views
0 Reviews