พบช่องโหว่ใหม่ใน ChatGPT! แฮกเกอร์สามารถขโมยข้อมูลและควบคุมความจำของ AI ได้โดยไม่ต้องคลิก

รายงานล่าสุดจาก Tenable Research เผยว่า ChatGPT รวมถึงเวอร์ชัน GPT-5 มีช่องโหว่ร้ายแรงถึง 7 จุด ที่เปิดโอกาสให้แฮกเกอร์สามารถขโมยข้อมูลผู้ใช้และควบคุมการทำงานของ AI ได้อย่างต่อเนื่อง โดยไม่ต้องให้ผู้ใช้คลิกหรือยืนยันใด ๆ

ภัยคุกคามหลักคือ “Prompt Injection” โดยเฉพาะรูปแบบใหม่ที่เรียกว่า “Indirect Prompt Injection” ซึ่งคำสั่งอันตรายไม่ได้ถูกพิมพ์โดยผู้ใช้ แต่ซ่อนอยู่ในแหล่งข้อมูลภายนอก เช่น:

ซ่อนในคอมเมนต์บล็อก: ถ้าผู้ใช้ขอให้ ChatGPT สรุปเนื้อหาบล็อกที่มีคอมเมนต์แฝงคำสั่ง แชตบอทจะอ่านและทำตามคำสั่งนั้นโดยไม่รู้ตัว

0-Click Attack ผ่านการค้นหา: แค่ถามคำถามธรรมดา หาก AI ไปเจอเว็บไซต์ที่มีคำสั่งแฝง ก็อาจถูกควบคุมทันทีโดยไม่ต้องคลิกใด ๆ

นอกจากนี้ยังมีเทคนิคอื่น ๆ ที่ทำให้การโจมตีมีผลต่อเนื่อง:

Safety Bypass: ใช้ลิงก์ Bing ที่ดูปลอดภัยเพื่อหลบระบบป้องกัน url_safe

Conversation Injection: AI ถูกหลอกให้ใส่คำสั่งอันตรายลงในหน่วยความจำของตัวเอง

Memory Injection: คำสั่งถูกฝังลงใน “ความจำถาวร” ของผู้ใช้ ทำให้ข้อมูลรั่วไหลทุกครั้งที่ใช้งาน

James Wickett จาก DryRun Security เตือนว่า “Prompt injection คือภัยอันดับหนึ่งของระบบที่ใช้ LLM” และแม้แต่ OpenAI ก็ยังไม่สามารถป้องกันได้ทั้งหมด


ช่องโหว่ใน ChatGPT และ GPT-5
พบ 7 ช่องโหว่ที่เปิดทางให้แฮกเกอร์ควบคุมระบบ
ใช้เทคนิค phishing, data exfiltration และ persistent threats

Prompt Injection แบบใหม่
Indirect Prompt Injection ซ่อนคำสั่งในแหล่งข้อมูลภายนอก
AI อ่านคำสั่งโดยไม่รู้ตัวและทำตามทันที

เทคนิคการโจมตีที่ใช้
ซ่อนคำสั่งในคอมเมนต์บล็อก
ใช้เว็บไซต์ที่ถูกจัดอันดับในระบบค้นหาของ AI
ใช้ลิงก์ Bing เพื่อหลบระบบป้องกัน
ฝังคำสั่งในหน่วยความจำของ AI

ผลกระทบต่อผู้ใช้
ข้อมูลส่วนตัวอาจรั่วไหลโดยไม่รู้ตัว
การใช้งาน AI อาจถูกควบคุมจากภายนอก
ความจำของ AI อาจกลายเป็นช่องทางโจมตีถาวร


https://hackread.com/chatgpt-vulnerabilities-hackers-hijack-memory/
⚠️ พบช่องโหว่ใหม่ใน ChatGPT! แฮกเกอร์สามารถขโมยข้อมูลและควบคุมความจำของ AI ได้โดยไม่ต้องคลิก รายงานล่าสุดจาก Tenable Research เผยว่า ChatGPT รวมถึงเวอร์ชัน GPT-5 มีช่องโหว่ร้ายแรงถึง 7 จุด ที่เปิดโอกาสให้แฮกเกอร์สามารถขโมยข้อมูลผู้ใช้และควบคุมการทำงานของ AI ได้อย่างต่อเนื่อง โดยไม่ต้องให้ผู้ใช้คลิกหรือยืนยันใด ๆ ภัยคุกคามหลักคือ “Prompt Injection” โดยเฉพาะรูปแบบใหม่ที่เรียกว่า “Indirect Prompt Injection” ซึ่งคำสั่งอันตรายไม่ได้ถูกพิมพ์โดยผู้ใช้ แต่ซ่อนอยู่ในแหล่งข้อมูลภายนอก เช่น: 💬 ซ่อนในคอมเมนต์บล็อก: ถ้าผู้ใช้ขอให้ ChatGPT สรุปเนื้อหาบล็อกที่มีคอมเมนต์แฝงคำสั่ง แชตบอทจะอ่านและทำตามคำสั่งนั้นโดยไม่รู้ตัว 🌐 0-Click Attack ผ่านการค้นหา: แค่ถามคำถามธรรมดา หาก AI ไปเจอเว็บไซต์ที่มีคำสั่งแฝง ก็อาจถูกควบคุมทันทีโดยไม่ต้องคลิกใด ๆ นอกจากนี้ยังมีเทคนิคอื่น ๆ ที่ทำให้การโจมตีมีผลต่อเนื่อง: 🔗 Safety Bypass: ใช้ลิงก์ Bing ที่ดูปลอดภัยเพื่อหลบระบบป้องกัน url_safe 🧩 Conversation Injection: AI ถูกหลอกให้ใส่คำสั่งอันตรายลงในหน่วยความจำของตัวเอง 🧠 Memory Injection: คำสั่งถูกฝังลงใน “ความจำถาวร” ของผู้ใช้ ทำให้ข้อมูลรั่วไหลทุกครั้งที่ใช้งาน James Wickett จาก DryRun Security เตือนว่า “Prompt injection คือภัยอันดับหนึ่งของระบบที่ใช้ LLM” และแม้แต่ OpenAI ก็ยังไม่สามารถป้องกันได้ทั้งหมด ✅ ช่องโหว่ใน ChatGPT และ GPT-5 ➡️ พบ 7 ช่องโหว่ที่เปิดทางให้แฮกเกอร์ควบคุมระบบ ➡️ ใช้เทคนิค phishing, data exfiltration และ persistent threats ✅ Prompt Injection แบบใหม่ ➡️ Indirect Prompt Injection ซ่อนคำสั่งในแหล่งข้อมูลภายนอก ➡️ AI อ่านคำสั่งโดยไม่รู้ตัวและทำตามทันที ✅ เทคนิคการโจมตีที่ใช้ ➡️ ซ่อนคำสั่งในคอมเมนต์บล็อก ➡️ ใช้เว็บไซต์ที่ถูกจัดอันดับในระบบค้นหาของ AI ➡️ ใช้ลิงก์ Bing เพื่อหลบระบบป้องกัน ➡️ ฝังคำสั่งในหน่วยความจำของ AI ✅ ผลกระทบต่อผู้ใช้ ➡️ ข้อมูลส่วนตัวอาจรั่วไหลโดยไม่รู้ตัว ➡️ การใช้งาน AI อาจถูกควบคุมจากภายนอก ➡️ ความจำของ AI อาจกลายเป็นช่องทางโจมตีถาวร https://hackread.com/chatgpt-vulnerabilities-hackers-hijack-memory/
HACKREAD.COM
New ChatGPT Vulnerabilities Let Hackers Steal Data, Hijack Memory
Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
0 ความคิดเห็น 0 การแบ่งปัน 18 มุมมอง 0 รีวิว