“ShadowLeak: ช่องโหว่ Zero-Click ที่ทำให้ ChatGPT ส่งข้อมูล Gmail โดยไม่รู้ตัว — เมื่อ AI กลายเป็นช่องทางรั่วไหลข้อมูล”
Radware บริษัทด้านความปลอดภัยไซเบอร์เปิดเผยช่องโหว่ร้ายแรงในระบบ Deep Research agent ของ ChatGPT ซึ่งสามารถถูกโจมตีแบบ “Zero-Click” โดยไม่ต้องให้ผู้ใช้คลิกหรือยืนยันใด ๆ ช่องโหว่นี้ถูกตั้งชื่อว่า “ShadowLeak” และถูกใช้เพื่อดึงข้อมูลส่วนตัวจาก Gmail โดยอาศัยเทคนิคที่เรียกว่า “Indirect Prompt Injection”
การโจมตีเริ่มจากอีเมลที่ดูปกติ เช่นหัวข้อ “Restructuring Package – Action Items” แต่ภายในซ่อนคำสั่งลับด้วยเทคนิค CSS เช่น ตัวอักษรสีขาวบนพื้นขาว หรือฟอนต์ขนาดเล็ก เมื่อผู้ใช้สั่งให้ Deep Research agent วิเคราะห์อีเมลเหล่านี้ ตัว agent จะอ่านคำสั่งลับและส่งข้อมูลส่วนตัว เช่นชื่อ ที่อยู่ หรือข้อมูลภายในองค์กร ไปยัง URL ที่ควบคุมโดยผู้โจมตี โดยใช้ browser.open() และเข้ารหัสข้อมูลด้วย Base64 เพื่อให้ดูเหมือนปลอดภัย
ที่น่ากังวลคือการโจมตีนี้เกิดขึ้น “ฝั่งเซิร์ฟเวอร์” ของ OpenAI โดยตรง ไม่ผ่านเครื่องของผู้ใช้ ทำให้ระบบรักษาความปลอดภัยทั่วไปไม่สามารถตรวจจับได้ และไม่มีหลักฐานหลงเหลือให้วิเคราะห์ย้อนหลัง
แม้ช่องโหว่นี้จะถูกแจ้งไปยัง OpenAI ตั้งแต่เดือนมิถุนายน และได้รับการแก้ไขในเดือนสิงหาคม 2025 แต่ Radware เตือนว่าการโจมตีแบบเดียวกันสามารถใช้กับบริการอื่นที่เชื่อมต่อกับ Deep Research ได้ เช่น Google Drive, Microsoft Teams, GitHub และอื่น ๆ
ข้อมูลสำคัญจากข่าว
ช่องโหว่ “ShadowLeak” เป็นการโจมตีแบบ Zero-Click ผ่าน ChatGPT Deep Research agent
ใช้เทคนิค Indirect Prompt Injection ซ่อนคำสั่งในอีเมลที่ดูปกติ
Agent อ่านคำสั่งลับและส่งข้อมูลไปยังเซิร์ฟเวอร์ของผู้โจมตีโดยไม่แจ้งผู้ใช้
ใช้ browser.open() และเข้ารหัสข้อมูลด้วย Base64 เพื่อหลอกระบบว่าเป็นการส่งข้อมูลที่ปลอดภัย
การโจมตีเกิดฝั่งเซิร์ฟเวอร์ของ OpenAI ทำให้ระบบรักษาความปลอดภัยทั่วไปไม่สามารถตรวจจับได้
การตอบสนองและการแก้ไข
Radware แจ้งช่องโหว่ไปยัง OpenAI ในเดือนมิถุนายน 2025
OpenAI แก้ไขช่องโหว่ในเดือนสิงหาคม และประกาศว่าได้รับการแก้ไขแล้วเมื่อวันที่ 3 กันยายน
ช่องโหว่นี้สามารถใช้กับบริการอื่นที่เชื่อมต่อกับ Deep Research เช่น Google Drive, GitHub, Microsoft Outlook
ข้อมูลเสริมจากภายนอก
Deep Research agent เปิดตัวในเดือนกุมภาพันธ์ 2025 เพื่อช่วยวิเคราะห์ข้อมูลหลายขั้นตอน
การโจมตีแบบ Zero-Click เป็นภัยที่ร้ายแรงเพราะไม่ต้องอาศัยการกระทำจากผู้ใช้
Prompt Injection เป็นปัญหาที่เกิดขึ้นบ่อยในระบบ AI ที่รับข้อมูลจากภายนอก
การเข้ารหัสข้อมูลด้วย Base64 ไม่ได้ปลอดภัยจริง แต่ช่วยให้ข้อมูลดูไม่เป็นอันตราย
https://hackread.com/shadowleak-exploit-exposed-gmail-data-chatgpt-agent/
Radware บริษัทด้านความปลอดภัยไซเบอร์เปิดเผยช่องโหว่ร้ายแรงในระบบ Deep Research agent ของ ChatGPT ซึ่งสามารถถูกโจมตีแบบ “Zero-Click” โดยไม่ต้องให้ผู้ใช้คลิกหรือยืนยันใด ๆ ช่องโหว่นี้ถูกตั้งชื่อว่า “ShadowLeak” และถูกใช้เพื่อดึงข้อมูลส่วนตัวจาก Gmail โดยอาศัยเทคนิคที่เรียกว่า “Indirect Prompt Injection”
การโจมตีเริ่มจากอีเมลที่ดูปกติ เช่นหัวข้อ “Restructuring Package – Action Items” แต่ภายในซ่อนคำสั่งลับด้วยเทคนิค CSS เช่น ตัวอักษรสีขาวบนพื้นขาว หรือฟอนต์ขนาดเล็ก เมื่อผู้ใช้สั่งให้ Deep Research agent วิเคราะห์อีเมลเหล่านี้ ตัว agent จะอ่านคำสั่งลับและส่งข้อมูลส่วนตัว เช่นชื่อ ที่อยู่ หรือข้อมูลภายในองค์กร ไปยัง URL ที่ควบคุมโดยผู้โจมตี โดยใช้ browser.open() และเข้ารหัสข้อมูลด้วย Base64 เพื่อให้ดูเหมือนปลอดภัย
ที่น่ากังวลคือการโจมตีนี้เกิดขึ้น “ฝั่งเซิร์ฟเวอร์” ของ OpenAI โดยตรง ไม่ผ่านเครื่องของผู้ใช้ ทำให้ระบบรักษาความปลอดภัยทั่วไปไม่สามารถตรวจจับได้ และไม่มีหลักฐานหลงเหลือให้วิเคราะห์ย้อนหลัง
แม้ช่องโหว่นี้จะถูกแจ้งไปยัง OpenAI ตั้งแต่เดือนมิถุนายน และได้รับการแก้ไขในเดือนสิงหาคม 2025 แต่ Radware เตือนว่าการโจมตีแบบเดียวกันสามารถใช้กับบริการอื่นที่เชื่อมต่อกับ Deep Research ได้ เช่น Google Drive, Microsoft Teams, GitHub และอื่น ๆ
ข้อมูลสำคัญจากข่าว
ช่องโหว่ “ShadowLeak” เป็นการโจมตีแบบ Zero-Click ผ่าน ChatGPT Deep Research agent
ใช้เทคนิค Indirect Prompt Injection ซ่อนคำสั่งในอีเมลที่ดูปกติ
Agent อ่านคำสั่งลับและส่งข้อมูลไปยังเซิร์ฟเวอร์ของผู้โจมตีโดยไม่แจ้งผู้ใช้
ใช้ browser.open() และเข้ารหัสข้อมูลด้วย Base64 เพื่อหลอกระบบว่าเป็นการส่งข้อมูลที่ปลอดภัย
การโจมตีเกิดฝั่งเซิร์ฟเวอร์ของ OpenAI ทำให้ระบบรักษาความปลอดภัยทั่วไปไม่สามารถตรวจจับได้
การตอบสนองและการแก้ไข
Radware แจ้งช่องโหว่ไปยัง OpenAI ในเดือนมิถุนายน 2025
OpenAI แก้ไขช่องโหว่ในเดือนสิงหาคม และประกาศว่าได้รับการแก้ไขแล้วเมื่อวันที่ 3 กันยายน
ช่องโหว่นี้สามารถใช้กับบริการอื่นที่เชื่อมต่อกับ Deep Research เช่น Google Drive, GitHub, Microsoft Outlook
ข้อมูลเสริมจากภายนอก
Deep Research agent เปิดตัวในเดือนกุมภาพันธ์ 2025 เพื่อช่วยวิเคราะห์ข้อมูลหลายขั้นตอน
การโจมตีแบบ Zero-Click เป็นภัยที่ร้ายแรงเพราะไม่ต้องอาศัยการกระทำจากผู้ใช้
Prompt Injection เป็นปัญหาที่เกิดขึ้นบ่อยในระบบ AI ที่รับข้อมูลจากภายนอก
การเข้ารหัสข้อมูลด้วย Base64 ไม่ได้ปลอดภัยจริง แต่ช่วยให้ข้อมูลดูไม่เป็นอันตราย
https://hackread.com/shadowleak-exploit-exposed-gmail-data-chatgpt-agent/
🕵️♂️ “ShadowLeak: ช่องโหว่ Zero-Click ที่ทำให้ ChatGPT ส่งข้อมูล Gmail โดยไม่รู้ตัว — เมื่อ AI กลายเป็นช่องทางรั่วไหลข้อมูล”
Radware บริษัทด้านความปลอดภัยไซเบอร์เปิดเผยช่องโหว่ร้ายแรงในระบบ Deep Research agent ของ ChatGPT ซึ่งสามารถถูกโจมตีแบบ “Zero-Click” โดยไม่ต้องให้ผู้ใช้คลิกหรือยืนยันใด ๆ ช่องโหว่นี้ถูกตั้งชื่อว่า “ShadowLeak” และถูกใช้เพื่อดึงข้อมูลส่วนตัวจาก Gmail โดยอาศัยเทคนิคที่เรียกว่า “Indirect Prompt Injection”
การโจมตีเริ่มจากอีเมลที่ดูปกติ เช่นหัวข้อ “Restructuring Package – Action Items” แต่ภายในซ่อนคำสั่งลับด้วยเทคนิค CSS เช่น ตัวอักษรสีขาวบนพื้นขาว หรือฟอนต์ขนาดเล็ก เมื่อผู้ใช้สั่งให้ Deep Research agent วิเคราะห์อีเมลเหล่านี้ ตัว agent จะอ่านคำสั่งลับและส่งข้อมูลส่วนตัว เช่นชื่อ ที่อยู่ หรือข้อมูลภายในองค์กร ไปยัง URL ที่ควบคุมโดยผู้โจมตี โดยใช้ browser.open() และเข้ารหัสข้อมูลด้วย Base64 เพื่อให้ดูเหมือนปลอดภัย
ที่น่ากังวลคือการโจมตีนี้เกิดขึ้น “ฝั่งเซิร์ฟเวอร์” ของ OpenAI โดยตรง ไม่ผ่านเครื่องของผู้ใช้ ทำให้ระบบรักษาความปลอดภัยทั่วไปไม่สามารถตรวจจับได้ และไม่มีหลักฐานหลงเหลือให้วิเคราะห์ย้อนหลัง
แม้ช่องโหว่นี้จะถูกแจ้งไปยัง OpenAI ตั้งแต่เดือนมิถุนายน และได้รับการแก้ไขในเดือนสิงหาคม 2025 แต่ Radware เตือนว่าการโจมตีแบบเดียวกันสามารถใช้กับบริการอื่นที่เชื่อมต่อกับ Deep Research ได้ เช่น Google Drive, Microsoft Teams, GitHub และอื่น ๆ
✅ ข้อมูลสำคัญจากข่าว
➡️ ช่องโหว่ “ShadowLeak” เป็นการโจมตีแบบ Zero-Click ผ่าน ChatGPT Deep Research agent
➡️ ใช้เทคนิค Indirect Prompt Injection ซ่อนคำสั่งในอีเมลที่ดูปกติ
➡️ Agent อ่านคำสั่งลับและส่งข้อมูลไปยังเซิร์ฟเวอร์ของผู้โจมตีโดยไม่แจ้งผู้ใช้
➡️ ใช้ browser.open() และเข้ารหัสข้อมูลด้วย Base64 เพื่อหลอกระบบว่าเป็นการส่งข้อมูลที่ปลอดภัย
➡️ การโจมตีเกิดฝั่งเซิร์ฟเวอร์ของ OpenAI ทำให้ระบบรักษาความปลอดภัยทั่วไปไม่สามารถตรวจจับได้
✅ การตอบสนองและการแก้ไข
➡️ Radware แจ้งช่องโหว่ไปยัง OpenAI ในเดือนมิถุนายน 2025
➡️ OpenAI แก้ไขช่องโหว่ในเดือนสิงหาคม และประกาศว่าได้รับการแก้ไขแล้วเมื่อวันที่ 3 กันยายน
➡️ ช่องโหว่นี้สามารถใช้กับบริการอื่นที่เชื่อมต่อกับ Deep Research เช่น Google Drive, GitHub, Microsoft Outlook
✅ ข้อมูลเสริมจากภายนอก
➡️ Deep Research agent เปิดตัวในเดือนกุมภาพันธ์ 2025 เพื่อช่วยวิเคราะห์ข้อมูลหลายขั้นตอน
➡️ การโจมตีแบบ Zero-Click เป็นภัยที่ร้ายแรงเพราะไม่ต้องอาศัยการกระทำจากผู้ใช้
➡️ Prompt Injection เป็นปัญหาที่เกิดขึ้นบ่อยในระบบ AI ที่รับข้อมูลจากภายนอก
➡️ การเข้ารหัสข้อมูลด้วย Base64 ไม่ได้ปลอดภัยจริง แต่ช่วยให้ข้อมูลดูไม่เป็นอันตราย
https://hackread.com/shadowleak-exploit-exposed-gmail-data-chatgpt-agent/
0 ความคิดเห็น
0 การแบ่งปัน
18 มุมมอง
0 รีวิว