เรื่องเล่าจากข่าว: “Man in the Prompt” เมื่อ AI กลายเป็นผู้ช่วยโจรกรรมข้อมูล
นักวิจัยจากบริษัท LayerX ค้นพบช่องโหว่ใหม่ที่เรียกว่า “Man in the Prompt” ซึ่งอาศัยความจริงที่ว่า ช่องใส่คำสั่ง (prompt input) ของ AI บนเว็บเบราว์เซอร์เป็นส่วนหนึ่งของโครงสร้างหน้าเว็บ (Document Object Model หรือ DOM) นั่นหมายความว่า ส่วนเสริมใด ๆ ที่เข้าถึง DOM ได้ ก็สามารถอ่านหรือเขียนคำสั่งลงในช่อง prompt ได้ทันที—even ถ้าไม่มีสิทธิ์พิเศษ!
แฮกเกอร์สามารถใช้ส่วนเสริมที่เป็นอันตราย (หรือซื้อสิทธิ์จากส่วนเสริมที่มีอยู่แล้ว) เพื่อแอบแฝงคำสั่งลับ, ดึงข้อมูลจากคำตอบของ AI, หรือแม้แต่ลบประวัติการสนทนาเพื่อไม่ให้ผู้ใช้รู้ตัว
LayerX ได้ทดลองโจมตีจริงกับ ChatGPT และ Google Gemini โดยใช้ส่วนเสริมที่ดูไม่มีพิษภัย แต่สามารถเปิดแท็บลับ, ส่งคำสั่งไปยัง AI, ดึงข้อมูลออก และลบหลักฐานทั้งหมด
สิ่งที่น่ากลัวคือ AI เหล่านี้มักถูกใช้ในองค์กรเพื่อประมวลผลข้อมูลลับ เช่น เอกสารภายใน, แผนธุรกิจ, หรือรหัสโปรแกรม—ซึ่งอาจถูกขโมยไปโดยไม่รู้ตัว
“Man in the Prompt” คือการโจมตีผ่านส่วนเสริมเบราว์เซอร์ที่แอบแฝงคำสั่งในช่อง prompt ของ AI
ใช้ช่องโหว่ของ DOM ที่เปิดให้ส่วนเสริมเข้าถึงข้อมูลในหน้าเว็บ
ไม่ต้องใช้สิทธิ์พิเศษก็สามารถอ่าน/เขียนคำสั่งได้
AI ที่ได้รับผลกระทบ ได้แก่ ChatGPT, Gemini, Claude, Copilot และ Deepseek
ทั้ง AI เชิงพาณิชย์และ AI ภายในองค์กร
มีการทดสอบจริงและแสดงผลสำเร็จ
ส่วนเสริมสามารถแอบส่งคำสั่ง, ดึงข้อมูล, และลบประวัติการสนทนาได้
เช่น เปิดแท็บลับ, ส่งคำสั่งไปยัง ChatGPT, ดึงผลลัพธ์, แล้วลบแชท
Gemini สามารถถูกโจมตีผ่าน sidebar ที่เชื่อมกับ Google Workspace
ข้อมูลที่เสี่ยงต่อการรั่วไหล ได้แก่ อีเมล, เอกสาร, รหัส, แผนธุรกิจ และทรัพย์สินทางปัญญา
โดยเฉพาะ AI ภายในองค์กรที่ฝึกด้วยข้อมูลลับ
มีความเชื่อมั่นสูงแต่ขาดระบบป้องกันคำสั่งแฝง
LayerX แนะนำให้ตรวจสอบพฤติกรรม DOM ของส่วนเสริมแทนการดูแค่สิทธิ์ที่ประกาศไว้
ปรับระบบความปลอดภัยให้มองเห็นการเปลี่ยนแปลงใน DOM
ป้องกันการแอบแฝงคำสั่งและการดึงข้อมูลแบบเรียลไทม์
ส่วนเสริมที่ดูปลอดภัยอาจถูกแฮกหรือซื้อสิทธิ์ไปใช้โจมตีได้
เช่น ส่วนเสริมที่มีฟีเจอร์จัดการ prompt อาจถูกใช้เพื่อแอบแฝงคำสั่ง
ไม่ต้องมีการติดตั้งใหม่หรืออนุญาตใด ๆ จากผู้ใช้
ระบบความปลอดภัยแบบเดิมไม่สามารถตรวจจับการโจมตีในระดับ DOM ได้
เช่น DLP หรือ Secure Web Gateway ไม่เห็นการเปลี่ยนแปลงใน DOM
การบล็อก URL ของ AI ไม่ช่วยป้องกันการโจมตีภายในเบราว์เซอร์
องค์กรที่อนุญาตให้ติดตั้งส่วนเสริมอย่างเสรีมีความเสี่ยงสูงมาก
พนักงานอาจติดตั้งส่วนเสริมที่เป็นอันตรายโดยไม่รู้ตัว
ข้อมูลภายในองค์กรอาจถูกขโมยผ่าน AI ที่เชื่อมกับเบราว์เซอร์
AI ที่ฝึกด้วยข้อมูลลับภายในองค์กรมีความเสี่ยงสูงสุด
เช่น ข้อมูลทางกฎหมาย, การเงิน, หรือกลยุทธ์
หากถูกดึงออกผ่าน prompt จะไม่มีทางรู้ตัวเลย
https://hackread.com/browser-extensions-exploit-chatgpt-gemini-man-in-the-prompt/
นักวิจัยจากบริษัท LayerX ค้นพบช่องโหว่ใหม่ที่เรียกว่า “Man in the Prompt” ซึ่งอาศัยความจริงที่ว่า ช่องใส่คำสั่ง (prompt input) ของ AI บนเว็บเบราว์เซอร์เป็นส่วนหนึ่งของโครงสร้างหน้าเว็บ (Document Object Model หรือ DOM) นั่นหมายความว่า ส่วนเสริมใด ๆ ที่เข้าถึง DOM ได้ ก็สามารถอ่านหรือเขียนคำสั่งลงในช่อง prompt ได้ทันที—even ถ้าไม่มีสิทธิ์พิเศษ!
แฮกเกอร์สามารถใช้ส่วนเสริมที่เป็นอันตราย (หรือซื้อสิทธิ์จากส่วนเสริมที่มีอยู่แล้ว) เพื่อแอบแฝงคำสั่งลับ, ดึงข้อมูลจากคำตอบของ AI, หรือแม้แต่ลบประวัติการสนทนาเพื่อไม่ให้ผู้ใช้รู้ตัว
LayerX ได้ทดลองโจมตีจริงกับ ChatGPT และ Google Gemini โดยใช้ส่วนเสริมที่ดูไม่มีพิษภัย แต่สามารถเปิดแท็บลับ, ส่งคำสั่งไปยัง AI, ดึงข้อมูลออก และลบหลักฐานทั้งหมด
สิ่งที่น่ากลัวคือ AI เหล่านี้มักถูกใช้ในองค์กรเพื่อประมวลผลข้อมูลลับ เช่น เอกสารภายใน, แผนธุรกิจ, หรือรหัสโปรแกรม—ซึ่งอาจถูกขโมยไปโดยไม่รู้ตัว
“Man in the Prompt” คือการโจมตีผ่านส่วนเสริมเบราว์เซอร์ที่แอบแฝงคำสั่งในช่อง prompt ของ AI
ใช้ช่องโหว่ของ DOM ที่เปิดให้ส่วนเสริมเข้าถึงข้อมูลในหน้าเว็บ
ไม่ต้องใช้สิทธิ์พิเศษก็สามารถอ่าน/เขียนคำสั่งได้
AI ที่ได้รับผลกระทบ ได้แก่ ChatGPT, Gemini, Claude, Copilot และ Deepseek
ทั้ง AI เชิงพาณิชย์และ AI ภายในองค์กร
มีการทดสอบจริงและแสดงผลสำเร็จ
ส่วนเสริมสามารถแอบส่งคำสั่ง, ดึงข้อมูล, และลบประวัติการสนทนาได้
เช่น เปิดแท็บลับ, ส่งคำสั่งไปยัง ChatGPT, ดึงผลลัพธ์, แล้วลบแชท
Gemini สามารถถูกโจมตีผ่าน sidebar ที่เชื่อมกับ Google Workspace
ข้อมูลที่เสี่ยงต่อการรั่วไหล ได้แก่ อีเมล, เอกสาร, รหัส, แผนธุรกิจ และทรัพย์สินทางปัญญา
โดยเฉพาะ AI ภายในองค์กรที่ฝึกด้วยข้อมูลลับ
มีความเชื่อมั่นสูงแต่ขาดระบบป้องกันคำสั่งแฝง
LayerX แนะนำให้ตรวจสอบพฤติกรรม DOM ของส่วนเสริมแทนการดูแค่สิทธิ์ที่ประกาศไว้
ปรับระบบความปลอดภัยให้มองเห็นการเปลี่ยนแปลงใน DOM
ป้องกันการแอบแฝงคำสั่งและการดึงข้อมูลแบบเรียลไทม์
ส่วนเสริมที่ดูปลอดภัยอาจถูกแฮกหรือซื้อสิทธิ์ไปใช้โจมตีได้
เช่น ส่วนเสริมที่มีฟีเจอร์จัดการ prompt อาจถูกใช้เพื่อแอบแฝงคำสั่ง
ไม่ต้องมีการติดตั้งใหม่หรืออนุญาตใด ๆ จากผู้ใช้
ระบบความปลอดภัยแบบเดิมไม่สามารถตรวจจับการโจมตีในระดับ DOM ได้
เช่น DLP หรือ Secure Web Gateway ไม่เห็นการเปลี่ยนแปลงใน DOM
การบล็อก URL ของ AI ไม่ช่วยป้องกันการโจมตีภายในเบราว์เซอร์
องค์กรที่อนุญาตให้ติดตั้งส่วนเสริมอย่างเสรีมีความเสี่ยงสูงมาก
พนักงานอาจติดตั้งส่วนเสริมที่เป็นอันตรายโดยไม่รู้ตัว
ข้อมูลภายในองค์กรอาจถูกขโมยผ่าน AI ที่เชื่อมกับเบราว์เซอร์
AI ที่ฝึกด้วยข้อมูลลับภายในองค์กรมีความเสี่ยงสูงสุด
เช่น ข้อมูลทางกฎหมาย, การเงิน, หรือกลยุทธ์
หากถูกดึงออกผ่าน prompt จะไม่มีทางรู้ตัวเลย
https://hackread.com/browser-extensions-exploit-chatgpt-gemini-man-in-the-prompt/
🧠 เรื่องเล่าจากข่าว: “Man in the Prompt” เมื่อ AI กลายเป็นผู้ช่วยโจรกรรมข้อมูล
นักวิจัยจากบริษัท LayerX ค้นพบช่องโหว่ใหม่ที่เรียกว่า “Man in the Prompt” ซึ่งอาศัยความจริงที่ว่า ช่องใส่คำสั่ง (prompt input) ของ AI บนเว็บเบราว์เซอร์เป็นส่วนหนึ่งของโครงสร้างหน้าเว็บ (Document Object Model หรือ DOM) นั่นหมายความว่า ส่วนเสริมใด ๆ ที่เข้าถึง DOM ได้ ก็สามารถอ่านหรือเขียนคำสั่งลงในช่อง prompt ได้ทันที—even ถ้าไม่มีสิทธิ์พิเศษ!
แฮกเกอร์สามารถใช้ส่วนเสริมที่เป็นอันตราย (หรือซื้อสิทธิ์จากส่วนเสริมที่มีอยู่แล้ว) เพื่อแอบแฝงคำสั่งลับ, ดึงข้อมูลจากคำตอบของ AI, หรือแม้แต่ลบประวัติการสนทนาเพื่อไม่ให้ผู้ใช้รู้ตัว
LayerX ได้ทดลองโจมตีจริงกับ ChatGPT และ Google Gemini โดยใช้ส่วนเสริมที่ดูไม่มีพิษภัย แต่สามารถเปิดแท็บลับ, ส่งคำสั่งไปยัง AI, ดึงข้อมูลออก และลบหลักฐานทั้งหมด
สิ่งที่น่ากลัวคือ AI เหล่านี้มักถูกใช้ในองค์กรเพื่อประมวลผลข้อมูลลับ เช่น เอกสารภายใน, แผนธุรกิจ, หรือรหัสโปรแกรม—ซึ่งอาจถูกขโมยไปโดยไม่รู้ตัว
✅ “Man in the Prompt” คือการโจมตีผ่านส่วนเสริมเบราว์เซอร์ที่แอบแฝงคำสั่งในช่อง prompt ของ AI
➡️ ใช้ช่องโหว่ของ DOM ที่เปิดให้ส่วนเสริมเข้าถึงข้อมูลในหน้าเว็บ
➡️ ไม่ต้องใช้สิทธิ์พิเศษก็สามารถอ่าน/เขียนคำสั่งได้
✅ AI ที่ได้รับผลกระทบ ได้แก่ ChatGPT, Gemini, Claude, Copilot และ Deepseek
➡️ ทั้ง AI เชิงพาณิชย์และ AI ภายในองค์กร
➡️ มีการทดสอบจริงและแสดงผลสำเร็จ
✅ ส่วนเสริมสามารถแอบส่งคำสั่ง, ดึงข้อมูล, และลบประวัติการสนทนาได้
➡️ เช่น เปิดแท็บลับ, ส่งคำสั่งไปยัง ChatGPT, ดึงผลลัพธ์, แล้วลบแชท
➡️ Gemini สามารถถูกโจมตีผ่าน sidebar ที่เชื่อมกับ Google Workspace
✅ ข้อมูลที่เสี่ยงต่อการรั่วไหล ได้แก่ อีเมล, เอกสาร, รหัส, แผนธุรกิจ และทรัพย์สินทางปัญญา
➡️ โดยเฉพาะ AI ภายในองค์กรที่ฝึกด้วยข้อมูลลับ
➡️ มีความเชื่อมั่นสูงแต่ขาดระบบป้องกันคำสั่งแฝง
✅ LayerX แนะนำให้ตรวจสอบพฤติกรรม DOM ของส่วนเสริมแทนการดูแค่สิทธิ์ที่ประกาศไว้
➡️ ปรับระบบความปลอดภัยให้มองเห็นการเปลี่ยนแปลงใน DOM
➡️ ป้องกันการแอบแฝงคำสั่งและการดึงข้อมูลแบบเรียลไทม์
‼️ ส่วนเสริมที่ดูปลอดภัยอาจถูกแฮกหรือซื้อสิทธิ์ไปใช้โจมตีได้
⛔ เช่น ส่วนเสริมที่มีฟีเจอร์จัดการ prompt อาจถูกใช้เพื่อแอบแฝงคำสั่ง
⛔ ไม่ต้องมีการติดตั้งใหม่หรืออนุญาตใด ๆ จากผู้ใช้
‼️ ระบบความปลอดภัยแบบเดิมไม่สามารถตรวจจับการโจมตีในระดับ DOM ได้
⛔ เช่น DLP หรือ Secure Web Gateway ไม่เห็นการเปลี่ยนแปลงใน DOM
⛔ การบล็อก URL ของ AI ไม่ช่วยป้องกันการโจมตีภายในเบราว์เซอร์
‼️ องค์กรที่อนุญาตให้ติดตั้งส่วนเสริมอย่างเสรีมีความเสี่ยงสูงมาก
⛔ พนักงานอาจติดตั้งส่วนเสริมที่เป็นอันตรายโดยไม่รู้ตัว
⛔ ข้อมูลภายในองค์กรอาจถูกขโมยผ่าน AI ที่เชื่อมกับเบราว์เซอร์
‼️ AI ที่ฝึกด้วยข้อมูลลับภายในองค์กรมีความเสี่ยงสูงสุด
⛔ เช่น ข้อมูลทางกฎหมาย, การเงิน, หรือกลยุทธ์
⛔ หากถูกดึงออกผ่าน prompt จะไม่มีทางรู้ตัวเลย
https://hackread.com/browser-extensions-exploit-chatgpt-gemini-man-in-the-prompt/
0 ความคิดเห็น
0 การแบ่งปัน
66 มุมมอง
0 รีวิว