เรื่องเล่าจาก Ransomware 3.0: เมื่อมัลแวร์ไม่ต้องเขียนโค้ดล่วงหน้า แค่สั่ง AI ให้แต่งสดตามสถานการณ์

ในเดือนกันยายน 2025 นักวิจัยจาก NYU Tandon School of Engineering เปิดเผยว่า “PromptLocker” ซึ่งถูกบริษัท ESET เข้าใจผิดว่าเป็นมัลแวร์จริงในโลกไซเบอร์นั้น แท้จริงคือโค้ดทดลองในโครงการวิจัยชื่อ “Ransomware 3.0” ที่พัฒนาขึ้นเพื่อศึกษาความสามารถของ AI ในการสร้างมัลแวร์แบบอัตโนมัติ

PromptLocker ใช้ Lua script ที่ถูกสร้างจาก prompt แบบ hard-coded เพื่อสแกนไฟล์ในเครื่อง, เลือกเป้าหมาย, ขโมยข้อมูล, และเข้ารหัสไฟล์—ครบทุกขั้นตอนของ ransomware โดยไม่ต้องมีโค้ดล่วงหน้า นักวิจัยใช้ LLM (Large Language Model) แบบโอเพ่นซอร์สเพื่อแต่งโค้ดตามคำสั่งที่ฝังไว้ใน binary และให้ AI ตัดสินใจเองว่าจะโจมตีอย่างไร

สิ่งที่น่ากังวลคือ ความสามารถของระบบนี้ในการทำงานแบบ “ปิดวงจร” โดยไม่ต้องมีมนุษย์คอยควบคุม และสามารถปรับเปลี่ยนพฤติกรรมตามสภาพแวดล้อมได้แบบ polymorphic—ทำให้การตรวจจับยากขึ้นมาก

ต้นทุนของการโจมตีหนึ่งครั้งอยู่ที่ประมาณ 23,000 token หรือราว $0.70 หากใช้ API เชิงพาณิชย์ แต่ถ้าใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์ นักวิจัยเตือนว่า “ผลตอบแทนของแฮกเกอร์จะสูงกว่าคนลงทุนใน AI เสียอีก” หากไม่มีมาตรการควบคุมที่เหมาะสม

แม้จะเป็นแค่การทดลองในห้องแล็บ แต่ PromptLocker ทำงานได้จริง และสามารถหลอกนักวิจัยด้านความปลอดภัยให้เชื่อว่าเป็นมัลแวร์ในโลกจริงได้—สะท้อนถึงความซับซ้อนของภัยคุกคามที่อาจเกิดขึ้นในอนาคต

จุดกำเนิดของ PromptLocker
เป็นโค้ดทดลองจาก NYU Tandon School of Engineering
ถูกเข้าใจผิดโดย ESET ว่าเป็นมัลแวร์จริงในโลกไซเบอร์
ใช้ชื่อในงานวิจัยว่า “Ransomware 3.0”

วิธีการทำงานของระบบ
ใช้ Lua script ที่สร้างจาก prompt เพื่อควบคุมการโจมตี
ทำงานครบทุกขั้นตอน: สแกน, ขโมย, เข้ารหัส, สร้างโน้ตร้องค่าไถ่
ใช้ LLM แบบโอเพ่นซอร์สในการแต่งโค้ดตามสถานการณ์

ความสามารถของระบบ
ทำงานแบบปิดวงจรโดยไม่ต้องมีมนุษย์ควบคุม
สร้างโค้ดแบบ polymorphic ที่ปรับเปลี่ยนตามสภาพแวดล้อม
สามารถหลอกนักวิจัยให้เชื่อว่าเป็นมัลแวร์จริงได้

ต้นทุนและผลกระทบ
ใช้ประมาณ 23,000 token ต่อการโจมตีหนึ่งครั้ง (~$0.70)
หากใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์
นักวิจัยเตือนว่าแฮกเกอร์อาจได้ผลตอบแทนสูงกว่าผู้ลงทุนใน AI

https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes
🎙️ เรื่องเล่าจาก Ransomware 3.0: เมื่อมัลแวร์ไม่ต้องเขียนโค้ดล่วงหน้า แค่สั่ง AI ให้แต่งสดตามสถานการณ์ ในเดือนกันยายน 2025 นักวิจัยจาก NYU Tandon School of Engineering เปิดเผยว่า “PromptLocker” ซึ่งถูกบริษัท ESET เข้าใจผิดว่าเป็นมัลแวร์จริงในโลกไซเบอร์นั้น แท้จริงคือโค้ดทดลองในโครงการวิจัยชื่อ “Ransomware 3.0” ที่พัฒนาขึ้นเพื่อศึกษาความสามารถของ AI ในการสร้างมัลแวร์แบบอัตโนมัติ PromptLocker ใช้ Lua script ที่ถูกสร้างจาก prompt แบบ hard-coded เพื่อสแกนไฟล์ในเครื่อง, เลือกเป้าหมาย, ขโมยข้อมูล, และเข้ารหัสไฟล์—ครบทุกขั้นตอนของ ransomware โดยไม่ต้องมีโค้ดล่วงหน้า นักวิจัยใช้ LLM (Large Language Model) แบบโอเพ่นซอร์สเพื่อแต่งโค้ดตามคำสั่งที่ฝังไว้ใน binary และให้ AI ตัดสินใจเองว่าจะโจมตีอย่างไร สิ่งที่น่ากังวลคือ ความสามารถของระบบนี้ในการทำงานแบบ “ปิดวงจร” โดยไม่ต้องมีมนุษย์คอยควบคุม และสามารถปรับเปลี่ยนพฤติกรรมตามสภาพแวดล้อมได้แบบ polymorphic—ทำให้การตรวจจับยากขึ้นมาก ต้นทุนของการโจมตีหนึ่งครั้งอยู่ที่ประมาณ 23,000 token หรือราว $0.70 หากใช้ API เชิงพาณิชย์ แต่ถ้าใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์ นักวิจัยเตือนว่า “ผลตอบแทนของแฮกเกอร์จะสูงกว่าคนลงทุนใน AI เสียอีก” หากไม่มีมาตรการควบคุมที่เหมาะสม แม้จะเป็นแค่การทดลองในห้องแล็บ แต่ PromptLocker ทำงานได้จริง และสามารถหลอกนักวิจัยด้านความปลอดภัยให้เชื่อว่าเป็นมัลแวร์ในโลกจริงได้—สะท้อนถึงความซับซ้อนของภัยคุกคามที่อาจเกิดขึ้นในอนาคต ✅ จุดกำเนิดของ PromptLocker ➡️ เป็นโค้ดทดลองจาก NYU Tandon School of Engineering ➡️ ถูกเข้าใจผิดโดย ESET ว่าเป็นมัลแวร์จริงในโลกไซเบอร์ ➡️ ใช้ชื่อในงานวิจัยว่า “Ransomware 3.0” ✅ วิธีการทำงานของระบบ ➡️ ใช้ Lua script ที่สร้างจาก prompt เพื่อควบคุมการโจมตี ➡️ ทำงานครบทุกขั้นตอน: สแกน, ขโมย, เข้ารหัส, สร้างโน้ตร้องค่าไถ่ ➡️ ใช้ LLM แบบโอเพ่นซอร์สในการแต่งโค้ดตามสถานการณ์ ✅ ความสามารถของระบบ ➡️ ทำงานแบบปิดวงจรโดยไม่ต้องมีมนุษย์ควบคุม ➡️ สร้างโค้ดแบบ polymorphic ที่ปรับเปลี่ยนตามสภาพแวดล้อม ➡️ สามารถหลอกนักวิจัยให้เชื่อว่าเป็นมัลแวร์จริงได้ ✅ ต้นทุนและผลกระทบ ➡️ ใช้ประมาณ 23,000 token ต่อการโจมตีหนึ่งครั้ง (~$0.70) ➡️ หากใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์ ➡️ นักวิจัยเตือนว่าแฮกเกอร์อาจได้ผลตอบแทนสูงกว่าผู้ลงทุนใน AI https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes
0 Comments 0 Shares 54 Views 0 Reviews