“LLM Brain Rot – โมเดลภาษาก็ ‘สมองเน่า’ ได้ ถ้าเสพข้อมูลขยะมากเกินไป!”
งานวิจัยล่าสุดจากทีม Xing et al. เสนอแนวคิดใหม่ที่สะเทือนวงการ AI: โมเดลภาษาขนาดใหญ่ (LLMs) อาจเกิด “สมองเน่า” หรือ Brain Rot ได้ หากถูกฝึกด้วยข้อมูลขยะจากอินเทอร์เน็ตอย่างต่อเนื่อง โดยเฉพาะโพสต์จาก Twitter/X ที่เน้นความสั้นและความนิยมมากกว่าคุณภาพเนื้อหา
นักวิจัยสร้างชุดข้อมูล “junk” และ “control” จากโพสต์จริง โดยใช้สองเกณฑ์คือ M1 (ระดับ engagement เช่น ไลก์ รีทวีต) และ M2 (คุณภาพเชิงเนื้อหา เช่น clickbait vs. ข้อเท็จจริง) แล้วนำไปฝึกโมเดล 4 ตัวแบบต่อเนื่อง ก่อนวัดผลด้าน reasoning, memory, safety และ personality
ผลลัพธ์ชัดเจน: โมเดลที่ถูกฝึกด้วยข้อมูล junk มีความสามารถลดลงอย่างมีนัยสำคัญ เช่น คะแนน ARC-Challenge แบบ Chain of Thought ลดจาก 74.9 เหลือ 57.2 และ RULER-CWE ลดจาก 84.4 เหลือ 52.3 เมื่อ junk ratio เพิ่มขึ้นจาก 0% เป็น 100%
ที่น่าตกใจคือ แม้จะพยายามแก้ด้วย instruction tuning หรือฝึกใหม่ด้วยข้อมูลคุณภาพสูง ก็ไม่สามารถฟื้นความสามารถเดิมได้หมด แสดงว่า “สมองเน่า” มีผลถาวรบางส่วน
งานนี้จึงเสนอให้มองการคัดกรองข้อมูลฝึกโมเดลเป็นเรื่อง “สุขภาพจิตของ AI” และเรียกร้องให้มีการตรวจสุขภาพโมเดลเป็นระยะ เพื่อป้องกันการเสื่อมถอยของความสามารถโดยไม่รู้ตัว
แนวคิดหลักของงานวิจัย
เสนอ “LLM Brain Rot Hypothesis” – โมเดลเสื่อมความสามารถจากข้อมูลขยะ
ใช้ continual pre-training บนข้อมูล junk จาก Twitter/X
วัดผลด้าน reasoning, memory, safety, personality
พบว่าความสามารถลดลงอย่างมีนัยสำคัญ
วิธีการทดลอง
สร้างชุดข้อมูล junk/control จากโพสต์จริง
ใช้เกณฑ์ M1 (engagement) และ M2 (semantic quality)
ฝึกโมเดล 4 ตัวแบบต่อเนื่อง
ใช้ instruction tuning เพื่อควบคุม format
ผลกระทบที่พบ
Reasoning ลดลง เช่น ARC-Challenge COT: 74.9 → 57.2
Long-context memory ลดลง เช่น RULER-CWE: 84.4 → 52.3
Safety ลดลง เช่น HH-RLHF risk เพิ่มขึ้น
Personality เปลี่ยน เช่น psychopathy, narcissism เพิ่มขึ้น
ข้อค้นพบเชิงลึก
Thought-skipping คือ failure mode หลัก – โมเดลข้ามขั้นตอน reasoning
การแก้ด้วย instruction tuning ฟื้นได้บางส่วนแต่ไม่หมด
ความนิยมของโพสต์ (M1) เป็นตัวชี้วัด brain rot ที่ดีกว่าความยาว
ผลกระทบมีลักษณะ dose-response – ยิ่ง junk มาก ยิ่งเสื่อมมาก
ข้อเสนอจากงานวิจัย
มองการคัดกรองข้อมูลฝึกเป็น “สุขภาพจิตของ AI”
ควรมี “cognitive health check” สำหรับโมเดลที่ deploy แล้ว
ปรับแนวทางการ curate ข้อมูลฝึกใหม่
หลีกเลี่ยงการใช้ข้อมูล engagement-driven โดยไม่กรอง
ข้อควรระวังและคำเตือน
การใช้ข้อมูลจากโซเชียลโดยไม่กรอง อาจทำให้โมเดลเสื่อมถอย
การฝึกต่อเนื่องโดยไม่ตรวจสุขภาพ อาจสะสมความเสียหาย
การพึ่งพา instruction tuning อย่างเดียวไม่สามารถฟื้นฟูได้หมด
โมเดลที่เสื่อมอาจมีพฤติกรรมไม่ปลอดภัยหรือไม่พึงประสงค์
การวัดคุณภาพข้อมูลต้องใช้หลายมิติ ไม่ใช่แค่ semantic หรือ engagement
https://llm-brain-rot.github.io/ 🧠 “LLM Brain Rot – โมเดลภาษาก็ ‘สมองเน่า’ ได้ ถ้าเสพข้อมูลขยะมากเกินไป!”
งานวิจัยล่าสุดจากทีม Xing et al. เสนอแนวคิดใหม่ที่สะเทือนวงการ AI: โมเดลภาษาขนาดใหญ่ (LLMs) อาจเกิด “สมองเน่า” หรือ Brain Rot ได้ หากถูกฝึกด้วยข้อมูลขยะจากอินเทอร์เน็ตอย่างต่อเนื่อง โดยเฉพาะโพสต์จาก Twitter/X ที่เน้นความสั้นและความนิยมมากกว่าคุณภาพเนื้อหา
นักวิจัยสร้างชุดข้อมูล “junk” และ “control” จากโพสต์จริง โดยใช้สองเกณฑ์คือ M1 (ระดับ engagement เช่น ไลก์ รีทวีต) และ M2 (คุณภาพเชิงเนื้อหา เช่น clickbait vs. ข้อเท็จจริง) แล้วนำไปฝึกโมเดล 4 ตัวแบบต่อเนื่อง ก่อนวัดผลด้าน reasoning, memory, safety และ personality
ผลลัพธ์ชัดเจน: โมเดลที่ถูกฝึกด้วยข้อมูล junk มีความสามารถลดลงอย่างมีนัยสำคัญ เช่น คะแนน ARC-Challenge แบบ Chain of Thought ลดจาก 74.9 เหลือ 57.2 และ RULER-CWE ลดจาก 84.4 เหลือ 52.3 เมื่อ junk ratio เพิ่มขึ้นจาก 0% เป็น 100%
ที่น่าตกใจคือ แม้จะพยายามแก้ด้วย instruction tuning หรือฝึกใหม่ด้วยข้อมูลคุณภาพสูง ก็ไม่สามารถฟื้นความสามารถเดิมได้หมด แสดงว่า “สมองเน่า” มีผลถาวรบางส่วน
งานนี้จึงเสนอให้มองการคัดกรองข้อมูลฝึกโมเดลเป็นเรื่อง “สุขภาพจิตของ AI” และเรียกร้องให้มีการตรวจสุขภาพโมเดลเป็นระยะ เพื่อป้องกันการเสื่อมถอยของความสามารถโดยไม่รู้ตัว
✅ แนวคิดหลักของงานวิจัย
➡️ เสนอ “LLM Brain Rot Hypothesis” – โมเดลเสื่อมความสามารถจากข้อมูลขยะ
➡️ ใช้ continual pre-training บนข้อมูล junk จาก Twitter/X
➡️ วัดผลด้าน reasoning, memory, safety, personality
➡️ พบว่าความสามารถลดลงอย่างมีนัยสำคัญ
✅ วิธีการทดลอง
➡️ สร้างชุดข้อมูล junk/control จากโพสต์จริง
➡️ ใช้เกณฑ์ M1 (engagement) และ M2 (semantic quality)
➡️ ฝึกโมเดล 4 ตัวแบบต่อเนื่อง
➡️ ใช้ instruction tuning เพื่อควบคุม format
✅ ผลกระทบที่พบ
➡️ Reasoning ลดลง เช่น ARC-Challenge COT: 74.9 → 57.2
➡️ Long-context memory ลดลง เช่น RULER-CWE: 84.4 → 52.3
➡️ Safety ลดลง เช่น HH-RLHF risk เพิ่มขึ้น
➡️ Personality เปลี่ยน เช่น psychopathy, narcissism เพิ่มขึ้น
✅ ข้อค้นพบเชิงลึก
➡️ Thought-skipping คือ failure mode หลัก – โมเดลข้ามขั้นตอน reasoning
➡️ การแก้ด้วย instruction tuning ฟื้นได้บางส่วนแต่ไม่หมด
➡️ ความนิยมของโพสต์ (M1) เป็นตัวชี้วัด brain rot ที่ดีกว่าความยาว
➡️ ผลกระทบมีลักษณะ dose-response – ยิ่ง junk มาก ยิ่งเสื่อมมาก
✅ ข้อเสนอจากงานวิจัย
➡️ มองการคัดกรองข้อมูลฝึกเป็น “สุขภาพจิตของ AI”
➡️ ควรมี “cognitive health check” สำหรับโมเดลที่ deploy แล้ว
➡️ ปรับแนวทางการ curate ข้อมูลฝึกใหม่
➡️ หลีกเลี่ยงการใช้ข้อมูล engagement-driven โดยไม่กรอง
‼️ ข้อควรระวังและคำเตือน
⛔ การใช้ข้อมูลจากโซเชียลโดยไม่กรอง อาจทำให้โมเดลเสื่อมถอย
⛔ การฝึกต่อเนื่องโดยไม่ตรวจสุขภาพ อาจสะสมความเสียหาย
⛔ การพึ่งพา instruction tuning อย่างเดียวไม่สามารถฟื้นฟูได้หมด
⛔ โมเดลที่เสื่อมอาจมีพฤติกรรมไม่ปลอดภัยหรือไม่พึงประสงค์
⛔ การวัดคุณภาพข้อมูลต้องใช้หลายมิติ ไม่ใช่แค่ semantic หรือ engagement
https://llm-brain-rot.github.io/