Anthropic เปิดเบื้องหลัง 3 บั๊กใหญ่ที่ทำให้ Claude ตอบผิดเพี้ยน — เมื่อ AI ไม่ได้ “เนิร์ฟ” แต่โครงสร้างพื้นฐานพัง

ระหว่างเดือนสิงหาคมถึงต้นกันยายน 2025 ผู้ใช้ Claude หลายคนเริ่มสังเกตว่าคุณภาพการตอบกลับของโมเดลลดลงอย่างผิดปกติ บางคนได้รับคำตอบที่แปลกประหลาด เช่นมีตัวอักษรไทยโผล่กลางข้อความภาษาอังกฤษ หรือโค้ดที่ผิดไวยากรณ์อย่างชัดเจน จนเกิดข้อสงสัยว่า Anthropic กำลัง “ลดคุณภาพ” ของโมเดลเพื่อจัดการกับโหลดหรือควบคุมต้นทุน

แต่ล่าสุด Anthropic ได้ออกมาเปิดเผยอย่างตรงไปตรงมาว่า ปัญหาทั้งหมดเกิดจาก “บั๊กในโครงสร้างพื้นฐาน” ไม่ใช่การลดคุณภาพโดยเจตนา โดยมีทั้งหมด 3 บั๊กที่เกิดขึ้นพร้อมกันและส่งผลกระทบต่อโมเดล Claude หลายรุ่น ได้แก่ Sonnet 4, Opus 4.1, Haiku 3.5 และ Opus 3

บั๊กแรกคือการ “ส่งคำขอผิดเซิร์ฟเวอร์” โดยคำขอที่ควรใช้ context window แบบสั้น กลับถูกส่งไปยังเซิร์ฟเวอร์ที่เตรียมไว้สำหรับ context window ขนาด 1 ล้านโทเคน ซึ่งยังไม่พร้อมใช้งาน ทำให้การตอบกลับผิดเพี้ยนและช้า โดยเฉพาะในช่วงปลายเดือนสิงหาคมที่มีการเปลี่ยนแปลงระบบ load balancing ทำให้คำขอผิดพลาดเพิ่มขึ้นถึง 16%

บั๊กที่สองคือ “การสร้างโทเคนผิดพลาด” บนเซิร์ฟเวอร์ TPU ซึ่งเกิดจากการปรับแต่งประสิทธิภาพที่ทำให้โมเดลเลือกโทเคนที่ไม่ควรปรากฏ เช่น ตัวอักษรจีนหรือไทยในคำตอบภาษาอังกฤษ หรือโค้ดที่มี syntax ผิดอย่างชัดเจน

บั๊กสุดท้ายคือ “การคอมไพล์ผิดพลาดใน XLA:TPU” ซึ่งเกิดจากการใช้การคำนวณแบบ approximate top-k ที่ควรช่วยเพิ่มประสิทธิภาพ แต่กลับทำให้โมเดลเลือกโทเคนผิด โดยเฉพาะเมื่อใช้ precision ที่ไม่ตรงกันระหว่าง bf16 และ fp32 ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออกไปโดยไม่ตั้งใจ

Anthropic ได้แก้ไขบั๊กทั้งหมดแล้ว และประกาศแผนปรับปรุงระบบตรวจสอบคุณภาพให้ละเอียดขึ้น รวมถึงพัฒนาเครื่องมือ debug ที่ไม่ละเมิดความเป็นส่วนตัวของผู้ใช้ พร้อมขอความร่วมมือจากผู้ใช้ให้ส่ง feedback เมื่อพบปัญหา เพื่อช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น

Claude ตอบผิดเพี้ยนจาก 3 บั๊กในโครงสร้างพื้นฐาน
ไม่ใช่การลดคุณภาพโดยเจตนา
ส่งผลกระทบต่อหลายรุ่น เช่น Sonnet 4, Opus 4.1, Haiku 3.5

บั๊กที่ 1: Context window routing error
คำขอถูกส่งไปยังเซิร์ฟเวอร์ที่ใช้ context window 1M โดยผิดพลาด
ส่งผลให้คำตอบผิดเพี้ยน โดยเฉพาะช่วงปลายเดือนสิงหาคม

บั๊กที่ 2: Output corruption บน TPU
โทเคนที่ไม่ควรปรากฏถูกเลือก เช่น “สวัสดี” ในคำตอบภาษาอังกฤษ
เกิดจากการปรับแต่งประสิทธิภาพที่ผิดพลาด

บั๊กที่ 3: XLA:TPU miscompilation
การใช้ approximate top-k ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออก
เกิดจาก precision mismatch ระหว่าง bf16 และ fp32

Anthropic แก้ไขบั๊กทั้งหมดแล้ว
ปรับ routing logic / rollback การเปลี่ยนแปลง / ใช้ exact top-k แทน
เพิ่มการตรวจสอบคุณภาพและเครื่องมือ debug ใหม่

ผู้ใช้สามารถช่วยแจ้งปัญหาได้โดยใช้ /bug หรือปุ่ม thumbs down
Feedback จากผู้ใช้ช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น
Anthropic ยืนยันความโปร่งใสและขอบคุณชุมชนที่ช่วยเหลือ

https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues
📰 Anthropic เปิดเบื้องหลัง 3 บั๊กใหญ่ที่ทำให้ Claude ตอบผิดเพี้ยน — เมื่อ AI ไม่ได้ “เนิร์ฟ” แต่โครงสร้างพื้นฐานพัง ระหว่างเดือนสิงหาคมถึงต้นกันยายน 2025 ผู้ใช้ Claude หลายคนเริ่มสังเกตว่าคุณภาพการตอบกลับของโมเดลลดลงอย่างผิดปกติ บางคนได้รับคำตอบที่แปลกประหลาด เช่นมีตัวอักษรไทยโผล่กลางข้อความภาษาอังกฤษ หรือโค้ดที่ผิดไวยากรณ์อย่างชัดเจน จนเกิดข้อสงสัยว่า Anthropic กำลัง “ลดคุณภาพ” ของโมเดลเพื่อจัดการกับโหลดหรือควบคุมต้นทุน แต่ล่าสุด Anthropic ได้ออกมาเปิดเผยอย่างตรงไปตรงมาว่า ปัญหาทั้งหมดเกิดจาก “บั๊กในโครงสร้างพื้นฐาน” ไม่ใช่การลดคุณภาพโดยเจตนา โดยมีทั้งหมด 3 บั๊กที่เกิดขึ้นพร้อมกันและส่งผลกระทบต่อโมเดล Claude หลายรุ่น ได้แก่ Sonnet 4, Opus 4.1, Haiku 3.5 และ Opus 3 บั๊กแรกคือการ “ส่งคำขอผิดเซิร์ฟเวอร์” โดยคำขอที่ควรใช้ context window แบบสั้น กลับถูกส่งไปยังเซิร์ฟเวอร์ที่เตรียมไว้สำหรับ context window ขนาด 1 ล้านโทเคน ซึ่งยังไม่พร้อมใช้งาน ทำให้การตอบกลับผิดเพี้ยนและช้า โดยเฉพาะในช่วงปลายเดือนสิงหาคมที่มีการเปลี่ยนแปลงระบบ load balancing ทำให้คำขอผิดพลาดเพิ่มขึ้นถึง 16% บั๊กที่สองคือ “การสร้างโทเคนผิดพลาด” บนเซิร์ฟเวอร์ TPU ซึ่งเกิดจากการปรับแต่งประสิทธิภาพที่ทำให้โมเดลเลือกโทเคนที่ไม่ควรปรากฏ เช่น ตัวอักษรจีนหรือไทยในคำตอบภาษาอังกฤษ หรือโค้ดที่มี syntax ผิดอย่างชัดเจน บั๊กสุดท้ายคือ “การคอมไพล์ผิดพลาดใน XLA:TPU” ซึ่งเกิดจากการใช้การคำนวณแบบ approximate top-k ที่ควรช่วยเพิ่มประสิทธิภาพ แต่กลับทำให้โมเดลเลือกโทเคนผิด โดยเฉพาะเมื่อใช้ precision ที่ไม่ตรงกันระหว่าง bf16 และ fp32 ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออกไปโดยไม่ตั้งใจ Anthropic ได้แก้ไขบั๊กทั้งหมดแล้ว และประกาศแผนปรับปรุงระบบตรวจสอบคุณภาพให้ละเอียดขึ้น รวมถึงพัฒนาเครื่องมือ debug ที่ไม่ละเมิดความเป็นส่วนตัวของผู้ใช้ พร้อมขอความร่วมมือจากผู้ใช้ให้ส่ง feedback เมื่อพบปัญหา เพื่อช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น ✅ Claude ตอบผิดเพี้ยนจาก 3 บั๊กในโครงสร้างพื้นฐาน ➡️ ไม่ใช่การลดคุณภาพโดยเจตนา ➡️ ส่งผลกระทบต่อหลายรุ่น เช่น Sonnet 4, Opus 4.1, Haiku 3.5 ✅ บั๊กที่ 1: Context window routing error ➡️ คำขอถูกส่งไปยังเซิร์ฟเวอร์ที่ใช้ context window 1M โดยผิดพลาด ➡️ ส่งผลให้คำตอบผิดเพี้ยน โดยเฉพาะช่วงปลายเดือนสิงหาคม ✅ บั๊กที่ 2: Output corruption บน TPU ➡️ โทเคนที่ไม่ควรปรากฏถูกเลือก เช่น “สวัสดี” ในคำตอบภาษาอังกฤษ ➡️ เกิดจากการปรับแต่งประสิทธิภาพที่ผิดพลาด ✅ บั๊กที่ 3: XLA:TPU miscompilation ➡️ การใช้ approximate top-k ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออก ➡️ เกิดจาก precision mismatch ระหว่าง bf16 และ fp32 ✅ Anthropic แก้ไขบั๊กทั้งหมดแล้ว ➡️ ปรับ routing logic / rollback การเปลี่ยนแปลง / ใช้ exact top-k แทน ➡️ เพิ่มการตรวจสอบคุณภาพและเครื่องมือ debug ใหม่ ✅ ผู้ใช้สามารถช่วยแจ้งปัญหาได้โดยใช้ /bug หรือปุ่ม thumbs down ➡️ Feedback จากผู้ใช้ช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น ➡️ Anthropic ยืนยันความโปร่งใสและขอบคุณชุมชนที่ช่วยเหลือ https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues
WWW.ANTHROPIC.COM
A postmortem of three recent issues
This is a technical report on three bugs that intermittently degraded responses from Claude. Below we explain what happened, why it took time to fix, and what we're changing.
0 ความคิดเห็น 0 การแบ่งปัน 24 มุมมอง 0 รีวิว