Anthropic เปิดเบื้องหลัง 3 บั๊กใหญ่ที่ทำให้ Claude ตอบผิดเพี้ยน — เมื่อ AI ไม่ได้ “เนิร์ฟ” แต่โครงสร้างพื้นฐานพัง
ระหว่างเดือนสิงหาคมถึงต้นกันยายน 2025 ผู้ใช้ Claude หลายคนเริ่มสังเกตว่าคุณภาพการตอบกลับของโมเดลลดลงอย่างผิดปกติ บางคนได้รับคำตอบที่แปลกประหลาด เช่นมีตัวอักษรไทยโผล่กลางข้อความภาษาอังกฤษ หรือโค้ดที่ผิดไวยากรณ์อย่างชัดเจน จนเกิดข้อสงสัยว่า Anthropic กำลัง “ลดคุณภาพ” ของโมเดลเพื่อจัดการกับโหลดหรือควบคุมต้นทุน
แต่ล่าสุด Anthropic ได้ออกมาเปิดเผยอย่างตรงไปตรงมาว่า ปัญหาทั้งหมดเกิดจาก “บั๊กในโครงสร้างพื้นฐาน” ไม่ใช่การลดคุณภาพโดยเจตนา โดยมีทั้งหมด 3 บั๊กที่เกิดขึ้นพร้อมกันและส่งผลกระทบต่อโมเดล Claude หลายรุ่น ได้แก่ Sonnet 4, Opus 4.1, Haiku 3.5 และ Opus 3
บั๊กแรกคือการ “ส่งคำขอผิดเซิร์ฟเวอร์” โดยคำขอที่ควรใช้ context window แบบสั้น กลับถูกส่งไปยังเซิร์ฟเวอร์ที่เตรียมไว้สำหรับ context window ขนาด 1 ล้านโทเคน ซึ่งยังไม่พร้อมใช้งาน ทำให้การตอบกลับผิดเพี้ยนและช้า โดยเฉพาะในช่วงปลายเดือนสิงหาคมที่มีการเปลี่ยนแปลงระบบ load balancing ทำให้คำขอผิดพลาดเพิ่มขึ้นถึง 16%
บั๊กที่สองคือ “การสร้างโทเคนผิดพลาด” บนเซิร์ฟเวอร์ TPU ซึ่งเกิดจากการปรับแต่งประสิทธิภาพที่ทำให้โมเดลเลือกโทเคนที่ไม่ควรปรากฏ เช่น ตัวอักษรจีนหรือไทยในคำตอบภาษาอังกฤษ หรือโค้ดที่มี syntax ผิดอย่างชัดเจน
บั๊กสุดท้ายคือ “การคอมไพล์ผิดพลาดใน XLA:TPU” ซึ่งเกิดจากการใช้การคำนวณแบบ approximate top-k ที่ควรช่วยเพิ่มประสิทธิภาพ แต่กลับทำให้โมเดลเลือกโทเคนผิด โดยเฉพาะเมื่อใช้ precision ที่ไม่ตรงกันระหว่าง bf16 และ fp32 ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออกไปโดยไม่ตั้งใจ
Anthropic ได้แก้ไขบั๊กทั้งหมดแล้ว และประกาศแผนปรับปรุงระบบตรวจสอบคุณภาพให้ละเอียดขึ้น รวมถึงพัฒนาเครื่องมือ debug ที่ไม่ละเมิดความเป็นส่วนตัวของผู้ใช้ พร้อมขอความร่วมมือจากผู้ใช้ให้ส่ง feedback เมื่อพบปัญหา เพื่อช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น
Claude ตอบผิดเพี้ยนจาก 3 บั๊กในโครงสร้างพื้นฐาน
ไม่ใช่การลดคุณภาพโดยเจตนา
ส่งผลกระทบต่อหลายรุ่น เช่น Sonnet 4, Opus 4.1, Haiku 3.5
บั๊กที่ 1: Context window routing error
คำขอถูกส่งไปยังเซิร์ฟเวอร์ที่ใช้ context window 1M โดยผิดพลาด
ส่งผลให้คำตอบผิดเพี้ยน โดยเฉพาะช่วงปลายเดือนสิงหาคม
บั๊กที่ 2: Output corruption บน TPU
โทเคนที่ไม่ควรปรากฏถูกเลือก เช่น “สวัสดี” ในคำตอบภาษาอังกฤษ
เกิดจากการปรับแต่งประสิทธิภาพที่ผิดพลาด
บั๊กที่ 3: XLA:TPU miscompilation
การใช้ approximate top-k ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออก
เกิดจาก precision mismatch ระหว่าง bf16 และ fp32
Anthropic แก้ไขบั๊กทั้งหมดแล้ว
ปรับ routing logic / rollback การเปลี่ยนแปลง / ใช้ exact top-k แทน
เพิ่มการตรวจสอบคุณภาพและเครื่องมือ debug ใหม่
ผู้ใช้สามารถช่วยแจ้งปัญหาได้โดยใช้ /bug หรือปุ่ม thumbs down
Feedback จากผู้ใช้ช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น
Anthropic ยืนยันความโปร่งใสและขอบคุณชุมชนที่ช่วยเหลือ
https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues
ระหว่างเดือนสิงหาคมถึงต้นกันยายน 2025 ผู้ใช้ Claude หลายคนเริ่มสังเกตว่าคุณภาพการตอบกลับของโมเดลลดลงอย่างผิดปกติ บางคนได้รับคำตอบที่แปลกประหลาด เช่นมีตัวอักษรไทยโผล่กลางข้อความภาษาอังกฤษ หรือโค้ดที่ผิดไวยากรณ์อย่างชัดเจน จนเกิดข้อสงสัยว่า Anthropic กำลัง “ลดคุณภาพ” ของโมเดลเพื่อจัดการกับโหลดหรือควบคุมต้นทุน
แต่ล่าสุด Anthropic ได้ออกมาเปิดเผยอย่างตรงไปตรงมาว่า ปัญหาทั้งหมดเกิดจาก “บั๊กในโครงสร้างพื้นฐาน” ไม่ใช่การลดคุณภาพโดยเจตนา โดยมีทั้งหมด 3 บั๊กที่เกิดขึ้นพร้อมกันและส่งผลกระทบต่อโมเดล Claude หลายรุ่น ได้แก่ Sonnet 4, Opus 4.1, Haiku 3.5 และ Opus 3
บั๊กแรกคือการ “ส่งคำขอผิดเซิร์ฟเวอร์” โดยคำขอที่ควรใช้ context window แบบสั้น กลับถูกส่งไปยังเซิร์ฟเวอร์ที่เตรียมไว้สำหรับ context window ขนาด 1 ล้านโทเคน ซึ่งยังไม่พร้อมใช้งาน ทำให้การตอบกลับผิดเพี้ยนและช้า โดยเฉพาะในช่วงปลายเดือนสิงหาคมที่มีการเปลี่ยนแปลงระบบ load balancing ทำให้คำขอผิดพลาดเพิ่มขึ้นถึง 16%
บั๊กที่สองคือ “การสร้างโทเคนผิดพลาด” บนเซิร์ฟเวอร์ TPU ซึ่งเกิดจากการปรับแต่งประสิทธิภาพที่ทำให้โมเดลเลือกโทเคนที่ไม่ควรปรากฏ เช่น ตัวอักษรจีนหรือไทยในคำตอบภาษาอังกฤษ หรือโค้ดที่มี syntax ผิดอย่างชัดเจน
บั๊กสุดท้ายคือ “การคอมไพล์ผิดพลาดใน XLA:TPU” ซึ่งเกิดจากการใช้การคำนวณแบบ approximate top-k ที่ควรช่วยเพิ่มประสิทธิภาพ แต่กลับทำให้โมเดลเลือกโทเคนผิด โดยเฉพาะเมื่อใช้ precision ที่ไม่ตรงกันระหว่าง bf16 และ fp32 ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออกไปโดยไม่ตั้งใจ
Anthropic ได้แก้ไขบั๊กทั้งหมดแล้ว และประกาศแผนปรับปรุงระบบตรวจสอบคุณภาพให้ละเอียดขึ้น รวมถึงพัฒนาเครื่องมือ debug ที่ไม่ละเมิดความเป็นส่วนตัวของผู้ใช้ พร้อมขอความร่วมมือจากผู้ใช้ให้ส่ง feedback เมื่อพบปัญหา เพื่อช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น
Claude ตอบผิดเพี้ยนจาก 3 บั๊กในโครงสร้างพื้นฐาน
ไม่ใช่การลดคุณภาพโดยเจตนา
ส่งผลกระทบต่อหลายรุ่น เช่น Sonnet 4, Opus 4.1, Haiku 3.5
บั๊กที่ 1: Context window routing error
คำขอถูกส่งไปยังเซิร์ฟเวอร์ที่ใช้ context window 1M โดยผิดพลาด
ส่งผลให้คำตอบผิดเพี้ยน โดยเฉพาะช่วงปลายเดือนสิงหาคม
บั๊กที่ 2: Output corruption บน TPU
โทเคนที่ไม่ควรปรากฏถูกเลือก เช่น “สวัสดี” ในคำตอบภาษาอังกฤษ
เกิดจากการปรับแต่งประสิทธิภาพที่ผิดพลาด
บั๊กที่ 3: XLA:TPU miscompilation
การใช้ approximate top-k ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออก
เกิดจาก precision mismatch ระหว่าง bf16 และ fp32
Anthropic แก้ไขบั๊กทั้งหมดแล้ว
ปรับ routing logic / rollback การเปลี่ยนแปลง / ใช้ exact top-k แทน
เพิ่มการตรวจสอบคุณภาพและเครื่องมือ debug ใหม่
ผู้ใช้สามารถช่วยแจ้งปัญหาได้โดยใช้ /bug หรือปุ่ม thumbs down
Feedback จากผู้ใช้ช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น
Anthropic ยืนยันความโปร่งใสและขอบคุณชุมชนที่ช่วยเหลือ
https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues
📰 Anthropic เปิดเบื้องหลัง 3 บั๊กใหญ่ที่ทำให้ Claude ตอบผิดเพี้ยน — เมื่อ AI ไม่ได้ “เนิร์ฟ” แต่โครงสร้างพื้นฐานพัง
ระหว่างเดือนสิงหาคมถึงต้นกันยายน 2025 ผู้ใช้ Claude หลายคนเริ่มสังเกตว่าคุณภาพการตอบกลับของโมเดลลดลงอย่างผิดปกติ บางคนได้รับคำตอบที่แปลกประหลาด เช่นมีตัวอักษรไทยโผล่กลางข้อความภาษาอังกฤษ หรือโค้ดที่ผิดไวยากรณ์อย่างชัดเจน จนเกิดข้อสงสัยว่า Anthropic กำลัง “ลดคุณภาพ” ของโมเดลเพื่อจัดการกับโหลดหรือควบคุมต้นทุน
แต่ล่าสุด Anthropic ได้ออกมาเปิดเผยอย่างตรงไปตรงมาว่า ปัญหาทั้งหมดเกิดจาก “บั๊กในโครงสร้างพื้นฐาน” ไม่ใช่การลดคุณภาพโดยเจตนา โดยมีทั้งหมด 3 บั๊กที่เกิดขึ้นพร้อมกันและส่งผลกระทบต่อโมเดล Claude หลายรุ่น ได้แก่ Sonnet 4, Opus 4.1, Haiku 3.5 และ Opus 3
บั๊กแรกคือการ “ส่งคำขอผิดเซิร์ฟเวอร์” โดยคำขอที่ควรใช้ context window แบบสั้น กลับถูกส่งไปยังเซิร์ฟเวอร์ที่เตรียมไว้สำหรับ context window ขนาด 1 ล้านโทเคน ซึ่งยังไม่พร้อมใช้งาน ทำให้การตอบกลับผิดเพี้ยนและช้า โดยเฉพาะในช่วงปลายเดือนสิงหาคมที่มีการเปลี่ยนแปลงระบบ load balancing ทำให้คำขอผิดพลาดเพิ่มขึ้นถึง 16%
บั๊กที่สองคือ “การสร้างโทเคนผิดพลาด” บนเซิร์ฟเวอร์ TPU ซึ่งเกิดจากการปรับแต่งประสิทธิภาพที่ทำให้โมเดลเลือกโทเคนที่ไม่ควรปรากฏ เช่น ตัวอักษรจีนหรือไทยในคำตอบภาษาอังกฤษ หรือโค้ดที่มี syntax ผิดอย่างชัดเจน
บั๊กสุดท้ายคือ “การคอมไพล์ผิดพลาดใน XLA:TPU” ซึ่งเกิดจากการใช้การคำนวณแบบ approximate top-k ที่ควรช่วยเพิ่มประสิทธิภาพ แต่กลับทำให้โมเดลเลือกโทเคนผิด โดยเฉพาะเมื่อใช้ precision ที่ไม่ตรงกันระหว่าง bf16 และ fp32 ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออกไปโดยไม่ตั้งใจ
Anthropic ได้แก้ไขบั๊กทั้งหมดแล้ว และประกาศแผนปรับปรุงระบบตรวจสอบคุณภาพให้ละเอียดขึ้น รวมถึงพัฒนาเครื่องมือ debug ที่ไม่ละเมิดความเป็นส่วนตัวของผู้ใช้ พร้อมขอความร่วมมือจากผู้ใช้ให้ส่ง feedback เมื่อพบปัญหา เพื่อช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น
✅ Claude ตอบผิดเพี้ยนจาก 3 บั๊กในโครงสร้างพื้นฐาน
➡️ ไม่ใช่การลดคุณภาพโดยเจตนา
➡️ ส่งผลกระทบต่อหลายรุ่น เช่น Sonnet 4, Opus 4.1, Haiku 3.5
✅ บั๊กที่ 1: Context window routing error
➡️ คำขอถูกส่งไปยังเซิร์ฟเวอร์ที่ใช้ context window 1M โดยผิดพลาด
➡️ ส่งผลให้คำตอบผิดเพี้ยน โดยเฉพาะช่วงปลายเดือนสิงหาคม
✅ บั๊กที่ 2: Output corruption บน TPU
➡️ โทเคนที่ไม่ควรปรากฏถูกเลือก เช่น “สวัสดี” ในคำตอบภาษาอังกฤษ
➡️ เกิดจากการปรับแต่งประสิทธิภาพที่ผิดพลาด
✅ บั๊กที่ 3: XLA:TPU miscompilation
➡️ การใช้ approximate top-k ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออก
➡️ เกิดจาก precision mismatch ระหว่าง bf16 และ fp32
✅ Anthropic แก้ไขบั๊กทั้งหมดแล้ว
➡️ ปรับ routing logic / rollback การเปลี่ยนแปลง / ใช้ exact top-k แทน
➡️ เพิ่มการตรวจสอบคุณภาพและเครื่องมือ debug ใหม่
✅ ผู้ใช้สามารถช่วยแจ้งปัญหาได้โดยใช้ /bug หรือปุ่ม thumbs down
➡️ Feedback จากผู้ใช้ช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น
➡️ Anthropic ยืนยันความโปร่งใสและขอบคุณชุมชนที่ช่วยเหลือ
https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues
0 ความคิดเห็น
0 การแบ่งปัน
24 มุมมอง
0 รีวิว