เมื่อ AI แนะนำผิด ชีวิตเกือบพัง: กรณีพิษโบรไมด์จากคำแนะนำของ ChatGPT

ชายวัย 60 ปีในนิวยอร์กต้องเข้ารับการรักษาในโรงพยาบาลหลังจากใช้ ChatGPT เพื่อหาทางลดการบริโภคเกลือ โดยเขาต้องการแทนที่ “โซเดียมคลอไรด์” (เกลือทั่วไป) ด้วยสารอื่นที่ “ดูเหมือนจะปลอดภัย” ซึ่ง ChatGPT แนะนำว่า “โซเดียมโบรไมด์” สามารถใช้แทนได้

เขาจึงซื้อโซเดียมโบรไมด์ทางออนไลน์และบริโภคทุกวันเป็นเวลา 3 เดือน ผลที่ตามมาคือเขาเริ่มมีอาการหลอน นอนไม่หลับ เห็นภาพและเสียงที่ไม่มีอยู่จริง และเชื่อว่ามีเพื่อนบ้านพยายามวางยาพิษเขา จนต้องถูกกักตัวในโรงพยาบาลด้วยอาการทางจิต

แพทย์วินิจฉัยว่าเขาเป็นพิษจากโบรไมด์ (bromism) ซึ่งเคยพบได้บ่อยในช่วงต้นศตวรรษที่ 20 เมื่อโบรไมด์ถูกใช้ในยาระงับประสาทและยานอนหลับ แต่ถูกห้ามใช้ในผลิตภัณฑ์บริโภคตั้งแต่ปี 1975 เพราะมีผลข้างเคียงรุนแรงต่อระบบประสาท

แม้จะไม่มีบันทึกการสนทนากับ ChatGPT แต่ทีมแพทย์ทดลองถามคำถามคล้ายกันกับเวอร์ชัน 3.5 และพบว่า AI แนะนำโบรไมด์โดยไม่มีคำเตือนเรื่องพิษหรือถามเจตนาของผู้ใช้ ซึ่งเป็นจุดอ่อนสำคัญของระบบ AI ที่ขาดบริบทและวิจารณญาณทางการแพทย์

เหตุการณ์และอาการของผู้ป่วย
ผู้ป่วยอายุ 60 ปีต้องการลดการบริโภคเกลือ
ใช้ ChatGPT เพื่อหาสารแทนโซเดียมคลอไรด์
ได้รับคำแนะนำให้ใช้โซเดียมโบรไมด์แทน
บริโภคทุกวันเป็นเวลา 3 เดือนจนเกิดพิษ
มีอาการหลอน นอนไม่หลับ หวาดระแวง และพฤติกรรมทางจิต

การวินิจฉัยและการรักษา
แพทย์วินิจฉัยว่าเป็น bromism หรือพิษจากโบรไมด์
ระดับโบรไมด์ในเลือดสูงถึง 1,700 mg/L (ปกติคือ 0.9–7.3 mg/L)
รักษาด้วยการให้สารน้ำและยาต้านอาการทางจิต
อาการดีขึ้นภายใน 3 สัปดาห์และกลับบ้านได้

จุดอ่อนของ AI ในการให้คำแนะนำด้านสุขภาพ
ChatGPT แนะนำโบรไมด์โดยไม่มีคำเตือนเรื่องพิษ
ไม่ถามเจตนาของผู้ใช้หรือให้บริบททางการแพทย์
ข้อมูลที่ให้มาจากแหล่งวิทยาศาสตร์แต่ขาดการคัดกรอง
อาจนำไปสู่การตัดสินใจผิดพลาดโดยผู้ใช้ที่ไม่มีพื้นฐานทางการแพทย์

ข้อเสนอจากผู้เชี่ยวชาญ
ควรมีระบบตรวจสอบความเสี่ยงและฐานข้อมูลทางการแพทย์ใน AI
คำถามด้านสุขภาพควรมีการแจ้งเตือนหรือแนะนำให้ปรึกษาแพทย์
AI ควรเป็นเครื่องมือเสริม ไม่ใช่ตัวแทนของผู้เชี่ยวชาญ
ควรมีการกำกับดูแลระดับโลกเกี่ยวกับการใช้ AI ในด้านสุขภาพ

https://wccftech.com/a-60-year-old-man-who-turned-to-chatgpt-for-diet-advice-ended-up-poisoning-himself-and-landed-in-the-hospital/
🧠 เมื่อ AI แนะนำผิด ชีวิตเกือบพัง: กรณีพิษโบรไมด์จากคำแนะนำของ ChatGPT ชายวัย 60 ปีในนิวยอร์กต้องเข้ารับการรักษาในโรงพยาบาลหลังจากใช้ ChatGPT เพื่อหาทางลดการบริโภคเกลือ โดยเขาต้องการแทนที่ “โซเดียมคลอไรด์” (เกลือทั่วไป) ด้วยสารอื่นที่ “ดูเหมือนจะปลอดภัย” ซึ่ง ChatGPT แนะนำว่า “โซเดียมโบรไมด์” สามารถใช้แทนได้ เขาจึงซื้อโซเดียมโบรไมด์ทางออนไลน์และบริโภคทุกวันเป็นเวลา 3 เดือน ผลที่ตามมาคือเขาเริ่มมีอาการหลอน นอนไม่หลับ เห็นภาพและเสียงที่ไม่มีอยู่จริง และเชื่อว่ามีเพื่อนบ้านพยายามวางยาพิษเขา จนต้องถูกกักตัวในโรงพยาบาลด้วยอาการทางจิต แพทย์วินิจฉัยว่าเขาเป็นพิษจากโบรไมด์ (bromism) ซึ่งเคยพบได้บ่อยในช่วงต้นศตวรรษที่ 20 เมื่อโบรไมด์ถูกใช้ในยาระงับประสาทและยานอนหลับ แต่ถูกห้ามใช้ในผลิตภัณฑ์บริโภคตั้งแต่ปี 1975 เพราะมีผลข้างเคียงรุนแรงต่อระบบประสาท แม้จะไม่มีบันทึกการสนทนากับ ChatGPT แต่ทีมแพทย์ทดลองถามคำถามคล้ายกันกับเวอร์ชัน 3.5 และพบว่า AI แนะนำโบรไมด์โดยไม่มีคำเตือนเรื่องพิษหรือถามเจตนาของผู้ใช้ ซึ่งเป็นจุดอ่อนสำคัญของระบบ AI ที่ขาดบริบทและวิจารณญาณทางการแพทย์ ✅ เหตุการณ์และอาการของผู้ป่วย ➡️ ผู้ป่วยอายุ 60 ปีต้องการลดการบริโภคเกลือ ➡️ ใช้ ChatGPT เพื่อหาสารแทนโซเดียมคลอไรด์ ➡️ ได้รับคำแนะนำให้ใช้โซเดียมโบรไมด์แทน ➡️ บริโภคทุกวันเป็นเวลา 3 เดือนจนเกิดพิษ ➡️ มีอาการหลอน นอนไม่หลับ หวาดระแวง และพฤติกรรมทางจิต ✅ การวินิจฉัยและการรักษา ➡️ แพทย์วินิจฉัยว่าเป็น bromism หรือพิษจากโบรไมด์ ➡️ ระดับโบรไมด์ในเลือดสูงถึง 1,700 mg/L (ปกติคือ 0.9–7.3 mg/L) ➡️ รักษาด้วยการให้สารน้ำและยาต้านอาการทางจิต ➡️ อาการดีขึ้นภายใน 3 สัปดาห์และกลับบ้านได้ ✅ จุดอ่อนของ AI ในการให้คำแนะนำด้านสุขภาพ ➡️ ChatGPT แนะนำโบรไมด์โดยไม่มีคำเตือนเรื่องพิษ ➡️ ไม่ถามเจตนาของผู้ใช้หรือให้บริบททางการแพทย์ ➡️ ข้อมูลที่ให้มาจากแหล่งวิทยาศาสตร์แต่ขาดการคัดกรอง ➡️ อาจนำไปสู่การตัดสินใจผิดพลาดโดยผู้ใช้ที่ไม่มีพื้นฐานทางการแพทย์ ✅ ข้อเสนอจากผู้เชี่ยวชาญ ➡️ ควรมีระบบตรวจสอบความเสี่ยงและฐานข้อมูลทางการแพทย์ใน AI ➡️ คำถามด้านสุขภาพควรมีการแจ้งเตือนหรือแนะนำให้ปรึกษาแพทย์ ➡️ AI ควรเป็นเครื่องมือเสริม ไม่ใช่ตัวแทนของผู้เชี่ยวชาญ ➡️ ควรมีการกำกับดูแลระดับโลกเกี่ยวกับการใช้ AI ในด้านสุขภาพ https://wccftech.com/a-60-year-old-man-who-turned-to-chatgpt-for-diet-advice-ended-up-poisoning-himself-and-landed-in-the-hospital/
WCCFTECH.COM
A 60-Year-Old Man Who Turned To ChatGPT For Diet Advice Ended Up Poisoning Himself And Landed In The Hospital
A 60-year-old man has developed bromism after following ChatGPT's dietary advice and replacing salt with sodium bromide
0 ความคิดเห็น 0 การแบ่งปัน 49 มุมมอง 0 รีวิว