เมื่อ AI แนะนำผิด ชีวิตเกือบพัง: กรณีพิษโบรไมด์จากคำแนะนำของ ChatGPT
ชายวัย 60 ปีในนิวยอร์กต้องเข้ารับการรักษาในโรงพยาบาลหลังจากใช้ ChatGPT เพื่อหาทางลดการบริโภคเกลือ โดยเขาต้องการแทนที่ “โซเดียมคลอไรด์” (เกลือทั่วไป) ด้วยสารอื่นที่ “ดูเหมือนจะปลอดภัย” ซึ่ง ChatGPT แนะนำว่า “โซเดียมโบรไมด์” สามารถใช้แทนได้
เขาจึงซื้อโซเดียมโบรไมด์ทางออนไลน์และบริโภคทุกวันเป็นเวลา 3 เดือน ผลที่ตามมาคือเขาเริ่มมีอาการหลอน นอนไม่หลับ เห็นภาพและเสียงที่ไม่มีอยู่จริง และเชื่อว่ามีเพื่อนบ้านพยายามวางยาพิษเขา จนต้องถูกกักตัวในโรงพยาบาลด้วยอาการทางจิต
แพทย์วินิจฉัยว่าเขาเป็นพิษจากโบรไมด์ (bromism) ซึ่งเคยพบได้บ่อยในช่วงต้นศตวรรษที่ 20 เมื่อโบรไมด์ถูกใช้ในยาระงับประสาทและยานอนหลับ แต่ถูกห้ามใช้ในผลิตภัณฑ์บริโภคตั้งแต่ปี 1975 เพราะมีผลข้างเคียงรุนแรงต่อระบบประสาท
แม้จะไม่มีบันทึกการสนทนากับ ChatGPT แต่ทีมแพทย์ทดลองถามคำถามคล้ายกันกับเวอร์ชัน 3.5 และพบว่า AI แนะนำโบรไมด์โดยไม่มีคำเตือนเรื่องพิษหรือถามเจตนาของผู้ใช้ ซึ่งเป็นจุดอ่อนสำคัญของระบบ AI ที่ขาดบริบทและวิจารณญาณทางการแพทย์
เหตุการณ์และอาการของผู้ป่วย
ผู้ป่วยอายุ 60 ปีต้องการลดการบริโภคเกลือ
ใช้ ChatGPT เพื่อหาสารแทนโซเดียมคลอไรด์
ได้รับคำแนะนำให้ใช้โซเดียมโบรไมด์แทน
บริโภคทุกวันเป็นเวลา 3 เดือนจนเกิดพิษ
มีอาการหลอน นอนไม่หลับ หวาดระแวง และพฤติกรรมทางจิต
การวินิจฉัยและการรักษา
แพทย์วินิจฉัยว่าเป็น bromism หรือพิษจากโบรไมด์
ระดับโบรไมด์ในเลือดสูงถึง 1,700 mg/L (ปกติคือ 0.9–7.3 mg/L)
รักษาด้วยการให้สารน้ำและยาต้านอาการทางจิต
อาการดีขึ้นภายใน 3 สัปดาห์และกลับบ้านได้
จุดอ่อนของ AI ในการให้คำแนะนำด้านสุขภาพ
ChatGPT แนะนำโบรไมด์โดยไม่มีคำเตือนเรื่องพิษ
ไม่ถามเจตนาของผู้ใช้หรือให้บริบททางการแพทย์
ข้อมูลที่ให้มาจากแหล่งวิทยาศาสตร์แต่ขาดการคัดกรอง
อาจนำไปสู่การตัดสินใจผิดพลาดโดยผู้ใช้ที่ไม่มีพื้นฐานทางการแพทย์
ข้อเสนอจากผู้เชี่ยวชาญ
ควรมีระบบตรวจสอบความเสี่ยงและฐานข้อมูลทางการแพทย์ใน AI
คำถามด้านสุขภาพควรมีการแจ้งเตือนหรือแนะนำให้ปรึกษาแพทย์
AI ควรเป็นเครื่องมือเสริม ไม่ใช่ตัวแทนของผู้เชี่ยวชาญ
ควรมีการกำกับดูแลระดับโลกเกี่ยวกับการใช้ AI ในด้านสุขภาพ
https://wccftech.com/a-60-year-old-man-who-turned-to-chatgpt-for-diet-advice-ended-up-poisoning-himself-and-landed-in-the-hospital/
ชายวัย 60 ปีในนิวยอร์กต้องเข้ารับการรักษาในโรงพยาบาลหลังจากใช้ ChatGPT เพื่อหาทางลดการบริโภคเกลือ โดยเขาต้องการแทนที่ “โซเดียมคลอไรด์” (เกลือทั่วไป) ด้วยสารอื่นที่ “ดูเหมือนจะปลอดภัย” ซึ่ง ChatGPT แนะนำว่า “โซเดียมโบรไมด์” สามารถใช้แทนได้
เขาจึงซื้อโซเดียมโบรไมด์ทางออนไลน์และบริโภคทุกวันเป็นเวลา 3 เดือน ผลที่ตามมาคือเขาเริ่มมีอาการหลอน นอนไม่หลับ เห็นภาพและเสียงที่ไม่มีอยู่จริง และเชื่อว่ามีเพื่อนบ้านพยายามวางยาพิษเขา จนต้องถูกกักตัวในโรงพยาบาลด้วยอาการทางจิต
แพทย์วินิจฉัยว่าเขาเป็นพิษจากโบรไมด์ (bromism) ซึ่งเคยพบได้บ่อยในช่วงต้นศตวรรษที่ 20 เมื่อโบรไมด์ถูกใช้ในยาระงับประสาทและยานอนหลับ แต่ถูกห้ามใช้ในผลิตภัณฑ์บริโภคตั้งแต่ปี 1975 เพราะมีผลข้างเคียงรุนแรงต่อระบบประสาท
แม้จะไม่มีบันทึกการสนทนากับ ChatGPT แต่ทีมแพทย์ทดลองถามคำถามคล้ายกันกับเวอร์ชัน 3.5 และพบว่า AI แนะนำโบรไมด์โดยไม่มีคำเตือนเรื่องพิษหรือถามเจตนาของผู้ใช้ ซึ่งเป็นจุดอ่อนสำคัญของระบบ AI ที่ขาดบริบทและวิจารณญาณทางการแพทย์
เหตุการณ์และอาการของผู้ป่วย
ผู้ป่วยอายุ 60 ปีต้องการลดการบริโภคเกลือ
ใช้ ChatGPT เพื่อหาสารแทนโซเดียมคลอไรด์
ได้รับคำแนะนำให้ใช้โซเดียมโบรไมด์แทน
บริโภคทุกวันเป็นเวลา 3 เดือนจนเกิดพิษ
มีอาการหลอน นอนไม่หลับ หวาดระแวง และพฤติกรรมทางจิต
การวินิจฉัยและการรักษา
แพทย์วินิจฉัยว่าเป็น bromism หรือพิษจากโบรไมด์
ระดับโบรไมด์ในเลือดสูงถึง 1,700 mg/L (ปกติคือ 0.9–7.3 mg/L)
รักษาด้วยการให้สารน้ำและยาต้านอาการทางจิต
อาการดีขึ้นภายใน 3 สัปดาห์และกลับบ้านได้
จุดอ่อนของ AI ในการให้คำแนะนำด้านสุขภาพ
ChatGPT แนะนำโบรไมด์โดยไม่มีคำเตือนเรื่องพิษ
ไม่ถามเจตนาของผู้ใช้หรือให้บริบททางการแพทย์
ข้อมูลที่ให้มาจากแหล่งวิทยาศาสตร์แต่ขาดการคัดกรอง
อาจนำไปสู่การตัดสินใจผิดพลาดโดยผู้ใช้ที่ไม่มีพื้นฐานทางการแพทย์
ข้อเสนอจากผู้เชี่ยวชาญ
ควรมีระบบตรวจสอบความเสี่ยงและฐานข้อมูลทางการแพทย์ใน AI
คำถามด้านสุขภาพควรมีการแจ้งเตือนหรือแนะนำให้ปรึกษาแพทย์
AI ควรเป็นเครื่องมือเสริม ไม่ใช่ตัวแทนของผู้เชี่ยวชาญ
ควรมีการกำกับดูแลระดับโลกเกี่ยวกับการใช้ AI ในด้านสุขภาพ
https://wccftech.com/a-60-year-old-man-who-turned-to-chatgpt-for-diet-advice-ended-up-poisoning-himself-and-landed-in-the-hospital/
🧠 เมื่อ AI แนะนำผิด ชีวิตเกือบพัง: กรณีพิษโบรไมด์จากคำแนะนำของ ChatGPT
ชายวัย 60 ปีในนิวยอร์กต้องเข้ารับการรักษาในโรงพยาบาลหลังจากใช้ ChatGPT เพื่อหาทางลดการบริโภคเกลือ โดยเขาต้องการแทนที่ “โซเดียมคลอไรด์” (เกลือทั่วไป) ด้วยสารอื่นที่ “ดูเหมือนจะปลอดภัย” ซึ่ง ChatGPT แนะนำว่า “โซเดียมโบรไมด์” สามารถใช้แทนได้
เขาจึงซื้อโซเดียมโบรไมด์ทางออนไลน์และบริโภคทุกวันเป็นเวลา 3 เดือน ผลที่ตามมาคือเขาเริ่มมีอาการหลอน นอนไม่หลับ เห็นภาพและเสียงที่ไม่มีอยู่จริง และเชื่อว่ามีเพื่อนบ้านพยายามวางยาพิษเขา จนต้องถูกกักตัวในโรงพยาบาลด้วยอาการทางจิต
แพทย์วินิจฉัยว่าเขาเป็นพิษจากโบรไมด์ (bromism) ซึ่งเคยพบได้บ่อยในช่วงต้นศตวรรษที่ 20 เมื่อโบรไมด์ถูกใช้ในยาระงับประสาทและยานอนหลับ แต่ถูกห้ามใช้ในผลิตภัณฑ์บริโภคตั้งแต่ปี 1975 เพราะมีผลข้างเคียงรุนแรงต่อระบบประสาท
แม้จะไม่มีบันทึกการสนทนากับ ChatGPT แต่ทีมแพทย์ทดลองถามคำถามคล้ายกันกับเวอร์ชัน 3.5 และพบว่า AI แนะนำโบรไมด์โดยไม่มีคำเตือนเรื่องพิษหรือถามเจตนาของผู้ใช้ ซึ่งเป็นจุดอ่อนสำคัญของระบบ AI ที่ขาดบริบทและวิจารณญาณทางการแพทย์
✅ เหตุการณ์และอาการของผู้ป่วย
➡️ ผู้ป่วยอายุ 60 ปีต้องการลดการบริโภคเกลือ
➡️ ใช้ ChatGPT เพื่อหาสารแทนโซเดียมคลอไรด์
➡️ ได้รับคำแนะนำให้ใช้โซเดียมโบรไมด์แทน
➡️ บริโภคทุกวันเป็นเวลา 3 เดือนจนเกิดพิษ
➡️ มีอาการหลอน นอนไม่หลับ หวาดระแวง และพฤติกรรมทางจิต
✅ การวินิจฉัยและการรักษา
➡️ แพทย์วินิจฉัยว่าเป็น bromism หรือพิษจากโบรไมด์
➡️ ระดับโบรไมด์ในเลือดสูงถึง 1,700 mg/L (ปกติคือ 0.9–7.3 mg/L)
➡️ รักษาด้วยการให้สารน้ำและยาต้านอาการทางจิต
➡️ อาการดีขึ้นภายใน 3 สัปดาห์และกลับบ้านได้
✅ จุดอ่อนของ AI ในการให้คำแนะนำด้านสุขภาพ
➡️ ChatGPT แนะนำโบรไมด์โดยไม่มีคำเตือนเรื่องพิษ
➡️ ไม่ถามเจตนาของผู้ใช้หรือให้บริบททางการแพทย์
➡️ ข้อมูลที่ให้มาจากแหล่งวิทยาศาสตร์แต่ขาดการคัดกรอง
➡️ อาจนำไปสู่การตัดสินใจผิดพลาดโดยผู้ใช้ที่ไม่มีพื้นฐานทางการแพทย์
✅ ข้อเสนอจากผู้เชี่ยวชาญ
➡️ ควรมีระบบตรวจสอบความเสี่ยงและฐานข้อมูลทางการแพทย์ใน AI
➡️ คำถามด้านสุขภาพควรมีการแจ้งเตือนหรือแนะนำให้ปรึกษาแพทย์
➡️ AI ควรเป็นเครื่องมือเสริม ไม่ใช่ตัวแทนของผู้เชี่ยวชาญ
➡️ ควรมีการกำกับดูแลระดับโลกเกี่ยวกับการใช้ AI ในด้านสุขภาพ
https://wccftech.com/a-60-year-old-man-who-turned-to-chatgpt-for-diet-advice-ended-up-poisoning-himself-and-landed-in-the-hospital/
0 Comments
0 Shares
60 Views
0 Reviews