เรื่องเล่าจากจุดตัดของเทคโนโลยีกับความเศร้า: เมื่อ Jim Acosta สัมภาษณ์ AI ของผู้เสียชีวิต

ในเดือนสิงหาคม 2025 Jim Acosta อดีตผู้สื่อข่าว CNN ได้สร้างกระแสถกเถียงครั้งใหญ่ เมื่อเขาเผยแพร่ “บทสัมภาษณ์” กับ Joaquin Oliver—ไม่ใช่ตัวจริง แต่เป็น AI avatar ของเด็กชายวัย 17 ปีที่เสียชีวิตจากเหตุกราดยิงที่โรงเรียน Parkland ในปี 2018

AI ตัวนี้ถูกสร้างขึ้นโดยพ่อแม่ของ Joaquin เพื่อรักษาความทรงจำของลูกชาย และใช้เป็นเครื่องมือรณรงค์เรื่องกฎหมายควบคุมอาวุธปืน โดยในวิดีโอ Joaquin AI พูดถึงความจำเป็นของ “กฎหมายควบคุมอาวุธที่เข้มงวดขึ้น การสนับสนุนสุขภาพจิต และการสร้างชุมชนที่ปลอดภัย”

แม้เจตนาจะดูจริงใจ แต่การใช้ AI เพื่อจำลองผู้เสียชีวิตกลับสร้างคำถามทางจริยธรรมอย่างหนัก หลายคนมองว่าเป็นการ “ใช้ความเศร้าเพื่อผลทางการเมือง” หรือ “ละเมิดความทรงจำของผู้เสียชีวิต” ขณะที่บางคนเห็นว่าเป็นวิธีเยียวยาความเจ็บปวดของครอบครัว

กรณีนี้ยังสะท้อนแนวโน้มใหม่ที่ผู้คนเริ่มใช้ AI เพื่อสื่อสารกับผู้ที่จากไป เช่น Joshua Barbeau ที่เคยใช้ Project December เพื่อคุยกับ AI ของคู่หมั้นที่เสียชีวิต หรือผู้ใช้ ChatGPT ที่ใช้เป็นเพื่อนหรือแม้แต่คู่รักเสมือน

คำถามใหญ่จึงไม่ใช่แค่ว่า “ควรหรือไม่” แต่คือ “เรากำลังเชื่อมต่อกันจริง ๆ หรือแค่จำลองความสัมพันธ์?” และ “เรากำลังใช้ AI เพื่อเยียวยา หรือกำลังหลีกเลี่ยงความเจ็บปวดที่ควรเผชิญ?”

Jim Acosta สัมภาษณ์ AI avatar ของ Joaquin Oliver ผู้เสียชีวิตจากเหตุกราดยิง
สร้างขึ้นโดยพ่อแม่เพื่อรณรงค์เรื่องกฎหมายควบคุมอาวุธ

AI ใช้เสียงและบุคลิกที่จำลองจาก Joaquin เพื่อพูดถึงประเด็นสังคม
เช่น กฎหมายควบคุมอาวุธ, สุขภาพจิต, การมีส่วนร่วมของชุมชน

Acosta ระบุว่าพ่อของ Joaquin เป็นผู้เสนอให้ทำสัมภาษณ์นี้
เพื่อรักษาความทรงจำของลูกชาย

วิดีโอสร้างกระแสถกเถียงอย่างหนักในสื่อและโซเชียล
มีทั้งเสียงสนับสนุนและเสียงวิจารณ์เรื่องจริยธรรม

กรณีนี้สะท้อนแนวโน้มการใช้ AI เพื่อเยียวยาความเศร้า
เช่น Project December และ ChatGPT ที่ใช้เป็นเพื่อนหรือคู่รักเสมือน

ผู้เชี่ยวชาญด้านจิตวิทยาเตือนว่า AI อาจช่วยเยียวยาได้ชั่วคราว
แต่เสี่ยงต่อการหลีกเลี่ยงการยอมรับความสูญเสียจริง

https://www.thestar.com.my/tech/tech-news/2025/08/12/opinion-jim-acostas-ai-interview-raises-deeper-questions-about-human-connection
🧠📺 เรื่องเล่าจากจุดตัดของเทคโนโลยีกับความเศร้า: เมื่อ Jim Acosta สัมภาษณ์ AI ของผู้เสียชีวิต ในเดือนสิงหาคม 2025 Jim Acosta อดีตผู้สื่อข่าว CNN ได้สร้างกระแสถกเถียงครั้งใหญ่ เมื่อเขาเผยแพร่ “บทสัมภาษณ์” กับ Joaquin Oliver—ไม่ใช่ตัวจริง แต่เป็น AI avatar ของเด็กชายวัย 17 ปีที่เสียชีวิตจากเหตุกราดยิงที่โรงเรียน Parkland ในปี 2018 AI ตัวนี้ถูกสร้างขึ้นโดยพ่อแม่ของ Joaquin เพื่อรักษาความทรงจำของลูกชาย และใช้เป็นเครื่องมือรณรงค์เรื่องกฎหมายควบคุมอาวุธปืน โดยในวิดีโอ Joaquin AI พูดถึงความจำเป็นของ “กฎหมายควบคุมอาวุธที่เข้มงวดขึ้น การสนับสนุนสุขภาพจิต และการสร้างชุมชนที่ปลอดภัย” แม้เจตนาจะดูจริงใจ แต่การใช้ AI เพื่อจำลองผู้เสียชีวิตกลับสร้างคำถามทางจริยธรรมอย่างหนัก หลายคนมองว่าเป็นการ “ใช้ความเศร้าเพื่อผลทางการเมือง” หรือ “ละเมิดความทรงจำของผู้เสียชีวิต” ขณะที่บางคนเห็นว่าเป็นวิธีเยียวยาความเจ็บปวดของครอบครัว กรณีนี้ยังสะท้อนแนวโน้มใหม่ที่ผู้คนเริ่มใช้ AI เพื่อสื่อสารกับผู้ที่จากไป เช่น Joshua Barbeau ที่เคยใช้ Project December เพื่อคุยกับ AI ของคู่หมั้นที่เสียชีวิต หรือผู้ใช้ ChatGPT ที่ใช้เป็นเพื่อนหรือแม้แต่คู่รักเสมือน คำถามใหญ่จึงไม่ใช่แค่ว่า “ควรหรือไม่” แต่คือ “เรากำลังเชื่อมต่อกันจริง ๆ หรือแค่จำลองความสัมพันธ์?” และ “เรากำลังใช้ AI เพื่อเยียวยา หรือกำลังหลีกเลี่ยงความเจ็บปวดที่ควรเผชิญ?” ✅ Jim Acosta สัมภาษณ์ AI avatar ของ Joaquin Oliver ผู้เสียชีวิตจากเหตุกราดยิง ➡️ สร้างขึ้นโดยพ่อแม่เพื่อรณรงค์เรื่องกฎหมายควบคุมอาวุธ ✅ AI ใช้เสียงและบุคลิกที่จำลองจาก Joaquin เพื่อพูดถึงประเด็นสังคม ➡️ เช่น กฎหมายควบคุมอาวุธ, สุขภาพจิต, การมีส่วนร่วมของชุมชน ✅ Acosta ระบุว่าพ่อของ Joaquin เป็นผู้เสนอให้ทำสัมภาษณ์นี้ ➡️ เพื่อรักษาความทรงจำของลูกชาย ✅ วิดีโอสร้างกระแสถกเถียงอย่างหนักในสื่อและโซเชียล ➡️ มีทั้งเสียงสนับสนุนและเสียงวิจารณ์เรื่องจริยธรรม ✅ กรณีนี้สะท้อนแนวโน้มการใช้ AI เพื่อเยียวยาความเศร้า ➡️ เช่น Project December และ ChatGPT ที่ใช้เป็นเพื่อนหรือคู่รักเสมือน ✅ ผู้เชี่ยวชาญด้านจิตวิทยาเตือนว่า AI อาจช่วยเยียวยาได้ชั่วคราว ➡️ แต่เสี่ยงต่อการหลีกเลี่ยงการยอมรับความสูญเสียจริง https://www.thestar.com.my/tech/tech-news/2025/08/12/opinion-jim-acostas-ai-interview-raises-deeper-questions-about-human-connection
WWW.THESTAR.COM.MY
Opinion: Jim Acosta’s AI interview raises deeper questions about human connection
The interview sparked backlash and raised ethical concerns over technology's potential role in tarnishing the memory of the dead or changing their viewpoint.
0 ความคิดเห็น 0 การแบ่งปัน 49 มุมมอง 0 รีวิว