เคยมีอาจารย์มหาวิทยาลัยในชิคาโกให้เด็กเขียนประสบการณ์ส่วนตัวที่เคยเห็นการเลือกปฏิบัติ (discrimination) — แต่กลับมีนักศึกษาหลายสิบคนเขียนเรื่องเดียวกันว่า “Sally เป็นผู้หญิงที่เจอเหตุการณ์นี้”
ฟังดูแปลกไหมครับ?
อาจารย์จับได้ว่า...เด็กใช้ ChatGPT และ “Sally” คือชื่อที่ AI มักสุ่มมาใช้อัตโนมัติ เพราะเป็นชื่อผู้หญิงยอดนิยมทั่วไป
แปลว่าเด็กไม่ได้เขียนเรื่องจริงของตัวเอง — ไม่คิด ไม่เชื่อมโยงประสบการณ์ — แต่ปล่อยให้ AI คิดแทนทั้งหมด ซึ่งสะท้อนปัญหาใหญ่ว่า “เด็กกำลังเรียนรู้ผ่านกระบวนการลัด”
งานวิจัยล่าสุดจาก MIT จึงลองทดสอบอย่างเป็นระบบ โดยให้ผู้ใหญ่กลุ่มหนึ่งเขียนเรียงความ 20 นาที แบ่งเป็น 3 กลุ่ม:
- กลุ่มใช้ ChatGPT
- กลุ่มใช้ search engine
- กลุ่มใช้ความรู้จากสมองตัวเองล้วน ๆ
ผลคือ: กลุ่มใช้สมองเขียนได้คะแนนดีที่สุด + การเชื่อมโยงสมองผ่าน EEG ดีกว่า กลุ่มใช้ ChatGPT ไม่สามารถจำได้แม้แต่สิ่งที่ตัวเองเพิ่งเขียน! อาจารย์อ่านแล้วบอกว่าเรียงความจาก AI “ไร้จิตวิญญาณ” — เขียนดีแต่ไม่ลึกซึ้ง
อย่างไรก็ดี นักวิจัยก็ไม่ได้สรุปทันทีว่า AI “ทำให้คนโง่ลง” เพียงแต่เตือนว่า “ควรหาวิธีใช้ AI อย่างมีกลยุทธ์” — เพื่อให้ยังเกิดการคิด เรียนรู้ และพัฒนา
อาจารย์พบว่านักศึกษาใช้ ChatGPT เขียนงาน โดยไม่ได้คิดหรือเขียนจากประสบการณ์ของตัวเอง
• ตัวอย่างคือใช้ชื่อ “Sally” ซ้ำกันเพราะ AI มักสุ่มชื่อนี้มาเอง
• ทำให้งานเขียนขาดตัวตนและการสะท้อนความคิด
ผลวิจัยจาก MIT พบว่า กลุ่มที่ใช้ ChatGPT เขียนเรียงความ มีคะแนนต่ำกว่ากลุ่มที่ใช้สมองตัวเอง
• วัดผ่าน EEG แล้วพบว่าสมองเชื่อมต่อกันน้อยกว่า
• 80% ของกลุ่ม ChatGPT จำไม่ได้เลยว่าเพิ่งเขียนอะไร
อาจารย์ประเมินว่าเรียงความจาก AI “แม้เขียนดี แต่ไร้วิญญาณ”
• ขาดความคิดสร้างสรรค์ บริบทส่วนตัว และมุมมองลึก
แม้ AI จะมีประโยชน์ เช่นใช้สรุปโน้ต ช่วยระดมไอเดีย
• แต่นักศึกษาหลายคนใช้เกินเลยไปถึงจุดที่ “ไม่เกิดการเรียนรู้จริง”
ผู้วิจัยเสนอให้มีการออกแบบการเรียนแบบใหม่ เพื่อใช้ AI เป็นผู้ช่วย ไม่ใช่ผู้แทนการคิด
สถานศึกษากำลังเผชิญภาวะสับสน เพราะบางวิชา “อนุญาตให้ใช้ AI” บางวิชา “ห้ามเด็ดขาด”
• ทำให้นักเรียนไม่แน่ใจว่าอะไรคือสิ่งที่ควรทำ
https://www.thestar.com.my/tech/tech-news/2025/07/02/039writing-is-thinking039-do-students-who-use-chatgpt-learn-less
ฟังดูแปลกไหมครับ?
อาจารย์จับได้ว่า...เด็กใช้ ChatGPT และ “Sally” คือชื่อที่ AI มักสุ่มมาใช้อัตโนมัติ เพราะเป็นชื่อผู้หญิงยอดนิยมทั่วไป
แปลว่าเด็กไม่ได้เขียนเรื่องจริงของตัวเอง — ไม่คิด ไม่เชื่อมโยงประสบการณ์ — แต่ปล่อยให้ AI คิดแทนทั้งหมด ซึ่งสะท้อนปัญหาใหญ่ว่า “เด็กกำลังเรียนรู้ผ่านกระบวนการลัด”
งานวิจัยล่าสุดจาก MIT จึงลองทดสอบอย่างเป็นระบบ โดยให้ผู้ใหญ่กลุ่มหนึ่งเขียนเรียงความ 20 นาที แบ่งเป็น 3 กลุ่ม:
- กลุ่มใช้ ChatGPT
- กลุ่มใช้ search engine
- กลุ่มใช้ความรู้จากสมองตัวเองล้วน ๆ
ผลคือ: กลุ่มใช้สมองเขียนได้คะแนนดีที่สุด + การเชื่อมโยงสมองผ่าน EEG ดีกว่า กลุ่มใช้ ChatGPT ไม่สามารถจำได้แม้แต่สิ่งที่ตัวเองเพิ่งเขียน! อาจารย์อ่านแล้วบอกว่าเรียงความจาก AI “ไร้จิตวิญญาณ” — เขียนดีแต่ไม่ลึกซึ้ง
อย่างไรก็ดี นักวิจัยก็ไม่ได้สรุปทันทีว่า AI “ทำให้คนโง่ลง” เพียงแต่เตือนว่า “ควรหาวิธีใช้ AI อย่างมีกลยุทธ์” — เพื่อให้ยังเกิดการคิด เรียนรู้ และพัฒนา
อาจารย์พบว่านักศึกษาใช้ ChatGPT เขียนงาน โดยไม่ได้คิดหรือเขียนจากประสบการณ์ของตัวเอง
• ตัวอย่างคือใช้ชื่อ “Sally” ซ้ำกันเพราะ AI มักสุ่มชื่อนี้มาเอง
• ทำให้งานเขียนขาดตัวตนและการสะท้อนความคิด
ผลวิจัยจาก MIT พบว่า กลุ่มที่ใช้ ChatGPT เขียนเรียงความ มีคะแนนต่ำกว่ากลุ่มที่ใช้สมองตัวเอง
• วัดผ่าน EEG แล้วพบว่าสมองเชื่อมต่อกันน้อยกว่า
• 80% ของกลุ่ม ChatGPT จำไม่ได้เลยว่าเพิ่งเขียนอะไร
อาจารย์ประเมินว่าเรียงความจาก AI “แม้เขียนดี แต่ไร้วิญญาณ”
• ขาดความคิดสร้างสรรค์ บริบทส่วนตัว และมุมมองลึก
แม้ AI จะมีประโยชน์ เช่นใช้สรุปโน้ต ช่วยระดมไอเดีย
• แต่นักศึกษาหลายคนใช้เกินเลยไปถึงจุดที่ “ไม่เกิดการเรียนรู้จริง”
ผู้วิจัยเสนอให้มีการออกแบบการเรียนแบบใหม่ เพื่อใช้ AI เป็นผู้ช่วย ไม่ใช่ผู้แทนการคิด
สถานศึกษากำลังเผชิญภาวะสับสน เพราะบางวิชา “อนุญาตให้ใช้ AI” บางวิชา “ห้ามเด็ดขาด”
• ทำให้นักเรียนไม่แน่ใจว่าอะไรคือสิ่งที่ควรทำ
https://www.thestar.com.my/tech/tech-news/2025/07/02/039writing-is-thinking039-do-students-who-use-chatgpt-learn-less
เคยมีอาจารย์มหาวิทยาลัยในชิคาโกให้เด็กเขียนประสบการณ์ส่วนตัวที่เคยเห็นการเลือกปฏิบัติ (discrimination) — แต่กลับมีนักศึกษาหลายสิบคนเขียนเรื่องเดียวกันว่า “Sally เป็นผู้หญิงที่เจอเหตุการณ์นี้”
ฟังดูแปลกไหมครับ?
อาจารย์จับได้ว่า...เด็กใช้ ChatGPT และ “Sally” คือชื่อที่ AI มักสุ่มมาใช้อัตโนมัติ เพราะเป็นชื่อผู้หญิงยอดนิยมทั่วไป
แปลว่าเด็กไม่ได้เขียนเรื่องจริงของตัวเอง — ไม่คิด ไม่เชื่อมโยงประสบการณ์ — แต่ปล่อยให้ AI คิดแทนทั้งหมด ซึ่งสะท้อนปัญหาใหญ่ว่า “เด็กกำลังเรียนรู้ผ่านกระบวนการลัด”
งานวิจัยล่าสุดจาก MIT จึงลองทดสอบอย่างเป็นระบบ โดยให้ผู้ใหญ่กลุ่มหนึ่งเขียนเรียงความ 20 นาที แบ่งเป็น 3 กลุ่ม:
- กลุ่มใช้ ChatGPT
- กลุ่มใช้ search engine
- กลุ่มใช้ความรู้จากสมองตัวเองล้วน ๆ
ผลคือ: 🧠 กลุ่มใช้สมองเขียนได้คะแนนดีที่สุด + การเชื่อมโยงสมองผ่าน EEG ดีกว่า 📉 กลุ่มใช้ ChatGPT ไม่สามารถจำได้แม้แต่สิ่งที่ตัวเองเพิ่งเขียน! 🧾 อาจารย์อ่านแล้วบอกว่าเรียงความจาก AI “ไร้จิตวิญญาณ” — เขียนดีแต่ไม่ลึกซึ้ง
อย่างไรก็ดี นักวิจัยก็ไม่ได้สรุปทันทีว่า AI “ทำให้คนโง่ลง” เพียงแต่เตือนว่า “ควรหาวิธีใช้ AI อย่างมีกลยุทธ์” — เพื่อให้ยังเกิดการคิด เรียนรู้ และพัฒนา
✅ อาจารย์พบว่านักศึกษาใช้ ChatGPT เขียนงาน โดยไม่ได้คิดหรือเขียนจากประสบการณ์ของตัวเอง
• ตัวอย่างคือใช้ชื่อ “Sally” ซ้ำกันเพราะ AI มักสุ่มชื่อนี้มาเอง
• ทำให้งานเขียนขาดตัวตนและการสะท้อนความคิด
✅ ผลวิจัยจาก MIT พบว่า กลุ่มที่ใช้ ChatGPT เขียนเรียงความ มีคะแนนต่ำกว่ากลุ่มที่ใช้สมองตัวเอง
• วัดผ่าน EEG แล้วพบว่าสมองเชื่อมต่อกันน้อยกว่า
• 80% ของกลุ่ม ChatGPT จำไม่ได้เลยว่าเพิ่งเขียนอะไร
✅ อาจารย์ประเมินว่าเรียงความจาก AI “แม้เขียนดี แต่ไร้วิญญาณ”
• ขาดความคิดสร้างสรรค์ บริบทส่วนตัว และมุมมองลึก
✅ แม้ AI จะมีประโยชน์ เช่นใช้สรุปโน้ต ช่วยระดมไอเดีย
• แต่นักศึกษาหลายคนใช้เกินเลยไปถึงจุดที่ “ไม่เกิดการเรียนรู้จริง”
✅ ผู้วิจัยเสนอให้มีการออกแบบการเรียนแบบใหม่ เพื่อใช้ AI เป็นผู้ช่วย ไม่ใช่ผู้แทนการคิด
✅ สถานศึกษากำลังเผชิญภาวะสับสน เพราะบางวิชา “อนุญาตให้ใช้ AI” บางวิชา “ห้ามเด็ดขาด”
• ทำให้นักเรียนไม่แน่ใจว่าอะไรคือสิ่งที่ควรทำ
https://www.thestar.com.my/tech/tech-news/2025/07/02/039writing-is-thinking039-do-students-who-use-chatgpt-learn-less
0 ความคิดเห็น
0 การแบ่งปัน
84 มุมมอง
0 รีวิว