⚡️เรื่องเล่าจากเบื้องหลัง AI: ฉลาดขึ้น แต่กินไฟมากขึ้น
ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของหลายคน ไม่ว่าจะเป็นการถามคำถามผ่าน ChatGPT หรือสร้างภาพจากข้อความผ่าน Midjourney สิ่งที่หลายคนอาจไม่รู้คือ “เบื้องหลังความฉลาดนั้นกินไฟมหาศาล”
จากรายงานล่าสุดของมหาวิทยาลัย Rhode Island พบว่า GPT-5 ซึ่งเป็นโมเดลใหม่ของ OpenAI ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า โดยการตอบคำถามระดับกลาง (ประมาณ 1,000 token) อาจใช้ไฟถึง 40 วัตต์-ชั่วโมง เทียบเท่ากับการชาร์จมือถือหลายรอบ หรือเปิดพัดลมทั้งวัน
หากนำจำนวนคำถามที่ ChatGPT ได้รับต่อวัน (ราว 2.5 พันล้านครั้ง) มาคำนวณ จะพบว่า GPT-5 อาจใช้พลังงานถึง 45 กิกะวัตต์-ชั่วโมงต่อวัน ซึ่งเทียบเท่ากับการใช้ไฟของโรงไฟฟ้านิวเคลียร์ 2–3 โรง หรือเพียงพอสำหรับประเทศขนาดเล็ก
และนี่คือแค่การ “ใช้งาน” ยังไม่รวมการ “ฝึกสอน” โมเดล ซึ่งใช้พลังงานมากกว่านี้หลายเท่า รวมถึงการใช้ GPU ระดับสูงอย่าง Nvidia H100 ที่กินไฟถึง 700 วัตต์ต่อชิ้น และต้องใช้ระบบระบายความร้อนที่ซับซ้อน
นอกจากนี้ ยังมีผลกระทบทางสิ่งแวดล้อมอื่น ๆ เช่น การใช้น้ำมหาศาลเพื่อระบายความร้อนในศูนย์ข้อมูล การปล่อยคาร์บอนจากการผลิตฮาร์ดแวร์ และการสร้างโครงสร้างพื้นฐานใหม่ที่ใช้วัสดุอย่างเหล็กและซีเมนต์
แม้ AI จะมีศักยภาพในการช่วยลดการใช้ทรัพยากรในบางด้าน เช่น การเพิ่มประสิทธิภาพการผลิต หรือการวิเคราะห์ข้อมูลเพื่อแก้ปัญหาสิ่งแวดล้อม แต่ในระยะสั้น มันกำลังกลายเป็น “ผู้บริโภคพลังงานรายใหญ่” ที่อาจทำให้เป้าหมายด้านสิ่งแวดล้อมของหลายบริษัทต้องสะดุด
GPT-5 ใช้พลังงานมากกว่า GPT-4 อย่างมหาศาล
การตอบคำถามระดับกลางใช้ไฟเฉลี่ย 18.35 Wh และสูงสุดถึง 40 Wh ต่อครั้ง
GPT-5 ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า
ปริมาณการใช้งานที่ส่งผลต่อระบบพลังงาน
ChatGPT มีคำถามเฉลี่ย 2.5 พันล้านครั้งต่อวัน
การใช้งาน GPT-5 อาจใช้ไฟถึง 45 GWh ต่อวัน เทียบเท่ากับโรงไฟฟ้านิวเคลียร์หลายโรง
ฮาร์ดแวร์ที่ใช้ในการรันโมเดล AI
ใช้ GPU ระดับสูง เช่น Nvidia H100 หรือ H200 ที่กินไฟสูง
ระบบต้องมีการระบายความร้อนและโครงสร้างพื้นฐานที่ซับซ้อน
ผลกระทบต่อสิ่งแวดล้อมจากการใช้ AI
ต้องใช้น้ำจำนวนมากในการระบายความร้อนในศูนย์ข้อมูล
การผลิตฮาร์ดแวร์และสร้างศูนย์ข้อมูลใหม่ปล่อยคาร์บอนจำนวนมาก
คำเตือนเกี่ยวกับการใช้พลังงานของ AI
การใช้ GPT-5 อาจทำให้ระบบไฟฟ้าในบางพื้นที่ไม่เสถียร
ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าประชากรทั้งรัฐ เช่นใน Wyoming
ความเสี่ยงต่อเป้าหมายด้านสิ่งแวดล้อม
บริษัทเทคโนโลยี เช่น Microsoft อาจไม่สามารถลดการปล่อยคาร์บอนได้ตามเป้า
การขยายศูนย์ข้อมูลต้องใช้วัสดุที่ปล่อยคาร์บอนสูง เช่น เหล็กและซีเมนต์
https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-5-power-consumption-could-be-as-much-as-eight-times-higher-than-gpt-4-research-institute-estimates-medium-sized-gpt-5-response-can-consume-up-to-40-watt-hours-of-electricity ⚡️เรื่องเล่าจากเบื้องหลัง AI: ฉลาดขึ้น แต่กินไฟมากขึ้น
ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของหลายคน ไม่ว่าจะเป็นการถามคำถามผ่าน ChatGPT หรือสร้างภาพจากข้อความผ่าน Midjourney สิ่งที่หลายคนอาจไม่รู้คือ “เบื้องหลังความฉลาดนั้นกินไฟมหาศาล”
จากรายงานล่าสุดของมหาวิทยาลัย Rhode Island พบว่า GPT-5 ซึ่งเป็นโมเดลใหม่ของ OpenAI ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า โดยการตอบคำถามระดับกลาง (ประมาณ 1,000 token) อาจใช้ไฟถึง 40 วัตต์-ชั่วโมง เทียบเท่ากับการชาร์จมือถือหลายรอบ หรือเปิดพัดลมทั้งวัน
หากนำจำนวนคำถามที่ ChatGPT ได้รับต่อวัน (ราว 2.5 พันล้านครั้ง) มาคำนวณ จะพบว่า GPT-5 อาจใช้พลังงานถึง 45 กิกะวัตต์-ชั่วโมงต่อวัน ซึ่งเทียบเท่ากับการใช้ไฟของโรงไฟฟ้านิวเคลียร์ 2–3 โรง หรือเพียงพอสำหรับประเทศขนาดเล็ก
และนี่คือแค่การ “ใช้งาน” ยังไม่รวมการ “ฝึกสอน” โมเดล ซึ่งใช้พลังงานมากกว่านี้หลายเท่า รวมถึงการใช้ GPU ระดับสูงอย่าง Nvidia H100 ที่กินไฟถึง 700 วัตต์ต่อชิ้น และต้องใช้ระบบระบายความร้อนที่ซับซ้อน
นอกจากนี้ ยังมีผลกระทบทางสิ่งแวดล้อมอื่น ๆ เช่น การใช้น้ำมหาศาลเพื่อระบายความร้อนในศูนย์ข้อมูล การปล่อยคาร์บอนจากการผลิตฮาร์ดแวร์ และการสร้างโครงสร้างพื้นฐานใหม่ที่ใช้วัสดุอย่างเหล็กและซีเมนต์
แม้ AI จะมีศักยภาพในการช่วยลดการใช้ทรัพยากรในบางด้าน เช่น การเพิ่มประสิทธิภาพการผลิต หรือการวิเคราะห์ข้อมูลเพื่อแก้ปัญหาสิ่งแวดล้อม แต่ในระยะสั้น มันกำลังกลายเป็น “ผู้บริโภคพลังงานรายใหญ่” ที่อาจทำให้เป้าหมายด้านสิ่งแวดล้อมของหลายบริษัทต้องสะดุด
✅ GPT-5 ใช้พลังงานมากกว่า GPT-4 อย่างมหาศาล
➡️ การตอบคำถามระดับกลางใช้ไฟเฉลี่ย 18.35 Wh และสูงสุดถึง 40 Wh ต่อครั้ง
➡️ GPT-5 ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า
✅ ปริมาณการใช้งานที่ส่งผลต่อระบบพลังงาน
➡️ ChatGPT มีคำถามเฉลี่ย 2.5 พันล้านครั้งต่อวัน
➡️ การใช้งาน GPT-5 อาจใช้ไฟถึง 45 GWh ต่อวัน เทียบเท่ากับโรงไฟฟ้านิวเคลียร์หลายโรง
✅ ฮาร์ดแวร์ที่ใช้ในการรันโมเดล AI
➡️ ใช้ GPU ระดับสูง เช่น Nvidia H100 หรือ H200 ที่กินไฟสูง
➡️ ระบบต้องมีการระบายความร้อนและโครงสร้างพื้นฐานที่ซับซ้อน
✅ ผลกระทบต่อสิ่งแวดล้อมจากการใช้ AI
➡️ ต้องใช้น้ำจำนวนมากในการระบายความร้อนในศูนย์ข้อมูล
➡️ การผลิตฮาร์ดแวร์และสร้างศูนย์ข้อมูลใหม่ปล่อยคาร์บอนจำนวนมาก
‼️ คำเตือนเกี่ยวกับการใช้พลังงานของ AI
⛔ การใช้ GPT-5 อาจทำให้ระบบไฟฟ้าในบางพื้นที่ไม่เสถียร
⛔ ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าประชากรทั้งรัฐ เช่นใน Wyoming
‼️ ความเสี่ยงต่อเป้าหมายด้านสิ่งแวดล้อม
⛔ บริษัทเทคโนโลยี เช่น Microsoft อาจไม่สามารถลดการปล่อยคาร์บอนได้ตามเป้า
⛔ การขยายศูนย์ข้อมูลต้องใช้วัสดุที่ปล่อยคาร์บอนสูง เช่น เหล็กและซีเมนต์
https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-5-power-consumption-could-be-as-much-as-eight-times-higher-than-gpt-4-research-institute-estimates-medium-sized-gpt-5-response-can-consume-up-to-40-watt-hours-of-electricity