ลองนึกดูว่าเวลาเราพิมพ์คำถามยาว ๆ ใส่ AI อย่าง ChatGPT แล้วระบบต้องใช้พลังงานมหาศาลขนาดไหนเพื่อ “เข้าใจ–แยกประเด็น–ค้นหาคำตอบ” → ล่าสุด UNESCO เผยว่าการถามคำถามให้ “สั้นลง–ชัดขึ้น” และเลือกใช้โมเดลที่ “เล็กลง–เฉพาะทาง” แทนโมเดลใหญ่แบบ general-purpose จะช่วยลดการใช้พลังงานได้ถึง 90%!
ยกตัวอย่าง ChatGPT — ผู้บริหาร OpenAI เคยเผยว่า ทุกคำถามที่ถามใช้ไฟฟ้าประมาณ 0.34 Wh ซึ่งมากกว่าการค้นหาบน Google ถึง 10–70 เท่า → ถ้านับคำถามเฉลี่ยวันละพันล้านครั้ง เท่ากับใช้ไฟปีละ 310 GWh = เท่ากับคนเอธิโอเปีย 3 ล้านคนใช้ทั้งปี!
และที่น่าตกใจคือความต้องการพลังงานของ AI กำลัง “เพิ่มเป็นเท่าตัวทุก 100 วัน” เพราะคนใช้มากขึ้น และ AI ถูกฝังเข้าไปในหลายแอปฯ → เทคโนโลยีที่ควรช่วยโลก อาจกำลังเผาโลกช้า ๆ ถ้าเราไม่จัดการพลังงานที่ใช้
ข่าวดีคือผู้ผลิต AI หลายรายก็เริ่มปล่อย “เวอร์ชันขนาดเล็ก” เช่น → Google Gemma, Microsoft Phi-3, OpenAI GPT-4o mini, และ Mistral AI กับรุ่น Ministral
UNESCO เผยวิธีลดพลังงาน AI ได้ 90% โดยไม่ลดคุณภาพ:
• ลดความยาวคำถามจาก 300 → 150 คำ
• เปลี่ยนจากโมเดลขนาดใหญ่ → เป็นโมเดลเฉพาะทางที่เล็กลง
ChatGPT ใช้พลังงานประมาณ 0.34 Wh ต่อการถาม 1 ครั้ง
• มากกว่า Google Search 10–70 เท่า
• วันละ 1 พันล้านคำถาม = 310 GWh/ปี
การใช้โมเดลขนาดใหญ่ = ต้องโหลดข้อมูลมหาศาลทุกครั้งที่ตอบ
• หากใช้โมเดลเล็กเฉพาะทาง จะใช้พลังงานน้อยลงมาก
ปัจจุบัน Tech Giants ออกโมเดลขนาดเล็กเพื่อประหยัดพลังงานและทำงานเฉพาะทางได้ไวขึ้น:
https://www.thestar.com.my/tech/tech-news/2025/07/09/study-ai-needs-to-be-smaller-reduce-energy-footprint
ยกตัวอย่าง ChatGPT — ผู้บริหาร OpenAI เคยเผยว่า ทุกคำถามที่ถามใช้ไฟฟ้าประมาณ 0.34 Wh ซึ่งมากกว่าการค้นหาบน Google ถึง 10–70 เท่า → ถ้านับคำถามเฉลี่ยวันละพันล้านครั้ง เท่ากับใช้ไฟปีละ 310 GWh = เท่ากับคนเอธิโอเปีย 3 ล้านคนใช้ทั้งปี!
และที่น่าตกใจคือความต้องการพลังงานของ AI กำลัง “เพิ่มเป็นเท่าตัวทุก 100 วัน” เพราะคนใช้มากขึ้น และ AI ถูกฝังเข้าไปในหลายแอปฯ → เทคโนโลยีที่ควรช่วยโลก อาจกำลังเผาโลกช้า ๆ ถ้าเราไม่จัดการพลังงานที่ใช้
ข่าวดีคือผู้ผลิต AI หลายรายก็เริ่มปล่อย “เวอร์ชันขนาดเล็ก” เช่น → Google Gemma, Microsoft Phi-3, OpenAI GPT-4o mini, และ Mistral AI กับรุ่น Ministral
UNESCO เผยวิธีลดพลังงาน AI ได้ 90% โดยไม่ลดคุณภาพ:
• ลดความยาวคำถามจาก 300 → 150 คำ
• เปลี่ยนจากโมเดลขนาดใหญ่ → เป็นโมเดลเฉพาะทางที่เล็กลง
ChatGPT ใช้พลังงานประมาณ 0.34 Wh ต่อการถาม 1 ครั้ง
• มากกว่า Google Search 10–70 เท่า
• วันละ 1 พันล้านคำถาม = 310 GWh/ปี
การใช้โมเดลขนาดใหญ่ = ต้องโหลดข้อมูลมหาศาลทุกครั้งที่ตอบ
• หากใช้โมเดลเล็กเฉพาะทาง จะใช้พลังงานน้อยลงมาก
ปัจจุบัน Tech Giants ออกโมเดลขนาดเล็กเพื่อประหยัดพลังงานและทำงานเฉพาะทางได้ไวขึ้น:
https://www.thestar.com.my/tech/tech-news/2025/07/09/study-ai-needs-to-be-smaller-reduce-energy-footprint
ลองนึกดูว่าเวลาเราพิมพ์คำถามยาว ๆ ใส่ AI อย่าง ChatGPT แล้วระบบต้องใช้พลังงานมหาศาลขนาดไหนเพื่อ “เข้าใจ–แยกประเด็น–ค้นหาคำตอบ” → ล่าสุด UNESCO เผยว่าการถามคำถามให้ “สั้นลง–ชัดขึ้น” และเลือกใช้โมเดลที่ “เล็กลง–เฉพาะทาง” แทนโมเดลใหญ่แบบ general-purpose จะช่วยลดการใช้พลังงานได้ถึง 90%!
ยกตัวอย่าง ChatGPT — ผู้บริหาร OpenAI เคยเผยว่า ทุกคำถามที่ถามใช้ไฟฟ้าประมาณ 0.34 Wh ซึ่งมากกว่าการค้นหาบน Google ถึง 10–70 เท่า → ถ้านับคำถามเฉลี่ยวันละพันล้านครั้ง เท่ากับใช้ไฟปีละ 310 GWh = เท่ากับคนเอธิโอเปีย 3 ล้านคนใช้ทั้งปี!
และที่น่าตกใจคือความต้องการพลังงานของ AI กำลัง “เพิ่มเป็นเท่าตัวทุก 100 วัน” เพราะคนใช้มากขึ้น และ AI ถูกฝังเข้าไปในหลายแอปฯ → เทคโนโลยีที่ควรช่วยโลก อาจกำลังเผาโลกช้า ๆ ถ้าเราไม่จัดการพลังงานที่ใช้
ข่าวดีคือผู้ผลิต AI หลายรายก็เริ่มปล่อย “เวอร์ชันขนาดเล็ก” เช่น → Google Gemma, Microsoft Phi-3, OpenAI GPT-4o mini, และ Mistral AI กับรุ่น Ministral
✅ UNESCO เผยวิธีลดพลังงาน AI ได้ 90% โดยไม่ลดคุณภาพ:
• ลดความยาวคำถามจาก 300 → 150 คำ
• เปลี่ยนจากโมเดลขนาดใหญ่ → เป็นโมเดลเฉพาะทางที่เล็กลง
✅ ChatGPT ใช้พลังงานประมาณ 0.34 Wh ต่อการถาม 1 ครั้ง
• มากกว่า Google Search 10–70 เท่า
• วันละ 1 พันล้านคำถาม = 310 GWh/ปี
✅ การใช้โมเดลขนาดใหญ่ = ต้องโหลดข้อมูลมหาศาลทุกครั้งที่ตอบ
• หากใช้โมเดลเล็กเฉพาะทาง จะใช้พลังงานน้อยลงมาก
✅ ปัจจุบัน Tech Giants ออกโมเดลขนาดเล็กเพื่อประหยัดพลังงานและทำงานเฉพาะทางได้ไวขึ้น:
https://www.thestar.com.my/tech/tech-news/2025/07/09/study-ai-needs-to-be-smaller-reduce-energy-footprint
0 ความคิดเห็น
0 การแบ่งปัน
93 มุมมอง
0 รีวิว