ถ้าตอนนี้เราเริ่มบ่นว่า “เซิร์ฟเวอร์มันร้อน” อีกไม่กี่ปีข้างหน้า—อาจต้องเรียกวิศวกรนิวเคลียร์มาช่วยออกแบบห้องเซิร์ฟเวอร์กันเลยทีเดียว 🤯
เพราะรายงานจาก KAIST (สถาบันวิจัยของเกาหลีใต้) ชี้ว่า TDP (Thermal Design Power) ของชิป AI ในอนาคตอาจพุ่งไปถึง 15,360W ภายในปี 2032 ซึ่งสูงกว่าชิป H100 ของ NVIDIA ปัจจุบัน (700–800W) ถึง 20 เท่า
ตอนนี้ NVIDIA Blackwell ใช้พลังงาน 1,400W แล้ว Rubin Ultra ที่จะมาในปี 2027 จะพุ่งไป 3,600W และ Feynman ในปี 2029 จะทะลุ 6,000W ได้เลย โดยทั้งหมดนี้ยัง “ใช้แค่น้ำหล่อเย็น (liquid cooling)” ได้อยู่
แต่หลังจากปี 2030 เป็นต้นไป จะเริ่มใช้เทคโนโลยี Immersion Cooling (จุ่มชิปในของเหลวพิเศษ) และเมื่อถึงปี 2032… ต้องฝังระบบทำความเย็นลงไปในชิปเลย (Embedded Cooling)
และไม่ใช่แค่ตัวประมวลผลที่กินไฟครับ—โมดูลหน่วยความจำ HBM ก็จะใช้ไฟกว่า 2,000W ด้วย นั่นแปลว่าชิป AI 1 ตัวอาจใช้ไฟมากกว่บ้าน 2 หลังรวมกัน!
✅ TDP ของชิป AI เพิ่มจากร้อย → พัน → หมื่นวัตต์ในทศวรรษเดียว
• Blackwell Ultra (2025): 1,400W
• Rubin Ultra (2027): 3,600W
• Feynman Ultra (2029): 6,000W
• Post-Feynman Ultra (2032): 15,360W
✅ แนวโน้มเทคโนโลยีหล่อเย็น AI ตามระดับความร้อน
• เริ่มจาก liquid cooling → immersion cooling → embedded cooling
• KAIST เสนอแนวคิดฝัง "ท่อน้ำหล่อเย็น" และ “ฟลูอิด TSV” ลงในชิป
✅ การเพิ่มจำนวน chiplet และ HBM stack เป็นสาเหตุหลักของพลังงานมหาศาล
• HBM6 stack หนึ่งใช้ไฟถึง 120W และอาจมีมากถึง 16 stack ต่อชิป
• ระบบต้องติดเซ็นเซอร์ความร้อนแบบเรียลไทม์
✅ แนวคิดอนาคต: GPU ซ้อนชั้นสองด้าน + ท่อนำความร้อนฝังใน interposer
• เพิ่มพลังโดยไม่เพิ่มพื้นที่ชิป
• เน้นดึงความร้อนออกจาก “core” ก่อน แล้วค่อยระบายออกนอกตัวระบบ
‼️ พลังงานระดับนี้อาจต้องใช้ระบบจ่ายไฟระดับ “โรงไฟฟ้าขนาดย่อม”
• หนึ่ง GPU rack อาจกินไฟ 50kW+ → ส่งผลต่อโครงสร้างพื้นฐานของ data center ทั่วโลก
‼️ ความท้าทายเรื่อง “คาร์บอนฟุตพรินต์” และสิ่งแวดล้อมจะหนักขึ้น
• แม้จะมีความพยายามใช้ cooling แบบปิดระบบ แต่การผลิตและใช้ชิปเหล่านี้ยังสิ้นเปลืองพลังงานมหาศาล
‼️ Immersion cooling ยังเป็นเทคโนโลยีเฉพาะทาง – ไม่แพร่หลายเท่าที่ควร
• ต้องใช้ของเหลวเฉพาะ แพง และต้องมีระบบควบคุมพิเศษ
• อาจไม่เหมาะกับองค์กรทั่วไป
‼️ ยังไม่มีมาตรฐานอุตสาหกรรมด้าน embedded cooling ที่ชัดเจน
• หากใช้ต่างแนวทางกัน อาจเกิดปัญหาความเข้ากันได้ของฮาร์ดแวร์ในอนาคต
https://www.tomshardware.com/pc-components/cooling/future-ai-processors-said-to-consume-up-to-15-360w-massive-power-draw-will-demand-exotic-immersion-and-embedded-cooling-tech ถ้าตอนนี้เราเริ่มบ่นว่า “เซิร์ฟเวอร์มันร้อน” อีกไม่กี่ปีข้างหน้า—อาจต้องเรียกวิศวกรนิวเคลียร์มาช่วยออกแบบห้องเซิร์ฟเวอร์กันเลยทีเดียว 🤯
เพราะรายงานจาก KAIST (สถาบันวิจัยของเกาหลีใต้) ชี้ว่า TDP (Thermal Design Power) ของชิป AI ในอนาคตอาจพุ่งไปถึง 15,360W ภายในปี 2032 ซึ่งสูงกว่าชิป H100 ของ NVIDIA ปัจจุบัน (700–800W) ถึง 20 เท่า
ตอนนี้ NVIDIA Blackwell ใช้พลังงาน 1,400W แล้ว Rubin Ultra ที่จะมาในปี 2027 จะพุ่งไป 3,600W และ Feynman ในปี 2029 จะทะลุ 6,000W ได้เลย โดยทั้งหมดนี้ยัง “ใช้แค่น้ำหล่อเย็น (liquid cooling)” ได้อยู่
แต่หลังจากปี 2030 เป็นต้นไป จะเริ่มใช้เทคโนโลยี Immersion Cooling (จุ่มชิปในของเหลวพิเศษ) และเมื่อถึงปี 2032… ต้องฝังระบบทำความเย็นลงไปในชิปเลย (Embedded Cooling)
และไม่ใช่แค่ตัวประมวลผลที่กินไฟครับ—โมดูลหน่วยความจำ HBM ก็จะใช้ไฟกว่า 2,000W ด้วย นั่นแปลว่าชิป AI 1 ตัวอาจใช้ไฟมากกว่บ้าน 2 หลังรวมกัน!
✅ TDP ของชิป AI เพิ่มจากร้อย → พัน → หมื่นวัตต์ในทศวรรษเดียว
• Blackwell Ultra (2025): 1,400W
• Rubin Ultra (2027): 3,600W
• Feynman Ultra (2029): 6,000W
• Post-Feynman Ultra (2032): 15,360W
✅ แนวโน้มเทคโนโลยีหล่อเย็น AI ตามระดับความร้อน
• เริ่มจาก liquid cooling → immersion cooling → embedded cooling
• KAIST เสนอแนวคิดฝัง "ท่อน้ำหล่อเย็น" และ “ฟลูอิด TSV” ลงในชิป
✅ การเพิ่มจำนวน chiplet และ HBM stack เป็นสาเหตุหลักของพลังงานมหาศาล
• HBM6 stack หนึ่งใช้ไฟถึง 120W และอาจมีมากถึง 16 stack ต่อชิป
• ระบบต้องติดเซ็นเซอร์ความร้อนแบบเรียลไทม์
✅ แนวคิดอนาคต: GPU ซ้อนชั้นสองด้าน + ท่อนำความร้อนฝังใน interposer
• เพิ่มพลังโดยไม่เพิ่มพื้นที่ชิป
• เน้นดึงความร้อนออกจาก “core” ก่อน แล้วค่อยระบายออกนอกตัวระบบ
‼️ พลังงานระดับนี้อาจต้องใช้ระบบจ่ายไฟระดับ “โรงไฟฟ้าขนาดย่อม”
• หนึ่ง GPU rack อาจกินไฟ 50kW+ → ส่งผลต่อโครงสร้างพื้นฐานของ data center ทั่วโลก
‼️ ความท้าทายเรื่อง “คาร์บอนฟุตพรินต์” และสิ่งแวดล้อมจะหนักขึ้น
• แม้จะมีความพยายามใช้ cooling แบบปิดระบบ แต่การผลิตและใช้ชิปเหล่านี้ยังสิ้นเปลืองพลังงานมหาศาล
‼️ Immersion cooling ยังเป็นเทคโนโลยีเฉพาะทาง – ไม่แพร่หลายเท่าที่ควร
• ต้องใช้ของเหลวเฉพาะ แพง และต้องมีระบบควบคุมพิเศษ
• อาจไม่เหมาะกับองค์กรทั่วไป
‼️ ยังไม่มีมาตรฐานอุตสาหกรรมด้าน embedded cooling ที่ชัดเจน
• หากใช้ต่างแนวทางกัน อาจเกิดปัญหาความเข้ากันได้ของฮาร์ดแวร์ในอนาคต
https://www.tomshardware.com/pc-components/cooling/future-ai-processors-said-to-consume-up-to-15-360w-massive-power-draw-will-demand-exotic-immersion-and-embedded-cooling-tech