สงครามด้านพลังประมวลผลของ AI กำลังลากเอาทุกภาคส่วนมาเกี่ยวข้อง ไม่ใช่แค่เรื่องของ GPU แรงๆ อีกต่อไป เพราะหน่วยความจำ HBM (High Bandwidth Memory) ที่ถูกใช้ในการ์ด AI เช่น H100, B200 หรือ MI300 ก็เริ่ม “กินไฟเกินควบคุม” แล้วเช่นกัน

จากแผนของ KAIST – TERA Lab เผยว่า roadmap ของ HBM ตั้งแต่ HBM4 → HBM8 จะพุ่งแรงทั้งแบนด์วิธและขนาด... แต่ก็ตามมาด้วย การใช้พลังงานแบบน่าตกใจ

- HBM4 (เริ่ม 2026): ใช้ใน Nvidia Rubin, AMD MI400, ความจุ 432GB ต่อการ์ด, ระบายความร้อนด้วย liquid cooling
- HBM5 (2029): ยกระดับไปถึง 640GB ต่อ GPU, ใช้ immersion cooling
- HBM6 (2032): ดึงไฟถึง 120W/stack, รวมแล้ว 5,920W ต่อ GPU
- HBM7 (2035): รองรับ 6TB ต่อการ์ด, 15,360W ต่อการ์ด GPU เดียว!
- HBM8 (2038): วิ่งแบนด์วิธ 64TB/s ต่อ stack, ความเร็ว 32Gbps, เริ่มมีเทคนิค embedded cooling และ interposer 2 ด้าน

คิดเล่นๆ: ถ้ามีดาต้าเซ็นเตอร์ที่ใช้ GPU แบบ HBM8 จำนวน 1 ล้านชิป จะกินไฟรวม 15.36 กิกะวัตต์ เท่ากับการผลิตไฟฟ้าจากพลังงานลมของทั้งสหราชอาณาจักรในปี 2024! 😱

เทคโนโลยีใหม่ๆ เช่น HBF (High-Bandwidth Flash) เริ่มถูกพูดถึงเพื่อรวม NAND Flash + LPDDR เข้าไปใน stack เดียวกับ HBM แต่ก็ยังเป็นคอนเซ็ปต์ที่อยู่ในช่วงวิจัย ทดลอง และยังไม่มีคำตอบว่า “จะเอาอยู่” หรือเปล่า

https://www.techradar.com/pro/ai-gpu-accelerators-with-6tb-hbm-memory-could-appear-by-2035-as-ai-gpu-die-sizes-set-to-shrink-but-theres-far-worse-coming-up
สงครามด้านพลังประมวลผลของ AI กำลังลากเอาทุกภาคส่วนมาเกี่ยวข้อง ไม่ใช่แค่เรื่องของ GPU แรงๆ อีกต่อไป เพราะหน่วยความจำ HBM (High Bandwidth Memory) ที่ถูกใช้ในการ์ด AI เช่น H100, B200 หรือ MI300 ก็เริ่ม “กินไฟเกินควบคุม” แล้วเช่นกัน จากแผนของ KAIST – TERA Lab เผยว่า roadmap ของ HBM ตั้งแต่ HBM4 → HBM8 จะพุ่งแรงทั้งแบนด์วิธและขนาด... แต่ก็ตามมาด้วย การใช้พลังงานแบบน่าตกใจ - HBM4 (เริ่ม 2026): ใช้ใน Nvidia Rubin, AMD MI400, ความจุ 432GB ต่อการ์ด, ระบายความร้อนด้วย liquid cooling - HBM5 (2029): ยกระดับไปถึง 640GB ต่อ GPU, ใช้ immersion cooling - HBM6 (2032): ดึงไฟถึง 120W/stack, รวมแล้ว 5,920W ต่อ GPU - HBM7 (2035): รองรับ 6TB ต่อการ์ด, 15,360W ต่อการ์ด GPU เดียว! - HBM8 (2038): วิ่งแบนด์วิธ 64TB/s ต่อ stack, ความเร็ว 32Gbps, เริ่มมีเทคนิค embedded cooling และ interposer 2 ด้าน คิดเล่นๆ: ถ้ามีดาต้าเซ็นเตอร์ที่ใช้ GPU แบบ HBM8 จำนวน 1 ล้านชิป จะกินไฟรวม 15.36 กิกะวัตต์ เท่ากับการผลิตไฟฟ้าจากพลังงานลมของทั้งสหราชอาณาจักรในปี 2024! 😱 เทคโนโลยีใหม่ๆ เช่น HBF (High-Bandwidth Flash) เริ่มถูกพูดถึงเพื่อรวม NAND Flash + LPDDR เข้าไปใน stack เดียวกับ HBM แต่ก็ยังเป็นคอนเซ็ปต์ที่อยู่ในช่วงวิจัย ทดลอง และยังไม่มีคำตอบว่า “จะเอาอยู่” หรือเปล่า https://www.techradar.com/pro/ai-gpu-accelerators-with-6tb-hbm-memory-could-appear-by-2035-as-ai-gpu-die-sizes-set-to-shrink-but-theres-far-worse-coming-up
0 Comments 0 Shares 18 Views 0 Reviews