สงครามด้านพลังประมวลผลของ AI กำลังลากเอาทุกภาคส่วนมาเกี่ยวข้อง ไม่ใช่แค่เรื่องของ GPU แรงๆ อีกต่อไป เพราะหน่วยความจำ HBM (High Bandwidth Memory) ที่ถูกใช้ในการ์ด AI เช่น H100, B200 หรือ MI300 ก็เริ่ม “กินไฟเกินควบคุม” แล้วเช่นกัน
จากแผนของ KAIST – TERA Lab เผยว่า roadmap ของ HBM ตั้งแต่ HBM4 → HBM8 จะพุ่งแรงทั้งแบนด์วิธและขนาด... แต่ก็ตามมาด้วย การใช้พลังงานแบบน่าตกใจ
- HBM4 (เริ่ม 2026): ใช้ใน Nvidia Rubin, AMD MI400, ความจุ 432GB ต่อการ์ด, ระบายความร้อนด้วย liquid cooling
- HBM5 (2029): ยกระดับไปถึง 640GB ต่อ GPU, ใช้ immersion cooling
- HBM6 (2032): ดึงไฟถึง 120W/stack, รวมแล้ว 5,920W ต่อ GPU
- HBM7 (2035): รองรับ 6TB ต่อการ์ด, 15,360W ต่อการ์ด GPU เดียว!
- HBM8 (2038): วิ่งแบนด์วิธ 64TB/s ต่อ stack, ความเร็ว 32Gbps, เริ่มมีเทคนิค embedded cooling และ interposer 2 ด้าน
คิดเล่นๆ: ถ้ามีดาต้าเซ็นเตอร์ที่ใช้ GPU แบบ HBM8 จำนวน 1 ล้านชิป จะกินไฟรวม 15.36 กิกะวัตต์ เท่ากับการผลิตไฟฟ้าจากพลังงานลมของทั้งสหราชอาณาจักรในปี 2024! 😱
เทคโนโลยีใหม่ๆ เช่น HBF (High-Bandwidth Flash) เริ่มถูกพูดถึงเพื่อรวม NAND Flash + LPDDR เข้าไปใน stack เดียวกับ HBM แต่ก็ยังเป็นคอนเซ็ปต์ที่อยู่ในช่วงวิจัย ทดลอง และยังไม่มีคำตอบว่า “จะเอาอยู่” หรือเปล่า
https://www.techradar.com/pro/ai-gpu-accelerators-with-6tb-hbm-memory-could-appear-by-2035-as-ai-gpu-die-sizes-set-to-shrink-but-theres-far-worse-coming-up
จากแผนของ KAIST – TERA Lab เผยว่า roadmap ของ HBM ตั้งแต่ HBM4 → HBM8 จะพุ่งแรงทั้งแบนด์วิธและขนาด... แต่ก็ตามมาด้วย การใช้พลังงานแบบน่าตกใจ
- HBM4 (เริ่ม 2026): ใช้ใน Nvidia Rubin, AMD MI400, ความจุ 432GB ต่อการ์ด, ระบายความร้อนด้วย liquid cooling
- HBM5 (2029): ยกระดับไปถึง 640GB ต่อ GPU, ใช้ immersion cooling
- HBM6 (2032): ดึงไฟถึง 120W/stack, รวมแล้ว 5,920W ต่อ GPU
- HBM7 (2035): รองรับ 6TB ต่อการ์ด, 15,360W ต่อการ์ด GPU เดียว!
- HBM8 (2038): วิ่งแบนด์วิธ 64TB/s ต่อ stack, ความเร็ว 32Gbps, เริ่มมีเทคนิค embedded cooling และ interposer 2 ด้าน
คิดเล่นๆ: ถ้ามีดาต้าเซ็นเตอร์ที่ใช้ GPU แบบ HBM8 จำนวน 1 ล้านชิป จะกินไฟรวม 15.36 กิกะวัตต์ เท่ากับการผลิตไฟฟ้าจากพลังงานลมของทั้งสหราชอาณาจักรในปี 2024! 😱
เทคโนโลยีใหม่ๆ เช่น HBF (High-Bandwidth Flash) เริ่มถูกพูดถึงเพื่อรวม NAND Flash + LPDDR เข้าไปใน stack เดียวกับ HBM แต่ก็ยังเป็นคอนเซ็ปต์ที่อยู่ในช่วงวิจัย ทดลอง และยังไม่มีคำตอบว่า “จะเอาอยู่” หรือเปล่า
https://www.techradar.com/pro/ai-gpu-accelerators-with-6tb-hbm-memory-could-appear-by-2035-as-ai-gpu-die-sizes-set-to-shrink-but-theres-far-worse-coming-up
สงครามด้านพลังประมวลผลของ AI กำลังลากเอาทุกภาคส่วนมาเกี่ยวข้อง ไม่ใช่แค่เรื่องของ GPU แรงๆ อีกต่อไป เพราะหน่วยความจำ HBM (High Bandwidth Memory) ที่ถูกใช้ในการ์ด AI เช่น H100, B200 หรือ MI300 ก็เริ่ม “กินไฟเกินควบคุม” แล้วเช่นกัน
จากแผนของ KAIST – TERA Lab เผยว่า roadmap ของ HBM ตั้งแต่ HBM4 → HBM8 จะพุ่งแรงทั้งแบนด์วิธและขนาด... แต่ก็ตามมาด้วย การใช้พลังงานแบบน่าตกใจ
- HBM4 (เริ่ม 2026): ใช้ใน Nvidia Rubin, AMD MI400, ความจุ 432GB ต่อการ์ด, ระบายความร้อนด้วย liquid cooling
- HBM5 (2029): ยกระดับไปถึง 640GB ต่อ GPU, ใช้ immersion cooling
- HBM6 (2032): ดึงไฟถึง 120W/stack, รวมแล้ว 5,920W ต่อ GPU
- HBM7 (2035): รองรับ 6TB ต่อการ์ด, 15,360W ต่อการ์ด GPU เดียว!
- HBM8 (2038): วิ่งแบนด์วิธ 64TB/s ต่อ stack, ความเร็ว 32Gbps, เริ่มมีเทคนิค embedded cooling และ interposer 2 ด้าน
คิดเล่นๆ: ถ้ามีดาต้าเซ็นเตอร์ที่ใช้ GPU แบบ HBM8 จำนวน 1 ล้านชิป จะกินไฟรวม 15.36 กิกะวัตต์ เท่ากับการผลิตไฟฟ้าจากพลังงานลมของทั้งสหราชอาณาจักรในปี 2024! 😱
เทคโนโลยีใหม่ๆ เช่น HBF (High-Bandwidth Flash) เริ่มถูกพูดถึงเพื่อรวม NAND Flash + LPDDR เข้าไปใน stack เดียวกับ HBM แต่ก็ยังเป็นคอนเซ็ปต์ที่อยู่ในช่วงวิจัย ทดลอง และยังไม่มีคำตอบว่า “จะเอาอยู่” หรือเปล่า
https://www.techradar.com/pro/ai-gpu-accelerators-with-6tb-hbm-memory-could-appear-by-2035-as-ai-gpu-die-sizes-set-to-shrink-but-theres-far-worse-coming-up
0 ความคิดเห็น
0 การแบ่งปัน
16 มุมมอง
0 รีวิว