เรื่องเล่าจากข่าว: Huawei CloudMatrix 384—AI ซูเปอร์คลัสเตอร์ที่ท้าชน Nvidia ด้วยพลังแห่งการรวมชิป
ในงาน World Artificial Intelligence Conference 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นซูเปอร์คลัสเตอร์ AI ที่ประกอบด้วยชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อกันด้วยโครงสร้างแบบ “all-to-all mesh” ผ่านสายออปติกความเร็วสูง
แม้ชิปแต่ละตัวจะมีประสิทธิภาพต่ำกว่า Nvidia H100 แต่ Huawei ใช้กลยุทธ์ “จำนวนมาก + การออกแบบระบบ” เพื่อชดเชยข้อเสีย และสามารถให้ประสิทธิภาพรวมสูงกว่าระบบ Nvidia GB200 NVL72 ได้ในหลายด้าน เช่น:
- ความเร็วในการประมวลผล BF16 สูงกว่า 1.7 เท่า
- ความจุหน่วยความจำสูงกว่า 3.6 เท่า
- แบนด์วิดธ์หน่วยความจำสูงกว่า 2.1 เท่า
อย่างไรก็ตาม ระบบนี้ใช้พลังงานมากกว่าถึง 3.9 เท่า และมีประสิทธิภาพต่อวัตต์ต่ำกว่าถึง 2.3 เท่า ซึ่งอาจเป็นข้อจำกัดสำคัญในตลาดโลก แต่สำหรับจีนที่มีแหล่งพลังงานหลากหลายและราคาถูก นี่อาจไม่ใช่ปัญหา
Huawei เปิดตัวระบบ CloudMatrix 384 ในงาน WAIC 2025 ที่เซี่ยงไฮ้
ใช้ชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อแบบ all-to-all mesh ด้วยสายออปติก
ออกแบบมาเพื่อแข่งขันกับ Nvidia GB200 NVL72
ระบบสามารถประมวลผลได้ถึง 300 PFLOPs แบบ BF16
สูงกว่า Nvidia GB200 NVL72 ที่ทำได้ 180 PFLOPs
เหมาะสำหรับงาน inference ของโมเดลขนาดใหญ่
Ascend 910C มีประสิทธิภาพประมาณ 60% ของ Nvidia H100 ในงาน inference
ใช้เทคนิค dual-chiplet และหน่วยความจำ HBM2E ขนาด 128 GB
ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm รุ่นใหม่
ระบบมีความจุหน่วยความจำรวม 49.2 TB และแบนด์วิดธ์รวม 1229 TB/s
สูงกว่า Nvidia GB200 NVL72 ถึง 3.6 เท่าในด้านความจุ และ 2.1 เท่าในด้านแบนด์วิดธ์
รองรับการเชื่อมต่อแบบ scale-out ได้ถึง 165,000 NPU
ระบบ CloudMatrix 384 ถูกติดตั้งแล้วบน Huawei Cloud และพร้อมใช้งานจริง
ใช้ในงาน AI training และ inference ระดับองค์กร
เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีต่างชาติ
Nvidia GB200 NVL72 ใช้ชิป Grace CPU 36 ตัว และ Blackwell GPU 72 ตัว
ออกแบบให้ทำงานร่วมกันเป็น “GPU ขนาดยักษ์” สำหรับโมเดลระดับล้านล้านพารามิเตอร์
มีข้อจำกัดด้านการส่งออกไปยังจีน
Huawei ใช้สายออปติก 800G LPO จำนวน 6,912 เส้นในการเชื่อมต่อภายในระบบ
ลด latency และเพิ่ม bandwidth ได้อย่างมหาศาล
เป็นการออกแบบที่เน้น “ระบบ” มากกว่าชิปเดี่ยว
DeepSeek AI ใช้ Ascend 910C สำหรับ inference และพบว่าประสิทธิภาพ “เกินคาด”
ใช้เทคนิคแปลง CUDA เป็น CUNN ด้วยโค้ดเพียงบรรทัดเดียว
ช่วยลดต้นทุนและลดการพึ่งพา Nvidia
จีนกำลังผลักดัน ecosystem ด้าน AI แบบครบวงจร ตั้งแต่ชิปถึงโมเดล
มีการตั้งพันธมิตรระหว่างผู้ผลิตชิปและนักพัฒนา LLM
เป้าหมายคือสร้างระบบ AI ที่ไม่ต้องพึ่งพาตะวันตก
ระบบ CloudMatrix 384 ใช้พลังงานมากกว่าระบบ Nvidia ถึง 3.9 เท่า
ประสิทธิภาพต่อวัตต์ต่ำกว่า Nvidia ถึง 2.3 เท่า
อาจไม่เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงาน
ชิป Ascend 910C ยังไม่สามารถเทียบเท่า Nvidia H100 ในงาน training
เหมาะกับ inference มากกว่า training ที่ต้องใช้ความเสถียรสูง
ยังขาด ecosystem ด้านซอฟต์แวร์ที่เทียบเท่า CUDA
ระบบ CloudMatrix ยังไม่มี benchmark สาธารณะหรือการทดสอบจากองค์กรอิสระ
ข้อมูลส่วนใหญ่มาจาก Huawei และ SemiAnalysis
ต้องรอการพิสูจน์จากการใช้งานจริงในระยะยาว
รัฐบาลสหรัฐฯ เตรียมออกมาตรการลงโทษบริษัทที่ใช้ชิป Ascend 910C ทั่วโลก
อ้างว่าใช้เทคโนโลยีที่มีต้นกำเนิดจากสหรัฐฯ
อาจส่งผลต่อบริษัทต่างชาติที่ร่วมใช้งานระบบนี้
https://www.techspot.com/news/108891-huawei-cloudmatrix-384-ai-system-poised-challenge-nvidia.html 🎙️ เรื่องเล่าจากข่าว: Huawei CloudMatrix 384—AI ซูเปอร์คลัสเตอร์ที่ท้าชน Nvidia ด้วยพลังแห่งการรวมชิป
ในงาน World Artificial Intelligence Conference 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นซูเปอร์คลัสเตอร์ AI ที่ประกอบด้วยชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อกันด้วยโครงสร้างแบบ “all-to-all mesh” ผ่านสายออปติกความเร็วสูง
แม้ชิปแต่ละตัวจะมีประสิทธิภาพต่ำกว่า Nvidia H100 แต่ Huawei ใช้กลยุทธ์ “จำนวนมาก + การออกแบบระบบ” เพื่อชดเชยข้อเสีย และสามารถให้ประสิทธิภาพรวมสูงกว่าระบบ Nvidia GB200 NVL72 ได้ในหลายด้าน เช่น:
- ความเร็วในการประมวลผล BF16 สูงกว่า 1.7 เท่า
- ความจุหน่วยความจำสูงกว่า 3.6 เท่า
- แบนด์วิดธ์หน่วยความจำสูงกว่า 2.1 เท่า
อย่างไรก็ตาม ระบบนี้ใช้พลังงานมากกว่าถึง 3.9 เท่า และมีประสิทธิภาพต่อวัตต์ต่ำกว่าถึง 2.3 เท่า ซึ่งอาจเป็นข้อจำกัดสำคัญในตลาดโลก แต่สำหรับจีนที่มีแหล่งพลังงานหลากหลายและราคาถูก นี่อาจไม่ใช่ปัญหา
✅ Huawei เปิดตัวระบบ CloudMatrix 384 ในงาน WAIC 2025 ที่เซี่ยงไฮ้
➡️ ใช้ชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อแบบ all-to-all mesh ด้วยสายออปติก
➡️ ออกแบบมาเพื่อแข่งขันกับ Nvidia GB200 NVL72
✅ ระบบสามารถประมวลผลได้ถึง 300 PFLOPs แบบ BF16
➡️ สูงกว่า Nvidia GB200 NVL72 ที่ทำได้ 180 PFLOPs
➡️ เหมาะสำหรับงาน inference ของโมเดลขนาดใหญ่
✅ Ascend 910C มีประสิทธิภาพประมาณ 60% ของ Nvidia H100 ในงาน inference
➡️ ใช้เทคนิค dual-chiplet และหน่วยความจำ HBM2E ขนาด 128 GB
➡️ ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm รุ่นใหม่
✅ ระบบมีความจุหน่วยความจำรวม 49.2 TB และแบนด์วิดธ์รวม 1229 TB/s
➡️ สูงกว่า Nvidia GB200 NVL72 ถึง 3.6 เท่าในด้านความจุ และ 2.1 เท่าในด้านแบนด์วิดธ์
➡️ รองรับการเชื่อมต่อแบบ scale-out ได้ถึง 165,000 NPU
✅ ระบบ CloudMatrix 384 ถูกติดตั้งแล้วบน Huawei Cloud และพร้อมใช้งานจริง
➡️ ใช้ในงาน AI training และ inference ระดับองค์กร
➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีต่างชาติ
✅ Nvidia GB200 NVL72 ใช้ชิป Grace CPU 36 ตัว และ Blackwell GPU 72 ตัว
➡️ ออกแบบให้ทำงานร่วมกันเป็น “GPU ขนาดยักษ์” สำหรับโมเดลระดับล้านล้านพารามิเตอร์
➡️ มีข้อจำกัดด้านการส่งออกไปยังจีน
✅ Huawei ใช้สายออปติก 800G LPO จำนวน 6,912 เส้นในการเชื่อมต่อภายในระบบ
➡️ ลด latency และเพิ่ม bandwidth ได้อย่างมหาศาล
➡️ เป็นการออกแบบที่เน้น “ระบบ” มากกว่าชิปเดี่ยว
✅ DeepSeek AI ใช้ Ascend 910C สำหรับ inference และพบว่าประสิทธิภาพ “เกินคาด”
➡️ ใช้เทคนิคแปลง CUDA เป็น CUNN ด้วยโค้ดเพียงบรรทัดเดียว
➡️ ช่วยลดต้นทุนและลดการพึ่งพา Nvidia
✅ จีนกำลังผลักดัน ecosystem ด้าน AI แบบครบวงจร ตั้งแต่ชิปถึงโมเดล
➡️ มีการตั้งพันธมิตรระหว่างผู้ผลิตชิปและนักพัฒนา LLM
➡️ เป้าหมายคือสร้างระบบ AI ที่ไม่ต้องพึ่งพาตะวันตก
‼️ ระบบ CloudMatrix 384 ใช้พลังงานมากกว่าระบบ Nvidia ถึง 3.9 เท่า
⛔ ประสิทธิภาพต่อวัตต์ต่ำกว่า Nvidia ถึง 2.3 เท่า
⛔ อาจไม่เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงาน
‼️ ชิป Ascend 910C ยังไม่สามารถเทียบเท่า Nvidia H100 ในงาน training
⛔ เหมาะกับ inference มากกว่า training ที่ต้องใช้ความเสถียรสูง
⛔ ยังขาด ecosystem ด้านซอฟต์แวร์ที่เทียบเท่า CUDA
‼️ ระบบ CloudMatrix ยังไม่มี benchmark สาธารณะหรือการทดสอบจากองค์กรอิสระ
⛔ ข้อมูลส่วนใหญ่มาจาก Huawei และ SemiAnalysis
⛔ ต้องรอการพิสูจน์จากการใช้งานจริงในระยะยาว
‼️ รัฐบาลสหรัฐฯ เตรียมออกมาตรการลงโทษบริษัทที่ใช้ชิป Ascend 910C ทั่วโลก
⛔ อ้างว่าใช้เทคโนโลยีที่มีต้นกำเนิดจากสหรัฐฯ
⛔ อาจส่งผลต่อบริษัทต่างชาติที่ร่วมใช้งานระบบนี้
https://www.techspot.com/news/108891-huawei-cloudmatrix-384-ai-system-poised-challenge-nvidia.html