“Huawei เปิดตัว Atlas 950 SuperCluster — ซูเปอร์คอมพิวเตอร์ AI ขนาดยักษ์ที่แรงถึง 1 ZettaFLOPS พร้อมท้าชน Nvidia ในปี 2026”
ในงาน Huawei Connect 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ชื่อว่า Atlas 950 SuperCluster ซึ่งถือเป็นก้าวกระโดดครั้งใหญ่ของจีนในการแข่งขันด้านฮาร์ดแวร์ AI ระดับโลก โดยระบบนี้สามารถประมวลผลได้ถึง 1 FP4 ZettaFLOPS สำหรับงาน inference และ 524 FP8 ExaFLOPS สำหรับการฝึกโมเดล AI ขนาดใหญ่
Atlas 950 สร้างขึ้นจากหน่วยประมวลผล Ascend 950DT จำนวนมหาศาลถึง 524,288 ตัว ซึ่งกระจายอยู่ในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้ และเชื่อมต่อกันด้วยระบบออปติกความเร็วสูงแบบ UnifiedBus over Ethernet (UBoE) ที่ Huawei พัฒนาขึ้นเอง โดยมี latency ต่ำเพียง 2.1 ไมโครวินาที และ bandwidth สูงถึง 16 PB/s
ระบบนี้ประกอบด้วย 64 SuperPoD ซึ่งแต่ละชุดมี 8,192 APU และให้พลังประมวลผล 8 FP8 ExaFLOPS และ 16 FP4 ExaFLOPS ต่อชุด ถือเป็นการเพิ่มขีดความสามารถจากรุ่นก่อนหน้าอย่าง Atlas 900 A3 ถึง 20 เท่า และมีขนาดพื้นที่รวมกว่า 64,000 ตารางเมตร หรือเทียบเท่าสนามฟุตบอล 9 สนาม
แม้ Huawei จะยอมรับว่า APU ของตนยังไม่สามารถเทียบกับ GPU ของ Nvidia ได้ในแง่ประสิทธิภาพต่อชิป แต่บริษัทเลือกใช้แนวทาง “brute force” โดยเพิ่มจำนวนชิปมหาศาลเพื่อให้ได้พลังประมวลผลรวมที่สามารถแข่งขันกับระบบ Rubin ของ Nvidia ที่จะเปิดตัวในปี 2026–2027
นอกจากนี้ Huawei ยังประกาศแผนเปิดตัว Atlas 960 SuperCluster ในปี 2027 ซึ่งจะใช้ Ascend 960 NPU กว่า 1 ล้านตัว และให้พลังประมวลผลสูงถึง 4 ZettaFLOPS สำหรับ inference และ 2 ZettaFLOPS สำหรับ training
ข้อมูลสำคัญจากข่าว
Huawei เปิดตัว Atlas 950 SuperCluster ที่งาน Huawei Connect 2025
ให้พลังประมวลผล 1 FP4 ZettaFLOPS สำหรับ inference และ 524 FP8 ExaFLOPS สำหรับ training
ใช้ Ascend 950DT จำนวน 524,288 ตัวในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้
เชื่อมต่อด้วยระบบ UBoE ที่มี latency ต่ำและ bandwidth สูง
โครงสร้างและการออกแบบ
ประกอบด้วย 64 SuperPoD แต่ละชุดมี 8,192 APU
พื้นที่รวมของระบบกว่า 64,000 ตารางเมตร เทียบเท่าสนามฟุตบอล 9 สนาม
ใช้แนวทาง brute force เพื่อแข่งขันกับ Nvidia Rubin ที่จะเปิดตัวในปี 2026
รองรับโมเดล AI ขนาดใหญ่ระดับหลายแสนล้านถึงหลายล้านล้านพารามิเตอร์
ข้อมูลเสริมจากภายนอก
Nvidia Vera Rubin NVL144 ให้พลังเพียง 1.2 FP8 ExaFLOPS เทียบกับ 8 FP8 ของ SuperPoD Huawei
Oracle OCI Supercluster ใช้ B200 GPU 131,072 ตัว ให้พลัง 2.4 FP4 ZettaFLOPS
Huawei เตรียมเปิดตัว Atlas 960 SuperCluster ในปี 2027 พร้อมพลัง 4 ZettaFLOPS
Ascend roadmap ของ Huawei จะมีรุ่น 950PR, 960 และ 970 ตามลำดับในปีถัดไป
https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-unveils-atlas-950-supercluster-touting-1-fp4-zettaflops-performance-for-ai-inference-and-524-fp8-exaflops-for-ai-training-features-hundreds-of-thousands-of-950dt-apus
ในงาน Huawei Connect 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ชื่อว่า Atlas 950 SuperCluster ซึ่งถือเป็นก้าวกระโดดครั้งใหญ่ของจีนในการแข่งขันด้านฮาร์ดแวร์ AI ระดับโลก โดยระบบนี้สามารถประมวลผลได้ถึง 1 FP4 ZettaFLOPS สำหรับงาน inference และ 524 FP8 ExaFLOPS สำหรับการฝึกโมเดล AI ขนาดใหญ่
Atlas 950 สร้างขึ้นจากหน่วยประมวลผล Ascend 950DT จำนวนมหาศาลถึง 524,288 ตัว ซึ่งกระจายอยู่ในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้ และเชื่อมต่อกันด้วยระบบออปติกความเร็วสูงแบบ UnifiedBus over Ethernet (UBoE) ที่ Huawei พัฒนาขึ้นเอง โดยมี latency ต่ำเพียง 2.1 ไมโครวินาที และ bandwidth สูงถึง 16 PB/s
ระบบนี้ประกอบด้วย 64 SuperPoD ซึ่งแต่ละชุดมี 8,192 APU และให้พลังประมวลผล 8 FP8 ExaFLOPS และ 16 FP4 ExaFLOPS ต่อชุด ถือเป็นการเพิ่มขีดความสามารถจากรุ่นก่อนหน้าอย่าง Atlas 900 A3 ถึง 20 เท่า และมีขนาดพื้นที่รวมกว่า 64,000 ตารางเมตร หรือเทียบเท่าสนามฟุตบอล 9 สนาม
แม้ Huawei จะยอมรับว่า APU ของตนยังไม่สามารถเทียบกับ GPU ของ Nvidia ได้ในแง่ประสิทธิภาพต่อชิป แต่บริษัทเลือกใช้แนวทาง “brute force” โดยเพิ่มจำนวนชิปมหาศาลเพื่อให้ได้พลังประมวลผลรวมที่สามารถแข่งขันกับระบบ Rubin ของ Nvidia ที่จะเปิดตัวในปี 2026–2027
นอกจากนี้ Huawei ยังประกาศแผนเปิดตัว Atlas 960 SuperCluster ในปี 2027 ซึ่งจะใช้ Ascend 960 NPU กว่า 1 ล้านตัว และให้พลังประมวลผลสูงถึง 4 ZettaFLOPS สำหรับ inference และ 2 ZettaFLOPS สำหรับ training
ข้อมูลสำคัญจากข่าว
Huawei เปิดตัว Atlas 950 SuperCluster ที่งาน Huawei Connect 2025
ให้พลังประมวลผล 1 FP4 ZettaFLOPS สำหรับ inference และ 524 FP8 ExaFLOPS สำหรับ training
ใช้ Ascend 950DT จำนวน 524,288 ตัวในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้
เชื่อมต่อด้วยระบบ UBoE ที่มี latency ต่ำและ bandwidth สูง
โครงสร้างและการออกแบบ
ประกอบด้วย 64 SuperPoD แต่ละชุดมี 8,192 APU
พื้นที่รวมของระบบกว่า 64,000 ตารางเมตร เทียบเท่าสนามฟุตบอล 9 สนาม
ใช้แนวทาง brute force เพื่อแข่งขันกับ Nvidia Rubin ที่จะเปิดตัวในปี 2026
รองรับโมเดล AI ขนาดใหญ่ระดับหลายแสนล้านถึงหลายล้านล้านพารามิเตอร์
ข้อมูลเสริมจากภายนอก
Nvidia Vera Rubin NVL144 ให้พลังเพียง 1.2 FP8 ExaFLOPS เทียบกับ 8 FP8 ของ SuperPoD Huawei
Oracle OCI Supercluster ใช้ B200 GPU 131,072 ตัว ให้พลัง 2.4 FP4 ZettaFLOPS
Huawei เตรียมเปิดตัว Atlas 960 SuperCluster ในปี 2027 พร้อมพลัง 4 ZettaFLOPS
Ascend roadmap ของ Huawei จะมีรุ่น 950PR, 960 และ 970 ตามลำดับในปีถัดไป
https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-unveils-atlas-950-supercluster-touting-1-fp4-zettaflops-performance-for-ai-inference-and-524-fp8-exaflops-for-ai-training-features-hundreds-of-thousands-of-950dt-apus
🚀 “Huawei เปิดตัว Atlas 950 SuperCluster — ซูเปอร์คอมพิวเตอร์ AI ขนาดยักษ์ที่แรงถึง 1 ZettaFLOPS พร้อมท้าชน Nvidia ในปี 2026”
ในงาน Huawei Connect 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ชื่อว่า Atlas 950 SuperCluster ซึ่งถือเป็นก้าวกระโดดครั้งใหญ่ของจีนในการแข่งขันด้านฮาร์ดแวร์ AI ระดับโลก โดยระบบนี้สามารถประมวลผลได้ถึง 1 FP4 ZettaFLOPS สำหรับงาน inference และ 524 FP8 ExaFLOPS สำหรับการฝึกโมเดล AI ขนาดใหญ่
Atlas 950 สร้างขึ้นจากหน่วยประมวลผล Ascend 950DT จำนวนมหาศาลถึง 524,288 ตัว ซึ่งกระจายอยู่ในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้ และเชื่อมต่อกันด้วยระบบออปติกความเร็วสูงแบบ UnifiedBus over Ethernet (UBoE) ที่ Huawei พัฒนาขึ้นเอง โดยมี latency ต่ำเพียง 2.1 ไมโครวินาที และ bandwidth สูงถึง 16 PB/s
ระบบนี้ประกอบด้วย 64 SuperPoD ซึ่งแต่ละชุดมี 8,192 APU และให้พลังประมวลผล 8 FP8 ExaFLOPS และ 16 FP4 ExaFLOPS ต่อชุด ถือเป็นการเพิ่มขีดความสามารถจากรุ่นก่อนหน้าอย่าง Atlas 900 A3 ถึง 20 เท่า และมีขนาดพื้นที่รวมกว่า 64,000 ตารางเมตร หรือเทียบเท่าสนามฟุตบอล 9 สนาม
แม้ Huawei จะยอมรับว่า APU ของตนยังไม่สามารถเทียบกับ GPU ของ Nvidia ได้ในแง่ประสิทธิภาพต่อชิป แต่บริษัทเลือกใช้แนวทาง “brute force” โดยเพิ่มจำนวนชิปมหาศาลเพื่อให้ได้พลังประมวลผลรวมที่สามารถแข่งขันกับระบบ Rubin ของ Nvidia ที่จะเปิดตัวในปี 2026–2027
นอกจากนี้ Huawei ยังประกาศแผนเปิดตัว Atlas 960 SuperCluster ในปี 2027 ซึ่งจะใช้ Ascend 960 NPU กว่า 1 ล้านตัว และให้พลังประมวลผลสูงถึง 4 ZettaFLOPS สำหรับ inference และ 2 ZettaFLOPS สำหรับ training
✅ ข้อมูลสำคัญจากข่าว
➡️ Huawei เปิดตัว Atlas 950 SuperCluster ที่งาน Huawei Connect 2025
➡️ ให้พลังประมวลผล 1 FP4 ZettaFLOPS สำหรับ inference และ 524 FP8 ExaFLOPS สำหรับ training
➡️ ใช้ Ascend 950DT จำนวน 524,288 ตัวในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้
➡️ เชื่อมต่อด้วยระบบ UBoE ที่มี latency ต่ำและ bandwidth สูง
✅ โครงสร้างและการออกแบบ
➡️ ประกอบด้วย 64 SuperPoD แต่ละชุดมี 8,192 APU
➡️ พื้นที่รวมของระบบกว่า 64,000 ตารางเมตร เทียบเท่าสนามฟุตบอล 9 สนาม
➡️ ใช้แนวทาง brute force เพื่อแข่งขันกับ Nvidia Rubin ที่จะเปิดตัวในปี 2026
➡️ รองรับโมเดล AI ขนาดใหญ่ระดับหลายแสนล้านถึงหลายล้านล้านพารามิเตอร์
✅ ข้อมูลเสริมจากภายนอก
➡️ Nvidia Vera Rubin NVL144 ให้พลังเพียง 1.2 FP8 ExaFLOPS เทียบกับ 8 FP8 ของ SuperPoD Huawei
➡️ Oracle OCI Supercluster ใช้ B200 GPU 131,072 ตัว ให้พลัง 2.4 FP4 ZettaFLOPS
➡️ Huawei เตรียมเปิดตัว Atlas 960 SuperCluster ในปี 2027 พร้อมพลัง 4 ZettaFLOPS
➡️ Ascend roadmap ของ Huawei จะมีรุ่น 950PR, 960 และ 970 ตามลำดับในปีถัดไป
https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-unveils-atlas-950-supercluster-touting-1-fp4-zettaflops-performance-for-ai-inference-and-524-fp8-exaflops-for-ai-training-features-hundreds-of-thousands-of-950dt-apus
0 Comments
0 Shares
43 Views
0 Reviews