NVIDIA เปิดตัว “Rubin Platform” — แพลตฟอร์ม AI ที่ทรงพลังที่สุดในโลก พร้อมชิป 6 ตัว และประสิทธิภาพสูงกว่า Blackwell ถึง 5 เท่า
NVIDIA เปิดตัวแพลตฟอร์ม Rubin อย่างเป็นทางการ ซึ่งถูกออกแบบให้เป็นหัวใจของศูนย์ข้อมูล AI รุ่นถัดไป โดย Rubin ให้ประสิทธิภาพสูงกว่า Blackwell ถึง 5× ในงาน inference และ 3.5× ในงาน training พร้อมสเปกที่เรียกได้ว่า “สุดขีด” ของวงการ AI ในปัจจุบัน
แพลตฟอร์ม Rubin ประกอบด้วย 6 ชิปหลัก ได้แก่
Rubin GPU (336 พันล้านทรานซิสเตอร์)
Vera CPU (227 พันล้านทรานซิสเตอร์)
NVLink 6 Switch
ConnectX‑9 (CX9)
BlueField‑4 (BF4)
Spectrum‑X 102.4T CPO (silicon photonics)
ทั้งหมดถูกออกแบบให้ทำงานร่วมกันในระบบ DGX / HGX / MGX รุ่นใหม่ โดยมีหัวใจคือ Vera Rubin Superchip ที่รวม 2× Rubin GPU + 1× Vera CPU + HBM4 + LPDDR5X ไว้ในแพ็กเกจเดียว
Rubin GPU ใช้ดีไซน์แบบ dual‑reticle พร้อม Tensor/Compute cores จำนวนมาก ให้ประสิทธิภาพสูงสุด 50 PFLOPs (NVFP4 inference) และ 35 PFLOPs (training) พร้อม HBM4 ที่ให้แบนด์วิดท์สูงสุด 22 TB/s ต่อชิป ซึ่งมากกว่า Blackwell ถึง 2.8×
ด้าน Vera CPU ใช้สถาปัตยกรรม Arm แบบ custom “Olympus” จำนวน 88 คอร์ / 176 เธรด พร้อม NVLink‑C2C 1.8 TB/s และรองรับหน่วยความจำสูงสุด 1.5 TB LPDDR5X ซึ่งมากกว่า Grace ถึง 3 เท่า และให้ประสิทธิภาพด้าน data processing / compression สูงกว่าเดิม 2×
ไฮไลต์สำคัญจาก Rubin Platform
ความสามารถหลักของ Rubin
50 PFLOPs inference / 35 PFLOPs training ต่อ GPU
HBM4 แบนด์วิดท์ 22 TB/s ต่อชิป (มากกว่า Blackwell 2.8×)
NVLink 6 แบนด์วิดท์ 3.6 TB/s ต่อ CPU (เพิ่มขึ้น 2×)
Vera CPU 88 คอร์ Olympus + 1.5 TB LPDDR5X
Confidential Computing รุ่นที่ 3 (Rack‑scale TEE)
จุดเด่นด้านระบบเครือข่าย
ConnectX‑9 SuperNIC แบนด์วิดท์ 1.6 TB/s
BlueField‑4 DPU 800G พร้อม Grace 64 คอร์ในตัว
Spectrum‑X 102.4T CPO ให้ประสิทธิภาพเครือข่าย 95% ที่สเกลสูง
ระบบระดับศูนย์ข้อมูล: NVL72 และ SuperPOD
NVIDIA เปิดตัว Vera Rubin NVL72 rack ซึ่งรวม 72 GPUs + 36 CPUs พร้อมสเปกที่เหนือกว่า Blackwell อย่างมาก:
5× inference throughput (3.6 EFLOPS)
3.5× training throughput (2.5 EFLOPS)
2.8× HBM4 bandwidth (1.6 PB/s)
2× scale‑up bandwidth (260 TB/s)
SuperPOD รุ่นใหม่ใช้ 8× NVL72 racks และยังมีรุ่นเล็กกว่าอย่าง DGX Rubin NVL8 สำหรับศูนย์ข้อมูลทั่วไป
ผลลัพธ์ที่ NVIDIA เคลม
ลดต้นทุน inference ต่อ token ลง 10×
ลดจำนวน GPU ที่ต้องใช้ในการเทรน MoE ลง 4×
Rubin ecosystem พร้อมผลิตและส่งมอบภายในปีนี้
https://wccftech.com/nvidia-rubin-most-advanced-ai-platform-50-pflops-vera-cpu-5x-uplift-vs-blackwell/
NVIDIA เปิดตัวแพลตฟอร์ม Rubin อย่างเป็นทางการ ซึ่งถูกออกแบบให้เป็นหัวใจของศูนย์ข้อมูล AI รุ่นถัดไป โดย Rubin ให้ประสิทธิภาพสูงกว่า Blackwell ถึง 5× ในงาน inference และ 3.5× ในงาน training พร้อมสเปกที่เรียกได้ว่า “สุดขีด” ของวงการ AI ในปัจจุบัน
แพลตฟอร์ม Rubin ประกอบด้วย 6 ชิปหลัก ได้แก่
Rubin GPU (336 พันล้านทรานซิสเตอร์)
Vera CPU (227 พันล้านทรานซิสเตอร์)
NVLink 6 Switch
ConnectX‑9 (CX9)
BlueField‑4 (BF4)
Spectrum‑X 102.4T CPO (silicon photonics)
ทั้งหมดถูกออกแบบให้ทำงานร่วมกันในระบบ DGX / HGX / MGX รุ่นใหม่ โดยมีหัวใจคือ Vera Rubin Superchip ที่รวม 2× Rubin GPU + 1× Vera CPU + HBM4 + LPDDR5X ไว้ในแพ็กเกจเดียว
Rubin GPU ใช้ดีไซน์แบบ dual‑reticle พร้อม Tensor/Compute cores จำนวนมาก ให้ประสิทธิภาพสูงสุด 50 PFLOPs (NVFP4 inference) และ 35 PFLOPs (training) พร้อม HBM4 ที่ให้แบนด์วิดท์สูงสุด 22 TB/s ต่อชิป ซึ่งมากกว่า Blackwell ถึง 2.8×
ด้าน Vera CPU ใช้สถาปัตยกรรม Arm แบบ custom “Olympus” จำนวน 88 คอร์ / 176 เธรด พร้อม NVLink‑C2C 1.8 TB/s และรองรับหน่วยความจำสูงสุด 1.5 TB LPDDR5X ซึ่งมากกว่า Grace ถึง 3 เท่า และให้ประสิทธิภาพด้าน data processing / compression สูงกว่าเดิม 2×
ไฮไลต์สำคัญจาก Rubin Platform
ความสามารถหลักของ Rubin
50 PFLOPs inference / 35 PFLOPs training ต่อ GPU
HBM4 แบนด์วิดท์ 22 TB/s ต่อชิป (มากกว่า Blackwell 2.8×)
NVLink 6 แบนด์วิดท์ 3.6 TB/s ต่อ CPU (เพิ่มขึ้น 2×)
Vera CPU 88 คอร์ Olympus + 1.5 TB LPDDR5X
Confidential Computing รุ่นที่ 3 (Rack‑scale TEE)
จุดเด่นด้านระบบเครือข่าย
ConnectX‑9 SuperNIC แบนด์วิดท์ 1.6 TB/s
BlueField‑4 DPU 800G พร้อม Grace 64 คอร์ในตัว
Spectrum‑X 102.4T CPO ให้ประสิทธิภาพเครือข่าย 95% ที่สเกลสูง
ระบบระดับศูนย์ข้อมูล: NVL72 และ SuperPOD
NVIDIA เปิดตัว Vera Rubin NVL72 rack ซึ่งรวม 72 GPUs + 36 CPUs พร้อมสเปกที่เหนือกว่า Blackwell อย่างมาก:
5× inference throughput (3.6 EFLOPS)
3.5× training throughput (2.5 EFLOPS)
2.8× HBM4 bandwidth (1.6 PB/s)
2× scale‑up bandwidth (260 TB/s)
SuperPOD รุ่นใหม่ใช้ 8× NVL72 racks และยังมีรุ่นเล็กกว่าอย่าง DGX Rubin NVL8 สำหรับศูนย์ข้อมูลทั่วไป
ผลลัพธ์ที่ NVIDIA เคลม
ลดต้นทุน inference ต่อ token ลง 10×
ลดจำนวน GPU ที่ต้องใช้ในการเทรน MoE ลง 4×
Rubin ecosystem พร้อมผลิตและส่งมอบภายในปีนี้
https://wccftech.com/nvidia-rubin-most-advanced-ai-platform-50-pflops-vera-cpu-5x-uplift-vs-blackwell/
🤖⚡ NVIDIA เปิดตัว “Rubin Platform” — แพลตฟอร์ม AI ที่ทรงพลังที่สุดในโลก พร้อมชิป 6 ตัว และประสิทธิภาพสูงกว่า Blackwell ถึง 5 เท่า
NVIDIA เปิดตัวแพลตฟอร์ม Rubin อย่างเป็นทางการ ซึ่งถูกออกแบบให้เป็นหัวใจของศูนย์ข้อมูล AI รุ่นถัดไป โดย Rubin ให้ประสิทธิภาพสูงกว่า Blackwell ถึง 5× ในงาน inference และ 3.5× ในงาน training พร้อมสเปกที่เรียกได้ว่า “สุดขีด” ของวงการ AI ในปัจจุบัน
แพลตฟอร์ม Rubin ประกอบด้วย 6 ชิปหลัก ได้แก่
💠 Rubin GPU (336 พันล้านทรานซิสเตอร์)
💠 Vera CPU (227 พันล้านทรานซิสเตอร์)
💠 NVLink 6 Switch
💠 ConnectX‑9 (CX9)
💠 BlueField‑4 (BF4)
💠 Spectrum‑X 102.4T CPO (silicon photonics)
ทั้งหมดถูกออกแบบให้ทำงานร่วมกันในระบบ DGX / HGX / MGX รุ่นใหม่ โดยมีหัวใจคือ Vera Rubin Superchip ที่รวม 2× Rubin GPU + 1× Vera CPU + HBM4 + LPDDR5X ไว้ในแพ็กเกจเดียว
Rubin GPU ใช้ดีไซน์แบบ dual‑reticle พร้อม Tensor/Compute cores จำนวนมาก ให้ประสิทธิภาพสูงสุด 50 PFLOPs (NVFP4 inference) และ 35 PFLOPs (training) พร้อม HBM4 ที่ให้แบนด์วิดท์สูงสุด 22 TB/s ต่อชิป ซึ่งมากกว่า Blackwell ถึง 2.8×
ด้าน Vera CPU ใช้สถาปัตยกรรม Arm แบบ custom “Olympus” จำนวน 88 คอร์ / 176 เธรด พร้อม NVLink‑C2C 1.8 TB/s และรองรับหน่วยความจำสูงสุด 1.5 TB LPDDR5X ซึ่งมากกว่า Grace ถึง 3 เท่า และให้ประสิทธิภาพด้าน data processing / compression สูงกว่าเดิม 2×
📌 ไฮไลต์สำคัญจาก Rubin Platform
✅ ความสามารถหลักของ Rubin
➡️ 50 PFLOPs inference / 35 PFLOPs training ต่อ GPU
➡️ HBM4 แบนด์วิดท์ 22 TB/s ต่อชิป (มากกว่า Blackwell 2.8×)
➡️ NVLink 6 แบนด์วิดท์ 3.6 TB/s ต่อ CPU (เพิ่มขึ้น 2×)
➡️ Vera CPU 88 คอร์ Olympus + 1.5 TB LPDDR5X
➡️ Confidential Computing รุ่นที่ 3 (Rack‑scale TEE)
‼️ จุดเด่นด้านระบบเครือข่าย
⛔ ConnectX‑9 SuperNIC แบนด์วิดท์ 1.6 TB/s
⛔ BlueField‑4 DPU 800G พร้อม Grace 64 คอร์ในตัว
⛔ Spectrum‑X 102.4T CPO ให้ประสิทธิภาพเครือข่าย 95% ที่สเกลสูง
🧩 ระบบระดับศูนย์ข้อมูล: NVL72 และ SuperPOD
NVIDIA เปิดตัว Vera Rubin NVL72 rack ซึ่งรวม 72 GPUs + 36 CPUs พร้อมสเปกที่เหนือกว่า Blackwell อย่างมาก:
💠 5× inference throughput (3.6 EFLOPS)
💠 3.5× training throughput (2.5 EFLOPS)
💠 2.8× HBM4 bandwidth (1.6 PB/s)
💠 2× scale‑up bandwidth (260 TB/s)
SuperPOD รุ่นใหม่ใช้ 8× NVL72 racks และยังมีรุ่นเล็กกว่าอย่าง DGX Rubin NVL8 สำหรับศูนย์ข้อมูลทั่วไป
📌 ผลลัพธ์ที่ NVIDIA เคลม
➡️ ลดต้นทุน inference ต่อ token ลง 10×
➡️ ลดจำนวน GPU ที่ต้องใช้ในการเทรน MoE ลง 4×
➡️ Rubin ecosystem พร้อมผลิตและส่งมอบภายในปีนี้
https://wccftech.com/nvidia-rubin-most-advanced-ai-platform-50-pflops-vera-cpu-5x-uplift-vs-blackwell/
0 ความคิดเห็น
0 การแบ่งปัน
131 มุมมอง
0 รีวิว