“ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม”
ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร
NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50%
ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า
NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด
การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง
ผลการทดสอบ MLPerf v5.1
GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server
MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B
GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL
ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput
จุดเด่นของ Blackwell Ultra GB300
มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน
ใช้ HBM3e สูงสุด 288GB ต่อ GPU
ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1
ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark
จุดเด่นของ AMD Instinct MI355X
ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป
เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป
เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1
มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน
ข้อมูลเสริมจากภายนอก
MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3
NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive
Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก
https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร
NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50%
ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า
NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด
การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง
ผลการทดสอบ MLPerf v5.1
GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server
MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B
GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL
ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput
จุดเด่นของ Blackwell Ultra GB300
มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน
ใช้ HBM3e สูงสุด 288GB ต่อ GPU
ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1
ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark
จุดเด่นของ AMD Instinct MI355X
ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป
เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป
เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1
มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน
ข้อมูลเสริมจากภายนอก
MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3
NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive
Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก
https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
⚙️ “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม”
ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร
NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50%
ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า
NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด
การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง
✅ ผลการทดสอบ MLPerf v5.1
➡️ GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server
➡️ MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B
➡️ GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL
➡️ ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput
✅ จุดเด่นของ Blackwell Ultra GB300
➡️ มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน
➡️ ใช้ HBM3e สูงสุด 288GB ต่อ GPU
➡️ ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1
➡️ ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark
✅ จุดเด่นของ AMD Instinct MI355X
➡️ ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป
➡️ เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป
➡️ เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1
➡️ มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน
✅ ข้อมูลเสริมจากภายนอก
➡️ MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3
➡️ NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 ➡️ การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive
➡️ Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก
https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
0 ความคิดเห็น
0 การแบ่งปัน
32 มุมมอง
0 รีวิว