เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว
Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ
ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime
ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น
ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7
นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที
สเปกหลักของ GIGABYTE XL44-SX2-AAS1
ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว
แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32
ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว
ความสามารถด้านการเชื่อมต่อและประมวลผล
รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU
มี 2×400GbE external connections สำหรับ data center traffic
รองรับ GPU-to-GPU direct communication สำหรับ distributed AI
ฮาร์ดแวร์ระดับ data center
Dual Intel Xeon 6700/6500 series CPU
รองรับ DDR5 DIMM สูงสุด 32 แถว
พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium
ซอฟต์แวร์และการใช้งาน
มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos
รองรับงาน AI inference, physical AI, 3D simulation, video processing
ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization
การใช้งานในอุตสาหกรรม
เหมาะกับ smart manufacturing, financial modeling, medical research
รองรับ LLM inference และการสร้าง digital twins
พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025
https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ
ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime
ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น
ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7
นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที
สเปกหลักของ GIGABYTE XL44-SX2-AAS1
ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว
แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32
ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว
ความสามารถด้านการเชื่อมต่อและประมวลผล
รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU
มี 2×400GbE external connections สำหรับ data center traffic
รองรับ GPU-to-GPU direct communication สำหรับ distributed AI
ฮาร์ดแวร์ระดับ data center
Dual Intel Xeon 6700/6500 series CPU
รองรับ DDR5 DIMM สูงสุด 32 แถว
พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium
ซอฟต์แวร์และการใช้งาน
มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos
รองรับงาน AI inference, physical AI, 3D simulation, video processing
ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization
การใช้งานในอุตสาหกรรม
เหมาะกับ smart manufacturing, financial modeling, medical research
รองรับ LLM inference และการสร้าง digital twins
พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025
https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
🎙️ เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว
Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ
ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime
ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น
ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7
นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที
✅ สเปกหลักของ GIGABYTE XL44-SX2-AAS1
➡️ ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว
➡️ แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32
➡️ ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว
✅ ความสามารถด้านการเชื่อมต่อและประมวลผล
➡️ รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU
➡️ มี 2×400GbE external connections สำหรับ data center traffic
➡️ รองรับ GPU-to-GPU direct communication สำหรับ distributed AI
✅ ฮาร์ดแวร์ระดับ data center
➡️ Dual Intel Xeon 6700/6500 series CPU
➡️ รองรับ DDR5 DIMM สูงสุด 32 แถว
➡️ พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium
✅ ซอฟต์แวร์และการใช้งาน
➡️ มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos
➡️ รองรับงาน AI inference, physical AI, 3D simulation, video processing
➡️ ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization
✅ การใช้งานในอุตสาหกรรม
➡️ เหมาะกับ smart manufacturing, financial modeling, medical research
➡️ รองรับ LLM inference และการสร้าง digital twins
➡️ พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025
https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
0 ความคิดเห็น
0 การแบ่งปัน
27 มุมมอง
0 รีวิว