Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia
Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models
ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference
AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ
ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง
Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว
Qualcomm เปิดตัว AI200 และ AI250
AI200 ใช้งานปี 2026, AI250 ปี 2027
ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor
รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing
ความสามารถด้านฮาร์ดแวร์
AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW
AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic
รองรับ GenAI, confidential computing, และ model encryption
แพลตฟอร์มซอฟต์แวร์
รองรับ PyTorch, ONNX, LangChain, vLLM
มีระบบ onboarding โมเดลแบบคลิกเดียว
รองรับ disaggregated serving และ virtualization
คำเตือนสำหรับผู้ใช้งานระดับองค์กร
ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ
การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด
ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง
https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models
ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference
AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ
ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง
Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว
Qualcomm เปิดตัว AI200 และ AI250
AI200 ใช้งานปี 2026, AI250 ปี 2027
ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor
รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing
ความสามารถด้านฮาร์ดแวร์
AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW
AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic
รองรับ GenAI, confidential computing, และ model encryption
แพลตฟอร์มซอฟต์แวร์
รองรับ PyTorch, ONNX, LangChain, vLLM
มีระบบ onboarding โมเดลแบบคลิกเดียว
รองรับ disaggregated serving และ virtualization
คำเตือนสำหรับผู้ใช้งานระดับองค์กร
ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ
การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด
ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง
https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
⚙️ Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia
Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models
ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference
AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ
ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง
Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว
✅ Qualcomm เปิดตัว AI200 และ AI250
➡️ AI200 ใช้งานปี 2026, AI250 ปี 2027
➡️ ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor
➡️ รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing
✅ ความสามารถด้านฮาร์ดแวร์
➡️ AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW
➡️ AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic
➡️ รองรับ GenAI, confidential computing, และ model encryption
✅ แพลตฟอร์มซอฟต์แวร์
➡️ รองรับ PyTorch, ONNX, LangChain, vLLM
➡️ มีระบบ onboarding โมเดลแบบคลิกเดียว
➡️ รองรับ disaggregated serving และ virtualization
‼️ คำเตือนสำหรับผู้ใช้งานระดับองค์กร
⛔ ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ
⛔ การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด
⛔ ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง
https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
0 ความคิดเห็น
0 การแบ่งปัน
20 มุมมอง
0 รีวิว