เรื่องเล่าจากโลกชิป AI: NVIDIA เตรียมใช้ SOCAMM กว่า 800,000 ชิ้นในปีนี้

NVIDIA กำลังเตรียมผลิตและนำโมดูลหน่วยความจำแบบใหม่ที่ชื่อว่า SOCAMM มาใช้ในผลิตภัณฑ์ AI ของตนมากถึง 800,000 ชิ้นภายในปี 2025 โดย SOCAMM เป็นหน่วยความจำแบบ LPDDR ที่มีความสามารถพิเศษคือ “ถอดเปลี่ยนได้” ต่างจาก LPDDR5X หรือ HBM ที่มักถูกบัดกรีติดกับบอร์ด

SOCAMM ถูกออกแบบมาให้มีขนาดกะทัดรัด ใช้พลังงานต่ำ และมีแบนด์วิดท์สูงถึง 150–250 GB/s ซึ่งเหมาะกับอุปกรณ์ AI ที่ต้องการประสิทธิภาพสูงแต่ยังคงประหยัดพลังงาน เช่น AI PC และ AI Server

โมดูลนี้ถูกพัฒนาโดย Micron และเริ่มใช้งานในแพลตฟอร์ม GB300 Blackwell ของ NVIDIA ซึ่งเป็นสัญญาณว่า NVIDIA กำลังเปลี่ยนไปใช้รูปแบบหน่วยความจำใหม่ในผลิตภัณฑ์ AI หลายรุ่น โดยในอนาคต SOCAMM 2 จะถูกเปิดตัวเพื่อเพิ่มกำลังการผลิตและประสิทธิภาพอีกขั้น

NVIDIA เตรียมใช้ SOCAMM memory modules มากถึง 800,000 ชิ้นในปี 2025
เพื่อรองรับผลิตภัณฑ์ AI ที่ต้องการประสิทธิภาพสูงและประหยัดพลังงาน

SOCAMM เป็นหน่วยความจำแบบ LPDDR ที่สามารถถอดเปลี่ยนได้
ติดตั้งด้วยสกรู 3 ตัว ไม่ต้องบัดกรีติดกับ PCB

SOCAMM มีแบนด์วิดท์สูงถึง 150–250 GB/s
เหนือกว่า RDIMM, LPDDR5X และ LPCAMM ในหลายด้าน

เริ่มใช้งานในแพลตฟอร์ม GB300 Blackwell ของ NVIDIA
เป็นการเปลี่ยนผ่านจาก HBM ไปสู่หน่วยความจำแบบใหม่

Micron เป็นผู้ผลิตหลักของ SOCAMM ในปัจจุบัน
Samsung และ SK Hynix กำลังเจรจาเพื่อร่วมผลิตในอนาคต

SOCAMM 2 จะเปิดตัวในปีหน้าเพื่อเพิ่มกำลังการผลิต
คาดว่าจะกลายเป็นมาตรฐานใหม่สำหรับอุปกรณ์ AI พลังต่ำ

จำนวน 800,000 ชิ้นยังน้อยเมื่อเทียบกับ HBM ที่ใช้ในปีเดียวกัน
SOCAMM ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้งานในวงกว้าง

SOCAMM ยังไม่มีข้อมูลทางเทคนิคด้านประสิทธิภาพพลังงานที่ชัดเจน
ต้องรอการทดสอบจริงเพื่อยืนยันข้อดีเหนือ RDIMM และ LPDDR5X

การเปลี่ยนไปใช้ SOCAMM อาจต้องปรับโครงสร้างฮาร์ดแวร์เดิม
โดยเฉพาะในระบบที่ออกแบบมาเพื่อใช้ HBM หรือ LPDDR แบบบัดกรี

การพึ่งพาผู้ผลิตรายเดียว (Micron) อาจเป็นความเสี่ยงด้านซัพพลายเชน
หาก Samsung และ SK Hynix ยังไม่เข้าร่วมในระยะสั้น

https://wccftech.com/nvidia-to-deploy-up-to-800000-units-of-its-socamm-modules-this-year-in-its-ai-products/
🎙️ เรื่องเล่าจากโลกชิป AI: NVIDIA เตรียมใช้ SOCAMM กว่า 800,000 ชิ้นในปีนี้ NVIDIA กำลังเตรียมผลิตและนำโมดูลหน่วยความจำแบบใหม่ที่ชื่อว่า SOCAMM มาใช้ในผลิตภัณฑ์ AI ของตนมากถึง 800,000 ชิ้นภายในปี 2025 โดย SOCAMM เป็นหน่วยความจำแบบ LPDDR ที่มีความสามารถพิเศษคือ “ถอดเปลี่ยนได้” ต่างจาก LPDDR5X หรือ HBM ที่มักถูกบัดกรีติดกับบอร์ด SOCAMM ถูกออกแบบมาให้มีขนาดกะทัดรัด ใช้พลังงานต่ำ และมีแบนด์วิดท์สูงถึง 150–250 GB/s ซึ่งเหมาะกับอุปกรณ์ AI ที่ต้องการประสิทธิภาพสูงแต่ยังคงประหยัดพลังงาน เช่น AI PC และ AI Server โมดูลนี้ถูกพัฒนาโดย Micron และเริ่มใช้งานในแพลตฟอร์ม GB300 Blackwell ของ NVIDIA ซึ่งเป็นสัญญาณว่า NVIDIA กำลังเปลี่ยนไปใช้รูปแบบหน่วยความจำใหม่ในผลิตภัณฑ์ AI หลายรุ่น โดยในอนาคต SOCAMM 2 จะถูกเปิดตัวเพื่อเพิ่มกำลังการผลิตและประสิทธิภาพอีกขั้น ✅ NVIDIA เตรียมใช้ SOCAMM memory modules มากถึง 800,000 ชิ้นในปี 2025 ➡️ เพื่อรองรับผลิตภัณฑ์ AI ที่ต้องการประสิทธิภาพสูงและประหยัดพลังงาน ✅ SOCAMM เป็นหน่วยความจำแบบ LPDDR ที่สามารถถอดเปลี่ยนได้ ➡️ ติดตั้งด้วยสกรู 3 ตัว ไม่ต้องบัดกรีติดกับ PCB ✅ SOCAMM มีแบนด์วิดท์สูงถึง 150–250 GB/s ➡️ เหนือกว่า RDIMM, LPDDR5X และ LPCAMM ในหลายด้าน ✅ เริ่มใช้งานในแพลตฟอร์ม GB300 Blackwell ของ NVIDIA ➡️ เป็นการเปลี่ยนผ่านจาก HBM ไปสู่หน่วยความจำแบบใหม่ ✅ Micron เป็นผู้ผลิตหลักของ SOCAMM ในปัจจุบัน ➡️ Samsung และ SK Hynix กำลังเจรจาเพื่อร่วมผลิตในอนาคต ✅ SOCAMM 2 จะเปิดตัวในปีหน้าเพื่อเพิ่มกำลังการผลิต ➡️ คาดว่าจะกลายเป็นมาตรฐานใหม่สำหรับอุปกรณ์ AI พลังต่ำ ‼️ จำนวน 800,000 ชิ้นยังน้อยเมื่อเทียบกับ HBM ที่ใช้ในปีเดียวกัน ⛔ SOCAMM ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้งานในวงกว้าง ‼️ SOCAMM ยังไม่มีข้อมูลทางเทคนิคด้านประสิทธิภาพพลังงานที่ชัดเจน ⛔ ต้องรอการทดสอบจริงเพื่อยืนยันข้อดีเหนือ RDIMM และ LPDDR5X ‼️ การเปลี่ยนไปใช้ SOCAMM อาจต้องปรับโครงสร้างฮาร์ดแวร์เดิม ⛔ โดยเฉพาะในระบบที่ออกแบบมาเพื่อใช้ HBM หรือ LPDDR แบบบัดกรี ‼️ การพึ่งพาผู้ผลิตรายเดียว (Micron) อาจเป็นความเสี่ยงด้านซัพพลายเชน ⛔ หาก Samsung และ SK Hynix ยังไม่เข้าร่วมในระยะสั้น https://wccftech.com/nvidia-to-deploy-up-to-800000-units-of-its-socamm-modules-this-year-in-its-ai-products/
WCCFTECH.COM
NVIDIA To Deploy Up To 800,000 Units Of Its SOCAMM Modules This Year In Its AI Products
As per a report, NVIDIA is expected to produce up to 800,000 SOCAMM memory units this year to deliver high efficiency and performance for its AI products.
0 ความคิดเห็น 0 การแบ่งปัน 67 มุมมอง 0 รีวิว