เรื่องเล่าจากโลกชิป AI: NVIDIA เตรียมใช้ SOCAMM กว่า 800,000 ชิ้นในปีนี้
NVIDIA กำลังเตรียมผลิตและนำโมดูลหน่วยความจำแบบใหม่ที่ชื่อว่า SOCAMM มาใช้ในผลิตภัณฑ์ AI ของตนมากถึง 800,000 ชิ้นภายในปี 2025 โดย SOCAMM เป็นหน่วยความจำแบบ LPDDR ที่มีความสามารถพิเศษคือ “ถอดเปลี่ยนได้” ต่างจาก LPDDR5X หรือ HBM ที่มักถูกบัดกรีติดกับบอร์ด
SOCAMM ถูกออกแบบมาให้มีขนาดกะทัดรัด ใช้พลังงานต่ำ และมีแบนด์วิดท์สูงถึง 150–250 GB/s ซึ่งเหมาะกับอุปกรณ์ AI ที่ต้องการประสิทธิภาพสูงแต่ยังคงประหยัดพลังงาน เช่น AI PC และ AI Server
โมดูลนี้ถูกพัฒนาโดย Micron และเริ่มใช้งานในแพลตฟอร์ม GB300 Blackwell ของ NVIDIA ซึ่งเป็นสัญญาณว่า NVIDIA กำลังเปลี่ยนไปใช้รูปแบบหน่วยความจำใหม่ในผลิตภัณฑ์ AI หลายรุ่น โดยในอนาคต SOCAMM 2 จะถูกเปิดตัวเพื่อเพิ่มกำลังการผลิตและประสิทธิภาพอีกขั้น
NVIDIA เตรียมใช้ SOCAMM memory modules มากถึง 800,000 ชิ้นในปี 2025
เพื่อรองรับผลิตภัณฑ์ AI ที่ต้องการประสิทธิภาพสูงและประหยัดพลังงาน
SOCAMM เป็นหน่วยความจำแบบ LPDDR ที่สามารถถอดเปลี่ยนได้
ติดตั้งด้วยสกรู 3 ตัว ไม่ต้องบัดกรีติดกับ PCB
SOCAMM มีแบนด์วิดท์สูงถึง 150–250 GB/s
เหนือกว่า RDIMM, LPDDR5X และ LPCAMM ในหลายด้าน
เริ่มใช้งานในแพลตฟอร์ม GB300 Blackwell ของ NVIDIA
เป็นการเปลี่ยนผ่านจาก HBM ไปสู่หน่วยความจำแบบใหม่
Micron เป็นผู้ผลิตหลักของ SOCAMM ในปัจจุบัน
Samsung และ SK Hynix กำลังเจรจาเพื่อร่วมผลิตในอนาคต
SOCAMM 2 จะเปิดตัวในปีหน้าเพื่อเพิ่มกำลังการผลิต
คาดว่าจะกลายเป็นมาตรฐานใหม่สำหรับอุปกรณ์ AI พลังต่ำ
จำนวน 800,000 ชิ้นยังน้อยเมื่อเทียบกับ HBM ที่ใช้ในปีเดียวกัน
SOCAMM ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้งานในวงกว้าง
SOCAMM ยังไม่มีข้อมูลทางเทคนิคด้านประสิทธิภาพพลังงานที่ชัดเจน
ต้องรอการทดสอบจริงเพื่อยืนยันข้อดีเหนือ RDIMM และ LPDDR5X
การเปลี่ยนไปใช้ SOCAMM อาจต้องปรับโครงสร้างฮาร์ดแวร์เดิม
โดยเฉพาะในระบบที่ออกแบบมาเพื่อใช้ HBM หรือ LPDDR แบบบัดกรี
การพึ่งพาผู้ผลิตรายเดียว (Micron) อาจเป็นความเสี่ยงด้านซัพพลายเชน
หาก Samsung และ SK Hynix ยังไม่เข้าร่วมในระยะสั้น
https://wccftech.com/nvidia-to-deploy-up-to-800000-units-of-its-socamm-modules-this-year-in-its-ai-products/
NVIDIA กำลังเตรียมผลิตและนำโมดูลหน่วยความจำแบบใหม่ที่ชื่อว่า SOCAMM มาใช้ในผลิตภัณฑ์ AI ของตนมากถึง 800,000 ชิ้นภายในปี 2025 โดย SOCAMM เป็นหน่วยความจำแบบ LPDDR ที่มีความสามารถพิเศษคือ “ถอดเปลี่ยนได้” ต่างจาก LPDDR5X หรือ HBM ที่มักถูกบัดกรีติดกับบอร์ด
SOCAMM ถูกออกแบบมาให้มีขนาดกะทัดรัด ใช้พลังงานต่ำ และมีแบนด์วิดท์สูงถึง 150–250 GB/s ซึ่งเหมาะกับอุปกรณ์ AI ที่ต้องการประสิทธิภาพสูงแต่ยังคงประหยัดพลังงาน เช่น AI PC และ AI Server
โมดูลนี้ถูกพัฒนาโดย Micron และเริ่มใช้งานในแพลตฟอร์ม GB300 Blackwell ของ NVIDIA ซึ่งเป็นสัญญาณว่า NVIDIA กำลังเปลี่ยนไปใช้รูปแบบหน่วยความจำใหม่ในผลิตภัณฑ์ AI หลายรุ่น โดยในอนาคต SOCAMM 2 จะถูกเปิดตัวเพื่อเพิ่มกำลังการผลิตและประสิทธิภาพอีกขั้น
NVIDIA เตรียมใช้ SOCAMM memory modules มากถึง 800,000 ชิ้นในปี 2025
เพื่อรองรับผลิตภัณฑ์ AI ที่ต้องการประสิทธิภาพสูงและประหยัดพลังงาน
SOCAMM เป็นหน่วยความจำแบบ LPDDR ที่สามารถถอดเปลี่ยนได้
ติดตั้งด้วยสกรู 3 ตัว ไม่ต้องบัดกรีติดกับ PCB
SOCAMM มีแบนด์วิดท์สูงถึง 150–250 GB/s
เหนือกว่า RDIMM, LPDDR5X และ LPCAMM ในหลายด้าน
เริ่มใช้งานในแพลตฟอร์ม GB300 Blackwell ของ NVIDIA
เป็นการเปลี่ยนผ่านจาก HBM ไปสู่หน่วยความจำแบบใหม่
Micron เป็นผู้ผลิตหลักของ SOCAMM ในปัจจุบัน
Samsung และ SK Hynix กำลังเจรจาเพื่อร่วมผลิตในอนาคต
SOCAMM 2 จะเปิดตัวในปีหน้าเพื่อเพิ่มกำลังการผลิต
คาดว่าจะกลายเป็นมาตรฐานใหม่สำหรับอุปกรณ์ AI พลังต่ำ
จำนวน 800,000 ชิ้นยังน้อยเมื่อเทียบกับ HBM ที่ใช้ในปีเดียวกัน
SOCAMM ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้งานในวงกว้าง
SOCAMM ยังไม่มีข้อมูลทางเทคนิคด้านประสิทธิภาพพลังงานที่ชัดเจน
ต้องรอการทดสอบจริงเพื่อยืนยันข้อดีเหนือ RDIMM และ LPDDR5X
การเปลี่ยนไปใช้ SOCAMM อาจต้องปรับโครงสร้างฮาร์ดแวร์เดิม
โดยเฉพาะในระบบที่ออกแบบมาเพื่อใช้ HBM หรือ LPDDR แบบบัดกรี
การพึ่งพาผู้ผลิตรายเดียว (Micron) อาจเป็นความเสี่ยงด้านซัพพลายเชน
หาก Samsung และ SK Hynix ยังไม่เข้าร่วมในระยะสั้น
https://wccftech.com/nvidia-to-deploy-up-to-800000-units-of-its-socamm-modules-this-year-in-its-ai-products/
🎙️ เรื่องเล่าจากโลกชิป AI: NVIDIA เตรียมใช้ SOCAMM กว่า 800,000 ชิ้นในปีนี้
NVIDIA กำลังเตรียมผลิตและนำโมดูลหน่วยความจำแบบใหม่ที่ชื่อว่า SOCAMM มาใช้ในผลิตภัณฑ์ AI ของตนมากถึง 800,000 ชิ้นภายในปี 2025 โดย SOCAMM เป็นหน่วยความจำแบบ LPDDR ที่มีความสามารถพิเศษคือ “ถอดเปลี่ยนได้” ต่างจาก LPDDR5X หรือ HBM ที่มักถูกบัดกรีติดกับบอร์ด
SOCAMM ถูกออกแบบมาให้มีขนาดกะทัดรัด ใช้พลังงานต่ำ และมีแบนด์วิดท์สูงถึง 150–250 GB/s ซึ่งเหมาะกับอุปกรณ์ AI ที่ต้องการประสิทธิภาพสูงแต่ยังคงประหยัดพลังงาน เช่น AI PC และ AI Server
โมดูลนี้ถูกพัฒนาโดย Micron และเริ่มใช้งานในแพลตฟอร์ม GB300 Blackwell ของ NVIDIA ซึ่งเป็นสัญญาณว่า NVIDIA กำลังเปลี่ยนไปใช้รูปแบบหน่วยความจำใหม่ในผลิตภัณฑ์ AI หลายรุ่น โดยในอนาคต SOCAMM 2 จะถูกเปิดตัวเพื่อเพิ่มกำลังการผลิตและประสิทธิภาพอีกขั้น
✅ NVIDIA เตรียมใช้ SOCAMM memory modules มากถึง 800,000 ชิ้นในปี 2025
➡️ เพื่อรองรับผลิตภัณฑ์ AI ที่ต้องการประสิทธิภาพสูงและประหยัดพลังงาน
✅ SOCAMM เป็นหน่วยความจำแบบ LPDDR ที่สามารถถอดเปลี่ยนได้
➡️ ติดตั้งด้วยสกรู 3 ตัว ไม่ต้องบัดกรีติดกับ PCB
✅ SOCAMM มีแบนด์วิดท์สูงถึง 150–250 GB/s
➡️ เหนือกว่า RDIMM, LPDDR5X และ LPCAMM ในหลายด้าน
✅ เริ่มใช้งานในแพลตฟอร์ม GB300 Blackwell ของ NVIDIA
➡️ เป็นการเปลี่ยนผ่านจาก HBM ไปสู่หน่วยความจำแบบใหม่
✅ Micron เป็นผู้ผลิตหลักของ SOCAMM ในปัจจุบัน
➡️ Samsung และ SK Hynix กำลังเจรจาเพื่อร่วมผลิตในอนาคต
✅ SOCAMM 2 จะเปิดตัวในปีหน้าเพื่อเพิ่มกำลังการผลิต
➡️ คาดว่าจะกลายเป็นมาตรฐานใหม่สำหรับอุปกรณ์ AI พลังต่ำ
‼️ จำนวน 800,000 ชิ้นยังน้อยเมื่อเทียบกับ HBM ที่ใช้ในปีเดียวกัน
⛔ SOCAMM ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้งานในวงกว้าง
‼️ SOCAMM ยังไม่มีข้อมูลทางเทคนิคด้านประสิทธิภาพพลังงานที่ชัดเจน
⛔ ต้องรอการทดสอบจริงเพื่อยืนยันข้อดีเหนือ RDIMM และ LPDDR5X
‼️ การเปลี่ยนไปใช้ SOCAMM อาจต้องปรับโครงสร้างฮาร์ดแวร์เดิม
⛔ โดยเฉพาะในระบบที่ออกแบบมาเพื่อใช้ HBM หรือ LPDDR แบบบัดกรี
‼️ การพึ่งพาผู้ผลิตรายเดียว (Micron) อาจเป็นความเสี่ยงด้านซัพพลายเชน
⛔ หาก Samsung และ SK Hynix ยังไม่เข้าร่วมในระยะสั้น
https://wccftech.com/nvidia-to-deploy-up-to-800000-units-of-its-socamm-modules-this-year-in-its-ai-products/
0 Comments
0 Shares
67 Views
0 Reviews