“NVIDIA ปรับแผนหน่วยความจำ SOCAMM — ยกเลิกรุ่นแรก หันพัฒนา SOCAMM2 เพื่อรองรับยุค AI เต็มรูปแบบ”
NVIDIA กำลังเขย่าวงการเซมิคอนดักเตอร์อีกครั้ง เมื่อมีรายงานจากสื่อเกาหลี ETNews ว่าบริษัทได้ยกเลิกการเปิดตัวหน่วยความจำ SOCAMM1 (System-on-Chip Attached Memory Module) รุ่นแรก และหันไปพัฒนา SOCAMM2 แทน โดยมีการทดสอบตัวอย่างร่วมกับผู้ผลิตหน่วยความจำรายใหญ่ทั้งสาม ได้แก่ Micron, Samsung และ SK hynix
SOCAMM ถูกออกแบบมาเพื่อเป็นหน่วยความจำแบบ LPDDR ที่ติดตั้งโดยตรงกับ SoC สำหรับเซิร์ฟเวอร์ AI โดยมีเป้าหมายเพื่อให้ได้แบนด์วิดท์สูงในราคาที่ต่ำกว่าหน่วยความจำ HBM (High Bandwidth Memory) ซึ่งมีต้นทุนสูงและซับซ้อนกว่า SOCAMM1 เคยถูกวางแผนให้ใช้ในเซิร์ฟเวอร์รุ่น GB300 NVL72 ที่รองรับได้ถึง 18TB และแบนด์วิดท์ 14.3TB/s
แต่เนื่องจากปัญหาทางเทคนิคและซัพพลายเชน SOCAMM1 จึงถูกยกเลิก และ SOCAMM2 ได้เข้ามาแทนที่ โดยคาดว่าจะเพิ่มความเร็วจาก 8,533 MT/s เป็น 9,600 MT/s และอาจรองรับ LPDDR6 ในอนาคต แม้ยังไม่มีการยืนยันจากผู้ผลิตใด ๆ
Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ตั้งแต่เดือนมีนาคม ขณะที่ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ซึ่งการเปลี่ยนผ่านไปยัง SOCAMM2 อาจเปิดโอกาสให้สองบริษัทจากเกาหลีไล่ทัน Micron ในการแข่งขันครั้งนี้
SOCAMM ยังถูกมองว่าเป็นเทคโนโลยีสำคัญในแผนการเปิดตัว GPU รุ่น Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ซึ่งจะใช้ SOCAMM หลายชุดเพื่อรองรับโมเดล AI ขนาดใหญ่ที่ต้องการหน่วยความจำมหาศาล
ข้อมูลสำคัญจากข่าว
NVIDIA ยกเลิก SOCAMM1 และหันไปพัฒนา SOCAMM2 แทน
SOCAMM2 อยู่ระหว่างการทดสอบกับ Micron, Samsung และ SK hynix
SOCAMM เป็นหน่วยความจำ LPDDR ที่ติดตั้งกับ SoC สำหรับเซิร์ฟเวอร์ AI
SOCAMM2 คาดว่าจะเพิ่มความเร็วเป็น 9,600 MT/s และอาจรองรับ LPDDR6
ความเคลื่อนไหวของผู้ผลิตหน่วยความจำ
Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI
Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025
การเปลี่ยนไปใช้ SOCAMM2 อาจเปิดโอกาสให้ Samsung และ SK ไล่ทัน Micron
SOCAMM จะถูกใช้ใน GPU Rubin และ CPU Vera ของ NVIDIA ในปี 2026
ข้อมูลเสริมจากภายนอก
SOCAMM ใช้เทคโนโลยี wire bonding ด้วยทองแดงเพื่อเพิ่มประสิทธิภาพการระบายความร้อน
SOCAMM มีต้นทุนต่ำกว่า HBM และเหมาะกับการใช้งานในเซิร์ฟเวอร์ AI ที่ต้องการแบนด์วิดท์สูง
LPDDR5X ที่ใช้ใน SOCAMM มีประสิทธิภาพด้านพลังงานสูงกว่าหน่วยความจำทั่วไป
การเปลี่ยนแปลงนี้อาจส่งผลต่อการออกแบบเซิร์ฟเวอร์และ AI PC ในปี 2026
https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rumored-to-ditch-socamm1-for-socamm2
NVIDIA กำลังเขย่าวงการเซมิคอนดักเตอร์อีกครั้ง เมื่อมีรายงานจากสื่อเกาหลี ETNews ว่าบริษัทได้ยกเลิกการเปิดตัวหน่วยความจำ SOCAMM1 (System-on-Chip Attached Memory Module) รุ่นแรก และหันไปพัฒนา SOCAMM2 แทน โดยมีการทดสอบตัวอย่างร่วมกับผู้ผลิตหน่วยความจำรายใหญ่ทั้งสาม ได้แก่ Micron, Samsung และ SK hynix
SOCAMM ถูกออกแบบมาเพื่อเป็นหน่วยความจำแบบ LPDDR ที่ติดตั้งโดยตรงกับ SoC สำหรับเซิร์ฟเวอร์ AI โดยมีเป้าหมายเพื่อให้ได้แบนด์วิดท์สูงในราคาที่ต่ำกว่าหน่วยความจำ HBM (High Bandwidth Memory) ซึ่งมีต้นทุนสูงและซับซ้อนกว่า SOCAMM1 เคยถูกวางแผนให้ใช้ในเซิร์ฟเวอร์รุ่น GB300 NVL72 ที่รองรับได้ถึง 18TB และแบนด์วิดท์ 14.3TB/s
แต่เนื่องจากปัญหาทางเทคนิคและซัพพลายเชน SOCAMM1 จึงถูกยกเลิก และ SOCAMM2 ได้เข้ามาแทนที่ โดยคาดว่าจะเพิ่มความเร็วจาก 8,533 MT/s เป็น 9,600 MT/s และอาจรองรับ LPDDR6 ในอนาคต แม้ยังไม่มีการยืนยันจากผู้ผลิตใด ๆ
Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ตั้งแต่เดือนมีนาคม ขณะที่ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ซึ่งการเปลี่ยนผ่านไปยัง SOCAMM2 อาจเปิดโอกาสให้สองบริษัทจากเกาหลีไล่ทัน Micron ในการแข่งขันครั้งนี้
SOCAMM ยังถูกมองว่าเป็นเทคโนโลยีสำคัญในแผนการเปิดตัว GPU รุ่น Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ซึ่งจะใช้ SOCAMM หลายชุดเพื่อรองรับโมเดล AI ขนาดใหญ่ที่ต้องการหน่วยความจำมหาศาล
ข้อมูลสำคัญจากข่าว
NVIDIA ยกเลิก SOCAMM1 และหันไปพัฒนา SOCAMM2 แทน
SOCAMM2 อยู่ระหว่างการทดสอบกับ Micron, Samsung และ SK hynix
SOCAMM เป็นหน่วยความจำ LPDDR ที่ติดตั้งกับ SoC สำหรับเซิร์ฟเวอร์ AI
SOCAMM2 คาดว่าจะเพิ่มความเร็วเป็น 9,600 MT/s และอาจรองรับ LPDDR6
ความเคลื่อนไหวของผู้ผลิตหน่วยความจำ
Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI
Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025
การเปลี่ยนไปใช้ SOCAMM2 อาจเปิดโอกาสให้ Samsung และ SK ไล่ทัน Micron
SOCAMM จะถูกใช้ใน GPU Rubin และ CPU Vera ของ NVIDIA ในปี 2026
ข้อมูลเสริมจากภายนอก
SOCAMM ใช้เทคโนโลยี wire bonding ด้วยทองแดงเพื่อเพิ่มประสิทธิภาพการระบายความร้อน
SOCAMM มีต้นทุนต่ำกว่า HBM และเหมาะกับการใช้งานในเซิร์ฟเวอร์ AI ที่ต้องการแบนด์วิดท์สูง
LPDDR5X ที่ใช้ใน SOCAMM มีประสิทธิภาพด้านพลังงานสูงกว่าหน่วยความจำทั่วไป
การเปลี่ยนแปลงนี้อาจส่งผลต่อการออกแบบเซิร์ฟเวอร์และ AI PC ในปี 2026
https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rumored-to-ditch-socamm1-for-socamm2
🚀 “NVIDIA ปรับแผนหน่วยความจำ SOCAMM — ยกเลิกรุ่นแรก หันพัฒนา SOCAMM2 เพื่อรองรับยุค AI เต็มรูปแบบ”
NVIDIA กำลังเขย่าวงการเซมิคอนดักเตอร์อีกครั้ง เมื่อมีรายงานจากสื่อเกาหลี ETNews ว่าบริษัทได้ยกเลิกการเปิดตัวหน่วยความจำ SOCAMM1 (System-on-Chip Attached Memory Module) รุ่นแรก และหันไปพัฒนา SOCAMM2 แทน โดยมีการทดสอบตัวอย่างร่วมกับผู้ผลิตหน่วยความจำรายใหญ่ทั้งสาม ได้แก่ Micron, Samsung และ SK hynix
SOCAMM ถูกออกแบบมาเพื่อเป็นหน่วยความจำแบบ LPDDR ที่ติดตั้งโดยตรงกับ SoC สำหรับเซิร์ฟเวอร์ AI โดยมีเป้าหมายเพื่อให้ได้แบนด์วิดท์สูงในราคาที่ต่ำกว่าหน่วยความจำ HBM (High Bandwidth Memory) ซึ่งมีต้นทุนสูงและซับซ้อนกว่า SOCAMM1 เคยถูกวางแผนให้ใช้ในเซิร์ฟเวอร์รุ่น GB300 NVL72 ที่รองรับได้ถึง 18TB และแบนด์วิดท์ 14.3TB/s
แต่เนื่องจากปัญหาทางเทคนิคและซัพพลายเชน SOCAMM1 จึงถูกยกเลิก และ SOCAMM2 ได้เข้ามาแทนที่ โดยคาดว่าจะเพิ่มความเร็วจาก 8,533 MT/s เป็น 9,600 MT/s และอาจรองรับ LPDDR6 ในอนาคต แม้ยังไม่มีการยืนยันจากผู้ผลิตใด ๆ
Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ตั้งแต่เดือนมีนาคม ขณะที่ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ซึ่งการเปลี่ยนผ่านไปยัง SOCAMM2 อาจเปิดโอกาสให้สองบริษัทจากเกาหลีไล่ทัน Micron ในการแข่งขันครั้งนี้
SOCAMM ยังถูกมองว่าเป็นเทคโนโลยีสำคัญในแผนการเปิดตัว GPU รุ่น Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ซึ่งจะใช้ SOCAMM หลายชุดเพื่อรองรับโมเดล AI ขนาดใหญ่ที่ต้องการหน่วยความจำมหาศาล
✅ ข้อมูลสำคัญจากข่าว
➡️ NVIDIA ยกเลิก SOCAMM1 และหันไปพัฒนา SOCAMM2 แทน
➡️ SOCAMM2 อยู่ระหว่างการทดสอบกับ Micron, Samsung และ SK hynix
➡️ SOCAMM เป็นหน่วยความจำ LPDDR ที่ติดตั้งกับ SoC สำหรับเซิร์ฟเวอร์ AI
➡️ SOCAMM2 คาดว่าจะเพิ่มความเร็วเป็น 9,600 MT/s และอาจรองรับ LPDDR6
✅ ความเคลื่อนไหวของผู้ผลิตหน่วยความจำ
➡️ Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI
➡️ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025
➡️ การเปลี่ยนไปใช้ SOCAMM2 อาจเปิดโอกาสให้ Samsung และ SK ไล่ทัน Micron
➡️ SOCAMM จะถูกใช้ใน GPU Rubin และ CPU Vera ของ NVIDIA ในปี 2026
✅ ข้อมูลเสริมจากภายนอก
➡️ SOCAMM ใช้เทคโนโลยี wire bonding ด้วยทองแดงเพื่อเพิ่มประสิทธิภาพการระบายความร้อน
➡️ SOCAMM มีต้นทุนต่ำกว่า HBM และเหมาะกับการใช้งานในเซิร์ฟเวอร์ AI ที่ต้องการแบนด์วิดท์สูง
➡️ LPDDR5X ที่ใช้ใน SOCAMM มีประสิทธิภาพด้านพลังงานสูงกว่าหน่วยความจำทั่วไป
➡️ การเปลี่ยนแปลงนี้อาจส่งผลต่อการออกแบบเซิร์ฟเวอร์และ AI PC ในปี 2026
https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rumored-to-ditch-socamm1-for-socamm2
0 Comments
0 Shares
29 Views
0 Reviews