“Nvidia รีเซ็ต SOCAMM 1 เปิดทาง SOCAMM 2 — เมื่อหน่วยความจำ AI กำลังเข้าสู่ยุคใหม่ที่เร็วกว่า เสถียรกว่า และเปิดกว้างกว่าเดิม”
หลังจากพยายามผลักดัน SOCAMM 1 มานานแต่ไม่สำเร็จ Nvidia ตัดสินใจ “รีเซ็ตเกม” และหันไปโฟกัสกับ SOCAMM 2 อย่างเต็มตัว โดย SOCAMM (Small Outline Compression Attached Memory Module) เป็นมาตรฐานหน่วยความจำใหม่ที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ด้วยจุดเด่นเรื่องความเร็วสูง ขนาดกะทัดรัด และใช้พลังงานต่ำ
SOCAMM 1 เคยถูกวางแผนให้เปิดตัวภายในปี 2025 แต่เกิดปัญหาทางเทคนิคหลายครั้ง ทำให้ไม่สามารถผลิตในระดับอุตสาหกรรมได้จริง แม้ Micron จะผ่านการรับรองจาก Nvidia แล้ว แต่การพึ่งพาผู้ผลิตรายเดียวก็สร้างความเสี่ยงด้านซัพพลายเชน ทำให้ Nvidia ตัดสินใจยกเลิก SOCAMM 1 และเริ่มต้นใหม่กับ SOCAMM 2
SOCAMM 2 ยังคงใช้ฟอร์มแฟกเตอร์แบบถอดเปลี่ยนได้ มี 694 I/O ports เท่าเดิม แต่เพิ่มความเร็วการส่งข้อมูลจาก 8,533 MT/s เป็น 9,600 MT/s ซึ่งช่วยเพิ่มแบนด์วิดท์ของระบบจาก 14.3TB/s เป็น 16TB/s บนแพลตฟอร์ม Blackwell Ultra GB300 NVL72 ที่ใช้ในดาต้าเซ็นเตอร์ระดับสูง
ที่สำคัญ SOCAMM 2 ไม่ได้จำกัดอยู่แค่ในระบบของ Nvidia อีกต่อไป เพราะมีแนวโน้มว่าจะได้รับการสนับสนุนจาก JEDEC ซึ่งจะเปิดทางให้ผู้ผลิตรายอื่นนำไปใช้ในระบบของตัวเองได้ และอาจกลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI ในอนาคต
Samsung, SK Hynix และ Micron ต่างเริ่มเตรียมตัวผลิต SOCAMM 2 แล้ว โดยคาดว่าจะเริ่มผลิตจำนวนมากได้ในต้นปี 2026 ซึ่งจะช่วยให้ราคาลดลงและซัพพลายมีเสถียรมากขึ้น
ข้อมูลสำคัญจากข่าว
Nvidia ยกเลิก SOCAMM 1 หลังเจอปัญหาทางเทคนิคหลายครั้ง
SOCAMM 2 เพิ่มความเร็วเป็น 9,600 MT/s จากเดิม 8,533 MT/s
แบนด์วิดท์ระบบเพิ่มจาก 14.3TB/s เป็น 16TB/s บนแพลตฟอร์ม Blackwell Ultra GB300
SOCAMM 2 ยังใช้ฟอร์มแฟกเตอร์แบบถอดเปลี่ยนได้ และมี 694 I/O ports เท่าเดิม
การเปลี่ยนแปลงเชิงกลยุทธ์
SOCAMM 2 อาจได้รับการสนับสนุนจาก JEDEC ทำให้เปิดใช้งานในระบบอื่นได้
Samsung, SK Hynix และ Micron เตรียมผลิต SOCAMM 2 ร่วมกัน
การมีผู้ผลิตหลายรายช่วยลดความเสี่ยงด้านซัพพลายเชน
SOCAMM 2 ใช้พลังงานน้อยกว่า RDIMM แบบ DRAM ทั่วไป
ข้อมูลเสริมจากภายนอก
LPDDR6 อยู่ระหว่างการพัฒนา และอาจเปิดตัวในปี 2026
SOCAMM 2 อาจแข่งขันกับ LPDDR6 ในตลาด AI และอุปกรณ์พกพา
SOCAMM ถูกพัฒนาโดย Nvidia นอกกรอบ JEDEC ในรุ่นแรก
การออกแบบ SOCAMM ใช้เทคนิค 3D packaging และ TSV เพื่อเพิ่มประสิทธิภาพ
https://www.techradar.com/pro/nvidias-revolutionary-memory-format-for-ai-gpu-could-come-to-other-platforms
หลังจากพยายามผลักดัน SOCAMM 1 มานานแต่ไม่สำเร็จ Nvidia ตัดสินใจ “รีเซ็ตเกม” และหันไปโฟกัสกับ SOCAMM 2 อย่างเต็มตัว โดย SOCAMM (Small Outline Compression Attached Memory Module) เป็นมาตรฐานหน่วยความจำใหม่ที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ด้วยจุดเด่นเรื่องความเร็วสูง ขนาดกะทัดรัด และใช้พลังงานต่ำ
SOCAMM 1 เคยถูกวางแผนให้เปิดตัวภายในปี 2025 แต่เกิดปัญหาทางเทคนิคหลายครั้ง ทำให้ไม่สามารถผลิตในระดับอุตสาหกรรมได้จริง แม้ Micron จะผ่านการรับรองจาก Nvidia แล้ว แต่การพึ่งพาผู้ผลิตรายเดียวก็สร้างความเสี่ยงด้านซัพพลายเชน ทำให้ Nvidia ตัดสินใจยกเลิก SOCAMM 1 และเริ่มต้นใหม่กับ SOCAMM 2
SOCAMM 2 ยังคงใช้ฟอร์มแฟกเตอร์แบบถอดเปลี่ยนได้ มี 694 I/O ports เท่าเดิม แต่เพิ่มความเร็วการส่งข้อมูลจาก 8,533 MT/s เป็น 9,600 MT/s ซึ่งช่วยเพิ่มแบนด์วิดท์ของระบบจาก 14.3TB/s เป็น 16TB/s บนแพลตฟอร์ม Blackwell Ultra GB300 NVL72 ที่ใช้ในดาต้าเซ็นเตอร์ระดับสูง
ที่สำคัญ SOCAMM 2 ไม่ได้จำกัดอยู่แค่ในระบบของ Nvidia อีกต่อไป เพราะมีแนวโน้มว่าจะได้รับการสนับสนุนจาก JEDEC ซึ่งจะเปิดทางให้ผู้ผลิตรายอื่นนำไปใช้ในระบบของตัวเองได้ และอาจกลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI ในอนาคต
Samsung, SK Hynix และ Micron ต่างเริ่มเตรียมตัวผลิต SOCAMM 2 แล้ว โดยคาดว่าจะเริ่มผลิตจำนวนมากได้ในต้นปี 2026 ซึ่งจะช่วยให้ราคาลดลงและซัพพลายมีเสถียรมากขึ้น
ข้อมูลสำคัญจากข่าว
Nvidia ยกเลิก SOCAMM 1 หลังเจอปัญหาทางเทคนิคหลายครั้ง
SOCAMM 2 เพิ่มความเร็วเป็น 9,600 MT/s จากเดิม 8,533 MT/s
แบนด์วิดท์ระบบเพิ่มจาก 14.3TB/s เป็น 16TB/s บนแพลตฟอร์ม Blackwell Ultra GB300
SOCAMM 2 ยังใช้ฟอร์มแฟกเตอร์แบบถอดเปลี่ยนได้ และมี 694 I/O ports เท่าเดิม
การเปลี่ยนแปลงเชิงกลยุทธ์
SOCAMM 2 อาจได้รับการสนับสนุนจาก JEDEC ทำให้เปิดใช้งานในระบบอื่นได้
Samsung, SK Hynix และ Micron เตรียมผลิต SOCAMM 2 ร่วมกัน
การมีผู้ผลิตหลายรายช่วยลดความเสี่ยงด้านซัพพลายเชน
SOCAMM 2 ใช้พลังงานน้อยกว่า RDIMM แบบ DRAM ทั่วไป
ข้อมูลเสริมจากภายนอก
LPDDR6 อยู่ระหว่างการพัฒนา และอาจเปิดตัวในปี 2026
SOCAMM 2 อาจแข่งขันกับ LPDDR6 ในตลาด AI และอุปกรณ์พกพา
SOCAMM ถูกพัฒนาโดย Nvidia นอกกรอบ JEDEC ในรุ่นแรก
การออกแบบ SOCAMM ใช้เทคนิค 3D packaging และ TSV เพื่อเพิ่มประสิทธิภาพ
https://www.techradar.com/pro/nvidias-revolutionary-memory-format-for-ai-gpu-could-come-to-other-platforms
🧠 “Nvidia รีเซ็ต SOCAMM 1 เปิดทาง SOCAMM 2 — เมื่อหน่วยความจำ AI กำลังเข้าสู่ยุคใหม่ที่เร็วกว่า เสถียรกว่า และเปิดกว้างกว่าเดิม”
หลังจากพยายามผลักดัน SOCAMM 1 มานานแต่ไม่สำเร็จ Nvidia ตัดสินใจ “รีเซ็ตเกม” และหันไปโฟกัสกับ SOCAMM 2 อย่างเต็มตัว โดย SOCAMM (Small Outline Compression Attached Memory Module) เป็นมาตรฐานหน่วยความจำใหม่ที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ด้วยจุดเด่นเรื่องความเร็วสูง ขนาดกะทัดรัด และใช้พลังงานต่ำ
SOCAMM 1 เคยถูกวางแผนให้เปิดตัวภายในปี 2025 แต่เกิดปัญหาทางเทคนิคหลายครั้ง ทำให้ไม่สามารถผลิตในระดับอุตสาหกรรมได้จริง แม้ Micron จะผ่านการรับรองจาก Nvidia แล้ว แต่การพึ่งพาผู้ผลิตรายเดียวก็สร้างความเสี่ยงด้านซัพพลายเชน ทำให้ Nvidia ตัดสินใจยกเลิก SOCAMM 1 และเริ่มต้นใหม่กับ SOCAMM 2
SOCAMM 2 ยังคงใช้ฟอร์มแฟกเตอร์แบบถอดเปลี่ยนได้ มี 694 I/O ports เท่าเดิม แต่เพิ่มความเร็วการส่งข้อมูลจาก 8,533 MT/s เป็น 9,600 MT/s ซึ่งช่วยเพิ่มแบนด์วิดท์ของระบบจาก 14.3TB/s เป็น 16TB/s บนแพลตฟอร์ม Blackwell Ultra GB300 NVL72 ที่ใช้ในดาต้าเซ็นเตอร์ระดับสูง
ที่สำคัญ SOCAMM 2 ไม่ได้จำกัดอยู่แค่ในระบบของ Nvidia อีกต่อไป เพราะมีแนวโน้มว่าจะได้รับการสนับสนุนจาก JEDEC ซึ่งจะเปิดทางให้ผู้ผลิตรายอื่นนำไปใช้ในระบบของตัวเองได้ และอาจกลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI ในอนาคต
Samsung, SK Hynix และ Micron ต่างเริ่มเตรียมตัวผลิต SOCAMM 2 แล้ว โดยคาดว่าจะเริ่มผลิตจำนวนมากได้ในต้นปี 2026 ซึ่งจะช่วยให้ราคาลดลงและซัพพลายมีเสถียรมากขึ้น
✅ ข้อมูลสำคัญจากข่าว
➡️ Nvidia ยกเลิก SOCAMM 1 หลังเจอปัญหาทางเทคนิคหลายครั้ง
➡️ SOCAMM 2 เพิ่มความเร็วเป็น 9,600 MT/s จากเดิม 8,533 MT/s
➡️ แบนด์วิดท์ระบบเพิ่มจาก 14.3TB/s เป็น 16TB/s บนแพลตฟอร์ม Blackwell Ultra GB300
➡️ SOCAMM 2 ยังใช้ฟอร์มแฟกเตอร์แบบถอดเปลี่ยนได้ และมี 694 I/O ports เท่าเดิม
✅ การเปลี่ยนแปลงเชิงกลยุทธ์
➡️ SOCAMM 2 อาจได้รับการสนับสนุนจาก JEDEC ทำให้เปิดใช้งานในระบบอื่นได้
➡️ Samsung, SK Hynix และ Micron เตรียมผลิต SOCAMM 2 ร่วมกัน
➡️ การมีผู้ผลิตหลายรายช่วยลดความเสี่ยงด้านซัพพลายเชน
➡️ SOCAMM 2 ใช้พลังงานน้อยกว่า RDIMM แบบ DRAM ทั่วไป
✅ ข้อมูลเสริมจากภายนอก
➡️ LPDDR6 อยู่ระหว่างการพัฒนา และอาจเปิดตัวในปี 2026
➡️ SOCAMM 2 อาจแข่งขันกับ LPDDR6 ในตลาด AI และอุปกรณ์พกพา
➡️ SOCAMM ถูกพัฒนาโดย Nvidia นอกกรอบ JEDEC ในรุ่นแรก
➡️ การออกแบบ SOCAMM ใช้เทคนิค 3D packaging และ TSV เพื่อเพิ่มประสิทธิภาพ
https://www.techradar.com/pro/nvidias-revolutionary-memory-format-for-ai-gpu-could-come-to-other-platforms
0 Comments
0 Shares
52 Views
0 Reviews