Micron และ SK hynix เปิดตัวเทคโนโลยีหน่วยความจำใหม่ชื่อ SOCAMM ที่ช่วยให้เซิร์ฟเวอร์ AI ทำงานได้เร็วและมีประสิทธิภาพมากขึ้น แถมประหยัดพลังงานด้วย! ด้วยความจุสูงถึง 128GB ต่อโมดูลและขนาดเล็กกะทัดรัด SOCAMM ถูกออกแบบมาเพื่อรองรับงาน AI ที่ต้องการแบนด์วิดท์สูง เช่น การฝึกโมเดลขนาดใหญ่ หน่วยความจำนี้จะถูกใช้ในระบบ Nvidia GB300 Grace ซึ่งช่วยลดต้นทุนและปรับปรุงระบบให้ดียิ่งขึ้น

เทคโนโลยีขั้นสูง:
- SOCAMM มีขนาดเล็กเพียงหนึ่งในสามของ RDIMM ปกติ และใช้ชิป LPDDR5X ที่มีความเร็วการส่งข้อมูลสูงสุด 9.6 GT/s (สำหรับ Micron) และ 7.5 GT/s (สำหรับ SK hynix)
- ช่วยลดพลังงานที่ใช้ลงถึงหนึ่งในสามเมื่อเทียบกับ RDIMM ความจุ 128GB แบบเดิม

การออกแบบเพื่ออนาคต:
- หน่วยความจำนี้ได้รับการออกแบบเพื่อรองรับงาน AI ที่ต้องการแบนด์วิดท์สูง เช่น การฝึกโมเดลใหญ่ (AI training) และการใช้งานเชิงคาดการณ์ (AI inference)
- ระบบที่ใช้ SOCAMM ช่วยให้การผลิตและการซ่อมบำรุงเซิร์ฟเวอร์ทำได้ง่ายขึ้น ลดต้นทุนการบำรุงรักษา

ผลกระทบต่ออุตสาหกรรม:
- LPDDR5X ของ Micron และ SK hynix เพิ่มขีดความสามารถในการประมวลผลเซิร์ฟเวอร์ให้ดียิ่งขึ้น พร้อมช่วยลดภาระของ CPU และพลังงานที่ใช้ในศูนย์ข้อมูล
- แม้ว่าจะยังไม่ชัดเจนว่า SOCAMM จะกลายเป็นมาตรฐานอุตสาหกรรมในอนาคตหรือไม่ แต่การใช้งานครั้งนี้ถือเป็นก้าวสำคัญสำหรับระบบที่ใช้ Nvidia Grace และ Vera CPU

https://www.tomshardware.com/pc-components/ram/micron-and-sk-hynix-unveil-lpddr5x-socamm-up-to-128gb-for-ai-servers
Micron และ SK hynix เปิดตัวเทคโนโลยีหน่วยความจำใหม่ชื่อ SOCAMM ที่ช่วยให้เซิร์ฟเวอร์ AI ทำงานได้เร็วและมีประสิทธิภาพมากขึ้น แถมประหยัดพลังงานด้วย! ด้วยความจุสูงถึง 128GB ต่อโมดูลและขนาดเล็กกะทัดรัด SOCAMM ถูกออกแบบมาเพื่อรองรับงาน AI ที่ต้องการแบนด์วิดท์สูง เช่น การฝึกโมเดลขนาดใหญ่ หน่วยความจำนี้จะถูกใช้ในระบบ Nvidia GB300 Grace ซึ่งช่วยลดต้นทุนและปรับปรุงระบบให้ดียิ่งขึ้น เทคโนโลยีขั้นสูง: - SOCAMM มีขนาดเล็กเพียงหนึ่งในสามของ RDIMM ปกติ และใช้ชิป LPDDR5X ที่มีความเร็วการส่งข้อมูลสูงสุด 9.6 GT/s (สำหรับ Micron) และ 7.5 GT/s (สำหรับ SK hynix) - ช่วยลดพลังงานที่ใช้ลงถึงหนึ่งในสามเมื่อเทียบกับ RDIMM ความจุ 128GB แบบเดิม การออกแบบเพื่ออนาคต: - หน่วยความจำนี้ได้รับการออกแบบเพื่อรองรับงาน AI ที่ต้องการแบนด์วิดท์สูง เช่น การฝึกโมเดลใหญ่ (AI training) และการใช้งานเชิงคาดการณ์ (AI inference) - ระบบที่ใช้ SOCAMM ช่วยให้การผลิตและการซ่อมบำรุงเซิร์ฟเวอร์ทำได้ง่ายขึ้น ลดต้นทุนการบำรุงรักษา ผลกระทบต่ออุตสาหกรรม: - LPDDR5X ของ Micron และ SK hynix เพิ่มขีดความสามารถในการประมวลผลเซิร์ฟเวอร์ให้ดียิ่งขึ้น พร้อมช่วยลดภาระของ CPU และพลังงานที่ใช้ในศูนย์ข้อมูล - แม้ว่าจะยังไม่ชัดเจนว่า SOCAMM จะกลายเป็นมาตรฐานอุตสาหกรรมในอนาคตหรือไม่ แต่การใช้งานครั้งนี้ถือเป็นก้าวสำคัญสำหรับระบบที่ใช้ Nvidia Grace และ Vera CPU https://www.tomshardware.com/pc-components/ram/micron-and-sk-hynix-unveil-lpddr5x-socamm-up-to-128gb-for-ai-servers
0 ความคิดเห็น 0 การแบ่งปัน 73 มุมมอง 0 รีวิว