“Micron จับมือ TSMC ผลิต HBM4E — เปิดยุคใหม่ของหน่วยความจำ AI ที่ปรับแต่งได้ตามใจลูกค้า”
Micron ประกาศความร่วมมือกับ TSMC ในการผลิตชิปฐาน (logic die) สำหรับหน่วยความจำ HBM4E ซึ่งเป็นรุ่นถัดไปของเทคโนโลยี High Bandwidth Memory ที่ออกแบบมาเพื่อรองรับงานประมวลผล AI ระดับสูง โดยมีแผนเริ่มผลิตในปี 2027
HBM4E ไม่ใช่แค่หน่วยความจำที่เร็วขึ้น แต่ Micron ตั้งใจให้มันเป็น “แพลตฟอร์มแบบกึ่งปรับแต่งได้” โดยลูกค้าสามารถเลือกฟีเจอร์เฉพาะใน logic die เช่น การเพิ่ม SRAM, การใส่ compression engine หรือการปรับสัญญาณให้เหมาะกับงานของตัวเอง ซึ่งจะช่วยให้ GPU หรือ XPU ทำงานได้เต็มประสิทธิภาพมากขึ้น
Micron ได้เริ่มส่งตัวอย่าง HBM4 ที่มีความเร็วมากกว่า 11 Gbps ต่อ pin และแบนด์วิดท์รวมสูงถึง 2.8 TB/s แล้ว พร้อมกับล็อกสัญญา HBM3E สำหรับปี 2026 ไว้เกือบหมดแล้ว ซึ่งแสดงถึงความพร้อมในการเข้าสู่ยุค HBM4 และ HBM4E อย่างเต็มตัว
การจับมือกับ TSMC ยังช่วยให้ Micron สามารถใช้เทคโนโลยีการผลิตขั้นสูงในการสร้าง logic die ที่มีความซับซ้อนมากขึ้น และสอดคล้องกับความต้องการของ GPU รุ่นใหม่ เช่น Nvidia Rubin Ultra และ AMD MI400 ที่จะเปิดตัวในปี 2026–2027 ซึ่งต้องการหน่วยความจำที่มีแบนด์วิดท์ระดับหลายสิบ TB/s และความจุสูงถึง 1 TB ต่อ GPU
นอกจากนี้ Micron ยังมองว่า HBM4E จะกลายเป็นมาตรฐานใหม่ของหน่วยความจำใน data center สำหรับงาน AI โดยเฉพาะเมื่อ workload มีขนาดใหญ่ขึ้นเรื่อย ๆ และความต้องการด้านประสิทธิภาพสูงขึ้นอย่างต่อเนื่อง
https://www.tomshardware.com/micron-hands-tsmc-the-keys-to-hbm4e
Micron ประกาศความร่วมมือกับ TSMC ในการผลิตชิปฐาน (logic die) สำหรับหน่วยความจำ HBM4E ซึ่งเป็นรุ่นถัดไปของเทคโนโลยี High Bandwidth Memory ที่ออกแบบมาเพื่อรองรับงานประมวลผล AI ระดับสูง โดยมีแผนเริ่มผลิตในปี 2027
HBM4E ไม่ใช่แค่หน่วยความจำที่เร็วขึ้น แต่ Micron ตั้งใจให้มันเป็น “แพลตฟอร์มแบบกึ่งปรับแต่งได้” โดยลูกค้าสามารถเลือกฟีเจอร์เฉพาะใน logic die เช่น การเพิ่ม SRAM, การใส่ compression engine หรือการปรับสัญญาณให้เหมาะกับงานของตัวเอง ซึ่งจะช่วยให้ GPU หรือ XPU ทำงานได้เต็มประสิทธิภาพมากขึ้น
Micron ได้เริ่มส่งตัวอย่าง HBM4 ที่มีความเร็วมากกว่า 11 Gbps ต่อ pin และแบนด์วิดท์รวมสูงถึง 2.8 TB/s แล้ว พร้อมกับล็อกสัญญา HBM3E สำหรับปี 2026 ไว้เกือบหมดแล้ว ซึ่งแสดงถึงความพร้อมในการเข้าสู่ยุค HBM4 และ HBM4E อย่างเต็มตัว
การจับมือกับ TSMC ยังช่วยให้ Micron สามารถใช้เทคโนโลยีการผลิตขั้นสูงในการสร้าง logic die ที่มีความซับซ้อนมากขึ้น และสอดคล้องกับความต้องการของ GPU รุ่นใหม่ เช่น Nvidia Rubin Ultra และ AMD MI400 ที่จะเปิดตัวในปี 2026–2027 ซึ่งต้องการหน่วยความจำที่มีแบนด์วิดท์ระดับหลายสิบ TB/s และความจุสูงถึง 1 TB ต่อ GPU
นอกจากนี้ Micron ยังมองว่า HBM4E จะกลายเป็นมาตรฐานใหม่ของหน่วยความจำใน data center สำหรับงาน AI โดยเฉพาะเมื่อ workload มีขนาดใหญ่ขึ้นเรื่อย ๆ และความต้องการด้านประสิทธิภาพสูงขึ้นอย่างต่อเนื่อง
https://www.tomshardware.com/micron-hands-tsmc-the-keys-to-hbm4e
🚀 “Micron จับมือ TSMC ผลิต HBM4E — เปิดยุคใหม่ของหน่วยความจำ AI ที่ปรับแต่งได้ตามใจลูกค้า”
Micron ประกาศความร่วมมือกับ TSMC ในการผลิตชิปฐาน (logic die) สำหรับหน่วยความจำ HBM4E ซึ่งเป็นรุ่นถัดไปของเทคโนโลยี High Bandwidth Memory ที่ออกแบบมาเพื่อรองรับงานประมวลผล AI ระดับสูง โดยมีแผนเริ่มผลิตในปี 2027
HBM4E ไม่ใช่แค่หน่วยความจำที่เร็วขึ้น แต่ Micron ตั้งใจให้มันเป็น “แพลตฟอร์มแบบกึ่งปรับแต่งได้” โดยลูกค้าสามารถเลือกฟีเจอร์เฉพาะใน logic die เช่น การเพิ่ม SRAM, การใส่ compression engine หรือการปรับสัญญาณให้เหมาะกับงานของตัวเอง ซึ่งจะช่วยให้ GPU หรือ XPU ทำงานได้เต็มประสิทธิภาพมากขึ้น
Micron ได้เริ่มส่งตัวอย่าง HBM4 ที่มีความเร็วมากกว่า 11 Gbps ต่อ pin และแบนด์วิดท์รวมสูงถึง 2.8 TB/s แล้ว พร้อมกับล็อกสัญญา HBM3E สำหรับปี 2026 ไว้เกือบหมดแล้ว ซึ่งแสดงถึงความพร้อมในการเข้าสู่ยุค HBM4 และ HBM4E อย่างเต็มตัว
การจับมือกับ TSMC ยังช่วยให้ Micron สามารถใช้เทคโนโลยีการผลิตขั้นสูงในการสร้าง logic die ที่มีความซับซ้อนมากขึ้น และสอดคล้องกับความต้องการของ GPU รุ่นใหม่ เช่น Nvidia Rubin Ultra และ AMD MI400 ที่จะเปิดตัวในปี 2026–2027 ซึ่งต้องการหน่วยความจำที่มีแบนด์วิดท์ระดับหลายสิบ TB/s และความจุสูงถึง 1 TB ต่อ GPU
นอกจากนี้ Micron ยังมองว่า HBM4E จะกลายเป็นมาตรฐานใหม่ของหน่วยความจำใน data center สำหรับงาน AI โดยเฉพาะเมื่อ workload มีขนาดใหญ่ขึ้นเรื่อย ๆ และความต้องการด้านประสิทธิภาพสูงขึ้นอย่างต่อเนื่อง
https://www.tomshardware.com/micron-hands-tsmc-the-keys-to-hbm4e
0 Comments
0 Shares
21 Views
0 Reviews