“Micron เปิดตัว HBM4 แรงทะลุ 2.8TB/s — พร้อมแผน HBM4E แบบปรับแต่งได้สำหรับ Nvidia และ AMD”
Micron ประกาศความสำเร็จครั้งใหญ่ในตลาดหน่วยความจำความเร็วสูง (HBM) ด้วยการเปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps ซึ่งสูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps อย่างชัดเจน โดยเริ่มส่งมอบตัวอย่างให้ลูกค้าแล้ว และเตรียมพร้อมสำหรับการใช้งานจริงในแพลตฟอร์ม AI ระดับองค์กร
HBM4 รุ่นใหม่ของ Micron ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่ที่ช่วยให้ประหยัดพลังงานและเพิ่มประสิทธิภาพได้อย่างโดดเด่น นอกจากนี้ยังมีแผนเปิดตัว HBM4E ซึ่งจะเป็นครั้งแรกที่มีการเสนอ “base logic die” แบบปรับแต่งได้ตามความต้องการของลูกค้า เช่น Nvidia และ AMD เพื่อให้สามารถออกแบบ accelerator ที่มี latency ต่ำและการจัดการข้อมูลที่แม่นยำมากขึ้น
Micron ร่วมมือกับ TSMC ในการผลิต base die สำหรับ HBM4E โดยคาดว่าจะสามารถสร้างความแตกต่างในตลาดได้อย่างชัดเจน และเพิ่ม margin ให้กับผลิตภัณฑ์แบบปรับแต่งได้มากกว่ารุ่นมาตรฐาน
ในไตรมาสล่าสุด Micron รายงานรายได้จาก HBM สูงถึง 2 พันล้านดอลลาร์ ซึ่งคิดเป็นอัตรารายได้ต่อปีที่ 8 พันล้านดอลลาร์ และตั้งเป้าจะครองส่วนแบ่งในตลาด HBM ที่มีมูลค่ารวมกว่า 100 พันล้านดอลลาร์ในอีกไม่กี่ปีข้างหน้า
ข้อมูลสำคัญจากข่าว
Micron เปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps
สูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps
ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่
เริ่มส่งมอบตัวอย่าง HBM4 ให้ลูกค้าแล้ว
เตรียมเปิดตัว HBM4E ที่สามารถปรับแต่ง base logic die ได้ตามความต้องการ
พัฒนา HBM4E ร่วมกับ TSMC เพื่อรองรับการใช้งานใน accelerator ของ Nvidia และ AMD
HBM4E แบบปรับแต่งจะมี margin สูงกว่ารุ่นมาตรฐาน
Micron รายงานรายได้จาก HBM สูงถึง $2B ในไตรมาสล่าสุด
ตั้งเป้าครองส่วนแบ่งในตลาด HBM มูลค่า $100B
ข้อมูลเสริมจากภายนอก
HBM (High Bandwidth Memory) เป็นหน่วยความจำแบบ stacked ที่ใช้ในงาน AI และ GPU ระดับสูง
JEDEC เป็นองค์กรที่กำหนดมาตรฐานด้านหน่วยความจำในอุตสาหกรรม
การปรับแต่ง base die ช่วยให้ accelerator มี latency ต่ำและ routing ที่แม่นยำ
TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และเป็นพันธมิตรสำคัญของ Micron
Nvidia และ AMD ต้องการหน่วยความจำที่เร็วขึ้นเพื่อรองรับการเติบโตของ compute die
https://www.techradar.com/pro/micron-takes-the-hbm-lead-with-fastest-ever-hbm4-memory-with-a-2-8tb-s-bandwidth-putting-it-ahead-of-samsung-and-sk-hynix
Micron ประกาศความสำเร็จครั้งใหญ่ในตลาดหน่วยความจำความเร็วสูง (HBM) ด้วยการเปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps ซึ่งสูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps อย่างชัดเจน โดยเริ่มส่งมอบตัวอย่างให้ลูกค้าแล้ว และเตรียมพร้อมสำหรับการใช้งานจริงในแพลตฟอร์ม AI ระดับองค์กร
HBM4 รุ่นใหม่ของ Micron ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่ที่ช่วยให้ประหยัดพลังงานและเพิ่มประสิทธิภาพได้อย่างโดดเด่น นอกจากนี้ยังมีแผนเปิดตัว HBM4E ซึ่งจะเป็นครั้งแรกที่มีการเสนอ “base logic die” แบบปรับแต่งได้ตามความต้องการของลูกค้า เช่น Nvidia และ AMD เพื่อให้สามารถออกแบบ accelerator ที่มี latency ต่ำและการจัดการข้อมูลที่แม่นยำมากขึ้น
Micron ร่วมมือกับ TSMC ในการผลิต base die สำหรับ HBM4E โดยคาดว่าจะสามารถสร้างความแตกต่างในตลาดได้อย่างชัดเจน และเพิ่ม margin ให้กับผลิตภัณฑ์แบบปรับแต่งได้มากกว่ารุ่นมาตรฐาน
ในไตรมาสล่าสุด Micron รายงานรายได้จาก HBM สูงถึง 2 พันล้านดอลลาร์ ซึ่งคิดเป็นอัตรารายได้ต่อปีที่ 8 พันล้านดอลลาร์ และตั้งเป้าจะครองส่วนแบ่งในตลาด HBM ที่มีมูลค่ารวมกว่า 100 พันล้านดอลลาร์ในอีกไม่กี่ปีข้างหน้า
ข้อมูลสำคัญจากข่าว
Micron เปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps
สูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps
ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่
เริ่มส่งมอบตัวอย่าง HBM4 ให้ลูกค้าแล้ว
เตรียมเปิดตัว HBM4E ที่สามารถปรับแต่ง base logic die ได้ตามความต้องการ
พัฒนา HBM4E ร่วมกับ TSMC เพื่อรองรับการใช้งานใน accelerator ของ Nvidia และ AMD
HBM4E แบบปรับแต่งจะมี margin สูงกว่ารุ่นมาตรฐาน
Micron รายงานรายได้จาก HBM สูงถึง $2B ในไตรมาสล่าสุด
ตั้งเป้าครองส่วนแบ่งในตลาด HBM มูลค่า $100B
ข้อมูลเสริมจากภายนอก
HBM (High Bandwidth Memory) เป็นหน่วยความจำแบบ stacked ที่ใช้ในงาน AI และ GPU ระดับสูง
JEDEC เป็นองค์กรที่กำหนดมาตรฐานด้านหน่วยความจำในอุตสาหกรรม
การปรับแต่ง base die ช่วยให้ accelerator มี latency ต่ำและ routing ที่แม่นยำ
TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และเป็นพันธมิตรสำคัญของ Micron
Nvidia และ AMD ต้องการหน่วยความจำที่เร็วขึ้นเพื่อรองรับการเติบโตของ compute die
https://www.techradar.com/pro/micron-takes-the-hbm-lead-with-fastest-ever-hbm4-memory-with-a-2-8tb-s-bandwidth-putting-it-ahead-of-samsung-and-sk-hynix
🚀 “Micron เปิดตัว HBM4 แรงทะลุ 2.8TB/s — พร้อมแผน HBM4E แบบปรับแต่งได้สำหรับ Nvidia และ AMD”
Micron ประกาศความสำเร็จครั้งใหญ่ในตลาดหน่วยความจำความเร็วสูง (HBM) ด้วยการเปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps ซึ่งสูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps อย่างชัดเจน โดยเริ่มส่งมอบตัวอย่างให้ลูกค้าแล้ว และเตรียมพร้อมสำหรับการใช้งานจริงในแพลตฟอร์ม AI ระดับองค์กร
HBM4 รุ่นใหม่ของ Micron ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่ที่ช่วยให้ประหยัดพลังงานและเพิ่มประสิทธิภาพได้อย่างโดดเด่น นอกจากนี้ยังมีแผนเปิดตัว HBM4E ซึ่งจะเป็นครั้งแรกที่มีการเสนอ “base logic die” แบบปรับแต่งได้ตามความต้องการของลูกค้า เช่น Nvidia และ AMD เพื่อให้สามารถออกแบบ accelerator ที่มี latency ต่ำและการจัดการข้อมูลที่แม่นยำมากขึ้น
Micron ร่วมมือกับ TSMC ในการผลิต base die สำหรับ HBM4E โดยคาดว่าจะสามารถสร้างความแตกต่างในตลาดได้อย่างชัดเจน และเพิ่ม margin ให้กับผลิตภัณฑ์แบบปรับแต่งได้มากกว่ารุ่นมาตรฐาน
ในไตรมาสล่าสุด Micron รายงานรายได้จาก HBM สูงถึง 2 พันล้านดอลลาร์ ซึ่งคิดเป็นอัตรารายได้ต่อปีที่ 8 พันล้านดอลลาร์ และตั้งเป้าจะครองส่วนแบ่งในตลาด HBM ที่มีมูลค่ารวมกว่า 100 พันล้านดอลลาร์ในอีกไม่กี่ปีข้างหน้า
✅ ข้อมูลสำคัญจากข่าว
➡️ Micron เปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps
➡️ สูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps
➡️ ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่
➡️ เริ่มส่งมอบตัวอย่าง HBM4 ให้ลูกค้าแล้ว
➡️ เตรียมเปิดตัว HBM4E ที่สามารถปรับแต่ง base logic die ได้ตามความต้องการ
➡️ พัฒนา HBM4E ร่วมกับ TSMC เพื่อรองรับการใช้งานใน accelerator ของ Nvidia และ AMD
➡️ HBM4E แบบปรับแต่งจะมี margin สูงกว่ารุ่นมาตรฐาน
➡️ Micron รายงานรายได้จาก HBM สูงถึง $2B ในไตรมาสล่าสุด
➡️ ตั้งเป้าครองส่วนแบ่งในตลาด HBM มูลค่า $100B
✅ ข้อมูลเสริมจากภายนอก
➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำแบบ stacked ที่ใช้ในงาน AI และ GPU ระดับสูง
➡️ JEDEC เป็นองค์กรที่กำหนดมาตรฐานด้านหน่วยความจำในอุตสาหกรรม
➡️ การปรับแต่ง base die ช่วยให้ accelerator มี latency ต่ำและ routing ที่แม่นยำ
➡️ TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และเป็นพันธมิตรสำคัญของ Micron
➡️ Nvidia และ AMD ต้องการหน่วยความจำที่เร็วขึ้นเพื่อรองรับการเติบโตของ compute die
https://www.techradar.com/pro/micron-takes-the-hbm-lead-with-fastest-ever-hbm4-memory-with-a-2-8tb-s-bandwidth-putting-it-ahead-of-samsung-and-sk-hynix
0 ความคิดเห็น
0 การแบ่งปัน
72 มุมมอง
0 รีวิว