• “AMD MI450X บีบให้ NVIDIA ปรับแผน Rubin — สงครามชิป AI ระดับ 2,000W เริ่มแล้ว”

    การแข่งขันระหว่าง AMD และ NVIDIA ในตลาดชิป AI กำลังร้อนแรงขึ้นอย่างไม่เคยมีมาก่อน โดยล่าสุด AMD ได้เปิดตัว Instinct MI450X ซึ่งเป็นชิป AI รุ่นใหม่ที่มีสเปกแรงจนทำให้ NVIDIA ต้องปรับแผนการออกแบบชิป Rubin VR200 ของตัวเองอย่างเร่งด่วน

    ชิป MI450X ของ AMD ใช้หน่วยความจำ HBM4 สูงสุดถึง 432GB ต่อ GPU และมีแบนด์วิดธ์สูงถึง 19.6 TB/s พร้อมพลังประมวลผล FP4 ที่ระดับ 40 PFLOPS โดยมี TGP สูงถึง 2500W ซึ่งถือว่าสูงมากเมื่อเทียบกับชิป AI ทั่วไป

    NVIDIA ที่เดิมวางแผนให้ Rubin VR200 มี TGP อยู่ที่ 1800W ต้องปรับเพิ่มขึ้นเป็น 2300W และเพิ่มแบนด์วิดธ์จาก 13 TB/s เป็น 20 TB/s ต่อ GPU เพื่อให้สามารถแข่งขันกับ MI450X ได้อย่างสูสี โดย Rubin ยังมีพลังประมวลผล FP4 สูงถึง 50 PFLOPS และใช้ HBM4 ขนาด 288GB ต่อ GPU

    ทั้งสองบริษัทใช้เทคโนโลยีการผลิตระดับ 3nm จาก TSMC และออกแบบแบบ chiplet เพื่อเพิ่มประสิทธิภาพและการจัดการพลังงาน โดย AMD มั่นใจว่า MI450X จะเป็น “Milan moment” ของสาย AI เหมือนที่ EPYC 7003 เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์

    แม้ยังไม่มีข้อมูลสเปกเต็มของทั้งสองรุ่น แต่ OpenAI ได้เริ่มใช้งาน Rubin แล้ว ขณะที่ AMD เตรียมเปิดตัว MI450X ในปี 2026 ซึ่งหมายความว่า “สงครามชิป AI ระดับ hyperscale” ได้เริ่มต้นขึ้นแล้วอย่างเป็นทางการ

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว Instinct MI450X พร้อม TGP สูงถึง 2500W และแบนด์วิดธ์ 19.6 TB/s
    ใช้หน่วยความจำ HBM4 ขนาด 432GB ต่อ GPU และพลังประมวลผล FP4 ที่ 40 PFLOPS
    NVIDIA ปรับแผน Rubin VR200 เพิ่ม TGP จาก 1800W เป็น 2300W และแบนด์วิดธ์เป็น 20 TB/s
    Rubin ใช้ HBM4 ขนาด 288GB ต่อ GPU และพลังประมวลผล FP4 ที่ 50 PFLOPS
    ทั้งสองชิปใช้เทคโนโลยี 3nm จาก TSMC และออกแบบแบบ chiplet
    AMD มองว่า MI450X จะเป็นจุดเปลี่ยนเหมือน EPYC 7003 ในตลาดเซิร์ฟเวอร์
    OpenAI เริ่มใช้งาน Rubin แล้ว แสดงถึงการยอมรับในตลาดจริง
    MI450X และ Rubin จะเปิดตัวเต็มรูปแบบในปี 2026

    ข้อมูลเสริมจากภายนอก
    HBM4 เป็นหน่วยความจำที่มีแบนด์วิดธ์สูงที่สุดในตลาด AI ปัจจุบัน
    FP4 เป็นรูปแบบการประมวลผลที่เหมาะกับงาน AI ขนาดใหญ่ เช่น LLM และโมเดลภาพ
    การใช้ TGP สูงกว่า 2000W ต้องมีระบบระบายความร้อนระดับเซิร์ฟเวอร์พิเศษ
    AMD เคยตามหลัง NVIDIA ในรอบก่อนหน้า แต่ MI450X อาจเปลี่ยนสมดุล
    Rubin Ultra รุ่นถัดไปของ NVIDIA อาจมี HBM4 สูงถึง 576GB ต่อ GPU

    https://wccftech.com/amd-instinct-mi450x-has-forced-nvidia-to-make-changes-with-the-rubin-ai-chip/
    ⚔️ “AMD MI450X บีบให้ NVIDIA ปรับแผน Rubin — สงครามชิป AI ระดับ 2,000W เริ่มแล้ว” การแข่งขันระหว่าง AMD และ NVIDIA ในตลาดชิป AI กำลังร้อนแรงขึ้นอย่างไม่เคยมีมาก่อน โดยล่าสุด AMD ได้เปิดตัว Instinct MI450X ซึ่งเป็นชิป AI รุ่นใหม่ที่มีสเปกแรงจนทำให้ NVIDIA ต้องปรับแผนการออกแบบชิป Rubin VR200 ของตัวเองอย่างเร่งด่วน ชิป MI450X ของ AMD ใช้หน่วยความจำ HBM4 สูงสุดถึง 432GB ต่อ GPU และมีแบนด์วิดธ์สูงถึง 19.6 TB/s พร้อมพลังประมวลผล FP4 ที่ระดับ 40 PFLOPS โดยมี TGP สูงถึง 2500W ซึ่งถือว่าสูงมากเมื่อเทียบกับชิป AI ทั่วไป NVIDIA ที่เดิมวางแผนให้ Rubin VR200 มี TGP อยู่ที่ 1800W ต้องปรับเพิ่มขึ้นเป็น 2300W และเพิ่มแบนด์วิดธ์จาก 13 TB/s เป็น 20 TB/s ต่อ GPU เพื่อให้สามารถแข่งขันกับ MI450X ได้อย่างสูสี โดย Rubin ยังมีพลังประมวลผล FP4 สูงถึง 50 PFLOPS และใช้ HBM4 ขนาด 288GB ต่อ GPU ทั้งสองบริษัทใช้เทคโนโลยีการผลิตระดับ 3nm จาก TSMC และออกแบบแบบ chiplet เพื่อเพิ่มประสิทธิภาพและการจัดการพลังงาน โดย AMD มั่นใจว่า MI450X จะเป็น “Milan moment” ของสาย AI เหมือนที่ EPYC 7003 เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์ แม้ยังไม่มีข้อมูลสเปกเต็มของทั้งสองรุ่น แต่ OpenAI ได้เริ่มใช้งาน Rubin แล้ว ขณะที่ AMD เตรียมเปิดตัว MI450X ในปี 2026 ซึ่งหมายความว่า “สงครามชิป AI ระดับ hyperscale” ได้เริ่มต้นขึ้นแล้วอย่างเป็นทางการ ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว Instinct MI450X พร้อม TGP สูงถึง 2500W และแบนด์วิดธ์ 19.6 TB/s ➡️ ใช้หน่วยความจำ HBM4 ขนาด 432GB ต่อ GPU และพลังประมวลผล FP4 ที่ 40 PFLOPS ➡️ NVIDIA ปรับแผน Rubin VR200 เพิ่ม TGP จาก 1800W เป็น 2300W และแบนด์วิดธ์เป็น 20 TB/s ➡️ Rubin ใช้ HBM4 ขนาด 288GB ต่อ GPU และพลังประมวลผล FP4 ที่ 50 PFLOPS ➡️ ทั้งสองชิปใช้เทคโนโลยี 3nm จาก TSMC และออกแบบแบบ chiplet ➡️ AMD มองว่า MI450X จะเป็นจุดเปลี่ยนเหมือน EPYC 7003 ในตลาดเซิร์ฟเวอร์ ➡️ OpenAI เริ่มใช้งาน Rubin แล้ว แสดงถึงการยอมรับในตลาดจริง ➡️ MI450X และ Rubin จะเปิดตัวเต็มรูปแบบในปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM4 เป็นหน่วยความจำที่มีแบนด์วิดธ์สูงที่สุดในตลาด AI ปัจจุบัน ➡️ FP4 เป็นรูปแบบการประมวลผลที่เหมาะกับงาน AI ขนาดใหญ่ เช่น LLM และโมเดลภาพ ➡️ การใช้ TGP สูงกว่า 2000W ต้องมีระบบระบายความร้อนระดับเซิร์ฟเวอร์พิเศษ ➡️ AMD เคยตามหลัง NVIDIA ในรอบก่อนหน้า แต่ MI450X อาจเปลี่ยนสมดุล ➡️ Rubin Ultra รุ่นถัดไปของ NVIDIA อาจมี HBM4 สูงถึง 576GB ต่อ GPU https://wccftech.com/amd-instinct-mi450x-has-forced-nvidia-to-make-changes-with-the-rubin-ai-chip/
    WCCFTECH.COM
    AMD's Instinct MI450X Has Reportedly 'Forced' NVIDIA to Make Changes With the Rubin AI Chip, Including Higher TGPs & Memory Bandwidth
    NVIDIA and AMD are racing to create a superior AI architecture, with both firms revising their next-gen designs to gain an edge.
    0 ความคิดเห็น 0 การแบ่งปัน 148 มุมมอง 0 รีวิว
  • “Micron จับมือ TSMC ผลิต HBM4E — เปิดยุคใหม่ของหน่วยความจำ AI ที่ปรับแต่งได้ตามใจลูกค้า”

    Micron ประกาศความร่วมมือกับ TSMC ในการผลิตชิปฐาน (logic die) สำหรับหน่วยความจำ HBM4E ซึ่งเป็นรุ่นถัดไปของเทคโนโลยี High Bandwidth Memory ที่ออกแบบมาเพื่อรองรับงานประมวลผล AI ระดับสูง โดยมีแผนเริ่มผลิตในปี 2027

    HBM4E ไม่ใช่แค่หน่วยความจำที่เร็วขึ้น แต่ Micron ตั้งใจให้มันเป็น “แพลตฟอร์มแบบกึ่งปรับแต่งได้” โดยลูกค้าสามารถเลือกฟีเจอร์เฉพาะใน logic die เช่น การเพิ่ม SRAM, การใส่ compression engine หรือการปรับสัญญาณให้เหมาะกับงานของตัวเอง ซึ่งจะช่วยให้ GPU หรือ XPU ทำงานได้เต็มประสิทธิภาพมากขึ้น

    Micron ได้เริ่มส่งตัวอย่าง HBM4 ที่มีความเร็วมากกว่า 11 Gbps ต่อ pin และแบนด์วิดท์รวมสูงถึง 2.8 TB/s แล้ว พร้อมกับล็อกสัญญา HBM3E สำหรับปี 2026 ไว้เกือบหมดแล้ว ซึ่งแสดงถึงความพร้อมในการเข้าสู่ยุค HBM4 และ HBM4E อย่างเต็มตัว

    การจับมือกับ TSMC ยังช่วยให้ Micron สามารถใช้เทคโนโลยีการผลิตขั้นสูงในการสร้าง logic die ที่มีความซับซ้อนมากขึ้น และสอดคล้องกับความต้องการของ GPU รุ่นใหม่ เช่น Nvidia Rubin Ultra และ AMD MI400 ที่จะเปิดตัวในปี 2026–2027 ซึ่งต้องการหน่วยความจำที่มีแบนด์วิดท์ระดับหลายสิบ TB/s และความจุสูงถึง 1 TB ต่อ GPU

    นอกจากนี้ Micron ยังมองว่า HBM4E จะกลายเป็นมาตรฐานใหม่ของหน่วยความจำใน data center สำหรับงาน AI โดยเฉพาะเมื่อ workload มีขนาดใหญ่ขึ้นเรื่อย ๆ และความต้องการด้านประสิทธิภาพสูงขึ้นอย่างต่อเนื่อง

    https://www.tomshardware.com/micron-hands-tsmc-the-keys-to-hbm4e
    🚀 “Micron จับมือ TSMC ผลิต HBM4E — เปิดยุคใหม่ของหน่วยความจำ AI ที่ปรับแต่งได้ตามใจลูกค้า” Micron ประกาศความร่วมมือกับ TSMC ในการผลิตชิปฐาน (logic die) สำหรับหน่วยความจำ HBM4E ซึ่งเป็นรุ่นถัดไปของเทคโนโลยี High Bandwidth Memory ที่ออกแบบมาเพื่อรองรับงานประมวลผล AI ระดับสูง โดยมีแผนเริ่มผลิตในปี 2027 HBM4E ไม่ใช่แค่หน่วยความจำที่เร็วขึ้น แต่ Micron ตั้งใจให้มันเป็น “แพลตฟอร์มแบบกึ่งปรับแต่งได้” โดยลูกค้าสามารถเลือกฟีเจอร์เฉพาะใน logic die เช่น การเพิ่ม SRAM, การใส่ compression engine หรือการปรับสัญญาณให้เหมาะกับงานของตัวเอง ซึ่งจะช่วยให้ GPU หรือ XPU ทำงานได้เต็มประสิทธิภาพมากขึ้น Micron ได้เริ่มส่งตัวอย่าง HBM4 ที่มีความเร็วมากกว่า 11 Gbps ต่อ pin และแบนด์วิดท์รวมสูงถึง 2.8 TB/s แล้ว พร้อมกับล็อกสัญญา HBM3E สำหรับปี 2026 ไว้เกือบหมดแล้ว ซึ่งแสดงถึงความพร้อมในการเข้าสู่ยุค HBM4 และ HBM4E อย่างเต็มตัว การจับมือกับ TSMC ยังช่วยให้ Micron สามารถใช้เทคโนโลยีการผลิตขั้นสูงในการสร้าง logic die ที่มีความซับซ้อนมากขึ้น และสอดคล้องกับความต้องการของ GPU รุ่นใหม่ เช่น Nvidia Rubin Ultra และ AMD MI400 ที่จะเปิดตัวในปี 2026–2027 ซึ่งต้องการหน่วยความจำที่มีแบนด์วิดท์ระดับหลายสิบ TB/s และความจุสูงถึง 1 TB ต่อ GPU นอกจากนี้ Micron ยังมองว่า HBM4E จะกลายเป็นมาตรฐานใหม่ของหน่วยความจำใน data center สำหรับงาน AI โดยเฉพาะเมื่อ workload มีขนาดใหญ่ขึ้นเรื่อย ๆ และความต้องการด้านประสิทธิภาพสูงขึ้นอย่างต่อเนื่อง https://www.tomshardware.com/micron-hands-tsmc-the-keys-to-hbm4e
    0 ความคิดเห็น 0 การแบ่งปัน 131 มุมมอง 0 รีวิว
  • TSMC 2nm มาแรง! ลูกค้าแห่จองล่วงหน้าเพียบ — AI และ HPC แย่งชิงกำลังผลิตก่อนเปิดสายการผลิตจริง

    TSMC ผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน กำลังเตรียมเปิดสายการผลิตระดับ 2 นาโนเมตร (2nm) ซึ่งเป็นเทคโนโลยีล้ำหน้าที่สุดในอุตสาหกรรม ณ ขณะนี้ โดยมีรายงานว่า TSMC ได้รับคำสั่งจองจากลูกค้าถึง 15 รายแล้ว และในจำนวนนี้มีถึง 10 รายที่มุ่งเน้นการใช้งานด้าน HPC (High Performance Computing) เช่น AI, Cloud และเซิร์ฟเวอร์ระดับองค์กร2

    แม้ Apple จะยังคงเป็นลูกค้ารายใหญ่ที่สุด โดยจองกำลังผลิตมากกว่าครึ่งของทั้งหมดสำหรับชิป A20, M6 และ R2 ที่จะใช้ใน iPhone, MacBook และ Vision Pro รุ่นถัดไป แต่สิ่งที่น่าสนใจคือการที่บริษัทด้าน AI อย่าง Google, Amazon, Broadcom และ OpenAI ก็เข้ามาจองพื้นที่ผลิตสำหรับชิป ASIC แบบ custom ที่ใช้ในงาน AI โดยเฉพาะ

    NVIDIA และ AMD ก็ไม่พลาด โดยเตรียมใช้ 2nm สำหรับ GPU รุ่นใหม่ เช่น Rubin Ultra และ Instinct MI450 ซึ่งจะเป็นหัวใจของระบบ AI และ HPC ในยุคถัดไป ขณะที่ MediaTek และ Qualcomm ก็เตรียมใช้ในสมาร์ตโฟนระดับเรือธงเช่นกัน

    สิ่งที่ทำให้ 2nm ได้รับความนิยมอย่างรวดเร็วคือโครงสร้างราคาที่น่าสนใจ และประสิทธิภาพที่สูงกว่ารุ่น 3nm อย่างชัดเจน โดย TSMC คาดว่าจะเริ่มผลิตจำนวนมากในครึ่งหลังของปี 2026 และชิปจากลูกค้ารายแรกจะเริ่มเข้าสู่ตลาดในต้นปี 2027

    TSMC ได้รับคำสั่งจอง 2nm จากลูกค้าแล้ว 15 ราย
    10 รายเน้นใช้งานด้าน HPC เช่น AI, Cloud, เซิร์ฟเวอร์
    แสดงถึงแนวโน้มที่เปลี่ยนจากมือถือสู่การประมวลผลขั้นสูง

    Apple จองกำลังผลิตมากกว่าครึ่งของทั้งหมด
    ใช้กับชิป A20, M6 และ R2 สำหรับ iPhone, Mac และ Vision Pro
    เตรียมใช้เทคโนโลยี WMCM แทน InFO เพื่อเพิ่มความยืดหยุ่น

    ลูกค้า HPC รายใหญ่เข้าร่วม เช่น Google, Amazon, Broadcom, OpenAI
    มุ่งพัฒนาชิป ASIC สำหรับงาน AI โดยเฉพาะ
    ต้องการประสิทธิภาพสูงและการประหยัดพลังงาน

    NVIDIA และ AMD เตรียมใช้ 2nm สำหรับ GPU รุ่นใหม่
    Rubin Ultra และ Instinct MI450 จะใช้เทคโนโลยีนี้
    เป็นหัวใจของระบบ AI และ HPC ยุคถัดไป

    MediaTek และ Qualcomm ใช้ในสมาร์ตโฟนระดับเรือธง
    Dimensity 9600 และ Snapdragon รุ่นถัดไป
    คาดว่าจะเริ่มผลิตปลายปี 2026

    โครงสร้างราคาของ 2nm ดึงดูดลูกค้าจำนวนมาก
    ถูกกว่า 3nm ในบางกรณี / ประสิทธิภาพสูงกว่า
    ทำให้การผลิต ramp-up เร็วกว่ารุ่นก่อนหน้า

    https://wccftech.com/tsmc-2nm-process-has-reportedly-secured-up-to-fifteen-customers/
    📰 TSMC 2nm มาแรง! ลูกค้าแห่จองล่วงหน้าเพียบ — AI และ HPC แย่งชิงกำลังผลิตก่อนเปิดสายการผลิตจริง TSMC ผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน กำลังเตรียมเปิดสายการผลิตระดับ 2 นาโนเมตร (2nm) ซึ่งเป็นเทคโนโลยีล้ำหน้าที่สุดในอุตสาหกรรม ณ ขณะนี้ โดยมีรายงานว่า TSMC ได้รับคำสั่งจองจากลูกค้าถึง 15 รายแล้ว และในจำนวนนี้มีถึง 10 รายที่มุ่งเน้นการใช้งานด้าน HPC (High Performance Computing) เช่น AI, Cloud และเซิร์ฟเวอร์ระดับองค์กร2 แม้ Apple จะยังคงเป็นลูกค้ารายใหญ่ที่สุด โดยจองกำลังผลิตมากกว่าครึ่งของทั้งหมดสำหรับชิป A20, M6 และ R2 ที่จะใช้ใน iPhone, MacBook และ Vision Pro รุ่นถัดไป แต่สิ่งที่น่าสนใจคือการที่บริษัทด้าน AI อย่าง Google, Amazon, Broadcom และ OpenAI ก็เข้ามาจองพื้นที่ผลิตสำหรับชิป ASIC แบบ custom ที่ใช้ในงาน AI โดยเฉพาะ NVIDIA และ AMD ก็ไม่พลาด โดยเตรียมใช้ 2nm สำหรับ GPU รุ่นใหม่ เช่น Rubin Ultra และ Instinct MI450 ซึ่งจะเป็นหัวใจของระบบ AI และ HPC ในยุคถัดไป ขณะที่ MediaTek และ Qualcomm ก็เตรียมใช้ในสมาร์ตโฟนระดับเรือธงเช่นกัน สิ่งที่ทำให้ 2nm ได้รับความนิยมอย่างรวดเร็วคือโครงสร้างราคาที่น่าสนใจ และประสิทธิภาพที่สูงกว่ารุ่น 3nm อย่างชัดเจน โดย TSMC คาดว่าจะเริ่มผลิตจำนวนมากในครึ่งหลังของปี 2026 และชิปจากลูกค้ารายแรกจะเริ่มเข้าสู่ตลาดในต้นปี 2027 ✅ TSMC ได้รับคำสั่งจอง 2nm จากลูกค้าแล้ว 15 ราย ➡️ 10 รายเน้นใช้งานด้าน HPC เช่น AI, Cloud, เซิร์ฟเวอร์ ➡️ แสดงถึงแนวโน้มที่เปลี่ยนจากมือถือสู่การประมวลผลขั้นสูง ✅ Apple จองกำลังผลิตมากกว่าครึ่งของทั้งหมด ➡️ ใช้กับชิป A20, M6 และ R2 สำหรับ iPhone, Mac และ Vision Pro ➡️ เตรียมใช้เทคโนโลยี WMCM แทน InFO เพื่อเพิ่มความยืดหยุ่น ✅ ลูกค้า HPC รายใหญ่เข้าร่วม เช่น Google, Amazon, Broadcom, OpenAI ➡️ มุ่งพัฒนาชิป ASIC สำหรับงาน AI โดยเฉพาะ ➡️ ต้องการประสิทธิภาพสูงและการประหยัดพลังงาน ✅ NVIDIA และ AMD เตรียมใช้ 2nm สำหรับ GPU รุ่นใหม่ ➡️ Rubin Ultra และ Instinct MI450 จะใช้เทคโนโลยีนี้ ➡️ เป็นหัวใจของระบบ AI และ HPC ยุคถัดไป ✅ MediaTek และ Qualcomm ใช้ในสมาร์ตโฟนระดับเรือธง ➡️ Dimensity 9600 และ Snapdragon รุ่นถัดไป ➡️ คาดว่าจะเริ่มผลิตปลายปี 2026 ✅ โครงสร้างราคาของ 2nm ดึงดูดลูกค้าจำนวนมาก ➡️ ถูกกว่า 3nm ในบางกรณี / ประสิทธิภาพสูงกว่า ➡️ ทำให้การผลิต ramp-up เร็วกว่ารุ่นก่อนหน้า https://wccftech.com/tsmc-2nm-process-has-reportedly-secured-up-to-fifteen-customers/
    WCCFTECH.COM
    TSMC's 2nm Process Has Reportedly Secured up to Fifteen Customers, Ten of Which Will Use It for HPC Products, Indicating Phenomenal Demand
    TSMC's N2 process is witnessing massive demand, and it is revealed that the Taiwan giant has secured fifteen customers for their 2nm node.
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
  • “Nvidia เร่งดัน HBM4 ความเร็ว 10Gbps รับมือ AMD MI450 — เมื่อสงครามแบนด์วิดท์กลายเป็นเดิมพันของ AI ยุคใหม่”

    ในปี 2025 Nvidia กำลังเดินเกมรุกเพื่อเตรียมรับมือกับการเปิดตัวแพลตฟอร์ม MI450 Helios ของ AMD ที่จะมาถึงในปี 2026 โดยเน้นไปที่การเพิ่มความเร็วของหน่วยความจำ HBM4 ให้สูงถึง 10Gbps ต่อพิน ซึ่งมากกว่ามาตรฐานของ JEDEC ที่กำหนดไว้ที่ 8Gbps

    หากสำเร็จ ความเร็วนี้จะทำให้แบนด์วิดท์ต่อ stack เพิ่มจาก 2TB/s เป็น 2.56TB/s และเมื่อใช้ 6 stack ต่อ GPU จะได้แบนด์วิดท์รวมถึง 15TB/s ซึ่งเป็นตัวเลขที่น่าทึ่งสำหรับงาน AI inference ขนาดใหญ่ โดยเฉพาะในแพลตฟอร์ม Rubin CPX ที่ออกแบบมาเพื่อการประมวลผลระดับ petabyte ต่อวินาที

    อย่างไรก็ตาม การผลักดันความเร็วนี้ไม่ใช่เรื่องง่าย เพราะยิ่งเร็วก็ยิ่งต้องใช้พลังงานมากขึ้น มีข้อจำกัดด้าน timing และความเสถียรของ base die ซึ่งทำให้ Nvidia อาจต้องแบ่งรุ่น Rubin ออกเป็นหลายระดับ โดยใช้ HBM4 ที่เร็วที่สุดเฉพาะในรุ่น CPX และใช้รุ่นมาตรฐานในรุ่นทั่วไป

    ในด้านซัพพลายเออร์ SK hynix ยังคงเป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia แต่ Samsung กำลังเร่งพัฒนา base die ด้วยเทคโนโลยี 4nm FinFET ซึ่งอาจให้ความเร็วสูงกว่าและใช้พลังงานน้อยลง ส่วน Micron ก็เริ่มส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันว่าจะถึง 10Gbps หรือไม่

    ฝั่ง AMD ก็ไม่น้อยหน้า โดย MI450 จะใช้ HBM4 สูงสุดถึง 432GB ต่อ GPU ซึ่งเน้นความจุมากกว่าแบนด์วิดท์ และมาพร้อมสถาปัตยกรรม CDNA 4 ที่ออกแบบมาเพื่อแข่งขันกับ Rubin โดยตรงในงาน inference

    ข้อมูลสำคัญจากข่าว
    Nvidia กำลังผลักดัน HBM4 ให้เร็วถึง 10Gbps ต่อพิน เพื่อใช้ในแพลตฟอร์ม Rubin
    ความเร็วนี้จะให้แบนด์วิดท์สูงถึง 15TB/s ต่อ GPU เมื่อใช้ 6 stack
    Rubin CPX มีเป้าหมายแบนด์วิดท์รวม 1.7PB/s ต่อ rack
    SK hynix เป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia ในช่วงแรกของการผลิต

    การแข่งขันและกลยุทธ์
    Samsung พัฒนา base die ด้วยเทคโนโลยี 4nm FinFET เพื่อเพิ่มความเร็วและลดพลังงาน
    Micron ส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันความเร็ว 10Gbps
    AMD MI450 ใช้ HBM4 สูงสุด 432GB ต่อ GPU เน้นความจุมากกว่าแบนด์วิดท์
    CDNA 4 ของ AMD ออกแบบมาเพื่อแข่งขันกับ Rubin ในงาน inference โดยเฉพาะ

    ข้อมูลเสริมจากภายนอก
    JEDEC กำหนดมาตรฐาน HBM4 ที่ 8Gbps ต่อพิน
    การเพิ่มความเร็ว I/O ส่งผลต่อพลังงาน ความร้อน และ yield ของการผลิต
    Nvidia อาจแบ่งรุ่น Rubin ตามระดับความเร็วของ HBM4 เพื่อควบคุมต้นทุนและความเสถียร
    การรับรองซัพพลายเออร์แบบแบ่งเฟสช่วยให้ Nvidia ขยายการผลิตได้อย่างยืดหยุ่น

    https://www.tomshardware.com/pc-components/gpus/nvidia-wants-10gbps-hbm4-to-rival-amd-mi450
    ⚡ “Nvidia เร่งดัน HBM4 ความเร็ว 10Gbps รับมือ AMD MI450 — เมื่อสงครามแบนด์วิดท์กลายเป็นเดิมพันของ AI ยุคใหม่” ในปี 2025 Nvidia กำลังเดินเกมรุกเพื่อเตรียมรับมือกับการเปิดตัวแพลตฟอร์ม MI450 Helios ของ AMD ที่จะมาถึงในปี 2026 โดยเน้นไปที่การเพิ่มความเร็วของหน่วยความจำ HBM4 ให้สูงถึง 10Gbps ต่อพิน ซึ่งมากกว่ามาตรฐานของ JEDEC ที่กำหนดไว้ที่ 8Gbps หากสำเร็จ ความเร็วนี้จะทำให้แบนด์วิดท์ต่อ stack เพิ่มจาก 2TB/s เป็น 2.56TB/s และเมื่อใช้ 6 stack ต่อ GPU จะได้แบนด์วิดท์รวมถึง 15TB/s ซึ่งเป็นตัวเลขที่น่าทึ่งสำหรับงาน AI inference ขนาดใหญ่ โดยเฉพาะในแพลตฟอร์ม Rubin CPX ที่ออกแบบมาเพื่อการประมวลผลระดับ petabyte ต่อวินาที อย่างไรก็ตาม การผลักดันความเร็วนี้ไม่ใช่เรื่องง่าย เพราะยิ่งเร็วก็ยิ่งต้องใช้พลังงานมากขึ้น มีข้อจำกัดด้าน timing และความเสถียรของ base die ซึ่งทำให้ Nvidia อาจต้องแบ่งรุ่น Rubin ออกเป็นหลายระดับ โดยใช้ HBM4 ที่เร็วที่สุดเฉพาะในรุ่น CPX และใช้รุ่นมาตรฐานในรุ่นทั่วไป ในด้านซัพพลายเออร์ SK hynix ยังคงเป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia แต่ Samsung กำลังเร่งพัฒนา base die ด้วยเทคโนโลยี 4nm FinFET ซึ่งอาจให้ความเร็วสูงกว่าและใช้พลังงานน้อยลง ส่วน Micron ก็เริ่มส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันว่าจะถึง 10Gbps หรือไม่ ฝั่ง AMD ก็ไม่น้อยหน้า โดย MI450 จะใช้ HBM4 สูงสุดถึง 432GB ต่อ GPU ซึ่งเน้นความจุมากกว่าแบนด์วิดท์ และมาพร้อมสถาปัตยกรรม CDNA 4 ที่ออกแบบมาเพื่อแข่งขันกับ Rubin โดยตรงในงาน inference ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia กำลังผลักดัน HBM4 ให้เร็วถึง 10Gbps ต่อพิน เพื่อใช้ในแพลตฟอร์ม Rubin ➡️ ความเร็วนี้จะให้แบนด์วิดท์สูงถึง 15TB/s ต่อ GPU เมื่อใช้ 6 stack ➡️ Rubin CPX มีเป้าหมายแบนด์วิดท์รวม 1.7PB/s ต่อ rack ➡️ SK hynix เป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia ในช่วงแรกของการผลิต ✅ การแข่งขันและกลยุทธ์ ➡️ Samsung พัฒนา base die ด้วยเทคโนโลยี 4nm FinFET เพื่อเพิ่มความเร็วและลดพลังงาน ➡️ Micron ส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันความเร็ว 10Gbps ➡️ AMD MI450 ใช้ HBM4 สูงสุด 432GB ต่อ GPU เน้นความจุมากกว่าแบนด์วิดท์ ➡️ CDNA 4 ของ AMD ออกแบบมาเพื่อแข่งขันกับ Rubin ในงาน inference โดยเฉพาะ ✅ ข้อมูลเสริมจากภายนอก ➡️ JEDEC กำหนดมาตรฐาน HBM4 ที่ 8Gbps ต่อพิน ➡️ การเพิ่มความเร็ว I/O ส่งผลต่อพลังงาน ความร้อน และ yield ของการผลิต ➡️ Nvidia อาจแบ่งรุ่น Rubin ตามระดับความเร็วของ HBM4 เพื่อควบคุมต้นทุนและความเสถียร ➡️ การรับรองซัพพลายเออร์แบบแบ่งเฟสช่วยให้ Nvidia ขยายการผลิตได้อย่างยืดหยุ่น https://www.tomshardware.com/pc-components/gpus/nvidia-wants-10gbps-hbm4-to-rival-amd-mi450
    WWW.TOMSHARDWARE.COM
    Nvidia wants 10Gbps HBM4 to blunt AMD’s MI450, report claims — company said to be pushing suppliers for more bandwidth
    Nvidia’s Rubin platform bets big on 10Gb/s HBM4, but speed brings supply risk, and AMD’s MI450 is around the corner.
    0 ความคิดเห็น 0 การแบ่งปัน 137 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี”

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน

    ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่

    แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure

    AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป

    Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง
    กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning
    xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload
    Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware

    จุดแข็งของ AMD ในตลาด AI
    MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7
    มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s
    ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน

    การขยาย ecosystem ของ AMD
    ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก
    มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ
    OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid

    แผนการเปิดตัว MI450 และ Helios rack
    ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G
    รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps
    ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput

    https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    🎙️ เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี” Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่ แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป ✅ Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง ➡️ กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning ➡️ xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload ➡️ Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware ✅ จุดแข็งของ AMD ในตลาด AI ➡️ MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7 ➡️ มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s ➡️ ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน ✅ การขยาย ecosystem ของ AMD ➡️ ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก ➡️ มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ ➡️ OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid ✅ แผนการเปิดตัว MI450 และ Helios rack ➡️ ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G ➡️ รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps ➡️ ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    WCCFTECH.COM
    Elon Musk ‘Endorses’ AMD's AI Hardware for Small to Medium AI Models, Implying That There's Potential to Ease Reliance on NVIDIA
    Billionaire Elon Musk has tweeted on the performance of AMD's AI hardware, claiming that it is sufficient for small and medium AI models.
    0 ความคิดเห็น 0 การแบ่งปัน 229 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก MI355X สู่ MI450: เมื่อ AMD ประกาศว่า “ไม่มีข้ออ้าง” สำหรับการเลือกใช้ AI ของตน

    ในงาน Goldman Sachs Communacopia Technology Conference ปี 2025 Forrest Norrod รองประธานฝ่าย Data Center ของ AMD ได้ประกาศอย่างมั่นใจว่า Instinct MI450 จะเป็นจุดเปลี่ยนของ AMD ในตลาด AI โดยเปรียบเทียบว่าเป็น “Milan Moment” เหมือนที่ EPYC Milan เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์

    ที่ผ่านมา AMD ทำได้ดีในด้าน inference ด้วย MI300, MI325 และ MI355 แต่ยังตามหลัง NVIDIA ในด้าน training เพราะเปิดตัวช้ากว่า แต่ MI450 จะเปลี่ยนสิ่งนั้น โดยมาพร้อมสถาปัตยกรรมใหม่, HBM4 สูงสุด 432 GB ต่อ GPU, และการเชื่อมต่อแบบ rack-scale ผ่าน Helios rack ที่ให้แบนด์วิดธ์สูงถึง 1.4 PBps

    Helios rack จะใช้ GPU MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU รุ่นใหม่ที่มีถึง 256 คอร์ และ NIC Vulcano 800G ซึ่งทั้งหมดนี้จะทำงานร่วมกันผ่าน ROCm software stack ที่ AMD พัฒนาขึ้นเพื่อให้เทียบเท่ากับ CUDA ของ NVIDIA

    AMD ยังเน้นว่า Helios rack จะให้ประสิทธิภาพการฝึกโมเดล AI สูงกว่า Vera Rubin ของ NVIDIA ถึง 50% ในด้าน memory capacity และ bandwidth โดยใช้ดีไซน์แบบ double-wide rack เพื่อเพิ่มความหนาแน่นและประสิทธิภาพการระบายความร้อน

    การเปิดตัว Instinct MI450 และ Helios rack
    MI450 เป็น GPU สำหรับ AI training ที่ใช้ HBM4 สูงสุด 432 GB
    Helios rack ใช้ MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU และ Vulcano NIC
    ให้แบนด์วิดธ์รวม 1.4 PBps และ tensor performance สูงถึง 31 exaflops

    จุดเปลี่ยนของ AMD ในตลาด AI
    MI450 ถูกเปรียบเทียบว่าเป็น “Milan Moment” ของฝั่ง AI
    ROCm software stack ได้รับการปรับปรุงเพื่อเทียบเท่า CUDA
    AMD ตั้งเป้าให้ลูกค้าไม่มีข้ออ้างในการเลือก NVIDIA อีกต่อไป

    การออกแบบเพื่อ hyperscale และ rack-scale
    Helios rack ใช้ดีไซน์ double-wide เพื่อเพิ่มความหนาแน่น
    รองรับ memory capacity มากกว่า Vera Rubin ถึง 50%
    ใช้ระบบแบบ unified platform ที่รวม CPU, GPU, NIC และ software stack

    https://wccftech.com/with-the-mi450-amd-says-there-will-be-no-excuses-no-hesitation-in-choosing-team-red-over-nvidia/
    🎙️ เรื่องเล่าจาก MI355X สู่ MI450: เมื่อ AMD ประกาศว่า “ไม่มีข้ออ้าง” สำหรับการเลือกใช้ AI ของตน ในงาน Goldman Sachs Communacopia Technology Conference ปี 2025 Forrest Norrod รองประธานฝ่าย Data Center ของ AMD ได้ประกาศอย่างมั่นใจว่า Instinct MI450 จะเป็นจุดเปลี่ยนของ AMD ในตลาด AI โดยเปรียบเทียบว่าเป็น “Milan Moment” เหมือนที่ EPYC Milan เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์ ที่ผ่านมา AMD ทำได้ดีในด้าน inference ด้วย MI300, MI325 และ MI355 แต่ยังตามหลัง NVIDIA ในด้าน training เพราะเปิดตัวช้ากว่า แต่ MI450 จะเปลี่ยนสิ่งนั้น โดยมาพร้อมสถาปัตยกรรมใหม่, HBM4 สูงสุด 432 GB ต่อ GPU, และการเชื่อมต่อแบบ rack-scale ผ่าน Helios rack ที่ให้แบนด์วิดธ์สูงถึง 1.4 PBps Helios rack จะใช้ GPU MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU รุ่นใหม่ที่มีถึง 256 คอร์ และ NIC Vulcano 800G ซึ่งทั้งหมดนี้จะทำงานร่วมกันผ่าน ROCm software stack ที่ AMD พัฒนาขึ้นเพื่อให้เทียบเท่ากับ CUDA ของ NVIDIA AMD ยังเน้นว่า Helios rack จะให้ประสิทธิภาพการฝึกโมเดล AI สูงกว่า Vera Rubin ของ NVIDIA ถึง 50% ในด้าน memory capacity และ bandwidth โดยใช้ดีไซน์แบบ double-wide rack เพื่อเพิ่มความหนาแน่นและประสิทธิภาพการระบายความร้อน ✅ การเปิดตัว Instinct MI450 และ Helios rack ➡️ MI450 เป็น GPU สำหรับ AI training ที่ใช้ HBM4 สูงสุด 432 GB ➡️ Helios rack ใช้ MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU และ Vulcano NIC ➡️ ให้แบนด์วิดธ์รวม 1.4 PBps และ tensor performance สูงถึง 31 exaflops ✅ จุดเปลี่ยนของ AMD ในตลาด AI ➡️ MI450 ถูกเปรียบเทียบว่าเป็น “Milan Moment” ของฝั่ง AI ➡️ ROCm software stack ได้รับการปรับปรุงเพื่อเทียบเท่า CUDA ➡️ AMD ตั้งเป้าให้ลูกค้าไม่มีข้ออ้างในการเลือก NVIDIA อีกต่อไป ✅ การออกแบบเพื่อ hyperscale และ rack-scale ➡️ Helios rack ใช้ดีไซน์ double-wide เพื่อเพิ่มความหนาแน่น ➡️ รองรับ memory capacity มากกว่า Vera Rubin ถึง 50% ➡️ ใช้ระบบแบบ unified platform ที่รวม CPU, GPU, NIC และ software stack https://wccftech.com/with-the-mi450-amd-says-there-will-be-no-excuses-no-hesitation-in-choosing-team-red-over-nvidia/
    WCCFTECH.COM
    With the Next-Gen MI450 AI Lineup, AMD Says There Will Be ‘No Excuses, No Hesitation’ in Choosing Team Red Over NVIDIA In AI Workloads
    AMD's Instinct MI450 will be a 'decisive' release, as according to the firm's executive, the AI playground would be leveled with NVIDIA.
    0 ความคิดเห็น 0 การแบ่งปัน 217 มุมมอง 0 รีวิว
  • “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ”

    AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576.

    MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency

    แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ

    AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM

    โครงสร้างของ AMD MegaPod
    ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking
    มีทั้งหมด 64 CPU Verano และ 256 GPU MI500
    ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm
    ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ

    จุดเด่นด้านเทคโนโลยี
    MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine
    Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery
    ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads
    ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload

    การเปรียบเทียบกับ Nvidia SuperPod
    MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576
    Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว
    AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency
    การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU

    ข้อมูลเสริมจากภายนอก
    AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice
    MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging
    ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS
    Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray

    https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    🚀 “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ” AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576. MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM ✅ โครงสร้างของ AMD MegaPod ➡️ ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking ➡️ มีทั้งหมด 64 CPU Verano และ 256 GPU MI500 ➡️ ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm ➡️ ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ ✅ จุดเด่นด้านเทคโนโลยี ➡️ MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine ➡️ Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery ➡️ ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads ➡️ ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload ✅ การเปรียบเทียบกับ Nvidia SuperPod ➡️ MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576 ➡️ Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว ➡️ AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency ➡️ การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU ✅ ข้อมูลเสริมจากภายนอก ➡️ AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice ➡️ MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging ➡️ ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS ➡️ Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    0 ความคิดเห็น 0 การแบ่งปัน 235 มุมมอง 0 รีวิว
  • https://youtube.com/shorts/CxFXud9smi4?si=auX7g3_PWzmm-ODQ
    https://youtube.com/shorts/CxFXud9smi4?si=auX7g3_PWzmm-ODQ
    0 ความคิดเห็น 0 การแบ่งปัน 59 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก UAL256: เมื่อ AMD สร้างระบบ rack-scale ที่ไม่ใช่แค่แรง แต่ “เชื่อมโยงทุกอย่าง” ด้วย Ultra Ethernet และ Vulcano switch

    แม้ AMD ยังไม่เปิดตัว Instinct MI400 อย่างเป็นทางการ แต่บริษัทก็เริ่มเผยโครงสร้างของรุ่นถัดไป—Instinct MI500 UAL256 ซึ่งเป็น rack-scale system รุ่นที่สอง ต่อจาก MI450X “Helios” ที่จะเปิดตัวในปี 2026

    ในระบบ UAL256 แต่ละ compute node จะประกอบด้วย 1 CPU รหัส “Verano” ที่ใช้สถาปัตยกรรม Zen 7 และ 4 GPU รุ่น MI500 โดยรวมแล้ว Mega Pod หนึ่งชุดจะมี 64 CPU และ 256 GPU กระจายอยู่ในสองแร็คหลัก (32-node ต่อแร็ค) และเชื่อมต่อกันด้วยแร็คกลางที่มี 18 networking trays

    แต่ละ tray จะใช้ Vulcano switch ASICs จำนวน 4 ตัว ที่รองรับ throughput ระดับ 800G ต่อ tray และผลิตบนเทคโนโลยี 3nm ของ TSMC ซึ่งถือเป็นการยกระดับการเชื่อมต่อภายใน rack-scale system อย่างแท้จริง

    Verano CPU จะใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink และ Ultra Ethernet ซึ่งเป็นมาตรฐานใหม่ที่ AMD กำลังผลักดันให้เป็นโครงสร้างพื้นฐานของ AI/HPC ในยุคถัดไป โดยยังไม่ยืนยันว่าจะเพิ่มจำนวนคอร์เกิน 256 cores ต่อแพ็กเกจเหมือน Venice หรือไม่

    โครงสร้างของ Instinct MI500 UAL256
    ประกอบด้วย 64 Verano CPUs และ 256 MI500 GPUs
    แบ่งเป็นสองแร็คหลัก (32-node ต่อแร็ค) และแร็คกลางสำหรับ networking
    ใช้ Vulcano switch ASICs ที่รองรับ 800G throughput ต่อ tray

    สถาปัตยกรรมของ Verano CPU
    ใช้ Zen 7 microarchitecture ที่เน้น IPC และ instruction set ใหม่
    ยังคงใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink, Ultra Ethernet
    ยังไม่ยืนยันว่าจะเพิ่ม core count เกิน 256 cores ต่อแพ็กเกจ

    เทคโนโลยีการเชื่อมต่อภายในระบบ
    Vulcano switch ผลิตบน TSMC 3nm node
    รองรับ external throughput ระดับ 800G
    ใช้ Ultra Ethernet เป็นโครงสร้างหลักในการเชื่อมต่อ GPU/CPU

    แผนการเปิดตัว
    MI450X “Helios” จะเปิดตัวในครึ่งหลังของปี 2026
    MI500 UAL256 Mega Pod จะเปิดตัวในปี 2027
    เป็นระบบ rack-scale รุ่นที่สองของ AMD สำหรับ AI และ HPC

    https://www.techpowerup.com/340598/amd-instinct-mi500-ual256-mega-pod-to-scale-up-to-256-gpus-64-verano-cpus
    🎙️ เรื่องเล่าจาก UAL256: เมื่อ AMD สร้างระบบ rack-scale ที่ไม่ใช่แค่แรง แต่ “เชื่อมโยงทุกอย่าง” ด้วย Ultra Ethernet และ Vulcano switch แม้ AMD ยังไม่เปิดตัว Instinct MI400 อย่างเป็นทางการ แต่บริษัทก็เริ่มเผยโครงสร้างของรุ่นถัดไป—Instinct MI500 UAL256 ซึ่งเป็น rack-scale system รุ่นที่สอง ต่อจาก MI450X “Helios” ที่จะเปิดตัวในปี 2026 ในระบบ UAL256 แต่ละ compute node จะประกอบด้วย 1 CPU รหัส “Verano” ที่ใช้สถาปัตยกรรม Zen 7 และ 4 GPU รุ่น MI500 โดยรวมแล้ว Mega Pod หนึ่งชุดจะมี 64 CPU และ 256 GPU กระจายอยู่ในสองแร็คหลัก (32-node ต่อแร็ค) และเชื่อมต่อกันด้วยแร็คกลางที่มี 18 networking trays แต่ละ tray จะใช้ Vulcano switch ASICs จำนวน 4 ตัว ที่รองรับ throughput ระดับ 800G ต่อ tray และผลิตบนเทคโนโลยี 3nm ของ TSMC ซึ่งถือเป็นการยกระดับการเชื่อมต่อภายใน rack-scale system อย่างแท้จริง Verano CPU จะใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink และ Ultra Ethernet ซึ่งเป็นมาตรฐานใหม่ที่ AMD กำลังผลักดันให้เป็นโครงสร้างพื้นฐานของ AI/HPC ในยุคถัดไป โดยยังไม่ยืนยันว่าจะเพิ่มจำนวนคอร์เกิน 256 cores ต่อแพ็กเกจเหมือน Venice หรือไม่ ✅ โครงสร้างของ Instinct MI500 UAL256 ➡️ ประกอบด้วย 64 Verano CPUs และ 256 MI500 GPUs ➡️ แบ่งเป็นสองแร็คหลัก (32-node ต่อแร็ค) และแร็คกลางสำหรับ networking ➡️ ใช้ Vulcano switch ASICs ที่รองรับ 800G throughput ต่อ tray ✅ สถาปัตยกรรมของ Verano CPU ➡️ ใช้ Zen 7 microarchitecture ที่เน้น IPC และ instruction set ใหม่ ➡️ ยังคงใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink, Ultra Ethernet ➡️ ยังไม่ยืนยันว่าจะเพิ่ม core count เกิน 256 cores ต่อแพ็กเกจ ✅ เทคโนโลยีการเชื่อมต่อภายในระบบ ➡️ Vulcano switch ผลิตบน TSMC 3nm node ➡️ รองรับ external throughput ระดับ 800G ➡️ ใช้ Ultra Ethernet เป็นโครงสร้างหลักในการเชื่อมต่อ GPU/CPU ✅ แผนการเปิดตัว ➡️ MI450X “Helios” จะเปิดตัวในครึ่งหลังของปี 2026 ➡️ MI500 UAL256 Mega Pod จะเปิดตัวในปี 2027 ➡️ เป็นระบบ rack-scale รุ่นที่สองของ AMD สำหรับ AI และ HPC https://www.techpowerup.com/340598/amd-instinct-mi500-ual256-mega-pod-to-scale-up-to-256-gpus-64-verano-cpus
    WWW.TECHPOWERUP.COM
    AMD Instinct MI500 UAL256 Mega Pod to Scale up to 256 GPUs, 64 "Verano" CPUs
    While AMD hasn't launched its upcoming Instinct MI400 series of accelerators yet, the company has started preparing its supply chain for what comes after. Thanks to SemiAnalysis, we have a clearer picture of what AMD's Instinct MI500 UAL256 rack will look like. At the base of each compute node, ther...
    0 ความคิดเห็น 0 การแบ่งปัน 187 มุมมอง 0 รีวิว
  • Rubin – GPU ที่แรงที่สุดของ Nvidia เกิดจากการร่วมมือที่ไม่คาดคิด

    ในโลกของการออกแบบชิปที่ซับซ้อนระดับพันล้านเกต การจำลองพลังงานและประสิทธิภาพไม่ใช่เรื่องง่าย และนั่นคือเหตุผลที่ Nvidia หันไปใช้เครื่องมือจาก Cadence เพื่อช่วยออกแบบ GPU รุ่นใหม่ที่ชื่อว่า “Rubin” ซึ่งคาดว่าจะเป็น GPU ที่แรงที่สุดเท่าที่เคยมีมา

    Rubin ถูกออกแบบให้รองรับงาน AI ที่มีความซับซ้อนสูง โดยมีจำนวนเกตมากกว่า 40 พันล้าน และอาจใช้พลังงานถึง 700W ต่อ die หรือสูงถึง 3.6kW ในระบบแบบหลายชิป ซึ่งถือว่าเป็นระดับ “megawatt-class” สำหรับ data center

    Cadence ใช้ระบบจำลอง Palladium Z3 และ Protium X3 เพื่อช่วยวิเคราะห์พลังงานแบบละเอียดในระดับ cycle ต่อ cycle โดย Palladium Z3 ใช้ DPU จาก Nvidia และระบบเครือข่าย Quantum Infiniband ในขณะที่ Protium X3 ใช้ FPGA จาก AMD Ultrascale เพื่อจำลอง RTL และทดสอบซอฟต์แวร์ก่อนผลิตจริง

    การใช้เครื่องมือเหล่านี้ช่วยให้ทีมออกแบบสามารถตรวจสอบ bottleneck และปรับขนาดเครือข่ายให้เหมาะสมก่อน tape-out ซึ่ง Rubin ได้ tape-out กับ TSMC แล้วในกระบวนการผลิต 3nm N3P แต่มีรายงานว่าอาจต้อง respin เพื่อเพิ่มประสิทธิภาพก่อนเปิดตัวจริงในปี 2026

    ที่น่าสนใจคือ แม้ AMD จะเป็นคู่แข่งโดยตรงในตลาด GPU แต่ฮาร์ดแวร์ของ AMD ก็มีบทบาทสำคัญในการช่วย Nvidia สร้าง GPU ที่จะมาแข่งกับ MI450 ของ AMD เอง — เป็นความร่วมมือที่สะท้อนถึงความซับซ้อนของอุตสาหกรรมชิปในยุค AI

    สรุปเนื้อหาเป็นหัวข้อ
    Nvidia พัฒนา GPU รุ่นใหม่ชื่อ “Rubin” โดยใช้เครื่องมือจาก Cadence
    Rubin มีจำนวนเกตมากกว่า 40 พันล้าน และใช้พลังงานสูงถึง 700W ต่อ die
    ระบบแบบหลายชิปอาจใช้พลังงานรวมถึง 3.6kW
    ใช้ Palladium Z3 emulator และ Protium X3 FPGA prototyping จาก Cadence
    Palladium Z3 ใช้ DPU จาก Nvidia และเครือข่าย Quantum Infiniband
    Protium X3 ใช้ AMD Ultrascale FPGA เพื่อจำลอง RTL และทดสอบซอฟต์แวร์
    การจำลองช่วยตรวจสอบ bottleneck และปรับขนาดเครือข่ายก่อนผลิตจริง
    Rubin tape-out กับ TSMC แล้วในกระบวนการผลิต 3nm N3P
    มีรายงานว่า Rubin อาจต้อง respin เพื่อเพิ่มประสิทธิภาพ
    คาดว่า Rubin จะเริ่มส่งมอบช่วงปลายปี 2026

    ข้อมูลเสริมจากภายนอก
    Cadence เปิดตัว Palladium Z3 และ Protium X3 ในปี 2024 ด้วยความสามารถสูงกว่าเดิม 2 เท่า
    ระบบสามารถจำลองได้ถึง 48 พันล้านเกต และวิเคราะห์พลังงานได้ในระดับ cycle
    DPA (Dynamic Power Analysis) ของ Cadence เริ่มใช้ตั้งแต่ปี 2016 และกลายเป็นเครื่องมือหลักในยุค AI
    Rubin ถูกออกแบบมาเพื่อแข่งกับ AMD MI450 ซึ่งเป็น GPU ระดับสูงในกลุ่ม AI
    การใช้ฮาร์ดแวร์จากคู่แข่งอย่าง AMD สะท้อนถึงความร่วมมือข้ามแบรนด์ในอุตสาหกรรม
    บทเรียนจาก Rubin จะถูกนำไปใช้กับผลิตภัณฑ์ consumer ในอนาคต

    https://www.techradar.com/pro/heres-how-nvidia-and-amd-hardware-are-being-used-in-surprising-ways-to-build-nvidias-fastest-gpu-ever
    🎙️ Rubin – GPU ที่แรงที่สุดของ Nvidia เกิดจากการร่วมมือที่ไม่คาดคิด ในโลกของการออกแบบชิปที่ซับซ้อนระดับพันล้านเกต การจำลองพลังงานและประสิทธิภาพไม่ใช่เรื่องง่าย และนั่นคือเหตุผลที่ Nvidia หันไปใช้เครื่องมือจาก Cadence เพื่อช่วยออกแบบ GPU รุ่นใหม่ที่ชื่อว่า “Rubin” ซึ่งคาดว่าจะเป็น GPU ที่แรงที่สุดเท่าที่เคยมีมา Rubin ถูกออกแบบให้รองรับงาน AI ที่มีความซับซ้อนสูง โดยมีจำนวนเกตมากกว่า 40 พันล้าน และอาจใช้พลังงานถึง 700W ต่อ die หรือสูงถึง 3.6kW ในระบบแบบหลายชิป ซึ่งถือว่าเป็นระดับ “megawatt-class” สำหรับ data center Cadence ใช้ระบบจำลอง Palladium Z3 และ Protium X3 เพื่อช่วยวิเคราะห์พลังงานแบบละเอียดในระดับ cycle ต่อ cycle โดย Palladium Z3 ใช้ DPU จาก Nvidia และระบบเครือข่าย Quantum Infiniband ในขณะที่ Protium X3 ใช้ FPGA จาก AMD Ultrascale เพื่อจำลอง RTL และทดสอบซอฟต์แวร์ก่อนผลิตจริง การใช้เครื่องมือเหล่านี้ช่วยให้ทีมออกแบบสามารถตรวจสอบ bottleneck และปรับขนาดเครือข่ายให้เหมาะสมก่อน tape-out ซึ่ง Rubin ได้ tape-out กับ TSMC แล้วในกระบวนการผลิต 3nm N3P แต่มีรายงานว่าอาจต้อง respin เพื่อเพิ่มประสิทธิภาพก่อนเปิดตัวจริงในปี 2026 ที่น่าสนใจคือ แม้ AMD จะเป็นคู่แข่งโดยตรงในตลาด GPU แต่ฮาร์ดแวร์ของ AMD ก็มีบทบาทสำคัญในการช่วย Nvidia สร้าง GPU ที่จะมาแข่งกับ MI450 ของ AMD เอง — เป็นความร่วมมือที่สะท้อนถึงความซับซ้อนของอุตสาหกรรมชิปในยุค AI 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Nvidia พัฒนา GPU รุ่นใหม่ชื่อ “Rubin” โดยใช้เครื่องมือจาก Cadence ➡️ Rubin มีจำนวนเกตมากกว่า 40 พันล้าน และใช้พลังงานสูงถึง 700W ต่อ die ➡️ ระบบแบบหลายชิปอาจใช้พลังงานรวมถึง 3.6kW ➡️ ใช้ Palladium Z3 emulator และ Protium X3 FPGA prototyping จาก Cadence ➡️ Palladium Z3 ใช้ DPU จาก Nvidia และเครือข่าย Quantum Infiniband ➡️ Protium X3 ใช้ AMD Ultrascale FPGA เพื่อจำลอง RTL และทดสอบซอฟต์แวร์ ➡️ การจำลองช่วยตรวจสอบ bottleneck และปรับขนาดเครือข่ายก่อนผลิตจริง ➡️ Rubin tape-out กับ TSMC แล้วในกระบวนการผลิต 3nm N3P ➡️ มีรายงานว่า Rubin อาจต้อง respin เพื่อเพิ่มประสิทธิภาพ ➡️ คาดว่า Rubin จะเริ่มส่งมอบช่วงปลายปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ Cadence เปิดตัว Palladium Z3 และ Protium X3 ในปี 2024 ด้วยความสามารถสูงกว่าเดิม 2 เท่า ➡️ ระบบสามารถจำลองได้ถึง 48 พันล้านเกต และวิเคราะห์พลังงานได้ในระดับ cycle ➡️ DPA (Dynamic Power Analysis) ของ Cadence เริ่มใช้ตั้งแต่ปี 2016 และกลายเป็นเครื่องมือหลักในยุค AI ➡️ Rubin ถูกออกแบบมาเพื่อแข่งกับ AMD MI450 ซึ่งเป็น GPU ระดับสูงในกลุ่ม AI ➡️ การใช้ฮาร์ดแวร์จากคู่แข่งอย่าง AMD สะท้อนถึงความร่วมมือข้ามแบรนด์ในอุตสาหกรรม ➡️ บทเรียนจาก Rubin จะถูกนำไปใช้กับผลิตภัณฑ์ consumer ในอนาคต https://www.techradar.com/pro/heres-how-nvidia-and-amd-hardware-are-being-used-in-surprising-ways-to-build-nvidias-fastest-gpu-ever
    WWW.TECHRADAR.COM
    How Cadence, along with Nvidia and AMD hardware, is shaping the creation of Nvidia's fastest GPU ever
    Cadence's power modelling tool can address bottlenecks early in a chip's design
    0 ความคิดเห็น 0 การแบ่งปัน 281 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกชิป: เมื่อ AMD สะดุดเพราะการแบน GPU ส่งออกไปจีน

    AMD บริษัทออกแบบชิปชื่อดังจากสหรัฐฯ กำลังเผชิญกับแรงกระแทกครั้งใหญ่จากการแบนการส่งออก GPU ไปยังประเทศจีน โดยเฉพาะชิป AI รุ่น Instinct MI308 ที่ถูกห้ามขายในตลาดจีนอย่างกะทันหันในไตรมาสที่ 2 ปี 2025 ส่งผลให้ AMD ต้องบันทึกค่าใช้จ่ายด้านสินค้าคงคลังและคำสั่งซื้อที่ไม่สามารถส่งมอบได้รวมกว่า $800 ล้าน

    แม้รายได้รวมจะเพิ่มขึ้นถึง 32% จากปีก่อนหน้า แต่มาร์จิ้นขั้นต้นกลับลดลงอย่างหนัก และทำให้ AMD ขาดทุนจากการดำเนินงานตามมาตรฐานบัญชี GAAP เป็นจำนวน $134 ล้าน ซึ่งถือเป็นการพลิกจากกำไรในไตรมาสก่อนหน้า

    AMD พยายามชดเชยด้วยการรายงานตัวเลขแบบ non-GAAP ซึ่งตัดรายการพิเศษออก ทำให้ดูเหมือนยังมีกำไรจากการดำเนินงานอยู่ที่ $897 ล้าน แต่ก็ยังลดลงถึง 50% จากไตรมาสก่อนหน้า

    CEO Lisa Su ยอมรับว่า รายได้จากธุรกิจ AI ลดลงเพราะการแบนนี้ และแม้รัฐบาลสหรัฐฯ จะส่งสัญญาณว่าอาจอนุญาตให้กลับมาขาย MI308 ได้อีกครั้ง แต่ AMD ยังไม่รวมรายได้จากจีนไว้ในประมาณการไตรมาสถัดไป เพราะใบอนุญาตยังอยู่ระหว่างการพิจารณา

    ในด้านบวก AMD ยังเดินหน้าพัฒนา GPU รุ่นใหม่ MI400 ที่คาดว่าจะเหนือกว่า Nvidia Blackwell B200 และได้รับความสนใจจาก OpenAI แล้ว โดยมีแผนเปิดตัวในปีหน้า พร้อมระบบ Helios ที่จะใช้ GPU ถึง 72 ตัวต่อแร็ค เพื่อรองรับงาน AI ขั้นสูง

    จีนเป็นตลาดใหญ่อันดับสองของ AMD โดยมีรายได้กว่า $6.2 พันล้าน
    คิดเป็น 24% ของยอดขายรวมในปี 2024

    การแบนส่งออกชิป AI เกิดจากความกังวลด้านความมั่นคงของสหรัฐฯ
    ว่าชิปอาจถูกใช้ในงานทางทหารของจีน

    AMD กำลังพัฒนา MI400 ซึ่งมีประสิทธิภาพสูงกว่า Blackwell B200
    และได้รับความสนใจจาก OpenAI แล้ว

    ระบบ Helios จะใช้ GPU ถึง 72 ตัวต่อแร็ค
    คาดว่าจะเป็นระบบ AI ที่ทรงพลังที่สุดเมื่อเปิดตัวในปี 2026

    https://wccftech.com/amd-gutted-by-china-gpu-ban-posts-q2-operating-loss/
    📉🇨🇳 เรื่องเล่าจากโลกชิป: เมื่อ AMD สะดุดเพราะการแบน GPU ส่งออกไปจีน AMD บริษัทออกแบบชิปชื่อดังจากสหรัฐฯ กำลังเผชิญกับแรงกระแทกครั้งใหญ่จากการแบนการส่งออก GPU ไปยังประเทศจีน โดยเฉพาะชิป AI รุ่น Instinct MI308 ที่ถูกห้ามขายในตลาดจีนอย่างกะทันหันในไตรมาสที่ 2 ปี 2025 ส่งผลให้ AMD ต้องบันทึกค่าใช้จ่ายด้านสินค้าคงคลังและคำสั่งซื้อที่ไม่สามารถส่งมอบได้รวมกว่า $800 ล้าน แม้รายได้รวมจะเพิ่มขึ้นถึง 32% จากปีก่อนหน้า แต่มาร์จิ้นขั้นต้นกลับลดลงอย่างหนัก และทำให้ AMD ขาดทุนจากการดำเนินงานตามมาตรฐานบัญชี GAAP เป็นจำนวน $134 ล้าน ซึ่งถือเป็นการพลิกจากกำไรในไตรมาสก่อนหน้า AMD พยายามชดเชยด้วยการรายงานตัวเลขแบบ non-GAAP ซึ่งตัดรายการพิเศษออก ทำให้ดูเหมือนยังมีกำไรจากการดำเนินงานอยู่ที่ $897 ล้าน แต่ก็ยังลดลงถึง 50% จากไตรมาสก่อนหน้า CEO Lisa Su ยอมรับว่า รายได้จากธุรกิจ AI ลดลงเพราะการแบนนี้ และแม้รัฐบาลสหรัฐฯ จะส่งสัญญาณว่าอาจอนุญาตให้กลับมาขาย MI308 ได้อีกครั้ง แต่ AMD ยังไม่รวมรายได้จากจีนไว้ในประมาณการไตรมาสถัดไป เพราะใบอนุญาตยังอยู่ระหว่างการพิจารณา ในด้านบวก AMD ยังเดินหน้าพัฒนา GPU รุ่นใหม่ MI400 ที่คาดว่าจะเหนือกว่า Nvidia Blackwell B200 และได้รับความสนใจจาก OpenAI แล้ว โดยมีแผนเปิดตัวในปีหน้า พร้อมระบบ Helios ที่จะใช้ GPU ถึง 72 ตัวต่อแร็ค เพื่อรองรับงาน AI ขั้นสูง ✅ จีนเป็นตลาดใหญ่อันดับสองของ AMD โดยมีรายได้กว่า $6.2 พันล้าน ➡️ คิดเป็น 24% ของยอดขายรวมในปี 2024 ✅ การแบนส่งออกชิป AI เกิดจากความกังวลด้านความมั่นคงของสหรัฐฯ ➡️ ว่าชิปอาจถูกใช้ในงานทางทหารของจีน ✅ AMD กำลังพัฒนา MI400 ซึ่งมีประสิทธิภาพสูงกว่า Blackwell B200 ➡️ และได้รับความสนใจจาก OpenAI แล้ว ✅ ระบบ Helios จะใช้ GPU ถึง 72 ตัวต่อแร็ค ➡️ คาดว่าจะเป็นระบบ AI ที่ทรงพลังที่สุดเมื่อเปิดตัวในปี 2026 https://wccftech.com/amd-gutted-by-china-gpu-ban-posts-q2-operating-loss/
    WCCFTECH.COM
    AMD Gutted By China GPU Ban - Posts Q2 Operating Loss
    AMD's Q2 earnings show $7.6B revenue and $0.48 EPS, with guidance of $8.4B to $9B amid a 59% rise in costs, causing a 4.2% share drop.
    0 ความคิดเห็น 0 การแบ่งปัน 344 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนาม AI: AMD ลุกขึ้นท้าชน NVIDIA ด้วยกลยุทธ์ใหม่ที่ไม่ใช่แค่ชิปแรง

    ย้อนกลับไปในปี 2022 เมื่อ ChatGPT จุดกระแส AI ให้ลุกเป็นไฟ NVIDIA ก็กลายเป็นเจ้าตลาดทันที เพราะมีทั้งฮาร์ดแวร์และซอฟต์แวร์พร้อมใช้งาน ขณะที่ AMD ยังอยู่กับ CPU และ GPU แบบเดิม จนกระทั่งปี 2023 Lisa Su ซีอีโอของ AMD ประกาศเปลี่ยนทิศทางบริษัทเข้าสู่ตลาด AI อย่างเต็มตัว

    แต่การไล่ตามไม่ง่าย เพราะ NVIDIA ไม่ได้ขายแค่ชิป แต่ขาย “ระบบนิเวศ” ที่ผูกขาดด้วย CUDA และเครื่องมือพัฒนาแบบ proprietary ทำให้ Big Tech อย่าง Microsoft, Meta และ OpenAI ติดสัญญาและไม่กล้าเปลี่ยนฝั่งง่ายๆ

    AMD จึงต้องสร้างทุกอย่างใหม่ ตั้งแต่ชิป MI300X ที่มี VRAM 192GB มากกว่า H100 ของ NVIDIA ถึงเท่าตัว ไปจนถึงการเปิดตัว Helios rack-scale AI server ที่ใช้ EPYC Venice CPU และเตรียมเปิดตัว MI400 ที่ใช้ HBM4 พร้อมหน่วยความจำเพิ่มขึ้นอีก 50%

    แม้ MI300X จะมีประสิทธิภาพสูงกว่า H100 ในงาน inferencing ขนาดเล็กและใหญ่ แต่ยังแพ้ใน batch ขนาดกลาง และราคาต่อชั่วโมงก็สูงกว่าเล็กน้อย อย่างไรก็ตาม เมื่อคำนวณรวมแล้ว AMD กลับคุ้มค่ากว่าในหลายกรณี

    AMD ยังพยายามสร้างซอฟต์แวร์ ecosystem ของตัวเอง และเริ่มได้รับความสนใจจาก Big Tech ที่ต้องการลดต้นทุนและเพิ่มทางเลือก เช่น Microsoft และ OpenAI ที่เริ่มใช้เทคโนโลยีของ AMD ในบางส่วน

    AMD เปลี่ยนทิศทางเข้าสู่ตลาด AI ตั้งแต่ปี 2023
    หลังจากกระแส ChatGPT ทำให้ AI กลายเป็นเทรนด์หลัก

    เปิดตัวชิป MI300X ที่มี VRAM 192GB และใช้สถาปัตยกรรม CDNA 3
    มีประสิทธิภาพสูงใน inferencing ขนาดเล็กและใหญ่

    เตรียมเปิดตัว MI400 ที่ใช้ HBM4 และมีหน่วยความจำเพิ่มขึ้น 50%
    พร้อมเปิดตัว Helios rack-scale server สำหรับองค์กร

    AMD เริ่มได้รับความสนใจจาก Microsoft, Meta และ OpenAI
    ด้วยราคาที่ถูกกว่าและความพร้อมในการจัดส่ง

    MI300X มีราคาต่อชั่วโมงสูงกว่า H100 เล็กน้อย แต่คุ้มค่ากว่าในบางงาน
    โดยเฉพาะงานที่ใช้ batch ขนาดเล็กหรือใหญ่

    AMD คาดการณ์ตลาดชิป AI ปีนี้มีมูลค่า $45 พันล้าน
    ตั้งเป้ายอดขายชิป AI ที่ $2 พันล้านในปี 2024

    MI300X สามารถรันโมเดล Mixtral 7x8B ได้บน GPU เดียว
    ขณะที่ H100 ต้องใช้ tensor parallelism บนสอง GPU

    AMD พัฒนา ecosystem แบบเปิดเพื่อแข่งกับ CUDA ของ NVIDIA
    เน้นความยืดหยุ่นและลดการผูกขาด

    NVIDIA ยังครองตลาดด้วย ecosystem ที่ผูกขาดและครอบคลุม
    ทำให้ลูกค้ารายใหญ่ลังเลที่จะเปลี่ยนมาใช้ AMD

    AMD ยังขาดความเชื่อมั่นจากนักลงทุนและสื่อเทคโนโลยี
    ส่งผลต่อภาพลักษณ์และการยอมรับในตลาด

    การแข่งขันไม่ใช่แค่เรื่องประสิทธิภาพของชิป
    แต่ต้องสร้างระบบนิเวศที่ครบวงจรทั้งฮาร์ดแวร์และซอฟต์แวร์

    https://wccftech.com/is-amd-the-next-major-threat-to-nvidias-long-standing-ai-dominance/
    🚀🧠 เรื่องเล่าจากสนาม AI: AMD ลุกขึ้นท้าชน NVIDIA ด้วยกลยุทธ์ใหม่ที่ไม่ใช่แค่ชิปแรง ย้อนกลับไปในปี 2022 เมื่อ ChatGPT จุดกระแส AI ให้ลุกเป็นไฟ NVIDIA ก็กลายเป็นเจ้าตลาดทันที เพราะมีทั้งฮาร์ดแวร์และซอฟต์แวร์พร้อมใช้งาน ขณะที่ AMD ยังอยู่กับ CPU และ GPU แบบเดิม จนกระทั่งปี 2023 Lisa Su ซีอีโอของ AMD ประกาศเปลี่ยนทิศทางบริษัทเข้าสู่ตลาด AI อย่างเต็มตัว แต่การไล่ตามไม่ง่าย เพราะ NVIDIA ไม่ได้ขายแค่ชิป แต่ขาย “ระบบนิเวศ” ที่ผูกขาดด้วย CUDA และเครื่องมือพัฒนาแบบ proprietary ทำให้ Big Tech อย่าง Microsoft, Meta และ OpenAI ติดสัญญาและไม่กล้าเปลี่ยนฝั่งง่ายๆ AMD จึงต้องสร้างทุกอย่างใหม่ ตั้งแต่ชิป MI300X ที่มี VRAM 192GB มากกว่า H100 ของ NVIDIA ถึงเท่าตัว ไปจนถึงการเปิดตัว Helios rack-scale AI server ที่ใช้ EPYC Venice CPU และเตรียมเปิดตัว MI400 ที่ใช้ HBM4 พร้อมหน่วยความจำเพิ่มขึ้นอีก 50% แม้ MI300X จะมีประสิทธิภาพสูงกว่า H100 ในงาน inferencing ขนาดเล็กและใหญ่ แต่ยังแพ้ใน batch ขนาดกลาง และราคาต่อชั่วโมงก็สูงกว่าเล็กน้อย อย่างไรก็ตาม เมื่อคำนวณรวมแล้ว AMD กลับคุ้มค่ากว่าในหลายกรณี AMD ยังพยายามสร้างซอฟต์แวร์ ecosystem ของตัวเอง และเริ่มได้รับความสนใจจาก Big Tech ที่ต้องการลดต้นทุนและเพิ่มทางเลือก เช่น Microsoft และ OpenAI ที่เริ่มใช้เทคโนโลยีของ AMD ในบางส่วน ✅ AMD เปลี่ยนทิศทางเข้าสู่ตลาด AI ตั้งแต่ปี 2023 ➡️ หลังจากกระแส ChatGPT ทำให้ AI กลายเป็นเทรนด์หลัก ✅ เปิดตัวชิป MI300X ที่มี VRAM 192GB และใช้สถาปัตยกรรม CDNA 3 ➡️ มีประสิทธิภาพสูงใน inferencing ขนาดเล็กและใหญ่ ✅ เตรียมเปิดตัว MI400 ที่ใช้ HBM4 และมีหน่วยความจำเพิ่มขึ้น 50% ➡️ พร้อมเปิดตัว Helios rack-scale server สำหรับองค์กร ✅ AMD เริ่มได้รับความสนใจจาก Microsoft, Meta และ OpenAI ➡️ ด้วยราคาที่ถูกกว่าและความพร้อมในการจัดส่ง ✅ MI300X มีราคาต่อชั่วโมงสูงกว่า H100 เล็กน้อย แต่คุ้มค่ากว่าในบางงาน ➡️ โดยเฉพาะงานที่ใช้ batch ขนาดเล็กหรือใหญ่ ✅ AMD คาดการณ์ตลาดชิป AI ปีนี้มีมูลค่า $45 พันล้าน ➡️ ตั้งเป้ายอดขายชิป AI ที่ $2 พันล้านในปี 2024 ✅ MI300X สามารถรันโมเดล Mixtral 7x8B ได้บน GPU เดียว ➡️ ขณะที่ H100 ต้องใช้ tensor parallelism บนสอง GPU ✅ AMD พัฒนา ecosystem แบบเปิดเพื่อแข่งกับ CUDA ของ NVIDIA ➡️ เน้นความยืดหยุ่นและลดการผูกขาด ‼️ NVIDIA ยังครองตลาดด้วย ecosystem ที่ผูกขาดและครอบคลุม ⛔ ทำให้ลูกค้ารายใหญ่ลังเลที่จะเปลี่ยนมาใช้ AMD ‼️ AMD ยังขาดความเชื่อมั่นจากนักลงทุนและสื่อเทคโนโลยี ⛔ ส่งผลต่อภาพลักษณ์และการยอมรับในตลาด ‼️ การแข่งขันไม่ใช่แค่เรื่องประสิทธิภาพของชิป ⛔ แต่ต้องสร้างระบบนิเวศที่ครบวงจรทั้งฮาร์ดแวร์และซอฟต์แวร์ https://wccftech.com/is-amd-the-next-major-threat-to-nvidias-long-standing-ai-dominance/
    WCCFTECH.COM
    Is AMD the Next Major Threat to NVIDIA's Long-Standing AI Dominance? A Deep Dive into How the Firm's Recent Strategies Might Put It in a Much More Competitive Position
    Here's an analysis of how AMD's recent AI moves are shaping the company for a better future, rivaling NVIDIA more dominantly.
    0 ความคิดเห็น 0 การแบ่งปัน 396 มุมมอง 0 รีวิว
  • สงครามด้านพลังประมวลผลของ AI กำลังลากเอาทุกภาคส่วนมาเกี่ยวข้อง ไม่ใช่แค่เรื่องของ GPU แรงๆ อีกต่อไป เพราะหน่วยความจำ HBM (High Bandwidth Memory) ที่ถูกใช้ในการ์ด AI เช่น H100, B200 หรือ MI300 ก็เริ่ม “กินไฟเกินควบคุม” แล้วเช่นกัน

    จากแผนของ KAIST – TERA Lab เผยว่า roadmap ของ HBM ตั้งแต่ HBM4 → HBM8 จะพุ่งแรงทั้งแบนด์วิธและขนาด... แต่ก็ตามมาด้วย การใช้พลังงานแบบน่าตกใจ

    - HBM4 (เริ่ม 2026): ใช้ใน Nvidia Rubin, AMD MI400, ความจุ 432GB ต่อการ์ด, ระบายความร้อนด้วย liquid cooling
    - HBM5 (2029): ยกระดับไปถึง 640GB ต่อ GPU, ใช้ immersion cooling
    - HBM6 (2032): ดึงไฟถึง 120W/stack, รวมแล้ว 5,920W ต่อ GPU
    - HBM7 (2035): รองรับ 6TB ต่อการ์ด, 15,360W ต่อการ์ด GPU เดียว!
    - HBM8 (2038): วิ่งแบนด์วิธ 64TB/s ต่อ stack, ความเร็ว 32Gbps, เริ่มมีเทคนิค embedded cooling และ interposer 2 ด้าน

    คิดเล่นๆ: ถ้ามีดาต้าเซ็นเตอร์ที่ใช้ GPU แบบ HBM8 จำนวน 1 ล้านชิป จะกินไฟรวม 15.36 กิกะวัตต์ เท่ากับการผลิตไฟฟ้าจากพลังงานลมของทั้งสหราชอาณาจักรในปี 2024!

    เทคโนโลยีใหม่ๆ เช่น HBF (High-Bandwidth Flash) เริ่มถูกพูดถึงเพื่อรวม NAND Flash + LPDDR เข้าไปใน stack เดียวกับ HBM แต่ก็ยังเป็นคอนเซ็ปต์ที่อยู่ในช่วงวิจัย ทดลอง และยังไม่มีคำตอบว่า “จะเอาอยู่” หรือเปล่า

    https://www.techradar.com/pro/ai-gpu-accelerators-with-6tb-hbm-memory-could-appear-by-2035-as-ai-gpu-die-sizes-set-to-shrink-but-theres-far-worse-coming-up
    สงครามด้านพลังประมวลผลของ AI กำลังลากเอาทุกภาคส่วนมาเกี่ยวข้อง ไม่ใช่แค่เรื่องของ GPU แรงๆ อีกต่อไป เพราะหน่วยความจำ HBM (High Bandwidth Memory) ที่ถูกใช้ในการ์ด AI เช่น H100, B200 หรือ MI300 ก็เริ่ม “กินไฟเกินควบคุม” แล้วเช่นกัน จากแผนของ KAIST – TERA Lab เผยว่า roadmap ของ HBM ตั้งแต่ HBM4 → HBM8 จะพุ่งแรงทั้งแบนด์วิธและขนาด... แต่ก็ตามมาด้วย การใช้พลังงานแบบน่าตกใจ - HBM4 (เริ่ม 2026): ใช้ใน Nvidia Rubin, AMD MI400, ความจุ 432GB ต่อการ์ด, ระบายความร้อนด้วย liquid cooling - HBM5 (2029): ยกระดับไปถึง 640GB ต่อ GPU, ใช้ immersion cooling - HBM6 (2032): ดึงไฟถึง 120W/stack, รวมแล้ว 5,920W ต่อ GPU - HBM7 (2035): รองรับ 6TB ต่อการ์ด, 15,360W ต่อการ์ด GPU เดียว! - HBM8 (2038): วิ่งแบนด์วิธ 64TB/s ต่อ stack, ความเร็ว 32Gbps, เริ่มมีเทคนิค embedded cooling และ interposer 2 ด้าน คิดเล่นๆ: ถ้ามีดาต้าเซ็นเตอร์ที่ใช้ GPU แบบ HBM8 จำนวน 1 ล้านชิป จะกินไฟรวม 15.36 กิกะวัตต์ เท่ากับการผลิตไฟฟ้าจากพลังงานลมของทั้งสหราชอาณาจักรในปี 2024! 😱 เทคโนโลยีใหม่ๆ เช่น HBF (High-Bandwidth Flash) เริ่มถูกพูดถึงเพื่อรวม NAND Flash + LPDDR เข้าไปใน stack เดียวกับ HBM แต่ก็ยังเป็นคอนเซ็ปต์ที่อยู่ในช่วงวิจัย ทดลอง และยังไม่มีคำตอบว่า “จะเอาอยู่” หรือเปล่า https://www.techradar.com/pro/ai-gpu-accelerators-with-6tb-hbm-memory-could-appear-by-2035-as-ai-gpu-die-sizes-set-to-shrink-but-theres-far-worse-coming-up
    0 ความคิดเห็น 0 การแบ่งปัน 234 มุมมอง 0 รีวิว
  • หลายคนรู้ว่าในระบบ AI ขนาดใหญ่ แค่ GPU แรงอย่างเดียวไม่พอ — การ์ดเครือข่าย (NIC) ก็เป็นหัวใจสำคัญ เพราะมันคือสะพานเชื่อมระหว่างเซิร์ฟเวอร์ GPU นับพันตัว การดีเลย์หรือข้อมูลติดคอแม้เพียง 1% ก็อาจทำให้ประสิทธิภาพ AI cluster ตกฮวบ

    AMD จึงเปิดตัว Pollara 400 NIC สำหรับ PCIe Gen5 ที่รองรับแบนด์วิดธ์รวม 400Gbps มีฟีเจอร์อย่าง RDMA, RCCL, และที่สำคัญคือรองรับ มาตรฐาน Ultra Ethernet (UEC) ที่ออกแบบมาเพื่อให้ Ethernet ก้าวทันการเชื่อม GPU ระดับซูเปอร์คลัสเตอร์ — ไม่ต้องผูกขาดกับโซลูชันเฉพาะเจ้าใดเจ้าเดียว

    Pollara 400 ออกแบบให้รองรับการลดเวลา idle ของ GPU โดยเฉพาะในงาน training AI ขนาดใหญ่ โดย AMD เคลมว่าทำ RDMA ได้เร็วกว่า ConnectX-7 ของ NVIDIA 10% และเร็วกว่า Thor2 ของ Broadcom ถึง 20% — ในคลัสเตอร์ใหญ่จะช่วยเพิ่ม throughput โดยรวมได้หลายเท่าตัว

    AMD ยังบอกด้วยว่า Oracle Cloud จะเป็น hyperscaler รายแรกที่นำ Pollara ไปใช้ และวางแผนเปิดตัวรุ่นถัดไปคือ Vulcano 800G NIC (PCIe Gen6) ในปี 2026 — เป็นการ์ดที่ใช้ในสถาปัตยกรรม Helios rack-scale แบบเดียวกับ MI400 Series AI GPU ของ AMD

    AMD เปิดตัว Pollara 400 AI NIC สำหรับ PCIe Gen5 รองรับ Ultra Ethernet (UEC)  
    • รองรับ RDMA, RCCL, congestion control และ failover routing  
    • ใช้งานได้หลายแบบ: 1x400G, 2x200G, 4x100G

    Performance สูงกว่า ConnectX-7 และ Broadcom Thor2  
    • RDMA เร็วขึ้น 10–20%  
    • ลด idle time ของ GPU ได้ใน AI workloads ขนาดใหญ่

    ออกแบบแบบ open-standard, รองรับ multi-vendor ecosystem  
    • ไม่ผูกกับ proprietary protocol แบบ NVLink หรือ Infiniband  
    • ช่วยให้องค์กรใหญ่สามารถเลือก hardware ได้ยืดหยุ่นขึ้น

    มีแผนเปิดตัว Vulcano 800G ในปี 2026 รองรับ PCIe Gen6 + UALink + UEC  
    • ใช้กับ Helios architecture ของ AMD สำหรับ rack-scale AI cluster  
    • แข่งตรงกับ ConnectX-8 และแพลตฟอร์ม GPU GB200 จาก NVIDIA

    Oracle Cloud เป็นผู้ใช้งานกลุ่มแรกของเทคโนโลยี UEC + AMD NIC  
    • มุ่งเป้า hyperscaler และ cloud provider เป็นหลัก

    รองรับการมอนิเตอร์ระดับคลัสเตอร์ เพิ่ม observability และ reliability  
    • ช่วยดูปัญหา network choke point ได้แบบละเอียด

    มาตรฐาน Ultra Ethernet (UEC) ยังใหม่มาก — อุตสาหกรรมยังอยู่ช่วง transition  
    • ecosystem อาจยังไม่พร้อมเต็มที่ รองรับ hardware/software บางตัวต้องอัปเดตตาม

    เทียบกับโซลูชัน NVIDIA ที่ใช้ NVLink/Infiniband ประสิทธิภาพในบาง use case อาจยังห่างกัน  
    • โดยเฉพาะงานที่ผูกกับ stack ของ NVIDIA เช่น LLM แบบเฉพาะ

    PCIe Gen6 และ 800G ยังอยู่ระหว่างการพัฒนา — NIC Vulcano ยังไม่พร้อมใช้จริงจนถึงปี 2026  
    • องค์กรที่วางแผนลงทุนล่วงหน้า ควรประเมิน roadmap ให้รอบคอบ

    การใช้ multi-vendor network แม้จะเปิดเสรี แต่การ debug และ tuning ซับซ้อนกว่าระบบปิดแบบ proprietary  
    • ต้องมีทีม engineer ที่เข้าใจ protocol ระดับลึก

    https://www.techradar.com/pro/amd-debuts-a-400gbe-ai-network-card-with-an-800gbe-pcie-gen6-nic-coming-in-2026-but-will-the-industry-be-ready
    หลายคนรู้ว่าในระบบ AI ขนาดใหญ่ แค่ GPU แรงอย่างเดียวไม่พอ — การ์ดเครือข่าย (NIC) ก็เป็นหัวใจสำคัญ เพราะมันคือสะพานเชื่อมระหว่างเซิร์ฟเวอร์ GPU นับพันตัว การดีเลย์หรือข้อมูลติดคอแม้เพียง 1% ก็อาจทำให้ประสิทธิภาพ AI cluster ตกฮวบ AMD จึงเปิดตัว Pollara 400 NIC สำหรับ PCIe Gen5 ที่รองรับแบนด์วิดธ์รวม 400Gbps มีฟีเจอร์อย่าง RDMA, RCCL, และที่สำคัญคือรองรับ มาตรฐาน Ultra Ethernet (UEC) ที่ออกแบบมาเพื่อให้ Ethernet ก้าวทันการเชื่อม GPU ระดับซูเปอร์คลัสเตอร์ — ไม่ต้องผูกขาดกับโซลูชันเฉพาะเจ้าใดเจ้าเดียว Pollara 400 ออกแบบให้รองรับการลดเวลา idle ของ GPU โดยเฉพาะในงาน training AI ขนาดใหญ่ โดย AMD เคลมว่าทำ RDMA ได้เร็วกว่า ConnectX-7 ของ NVIDIA 10% และเร็วกว่า Thor2 ของ Broadcom ถึง 20% — ในคลัสเตอร์ใหญ่จะช่วยเพิ่ม throughput โดยรวมได้หลายเท่าตัว AMD ยังบอกด้วยว่า Oracle Cloud จะเป็น hyperscaler รายแรกที่นำ Pollara ไปใช้ และวางแผนเปิดตัวรุ่นถัดไปคือ Vulcano 800G NIC (PCIe Gen6) ในปี 2026 — เป็นการ์ดที่ใช้ในสถาปัตยกรรม Helios rack-scale แบบเดียวกับ MI400 Series AI GPU ของ AMD ✅ AMD เปิดตัว Pollara 400 AI NIC สำหรับ PCIe Gen5 รองรับ Ultra Ethernet (UEC)   • รองรับ RDMA, RCCL, congestion control และ failover routing   • ใช้งานได้หลายแบบ: 1x400G, 2x200G, 4x100G ✅ Performance สูงกว่า ConnectX-7 และ Broadcom Thor2   • RDMA เร็วขึ้น 10–20%   • ลด idle time ของ GPU ได้ใน AI workloads ขนาดใหญ่ ✅ ออกแบบแบบ open-standard, รองรับ multi-vendor ecosystem   • ไม่ผูกกับ proprietary protocol แบบ NVLink หรือ Infiniband   • ช่วยให้องค์กรใหญ่สามารถเลือก hardware ได้ยืดหยุ่นขึ้น ✅ มีแผนเปิดตัว Vulcano 800G ในปี 2026 รองรับ PCIe Gen6 + UALink + UEC   • ใช้กับ Helios architecture ของ AMD สำหรับ rack-scale AI cluster   • แข่งตรงกับ ConnectX-8 และแพลตฟอร์ม GPU GB200 จาก NVIDIA ✅ Oracle Cloud เป็นผู้ใช้งานกลุ่มแรกของเทคโนโลยี UEC + AMD NIC   • มุ่งเป้า hyperscaler และ cloud provider เป็นหลัก ✅ รองรับการมอนิเตอร์ระดับคลัสเตอร์ เพิ่ม observability และ reliability   • ช่วยดูปัญหา network choke point ได้แบบละเอียด ‼️ มาตรฐาน Ultra Ethernet (UEC) ยังใหม่มาก — อุตสาหกรรมยังอยู่ช่วง transition   • ecosystem อาจยังไม่พร้อมเต็มที่ รองรับ hardware/software บางตัวต้องอัปเดตตาม ‼️ เทียบกับโซลูชัน NVIDIA ที่ใช้ NVLink/Infiniband ประสิทธิภาพในบาง use case อาจยังห่างกัน   • โดยเฉพาะงานที่ผูกกับ stack ของ NVIDIA เช่น LLM แบบเฉพาะ ‼️ PCIe Gen6 และ 800G ยังอยู่ระหว่างการพัฒนา — NIC Vulcano ยังไม่พร้อมใช้จริงจนถึงปี 2026   • องค์กรที่วางแผนลงทุนล่วงหน้า ควรประเมิน roadmap ให้รอบคอบ ‼️ การใช้ multi-vendor network แม้จะเปิดเสรี แต่การ debug และ tuning ซับซ้อนกว่าระบบปิดแบบ proprietary   • ต้องมีทีม engineer ที่เข้าใจ protocol ระดับลึก https://www.techradar.com/pro/amd-debuts-a-400gbe-ai-network-card-with-an-800gbe-pcie-gen6-nic-coming-in-2026-but-will-the-industry-be-ready
    0 ความคิดเห็น 0 การแบ่งปัน 317 มุมมอง 0 รีวิว
  • Micron ผนึกกำลัง AMD พัฒนา HBM3E สำหรับ AI และ HPC
    Micron ประกาศการบูรณาการ HBM3E 36 GB 12-high เข้ากับ AMD Instinct MI350 Series ซึ่งเป็น แพลตฟอร์ม AI และ HPC รุ่นใหม่ โดยเน้น ประสิทธิภาพสูงและการใช้พลังงานอย่างมีประสิทธิภาพ

    รายละเอียดของความร่วมมือ
    HBM3E 36 GB 12-high ช่วยเพิ่มประสิทธิภาพของ AMD Instinct MI350
    - AMD Instinct MI350 Series ใช้สถาปัตยกรรม CDNA 4 พร้อม หน่วยความจำ HBM3E ขนาด 288 GB
    - ให้แบนด์วิดท์สูงสุด 8 TB/s รองรับ AI models ขนาด 520 พันล้านพารามิเตอร์

    การออกแบบที่เน้นประสิทธิภาพและการประหยัดพลังงาน
    - HBM3E ช่วยลดการใช้พลังงาน และ เพิ่ม throughput สำหรับงาน AI และ HPC
    - แพลตฟอร์มเต็มรูปแบบมีหน่วยความจำ HBM3E สูงสุด 2.3 TB และ ประสิทธิภาพสูงสุด 161 PFLOPS ที่ FP4 precision

    Micron และ AMD เร่งพัฒนา AI solutions ให้เข้าสู่ตลาดเร็วขึ้น
    - Micron ทำงานร่วมกับ AMD เพื่อปรับแต่ง HBM3E ให้เข้ากับ Instinct MI350 Series
    - ช่วยให้ศูนย์ข้อมูลสามารถขยายขนาดได้อย่างมีประสิทธิภาพ

    ผลกระทบต่ออุตสาหกรรม AI และ HPC
    ต้องติดตามว่า HBM3E จะสามารถแข่งขันกับ HBM4 ได้หรือไม่
    - Micron เพิ่งเริ่มจัดส่งตัวอย่าง HBM4 ซึ่งมีแบนด์วิดท์สูงกว่า

    การใช้พลังงานของ Instinct MI350 อาจเป็นปัจจัยสำคัญในการนำไปใช้งาน
    - ต้องดูว่าแพลตฟอร์มนี้จะสามารถรักษาสมดุลระหว่างประสิทธิภาพและการใช้พลังงานได้ดีแค่ไหน

    การแข่งขันระหว่าง AMD และ Nvidia ในตลาด AI accelerators ยังคงเข้มข้น
    - Nvidia อาจเปิดตัวผลิตภัณฑ์ใหม่เพื่อตอบโต้ Instinct MI350 Series

    อนาคตของ HBM และ AI accelerators
    Micron อาจขยายการพัฒนา HBM4 เพื่อรองรับ AI workloads ที่ใหญ่ขึ้น AMD อาจเปิดตัว Instinct MI355X และ MI400 Series ในอนาคต

    https://www.techpowerup.com/337991/micron-hbm-designed-into-leading-amd-ai-platform
    🚀 Micron ผนึกกำลัง AMD พัฒนา HBM3E สำหรับ AI และ HPC Micron ประกาศการบูรณาการ HBM3E 36 GB 12-high เข้ากับ AMD Instinct MI350 Series ซึ่งเป็น แพลตฟอร์ม AI และ HPC รุ่นใหม่ โดยเน้น ประสิทธิภาพสูงและการใช้พลังงานอย่างมีประสิทธิภาพ 🔍 รายละเอียดของความร่วมมือ ✅ HBM3E 36 GB 12-high ช่วยเพิ่มประสิทธิภาพของ AMD Instinct MI350 - AMD Instinct MI350 Series ใช้สถาปัตยกรรม CDNA 4 พร้อม หน่วยความจำ HBM3E ขนาด 288 GB - ให้แบนด์วิดท์สูงสุด 8 TB/s รองรับ AI models ขนาด 520 พันล้านพารามิเตอร์ ✅ การออกแบบที่เน้นประสิทธิภาพและการประหยัดพลังงาน - HBM3E ช่วยลดการใช้พลังงาน และ เพิ่ม throughput สำหรับงาน AI และ HPC - แพลตฟอร์มเต็มรูปแบบมีหน่วยความจำ HBM3E สูงสุด 2.3 TB และ ประสิทธิภาพสูงสุด 161 PFLOPS ที่ FP4 precision ✅ Micron และ AMD เร่งพัฒนา AI solutions ให้เข้าสู่ตลาดเร็วขึ้น - Micron ทำงานร่วมกับ AMD เพื่อปรับแต่ง HBM3E ให้เข้ากับ Instinct MI350 Series - ช่วยให้ศูนย์ข้อมูลสามารถขยายขนาดได้อย่างมีประสิทธิภาพ 🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC ‼️ ต้องติดตามว่า HBM3E จะสามารถแข่งขันกับ HBM4 ได้หรือไม่ - Micron เพิ่งเริ่มจัดส่งตัวอย่าง HBM4 ซึ่งมีแบนด์วิดท์สูงกว่า ‼️ การใช้พลังงานของ Instinct MI350 อาจเป็นปัจจัยสำคัญในการนำไปใช้งาน - ต้องดูว่าแพลตฟอร์มนี้จะสามารถรักษาสมดุลระหว่างประสิทธิภาพและการใช้พลังงานได้ดีแค่ไหน ‼️ การแข่งขันระหว่าง AMD และ Nvidia ในตลาด AI accelerators ยังคงเข้มข้น - Nvidia อาจเปิดตัวผลิตภัณฑ์ใหม่เพื่อตอบโต้ Instinct MI350 Series 🚀 อนาคตของ HBM และ AI accelerators ✅ Micron อาจขยายการพัฒนา HBM4 เพื่อรองรับ AI workloads ที่ใหญ่ขึ้น ✅ AMD อาจเปิดตัว Instinct MI355X และ MI400 Series ในอนาคต https://www.techpowerup.com/337991/micron-hbm-designed-into-leading-amd-ai-platform
    WWW.TECHPOWERUP.COM
    Micron HBM Designed into Leading AMD AI Platform
    Micron Technology, Inc. today announced the integration of its HBM3E 36 GB 12-high offering into the upcoming AMD Instinct MI350 Series solutions. This collaboration highlights the critical role of power efficiency and performance in training large AI models, delivering high-throughput inference and...
    0 ความคิดเห็น 0 การแบ่งปัน 283 มุมมอง 0 รีวิว
  • AMD เปิดตัวแผนพัฒนา AI ครอบคลุม GPU, เครือข่าย, ซอฟต์แวร์ และสถาปัตยกรรม Rack
    AMD ได้เปิดตัว แผนพัฒนา AI ที่ครอบคลุมทุกด้านของโครงสร้างพื้นฐาน AI ตั้งแต่ GPU ไปจนถึงเครือข่ายและซอฟต์แวร์ โดยเน้น การเพิ่มประสิทธิภาพการประมวลผลและลดต้นทุนต่อโทเค็น

    AMD เปิดตัว Instinct MI350 และ MI355X ซึ่งเป็น GPU รุ่นใหม่ที่ใช้กระบวนการผลิต 3nm และมีหน่วยความจำ HBM3E สูงสุด 288MB

    ข้อมูลจากข่าว
    - Instinct MI350 และ MI355X มีประสิทธิภาพ inferencing เร็วขึ้นกว่าเดิม 3 เท่า
    - ต้นทุนต่อโทเค็นถูกลงถึง 40% เมื่อเทียบกับ Nvidia B200
    - AMD เตรียมเปิดตัว MI400 ในปี 2026 และ MI500 ในปี 2027
    - MI400 จะมีหน่วยความจำ HBM4 สูงสุด 432GB และแบนด์วิดท์ 19.6TB/s
    - AMD เปิดตัวเครือข่าย AI NIC รุ่นใหม่ Pollara 400 ที่ใช้มาตรฐาน Ultra Ethernet

    ผลกระทบต่ออุตสาหกรรม AI และ HPC
    AMD กำลังแข่งขันกับ Nvidia ในทุกด้านของโครงสร้างพื้นฐาน AI โดย พัฒนาเทคโนโลยีที่ช่วยลดต้นทุนและเพิ่มประสิทธิภาพการประมวลผล

    คำเตือนที่ควรพิจารณา
    - AMD ต้องพิสูจน์ว่า GPU รุ่นใหม่สามารถแข่งขันกับ Nvidia Blackwell ได้จริง
    - Ultra Accelerator Link (UAL) อาจต้องใช้เวลาสักระยะก่อนที่อุตสาหกรรมจะนำไปใช้แทน NVLink
    - ต้องติดตามว่า AMD จะสามารถดึงดูดนักพัฒนาให้ใช้ ROCm แทน CUDA ได้หรือไม่
    - การแข่งขันระหว่าง AMD และ Nvidia อาจส่งผลต่อราคาของโครงสร้างพื้นฐาน AI ในอนาคต

    อนาคตของ AI และโครงสร้างพื้นฐาน
    AMD กำลังขยายขอบเขตของเทคโนโลยี AI โดยเน้น การพัฒนา GPU, เครือข่าย, ซอฟต์แวร์ และสถาปัตยกรรม Rack เพื่อให้สามารถแข่งขันกับ Nvidia ได้อย่างเต็มที่

    https://www.techspot.com/news/108297-amd-new-ai-roadmap-spans-gpus-networking-software.html
    🚀 AMD เปิดตัวแผนพัฒนา AI ครอบคลุม GPU, เครือข่าย, ซอฟต์แวร์ และสถาปัตยกรรม Rack AMD ได้เปิดตัว แผนพัฒนา AI ที่ครอบคลุมทุกด้านของโครงสร้างพื้นฐาน AI ตั้งแต่ GPU ไปจนถึงเครือข่ายและซอฟต์แวร์ โดยเน้น การเพิ่มประสิทธิภาพการประมวลผลและลดต้นทุนต่อโทเค็น AMD เปิดตัว Instinct MI350 และ MI355X ซึ่งเป็น GPU รุ่นใหม่ที่ใช้กระบวนการผลิต 3nm และมีหน่วยความจำ HBM3E สูงสุด 288MB ✅ ข้อมูลจากข่าว - Instinct MI350 และ MI355X มีประสิทธิภาพ inferencing เร็วขึ้นกว่าเดิม 3 เท่า - ต้นทุนต่อโทเค็นถูกลงถึง 40% เมื่อเทียบกับ Nvidia B200 - AMD เตรียมเปิดตัว MI400 ในปี 2026 และ MI500 ในปี 2027 - MI400 จะมีหน่วยความจำ HBM4 สูงสุด 432GB และแบนด์วิดท์ 19.6TB/s - AMD เปิดตัวเครือข่าย AI NIC รุ่นใหม่ Pollara 400 ที่ใช้มาตรฐาน Ultra Ethernet 🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC AMD กำลังแข่งขันกับ Nvidia ในทุกด้านของโครงสร้างพื้นฐาน AI โดย พัฒนาเทคโนโลยีที่ช่วยลดต้นทุนและเพิ่มประสิทธิภาพการประมวลผล ‼️ คำเตือนที่ควรพิจารณา - AMD ต้องพิสูจน์ว่า GPU รุ่นใหม่สามารถแข่งขันกับ Nvidia Blackwell ได้จริง - Ultra Accelerator Link (UAL) อาจต้องใช้เวลาสักระยะก่อนที่อุตสาหกรรมจะนำไปใช้แทน NVLink - ต้องติดตามว่า AMD จะสามารถดึงดูดนักพัฒนาให้ใช้ ROCm แทน CUDA ได้หรือไม่ - การแข่งขันระหว่าง AMD และ Nvidia อาจส่งผลต่อราคาของโครงสร้างพื้นฐาน AI ในอนาคต 🚀 อนาคตของ AI และโครงสร้างพื้นฐาน AMD กำลังขยายขอบเขตของเทคโนโลยี AI โดยเน้น การพัฒนา GPU, เครือข่าย, ซอฟต์แวร์ และสถาปัตยกรรม Rack เพื่อให้สามารถแข่งขันกับ Nvidia ได้อย่างเต็มที่ https://www.techspot.com/news/108297-amd-new-ai-roadmap-spans-gpus-networking-software.html
    WWW.TECHSPOT.COM
    AMD's new AI roadmap spans GPUs, networking, software, and rack architectures
    That's the situation AMD found itself in as it entered its latest Advancing AI event. But rather than letting these potential roadblocks deter them, AMD made it...
    0 ความคิดเห็น 0 การแบ่งปัน 270 มุมมอง 0 รีวิว
  • AMD กำลังเตรียมเปิดตัวสถาปัตยกรรม Rack-Scale เป็นครั้งแรกผ่านกลุ่มผลิตภัณฑ์ Instinct MI400 ซึ่งอาจเป็นจุดเปลี่ยนสำคัญในการแข่งขันกับ NVIDIA ในตลาด AI โดยเฉพาะอย่างยิ่งกับรุ่น MI450 ที่มาพร้อมกับเทคโนโลยีการเชื่อมต่อแบบ Infinity Fabric ผ่าน Ethernet ซึ่งช่วยเพิ่มประสิทธิภาพการสื่อสารระหว่าง GPU ได้อย่างมหาศาล

    AMD เตรียมเปิดตัว Instinct MI450 Rack-Scale
    - AMD วางแผนเปิดตัว MI450X IF128 ซึ่งเป็นสถาปัตยกรรม Rack-Scale รุ่นแรกของบริษัท
    - ใช้ Infinity Fabric ผ่าน Ethernet เพื่อเชื่อมต่อ GPU 128 ตัว โดยมีแบนด์วิดท์สูงถึง 1.8TByte/s ต่อ GPU

    เปรียบเทียบกับ NVIDIA
    - MI450 จะเป็นคู่แข่งโดยตรงของ NVIDIA Vera Rubin VR200 NVL144
    - AMD ตั้งเป้าพัฒนาโซลูชันที่มีประสิทธิภาพสูงกว่า NVIDIA ในด้านเครือข่ายและการสื่อสารข้อมูล

    การออกแบบและความท้าทาย
    - AMD วางแผนเปิดตัวทั้งรุ่น 128-GPU และ 64-GPU เพื่อแข่งขันในตลาด
    - รุ่น MI450 IF64 จะมีการออกแบบที่ง่ายขึ้นเพื่อช่วยลดความซับซ้อนในการผลิต

    https://wccftech.com/amd-set-to-unveil-its-first-ever-rack-scale-architecture-with-instinct-mi400-lineup/
    AMD กำลังเตรียมเปิดตัวสถาปัตยกรรม Rack-Scale เป็นครั้งแรกผ่านกลุ่มผลิตภัณฑ์ Instinct MI400 ซึ่งอาจเป็นจุดเปลี่ยนสำคัญในการแข่งขันกับ NVIDIA ในตลาด AI โดยเฉพาะอย่างยิ่งกับรุ่น MI450 ที่มาพร้อมกับเทคโนโลยีการเชื่อมต่อแบบ Infinity Fabric ผ่าน Ethernet ซึ่งช่วยเพิ่มประสิทธิภาพการสื่อสารระหว่าง GPU ได้อย่างมหาศาล ✅ AMD เตรียมเปิดตัว Instinct MI450 Rack-Scale - AMD วางแผนเปิดตัว MI450X IF128 ซึ่งเป็นสถาปัตยกรรม Rack-Scale รุ่นแรกของบริษัท - ใช้ Infinity Fabric ผ่าน Ethernet เพื่อเชื่อมต่อ GPU 128 ตัว โดยมีแบนด์วิดท์สูงถึง 1.8TByte/s ต่อ GPU ✅ เปรียบเทียบกับ NVIDIA - MI450 จะเป็นคู่แข่งโดยตรงของ NVIDIA Vera Rubin VR200 NVL144 - AMD ตั้งเป้าพัฒนาโซลูชันที่มีประสิทธิภาพสูงกว่า NVIDIA ในด้านเครือข่ายและการสื่อสารข้อมูล ✅ การออกแบบและความท้าทาย - AMD วางแผนเปิดตัวทั้งรุ่น 128-GPU และ 64-GPU เพื่อแข่งขันในตลาด - รุ่น MI450 IF64 จะมีการออกแบบที่ง่ายขึ้นเพื่อช่วยลดความซับซ้อนในการผลิต https://wccftech.com/amd-set-to-unveil-its-first-ever-rack-scale-architecture-with-instinct-mi400-lineup/
    WCCFTECH.COM
    AMD Set To Unveil Its First-Ever Rack-Scale Architecture With Instinct MI400 Lineup; Could Potentially Tip The Balances Away From NVIDIA
    AMD seems to plan to aggressively enter the AI market through its MI450 AI clusters, as it would be the firm's first rack-scale product..
    0 ความคิดเห็น 0 การแบ่งปัน 285 มุมมอง 0 รีวิว
  • AMD แยกไลน์ผลิต GPU AI และ HPC พร้อมเพิ่มเทคโนโลยี UALink

    AMD กำลังปรับกลยุทธ์ใหม่สำหรับ Instinct MI400-series โดยแยก GPU ออกเป็นสองไลน์เฉพาะทาง ได้แก่ Instinct MI450X สำหรับ AI และ Instinct MI430X สำหรับ HPC เพื่อเพิ่มประสิทธิภาพสูงสุดสำหรับแต่ละประเภทของงานประมวลผล

    Instinct MI450X จะเน้นการประมวลผล AI ที่ใช้ FP4, FP8 และ BF16
    - ช่วยให้ สามารถเพิ่มประสิทธิภาพสำหรับงาน AI ได้สูงสุด

    Instinct MI430X จะเน้นการประมวลผล HPC ที่ใช้ FP32 และ FP64
    - ลดการใช้ทรัพยากรที่ไม่จำเป็น เพื่อเพิ่มประสิทธิภาพสำหรับงานคำนวณที่ต้องการความแม่นยำสูง

    AMD เพิ่มเทคโนโลยี UALink เพื่อแข่งขันกับ NVLink ของ Nvidia
    - ช่วยให้ GPU สามารถเชื่อมต่อกันได้ดีขึ้นในระบบขนาดใหญ่

    AMD วางแผนเปิดตัว Instinct MI450X และ MI430X ในช่วงครึ่งหลังของปี 2026
    - คาดว่า จะเป็นคู่แข่งสำคัญของ Nvidia ในตลาด AI และ HPC

    AMD เตรียมเปิดตัวระบบ Instinct MI450X IF64 และ MI450X IF128
    - ใช้ Infinity Fabric ผ่าน Ethernet เพื่อแข่งขันกับแพลตฟอร์ม VR200 NVL144 ของ Nvidia

    UALink อาจมีข้อจำกัดด้านการขยายตัวในปี 2026
    - เนื่องจาก ไม่มีผู้ผลิตภายนอกที่พร้อมให้บริการ switching silicon

    https://www.tomshardware.com/pc-components/gpus/amd-to-split-flagship-ai-gpus-into-specialized-lineups-for-for-ai-and-hpc-add-ualink-instinct-mi400-series-models-takes-a-different-path
    AMD แยกไลน์ผลิต GPU AI และ HPC พร้อมเพิ่มเทคโนโลยี UALink AMD กำลังปรับกลยุทธ์ใหม่สำหรับ Instinct MI400-series โดยแยก GPU ออกเป็นสองไลน์เฉพาะทาง ได้แก่ Instinct MI450X สำหรับ AI และ Instinct MI430X สำหรับ HPC เพื่อเพิ่มประสิทธิภาพสูงสุดสำหรับแต่ละประเภทของงานประมวลผล ✅ Instinct MI450X จะเน้นการประมวลผล AI ที่ใช้ FP4, FP8 และ BF16 - ช่วยให้ สามารถเพิ่มประสิทธิภาพสำหรับงาน AI ได้สูงสุด ✅ Instinct MI430X จะเน้นการประมวลผล HPC ที่ใช้ FP32 และ FP64 - ลดการใช้ทรัพยากรที่ไม่จำเป็น เพื่อเพิ่มประสิทธิภาพสำหรับงานคำนวณที่ต้องการความแม่นยำสูง ✅ AMD เพิ่มเทคโนโลยี UALink เพื่อแข่งขันกับ NVLink ของ Nvidia - ช่วยให้ GPU สามารถเชื่อมต่อกันได้ดีขึ้นในระบบขนาดใหญ่ ✅ AMD วางแผนเปิดตัว Instinct MI450X และ MI430X ในช่วงครึ่งหลังของปี 2026 - คาดว่า จะเป็นคู่แข่งสำคัญของ Nvidia ในตลาด AI และ HPC ✅ AMD เตรียมเปิดตัวระบบ Instinct MI450X IF64 และ MI450X IF128 - ใช้ Infinity Fabric ผ่าน Ethernet เพื่อแข่งขันกับแพลตฟอร์ม VR200 NVL144 ของ Nvidia ‼️ UALink อาจมีข้อจำกัดด้านการขยายตัวในปี 2026 - เนื่องจาก ไม่มีผู้ผลิตภายนอกที่พร้อมให้บริการ switching silicon https://www.tomshardware.com/pc-components/gpus/amd-to-split-flagship-ai-gpus-into-specialized-lineups-for-for-ai-and-hpc-add-ualink-instinct-mi400-series-models-takes-a-different-path
    0 ความคิดเห็น 0 การแบ่งปัน 293 มุมมอง 0 รีวิว
  • https://youtu.be/0ljPX1MIs58?si=JmI43emmJEdt39HF
    https://youtu.be/0ljPX1MIs58?si=JmI43emmJEdt39HF
    0 ความคิดเห็น 0 การแบ่งปัน 142 มุมมอง 0 รีวิว
  • https://youtu.be/o_BlSCsfiDw?si=C78GUr8lYmi4e899
    https://youtu.be/o_BlSCsfiDw?si=C78GUr8lYmi4e899
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • https://youtu.be/mi4DxuP6hUc?si=POsNAcpxOI1e2HNa
    https://youtu.be/mi4DxuP6hUc?si=POsNAcpxOI1e2HNa
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • **โปรตีน: พลังงานและการสร้างกล้ามเนื้อ!**

    โปรตีนคือสารอาหารพื้นฐานที่สำคัญต่อร่างกาย มีบทบาทในการสร้างและซ่อมแซมเซลล์ รวมถึงเป็นส่วนประกอบหลักของกล้ามเนื้อ เส้นเอ็น และเนื้อเยื่อต่าง ๆ

    นอกจากนี้ โปรตีนยังช่วยในกระบวนการสร้างฮอร์โมน เอนไซม์ และแอนติบอดี้ที่ช่วยให้ระบบภูมิคุ้มกันทำงานได้อย่างมีประสิทธิภาพ การรับประทานโปรตีนที่เพียงพอในแต่ละวันสามารถลดความรู้สึกหิว ทำให้เรารู้สึกอิ่มเร็วขึ้น และสนับสนุนการควบคุมน้ำหนัก

    อย่าลืมเพิ่มโปรตีนในมื้ออาหารของคุณเช่น ไข่, เนื้อสัตว์, ปลา, ถั่ว และผลิตภัณฑ์นม เพื่อสุขภาพที่ดีและร่างกายที่แข็งแรง!

    #Millionlsland
    #MI4
    #REBORN
    #REBORNNEWBEGIN
    #พลังZeeds

    #โปรตีน #สุขภาพดี #พลังงานจากธรรมชาติ
    💪✨ **โปรตีน: พลังงานและการสร้างกล้ามเนื้อ!** ✨💪 โปรตีนคือสารอาหารพื้นฐานที่สำคัญต่อร่างกาย มีบทบาทในการสร้างและซ่อมแซมเซลล์ รวมถึงเป็นส่วนประกอบหลักของกล้ามเนื้อ เส้นเอ็น และเนื้อเยื่อต่าง ๆ 🌱 นอกจากนี้ โปรตีนยังช่วยในกระบวนการสร้างฮอร์โมน เอนไซม์ และแอนติบอดี้ที่ช่วยให้ระบบภูมิคุ้มกันทำงานได้อย่างมีประสิทธิภาพ 🔬💚 การรับประทานโปรตีนที่เพียงพอในแต่ละวันสามารถลดความรู้สึกหิว ทำให้เรารู้สึกอิ่มเร็วขึ้น และสนับสนุนการควบคุมน้ำหนัก 💚🍽️ อย่าลืมเพิ่มโปรตีนในมื้ออาหารของคุณเช่น ไข่, เนื้อสัตว์, ปลา, ถั่ว และผลิตภัณฑ์นม เพื่อสุขภาพที่ดีและร่างกายที่แข็งแรง! 🥚🐟🍗 #Millionlsland #MI4 #REBORN #REBORNNEWBEGIN #พลังZeeds #โปรตีน #สุขภาพดี #พลังงานจากธรรมชาติ
    0 ความคิดเห็น 0 การแบ่งปัน 938 มุมมอง 0 รีวิว
  • การ์ดจอรุ่นใหม่ของ AMD ที่มีชื่อว่า Instinct MI400 ซึ่งมีการออกแบบใหม่ที่น่าสนใจและมีประสิทธิภาพสูงขึ้น การ์ดจอนี้จะมีการใช้สถาปัตยกรรม CDNA Next หรือ UDNA และจะมีหน่วยประมวลผล XCDs (Accelerated Compute Dies) จำนวน 8 หน่วย นอกจากนี้ยังมีการเพิ่มไทล์สำหรับการสื่อสารระหว่างหน่วยประมวลผลและอินเตอร์เฟส I/O

    การ์ดจอ Instinct MI400 นี้คาดว่าจะเปิดตัวในปี 2026 และจะมีการปรับปรุงประสิทธิภาพในการฝึกและการประมวลผล AI ขนาดใหญ่ ในขณะเดียวกัน AMD ยังมีแผนที่จะเปิดตัวการ์ดจอรุ่น MI350 ในปีนี้ ซึ่งจะใช้สถาปัตยกรรม CDNA 4 และมีประสิทธิภาพสูงขึ้นถึง 35 เท่าในการประมวลผล AI เมื่อเทียบกับรุ่น MI300

    https://wccftech.com/amd-instinct-mi400-spotted-feature-up-to-8-chiplets-on-dual-interposer-dies/
    การ์ดจอรุ่นใหม่ของ AMD ที่มีชื่อว่า Instinct MI400 ซึ่งมีการออกแบบใหม่ที่น่าสนใจและมีประสิทธิภาพสูงขึ้น การ์ดจอนี้จะมีการใช้สถาปัตยกรรม CDNA Next หรือ UDNA และจะมีหน่วยประมวลผล XCDs (Accelerated Compute Dies) จำนวน 8 หน่วย นอกจากนี้ยังมีการเพิ่มไทล์สำหรับการสื่อสารระหว่างหน่วยประมวลผลและอินเตอร์เฟส I/O การ์ดจอ Instinct MI400 นี้คาดว่าจะเปิดตัวในปี 2026 และจะมีการปรับปรุงประสิทธิภาพในการฝึกและการประมวลผล AI ขนาดใหญ่ ในขณะเดียวกัน AMD ยังมีแผนที่จะเปิดตัวการ์ดจอรุ่น MI350 ในปีนี้ ซึ่งจะใช้สถาปัตยกรรม CDNA 4 และมีประสิทธิภาพสูงขึ้นถึง 35 เท่าในการประมวลผล AI เมื่อเทียบกับรุ่น MI300 https://wccftech.com/amd-instinct-mi400-spotted-feature-up-to-8-chiplets-on-dual-interposer-dies/
    WCCFTECH.COM
    AMD Instinct MI400 Spotted In Latest Patches, Will Feature Up To 8 Chiplets On Dual Interposer Dies
    The next-gen AMD Instinct MI400 accelerators will reportedly feature separate multimedia I/O dies as spotted in the patches.
    0 ความคิดเห็น 0 การแบ่งปัน 242 มุมมอง 0 รีวิว
  • https://youtu.be/6RpV6Mi4mN8?si=i0bi-yK84H6Msv6w
    https://youtu.be/6RpV6Mi4mN8?si=i0bi-yK84H6Msv6w
    0 ความคิดเห็น 0 การแบ่งปัน 221 มุมมอง 0 รีวิว
  • Micron ได้เปิดเผยความคืบหน้าในการพัฒนาเทคโนโลยี HBM4 และ HBM4E โดยคาดว่าจะเริ่มการผลิตจำนวนมากในปี 2026

    เทคโนโลยี HBM4 จะช่วยเพิ่มประสิทธิภาพและความสามารถในการประมวลผล AI โดยมีการพัฒนา HBM4E ที่สามารถปรับแต่งฐานตรรกะสำหรับลูกค้าบางรายได้ ซึ่งจะช่วยเพิ่มประสิทธิภาพทางการเงินของ Micron
    HBM4 คาดว่าจะถูกนำมาใช้ในสถาปัตยกรรม AI ของ NVIDIA Rubin และในผลิตภัณฑ์ Instinct MI400 ของ AMD ซึ่งจะออกมาให้ใช้ในปี 2026-2027

    ปัจจุบันเทคโนโลยี HBM4 และ HBM4E กำลังอยู่ในขั้นตอนการพัฒนา โดยมีบริษัท Micron, SK Hynix และ Samsung เป็นบริษัทหลักที่กำลังพัฒนาเทคโนโลยีนี้

    https://wccf.tech/1for5
    Micron ได้เปิดเผยความคืบหน้าในการพัฒนาเทคโนโลยี HBM4 และ HBM4E โดยคาดว่าจะเริ่มการผลิตจำนวนมากในปี 2026 เทคโนโลยี HBM4 จะช่วยเพิ่มประสิทธิภาพและความสามารถในการประมวลผล AI โดยมีการพัฒนา HBM4E ที่สามารถปรับแต่งฐานตรรกะสำหรับลูกค้าบางรายได้ ซึ่งจะช่วยเพิ่มประสิทธิภาพทางการเงินของ Micron HBM4 คาดว่าจะถูกนำมาใช้ในสถาปัตยกรรม AI ของ NVIDIA Rubin และในผลิตภัณฑ์ Instinct MI400 ของ AMD ซึ่งจะออกมาให้ใช้ในปี 2026-2027 ปัจจุบันเทคโนโลยี HBM4 และ HBM4E กำลังอยู่ในขั้นตอนการพัฒนา โดยมีบริษัท Micron, SK Hynix และ Samsung เป็นบริษัทหลักที่กำลังพัฒนาเทคโนโลยีนี้ https://wccf.tech/1for5
    WCCF.TECH
    Micron Reveals Development On "Cutting-Edge" HBM4E Process, HBM4 Slated For Mass-Production By 2026
    Micron has provided an update on its HBM4 and HBM4E processes, as the firm reveals that mass production is expected to be initiated by 2026.
    0 ความคิดเห็น 0 การแบ่งปัน 265 มุมมอง 0 รีวิว
Pages Boosts