Microsoft พยายามเลิกพึ่ง GPU ของ Nvidia (อย่าง H100 และ Blackwell) โดยพัฒนาชิปของตัวเองที่ชื่อว่า “Maia” โดยรุ่นถัดไปที่ชื่อเล่นว่า “Braga” มุ่งเน้นงาน inference บน Copilot และโมเดล OpenAI ในระบบ Azure
แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่
ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด
✅ Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure
• วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง
• ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training)
✅ Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว
• ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน
• น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง
✅ ปัจจัยที่ทำให้ล่าช้า:
• ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI
• พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง
• แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ
✅ Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก
• ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ
• สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom
✅ Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น
• มี transistor เกิน 200 พันล้าน
• ใช้สำหรับทั้ง training และ inference ระดับ hyperscale
• ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย
✅ คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน
• เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon
https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่
ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด
✅ Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure
• วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง
• ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training)
✅ Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว
• ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน
• น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง
✅ ปัจจัยที่ทำให้ล่าช้า:
• ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI
• พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง
• แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ
✅ Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก
• ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ
• สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom
✅ Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น
• มี transistor เกิน 200 พันล้าน
• ใช้สำหรับทั้ง training และ inference ระดับ hyperscale
• ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย
✅ คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน
• เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon
https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
Microsoft พยายามเลิกพึ่ง GPU ของ Nvidia (อย่าง H100 และ Blackwell) โดยพัฒนาชิปของตัวเองที่ชื่อว่า “Maia” โดยรุ่นถัดไปที่ชื่อเล่นว่า “Braga” มุ่งเน้นงาน inference บน Copilot และโมเดล OpenAI ในระบบ Azure
แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่
ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด
✅ Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure
• วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง
• ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training)
✅ Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว
• ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน
• น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง
✅ ปัจจัยที่ทำให้ล่าช้า:
• ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI
• พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง
• แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ
✅ Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก
• ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ
• สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom
✅ Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น
• มี transistor เกิน 200 พันล้าน
• ใช้สำหรับทั้ง training และ inference ระดับ hyperscale
• ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย
✅ คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน
• เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon
https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
0 Comments
0 Shares
27 Views
0 Reviews