“Microsoft ทุ่ม 33 พันล้านดอลลาร์ให้ ‘Neoclouds’ — ดึง GPU จาก Nebius 100,000 ตัว เพื่อเร่งสร้าง AI Copilot รุ่นถัดไป”
ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก
ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows
Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย
กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป
ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว
ข้อมูลสำคัญจากข่าว
Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI
ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว
ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค
ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+
Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ
CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์
Nscale จะใช้สำหรับ inference ในยุโรป
Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ
การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า
ข้อมูลเสริมจากภายนอก
GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่
Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม
การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler
Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล
Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft
https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก
ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows
Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย
กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป
ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว
ข้อมูลสำคัญจากข่าว
Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI
ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว
ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค
ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+
Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ
CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์
Nscale จะใช้สำหรับ inference ในยุโรป
Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ
การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า
ข้อมูลเสริมจากภายนอก
GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่
Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม
การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler
Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล
Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft
https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
🌐 “Microsoft ทุ่ม 33 พันล้านดอลลาร์ให้ ‘Neoclouds’ — ดึง GPU จาก Nebius 100,000 ตัว เพื่อเร่งสร้าง AI Copilot รุ่นถัดไป”
ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก
ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows
Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย
กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป
ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว
✅ ข้อมูลสำคัญจากข่าว
➡️ Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI
➡️ ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว
➡️ ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค
➡️ ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+
➡️ Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ
➡️ CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์
➡️ Nscale จะใช้สำหรับ inference ในยุโรป
➡️ Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ
➡️ การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า
✅ ข้อมูลเสริมจากภายนอก
➡️ GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่
➡️ Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม
➡️ การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler
➡️ Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล
➡️ Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft
https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
0 Comments
0 Shares
88 Views
0 Reviews