“AI โตเร็วเกินทุน — รายงานชี้ต้องมีรายได้ $2 ล้านล้านต่อปีถึงจะพอเลี้ยงระบบ แต่ยังขาดอีก $800 พันล้านทั่วโลก”

รายงานล่าสุดจาก Bain & Company เปิดเผยว่าอุตสาหกรรม AI กำลังเติบโตเร็วกว่าที่โครงสร้างพื้นฐานจะรองรับได้ โดยเฉพาะในด้านพลังงานและฮาร์ดแวร์ รายงานระบุว่าเพื่อให้สามารถรองรับความต้องการด้านการประมวลผล AI ได้อย่างยั่งยืนภายในปี 2030 โลกจะต้องมีรายได้จาก AI สูงถึง $2 ล้านล้านต่อปี แต่แม้จะมองในแง่ดี ก็ยังขาดอยู่ถึง $800 พันล้าน

ความต้องการ compute สำหรับ AI ทั้งการฝึกโมเดลและการใช้งานจริง (inference) เติบโตเร็วกว่ากฎของ Moore’s Law ถึง 2 เท่า ทำให้ผู้ให้บริการ data center ต้องขยายระบบแบบ brute-force โดยไม่สามารถพึ่งพาประสิทธิภาพของชิปได้อีกต่อไป คาดว่าภายในปี 2030 ความต้องการพลังงานของ AI จะสูงถึง 200 กิกะวัตต์ โดยครึ่งหนึ่งอยู่ในสหรัฐฯ

รายงานยังเตือนว่าการขาดแคลน GPU, หน่วยความจำ HBM, และเทคโนโลยี CoWoS จะยังคงเป็นปัญหาไปอีกหลายปี แม้บริษัทใหญ่จะลงทุนมหาศาล เช่น Microsoft ที่เพิ่มงบสร้าง data center ในรัฐวิสคอนซินเป็น $7 พันล้าน หรือ xAI ของ Elon Musk ที่ตั้งเป้าจะใช้ GPU เทียบเท่า H100 ถึง 50 ล้านตัวภายใน 5 ปี

หากเงินทุนไม่พอ อุตสาหกรรมจะหันไปใช้ระบบที่ให้ผลตอบแทนต่อวัตต์และพื้นที่สูงที่สุด เช่น rack GPU ขนาดใหญ่ของ Nvidia และ AMD ซึ่งอาจทำให้ชิประดับ workstation หายากขึ้น และส่งผลกระทบต่อผู้ใช้ทั่วไป

ข้อมูลสำคัญจากข่าว
AI ต้องการรายได้ $2 ล้านล้านต่อปีเพื่อรองรับการเติบโตภายในปี 2030
แม้มองในแง่ดี ยังขาดทุนอยู่ $800 พันล้าน
ความต้องการ compute เติบโตเร็วกว่าประสิทธิภาพชิปถึง 2 เท่า
คาดว่า AI จะใช้พลังงานถึง 200 กิกะวัตต์ โดยครึ่งหนึ่งอยู่ในสหรัฐฯ
GPU, HBM, และ CoWoS ยังขาดแคลนต่อเนื่อง
Microsoft ลงทุน $7 พันล้านใน data center ใหม่ในวิสคอนซิน
xAI ตั้งเป้าใช้ GPU เทียบเท่า H100 ถึง 50 ล้านตัวภายใน 5 ปี
ระบบ rack GPU เช่น GB200 NVL72 และ MI300X จะได้รับความสำคัญมากขึ้น
การประมวลผลที่ edge เช่น laptop ที่มี NPU จะได้รับความนิยมมากขึ้น

ข้อมูลเสริมจากภายนอก
Moore’s Law คือหลักการที่ประสิทธิภาพของชิปจะเพิ่มขึ้นทุก 2 ปี แต่เริ่มชะลอตัวแล้ว
HBM (High Bandwidth Memory) เป็นหน่วยความจำที่จำเป็นสำหรับงาน AI ขนาดใหญ่
CoWoS (Chip-on-Wafer-on-Substrate) เป็นเทคโนโลยีเชื่อมต่อชิปที่ช่วยเพิ่มประสิทธิภาพ
Edge AI ช่วยลดค่าใช้จ่ายและ latency โดยไม่ต้องพึ่ง cloud
Sovereign AI กลายเป็นยุทธศาสตร์ระดับชาติในหลายประเทศ เช่น จีน สหรัฐฯ และ EU

https://www.tomshardware.com/tech-industry/bain-says-compute-demand-is-outpacing-capital
⚡ “AI โตเร็วเกินทุน — รายงานชี้ต้องมีรายได้ $2 ล้านล้านต่อปีถึงจะพอเลี้ยงระบบ แต่ยังขาดอีก $800 พันล้านทั่วโลก” รายงานล่าสุดจาก Bain & Company เปิดเผยว่าอุตสาหกรรม AI กำลังเติบโตเร็วกว่าที่โครงสร้างพื้นฐานจะรองรับได้ โดยเฉพาะในด้านพลังงานและฮาร์ดแวร์ รายงานระบุว่าเพื่อให้สามารถรองรับความต้องการด้านการประมวลผล AI ได้อย่างยั่งยืนภายในปี 2030 โลกจะต้องมีรายได้จาก AI สูงถึง $2 ล้านล้านต่อปี แต่แม้จะมองในแง่ดี ก็ยังขาดอยู่ถึง $800 พันล้าน ความต้องการ compute สำหรับ AI ทั้งการฝึกโมเดลและการใช้งานจริง (inference) เติบโตเร็วกว่ากฎของ Moore’s Law ถึง 2 เท่า ทำให้ผู้ให้บริการ data center ต้องขยายระบบแบบ brute-force โดยไม่สามารถพึ่งพาประสิทธิภาพของชิปได้อีกต่อไป คาดว่าภายในปี 2030 ความต้องการพลังงานของ AI จะสูงถึง 200 กิกะวัตต์ โดยครึ่งหนึ่งอยู่ในสหรัฐฯ รายงานยังเตือนว่าการขาดแคลน GPU, หน่วยความจำ HBM, และเทคโนโลยี CoWoS จะยังคงเป็นปัญหาไปอีกหลายปี แม้บริษัทใหญ่จะลงทุนมหาศาล เช่น Microsoft ที่เพิ่มงบสร้าง data center ในรัฐวิสคอนซินเป็น $7 พันล้าน หรือ xAI ของ Elon Musk ที่ตั้งเป้าจะใช้ GPU เทียบเท่า H100 ถึง 50 ล้านตัวภายใน 5 ปี หากเงินทุนไม่พอ อุตสาหกรรมจะหันไปใช้ระบบที่ให้ผลตอบแทนต่อวัตต์และพื้นที่สูงที่สุด เช่น rack GPU ขนาดใหญ่ของ Nvidia และ AMD ซึ่งอาจทำให้ชิประดับ workstation หายากขึ้น และส่งผลกระทบต่อผู้ใช้ทั่วไป ✅ ข้อมูลสำคัญจากข่าว ➡️ AI ต้องการรายได้ $2 ล้านล้านต่อปีเพื่อรองรับการเติบโตภายในปี 2030 ➡️ แม้มองในแง่ดี ยังขาดทุนอยู่ $800 พันล้าน ➡️ ความต้องการ compute เติบโตเร็วกว่าประสิทธิภาพชิปถึง 2 เท่า ➡️ คาดว่า AI จะใช้พลังงานถึง 200 กิกะวัตต์ โดยครึ่งหนึ่งอยู่ในสหรัฐฯ ➡️ GPU, HBM, และ CoWoS ยังขาดแคลนต่อเนื่อง ➡️ Microsoft ลงทุน $7 พันล้านใน data center ใหม่ในวิสคอนซิน ➡️ xAI ตั้งเป้าใช้ GPU เทียบเท่า H100 ถึง 50 ล้านตัวภายใน 5 ปี ➡️ ระบบ rack GPU เช่น GB200 NVL72 และ MI300X จะได้รับความสำคัญมากขึ้น ➡️ การประมวลผลที่ edge เช่น laptop ที่มี NPU จะได้รับความนิยมมากขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ Moore’s Law คือหลักการที่ประสิทธิภาพของชิปจะเพิ่มขึ้นทุก 2 ปี แต่เริ่มชะลอตัวแล้ว ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่จำเป็นสำหรับงาน AI ขนาดใหญ่ ➡️ CoWoS (Chip-on-Wafer-on-Substrate) เป็นเทคโนโลยีเชื่อมต่อชิปที่ช่วยเพิ่มประสิทธิภาพ ➡️ Edge AI ช่วยลดค่าใช้จ่ายและ latency โดยไม่ต้องพึ่ง cloud ➡️ Sovereign AI กลายเป็นยุทธศาสตร์ระดับชาติในหลายประเทศ เช่น จีน สหรัฐฯ และ EU https://www.tomshardware.com/tech-industry/bain-says-compute-demand-is-outpacing-capital
WWW.TOMSHARDWARE.COM
AI buildouts need $2 trillion in annual revenue to sustain growth, but massive cash shortfall looms — even generous forecasts highlight $800 billion black hole, says report
A new Bain report says AI buildout will need $2 trillion in annual revenue just to sustain its growth, and the shortfall could keep GPUs scarce and energy grids strained through 2030.
0 Comments 0 Shares 36 Views 0 Reviews