“AI โตเร็วเกินทุน — รายงานชี้ต้องมีรายได้ $2 ล้านล้านต่อปีถึงจะพอเลี้ยงระบบ แต่ยังขาดอีก $800 พันล้านทั่วโลก”
รายงานล่าสุดจาก Bain & Company เปิดเผยว่าอุตสาหกรรม AI กำลังเติบโตเร็วกว่าที่โครงสร้างพื้นฐานจะรองรับได้ โดยเฉพาะในด้านพลังงานและฮาร์ดแวร์ รายงานระบุว่าเพื่อให้สามารถรองรับความต้องการด้านการประมวลผล AI ได้อย่างยั่งยืนภายในปี 2030 โลกจะต้องมีรายได้จาก AI สูงถึง $2 ล้านล้านต่อปี แต่แม้จะมองในแง่ดี ก็ยังขาดอยู่ถึง $800 พันล้าน
ความต้องการ compute สำหรับ AI ทั้งการฝึกโมเดลและการใช้งานจริง (inference) เติบโตเร็วกว่ากฎของ Moore’s Law ถึง 2 เท่า ทำให้ผู้ให้บริการ data center ต้องขยายระบบแบบ brute-force โดยไม่สามารถพึ่งพาประสิทธิภาพของชิปได้อีกต่อไป คาดว่าภายในปี 2030 ความต้องการพลังงานของ AI จะสูงถึง 200 กิกะวัตต์ โดยครึ่งหนึ่งอยู่ในสหรัฐฯ
รายงานยังเตือนว่าการขาดแคลน GPU, หน่วยความจำ HBM, และเทคโนโลยี CoWoS จะยังคงเป็นปัญหาไปอีกหลายปี แม้บริษัทใหญ่จะลงทุนมหาศาล เช่น Microsoft ที่เพิ่มงบสร้าง data center ในรัฐวิสคอนซินเป็น $7 พันล้าน หรือ xAI ของ Elon Musk ที่ตั้งเป้าจะใช้ GPU เทียบเท่า H100 ถึง 50 ล้านตัวภายใน 5 ปี
หากเงินทุนไม่พอ อุตสาหกรรมจะหันไปใช้ระบบที่ให้ผลตอบแทนต่อวัตต์และพื้นที่สูงที่สุด เช่น rack GPU ขนาดใหญ่ของ Nvidia และ AMD ซึ่งอาจทำให้ชิประดับ workstation หายากขึ้น และส่งผลกระทบต่อผู้ใช้ทั่วไป
ข้อมูลสำคัญจากข่าว
AI ต้องการรายได้ $2 ล้านล้านต่อปีเพื่อรองรับการเติบโตภายในปี 2030
แม้มองในแง่ดี ยังขาดทุนอยู่ $800 พันล้าน
ความต้องการ compute เติบโตเร็วกว่าประสิทธิภาพชิปถึง 2 เท่า
คาดว่า AI จะใช้พลังงานถึง 200 กิกะวัตต์ โดยครึ่งหนึ่งอยู่ในสหรัฐฯ
GPU, HBM, และ CoWoS ยังขาดแคลนต่อเนื่อง
Microsoft ลงทุน $7 พันล้านใน data center ใหม่ในวิสคอนซิน
xAI ตั้งเป้าใช้ GPU เทียบเท่า H100 ถึง 50 ล้านตัวภายใน 5 ปี
ระบบ rack GPU เช่น GB200 NVL72 และ MI300X จะได้รับความสำคัญมากขึ้น
การประมวลผลที่ edge เช่น laptop ที่มี NPU จะได้รับความนิยมมากขึ้น
ข้อมูลเสริมจากภายนอก
Moore’s Law คือหลักการที่ประสิทธิภาพของชิปจะเพิ่มขึ้นทุก 2 ปี แต่เริ่มชะลอตัวแล้ว
HBM (High Bandwidth Memory) เป็นหน่วยความจำที่จำเป็นสำหรับงาน AI ขนาดใหญ่
CoWoS (Chip-on-Wafer-on-Substrate) เป็นเทคโนโลยีเชื่อมต่อชิปที่ช่วยเพิ่มประสิทธิภาพ
Edge AI ช่วยลดค่าใช้จ่ายและ latency โดยไม่ต้องพึ่ง cloud
Sovereign AI กลายเป็นยุทธศาสตร์ระดับชาติในหลายประเทศ เช่น จีน สหรัฐฯ และ EU
https://www.tomshardware.com/tech-industry/bain-says-compute-demand-is-outpacing-capital
รายงานล่าสุดจาก Bain & Company เปิดเผยว่าอุตสาหกรรม AI กำลังเติบโตเร็วกว่าที่โครงสร้างพื้นฐานจะรองรับได้ โดยเฉพาะในด้านพลังงานและฮาร์ดแวร์ รายงานระบุว่าเพื่อให้สามารถรองรับความต้องการด้านการประมวลผล AI ได้อย่างยั่งยืนภายในปี 2030 โลกจะต้องมีรายได้จาก AI สูงถึง $2 ล้านล้านต่อปี แต่แม้จะมองในแง่ดี ก็ยังขาดอยู่ถึง $800 พันล้าน
ความต้องการ compute สำหรับ AI ทั้งการฝึกโมเดลและการใช้งานจริง (inference) เติบโตเร็วกว่ากฎของ Moore’s Law ถึง 2 เท่า ทำให้ผู้ให้บริการ data center ต้องขยายระบบแบบ brute-force โดยไม่สามารถพึ่งพาประสิทธิภาพของชิปได้อีกต่อไป คาดว่าภายในปี 2030 ความต้องการพลังงานของ AI จะสูงถึง 200 กิกะวัตต์ โดยครึ่งหนึ่งอยู่ในสหรัฐฯ
รายงานยังเตือนว่าการขาดแคลน GPU, หน่วยความจำ HBM, และเทคโนโลยี CoWoS จะยังคงเป็นปัญหาไปอีกหลายปี แม้บริษัทใหญ่จะลงทุนมหาศาล เช่น Microsoft ที่เพิ่มงบสร้าง data center ในรัฐวิสคอนซินเป็น $7 พันล้าน หรือ xAI ของ Elon Musk ที่ตั้งเป้าจะใช้ GPU เทียบเท่า H100 ถึง 50 ล้านตัวภายใน 5 ปี
หากเงินทุนไม่พอ อุตสาหกรรมจะหันไปใช้ระบบที่ให้ผลตอบแทนต่อวัตต์และพื้นที่สูงที่สุด เช่น rack GPU ขนาดใหญ่ของ Nvidia และ AMD ซึ่งอาจทำให้ชิประดับ workstation หายากขึ้น และส่งผลกระทบต่อผู้ใช้ทั่วไป
ข้อมูลสำคัญจากข่าว
AI ต้องการรายได้ $2 ล้านล้านต่อปีเพื่อรองรับการเติบโตภายในปี 2030
แม้มองในแง่ดี ยังขาดทุนอยู่ $800 พันล้าน
ความต้องการ compute เติบโตเร็วกว่าประสิทธิภาพชิปถึง 2 เท่า
คาดว่า AI จะใช้พลังงานถึง 200 กิกะวัตต์ โดยครึ่งหนึ่งอยู่ในสหรัฐฯ
GPU, HBM, และ CoWoS ยังขาดแคลนต่อเนื่อง
Microsoft ลงทุน $7 พันล้านใน data center ใหม่ในวิสคอนซิน
xAI ตั้งเป้าใช้ GPU เทียบเท่า H100 ถึง 50 ล้านตัวภายใน 5 ปี
ระบบ rack GPU เช่น GB200 NVL72 และ MI300X จะได้รับความสำคัญมากขึ้น
การประมวลผลที่ edge เช่น laptop ที่มี NPU จะได้รับความนิยมมากขึ้น
ข้อมูลเสริมจากภายนอก
Moore’s Law คือหลักการที่ประสิทธิภาพของชิปจะเพิ่มขึ้นทุก 2 ปี แต่เริ่มชะลอตัวแล้ว
HBM (High Bandwidth Memory) เป็นหน่วยความจำที่จำเป็นสำหรับงาน AI ขนาดใหญ่
CoWoS (Chip-on-Wafer-on-Substrate) เป็นเทคโนโลยีเชื่อมต่อชิปที่ช่วยเพิ่มประสิทธิภาพ
Edge AI ช่วยลดค่าใช้จ่ายและ latency โดยไม่ต้องพึ่ง cloud
Sovereign AI กลายเป็นยุทธศาสตร์ระดับชาติในหลายประเทศ เช่น จีน สหรัฐฯ และ EU
https://www.tomshardware.com/tech-industry/bain-says-compute-demand-is-outpacing-capital
⚡ “AI โตเร็วเกินทุน — รายงานชี้ต้องมีรายได้ $2 ล้านล้านต่อปีถึงจะพอเลี้ยงระบบ แต่ยังขาดอีก $800 พันล้านทั่วโลก”
รายงานล่าสุดจาก Bain & Company เปิดเผยว่าอุตสาหกรรม AI กำลังเติบโตเร็วกว่าที่โครงสร้างพื้นฐานจะรองรับได้ โดยเฉพาะในด้านพลังงานและฮาร์ดแวร์ รายงานระบุว่าเพื่อให้สามารถรองรับความต้องการด้านการประมวลผล AI ได้อย่างยั่งยืนภายในปี 2030 โลกจะต้องมีรายได้จาก AI สูงถึง $2 ล้านล้านต่อปี แต่แม้จะมองในแง่ดี ก็ยังขาดอยู่ถึง $800 พันล้าน
ความต้องการ compute สำหรับ AI ทั้งการฝึกโมเดลและการใช้งานจริง (inference) เติบโตเร็วกว่ากฎของ Moore’s Law ถึง 2 เท่า ทำให้ผู้ให้บริการ data center ต้องขยายระบบแบบ brute-force โดยไม่สามารถพึ่งพาประสิทธิภาพของชิปได้อีกต่อไป คาดว่าภายในปี 2030 ความต้องการพลังงานของ AI จะสูงถึง 200 กิกะวัตต์ โดยครึ่งหนึ่งอยู่ในสหรัฐฯ
รายงานยังเตือนว่าการขาดแคลน GPU, หน่วยความจำ HBM, และเทคโนโลยี CoWoS จะยังคงเป็นปัญหาไปอีกหลายปี แม้บริษัทใหญ่จะลงทุนมหาศาล เช่น Microsoft ที่เพิ่มงบสร้าง data center ในรัฐวิสคอนซินเป็น $7 พันล้าน หรือ xAI ของ Elon Musk ที่ตั้งเป้าจะใช้ GPU เทียบเท่า H100 ถึง 50 ล้านตัวภายใน 5 ปี
หากเงินทุนไม่พอ อุตสาหกรรมจะหันไปใช้ระบบที่ให้ผลตอบแทนต่อวัตต์และพื้นที่สูงที่สุด เช่น rack GPU ขนาดใหญ่ของ Nvidia และ AMD ซึ่งอาจทำให้ชิประดับ workstation หายากขึ้น และส่งผลกระทบต่อผู้ใช้ทั่วไป
✅ ข้อมูลสำคัญจากข่าว
➡️ AI ต้องการรายได้ $2 ล้านล้านต่อปีเพื่อรองรับการเติบโตภายในปี 2030
➡️ แม้มองในแง่ดี ยังขาดทุนอยู่ $800 พันล้าน
➡️ ความต้องการ compute เติบโตเร็วกว่าประสิทธิภาพชิปถึง 2 เท่า
➡️ คาดว่า AI จะใช้พลังงานถึง 200 กิกะวัตต์ โดยครึ่งหนึ่งอยู่ในสหรัฐฯ
➡️ GPU, HBM, และ CoWoS ยังขาดแคลนต่อเนื่อง
➡️ Microsoft ลงทุน $7 พันล้านใน data center ใหม่ในวิสคอนซิน
➡️ xAI ตั้งเป้าใช้ GPU เทียบเท่า H100 ถึง 50 ล้านตัวภายใน 5 ปี
➡️ ระบบ rack GPU เช่น GB200 NVL72 และ MI300X จะได้รับความสำคัญมากขึ้น
➡️ การประมวลผลที่ edge เช่น laptop ที่มี NPU จะได้รับความนิยมมากขึ้น
✅ ข้อมูลเสริมจากภายนอก
➡️ Moore’s Law คือหลักการที่ประสิทธิภาพของชิปจะเพิ่มขึ้นทุก 2 ปี แต่เริ่มชะลอตัวแล้ว
➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่จำเป็นสำหรับงาน AI ขนาดใหญ่
➡️ CoWoS (Chip-on-Wafer-on-Substrate) เป็นเทคโนโลยีเชื่อมต่อชิปที่ช่วยเพิ่มประสิทธิภาพ
➡️ Edge AI ช่วยลดค่าใช้จ่ายและ latency โดยไม่ต้องพึ่ง cloud
➡️ Sovereign AI กลายเป็นยุทธศาสตร์ระดับชาติในหลายประเทศ เช่น จีน สหรัฐฯ และ EU
https://www.tomshardware.com/tech-industry/bain-says-compute-demand-is-outpacing-capital
0 Comments
0 Shares
50 Views
0 Reviews