เรื่องเล่าจาก GPU หลักล้าน: เมื่อการสร้าง AI ไม่ใช่แค่โมเดล แต่คือการสร้างโลกใหม่
Altman โพสต์บน X ว่า OpenAI จะมี “มากกว่า 1 ล้าน GPU” ภายในสิ้นปีนี้ — เทียบกับ xAI ของ Elon Musk ที่ใช้เพียง 200,000 GPU ในโมเดล Grok 4 ถือว่า OpenAI มีพลังมากกว่า 5 เท่า
แต่ Altman ไม่หยุดแค่นั้น เขาบอกว่า “ทีมต้องหาวิธีเพิ่มอีก 100 เท่า” ซึ่งหมายถึง 100 ล้าน GPU — คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ (หรือเท่ากับ GDP ของสหราชอาณาจักร)
แม้จะดูเป็นเป้าหมายที่เกินจริง แต่ OpenAI ก็มีโครงการรองรับ เช่น:
- ศูนย์ข้อมูลในเท็กซัสที่ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW ในปี 2026
- ความร่วมมือกับ Oracle และ Microsoft Azure
- การสำรวจการใช้ Google TPU และการพัฒนาชิป AI ของตัวเอง
Altman มองว่า compute คือ “คอขวด” ของวงการ AI และการลงทุนในโครงสร้างพื้นฐานคือการสร้างความได้เปรียบระยะยาว
OpenAI จะมีมากกว่า 1 ล้าน GPU สำหรับงาน AI ภายในสิ้นปี 2025
มากกว่าคู่แข่งอย่าง xAI ที่ใช้เพียง 200,000 GPU
Altman ตั้งเป้าในอนาคตว่าจะมีถึง 100 ล้าน GPU
คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ หรือเท่ากับ GDP ของ UK
ศูนย์ข้อมูลในเท็กซัสของ OpenAI ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW
เทียบเท่ากับการจ่ายไฟให้เมืองขนาดกลาง
OpenAI ร่วมมือกับ Microsoft Azure และ Oracle ในการสร้างโครงสร้างพื้นฐาน
และอาจใช้ Google TPU เพื่อกระจายความเสี่ยงด้าน compute
Altman เคยกล่าวว่า GPT‑4.5 ต้องชะลอการเปิดตัวเพราะ “GPU ไม่พอ”
ทำให้การขยาย compute กลายเป็นเป้าหมายหลักขององค์กร
บริษัทอื่นอย่าง Meta, Amazon ก็กำลังพัฒนาชิป AI ของตัวเอง
เพื่อแข่งขันในตลาดที่ compute คือทรัพยากรสำคัญที่สุด
https://www.tomshardware.com/tech-industry/sam-altman-teases-100-million-gpu-scale-for-openai-that-could-cost-usd3-trillion-chatgpt-maker-to-cross-well-over-1-million-by-end-of-year
Altman โพสต์บน X ว่า OpenAI จะมี “มากกว่า 1 ล้าน GPU” ภายในสิ้นปีนี้ — เทียบกับ xAI ของ Elon Musk ที่ใช้เพียง 200,000 GPU ในโมเดล Grok 4 ถือว่า OpenAI มีพลังมากกว่า 5 เท่า
แต่ Altman ไม่หยุดแค่นั้น เขาบอกว่า “ทีมต้องหาวิธีเพิ่มอีก 100 เท่า” ซึ่งหมายถึง 100 ล้าน GPU — คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ (หรือเท่ากับ GDP ของสหราชอาณาจักร)
แม้จะดูเป็นเป้าหมายที่เกินจริง แต่ OpenAI ก็มีโครงการรองรับ เช่น:
- ศูนย์ข้อมูลในเท็กซัสที่ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW ในปี 2026
- ความร่วมมือกับ Oracle และ Microsoft Azure
- การสำรวจการใช้ Google TPU และการพัฒนาชิป AI ของตัวเอง
Altman มองว่า compute คือ “คอขวด” ของวงการ AI และการลงทุนในโครงสร้างพื้นฐานคือการสร้างความได้เปรียบระยะยาว
OpenAI จะมีมากกว่า 1 ล้าน GPU สำหรับงาน AI ภายในสิ้นปี 2025
มากกว่าคู่แข่งอย่าง xAI ที่ใช้เพียง 200,000 GPU
Altman ตั้งเป้าในอนาคตว่าจะมีถึง 100 ล้าน GPU
คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ หรือเท่ากับ GDP ของ UK
ศูนย์ข้อมูลในเท็กซัสของ OpenAI ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW
เทียบเท่ากับการจ่ายไฟให้เมืองขนาดกลาง
OpenAI ร่วมมือกับ Microsoft Azure และ Oracle ในการสร้างโครงสร้างพื้นฐาน
และอาจใช้ Google TPU เพื่อกระจายความเสี่ยงด้าน compute
Altman เคยกล่าวว่า GPT‑4.5 ต้องชะลอการเปิดตัวเพราะ “GPU ไม่พอ”
ทำให้การขยาย compute กลายเป็นเป้าหมายหลักขององค์กร
บริษัทอื่นอย่าง Meta, Amazon ก็กำลังพัฒนาชิป AI ของตัวเอง
เพื่อแข่งขันในตลาดที่ compute คือทรัพยากรสำคัญที่สุด
https://www.tomshardware.com/tech-industry/sam-altman-teases-100-million-gpu-scale-for-openai-that-could-cost-usd3-trillion-chatgpt-maker-to-cross-well-over-1-million-by-end-of-year
🎙️ เรื่องเล่าจาก GPU หลักล้าน: เมื่อการสร้าง AI ไม่ใช่แค่โมเดล แต่คือการสร้างโลกใหม่
Altman โพสต์บน X ว่า OpenAI จะมี “มากกว่า 1 ล้าน GPU” ภายในสิ้นปีนี้ — เทียบกับ xAI ของ Elon Musk ที่ใช้เพียง 200,000 GPU ในโมเดล Grok 4 ถือว่า OpenAI มีพลังมากกว่า 5 เท่า
แต่ Altman ไม่หยุดแค่นั้น เขาบอกว่า “ทีมต้องหาวิธีเพิ่มอีก 100 เท่า” ซึ่งหมายถึง 100 ล้าน GPU — คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ (หรือเท่ากับ GDP ของสหราชอาณาจักร)
แม้จะดูเป็นเป้าหมายที่เกินจริง แต่ OpenAI ก็มีโครงการรองรับ เช่น:
- ศูนย์ข้อมูลในเท็กซัสที่ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW ในปี 2026
- ความร่วมมือกับ Oracle และ Microsoft Azure
- การสำรวจการใช้ Google TPU และการพัฒนาชิป AI ของตัวเอง
Altman มองว่า compute คือ “คอขวด” ของวงการ AI และการลงทุนในโครงสร้างพื้นฐานคือการสร้างความได้เปรียบระยะยาว
✅ OpenAI จะมีมากกว่า 1 ล้าน GPU สำหรับงาน AI ภายในสิ้นปี 2025
➡️ มากกว่าคู่แข่งอย่าง xAI ที่ใช้เพียง 200,000 GPU
✅ Altman ตั้งเป้าในอนาคตว่าจะมีถึง 100 ล้าน GPU
➡️ คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ หรือเท่ากับ GDP ของ UK
✅ ศูนย์ข้อมูลในเท็กซัสของ OpenAI ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW
➡️ เทียบเท่ากับการจ่ายไฟให้เมืองขนาดกลาง
✅ OpenAI ร่วมมือกับ Microsoft Azure และ Oracle ในการสร้างโครงสร้างพื้นฐาน
➡️ และอาจใช้ Google TPU เพื่อกระจายความเสี่ยงด้าน compute
✅ Altman เคยกล่าวว่า GPT‑4.5 ต้องชะลอการเปิดตัวเพราะ “GPU ไม่พอ”
➡️ ทำให้การขยาย compute กลายเป็นเป้าหมายหลักขององค์กร
✅ บริษัทอื่นอย่าง Meta, Amazon ก็กำลังพัฒนาชิป AI ของตัวเอง
➡️ เพื่อแข่งขันในตลาดที่ compute คือทรัพยากรสำคัญที่สุด
https://www.tomshardware.com/tech-industry/sam-altman-teases-100-million-gpu-scale-for-openai-that-could-cost-usd3-trillion-chatgpt-maker-to-cross-well-over-1-million-by-end-of-year
0 Comments
0 Shares
53 Views
0 Reviews