รู้ไหมครับว่าตอนนี้ xAI ของ Elon Musk ใช้ GPU ไปแล้วกว่า 200,000 ตัว ในศูนย์ข้อมูลชื่อ Colossus ที่เมืองเมมฟิส กินไฟถึง 300 เมกะวัตต์ → บริษัทต้องติดตั้งกังหันก๊าซ 35 ตัว + Tesla Megapack สำหรับจ่ายไฟให้ทัน → และตอนนี้จะสร้าง ศูนย์ข้อมูลรุ่นใหม่ที่ใช้ Blackwell GPUs กว่า 1 ล้านตัว! → GPU แค่นั้นก็ใช้ไฟราว 1,000–1,400 เมกะวัตต์ ยังไม่รวม CPU, RAM, สตอเรจ และระบบทำความเย็น → ถ้ารวมทั้งหมด คาดว่าโหลดไฟฟ้าจะสูงถึง 1,960 เมกะวัตต์ หรือประมาณเท่าบ้าน 1.9 ล้านหลังใช้พร้อมกัน!
ปัญหาคือ... สร้างโรงไฟฟ้าในสหรัฐฯ ใช้เวลานานเกิน → ทางออกของ Elon คือ “ซื้อโรงไฟฟ้าสำเร็จรูปจากต่างประเทศแล้วขนมาทั้งโรง” → เพื่อใช้งานกับศูนย์ข้อมูลใหม่ที่แปลงมาจากโรงงานเก่าในเมมฟิส ที่รองรับเซิร์ฟเวอร์ GPU 125,000 ตัว
นี่ไม่ใช่เรื่องบังเอิญ เพราะบริษัท AI รายอื่น ๆ อย่าง OpenAI หรือ Google DeepMind ก็เดินหน้าแบบเดียวกัน → สร้างศูนย์ข้อมูลขนาดยักษ์ → ใช้ระบบจ่ายไฟเฉพาะตัวเอง → กำลังเปลี่ยนจาก “ผู้ใช้พลังงาน” เป็น “เจ้าของแหล่งพลังงาน” กันหมดแล้วครับ
Elon Musk ยืนยันว่า xAI ซื้อโรงไฟฟ้าจากต่างประเทศมาสหรัฐฯ เพื่อรองรับศูนย์ข้อมูลใหม่
• เพราะสร้างโรงไฟฟ้าในอเมริกาใช้เวลานาน
• ต้องการใช้ทันทีสำหรับระบบ GPU ระดับล้านตัว
ศูนย์ข้อมูล Colossus ปัจจุบันของ xAI ใช้ GPU 200K ตัว กินไฟ ~300 เมกะวัตต์
• ติดกังหันก๊าซ 35 ตัว และ Tesla Megapack เพื่อจ่ายไฟ
ศูนย์ข้อมูลใหม่จะใช้ GPU มากกว่า 1 ล้านตัว (Blackwell B200/GB200/B300/GB300)
• แค่ GPU กินไฟ ~1,000–1,400 เมกะวัตต์
• ถ้านับรวมทั้งหมด (PUE 1.4) → โหลดรวม 1,960 เมกะวัตต์
xAI ซื้อโรงงานในเมมฟิสเพื่อแปลงเป็นศูนย์ข้อมูล ขนาดรองรับ GPU 125,000 เครื่อง (แบบ 8 GPU ต่อเครื่อง)
• พร้อมระบบเครือข่าย, สตอเรจ, และระบายความร้อน
โครงสร้างพลังงานใช้ระบบ onsite + ซื้อไฟจากระบบ grid เหมือนศูนย์ Colossus เดิม
https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musk-xai-power-plant-overseas-to-power-1-million-gpus
ปัญหาคือ... สร้างโรงไฟฟ้าในสหรัฐฯ ใช้เวลานานเกิน → ทางออกของ Elon คือ “ซื้อโรงไฟฟ้าสำเร็จรูปจากต่างประเทศแล้วขนมาทั้งโรง” → เพื่อใช้งานกับศูนย์ข้อมูลใหม่ที่แปลงมาจากโรงงานเก่าในเมมฟิส ที่รองรับเซิร์ฟเวอร์ GPU 125,000 ตัว
นี่ไม่ใช่เรื่องบังเอิญ เพราะบริษัท AI รายอื่น ๆ อย่าง OpenAI หรือ Google DeepMind ก็เดินหน้าแบบเดียวกัน → สร้างศูนย์ข้อมูลขนาดยักษ์ → ใช้ระบบจ่ายไฟเฉพาะตัวเอง → กำลังเปลี่ยนจาก “ผู้ใช้พลังงาน” เป็น “เจ้าของแหล่งพลังงาน” กันหมดแล้วครับ
Elon Musk ยืนยันว่า xAI ซื้อโรงไฟฟ้าจากต่างประเทศมาสหรัฐฯ เพื่อรองรับศูนย์ข้อมูลใหม่
• เพราะสร้างโรงไฟฟ้าในอเมริกาใช้เวลานาน
• ต้องการใช้ทันทีสำหรับระบบ GPU ระดับล้านตัว
ศูนย์ข้อมูล Colossus ปัจจุบันของ xAI ใช้ GPU 200K ตัว กินไฟ ~300 เมกะวัตต์
• ติดกังหันก๊าซ 35 ตัว และ Tesla Megapack เพื่อจ่ายไฟ
ศูนย์ข้อมูลใหม่จะใช้ GPU มากกว่า 1 ล้านตัว (Blackwell B200/GB200/B300/GB300)
• แค่ GPU กินไฟ ~1,000–1,400 เมกะวัตต์
• ถ้านับรวมทั้งหมด (PUE 1.4) → โหลดรวม 1,960 เมกะวัตต์
xAI ซื้อโรงงานในเมมฟิสเพื่อแปลงเป็นศูนย์ข้อมูล ขนาดรองรับ GPU 125,000 เครื่อง (แบบ 8 GPU ต่อเครื่อง)
• พร้อมระบบเครือข่าย, สตอเรจ, และระบายความร้อน
โครงสร้างพลังงานใช้ระบบ onsite + ซื้อไฟจากระบบ grid เหมือนศูนย์ Colossus เดิม
https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musk-xai-power-plant-overseas-to-power-1-million-gpus
รู้ไหมครับว่าตอนนี้ xAI ของ Elon Musk ใช้ GPU ไปแล้วกว่า 200,000 ตัว ในศูนย์ข้อมูลชื่อ Colossus ที่เมืองเมมฟิส กินไฟถึง 300 เมกะวัตต์ → บริษัทต้องติดตั้งกังหันก๊าซ 35 ตัว + Tesla Megapack สำหรับจ่ายไฟให้ทัน → และตอนนี้จะสร้าง ศูนย์ข้อมูลรุ่นใหม่ที่ใช้ Blackwell GPUs กว่า 1 ล้านตัว! → GPU แค่นั้นก็ใช้ไฟราว 1,000–1,400 เมกะวัตต์ ยังไม่รวม CPU, RAM, สตอเรจ และระบบทำความเย็น → ถ้ารวมทั้งหมด คาดว่าโหลดไฟฟ้าจะสูงถึง 1,960 เมกะวัตต์ หรือประมาณเท่าบ้าน 1.9 ล้านหลังใช้พร้อมกัน!
ปัญหาคือ... สร้างโรงไฟฟ้าในสหรัฐฯ ใช้เวลานานเกิน → ทางออกของ Elon คือ “ซื้อโรงไฟฟ้าสำเร็จรูปจากต่างประเทศแล้วขนมาทั้งโรง” → เพื่อใช้งานกับศูนย์ข้อมูลใหม่ที่แปลงมาจากโรงงานเก่าในเมมฟิส ที่รองรับเซิร์ฟเวอร์ GPU 125,000 ตัว
นี่ไม่ใช่เรื่องบังเอิญ เพราะบริษัท AI รายอื่น ๆ อย่าง OpenAI หรือ Google DeepMind ก็เดินหน้าแบบเดียวกัน → สร้างศูนย์ข้อมูลขนาดยักษ์ → ใช้ระบบจ่ายไฟเฉพาะตัวเอง → กำลังเปลี่ยนจาก “ผู้ใช้พลังงาน” เป็น “เจ้าของแหล่งพลังงาน” กันหมดแล้วครับ
✅ Elon Musk ยืนยันว่า xAI ซื้อโรงไฟฟ้าจากต่างประเทศมาสหรัฐฯ เพื่อรองรับศูนย์ข้อมูลใหม่
• เพราะสร้างโรงไฟฟ้าในอเมริกาใช้เวลานาน
• ต้องการใช้ทันทีสำหรับระบบ GPU ระดับล้านตัว
✅ ศูนย์ข้อมูล Colossus ปัจจุบันของ xAI ใช้ GPU 200K ตัว กินไฟ ~300 เมกะวัตต์
• ติดกังหันก๊าซ 35 ตัว และ Tesla Megapack เพื่อจ่ายไฟ
✅ ศูนย์ข้อมูลใหม่จะใช้ GPU มากกว่า 1 ล้านตัว (Blackwell B200/GB200/B300/GB300)
• แค่ GPU กินไฟ ~1,000–1,400 เมกะวัตต์
• ถ้านับรวมทั้งหมด (PUE 1.4) → โหลดรวม 1,960 เมกะวัตต์
✅ xAI ซื้อโรงงานในเมมฟิสเพื่อแปลงเป็นศูนย์ข้อมูล ขนาดรองรับ GPU 125,000 เครื่อง (แบบ 8 GPU ต่อเครื่อง)
• พร้อมระบบเครือข่าย, สตอเรจ, และระบายความร้อน
✅ โครงสร้างพลังงานใช้ระบบ onsite + ซื้อไฟจากระบบ grid เหมือนศูนย์ Colossus เดิม
https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musk-xai-power-plant-overseas-to-power-1-million-gpus
0 ความคิดเห็น
0 การแบ่งปัน
34 มุมมอง
0 รีวิว