Elon Musk กับภารกิจสร้างจักรวาล AI ด้วย GPU หลายพันล้านตัว
ในยุคที่ AI กลายเป็นหัวใจของนวัตกรรมระดับโลก Elon Musk ก็ไม่ยอมตกขบวน เขาออกมาประกาศเป้าหมายที่ฟังดูเกินจริงแต่เต็มไปด้วยความทะเยอทะยาน: xAI บริษัทของเขาจะใช้ GPU ที่มีพลังเทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี และในอนาคตอาจขยายไปถึง “พันล้านตัว”
GPU เหล่านี้จะถูกใช้ในศูนย์ข้อมูลขนาดมหึมา เช่น Colossus ที่ตั้งอยู่ในเมมฟิส ซึ่งปัจจุบันมีอยู่ประมาณ 200,000 ตัว และกำลังสร้าง Colossus II เพื่อรองรับการขยายตัว
ในขณะเดียวกัน Musk ก็เปิดโมเดล Grok 2.5 ให้เป็นโอเพ่นซอร์สผ่านแพลตฟอร์ม Hugging Face เพื่อให้ชุมชนนักพัฒนาเข้าถึงโค้ดและ weights ได้อย่างอิสระ โดยมีแผนจะเปิด Grok 3 ภายใน 6 เดือนข้างหน้า
เป้าหมายของ Musk คือการสร้างระบบ AI ที่ “แสวงหาความจริงสูงสุด” และสามารถแข่งขันกับบริษัทใหญ่อย่าง OpenAI, Meta และ Google ซึ่งต่างก็เร่งสะสม GPU และพัฒนาโมเดลของตัวเองเช่นกัน
แต่เบื้องหลังความทะเยอทะยานนี้ ก็มีคำถามตามมา: การใช้พลังงานมหาศาลในศูนย์ข้อมูลจะส่งผลต่อสิ่งแวดล้อมอย่างไร? และการเปิดโมเดลให้สาธารณะจะนำไปสู่การใช้งานในทางที่ไม่พึงประสงค์หรือไม่?
สรุปเนื้อหาเป็นหัวข้อ
Elon Musk ตั้งเป้าให้ xAI ใช้ GPU เทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี
ปัจจุบัน xAI มี GPU ประมาณ 200,000 ตัวในศูนย์ข้อมูล Colossus ที่เมมฟิส
กำลังสร้าง Colossus II เพื่อขยายขีดความสามารถด้าน AI
Musk กล่าวว่าต้องการขยายไปถึง “พันล้าน GPU” ในอนาคต
Grok 2.5 ถูกเปิดให้เป็นโอเพ่นซอร์สผ่าน Hugging Face
Grok 3 จะเปิดโอเพ่นซอร์สภายใน 6 เดือน
Grok 4 ยังไม่เปิดให้สาธารณะใช้งาน และมีข้อถกเถียงเกี่ยวกับเนื้อหาภายใน
xAI ต้องการสร้าง AI ที่ “แสวงหาความจริงสูงสุด”
คู่แข่งอย่าง Meta และ OpenAI ก็มีแผนสะสม GPU หลายล้านตัวเช่นกัน
Meta กำลังสร้างศูนย์ข้อมูล Hyperion ที่ใช้พลังงานถึง 5GW เทียบเท่าฐานโหลดของ NYC
ข้อมูลเสริมจากภายนอก
Nvidia H100 เป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีความสามารถในการประมวลผลสูงมาก
ราคาต่อหน่วยของ H100 อยู่ที่ประมาณ $30,000 ทำให้การสะสม GPU จำนวนมากเป็นการลงทุนมหาศาล
Hugging Face เป็นแพลตฟอร์มโอเพ่นซอร์สที่นิยมใช้ในวงการ AI สำหรับการแชร์โมเดลและ weights
การเปิดโมเดลให้สาธารณะสามารถช่วยให้เกิดการพัฒนาอย่างรวดเร็ว แต่ก็มีความเสี่ยงด้านความปลอดภัย
การแข่งขันด้าน AI ระหว่างบริษัทใหญ่กำลังผลักดันให้เกิดการพัฒนา hardware เฉพาะทาง เช่น ASIC และ custom chips
https://www.tomshardware.com/tech-industry/elon-musk-doubles-down-on-goal-of-50-million-h100-equivalent-gpus-in-the-next-5-years-envisions-billions-of-gpus-in-the-future-as-grok-2-5-goes-open-source
ในยุคที่ AI กลายเป็นหัวใจของนวัตกรรมระดับโลก Elon Musk ก็ไม่ยอมตกขบวน เขาออกมาประกาศเป้าหมายที่ฟังดูเกินจริงแต่เต็มไปด้วยความทะเยอทะยาน: xAI บริษัทของเขาจะใช้ GPU ที่มีพลังเทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี และในอนาคตอาจขยายไปถึง “พันล้านตัว”
GPU เหล่านี้จะถูกใช้ในศูนย์ข้อมูลขนาดมหึมา เช่น Colossus ที่ตั้งอยู่ในเมมฟิส ซึ่งปัจจุบันมีอยู่ประมาณ 200,000 ตัว และกำลังสร้าง Colossus II เพื่อรองรับการขยายตัว
ในขณะเดียวกัน Musk ก็เปิดโมเดล Grok 2.5 ให้เป็นโอเพ่นซอร์สผ่านแพลตฟอร์ม Hugging Face เพื่อให้ชุมชนนักพัฒนาเข้าถึงโค้ดและ weights ได้อย่างอิสระ โดยมีแผนจะเปิด Grok 3 ภายใน 6 เดือนข้างหน้า
เป้าหมายของ Musk คือการสร้างระบบ AI ที่ “แสวงหาความจริงสูงสุด” และสามารถแข่งขันกับบริษัทใหญ่อย่าง OpenAI, Meta และ Google ซึ่งต่างก็เร่งสะสม GPU และพัฒนาโมเดลของตัวเองเช่นกัน
แต่เบื้องหลังความทะเยอทะยานนี้ ก็มีคำถามตามมา: การใช้พลังงานมหาศาลในศูนย์ข้อมูลจะส่งผลต่อสิ่งแวดล้อมอย่างไร? และการเปิดโมเดลให้สาธารณะจะนำไปสู่การใช้งานในทางที่ไม่พึงประสงค์หรือไม่?
สรุปเนื้อหาเป็นหัวข้อ
Elon Musk ตั้งเป้าให้ xAI ใช้ GPU เทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี
ปัจจุบัน xAI มี GPU ประมาณ 200,000 ตัวในศูนย์ข้อมูล Colossus ที่เมมฟิส
กำลังสร้าง Colossus II เพื่อขยายขีดความสามารถด้าน AI
Musk กล่าวว่าต้องการขยายไปถึง “พันล้าน GPU” ในอนาคต
Grok 2.5 ถูกเปิดให้เป็นโอเพ่นซอร์สผ่าน Hugging Face
Grok 3 จะเปิดโอเพ่นซอร์สภายใน 6 เดือน
Grok 4 ยังไม่เปิดให้สาธารณะใช้งาน และมีข้อถกเถียงเกี่ยวกับเนื้อหาภายใน
xAI ต้องการสร้าง AI ที่ “แสวงหาความจริงสูงสุด”
คู่แข่งอย่าง Meta และ OpenAI ก็มีแผนสะสม GPU หลายล้านตัวเช่นกัน
Meta กำลังสร้างศูนย์ข้อมูล Hyperion ที่ใช้พลังงานถึง 5GW เทียบเท่าฐานโหลดของ NYC
ข้อมูลเสริมจากภายนอก
Nvidia H100 เป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีความสามารถในการประมวลผลสูงมาก
ราคาต่อหน่วยของ H100 อยู่ที่ประมาณ $30,000 ทำให้การสะสม GPU จำนวนมากเป็นการลงทุนมหาศาล
Hugging Face เป็นแพลตฟอร์มโอเพ่นซอร์สที่นิยมใช้ในวงการ AI สำหรับการแชร์โมเดลและ weights
การเปิดโมเดลให้สาธารณะสามารถช่วยให้เกิดการพัฒนาอย่างรวดเร็ว แต่ก็มีความเสี่ยงด้านความปลอดภัย
การแข่งขันด้าน AI ระหว่างบริษัทใหญ่กำลังผลักดันให้เกิดการพัฒนา hardware เฉพาะทาง เช่น ASIC และ custom chips
https://www.tomshardware.com/tech-industry/elon-musk-doubles-down-on-goal-of-50-million-h100-equivalent-gpus-in-the-next-5-years-envisions-billions-of-gpus-in-the-future-as-grok-2-5-goes-open-source
🎙️ Elon Musk กับภารกิจสร้างจักรวาล AI ด้วย GPU หลายพันล้านตัว
ในยุคที่ AI กลายเป็นหัวใจของนวัตกรรมระดับโลก Elon Musk ก็ไม่ยอมตกขบวน เขาออกมาประกาศเป้าหมายที่ฟังดูเกินจริงแต่เต็มไปด้วยความทะเยอทะยาน: xAI บริษัทของเขาจะใช้ GPU ที่มีพลังเทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี และในอนาคตอาจขยายไปถึง “พันล้านตัว”
GPU เหล่านี้จะถูกใช้ในศูนย์ข้อมูลขนาดมหึมา เช่น Colossus ที่ตั้งอยู่ในเมมฟิส ซึ่งปัจจุบันมีอยู่ประมาณ 200,000 ตัว และกำลังสร้าง Colossus II เพื่อรองรับการขยายตัว
ในขณะเดียวกัน Musk ก็เปิดโมเดล Grok 2.5 ให้เป็นโอเพ่นซอร์สผ่านแพลตฟอร์ม Hugging Face เพื่อให้ชุมชนนักพัฒนาเข้าถึงโค้ดและ weights ได้อย่างอิสระ โดยมีแผนจะเปิด Grok 3 ภายใน 6 เดือนข้างหน้า
เป้าหมายของ Musk คือการสร้างระบบ AI ที่ “แสวงหาความจริงสูงสุด” และสามารถแข่งขันกับบริษัทใหญ่อย่าง OpenAI, Meta และ Google ซึ่งต่างก็เร่งสะสม GPU และพัฒนาโมเดลของตัวเองเช่นกัน
แต่เบื้องหลังความทะเยอทะยานนี้ ก็มีคำถามตามมา: การใช้พลังงานมหาศาลในศูนย์ข้อมูลจะส่งผลต่อสิ่งแวดล้อมอย่างไร? และการเปิดโมเดลให้สาธารณะจะนำไปสู่การใช้งานในทางที่ไม่พึงประสงค์หรือไม่?
📌 สรุปเนื้อหาเป็นหัวข้อ
➡️ Elon Musk ตั้งเป้าให้ xAI ใช้ GPU เทียบเท่า H100 จำนวน 50 ล้านตัวภายใน 5 ปี
➡️ ปัจจุบัน xAI มี GPU ประมาณ 200,000 ตัวในศูนย์ข้อมูล Colossus ที่เมมฟิส
➡️ กำลังสร้าง Colossus II เพื่อขยายขีดความสามารถด้าน AI
➡️ Musk กล่าวว่าต้องการขยายไปถึง “พันล้าน GPU” ในอนาคต
➡️ Grok 2.5 ถูกเปิดให้เป็นโอเพ่นซอร์สผ่าน Hugging Face
➡️ Grok 3 จะเปิดโอเพ่นซอร์สภายใน 6 เดือน
➡️ Grok 4 ยังไม่เปิดให้สาธารณะใช้งาน และมีข้อถกเถียงเกี่ยวกับเนื้อหาภายใน
➡️ xAI ต้องการสร้าง AI ที่ “แสวงหาความจริงสูงสุด”
➡️ คู่แข่งอย่าง Meta และ OpenAI ก็มีแผนสะสม GPU หลายล้านตัวเช่นกัน
➡️ Meta กำลังสร้างศูนย์ข้อมูล Hyperion ที่ใช้พลังงานถึง 5GW เทียบเท่าฐานโหลดของ NYC
✅ ข้อมูลเสริมจากภายนอก
➡️ Nvidia H100 เป็น GPU ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีความสามารถในการประมวลผลสูงมาก
➡️ ราคาต่อหน่วยของ H100 อยู่ที่ประมาณ $30,000 ทำให้การสะสม GPU จำนวนมากเป็นการลงทุนมหาศาล
➡️ Hugging Face เป็นแพลตฟอร์มโอเพ่นซอร์สที่นิยมใช้ในวงการ AI สำหรับการแชร์โมเดลและ weights
➡️ การเปิดโมเดลให้สาธารณะสามารถช่วยให้เกิดการพัฒนาอย่างรวดเร็ว แต่ก็มีความเสี่ยงด้านความปลอดภัย
➡️ การแข่งขันด้าน AI ระหว่างบริษัทใหญ่กำลังผลักดันให้เกิดการพัฒนา hardware เฉพาะทาง เช่น ASIC และ custom chips
https://www.tomshardware.com/tech-industry/elon-musk-doubles-down-on-goal-of-50-million-h100-equivalent-gpus-in-the-next-5-years-envisions-billions-of-gpus-in-the-future-as-grok-2-5-goes-open-source
0 Comments
0 Shares
51 Views
0 Reviews