“Google เปิดตัว Axion CPU และ Ironwood TPU รุ่น 7 – สร้าง ‘AI Hypercomputer’ ล้ำหน้า Nvidia GB300!”
เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด
Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล
ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps
ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ
บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่
Google เปิดตัว Ironwood TPU รุ่นที่ 7
พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป
รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS
ใช้ Optical Circuit Switching เพื่อความเสถียร
หน่วยความจำรวม 1.77 PB แบบ HBM3E
เปิดตัว Axion CPU ที่ออกแบบเอง
ใช้สถาปัตยกรรม Arm Neoverse V2
ประสิทธิภาพสูงกว่าชิป x86 ถึง 50%
มีรุ่น C4A, N4A และ C4A Metal ให้เลือก
รองรับ DDR5-5600 MT/s และ UMA
สร้างแพลตฟอร์ม “AI Hypercomputer”
รวม compute, storage และ networking ภายใต้ระบบเดียว
รองรับการฝึกและให้บริการโมเดลขนาดใหญ่
ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย
บริษัทชั้นนำเริ่มใช้งานแล้ว
Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude
Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2
ความท้าทายด้านการพัฒนา AI ขนาดใหญ่
ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล
ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง
ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ
หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่
ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI
https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด
Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล
ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps
ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ
บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่
Google เปิดตัว Ironwood TPU รุ่นที่ 7
พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป
รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS
ใช้ Optical Circuit Switching เพื่อความเสถียร
หน่วยความจำรวม 1.77 PB แบบ HBM3E
เปิดตัว Axion CPU ที่ออกแบบเอง
ใช้สถาปัตยกรรม Arm Neoverse V2
ประสิทธิภาพสูงกว่าชิป x86 ถึง 50%
มีรุ่น C4A, N4A และ C4A Metal ให้เลือก
รองรับ DDR5-5600 MT/s และ UMA
สร้างแพลตฟอร์ม “AI Hypercomputer”
รวม compute, storage และ networking ภายใต้ระบบเดียว
รองรับการฝึกและให้บริการโมเดลขนาดใหญ่
ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย
บริษัทชั้นนำเริ่มใช้งานแล้ว
Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude
Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2
ความท้าทายด้านการพัฒนา AI ขนาดใหญ่
ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล
ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง
ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ
หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่
ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI
https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
🧠 “Google เปิดตัว Axion CPU และ Ironwood TPU รุ่น 7 – สร้าง ‘AI Hypercomputer’ ล้ำหน้า Nvidia GB300!”
เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด
Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล
ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps
ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ
บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่
✅ Google เปิดตัว Ironwood TPU รุ่นที่ 7
➡️ พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป
➡️ รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS
➡️ ใช้ Optical Circuit Switching เพื่อความเสถียร
➡️ หน่วยความจำรวม 1.77 PB แบบ HBM3E
✅ เปิดตัว Axion CPU ที่ออกแบบเอง
➡️ ใช้สถาปัตยกรรม Arm Neoverse V2
➡️ ประสิทธิภาพสูงกว่าชิป x86 ถึง 50%
➡️ มีรุ่น C4A, N4A และ C4A Metal ให้เลือก
➡️ รองรับ DDR5-5600 MT/s และ UMA
✅ สร้างแพลตฟอร์ม “AI Hypercomputer”
➡️ รวม compute, storage และ networking ภายใต้ระบบเดียว
➡️ รองรับการฝึกและให้บริการโมเดลขนาดใหญ่
➡️ ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย
✅ บริษัทชั้นนำเริ่มใช้งานแล้ว
➡️ Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude
➡️ Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2
‼️ ความท้าทายด้านการพัฒนา AI ขนาดใหญ่
⛔ ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล
⛔ ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง
‼️ ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ
⛔ หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่
⛔ ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI
https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
0 Comments
0 Shares
20 Views
0 Reviews