“AI ดันศูนย์ข้อมูลสู่ยุค 1 เมกะวัตต์ต่อแร็ค — เมื่อพลังงานและความร้อนกลายเป็นศูนย์กลางของโครงสร้างดิจิทัล”

ในอดีต แร็คในศูนย์ข้อมูลเคยใช้พลังงานเพียงไม่กี่กิโลวัตต์ แต่ด้วยการเติบโตของงานประมวลผล AI ที่ต้องการพลังมหาศาล ข้อมูลล่าสุดจาก Lennox Data Centre Solutions ระบุว่า ภายในปี 2030 แร็คที่เน้นงาน AI อาจใช้พลังงานสูงถึง 1 เมกะวัตต์ต่อแร็ค ซึ่งเทียบเท่ากับการใช้พลังงานของศูนย์ข้อมูลทั้งแห่งในอดีต

แร็คทั่วไปจะขยับขึ้นไปอยู่ที่ 30–50 กิโลวัตต์ในช่วงเวลาเดียวกัน แต่แร็ค AI จะใช้พลังงานมากกว่าถึง 20–30 เท่า ทำให้ “การจ่ายไฟ” และ “การระบายความร้อน” กลายเป็นหัวใจของการออกแบบศูนย์ข้อมูลยุคใหม่

Ted Pulfer จาก Lennox ระบุว่า อุตสาหกรรมกำลังเปลี่ยนจากการใช้ไฟฟ้า AC แบบเดิม ไปสู่ระบบ DC แรงสูง เช่น +/-400V เพื่อลดการสูญเสียพลังงานและขนาดสายไฟ พร้อมทั้งใช้ระบบระบายความร้อนแบบ liquid cooling ที่ควบคุมโดย CDU (Coolant Distribution Unit) ซึ่งส่งน้ำหล่อเย็นไปยัง cold plate ที่ติดตั้งตรงจุดร้อนของเซิร์ฟเวอร์

Microsoft กำลังทดลองระบบ microfluidics ที่ฝังร่องเล็ก ๆ บนชิปเพื่อให้น้ำหล่อเย็นไหลผ่านโดยตรง ซึ่งช่วยลดอุณหภูมิ GPU ได้ถึง 65% และเพิ่มประสิทธิภาพการระบายความร้อนถึง 3 เท่า เมื่อรวมกับ AI ที่ช่วยตรวจจับจุดร้อนบนชิป ระบบนี้สามารถควบคุมการไหลของน้ำได้แม่นยำยิ่งขึ้น

แม้ hyperscaler อย่าง Google และ Microsoft จะเป็นผู้นำในด้านนี้ แต่ Ted เชื่อว่าผู้ให้บริการรายเล็กยังมีโอกาส เพราะความคล่องตัวและนวัตกรรมยังเป็นจุดแข็งที่สำคัญในตลาดที่เปลี่ยนแปลงเร็ว

ข้อมูลสำคัญจากข่าว
แร็ค AI อาจใช้พลังงานถึง 1 เมกะวัตต์ต่อแร็คภายในปี 2030
แร็คทั่วไปจะขยับขึ้นไปอยู่ที่ 30–50 กิโลวัตต์ในช่วงเดียวกัน
แร็ค AI ใช้พลังงานมากกว่ารุ่นทั่วไปถึง 20–30 เท่า
อุตสาหกรรมเปลี่ยนไปใช้ระบบไฟฟ้า DC แรงสูง เช่น +/-400V
ระบบระบายความร้อนแบบ liquid cooling ถูกควบคุมโดย CDU
Microsoft ทดลองระบบ microfluidics ที่ฝังร่องบนชิปเพื่อให้น้ำไหลผ่านโดยตรง
ระบบใหม่ช่วยลดอุณหภูมิ GPU ได้ถึง 65% และเพิ่มประสิทธิภาพการระบายความร้อนถึง 3 เท่า
AI ถูกนำมาใช้ร่วมกับระบบระบายความร้อนเพื่อควบคุมการไหลของน้ำอย่างแม่นยำ
ผู้ให้บริการรายเล็กยังมีโอกาสแข่งขันในตลาดผ่านความคล่องตัวและนวัตกรรม

ข้อมูลเสริมจากภายนอก
น้ำมีความสามารถในการนำความร้อนสูงกว่าอากาศถึง 30 เท่า และบรรจุพลังงานความร้อนได้มากกว่า 4,000 เท่า
Google ใช้ liquid cooling กับ TPU Pods มากกว่า 2,000 ชุด และมี uptime ถึง 99.999% ตลอด 7 ปี
การใช้ +/-400V DC ช่วยลดขนาดสายไฟและเพิ่มประสิทธิภาพการจ่ายไฟ
ระบบ AC-to-DC sidecar ช่วยแยกส่วนพลังงานออกจากแร็ค ทำให้พื้นที่ภายในแร็คใช้สำหรับ compute ได้เต็มที่
การออกแบบแร็คใหม่อาจเป็นตัวกำหนดอนาคตของโครงสร้างดิจิทัลทั้งหมด

https://www.techradar.com/pro/security/this-graph-alone-shows-how-global-ai-power-consumption-is-getting-out-of-hand-very-quickly-and-its-not-just-about-hyperscalers-or-openai
🔥 “AI ดันศูนย์ข้อมูลสู่ยุค 1 เมกะวัตต์ต่อแร็ค — เมื่อพลังงานและความร้อนกลายเป็นศูนย์กลางของโครงสร้างดิจิทัล” ในอดีต แร็คในศูนย์ข้อมูลเคยใช้พลังงานเพียงไม่กี่กิโลวัตต์ แต่ด้วยการเติบโตของงานประมวลผล AI ที่ต้องการพลังมหาศาล ข้อมูลล่าสุดจาก Lennox Data Centre Solutions ระบุว่า ภายในปี 2030 แร็คที่เน้นงาน AI อาจใช้พลังงานสูงถึง 1 เมกะวัตต์ต่อแร็ค ซึ่งเทียบเท่ากับการใช้พลังงานของศูนย์ข้อมูลทั้งแห่งในอดีต แร็คทั่วไปจะขยับขึ้นไปอยู่ที่ 30–50 กิโลวัตต์ในช่วงเวลาเดียวกัน แต่แร็ค AI จะใช้พลังงานมากกว่าถึง 20–30 เท่า ทำให้ “การจ่ายไฟ” และ “การระบายความร้อน” กลายเป็นหัวใจของการออกแบบศูนย์ข้อมูลยุคใหม่ Ted Pulfer จาก Lennox ระบุว่า อุตสาหกรรมกำลังเปลี่ยนจากการใช้ไฟฟ้า AC แบบเดิม ไปสู่ระบบ DC แรงสูง เช่น +/-400V เพื่อลดการสูญเสียพลังงานและขนาดสายไฟ พร้อมทั้งใช้ระบบระบายความร้อนแบบ liquid cooling ที่ควบคุมโดย CDU (Coolant Distribution Unit) ซึ่งส่งน้ำหล่อเย็นไปยัง cold plate ที่ติดตั้งตรงจุดร้อนของเซิร์ฟเวอร์ Microsoft กำลังทดลองระบบ microfluidics ที่ฝังร่องเล็ก ๆ บนชิปเพื่อให้น้ำหล่อเย็นไหลผ่านโดยตรง ซึ่งช่วยลดอุณหภูมิ GPU ได้ถึง 65% และเพิ่มประสิทธิภาพการระบายความร้อนถึง 3 เท่า เมื่อรวมกับ AI ที่ช่วยตรวจจับจุดร้อนบนชิป ระบบนี้สามารถควบคุมการไหลของน้ำได้แม่นยำยิ่งขึ้น แม้ hyperscaler อย่าง Google และ Microsoft จะเป็นผู้นำในด้านนี้ แต่ Ted เชื่อว่าผู้ให้บริการรายเล็กยังมีโอกาส เพราะความคล่องตัวและนวัตกรรมยังเป็นจุดแข็งที่สำคัญในตลาดที่เปลี่ยนแปลงเร็ว ✅ ข้อมูลสำคัญจากข่าว ➡️ แร็ค AI อาจใช้พลังงานถึง 1 เมกะวัตต์ต่อแร็คภายในปี 2030 ➡️ แร็คทั่วไปจะขยับขึ้นไปอยู่ที่ 30–50 กิโลวัตต์ในช่วงเดียวกัน ➡️ แร็ค AI ใช้พลังงานมากกว่ารุ่นทั่วไปถึง 20–30 เท่า ➡️ อุตสาหกรรมเปลี่ยนไปใช้ระบบไฟฟ้า DC แรงสูง เช่น +/-400V ➡️ ระบบระบายความร้อนแบบ liquid cooling ถูกควบคุมโดย CDU ➡️ Microsoft ทดลองระบบ microfluidics ที่ฝังร่องบนชิปเพื่อให้น้ำไหลผ่านโดยตรง ➡️ ระบบใหม่ช่วยลดอุณหภูมิ GPU ได้ถึง 65% และเพิ่มประสิทธิภาพการระบายความร้อนถึง 3 เท่า ➡️ AI ถูกนำมาใช้ร่วมกับระบบระบายความร้อนเพื่อควบคุมการไหลของน้ำอย่างแม่นยำ ➡️ ผู้ให้บริการรายเล็กยังมีโอกาสแข่งขันในตลาดผ่านความคล่องตัวและนวัตกรรม ✅ ข้อมูลเสริมจากภายนอก ➡️ น้ำมีความสามารถในการนำความร้อนสูงกว่าอากาศถึง 30 เท่า และบรรจุพลังงานความร้อนได้มากกว่า 4,000 เท่า ➡️ Google ใช้ liquid cooling กับ TPU Pods มากกว่า 2,000 ชุด และมี uptime ถึง 99.999% ตลอด 7 ปี ➡️ การใช้ +/-400V DC ช่วยลดขนาดสายไฟและเพิ่มประสิทธิภาพการจ่ายไฟ ➡️ ระบบ AC-to-DC sidecar ช่วยแยกส่วนพลังงานออกจากแร็ค ทำให้พื้นที่ภายในแร็คใช้สำหรับ compute ได้เต็มที่ ➡️ การออกแบบแร็คใหม่อาจเป็นตัวกำหนดอนาคตของโครงสร้างดิจิทัลทั้งหมด https://www.techradar.com/pro/security/this-graph-alone-shows-how-global-ai-power-consumption-is-getting-out-of-hand-very-quickly-and-its-not-just-about-hyperscalers-or-openai
WWW.TECHRADAR.COM
Projections show AI racks may consume 20 to 30 times the energy of traditional racks by 2030
AI racks could consume 20 to 30 times the energy of traditional racks by 2030
0 ความคิดเห็น 0 การแบ่งปัน 145 มุมมอง 0 รีวิว