“AI ดันศูนย์ข้อมูลสู่ยุค 1 เมกะวัตต์ต่อแร็ค — เมื่อพลังงานและความร้อนกลายเป็นศูนย์กลางของโครงสร้างดิจิทัล”
ในอดีต แร็คในศูนย์ข้อมูลเคยใช้พลังงานเพียงไม่กี่กิโลวัตต์ แต่ด้วยการเติบโตของงานประมวลผล AI ที่ต้องการพลังมหาศาล ข้อมูลล่าสุดจาก Lennox Data Centre Solutions ระบุว่า ภายในปี 2030 แร็คที่เน้นงาน AI อาจใช้พลังงานสูงถึง 1 เมกะวัตต์ต่อแร็ค ซึ่งเทียบเท่ากับการใช้พลังงานของศูนย์ข้อมูลทั้งแห่งในอดีต
แร็คทั่วไปจะขยับขึ้นไปอยู่ที่ 30–50 กิโลวัตต์ในช่วงเวลาเดียวกัน แต่แร็ค AI จะใช้พลังงานมากกว่าถึง 20–30 เท่า ทำให้ “การจ่ายไฟ” และ “การระบายความร้อน” กลายเป็นหัวใจของการออกแบบศูนย์ข้อมูลยุคใหม่
Ted Pulfer จาก Lennox ระบุว่า อุตสาหกรรมกำลังเปลี่ยนจากการใช้ไฟฟ้า AC แบบเดิม ไปสู่ระบบ DC แรงสูง เช่น +/-400V เพื่อลดการสูญเสียพลังงานและขนาดสายไฟ พร้อมทั้งใช้ระบบระบายความร้อนแบบ liquid cooling ที่ควบคุมโดย CDU (Coolant Distribution Unit) ซึ่งส่งน้ำหล่อเย็นไปยัง cold plate ที่ติดตั้งตรงจุดร้อนของเซิร์ฟเวอร์
Microsoft กำลังทดลองระบบ microfluidics ที่ฝังร่องเล็ก ๆ บนชิปเพื่อให้น้ำหล่อเย็นไหลผ่านโดยตรง ซึ่งช่วยลดอุณหภูมิ GPU ได้ถึง 65% และเพิ่มประสิทธิภาพการระบายความร้อนถึง 3 เท่า เมื่อรวมกับ AI ที่ช่วยตรวจจับจุดร้อนบนชิป ระบบนี้สามารถควบคุมการไหลของน้ำได้แม่นยำยิ่งขึ้น
แม้ hyperscaler อย่าง Google และ Microsoft จะเป็นผู้นำในด้านนี้ แต่ Ted เชื่อว่าผู้ให้บริการรายเล็กยังมีโอกาส เพราะความคล่องตัวและนวัตกรรมยังเป็นจุดแข็งที่สำคัญในตลาดที่เปลี่ยนแปลงเร็ว
ข้อมูลสำคัญจากข่าว
แร็ค AI อาจใช้พลังงานถึง 1 เมกะวัตต์ต่อแร็คภายในปี 2030
แร็คทั่วไปจะขยับขึ้นไปอยู่ที่ 30–50 กิโลวัตต์ในช่วงเดียวกัน
แร็ค AI ใช้พลังงานมากกว่ารุ่นทั่วไปถึง 20–30 เท่า
อุตสาหกรรมเปลี่ยนไปใช้ระบบไฟฟ้า DC แรงสูง เช่น +/-400V
ระบบระบายความร้อนแบบ liquid cooling ถูกควบคุมโดย CDU
Microsoft ทดลองระบบ microfluidics ที่ฝังร่องบนชิปเพื่อให้น้ำไหลผ่านโดยตรง
ระบบใหม่ช่วยลดอุณหภูมิ GPU ได้ถึง 65% และเพิ่มประสิทธิภาพการระบายความร้อนถึง 3 เท่า
AI ถูกนำมาใช้ร่วมกับระบบระบายความร้อนเพื่อควบคุมการไหลของน้ำอย่างแม่นยำ
ผู้ให้บริการรายเล็กยังมีโอกาสแข่งขันในตลาดผ่านความคล่องตัวและนวัตกรรม
ข้อมูลเสริมจากภายนอก
น้ำมีความสามารถในการนำความร้อนสูงกว่าอากาศถึง 30 เท่า และบรรจุพลังงานความร้อนได้มากกว่า 4,000 เท่า
Google ใช้ liquid cooling กับ TPU Pods มากกว่า 2,000 ชุด และมี uptime ถึง 99.999% ตลอด 7 ปี
การใช้ +/-400V DC ช่วยลดขนาดสายไฟและเพิ่มประสิทธิภาพการจ่ายไฟ
ระบบ AC-to-DC sidecar ช่วยแยกส่วนพลังงานออกจากแร็ค ทำให้พื้นที่ภายในแร็คใช้สำหรับ compute ได้เต็มที่
การออกแบบแร็คใหม่อาจเป็นตัวกำหนดอนาคตของโครงสร้างดิจิทัลทั้งหมด
https://www.techradar.com/pro/security/this-graph-alone-shows-how-global-ai-power-consumption-is-getting-out-of-hand-very-quickly-and-its-not-just-about-hyperscalers-or-openai
ในอดีต แร็คในศูนย์ข้อมูลเคยใช้พลังงานเพียงไม่กี่กิโลวัตต์ แต่ด้วยการเติบโตของงานประมวลผล AI ที่ต้องการพลังมหาศาล ข้อมูลล่าสุดจาก Lennox Data Centre Solutions ระบุว่า ภายในปี 2030 แร็คที่เน้นงาน AI อาจใช้พลังงานสูงถึง 1 เมกะวัตต์ต่อแร็ค ซึ่งเทียบเท่ากับการใช้พลังงานของศูนย์ข้อมูลทั้งแห่งในอดีต
แร็คทั่วไปจะขยับขึ้นไปอยู่ที่ 30–50 กิโลวัตต์ในช่วงเวลาเดียวกัน แต่แร็ค AI จะใช้พลังงานมากกว่าถึง 20–30 เท่า ทำให้ “การจ่ายไฟ” และ “การระบายความร้อน” กลายเป็นหัวใจของการออกแบบศูนย์ข้อมูลยุคใหม่
Ted Pulfer จาก Lennox ระบุว่า อุตสาหกรรมกำลังเปลี่ยนจากการใช้ไฟฟ้า AC แบบเดิม ไปสู่ระบบ DC แรงสูง เช่น +/-400V เพื่อลดการสูญเสียพลังงานและขนาดสายไฟ พร้อมทั้งใช้ระบบระบายความร้อนแบบ liquid cooling ที่ควบคุมโดย CDU (Coolant Distribution Unit) ซึ่งส่งน้ำหล่อเย็นไปยัง cold plate ที่ติดตั้งตรงจุดร้อนของเซิร์ฟเวอร์
Microsoft กำลังทดลองระบบ microfluidics ที่ฝังร่องเล็ก ๆ บนชิปเพื่อให้น้ำหล่อเย็นไหลผ่านโดยตรง ซึ่งช่วยลดอุณหภูมิ GPU ได้ถึง 65% และเพิ่มประสิทธิภาพการระบายความร้อนถึง 3 เท่า เมื่อรวมกับ AI ที่ช่วยตรวจจับจุดร้อนบนชิป ระบบนี้สามารถควบคุมการไหลของน้ำได้แม่นยำยิ่งขึ้น
แม้ hyperscaler อย่าง Google และ Microsoft จะเป็นผู้นำในด้านนี้ แต่ Ted เชื่อว่าผู้ให้บริการรายเล็กยังมีโอกาส เพราะความคล่องตัวและนวัตกรรมยังเป็นจุดแข็งที่สำคัญในตลาดที่เปลี่ยนแปลงเร็ว
ข้อมูลสำคัญจากข่าว
แร็ค AI อาจใช้พลังงานถึง 1 เมกะวัตต์ต่อแร็คภายในปี 2030
แร็คทั่วไปจะขยับขึ้นไปอยู่ที่ 30–50 กิโลวัตต์ในช่วงเดียวกัน
แร็ค AI ใช้พลังงานมากกว่ารุ่นทั่วไปถึง 20–30 เท่า
อุตสาหกรรมเปลี่ยนไปใช้ระบบไฟฟ้า DC แรงสูง เช่น +/-400V
ระบบระบายความร้อนแบบ liquid cooling ถูกควบคุมโดย CDU
Microsoft ทดลองระบบ microfluidics ที่ฝังร่องบนชิปเพื่อให้น้ำไหลผ่านโดยตรง
ระบบใหม่ช่วยลดอุณหภูมิ GPU ได้ถึง 65% และเพิ่มประสิทธิภาพการระบายความร้อนถึง 3 เท่า
AI ถูกนำมาใช้ร่วมกับระบบระบายความร้อนเพื่อควบคุมการไหลของน้ำอย่างแม่นยำ
ผู้ให้บริการรายเล็กยังมีโอกาสแข่งขันในตลาดผ่านความคล่องตัวและนวัตกรรม
ข้อมูลเสริมจากภายนอก
น้ำมีความสามารถในการนำความร้อนสูงกว่าอากาศถึง 30 เท่า และบรรจุพลังงานความร้อนได้มากกว่า 4,000 เท่า
Google ใช้ liquid cooling กับ TPU Pods มากกว่า 2,000 ชุด และมี uptime ถึง 99.999% ตลอด 7 ปี
การใช้ +/-400V DC ช่วยลดขนาดสายไฟและเพิ่มประสิทธิภาพการจ่ายไฟ
ระบบ AC-to-DC sidecar ช่วยแยกส่วนพลังงานออกจากแร็ค ทำให้พื้นที่ภายในแร็คใช้สำหรับ compute ได้เต็มที่
การออกแบบแร็คใหม่อาจเป็นตัวกำหนดอนาคตของโครงสร้างดิจิทัลทั้งหมด
https://www.techradar.com/pro/security/this-graph-alone-shows-how-global-ai-power-consumption-is-getting-out-of-hand-very-quickly-and-its-not-just-about-hyperscalers-or-openai
🔥 “AI ดันศูนย์ข้อมูลสู่ยุค 1 เมกะวัตต์ต่อแร็ค — เมื่อพลังงานและความร้อนกลายเป็นศูนย์กลางของโครงสร้างดิจิทัล”
ในอดีต แร็คในศูนย์ข้อมูลเคยใช้พลังงานเพียงไม่กี่กิโลวัตต์ แต่ด้วยการเติบโตของงานประมวลผล AI ที่ต้องการพลังมหาศาล ข้อมูลล่าสุดจาก Lennox Data Centre Solutions ระบุว่า ภายในปี 2030 แร็คที่เน้นงาน AI อาจใช้พลังงานสูงถึง 1 เมกะวัตต์ต่อแร็ค ซึ่งเทียบเท่ากับการใช้พลังงานของศูนย์ข้อมูลทั้งแห่งในอดีต
แร็คทั่วไปจะขยับขึ้นไปอยู่ที่ 30–50 กิโลวัตต์ในช่วงเวลาเดียวกัน แต่แร็ค AI จะใช้พลังงานมากกว่าถึง 20–30 เท่า ทำให้ “การจ่ายไฟ” และ “การระบายความร้อน” กลายเป็นหัวใจของการออกแบบศูนย์ข้อมูลยุคใหม่
Ted Pulfer จาก Lennox ระบุว่า อุตสาหกรรมกำลังเปลี่ยนจากการใช้ไฟฟ้า AC แบบเดิม ไปสู่ระบบ DC แรงสูง เช่น +/-400V เพื่อลดการสูญเสียพลังงานและขนาดสายไฟ พร้อมทั้งใช้ระบบระบายความร้อนแบบ liquid cooling ที่ควบคุมโดย CDU (Coolant Distribution Unit) ซึ่งส่งน้ำหล่อเย็นไปยัง cold plate ที่ติดตั้งตรงจุดร้อนของเซิร์ฟเวอร์
Microsoft กำลังทดลองระบบ microfluidics ที่ฝังร่องเล็ก ๆ บนชิปเพื่อให้น้ำหล่อเย็นไหลผ่านโดยตรง ซึ่งช่วยลดอุณหภูมิ GPU ได้ถึง 65% และเพิ่มประสิทธิภาพการระบายความร้อนถึง 3 เท่า เมื่อรวมกับ AI ที่ช่วยตรวจจับจุดร้อนบนชิป ระบบนี้สามารถควบคุมการไหลของน้ำได้แม่นยำยิ่งขึ้น
แม้ hyperscaler อย่าง Google และ Microsoft จะเป็นผู้นำในด้านนี้ แต่ Ted เชื่อว่าผู้ให้บริการรายเล็กยังมีโอกาส เพราะความคล่องตัวและนวัตกรรมยังเป็นจุดแข็งที่สำคัญในตลาดที่เปลี่ยนแปลงเร็ว
✅ ข้อมูลสำคัญจากข่าว
➡️ แร็ค AI อาจใช้พลังงานถึง 1 เมกะวัตต์ต่อแร็คภายในปี 2030
➡️ แร็คทั่วไปจะขยับขึ้นไปอยู่ที่ 30–50 กิโลวัตต์ในช่วงเดียวกัน
➡️ แร็ค AI ใช้พลังงานมากกว่ารุ่นทั่วไปถึง 20–30 เท่า
➡️ อุตสาหกรรมเปลี่ยนไปใช้ระบบไฟฟ้า DC แรงสูง เช่น +/-400V
➡️ ระบบระบายความร้อนแบบ liquid cooling ถูกควบคุมโดย CDU
➡️ Microsoft ทดลองระบบ microfluidics ที่ฝังร่องบนชิปเพื่อให้น้ำไหลผ่านโดยตรง
➡️ ระบบใหม่ช่วยลดอุณหภูมิ GPU ได้ถึง 65% และเพิ่มประสิทธิภาพการระบายความร้อนถึง 3 เท่า
➡️ AI ถูกนำมาใช้ร่วมกับระบบระบายความร้อนเพื่อควบคุมการไหลของน้ำอย่างแม่นยำ
➡️ ผู้ให้บริการรายเล็กยังมีโอกาสแข่งขันในตลาดผ่านความคล่องตัวและนวัตกรรม
✅ ข้อมูลเสริมจากภายนอก
➡️ น้ำมีความสามารถในการนำความร้อนสูงกว่าอากาศถึง 30 เท่า และบรรจุพลังงานความร้อนได้มากกว่า 4,000 เท่า
➡️ Google ใช้ liquid cooling กับ TPU Pods มากกว่า 2,000 ชุด และมี uptime ถึง 99.999% ตลอด 7 ปี
➡️ การใช้ +/-400V DC ช่วยลดขนาดสายไฟและเพิ่มประสิทธิภาพการจ่ายไฟ
➡️ ระบบ AC-to-DC sidecar ช่วยแยกส่วนพลังงานออกจากแร็ค ทำให้พื้นที่ภายในแร็คใช้สำหรับ compute ได้เต็มที่
➡️ การออกแบบแร็คใหม่อาจเป็นตัวกำหนดอนาคตของโครงสร้างดิจิทัลทั้งหมด
https://www.techradar.com/pro/security/this-graph-alone-shows-how-global-ai-power-consumption-is-getting-out-of-hand-very-quickly-and-its-not-just-about-hyperscalers-or-openai
0 Comments
0 Shares
145 Views
0 Reviews