การสร้าง AI อย่าง ChatGPT หรือแผนที่ Google ต้องใช้ศูนย์ข้อมูลขนาดมหึมา ซึ่งกินไฟเท่ากับทั้งประเทศเบลเยียมหรือโปแลนด์รวมกัน! และในปี 2030 ตัวเลขนี้อาจ "เบิ้ล" ขึ้นไปอีก โดย 40% ของไฟที่ดาต้าเซ็นเตอร์ใช้...หมดไปกับ "แอร์"
Daniel Pope ผู้ก่อตั้งบริษัท Submer จึงเสนอวิธีสุดล้ำคือ “เอาเซิร์ฟเวอร์ทั้งก้อนจุ่มลงในของเหลวพิเศษ” ที่ไม่ติดไฟ ไม่นำไฟฟ้า และดูเหมือนเบบี้ออยล์ วิธีนี้ช่วยระบายความร้อนโดยตรงกับชิปได้ดีและใช้ไฟน้อยกว่าแอร์เย็นทั่วไป — ผลการศึกษาในเนเธอร์แลนด์พบว่า ลดพลังงานได้ถึง 50%
ระบบนี้เรียกว่า Immersion Cooling มีคนใช้แล้วใน 17 ประเทศ รายใหญ่ เช่น Intel, Dell และแม้แต่ Microsoft ก็เริ่มสนใจ ใช้กับชิป Maia 100 และพัฒนา “ห้องน้ำเซิร์ฟเวอร์” แบบจุ่มทั้งเครื่องอยู่ด้วย
แน่นอนว่าไม่ได้ง่าย เพราะของเหลวแบบนี้แพงกว่าระบบแอร์ประมาณ 25% ติดตั้งยาก ต้องดัดแปลงอาคารเดิม และยังไม่มีมาตรฐานอุตสาหกรรมชัดเจน แถมเวลาจะซ่อมเซิร์ฟเวอร์ก็ต้อง “ล้วงในน้ำ” แบบเปียก ๆ ด้วย
ดาต้าเซ็นเตอร์ใช้พลังงานมหาศาล — มากกว่าประเทศเบลเยียมทั้งประเทศ
• และกำลังจะเพิ่มขึ้น 2 เท่าภายในปี 2030
• 40% ของพลังงานในดาต้าเซ็นเตอร์ใช้กับระบบทำความเย็น
Immersion Cooling คือการจุ่มทั้ง rack ลงในของเหลวพิเศษที่ไม่ติดไฟและไม่เป็นสื่อไฟฟ้า
• ของเหลวจาก Submer ทำจากปิโตรเลียมหรือปาล์ม และสามารถย่อยสลายได้
• ลดการใช้ไฟได้ >10% และสูงสุดถึง 50% จากบางงานวิจัย
ประสิทธิภาพดีกว่าระบบแอร์: ระบายความร้อนตรงชิ้นส่วนโดยไม่ต้องเย็นทั้งห้อง
• รองรับเซิร์ฟเวอร์ยุคใหม่ที่ใช้ชิปแรง ๆ อย่าง NVIDIA B200 ที่กินไฟหนัก
ลดการใช้น้ำ — ดาต้าเซ็นเตอร์ทั่วไปใช้น้ำมากถึง 2 ล้านลิตร/วันในสหรัฐฯ
• Immersion cooling ไม่ต้องพึ่งน้ำหมุนเวียนจำนวนมาก
ใช้พื้นที่น้อยลง — ช่วยลด footprint ของดาต้าเซ็นเตอร์
• เหมาะกับเมืองที่มีข้อจำกัดด้านพลังงานหรือที่ดิน
Submer มีรายได้ทะลุ €150 ล้านในปี 2023 (โตจากแค่ €600K ในปี 2018)
• ลูกค้าใน 17 ประเทศ และคู่ค้าระดับโลกเช่น Intel, Dell
ต้นทุนสูง — ติดตั้งระบบ immersion cooling อาจแพงกว่าระบบแอร์ถึง 25%
• คุ้มเฉพาะในดาต้าเซ็นเตอร์ขนาดใหญ่ที่มีภาระความร้อนสูง
ต้องดัดแปลงอาคารเดิม — พื้นรองรับน้ำหนักของเหลว อาจไม่พร้อม
• ต้องลงทุนโครงสร้างพื้นฐานเพิ่มเติม
ยังไม่มีมาตรฐานกลางในอุตสาหกรรม
• ทำให้ต้องระวังเรื่องความเข้ากันกับเซิร์ฟเวอร์รุ่นใหม่ในอนาคต
การซ่อมบำรุงลำบาก — ต้อง “ล้วงของ” ใต้น้ำ เปลี่ยนชิ้นส่วนได้ยุ่งยากกว่าเดิม
• เสี่ยงความผิดพลาดและต้องใช้บุคลากรที่มีความชำนาญเฉพาะทาง
https://www.thestar.com.my/tech/tech-news/2025/06/19/submerging-servers-in-liquid-helps-data-centres-cut-energy-use
Daniel Pope ผู้ก่อตั้งบริษัท Submer จึงเสนอวิธีสุดล้ำคือ “เอาเซิร์ฟเวอร์ทั้งก้อนจุ่มลงในของเหลวพิเศษ” ที่ไม่ติดไฟ ไม่นำไฟฟ้า และดูเหมือนเบบี้ออยล์ วิธีนี้ช่วยระบายความร้อนโดยตรงกับชิปได้ดีและใช้ไฟน้อยกว่าแอร์เย็นทั่วไป — ผลการศึกษาในเนเธอร์แลนด์พบว่า ลดพลังงานได้ถึง 50%
ระบบนี้เรียกว่า Immersion Cooling มีคนใช้แล้วใน 17 ประเทศ รายใหญ่ เช่น Intel, Dell และแม้แต่ Microsoft ก็เริ่มสนใจ ใช้กับชิป Maia 100 และพัฒนา “ห้องน้ำเซิร์ฟเวอร์” แบบจุ่มทั้งเครื่องอยู่ด้วย
แน่นอนว่าไม่ได้ง่าย เพราะของเหลวแบบนี้แพงกว่าระบบแอร์ประมาณ 25% ติดตั้งยาก ต้องดัดแปลงอาคารเดิม และยังไม่มีมาตรฐานอุตสาหกรรมชัดเจน แถมเวลาจะซ่อมเซิร์ฟเวอร์ก็ต้อง “ล้วงในน้ำ” แบบเปียก ๆ ด้วย
ดาต้าเซ็นเตอร์ใช้พลังงานมหาศาล — มากกว่าประเทศเบลเยียมทั้งประเทศ
• และกำลังจะเพิ่มขึ้น 2 เท่าภายในปี 2030
• 40% ของพลังงานในดาต้าเซ็นเตอร์ใช้กับระบบทำความเย็น
Immersion Cooling คือการจุ่มทั้ง rack ลงในของเหลวพิเศษที่ไม่ติดไฟและไม่เป็นสื่อไฟฟ้า
• ของเหลวจาก Submer ทำจากปิโตรเลียมหรือปาล์ม และสามารถย่อยสลายได้
• ลดการใช้ไฟได้ >10% และสูงสุดถึง 50% จากบางงานวิจัย
ประสิทธิภาพดีกว่าระบบแอร์: ระบายความร้อนตรงชิ้นส่วนโดยไม่ต้องเย็นทั้งห้อง
• รองรับเซิร์ฟเวอร์ยุคใหม่ที่ใช้ชิปแรง ๆ อย่าง NVIDIA B200 ที่กินไฟหนัก
ลดการใช้น้ำ — ดาต้าเซ็นเตอร์ทั่วไปใช้น้ำมากถึง 2 ล้านลิตร/วันในสหรัฐฯ
• Immersion cooling ไม่ต้องพึ่งน้ำหมุนเวียนจำนวนมาก
ใช้พื้นที่น้อยลง — ช่วยลด footprint ของดาต้าเซ็นเตอร์
• เหมาะกับเมืองที่มีข้อจำกัดด้านพลังงานหรือที่ดิน
Submer มีรายได้ทะลุ €150 ล้านในปี 2023 (โตจากแค่ €600K ในปี 2018)
• ลูกค้าใน 17 ประเทศ และคู่ค้าระดับโลกเช่น Intel, Dell
ต้นทุนสูง — ติดตั้งระบบ immersion cooling อาจแพงกว่าระบบแอร์ถึง 25%
• คุ้มเฉพาะในดาต้าเซ็นเตอร์ขนาดใหญ่ที่มีภาระความร้อนสูง
ต้องดัดแปลงอาคารเดิม — พื้นรองรับน้ำหนักของเหลว อาจไม่พร้อม
• ต้องลงทุนโครงสร้างพื้นฐานเพิ่มเติม
ยังไม่มีมาตรฐานกลางในอุตสาหกรรม
• ทำให้ต้องระวังเรื่องความเข้ากันกับเซิร์ฟเวอร์รุ่นใหม่ในอนาคต
การซ่อมบำรุงลำบาก — ต้อง “ล้วงของ” ใต้น้ำ เปลี่ยนชิ้นส่วนได้ยุ่งยากกว่าเดิม
• เสี่ยงความผิดพลาดและต้องใช้บุคลากรที่มีความชำนาญเฉพาะทาง
https://www.thestar.com.my/tech/tech-news/2025/06/19/submerging-servers-in-liquid-helps-data-centres-cut-energy-use
การสร้าง AI อย่าง ChatGPT หรือแผนที่ Google ต้องใช้ศูนย์ข้อมูลขนาดมหึมา ซึ่งกินไฟเท่ากับทั้งประเทศเบลเยียมหรือโปแลนด์รวมกัน! และในปี 2030 ตัวเลขนี้อาจ "เบิ้ล" ขึ้นไปอีก โดย 40% ของไฟที่ดาต้าเซ็นเตอร์ใช้...หมดไปกับ "แอร์"
Daniel Pope ผู้ก่อตั้งบริษัท Submer จึงเสนอวิธีสุดล้ำคือ “เอาเซิร์ฟเวอร์ทั้งก้อนจุ่มลงในของเหลวพิเศษ” ที่ไม่ติดไฟ ไม่นำไฟฟ้า และดูเหมือนเบบี้ออยล์ วิธีนี้ช่วยระบายความร้อนโดยตรงกับชิปได้ดีและใช้ไฟน้อยกว่าแอร์เย็นทั่วไป — ผลการศึกษาในเนเธอร์แลนด์พบว่า ลดพลังงานได้ถึง 50%
ระบบนี้เรียกว่า Immersion Cooling มีคนใช้แล้วใน 17 ประเทศ รายใหญ่ เช่น Intel, Dell และแม้แต่ Microsoft ก็เริ่มสนใจ ใช้กับชิป Maia 100 และพัฒนา “ห้องน้ำเซิร์ฟเวอร์” แบบจุ่มทั้งเครื่องอยู่ด้วย
แน่นอนว่าไม่ได้ง่าย เพราะของเหลวแบบนี้แพงกว่าระบบแอร์ประมาณ 25% ติดตั้งยาก ต้องดัดแปลงอาคารเดิม และยังไม่มีมาตรฐานอุตสาหกรรมชัดเจน แถมเวลาจะซ่อมเซิร์ฟเวอร์ก็ต้อง “ล้วงในน้ำ” แบบเปียก ๆ ด้วย
✅ ดาต้าเซ็นเตอร์ใช้พลังงานมหาศาล — มากกว่าประเทศเบลเยียมทั้งประเทศ
• และกำลังจะเพิ่มขึ้น 2 เท่าภายในปี 2030
• 40% ของพลังงานในดาต้าเซ็นเตอร์ใช้กับระบบทำความเย็น
✅ Immersion Cooling คือการจุ่มทั้ง rack ลงในของเหลวพิเศษที่ไม่ติดไฟและไม่เป็นสื่อไฟฟ้า
• ของเหลวจาก Submer ทำจากปิโตรเลียมหรือปาล์ม และสามารถย่อยสลายได้
• ลดการใช้ไฟได้ >10% และสูงสุดถึง 50% จากบางงานวิจัย
✅ ประสิทธิภาพดีกว่าระบบแอร์: ระบายความร้อนตรงชิ้นส่วนโดยไม่ต้องเย็นทั้งห้อง
• รองรับเซิร์ฟเวอร์ยุคใหม่ที่ใช้ชิปแรง ๆ อย่าง NVIDIA B200 ที่กินไฟหนัก
✅ ลดการใช้น้ำ — ดาต้าเซ็นเตอร์ทั่วไปใช้น้ำมากถึง 2 ล้านลิตร/วันในสหรัฐฯ
• Immersion cooling ไม่ต้องพึ่งน้ำหมุนเวียนจำนวนมาก
✅ ใช้พื้นที่น้อยลง — ช่วยลด footprint ของดาต้าเซ็นเตอร์
• เหมาะกับเมืองที่มีข้อจำกัดด้านพลังงานหรือที่ดิน
✅ Submer มีรายได้ทะลุ €150 ล้านในปี 2023 (โตจากแค่ €600K ในปี 2018)
• ลูกค้าใน 17 ประเทศ และคู่ค้าระดับโลกเช่น Intel, Dell
‼️ ต้นทุนสูง — ติดตั้งระบบ immersion cooling อาจแพงกว่าระบบแอร์ถึง 25%
• คุ้มเฉพาะในดาต้าเซ็นเตอร์ขนาดใหญ่ที่มีภาระความร้อนสูง
‼️ ต้องดัดแปลงอาคารเดิม — พื้นรองรับน้ำหนักของเหลว อาจไม่พร้อม
• ต้องลงทุนโครงสร้างพื้นฐานเพิ่มเติม
‼️ ยังไม่มีมาตรฐานกลางในอุตสาหกรรม
• ทำให้ต้องระวังเรื่องความเข้ากันกับเซิร์ฟเวอร์รุ่นใหม่ในอนาคต
‼️ การซ่อมบำรุงลำบาก — ต้อง “ล้วงของ” ใต้น้ำ เปลี่ยนชิ้นส่วนได้ยุ่งยากกว่าเดิม
• เสี่ยงความผิดพลาดและต้องใช้บุคลากรที่มีความชำนาญเฉพาะทาง
https://www.thestar.com.my/tech/tech-news/2025/06/19/submerging-servers-in-liquid-helps-data-centres-cut-energy-use
0 Comments
0 Shares
190 Views
0 Reviews