“Solidigm เปิดตัวคลัสเตอร์ SSD ขนาด 23.6PB ในพื้นที่แค่ 16U — ปลดล็อกศักยภาพ AI ด้วยความหนาแน่นระดับใหม่”

Solidigm บริษัทในเครือ SK hynix ที่เชี่ยวชาญด้านการจัดเก็บข้อมูลระดับองค์กร ได้เปิดตัว AI Central Lab ที่เมือง Rancho Cordova รัฐแคลิฟอร์เนีย ซึ่งเป็นศูนย์ทดสอบระบบจัดเก็บข้อมูลที่มีความหนาแน่นสูงที่สุดเท่าที่เคยมีมา โดยใช้ SSD ขนาด 122TB จำนวน 192 ตัว รวมเป็นคลัสเตอร์ขนาด 23.6PB ในพื้นที่เพียง 16U ของแร็คเซิร์ฟเวอร์

คลัสเตอร์นี้ใช้ SSD รุ่น D5-P5336 สำหรับความจุ และ D7-PS1010 สำหรับความเร็ว โดยสามารถทำ throughput ได้สูงถึง 116GB/s ต่อ node ในการทดสอบ MLPerf Storage ซึ่งเป็นมาตรฐานสำหรับงานฝึกโมเดล AI แม้จะเป็นการทดสอบแบบ synthetic แต่ก็แสดงให้เห็นถึงศักยภาพของระบบในการรองรับงาน AI ที่ต้องการความเร็วในการเข้าถึงข้อมูลสูงมาก

AI Central Lab ยังใช้ GPU ระดับสูงอย่าง NVIDIA B200 และ H200 พร้อมระบบเครือข่าย Ethernet 800Gbps เพื่อจำลองสภาพแวดล้อมของศูนย์ข้อมูลยุคใหม่ โดยมีเป้าหมายเพื่อศึกษาว่า “การจัดเก็บข้อมูลใกล้ GPU” จะช่วยเพิ่มประสิทธิภาพของ AI ได้มากแค่ไหน

หนึ่งในความร่วมมือที่น่าสนใจคือกับ Metrum AI ซึ่งพัฒนาเทคนิคการ offload ข้อมูลจาก DRAM ไปยัง SSD เพื่อลดการใช้หน่วยความจำลงถึง 57% ในงาน inference แบบ RAG (Retrieval-Augmented Generation) ซึ่งเป็นเทคนิคที่นิยมในงาน AI สมัยใหม่

Solidigm ระบุว่า AI Central Lab ไม่ใช่แค่พื้นที่ทดสอบ แต่เป็นเวทีสำหรับนวัตกรรมร่วมกับนักพัฒนาและพันธมิตร เพื่อสร้างระบบที่มีประสิทธิภาพสูงสุดในด้านพลังงาน ความเร็ว และต้นทุนต่อ token

ข้อมูลสำคัญจากข่าว
Solidigm เปิดตัว AI Central Lab ที่ Rancho Cordova, California
ใช้ SSD D5-P5336 ขนาด 122TB จำนวน 192 ตัว รวมเป็น 23.6PB ในพื้นที่ 16U
ใช้ SSD D7-PS1010 สำหรับความเร็ว throughput สูงสุด 116GB/s ต่อ node
ใช้ GPU NVIDIA B200 และ H200 พร้อมเครือข่าย Ethernet 800Gbps
ทดสอบงาน AI จริง เช่น training, inference, KV cache offload และ VectorDB tuning
ร่วมมือกับ Metrum AI เพื่อลดการใช้ DRAM ลง 57% ด้วยการ offload ไปยัง SSD
ศูนย์นี้ช่วยแปลงสเปก SSD ให้เป็น metric ที่ใช้ในอุตสาหกรรม เช่น tokens per watt
Solidigm เป็นบริษัทในเครือ SK hynix ที่เน้นโซลูชันจัดเก็บข้อมูลระดับองค์กร

ข้อมูลเสริมจากภายนอก
SSD ขนาดใหญ่ช่วยลด latency และเพิ่ม throughput ในงาน AI ที่ใช้ GPU หนัก
MLPerf Storage เป็น benchmark ที่ใช้วัดประสิทธิภาพการจัดเก็บข้อมูลในงาน AI
RAG เป็นเทคนิคที่ใช้ข้อมูลภายนอกมาช่วยตอบคำถามในโมเดล AI
การจัดเก็บข้อมูลใกล้ GPU ช่วยลด bottleneck และเพิ่ม utilization ของ accelerator
การใช้ SSD แทน DRAM ช่วยลดต้นทุนและพลังงานในระบบขนาดใหญ่

https://www.techradar.com/pro/solidigm-packed-usd2-7-million-worth-of-ssds-into-the-biggest-storage-cluster-ive-ever-seen-nearly-200-192tb-ssds-used-to-build-a-23-6pb-cluster-in-16u-rackspace
📦 “Solidigm เปิดตัวคลัสเตอร์ SSD ขนาด 23.6PB ในพื้นที่แค่ 16U — ปลดล็อกศักยภาพ AI ด้วยความหนาแน่นระดับใหม่” Solidigm บริษัทในเครือ SK hynix ที่เชี่ยวชาญด้านการจัดเก็บข้อมูลระดับองค์กร ได้เปิดตัว AI Central Lab ที่เมือง Rancho Cordova รัฐแคลิฟอร์เนีย ซึ่งเป็นศูนย์ทดสอบระบบจัดเก็บข้อมูลที่มีความหนาแน่นสูงที่สุดเท่าที่เคยมีมา โดยใช้ SSD ขนาด 122TB จำนวน 192 ตัว รวมเป็นคลัสเตอร์ขนาด 23.6PB ในพื้นที่เพียง 16U ของแร็คเซิร์ฟเวอร์ คลัสเตอร์นี้ใช้ SSD รุ่น D5-P5336 สำหรับความจุ และ D7-PS1010 สำหรับความเร็ว โดยสามารถทำ throughput ได้สูงถึง 116GB/s ต่อ node ในการทดสอบ MLPerf Storage ซึ่งเป็นมาตรฐานสำหรับงานฝึกโมเดล AI แม้จะเป็นการทดสอบแบบ synthetic แต่ก็แสดงให้เห็นถึงศักยภาพของระบบในการรองรับงาน AI ที่ต้องการความเร็วในการเข้าถึงข้อมูลสูงมาก AI Central Lab ยังใช้ GPU ระดับสูงอย่าง NVIDIA B200 และ H200 พร้อมระบบเครือข่าย Ethernet 800Gbps เพื่อจำลองสภาพแวดล้อมของศูนย์ข้อมูลยุคใหม่ โดยมีเป้าหมายเพื่อศึกษาว่า “การจัดเก็บข้อมูลใกล้ GPU” จะช่วยเพิ่มประสิทธิภาพของ AI ได้มากแค่ไหน หนึ่งในความร่วมมือที่น่าสนใจคือกับ Metrum AI ซึ่งพัฒนาเทคนิคการ offload ข้อมูลจาก DRAM ไปยัง SSD เพื่อลดการใช้หน่วยความจำลงถึง 57% ในงาน inference แบบ RAG (Retrieval-Augmented Generation) ซึ่งเป็นเทคนิคที่นิยมในงาน AI สมัยใหม่ Solidigm ระบุว่า AI Central Lab ไม่ใช่แค่พื้นที่ทดสอบ แต่เป็นเวทีสำหรับนวัตกรรมร่วมกับนักพัฒนาและพันธมิตร เพื่อสร้างระบบที่มีประสิทธิภาพสูงสุดในด้านพลังงาน ความเร็ว และต้นทุนต่อ token ✅ ข้อมูลสำคัญจากข่าว ➡️ Solidigm เปิดตัว AI Central Lab ที่ Rancho Cordova, California ➡️ ใช้ SSD D5-P5336 ขนาด 122TB จำนวน 192 ตัว รวมเป็น 23.6PB ในพื้นที่ 16U ➡️ ใช้ SSD D7-PS1010 สำหรับความเร็ว throughput สูงสุด 116GB/s ต่อ node ➡️ ใช้ GPU NVIDIA B200 และ H200 พร้อมเครือข่าย Ethernet 800Gbps ➡️ ทดสอบงาน AI จริง เช่น training, inference, KV cache offload และ VectorDB tuning ➡️ ร่วมมือกับ Metrum AI เพื่อลดการใช้ DRAM ลง 57% ด้วยการ offload ไปยัง SSD ➡️ ศูนย์นี้ช่วยแปลงสเปก SSD ให้เป็น metric ที่ใช้ในอุตสาหกรรม เช่น tokens per watt ➡️ Solidigm เป็นบริษัทในเครือ SK hynix ที่เน้นโซลูชันจัดเก็บข้อมูลระดับองค์กร ✅ ข้อมูลเสริมจากภายนอก ➡️ SSD ขนาดใหญ่ช่วยลด latency และเพิ่ม throughput ในงาน AI ที่ใช้ GPU หนัก ➡️ MLPerf Storage เป็น benchmark ที่ใช้วัดประสิทธิภาพการจัดเก็บข้อมูลในงาน AI ➡️ RAG เป็นเทคนิคที่ใช้ข้อมูลภายนอกมาช่วยตอบคำถามในโมเดล AI ➡️ การจัดเก็บข้อมูลใกล้ GPU ช่วยลด bottleneck และเพิ่ม utilization ของ accelerator ➡️ การใช้ SSD แทน DRAM ช่วยลดต้นทุนและพลังงานในระบบขนาดใหญ่ https://www.techradar.com/pro/solidigm-packed-usd2-7-million-worth-of-ssds-into-the-biggest-storage-cluster-ive-ever-seen-nearly-200-192tb-ssds-used-to-build-a-23-6pb-cluster-in-16u-rackspace
WWW.TECHRADAR.COM
Solidigm unveils dense cluster pushing storage limits
Performance tests remain synthetic, raising doubts about real workloads
0 Comments 0 Shares 48 Views 0 Reviews