เมื่อแฟลชเมมโมรีกลายเป็นหน่วยความจำใกล้ GPU – ก้าวใหม่ของ Kioxia สู่ยุค AI

ลองจินตนาการว่า SSD ที่คุณรู้จักไม่ใช่แค่ที่เก็บข้อมูลอีกต่อไป แต่กลายเป็นหน่วยความจำที่อยู่ใกล้ GPU มากพอที่จะช่วยประมวลผลโมเดล AI ขนาดมหึมาได้แบบทันทีทันใด นั่นคือสิ่งที่ Kioxia กำลังทำอยู่กับโมดูลต้นแบบ High Bandwidth Flash (HBF) ขนาด 5TB ที่มีแบนด์วิดธ์สูงถึง 64 GB/s

ต่างจาก HBM (High Bandwidth Memory) ที่ใช้ DRAM เป็นหลัก HBF ใช้ NAND flash ซึ่งมีความจุมากกว่า 8–16 เท่า และยังคงข้อมูลได้ถาวร ทำให้เหมาะกับงาน AI ที่ต้องเข้าถึงข้อมูลขนาดใหญ่แบบต่อเนื่อง โดยใช้พลังงานน้อยลง

โมดูลนี้เชื่อมต่อผ่าน PCIe 6.0 ซึ่งมีแบนด์วิดธ์รวมถึง 128 GB/s แบบ bidirectional โดยใช้เทคนิค PAM4 เพื่อเพิ่มความเร็วการส่งข้อมูล และลดปัญหาการรบกวนสัญญาณด้วยการจัดวาง controller แบบ daisy-chain ข้าง NAND โดยตรง

แม้จะมีข้อจำกัดเรื่อง latency เพราะ NAND ยังช้ากว่า DRAM หลายเท่า แต่ Kioxia ใช้เทคนิค prefetching และ caching เพื่อให้การเข้าถึงข้อมูลต่อเนื่องเร็วขึ้นพอสำหรับงาน AI อย่างการวิเคราะห์กราฟขนาดใหญ่หรือ checkpoint โมเดล

ที่น่าสนใจคือ โมดูลนี้ใช้พลังงานต่ำกว่า 40W ซึ่งมีประสิทธิภาพต่อวัตต์สูงกว่าระบบ SSD แบบเดิมมาก และสามารถขยายระบบได้แบบ linear โดยไม่กินแบนด์วิดธ์เพิ่ม ทำให้สามารถสร้างระบบที่มี 80TB และแบนด์วิดธ์รวมกว่า 1TB/s ได้ในอนาคต

นี่ไม่ใช่แค่การทดลอง แต่เป็นส่วนหนึ่งของโครงการวิจัยระดับชาติของญี่ปุ่น (NEDO) เพื่อรองรับยุค post-5G/6G และการประมวลผล AI ที่ขยายตัวอย่างรวดเร็วใน MEC (Mobile Edge Computing)

สรุปเนื้อหาเป็นหัวข้อ
Kioxia เปิดตัวโมดูลแฟลช HBF ขนาด 5TB ความเร็ว 64 GB/s
ใช้ NAND flash แทน DRAM เพื่อเพิ่มความจุ 8–16 เท่า
เชื่อมต่อผ่าน PCIe 6.0 พร้อม PAM4 signaling ความเร็ว 128 Gbps ต่อ link
ใช้ controller แบบ daisy-chain ลดปัญหาคอขวดและสัญญาณรบกวน
latency สูงกว่า DRAM แต่แก้ด้วย prefetching และ caching
ใช้พลังงานต่ำกว่า 40W ต่อโมดูล มีประสิทธิภาพต่อวัตต์สูง
ขยายระบบได้แบบ linear โดยไม่กินแบนด์วิดธ์เพิ่ม
รองรับการใช้งานใน MEC, AI checkpoint, Big Data และ IoT
เป็นส่วนหนึ่งของโครงการวิจัย NEDO เพื่อรองรับ post-5G/6G
โมดูลยังอยู่ในขั้นต้นแบบ แต่มี roadmap สำหรับการใช้งานจริงในอนาคต

ข้อมูลเสริมจากภายนอก
PCIe 6.0 มีแบนด์วิดธ์รวม 128 GB/s bidirectional บน x16 lanes
PAM4 เพิ่มความเร็วต่อสัญญาณแต่ไวต่อ noise ต้องใช้ error correction
HBM2E มี throughput ต่อ stack ประมาณ 1024 GB/s แต่ใช้ DRAM
MEC servers ช่วยลด latency โดยประมวลผลใกล้ผู้ใช้มากขึ้น
Kioxia มีแผนขยายโรงงานในญี่ปุ่นเพื่อรองรับความต้องการ flash ที่เพิ่มขึ้น
โมดูลนี้อาจกลายเป็น “near-memory” ที่อยู่ใกล้ GPU มากกว่าที่เคย

https://www.tomshardware.com/pc-components/gpus/kioxias-new-5tb-64-gb-s-flash-module-puts-nand-toward-the-memory-bus-for-ai-gpus-hbf-prototype-adopts-familiar-ssd-form-factor
🎙️ เมื่อแฟลชเมมโมรีกลายเป็นหน่วยความจำใกล้ GPU – ก้าวใหม่ของ Kioxia สู่ยุค AI ลองจินตนาการว่า SSD ที่คุณรู้จักไม่ใช่แค่ที่เก็บข้อมูลอีกต่อไป แต่กลายเป็นหน่วยความจำที่อยู่ใกล้ GPU มากพอที่จะช่วยประมวลผลโมเดล AI ขนาดมหึมาได้แบบทันทีทันใด นั่นคือสิ่งที่ Kioxia กำลังทำอยู่กับโมดูลต้นแบบ High Bandwidth Flash (HBF) ขนาด 5TB ที่มีแบนด์วิดธ์สูงถึง 64 GB/s ต่างจาก HBM (High Bandwidth Memory) ที่ใช้ DRAM เป็นหลัก HBF ใช้ NAND flash ซึ่งมีความจุมากกว่า 8–16 เท่า และยังคงข้อมูลได้ถาวร ทำให้เหมาะกับงาน AI ที่ต้องเข้าถึงข้อมูลขนาดใหญ่แบบต่อเนื่อง โดยใช้พลังงานน้อยลง โมดูลนี้เชื่อมต่อผ่าน PCIe 6.0 ซึ่งมีแบนด์วิดธ์รวมถึง 128 GB/s แบบ bidirectional โดยใช้เทคนิค PAM4 เพื่อเพิ่มความเร็วการส่งข้อมูล และลดปัญหาการรบกวนสัญญาณด้วยการจัดวาง controller แบบ daisy-chain ข้าง NAND โดยตรง แม้จะมีข้อจำกัดเรื่อง latency เพราะ NAND ยังช้ากว่า DRAM หลายเท่า แต่ Kioxia ใช้เทคนิค prefetching และ caching เพื่อให้การเข้าถึงข้อมูลต่อเนื่องเร็วขึ้นพอสำหรับงาน AI อย่างการวิเคราะห์กราฟขนาดใหญ่หรือ checkpoint โมเดล ที่น่าสนใจคือ โมดูลนี้ใช้พลังงานต่ำกว่า 40W ซึ่งมีประสิทธิภาพต่อวัตต์สูงกว่าระบบ SSD แบบเดิมมาก และสามารถขยายระบบได้แบบ linear โดยไม่กินแบนด์วิดธ์เพิ่ม ทำให้สามารถสร้างระบบที่มี 80TB และแบนด์วิดธ์รวมกว่า 1TB/s ได้ในอนาคต นี่ไม่ใช่แค่การทดลอง แต่เป็นส่วนหนึ่งของโครงการวิจัยระดับชาติของญี่ปุ่น (NEDO) เพื่อรองรับยุค post-5G/6G และการประมวลผล AI ที่ขยายตัวอย่างรวดเร็วใน MEC (Mobile Edge Computing) 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Kioxia เปิดตัวโมดูลแฟลช HBF ขนาด 5TB ความเร็ว 64 GB/s ➡️ ใช้ NAND flash แทน DRAM เพื่อเพิ่มความจุ 8–16 เท่า ➡️ เชื่อมต่อผ่าน PCIe 6.0 พร้อม PAM4 signaling ความเร็ว 128 Gbps ต่อ link ➡️ ใช้ controller แบบ daisy-chain ลดปัญหาคอขวดและสัญญาณรบกวน ➡️ latency สูงกว่า DRAM แต่แก้ด้วย prefetching และ caching ➡️ ใช้พลังงานต่ำกว่า 40W ต่อโมดูล มีประสิทธิภาพต่อวัตต์สูง ➡️ ขยายระบบได้แบบ linear โดยไม่กินแบนด์วิดธ์เพิ่ม ➡️ รองรับการใช้งานใน MEC, AI checkpoint, Big Data และ IoT ➡️ เป็นส่วนหนึ่งของโครงการวิจัย NEDO เพื่อรองรับ post-5G/6G ➡️ โมดูลยังอยู่ในขั้นต้นแบบ แต่มี roadmap สำหรับการใช้งานจริงในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ PCIe 6.0 มีแบนด์วิดธ์รวม 128 GB/s bidirectional บน x16 lanes ➡️ PAM4 เพิ่มความเร็วต่อสัญญาณแต่ไวต่อ noise ต้องใช้ error correction ➡️ HBM2E มี throughput ต่อ stack ประมาณ 1024 GB/s แต่ใช้ DRAM ➡️ MEC servers ช่วยลด latency โดยประมวลผลใกล้ผู้ใช้มากขึ้น ➡️ Kioxia มีแผนขยายโรงงานในญี่ปุ่นเพื่อรองรับความต้องการ flash ที่เพิ่มขึ้น ➡️ โมดูลนี้อาจกลายเป็น “near-memory” ที่อยู่ใกล้ GPU มากกว่าที่เคย https://www.tomshardware.com/pc-components/gpus/kioxias-new-5tb-64-gb-s-flash-module-puts-nand-toward-the-memory-bus-for-ai-gpus-hbf-prototype-adopts-familiar-ssd-form-factor
0 ความคิดเห็น 0 การแบ่งปัน 27 มุมมอง 0 รีวิว