“XCENA MX1: ชิปพันธุ์ใหม่ที่รวม RISC-V หลายพันคอร์ไว้ในหน่วยความจำ — เปลี่ยนโฉมเซิร์ฟเวอร์ด้วย CXL 3.2 และ SSD tiering!”

ลองจินตนาการว่าคุณกำลังรันงาน AI ขนาดใหญ่ หรือ query ฐานข้อมูลแบบเวกเตอร์ที่กินแรมมหาศาล แล้วพบว่า bottleneck ไม่ได้อยู่ที่ CPU หรือ GPU — แต่อยู่ที่การเคลื่อนย้ายข้อมูลระหว่างหน่วยประมวลผลกับหน่วยความจำ นั่นคือปัญหาที่ XCENA MX1 เข้ามาแก้แบบตรงจุด

ในงาน FMS 2025 (Future of Memory and Storage) บริษัทสตาร์ทอัพจากเกาหลีใต้ชื่อ XCENA ได้เปิดตัว MX1 Computational Memory ซึ่งเป็นชิปที่รวม “หลายพันคอร์ RISC-V” ไว้ในหน่วยความจำโดยตรง พร้อมรองรับมาตรฐาน PCIe Gen6 และ Compute Express Link (CXL) 3.2

แนวคิดคือ “near-data processing” — ย้ายการประมวลผลมาอยู่ใกล้กับ DRAM เพื่อลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ซึ่งช่วยเพิ่มประสิทธิภาพอย่างมหาศาลในงานที่ใช้ข้อมูลหนัก เช่น AI inference, in-memory analytics และฐานข้อมูลขนาดใหญ่

MX1 ยังรองรับการขยายหน่วยความจำด้วย SSD แบบ tiered storage ที่สามารถเพิ่มความจุได้ถึงระดับ petabyte พร้อมฟีเจอร์ด้านการบีบอัดข้อมูลและความเสถียร ทำให้เหมาะกับงานที่ต้องการทั้งความเร็วและความจุในเวลาเดียวกัน

XCENA เตรียมเปิดตัวสองรุ่นคือ MX1P ในปลายปีนี้ และ MX1S ในปี 2026 โดยรุ่นหลังจะมี dual PCIe Gen6 x8 links และฟีเจอร์เพิ่มเติมสำหรับงานระดับ data center ขนาดใหญ่ ทั้งสองรุ่นจะใช้ประโยชน์จากแบนด์วิดธ์และความยืดหยุ่นของ CXL 3.2 อย่างเต็มที่

การเปิดตัว MX1 Computational Memory
เปิดตัวในงาน FMS 2025 โดยบริษัท XCENA จากเกาหลีใต้
ใช้ PCIe Gen6 และ CXL 3.2 เป็นมาตรฐานการเชื่อมต่อ
รวมหลายพันคอร์ RISC-V ไว้ในหน่วยความจำโดยตรง

แนวคิด near-data processing
ลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM
เพิ่มประสิทธิภาพในงาน AI, analytics และฐานข้อมูล
ช่วยลด latency และเพิ่ม throughput ในระบบเซิร์ฟเวอร์

การขยายหน่วยความจำด้วย SSD tiering
รองรับการขยายความจุถึงระดับ petabyte
มีระบบบีบอัดข้อมูลและฟีเจอร์ด้าน reliability
ใช้ SSD เป็น tier รองเพื่อเพิ่มความจุโดยไม่ลดความเร็ว

แผนการเปิดตัวผลิตภัณฑ์
MX1P จะเปิดตัวปลายปี 2025 พร้อมตัวอย่างสำหรับพันธมิตร
MX1S จะเปิดตัวในปี 2026 พร้อม dual PCIe Gen6 x8 links
ทั้งสองรุ่นรองรับ CXL 3.2 เต็มรูปแบบ

การสนับสนุนสำหรับนักพัฒนา
มี SDK พร้อมไดรเวอร์, runtime libraries และเครื่องมือสำหรับ deployment
รองรับแอปพลิเคชันตั้งแต่ AI inference ถึง in-memory analytics
ออกแบบให้ใช้งานได้ในสภาพแวดล้อมมาตรฐาน

รางวัลและการยอมรับ
ได้รับรางวัล “Most Innovative Memory Technology” ในงาน FMS 2025
เคยได้รับรางวัล “Most Innovative Startup” ในปี 2024
ได้รับการยกย่องจากผู้เชี่ยวชาญด้าน storage ว่าเป็นแนวทางใหม่ที่เปลี่ยนเกม

https://www.techradar.com/pro/a-chip-with-thousands-of-cores-could-change-the-way-servers-are-designed-bringing-compute-nearer-to-ram-thanks-to-cxl-is-a-lightbulb-moment
🧠 “XCENA MX1: ชิปพันธุ์ใหม่ที่รวม RISC-V หลายพันคอร์ไว้ในหน่วยความจำ — เปลี่ยนโฉมเซิร์ฟเวอร์ด้วย CXL 3.2 และ SSD tiering!” ลองจินตนาการว่าคุณกำลังรันงาน AI ขนาดใหญ่ หรือ query ฐานข้อมูลแบบเวกเตอร์ที่กินแรมมหาศาล แล้วพบว่า bottleneck ไม่ได้อยู่ที่ CPU หรือ GPU — แต่อยู่ที่การเคลื่อนย้ายข้อมูลระหว่างหน่วยประมวลผลกับหน่วยความจำ นั่นคือปัญหาที่ XCENA MX1 เข้ามาแก้แบบตรงจุด ในงาน FMS 2025 (Future of Memory and Storage) บริษัทสตาร์ทอัพจากเกาหลีใต้ชื่อ XCENA ได้เปิดตัว MX1 Computational Memory ซึ่งเป็นชิปที่รวม “หลายพันคอร์ RISC-V” ไว้ในหน่วยความจำโดยตรง พร้อมรองรับมาตรฐาน PCIe Gen6 และ Compute Express Link (CXL) 3.2 แนวคิดคือ “near-data processing” — ย้ายการประมวลผลมาอยู่ใกล้กับ DRAM เพื่อลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ซึ่งช่วยเพิ่มประสิทธิภาพอย่างมหาศาลในงานที่ใช้ข้อมูลหนัก เช่น AI inference, in-memory analytics และฐานข้อมูลขนาดใหญ่ MX1 ยังรองรับการขยายหน่วยความจำด้วย SSD แบบ tiered storage ที่สามารถเพิ่มความจุได้ถึงระดับ petabyte พร้อมฟีเจอร์ด้านการบีบอัดข้อมูลและความเสถียร ทำให้เหมาะกับงานที่ต้องการทั้งความเร็วและความจุในเวลาเดียวกัน XCENA เตรียมเปิดตัวสองรุ่นคือ MX1P ในปลายปีนี้ และ MX1S ในปี 2026 โดยรุ่นหลังจะมี dual PCIe Gen6 x8 links และฟีเจอร์เพิ่มเติมสำหรับงานระดับ data center ขนาดใหญ่ ทั้งสองรุ่นจะใช้ประโยชน์จากแบนด์วิดธ์และความยืดหยุ่นของ CXL 3.2 อย่างเต็มที่ ✅ การเปิดตัว MX1 Computational Memory ➡️ เปิดตัวในงาน FMS 2025 โดยบริษัท XCENA จากเกาหลีใต้ ➡️ ใช้ PCIe Gen6 และ CXL 3.2 เป็นมาตรฐานการเชื่อมต่อ ➡️ รวมหลายพันคอร์ RISC-V ไว้ในหน่วยความจำโดยตรง ✅ แนวคิด near-data processing ➡️ ลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ➡️ เพิ่มประสิทธิภาพในงาน AI, analytics และฐานข้อมูล ➡️ ช่วยลด latency และเพิ่ม throughput ในระบบเซิร์ฟเวอร์ ✅ การขยายหน่วยความจำด้วย SSD tiering ➡️ รองรับการขยายความจุถึงระดับ petabyte ➡️ มีระบบบีบอัดข้อมูลและฟีเจอร์ด้าน reliability ➡️ ใช้ SSD เป็น tier รองเพื่อเพิ่มความจุโดยไม่ลดความเร็ว ✅ แผนการเปิดตัวผลิตภัณฑ์ ➡️ MX1P จะเปิดตัวปลายปี 2025 พร้อมตัวอย่างสำหรับพันธมิตร ➡️ MX1S จะเปิดตัวในปี 2026 พร้อม dual PCIe Gen6 x8 links ➡️ ทั้งสองรุ่นรองรับ CXL 3.2 เต็มรูปแบบ ✅ การสนับสนุนสำหรับนักพัฒนา ➡️ มี SDK พร้อมไดรเวอร์, runtime libraries และเครื่องมือสำหรับ deployment ➡️ รองรับแอปพลิเคชันตั้งแต่ AI inference ถึง in-memory analytics ➡️ ออกแบบให้ใช้งานได้ในสภาพแวดล้อมมาตรฐาน ✅ รางวัลและการยอมรับ ➡️ ได้รับรางวัล “Most Innovative Memory Technology” ในงาน FMS 2025 ➡️ เคยได้รับรางวัล “Most Innovative Startup” ในปี 2024 ➡️ ได้รับการยกย่องจากผู้เชี่ยวชาญด้าน storage ว่าเป็นแนวทางใหม่ที่เปลี่ยนเกม https://www.techradar.com/pro/a-chip-with-thousands-of-cores-could-change-the-way-servers-are-designed-bringing-compute-nearer-to-ram-thanks-to-cxl-is-a-lightbulb-moment
0 Comments 0 Shares 38 Views 0 Reviews