• เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 Comments 0 Shares 171 Views 0 Reviews
  • เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้

    ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์

    ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว

    ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว

    GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์

    สเปกของ Acer Veriton GN100
    ใช้ Nvidia GB10 Grace Blackwell Superchip
    CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725)
    GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP
    RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB

    ความสามารถด้าน AI
    รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง
    ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT
    รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama

    การเชื่อมต่อและการขยาย
    มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1
    เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่
    รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล

    การออกแบบและการใช้งาน
    ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย
    มี Kensington lock สำหรับความปลอดภัย
    ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    🎙️ เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้ ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์ ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์ ✅ สเปกของ Acer Veriton GN100 ➡️ ใช้ Nvidia GB10 Grace Blackwell Superchip ➡️ CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725) ➡️ GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP ➡️ RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB ✅ ความสามารถด้าน AI ➡️ รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง ➡️ ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT ➡️ รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama ✅ การเชื่อมต่อและการขยาย ➡️ มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1 ➡️ เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่ ➡️ รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล ✅ การออกแบบและการใช้งาน ➡️ ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย ➡️ มี Kensington lock สำหรับความปลอดภัย ➡️ ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    WWW.TOMSHARDWARE.COM
    Acer unveils Project Digits supercomputer featuring Nvidia's GB10 superchip with 128GB of LPDDR5x
    Acer joins Asus, Lenovo, and Dell with its third-party Project Digits variation.
    0 Comments 0 Shares 151 Views 0 Reviews
  • FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale

    ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก

    FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด

    ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์

    นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก

    สรุปเนื้อหาเป็นหัวข้อ
    FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale
    เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia
    ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion
    เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ
    ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ
    งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน
    ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision
    เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม
    ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล
    ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience

    ข้อมูลเสริมจากภายนอก
    MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI
    Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก
    NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต
    ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI
    มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน
    FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    🎙️ FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale ➡️ เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia ➡️ ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion ➡️ เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ ➡️ ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ ➡️ งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน ➡️ ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision ➡️ เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม ➡️ ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล ➡️ ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience ✅ ข้อมูลเสริมจากภายนอก ➡️ MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI ➡️ Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก ➡️ NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต ➡️ ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI ➡️ มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน ➡️ FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    0 Comments 0 Shares 221 Views 0 Reviews
  • NVIDIA: จากการ์ด VGA ไปสู่ GPU และก้าวสู่ NPU หัวใจของ AI

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks.

    จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน

    การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล และการคำนวณทางวิทยาศาสตร์ สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI

    เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics และ autonomous vehicles .

    ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T.

    สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง.

    #ลุงเขียนหลานอ่าน
    NVIDIA: จากการ์ด VGA ➡️ ไปสู่ GPU 🚀 และก้าวสู่ NPU หัวใจของ AI ❤️ ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) 🤖 กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม 🎮 แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks. 🧠 จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ 💻 กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก 📉 เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย 😥 แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน 📈 สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" 🌍 GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ 💰 ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล 📊 และการคำนวณทางวิทยาศาสตร์ 🧪 สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics 🤖 และ autonomous vehicles 🚗. ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. 💰 การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ 🩺 การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T. สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง 👍 การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง. 💡 #ลุงเขียนหลานอ่าน
    Like
    1
    0 Comments 0 Shares 285 Views 0 Reviews
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 Comments 0 Shares 297 Views 0 Reviews
  • ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว
    → ติดตั้งที่ศูนย์ข้อมูลของ Switch
    → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี
     • 72 GPU (Blackwell Ultra)
     • 36 CPU (Grace 72-core)
      • 36 DPU (BlueField)
    → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB
    → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8)
    → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU

    ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก

    สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว → ติดตั้งที่ศูนย์ข้อมูลของ Switch → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี  • 72 GPU (Blackwell Ultra)  • 36 CPU (Grace 72-core)   • 36 DPU (BlueField) → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB 🔥 → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8) → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU 😮💧 ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    0 Comments 0 Shares 273 Views 0 Reviews
  • AMD ผลิตการ์ด Instinct ซึ่งเป็น GPU สำหรับซูเปอร์คอมพิวเตอร์และงานเทรน AI โดยเฉพาะ ด้วย VRAM สูงถึง 192GB ต่อการ์ด และในบางเซิร์ฟเวอร์ติดตั้งถึง 8 ใบ รวมเป็น VRAM มากถึง 1.5 TB — เยอะกว่าคอมทั่วไปหลายสิบเท่า!

    แต่เมื่อมีคนพยายามทำให้ระบบ Linux “จำศีล” เพื่อประหยัดไฟตอนไม่ได้ใช้งาน เช่น ช่วงเวลากลางคืน หรือเพื่อรองรับภาวะไฟฟ้าล้นกริด กลับพบว่า...ระบบแครช!

    สาเหตุมาจากว่า Linux ต้อง “ย้าย VRAM ทั้งหมดมาเก็บใน RAM ก่อน” แล้วจึง snapshot memory ไปเขียนลงดิสก์เพื่อเรียกกลับเมื่อเปิดเครื่อง — ปรากฏว่า VRAM 1.5TB + RAM อีกมากมาย ทำให้ระบบต้องใช้พื้นที่ snapshot เกิน 3TB ในบางกรณี → เกินขนาดของ RAM/Storage → ฮิเบอร์เนตล้มเหลว

    ทีมวิศวกรของ AMD จึงเสนอ patch สำหรับ Linux ที่จะ:
    - ลดปริมาณข้อมูลที่ต้อง snapshot
    - ข้ามการ restore VRAM บางส่วนเมื่อปลุกระบบขึ้น (thaw) เพื่อให้กลับมาใช้งานเร็วขึ้น

    สาเหตุที่มีคนพยายาม hibernate เซิร์ฟเวอร์เหล่านี้ เพราะถ้าไม่ปิด ก็เปลืองไฟระดับโรงไฟฟ้าย่อม ๆ แถมยังเสี่ยงต่อเหตุการณ์แบบ blackout แบบที่เกิดในสเปนเมื่อไม่นานมานี้

    AMD Instinct เป็น GPU สำหรับ AI ที่มี VRAM สูงถึง 192GB/ใบ  
    • ใช้ในซูเปอร์คอมพิวเตอร์, data center, และงานเทรนโมเดล LLM ขนาดใหญ่

    เซิร์ฟเวอร์ที่ติดตั้ง Instinct GPU 8 ใบ จะมี VRAM รวม ~1.5TB ต่อเครื่อง  
    • ทำให้ระบบต้องจัดการ memory ขนาดใหญ่มากระหว่างฮิเบอร์เนต

    Linux ต้องย้าย VRAM เข้าสู่ RAM เพื่อ snapshot ลงดิสก์ในการจำศีล  
    • ส่งผลให้ต้องใช้ RAM/disk เกินกว่าที่เครื่องมีจริง → ฮิเบอร์เนตล้มเหลว

    AMD ออก patch แก้ปัญหาด้วยวิธี:  
    • ลดพื้นที่ที่ต้อง snapshot  
    • ข้ามการโหลด buffer VRAM บางส่วนกลับมาระหว่าง resume  
    • ช่วยลดเวลา thaw (resume) เหลือไม่ถึง 1 ชั่วโมง จากเดิมที่อาจต้องรอนานมาก

    เหตุผลที่ต้อง hibernate เซิร์ฟเวอร์แม้จะเป็น AI server:  
    • ลดพลังงานในช่วง downtime  
    • ช่วยรักษาเสถียรภาพของโครงข่ายไฟฟ้า (power grid)  
    • เคยมี blackout ในสเปนซึ่งเชื่อมโยงกับโหลดของ data center

    https://www.tomshardware.com/tech-industry/supercomputers/massive-vram-pools-on-amd-instinct-accelerators-drown-linuxs-hibernation-process-1-5-tb-of-memory-per-server-creates-headaches
    AMD ผลิตการ์ด Instinct ซึ่งเป็น GPU สำหรับซูเปอร์คอมพิวเตอร์และงานเทรน AI โดยเฉพาะ ด้วย VRAM สูงถึง 192GB ต่อการ์ด และในบางเซิร์ฟเวอร์ติดตั้งถึง 8 ใบ รวมเป็น VRAM มากถึง 1.5 TB — เยอะกว่าคอมทั่วไปหลายสิบเท่า! แต่เมื่อมีคนพยายามทำให้ระบบ Linux “จำศีล” เพื่อประหยัดไฟตอนไม่ได้ใช้งาน เช่น ช่วงเวลากลางคืน หรือเพื่อรองรับภาวะไฟฟ้าล้นกริด กลับพบว่า...ระบบแครช! สาเหตุมาจากว่า Linux ต้อง “ย้าย VRAM ทั้งหมดมาเก็บใน RAM ก่อน” แล้วจึง snapshot memory ไปเขียนลงดิสก์เพื่อเรียกกลับเมื่อเปิดเครื่อง — ปรากฏว่า VRAM 1.5TB + RAM อีกมากมาย ทำให้ระบบต้องใช้พื้นที่ snapshot เกิน 3TB ในบางกรณี → เกินขนาดของ RAM/Storage → ฮิเบอร์เนตล้มเหลว ทีมวิศวกรของ AMD จึงเสนอ patch สำหรับ Linux ที่จะ: - ลดปริมาณข้อมูลที่ต้อง snapshot - ข้ามการ restore VRAM บางส่วนเมื่อปลุกระบบขึ้น (thaw) เพื่อให้กลับมาใช้งานเร็วขึ้น สาเหตุที่มีคนพยายาม hibernate เซิร์ฟเวอร์เหล่านี้ เพราะถ้าไม่ปิด ก็เปลืองไฟระดับโรงไฟฟ้าย่อม ๆ แถมยังเสี่ยงต่อเหตุการณ์แบบ blackout แบบที่เกิดในสเปนเมื่อไม่นานมานี้ ✅ AMD Instinct เป็น GPU สำหรับ AI ที่มี VRAM สูงถึง 192GB/ใบ   • ใช้ในซูเปอร์คอมพิวเตอร์, data center, และงานเทรนโมเดล LLM ขนาดใหญ่ ✅ เซิร์ฟเวอร์ที่ติดตั้ง Instinct GPU 8 ใบ จะมี VRAM รวม ~1.5TB ต่อเครื่อง   • ทำให้ระบบต้องจัดการ memory ขนาดใหญ่มากระหว่างฮิเบอร์เนต ✅ Linux ต้องย้าย VRAM เข้าสู่ RAM เพื่อ snapshot ลงดิสก์ในการจำศีล   • ส่งผลให้ต้องใช้ RAM/disk เกินกว่าที่เครื่องมีจริง → ฮิเบอร์เนตล้มเหลว ✅ AMD ออก patch แก้ปัญหาด้วยวิธี:   • ลดพื้นที่ที่ต้อง snapshot   • ข้ามการโหลด buffer VRAM บางส่วนกลับมาระหว่าง resume   • ช่วยลดเวลา thaw (resume) เหลือไม่ถึง 1 ชั่วโมง จากเดิมที่อาจต้องรอนานมาก ✅ เหตุผลที่ต้อง hibernate เซิร์ฟเวอร์แม้จะเป็น AI server:   • ลดพลังงานในช่วง downtime   • ช่วยรักษาเสถียรภาพของโครงข่ายไฟฟ้า (power grid)   • เคยมี blackout ในสเปนซึ่งเชื่อมโยงกับโหลดของ data center https://www.tomshardware.com/tech-industry/supercomputers/massive-vram-pools-on-amd-instinct-accelerators-drown-linuxs-hibernation-process-1-5-tb-of-memory-per-server-creates-headaches
    0 Comments 0 Shares 260 Views 0 Reviews
  • ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง

    ระบบนี้ประกอบด้วย:
    - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง
    - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที

    ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า"

    เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง)

    https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง ระบบนี้ประกอบด้วย: - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า" เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง) https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    WWW.TECHSPOT.COM
    X Display unveils ultra-fast, cable-free display that turns data into light
    X Display is focused on developing and licensing new intellectual property related to MicroLED and other display technologies. The North Carolina-based developer recently unveiled a novel application...
    0 Comments 0 Shares 263 Views 0 Reviews
  • เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์

    แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ”

    สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64)

    ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง

    https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์ แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ” สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64) ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    0 Comments 0 Shares 369 Views 0 Reviews
  • หลายคนคิดว่า GPU ต้องพึ่งพาแค่ไฟจากรัฐ แต่จริง ๆ แล้ว Jensen Huang แห่ง NVIDIA รู้ดีว่าในอนาคต “ไฟ” จะกลายเป็นปัจจัยจำกัดการเติบโตของ AI — ไม่ใช่ชิปอีกต่อไป

    ล่าสุด NVIDIA (ผ่านบริษัทลูกด้านลงทุน NVentures) ร่วมลงเงินกับ Bill Gates และ HD Hyundai ในรอบ funding ล่าสุดกว่า $650 ล้าน ให้กับ TerraPower บริษัทที่ Gates ก่อตั้งเพื่อพัฒนาโรงไฟฟ้านิวเคลียร์ขนาดเล็กแบบ SMR (Small Modular Reactor)

    โปรเจกต์แรกของ TerraPower คือโรงไฟฟ้า Natrium กำลัง 345 เมกะวัตต์ ที่ใช้โซเดียมเหลวระบายความร้อน และมี ระบบเก็บพลังงานด้วยเกลือหลอมเหลว ที่สะสมพลังงานได้ถึง 1 กิกะวัตต์ เพื่อป้อนโหลดพีคแบบ AI ได้ทันเวลา

    แม้จะยังรอใบอนุญาตจากหน่วยงานนิวเคลียร์ในสหรัฐ (คาดว่าได้ปี 2026) แต่ตอนนี้เริ่มสร้างโครงสร้างส่วนที่ไม่ใช่นิวเคลียร์แล้วในรัฐไวโอมิง

    NVIDIA ไม่ได้โดดเดี่ยว — Oracle, Microsoft, Google และ Amazon ต่างเร่งลงทุนด้านนิวเคลียร์คล้ายกัน เช่น Oracle ขออนุญาตสร้าง SMR 3 ชุด, Microsoft เตรียมรีสตาร์ตโรงไฟฟ้าเก่าใน Pennsylvania, Amazon ทุ่มเงินในหลายสตาร์ตอัปด้านพลังงาน

    เทรนด์นี้มาแรงเพราะ AI server ต้องการไฟมากเกินที่โครงข่ายจะรองรับไหว — AMD เผยว่าแค่ zettascale supercomputer จะใช้ไฟถึง 500 เมกะวัตต์ ซึ่งเทียบเท่าบ้าน 375,000 หลังเลยทีเดียว

    https://www.tomshardware.com/tech-industry/nvidia-goes-nuclear-company-joins-bill-gates-in-backing-terrapower-a-company-building-nuclear-reactors-for-powering-data-centers
    หลายคนคิดว่า GPU ต้องพึ่งพาแค่ไฟจากรัฐ แต่จริง ๆ แล้ว Jensen Huang แห่ง NVIDIA รู้ดีว่าในอนาคต “ไฟ” จะกลายเป็นปัจจัยจำกัดการเติบโตของ AI — ไม่ใช่ชิปอีกต่อไป ล่าสุด NVIDIA (ผ่านบริษัทลูกด้านลงทุน NVentures) ร่วมลงเงินกับ Bill Gates และ HD Hyundai ในรอบ funding ล่าสุดกว่า $650 ล้าน ให้กับ TerraPower บริษัทที่ Gates ก่อตั้งเพื่อพัฒนาโรงไฟฟ้านิวเคลียร์ขนาดเล็กแบบ SMR (Small Modular Reactor) โปรเจกต์แรกของ TerraPower คือโรงไฟฟ้า Natrium กำลัง 345 เมกะวัตต์ ที่ใช้โซเดียมเหลวระบายความร้อน และมี ระบบเก็บพลังงานด้วยเกลือหลอมเหลว ที่สะสมพลังงานได้ถึง 1 กิกะวัตต์ เพื่อป้อนโหลดพีคแบบ AI ได้ทันเวลา แม้จะยังรอใบอนุญาตจากหน่วยงานนิวเคลียร์ในสหรัฐ (คาดว่าได้ปี 2026) แต่ตอนนี้เริ่มสร้างโครงสร้างส่วนที่ไม่ใช่นิวเคลียร์แล้วในรัฐไวโอมิง NVIDIA ไม่ได้โดดเดี่ยว — Oracle, Microsoft, Google และ Amazon ต่างเร่งลงทุนด้านนิวเคลียร์คล้ายกัน เช่น Oracle ขออนุญาตสร้าง SMR 3 ชุด, Microsoft เตรียมรีสตาร์ตโรงไฟฟ้าเก่าใน Pennsylvania, Amazon ทุ่มเงินในหลายสตาร์ตอัปด้านพลังงาน เทรนด์นี้มาแรงเพราะ AI server ต้องการไฟมากเกินที่โครงข่ายจะรองรับไหว — AMD เผยว่าแค่ zettascale supercomputer จะใช้ไฟถึง 500 เมกะวัตต์ ซึ่งเทียบเท่าบ้าน 375,000 หลังเลยทีเดียว https://www.tomshardware.com/tech-industry/nvidia-goes-nuclear-company-joins-bill-gates-in-backing-terrapower-a-company-building-nuclear-reactors-for-powering-data-centers
    0 Comments 0 Shares 253 Views 0 Reviews
  • หลังจากสหรัฐฯ ออกข้อจำกัดไม่ให้ Nvidia ขายการ์ด AI ระดับสูง (เช่น H100, H200, B200) ให้กับจีนโดยตรง บริษัทจีนหลายแห่งก็พยายาม “หาทางอ้อม” เพื่อใช้งาน GPU เหล่านี้ต่อ

    ล่าสุด มีรายงานว่า ชาวจีน 4 คนบินจากปักกิ่งมามาเลเซีย พร้อมนำฮาร์ดดิสก์ที่บรรจุข้อมูลหลายสิบเทราไบต์ ทั้งวิดีโอ ภาพ และ spreadsheet เพื่อ “ฝึก AI” บนเซิร์ฟเวอร์ที่เช่าผ่าน data center ในมาเลเซีย ที่มี GPU ของ Nvidia ติดตั้งอยู่ราว 2,400 ตัว

    แม้จะฟังดูไม่ใช่คลัสเตอร์ขนาดใหญ่เท่า supercomputer แต่ก็เพียงพอสำหรับ training model ได้สบาย ๆ—ที่สำคัญคือ “เป็นวิธีที่ช่วยให้บริษัทจีนยังคงเข้าถึงเทคโนโลยีที่สหรัฐฯ ห้ามขาย” ได้โดยไม่ซื้อโดยตรง

    ประเด็นนี้ทำให้กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) ต้องออกมายืนยันว่ากำลังสอบสวนร่วมกับหน่วยงานอื่น ๆ เพื่อดูว่าเข้าข่ายละเมิดกฎหมายหรือไม่

    กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) กำลังสอบสวนกรณีบริษัทจีนใช้ GPU Nvidia ผ่าน data center ในมาเลเซีย  
    • เป็นการเช่าเซิร์ฟเวอร์เพื่อ train AI โดยไม่ได้ครอบครองฮาร์ดแวร์โดยตรง  
    • ยังไม่พบการละเมิดกฎหมายในประเทศ ณ เวลานี้

    มีรายงานว่าชาวจีน 4 คนขน HDD หลายสิบเทราไบต์เข้าเครื่องที่เช่าไว้ในมาเลเซีย  
    • ฝึกโมเดล AI บนเซิร์ฟเวอร์ที่ใช้ Nvidia GPU ~2,400 ตัว  
    • GPU เหล่านี้น่าจะเป็น H100 หรือรุ่นที่สหรัฐห้ามส่งออกไปยังจีน

    มาเลเซียไม่ได้อยู่ภายใต้มาตรการควบคุมการส่งออกของสหรัฐ  
    • ทำให้บริษัทในประเทศสามารถนำเข้า GPU ได้อย่างถูกกฎหมาย  
    • แต่ถ้ามีการ “นำ GPU ไปให้จีนใช้ทางอ้อม” ก็อาจละเมิดกฎของสหรัฐฯ

    หน่วยงานด้านการค้าในสหรัฐฯ เคยร้องขอให้มาเลเซียตรวจสอบทุก shipment ที่อาจเกี่ยวข้องกับ GPU ขั้นสูง  
    • หลังพบว่าในปี 2025 การนำเข้าเซิร์ฟเวอร์ AI จากไต้หวันไปยังมาเลเซีย “พุ่งขึ้นถึง 3,400%”

    บริษัทจีนที่ใช้บริการเช่าระยะไกลแบบนี้ อาจเลี่ยงข้อห้ามสหรัฐฯ ได้ชั่วคราวโดยไม่ซื้อตรง  
    • เรียกว่าใช้ “compute-as-a-service” แบบหลบเลี่ยง

    ยังไม่แน่ชัดว่ากรณีนี้จะเข้าข่าย “ละเมิดมาตรการของสหรัฐฯ” หรือไม่ เพราะไม่ได้ส่งมอบฮาร์ดแวร์ไปจีนโดยตรง  
    • หากสหรัฐมองว่า “การให้คนจีนเข้าถึง compute” ถือว่าเข้าข่าย ก็อาจสร้างแรงกดดันต่อมาเลเซียในอนาคต

    มาเลเซียอาจถูกจับตาจากรัฐบาลสหรัฐฯ หากพบว่าเป็นจุดผ่านของการ “ลักลอบใช้ GPU ที่ควบคุมอยู่”  
    • ส่งผลต่อภาพลักษณ์ด้านความร่วมมือระหว่างประเทศในเทคโนโลยี AI

    ผู้ให้บริการ data center ในภูมิภาคอาเซียนอาจต้องเผชิญแรงกดดันเช่นเดียวกัน  
    • หากไม่มีระบบ “ตรวจสอบแหล่งข้อมูลลูกค้า” อาจกลายเป็นช่องโหว่ให้ฝ่ายต่าง ๆ ใช้หลบมาตรการ

    กรณีนี้สะท้อนว่าแม้มาตรการควบคุม GPU จะรุนแรง แต่จีนยังคงหาวิธีเข้าถึงทรัพยากร AI ได้อยู่ดี  
    • เช่นเดียวกับกรณีก่อนหน้านี้ที่มีข่าวลอบขน GPU ผ่าน “กุ้ง” และ “ซิลิโคนหน้าท้องปลอม”

    https://www.tomshardware.com/tech-industry/artificial-intelligence/malaysia-investigates-chinese-use-of-nvidia-powered-servers-in-the-country-trade-minister-verifying-reports-of-possible-regulation-breach-following-reports-of-smuggled-hard-drives-and-server-rentals
    หลังจากสหรัฐฯ ออกข้อจำกัดไม่ให้ Nvidia ขายการ์ด AI ระดับสูง (เช่น H100, H200, B200) ให้กับจีนโดยตรง บริษัทจีนหลายแห่งก็พยายาม “หาทางอ้อม” เพื่อใช้งาน GPU เหล่านี้ต่อ ล่าสุด มีรายงานว่า ชาวจีน 4 คนบินจากปักกิ่งมามาเลเซีย พร้อมนำฮาร์ดดิสก์ที่บรรจุข้อมูลหลายสิบเทราไบต์ ทั้งวิดีโอ ภาพ และ spreadsheet เพื่อ “ฝึก AI” บนเซิร์ฟเวอร์ที่เช่าผ่าน data center ในมาเลเซีย ที่มี GPU ของ Nvidia ติดตั้งอยู่ราว 2,400 ตัว แม้จะฟังดูไม่ใช่คลัสเตอร์ขนาดใหญ่เท่า supercomputer แต่ก็เพียงพอสำหรับ training model ได้สบาย ๆ—ที่สำคัญคือ “เป็นวิธีที่ช่วยให้บริษัทจีนยังคงเข้าถึงเทคโนโลยีที่สหรัฐฯ ห้ามขาย” ได้โดยไม่ซื้อโดยตรง ประเด็นนี้ทำให้กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) ต้องออกมายืนยันว่ากำลังสอบสวนร่วมกับหน่วยงานอื่น ๆ เพื่อดูว่าเข้าข่ายละเมิดกฎหมายหรือไม่ ✅ กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) กำลังสอบสวนกรณีบริษัทจีนใช้ GPU Nvidia ผ่าน data center ในมาเลเซีย   • เป็นการเช่าเซิร์ฟเวอร์เพื่อ train AI โดยไม่ได้ครอบครองฮาร์ดแวร์โดยตรง   • ยังไม่พบการละเมิดกฎหมายในประเทศ ณ เวลานี้ ✅ มีรายงานว่าชาวจีน 4 คนขน HDD หลายสิบเทราไบต์เข้าเครื่องที่เช่าไว้ในมาเลเซีย   • ฝึกโมเดล AI บนเซิร์ฟเวอร์ที่ใช้ Nvidia GPU ~2,400 ตัว   • GPU เหล่านี้น่าจะเป็น H100 หรือรุ่นที่สหรัฐห้ามส่งออกไปยังจีน ✅ มาเลเซียไม่ได้อยู่ภายใต้มาตรการควบคุมการส่งออกของสหรัฐ   • ทำให้บริษัทในประเทศสามารถนำเข้า GPU ได้อย่างถูกกฎหมาย   • แต่ถ้ามีการ “นำ GPU ไปให้จีนใช้ทางอ้อม” ก็อาจละเมิดกฎของสหรัฐฯ ✅ หน่วยงานด้านการค้าในสหรัฐฯ เคยร้องขอให้มาเลเซียตรวจสอบทุก shipment ที่อาจเกี่ยวข้องกับ GPU ขั้นสูง   • หลังพบว่าในปี 2025 การนำเข้าเซิร์ฟเวอร์ AI จากไต้หวันไปยังมาเลเซีย “พุ่งขึ้นถึง 3,400%” ✅ บริษัทจีนที่ใช้บริการเช่าระยะไกลแบบนี้ อาจเลี่ยงข้อห้ามสหรัฐฯ ได้ชั่วคราวโดยไม่ซื้อตรง   • เรียกว่าใช้ “compute-as-a-service” แบบหลบเลี่ยง ‼️ ยังไม่แน่ชัดว่ากรณีนี้จะเข้าข่าย “ละเมิดมาตรการของสหรัฐฯ” หรือไม่ เพราะไม่ได้ส่งมอบฮาร์ดแวร์ไปจีนโดยตรง   • หากสหรัฐมองว่า “การให้คนจีนเข้าถึง compute” ถือว่าเข้าข่าย ก็อาจสร้างแรงกดดันต่อมาเลเซียในอนาคต ‼️ มาเลเซียอาจถูกจับตาจากรัฐบาลสหรัฐฯ หากพบว่าเป็นจุดผ่านของการ “ลักลอบใช้ GPU ที่ควบคุมอยู่”   • ส่งผลต่อภาพลักษณ์ด้านความร่วมมือระหว่างประเทศในเทคโนโลยี AI ‼️ ผู้ให้บริการ data center ในภูมิภาคอาเซียนอาจต้องเผชิญแรงกดดันเช่นเดียวกัน   • หากไม่มีระบบ “ตรวจสอบแหล่งข้อมูลลูกค้า” อาจกลายเป็นช่องโหว่ให้ฝ่ายต่าง ๆ ใช้หลบมาตรการ ‼️ กรณีนี้สะท้อนว่าแม้มาตรการควบคุม GPU จะรุนแรง แต่จีนยังคงหาวิธีเข้าถึงทรัพยากร AI ได้อยู่ดี   • เช่นเดียวกับกรณีก่อนหน้านี้ที่มีข่าวลอบขน GPU ผ่าน “กุ้ง” และ “ซิลิโคนหน้าท้องปลอม” https://www.tomshardware.com/tech-industry/artificial-intelligence/malaysia-investigates-chinese-use-of-nvidia-powered-servers-in-the-country-trade-minister-verifying-reports-of-possible-regulation-breach-following-reports-of-smuggled-hard-drives-and-server-rentals
    0 Comments 0 Shares 437 Views 0 Reviews
  • ซูเปอร์คอมพิวเตอร์ระดับ Zettascale อาจต้องใช้พลังงานเทียบเท่าโรงไฟฟ้านิวเคลียร์
    AMD ได้เปิดเผยข้อมูลเกี่ยวกับ แนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ในอนาคต โดยคาดการณ์ว่า ซูเปอร์คอมพิวเตอร์ระดับ Zettascale จะต้องใช้พลังงานถึง 500 เมกะวัตต์ ซึ่งเทียบเท่ากับ การใช้ไฟฟ้าของบ้าน 375,000 หลัง

    AMD ระบุว่า หน่วยความจำและระบบระบายความร้อนเป็นปัจจัยหลักที่ทำให้การใช้พลังงานเพิ่มขึ้น เนื่องจาก AI accelerators ต้องการแบนด์วิดท์ที่สูงขึ้นและระบบระบายความร้อนที่มีประสิทธิภาพมากขึ้น

    ข้อมูลจากข่าว
    - AMD คาดการณ์ว่า Zettascale supercomputers จะต้องใช้พลังงานถึง 500 เมกะวัตต์
    - กราฟแสดงแนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ตั้งแต่ปี 2010 ถึง 2035
    - การพัฒนา AI accelerators มีประสิทธิภาพเพิ่มขึ้น 2 เท่าทุก 2.2 ปี
    - FP128 และ FP64 ให้ความแม่นยำสูง แต่ FP16 และ FP8 มีประโยชน์สำหรับบางงาน
    - Nvidia B200 มี TDP 1,000W และ AMD MI355X มี TDP 1,400W

    ผลกระทบต่ออุตสาหกรรม AI และพลังงาน
    รัฐบาลสหรัฐฯ และบริษัทเทคโนโลยี กำลังลงทุนในพลังงานนิวเคลียร์และฟิวชัน เพื่อรองรับ ความต้องการพลังงานที่เพิ่มขึ้นของศูนย์ข้อมูล AI

    คำเตือนที่ควรพิจารณา
    - การใช้พลังงานของซูเปอร์คอมพิวเตอร์อาจเพิ่มขึ้นอย่างต่อเนื่องจนถึงปี 2035
    - ต้องติดตามว่าการลงทุนในพลังงานนิวเคลียร์จะสามารถรองรับความต้องการของศูนย์ข้อมูล AI ได้หรือไม่
    - บริษัทเทคโนโลยีต้องพัฒนาโซลูชันที่ช่วยลดการใช้พลังงานของ AI accelerators
    - ต้องรอดูว่า Nvidia และ AMD จะสามารถเพิ่มประสิทธิภาพของ AI accelerators โดยไม่เพิ่มการใช้พลังงานมากเกินไป

    แม้ว่าการใช้พลังงานจะเพิ่มขึ้น แต่การพัฒนา AI accelerators และระบบระบายความร้อนที่มีประสิทธิภาพสูงขึ้น อาจช่วยให้ ซูเปอร์คอมพิวเตอร์สามารถทำงานได้โดยใช้พลังงานน้อยลงในอนาคต

    https://www.tomshardware.com/pc-components/gpus/amd-says-zettascale-supercomputers-will-need-half-a-gigawatt-to-operate-enough-for-375-000-homes
    ⚡ ซูเปอร์คอมพิวเตอร์ระดับ Zettascale อาจต้องใช้พลังงานเทียบเท่าโรงไฟฟ้านิวเคลียร์ AMD ได้เปิดเผยข้อมูลเกี่ยวกับ แนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ในอนาคต โดยคาดการณ์ว่า ซูเปอร์คอมพิวเตอร์ระดับ Zettascale จะต้องใช้พลังงานถึง 500 เมกะวัตต์ ซึ่งเทียบเท่ากับ การใช้ไฟฟ้าของบ้าน 375,000 หลัง AMD ระบุว่า หน่วยความจำและระบบระบายความร้อนเป็นปัจจัยหลักที่ทำให้การใช้พลังงานเพิ่มขึ้น เนื่องจาก AI accelerators ต้องการแบนด์วิดท์ที่สูงขึ้นและระบบระบายความร้อนที่มีประสิทธิภาพมากขึ้น ✅ ข้อมูลจากข่าว - AMD คาดการณ์ว่า Zettascale supercomputers จะต้องใช้พลังงานถึง 500 เมกะวัตต์ - กราฟแสดงแนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ตั้งแต่ปี 2010 ถึง 2035 - การพัฒนา AI accelerators มีประสิทธิภาพเพิ่มขึ้น 2 เท่าทุก 2.2 ปี - FP128 และ FP64 ให้ความแม่นยำสูง แต่ FP16 และ FP8 มีประโยชน์สำหรับบางงาน - Nvidia B200 มี TDP 1,000W และ AMD MI355X มี TDP 1,400W 🔥 ผลกระทบต่ออุตสาหกรรม AI และพลังงาน รัฐบาลสหรัฐฯ และบริษัทเทคโนโลยี กำลังลงทุนในพลังงานนิวเคลียร์และฟิวชัน เพื่อรองรับ ความต้องการพลังงานที่เพิ่มขึ้นของศูนย์ข้อมูล AI ‼️ คำเตือนที่ควรพิจารณา - การใช้พลังงานของซูเปอร์คอมพิวเตอร์อาจเพิ่มขึ้นอย่างต่อเนื่องจนถึงปี 2035 - ต้องติดตามว่าการลงทุนในพลังงานนิวเคลียร์จะสามารถรองรับความต้องการของศูนย์ข้อมูล AI ได้หรือไม่ - บริษัทเทคโนโลยีต้องพัฒนาโซลูชันที่ช่วยลดการใช้พลังงานของ AI accelerators - ต้องรอดูว่า Nvidia และ AMD จะสามารถเพิ่มประสิทธิภาพของ AI accelerators โดยไม่เพิ่มการใช้พลังงานมากเกินไป แม้ว่าการใช้พลังงานจะเพิ่มขึ้น แต่การพัฒนา AI accelerators และระบบระบายความร้อนที่มีประสิทธิภาพสูงขึ้น อาจช่วยให้ ซูเปอร์คอมพิวเตอร์สามารถทำงานได้โดยใช้พลังงานน้อยลงในอนาคต https://www.tomshardware.com/pc-components/gpus/amd-says-zettascale-supercomputers-will-need-half-a-gigawatt-to-operate-enough-for-375-000-homes
    0 Comments 0 Shares 230 Views 0 Reviews
  • SpiNNaker 2: ซูเปอร์คอมพิวเตอร์ที่เลียนแบบสมองมนุษย์
    Sandia National Laboratories ได้เปิดตัว SpiNNaker 2 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ได้รับแรงบันดาลใจจากสมองมนุษย์ โดยใช้ 175,000 CPU cores และ ไม่ต้องใช้ GPU หรือ SSD

    วิธีการทำงานของ SpiNNaker 2
    SpiNNaker 2 ใช้ สถาปัตยกรรม Spiking Neural Network (SNN) ซึ่งเลียนแบบ การทำงานของเซลล์ประสาทและไซแนปส์ในสมอง โดย แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM ทำให้สามารถ จัดเก็บข้อมูลทั้งหมดในหน่วยความจำโดยไม่ต้องใช้ที่เก็บข้อมูลแยกต่างหาก

    ข้อมูลจากข่าว
    - SpiNNaker 2 ใช้ 175,000 CPU cores และไม่ต้องใช้ GPU หรือ SSD
    - ใช้สถาปัตยกรรม Spiking Neural Network (SNN) เพื่อเลียนแบบสมองมนุษย์
    - แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM
    - สามารถประมวลผลโมเดล AI ขนาดใหญ่และการจำลองสมองทั้งระบบ
    - ระบบใน Dresden อาจมีมากกว่า 720 บอร์ด รวมถึง 5.2 ล้าน CPU cores เมื่อสร้างเสร็จ

    คำเตือนที่ควรพิจารณา
    - แม้จะมีประสิทธิภาพสูง แต่ต้องติดตามว่าการเลียนแบบสมองมนุษย์จะมีข้อจำกัดด้านการใช้งานจริงหรือไม่
    - SpiNNaker 2 อาจไม่สามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ในงานบางประเภท เช่น การฝึกโมเดล AI ขนาดใหญ่
    - ต้องติดตามว่าการใช้ LPDDR4 memory และ SRAM แทน SSD จะส่งผลต่อความเร็วและความเสถียรของระบบอย่างไร
    - การขยายระบบให้มี 5.2 ล้าน CPU cores อาจต้องใช้ทรัพยากรจำนวนมากและมีต้นทุนสูง

    SpiNNaker 2 อาจช่วยให้การจำลองสมองและการประมวลผล AI มีประสิทธิภาพมากขึ้น โดยไม่ต้องใช้ GPU อย่างไรก็ตาม ต้องติดตามว่าการออกแบบนี้จะสามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ได้หรือไม่

    https://www.tomshardware.com/tech-industry/supercomputers/brain-inspired-supercomputer-with-no-gpus-or-storage-switched-on-spinnaker-2-mimics-150-180-million-neurons
    🧠 SpiNNaker 2: ซูเปอร์คอมพิวเตอร์ที่เลียนแบบสมองมนุษย์ Sandia National Laboratories ได้เปิดตัว SpiNNaker 2 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ได้รับแรงบันดาลใจจากสมองมนุษย์ โดยใช้ 175,000 CPU cores และ ไม่ต้องใช้ GPU หรือ SSD 🔍 วิธีการทำงานของ SpiNNaker 2 SpiNNaker 2 ใช้ สถาปัตยกรรม Spiking Neural Network (SNN) ซึ่งเลียนแบบ การทำงานของเซลล์ประสาทและไซแนปส์ในสมอง โดย แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM ทำให้สามารถ จัดเก็บข้อมูลทั้งหมดในหน่วยความจำโดยไม่ต้องใช้ที่เก็บข้อมูลแยกต่างหาก ✅ ข้อมูลจากข่าว - SpiNNaker 2 ใช้ 175,000 CPU cores และไม่ต้องใช้ GPU หรือ SSD - ใช้สถาปัตยกรรม Spiking Neural Network (SNN) เพื่อเลียนแบบสมองมนุษย์ - แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM - สามารถประมวลผลโมเดล AI ขนาดใหญ่และการจำลองสมองทั้งระบบ - ระบบใน Dresden อาจมีมากกว่า 720 บอร์ด รวมถึง 5.2 ล้าน CPU cores เมื่อสร้างเสร็จ ‼️ คำเตือนที่ควรพิจารณา - แม้จะมีประสิทธิภาพสูง แต่ต้องติดตามว่าการเลียนแบบสมองมนุษย์จะมีข้อจำกัดด้านการใช้งานจริงหรือไม่ - SpiNNaker 2 อาจไม่สามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ในงานบางประเภท เช่น การฝึกโมเดล AI ขนาดใหญ่ - ต้องติดตามว่าการใช้ LPDDR4 memory และ SRAM แทน SSD จะส่งผลต่อความเร็วและความเสถียรของระบบอย่างไร - การขยายระบบให้มี 5.2 ล้าน CPU cores อาจต้องใช้ทรัพยากรจำนวนมากและมีต้นทุนสูง SpiNNaker 2 อาจช่วยให้การจำลองสมองและการประมวลผล AI มีประสิทธิภาพมากขึ้น โดยไม่ต้องใช้ GPU อย่างไรก็ตาม ต้องติดตามว่าการออกแบบนี้จะสามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ได้หรือไม่ https://www.tomshardware.com/tech-industry/supercomputers/brain-inspired-supercomputer-with-no-gpus-or-storage-switched-on-spinnaker-2-mimics-150-180-million-neurons
    0 Comments 0 Shares 275 Views 0 Reviews
  • ซูเปอร์คอมพิวเตอร์ Doudna: ก้าวใหม่ของ AI และวิทยาศาสตร์
    กระทรวงพลังงานสหรัฐฯ ประกาศแผนสร้าง ซูเปอร์คอมพิวเตอร์ Doudna ซึ่งจะตั้งอยู่ที่ ห้องปฏิบัติการแห่งชาติ Lawrence Berkeley โดยระบบนี้ได้รับการออกแบบมาเพื่อเร่งความก้าวหน้าทางวิทยาศาสตร์และ AI

    Doudna ได้รับการตั้งชื่อตาม Jennifer Doudna นักวิทยาศาสตร์เจ้าของรางวัลโนเบลที่มีบทบาทสำคัญในการพัฒนาเทคโนโลยี CRISPR gene editing

    ซูเปอร์คอมพิวเตอร์นี้จะใช้ แพลตฟอร์ม Vera Rubin ของ Nvidia ซึ่งรวมพลังของ AI และการจำลองทางวิทยาศาสตร์ เข้าด้วยกัน โดยใช้ ซีพียู Arm-based และ ชิป Rubin AI ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการจำลองข้อมูล

    ข้อมูลจากข่าว
    - Doudna จะตั้งอยู่ที่ Lawrence Berkeley National Laboratory และเริ่มใช้งานในปี 2026
    - Dell Technologies ได้รับเลือกให้สร้างระบบนี้ ซึ่งถือเป็นการเปลี่ยนแปลงครั้งสำคัญในวงการซูเปอร์คอมพิวเตอร์
    - ใช้แพลตฟอร์ม Vera Rubin ของ Nvidia ซึ่งรวมพลังของ AI และการจำลองทางวิทยาศาสตร์
    - Doudna จะเร็วกว่า Perlmutter ซูเปอร์คอมพิวเตอร์รุ่นปัจจุบันกว่า 10 เท่า
    - ระบบนี้จะช่วยนักวิทยาศาสตร์กว่า 11,000 คนในการวิจัยด้านพลังงานความร้อนใต้พิภพและควอนตัมคอมพิวติ้ง

    คำเตือนที่ควรพิจารณา
    - การใช้ AI ในการจำลองข้อมูลอาจต้องปรับเปลี่ยนแนวทางการคำนวณแบบดั้งเดิม
    - การเปลี่ยนจากซีพียู Intel และ AMD ไปใช้ Arm-based อาจมีผลต่อการพัฒนาแอปพลิเคชันที่ต้องปรับตัว
    - ต้องติดตามว่าการรวม AI เข้ากับซูเปอร์คอมพิวเตอร์จะส่งผลต่อความแม่นยำของการจำลองข้อมูลอย่างไร
    - การลงทุนในระบบนี้อาจส่งผลต่อการพัฒนาโครงสร้างพื้นฐานด้าน AI ในอนาคต

    Doudna เป็นตัวอย่างของการผสานรวม AI และการจำลองทางวิทยาศาสตร์ เพื่อเร่งความก้าวหน้าทางเทคโนโลยี หากระบบนี้สามารถทำงานได้ตามที่คาดหวัง

    https://www.techspot.com/news/108119-energy-department-doudna-supercomputer-signals-new-era-ai.html
    🚀 ซูเปอร์คอมพิวเตอร์ Doudna: ก้าวใหม่ของ AI และวิทยาศาสตร์ กระทรวงพลังงานสหรัฐฯ ประกาศแผนสร้าง ซูเปอร์คอมพิวเตอร์ Doudna ซึ่งจะตั้งอยู่ที่ ห้องปฏิบัติการแห่งชาติ Lawrence Berkeley โดยระบบนี้ได้รับการออกแบบมาเพื่อเร่งความก้าวหน้าทางวิทยาศาสตร์และ AI Doudna ได้รับการตั้งชื่อตาม Jennifer Doudna นักวิทยาศาสตร์เจ้าของรางวัลโนเบลที่มีบทบาทสำคัญในการพัฒนาเทคโนโลยี CRISPR gene editing ซูเปอร์คอมพิวเตอร์นี้จะใช้ แพลตฟอร์ม Vera Rubin ของ Nvidia ซึ่งรวมพลังของ AI และการจำลองทางวิทยาศาสตร์ เข้าด้วยกัน โดยใช้ ซีพียู Arm-based และ ชิป Rubin AI ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการจำลองข้อมูล ✅ ข้อมูลจากข่าว - Doudna จะตั้งอยู่ที่ Lawrence Berkeley National Laboratory และเริ่มใช้งานในปี 2026 - Dell Technologies ได้รับเลือกให้สร้างระบบนี้ ซึ่งถือเป็นการเปลี่ยนแปลงครั้งสำคัญในวงการซูเปอร์คอมพิวเตอร์ - ใช้แพลตฟอร์ม Vera Rubin ของ Nvidia ซึ่งรวมพลังของ AI และการจำลองทางวิทยาศาสตร์ - Doudna จะเร็วกว่า Perlmutter ซูเปอร์คอมพิวเตอร์รุ่นปัจจุบันกว่า 10 เท่า - ระบบนี้จะช่วยนักวิทยาศาสตร์กว่า 11,000 คนในการวิจัยด้านพลังงานความร้อนใต้พิภพและควอนตัมคอมพิวติ้ง ‼️ คำเตือนที่ควรพิจารณา - การใช้ AI ในการจำลองข้อมูลอาจต้องปรับเปลี่ยนแนวทางการคำนวณแบบดั้งเดิม - การเปลี่ยนจากซีพียู Intel และ AMD ไปใช้ Arm-based อาจมีผลต่อการพัฒนาแอปพลิเคชันที่ต้องปรับตัว - ต้องติดตามว่าการรวม AI เข้ากับซูเปอร์คอมพิวเตอร์จะส่งผลต่อความแม่นยำของการจำลองข้อมูลอย่างไร - การลงทุนในระบบนี้อาจส่งผลต่อการพัฒนาโครงสร้างพื้นฐานด้าน AI ในอนาคต Doudna เป็นตัวอย่างของการผสานรวม AI และการจำลองทางวิทยาศาสตร์ เพื่อเร่งความก้าวหน้าทางเทคโนโลยี หากระบบนี้สามารถทำงานได้ตามที่คาดหวัง https://www.techspot.com/news/108119-energy-department-doudna-supercomputer-signals-new-era-ai.html
    WWW.TECHSPOT.COM
    Dell, Nvidia, and Department of Energy join forces on "Doudna" supercomputer for science and AI
    The advanced system, to be housed at Lawrence Berkeley National Laboratory and scheduled to become operational in 2026, will be named "Doudna" in honor of Nobel laureate...
    0 Comments 0 Shares 296 Views 0 Reviews
  • Hygon และ Sugon รวมตัวเป็นยักษ์ใหญ่ด้านซูเปอร์คอมพิวเตอร์ของจีน

    จีน กำลังสร้างอาณาจักรซูเปอร์คอมพิวเตอร์ที่แข็งแกร่งขึ้น ด้วยการควบรวม Hygon Information Technology ซึ่งเป็นผู้พัฒนาชิป และ Sugon ซึ่งเป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ โดยการควบรวมนี้ เกิดขึ้นท่ามกลางมาตรการคว่ำบาตรของสหรัฐฯ ที่จำกัดการเข้าถึงเทคโนโลยีจากตะวันตก

    รายละเอียดสำคัญเกี่ยวกับการควบรวม Hygon และ Sugon
    Hygon เป็นบริษัทที่เคยใช้สถาปัตยกรรม Zen ของ AMD แต่ปัจจุบันพัฒนาไมโครอาร์คิเทคเจอร์ของตนเอง
    - ล่าสุด เปิดตัวชิป C86-5G ที่มี 128 คอร์ และรองรับ DDR5-5600

    Sugon เป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ที่ได้รับการสนับสนุนจาก Chinese Academy of Sciences
    - ช่วยให้ จีนติดอันดับ 3 ของโลกในด้านซูเปอร์คอมพิวเตอร์

    การควบรวมนี้เป็นการแลกเปลี่ยนหุ้น โดยหุ้นของทั้งสองบริษัทจะถูกนำออกจากตลาดเป็นเวลา 10 วัน
    - หลังจากนั้น บริษัทใหม่จะเข้าสู่ตลาดหลักทรัพย์เซี่ยงไฮ้

    ทั้ง Hygon และ Sugon อยู่ในรายชื่อ Entity List ของสหรัฐฯ ซึ่งหมายความว่าไม่สามารถเข้าถึงชิปจาก AMD, Intel และ Nvidia ได้โดยตรง
    - การควบรวมนี้ อาจช่วยให้จีนพัฒนาเทคโนโลยีของตนเองได้เร็วขึ้น

    นักวิเคราะห์คาดว่าการควบรวมนี้จะช่วยให้จีนสร้างโครงสร้างพื้นฐานด้าน AI และ Big Data ได้แข็งแกร่งขึ้น
    - เป็น ส่วนหนึ่งของแผนยุทธศาสตร์ของรัฐบาลจีนในการลดการพึ่งพาตะวันตก

    https://www.tomshardware.com/tech-industry/supercomputers/chinas-hygon-and-sugon-merge-to-form-a-vertically-integrated-supercomputing-giant-as-they-fend-off-us-sanctions
    Hygon และ Sugon รวมตัวเป็นยักษ์ใหญ่ด้านซูเปอร์คอมพิวเตอร์ของจีน จีน กำลังสร้างอาณาจักรซูเปอร์คอมพิวเตอร์ที่แข็งแกร่งขึ้น ด้วยการควบรวม Hygon Information Technology ซึ่งเป็นผู้พัฒนาชิป และ Sugon ซึ่งเป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ โดยการควบรวมนี้ เกิดขึ้นท่ามกลางมาตรการคว่ำบาตรของสหรัฐฯ ที่จำกัดการเข้าถึงเทคโนโลยีจากตะวันตก 🔍 รายละเอียดสำคัญเกี่ยวกับการควบรวม Hygon และ Sugon ✅ Hygon เป็นบริษัทที่เคยใช้สถาปัตยกรรม Zen ของ AMD แต่ปัจจุบันพัฒนาไมโครอาร์คิเทคเจอร์ของตนเอง - ล่าสุด เปิดตัวชิป C86-5G ที่มี 128 คอร์ และรองรับ DDR5-5600 ✅ Sugon เป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ที่ได้รับการสนับสนุนจาก Chinese Academy of Sciences - ช่วยให้ จีนติดอันดับ 3 ของโลกในด้านซูเปอร์คอมพิวเตอร์ ✅ การควบรวมนี้เป็นการแลกเปลี่ยนหุ้น โดยหุ้นของทั้งสองบริษัทจะถูกนำออกจากตลาดเป็นเวลา 10 วัน - หลังจากนั้น บริษัทใหม่จะเข้าสู่ตลาดหลักทรัพย์เซี่ยงไฮ้ ✅ ทั้ง Hygon และ Sugon อยู่ในรายชื่อ Entity List ของสหรัฐฯ ซึ่งหมายความว่าไม่สามารถเข้าถึงชิปจาก AMD, Intel และ Nvidia ได้โดยตรง - การควบรวมนี้ อาจช่วยให้จีนพัฒนาเทคโนโลยีของตนเองได้เร็วขึ้น ✅ นักวิเคราะห์คาดว่าการควบรวมนี้จะช่วยให้จีนสร้างโครงสร้างพื้นฐานด้าน AI และ Big Data ได้แข็งแกร่งขึ้น - เป็น ส่วนหนึ่งของแผนยุทธศาสตร์ของรัฐบาลจีนในการลดการพึ่งพาตะวันตก https://www.tomshardware.com/tech-industry/supercomputers/chinas-hygon-and-sugon-merge-to-form-a-vertically-integrated-supercomputing-giant-as-they-fend-off-us-sanctions
    0 Comments 0 Shares 424 Views 0 Reviews
  • รายงานสรุปจากงาน Microsoft Build 2025 วันที่ 2

    งาน Microsoft Build 2025 ซึ่งจัดขึ้นระหว่างวันที่ 19-22 พฤษภาคม 2568 ที่เมืองซีแอตเทิล มีการประกาศนวัตกรรมสำคัญมากมายในวันที่ 2 (20 พฤษภาคม 2568) โดยเน้นที่การพัฒนาเทคโนโลยี AI และเครื่องมือสำหรับนักพัฒนา ด้านล่างนี้เป็นรายละเอียดทั้งหมดที่ครอบคลุมทุกแง่มุมของงานในวันที่ 2:

    การพัฒนา AI และเทคโนโลยี Agentic

    - งานวันที่ 2 เริ่มต้นด้วย keynote สำหรับนักพัฒนา โดยเน้นรายละเอียดทางเทคนิคมากกว่าวันแรกของ Satya Nadella. มีการเปิดตัว Microsoft Discovery ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ Agent AI เพื่อเปลี่ยนแปลงกระบวนการวิจัยวิทยาศาสตร์ โดยช่วยในการจำลองสถานการณ์จริง เช่น การพัฒนาโซลูชันระบายความร้อน. John Link ได้สาธิตการใช้งานในงานนี้.

    - NLWeb เป็นเทคโนโลยีที่ช่วยให้การโต้ตอบด้วยภาษาธรรมชาติบนเว็บมีประสิทธิภาพมากขึ้น โดยเปลี่ยนเว็บไซต์ให้เป็นแอปพลิเคชันที่ขับเคลื่อนด้วย AI Agent พัฒนาโดย R.V. Guha และได้รับการสนับสนุนจากองค์กรต่างๆ เช่น O’Reilly Media, Snowflake, Shopify, และ Chicago Public Library. Windows AI Foundry ซึ่งก่อนหน้านี้ชื่อ Windows 11 Copilot Runtime เปิดตัวอย่างเป็นทางการ (GA) รองรับการทำงานบน CPU, GPU, และคลาวด์ พร้อมรุ่นสำหรับ Mac ซึ่งช่วยให้นักพัฒนาสามารถสร้างฟีเจอร์ AI ได้หลากหลายมากขึ้น.

    - AI Agents ถูกนำมาใช้ในงานต่างๆ เช่น การวางแผนการเดินทาง, ลดการเกิด hallucination, และการดูแลผู้ป่วยมะเร็งโดยการรวมข้อมูลทางการแพทย์และแบ่งปันกับโรงพยาบาลชุมชน. มีการพูดถึง Agentic Web ซึ่งเป็นแนวคิดใหม่ในการพัฒนาเว็บที่ขับเคลื่อนด้วย AI Agent เพื่อความเปิดกว้างและความเร็วในการสร้างเว็บไซต์.

    เครื่องมือสำหรับนักพัฒนา

    - มีการสาธิต GitHub Copilot ซึ่งได้รับการอัปเกรดให้เป็น "เพื่อนนักพัฒนา" หรือ "Project Padawan" โดยสามารถแก้บั๊ก, พัฒนาฟีเจอร์ใหม่, และจัดการ GitHub Issues ได้โดยอัตโนมัติ รวมถึงช่วยจัดการหลายงานพร้อมกันเพื่อเพิ่มประสิทธิภาพการทำงานของนักพัฒนา. GitHub Copilot เปิดตัวอย่างเป็นทางการสำหรับลูกค้า Copilot Enterprise และ Copilot Pro+ เหมาะสำหรับงานที่มีความซับซ้อนต่ำถึงปานกลาง.

    - Copilot Studio ได้รับการอัปเกรดด้วยคุณสมบัติสำหรับนักพัฒนามืออาวุโส รวมถึง M365 Copilot APIs (ในรูปแบบ preview) และ Bring Your Own Models จาก Azure Foundry (ในรูปแบบ preview). SQL Server 2025 เปิดตัวในรูปแบบ public preview พร้อมการรวม AI และความสามารถในการค้นหาเวกเตอร์ ซึ่งช่วยเพิ่มประสิทธิภาพในการจัดการฐานข้อมูล.

    - Microsoft ประกาศเปิดตัว Windows Subsystem for Linux (WSL) เป็นโอเพ่นซอร์ส รวมถึง "Mariner" Linux และ WSL-g UI layer, และมีแผนจะเปิดตัว GitHub Copilot Chat Extension สำหรับ VSCode เป็นโอเพ่นซอร์สในอีกไม่กี่สัปดาห์ข้างหน้า. นอกจากนี้ยังมีการพูดถึง Model Context Protocol (MCP) ซึ่ง Microsoft เข้าร่วม MCP Steering Committee และรองรับ MCP บนแพลตฟอร์มต่างๆ เช่น GitHub, Copilot Studio, Dynamics 365, Azure, Azure AI Foundry, Semantic Kernel, Foundry Agents, และ Windows 11.

    Microsoft 365 และ Copilot
    Microsoft 365 Copilot Wave 2 Spring Release มีการอัปเดตใหม่สำหรับการทำงานร่วมกันระหว่างมนุษย์และ AI Agent รวมถึง:

    - แอปที่อัปเดตสำหรับการทำงานร่วมกัน.
    - ประสบการณ์การสร้างด้วย OpenAI GPT-4o สำหรับการสร้างภาพ.
    - Copilot Notebooks เปิดตัวอย่างเป็นทางการ (GA).
    - Copilot Search และ Copilot Memory จะเริ่มใช้งานในเดือนมิถุนายน.
    - Researcher และ Analyst agents ผ่านโปรแกรม Frontier จะเริ่มในเดือนนี้.

    Power Apps มีการประกาศคุณสมบัติใหม่ เช่น:
    - Solution Workspace เปิดตัวอย่างเป็นทางการวันที่ 30 พฤษภาคม.
    - Generative pages ด้วย React code (Early Access Program).
    - Agent feed สำหรับแอป (Early Access Program).
    - นำแอปแบบ code-first มายัง Power Platform (Early Access Program).

    ความร่วมมือและนวัตกรรม
    - มีการร่วมมือกับ Nvidia โดย Jensen Huang กล่าวถึงการเร่งการทำงานของ AI และการจัดการงานหนักด้วย CUDA. นอกจากนี้ยังมีความร่วมมือกับ xAI โดย Elon Musk ปรากฏตัวผ่านวิดีโอและประกาศว่า Grok 3 และ Grok 3 Mini จะมีบน Azure AI Foundry เพื่อเพิ่มความแม่นยำและลดข้อผิดพลาดของ AI โดยใช้กฎหมายฟิสิกส์.

    - MyEngine AI ถูกนำมาใช้เพื่อช่วยผู้ที่มีปัญหาการได้ยินเข้าใจสำเนียงท้องถิ่นได้ดีขึ้น. AI ยังถูกนำมาใช้ในด้านที่น่าสนใจ เช่น การพยากรณ์อากาศด้วย supercomputer บนคลาวด์ ซึ่งต้องการพลังการคำนวณสูงเพื่อเพิ่มความแม่นยำ และ AI สำหรับ NFL Combine ซึ่งมีการสาธิตผ่านวิดีโอ (AI for NFL Combine).

    ความปลอดภัยและการจัดการ
    - Microsoft ขยายการใช้งาน Entra, Defender for Cloud, และ Purview เข้าสู่ Azure AI Foundry และ Copilot Studio เพื่อเพิ่มความปลอดภัย. Entra Agent ID เปิดตัวในรูปแบบ preview เพื่อจัดการ AI Agents ซึ่งช่วยในการควบคุมและปกป้องการทำงานของ AI.

    บุคคลสำคัญและการปรากฏตัว
    - งานวันที่ 2 มีการปรากฏตัวของบุคคลสำคัญผ่านวิดีโอ เช่น Sam Altman (OpenAI) ที่กล่าวถึงการจัดการงาน AI ขนาดใหญ่ และ Elon Musk (xAI) ที่พูดถึงความร่วมมือกับ Microsoft ในการนำ Grok 3 และ Grok 3 Mini มาใช้บน Azure.
    รายงานสรุปจากงาน Microsoft Build 2025 วันที่ 2 งาน Microsoft Build 2025 ซึ่งจัดขึ้นระหว่างวันที่ 19-22 พฤษภาคม 2568 ที่เมืองซีแอตเทิล มีการประกาศนวัตกรรมสำคัญมากมายในวันที่ 2 (20 พฤษภาคม 2568) โดยเน้นที่การพัฒนาเทคโนโลยี AI และเครื่องมือสำหรับนักพัฒนา ด้านล่างนี้เป็นรายละเอียดทั้งหมดที่ครอบคลุมทุกแง่มุมของงานในวันที่ 2: ℹ️ การพัฒนา AI และเทคโนโลยี Agentic - งานวันที่ 2 เริ่มต้นด้วย keynote สำหรับนักพัฒนา โดยเน้นรายละเอียดทางเทคนิคมากกว่าวันแรกของ Satya Nadella. มีการเปิดตัว Microsoft Discovery ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ Agent AI เพื่อเปลี่ยนแปลงกระบวนการวิจัยวิทยาศาสตร์ โดยช่วยในการจำลองสถานการณ์จริง เช่น การพัฒนาโซลูชันระบายความร้อน. John Link ได้สาธิตการใช้งานในงานนี้. - NLWeb เป็นเทคโนโลยีที่ช่วยให้การโต้ตอบด้วยภาษาธรรมชาติบนเว็บมีประสิทธิภาพมากขึ้น โดยเปลี่ยนเว็บไซต์ให้เป็นแอปพลิเคชันที่ขับเคลื่อนด้วย AI Agent พัฒนาโดย R.V. Guha และได้รับการสนับสนุนจากองค์กรต่างๆ เช่น O’Reilly Media, Snowflake, Shopify, และ Chicago Public Library. Windows AI Foundry ซึ่งก่อนหน้านี้ชื่อ Windows 11 Copilot Runtime เปิดตัวอย่างเป็นทางการ (GA) รองรับการทำงานบน CPU, GPU, และคลาวด์ พร้อมรุ่นสำหรับ Mac ซึ่งช่วยให้นักพัฒนาสามารถสร้างฟีเจอร์ AI ได้หลากหลายมากขึ้น. - AI Agents ถูกนำมาใช้ในงานต่างๆ เช่น การวางแผนการเดินทาง, ลดการเกิด hallucination, และการดูแลผู้ป่วยมะเร็งโดยการรวมข้อมูลทางการแพทย์และแบ่งปันกับโรงพยาบาลชุมชน. มีการพูดถึง Agentic Web ซึ่งเป็นแนวคิดใหม่ในการพัฒนาเว็บที่ขับเคลื่อนด้วย AI Agent เพื่อความเปิดกว้างและความเร็วในการสร้างเว็บไซต์. ℹ️ เครื่องมือสำหรับนักพัฒนา - มีการสาธิต GitHub Copilot ซึ่งได้รับการอัปเกรดให้เป็น "เพื่อนนักพัฒนา" หรือ "Project Padawan" โดยสามารถแก้บั๊ก, พัฒนาฟีเจอร์ใหม่, และจัดการ GitHub Issues ได้โดยอัตโนมัติ รวมถึงช่วยจัดการหลายงานพร้อมกันเพื่อเพิ่มประสิทธิภาพการทำงานของนักพัฒนา. GitHub Copilot เปิดตัวอย่างเป็นทางการสำหรับลูกค้า Copilot Enterprise และ Copilot Pro+ เหมาะสำหรับงานที่มีความซับซ้อนต่ำถึงปานกลาง. - Copilot Studio ได้รับการอัปเกรดด้วยคุณสมบัติสำหรับนักพัฒนามืออาวุโส รวมถึง M365 Copilot APIs (ในรูปแบบ preview) และ Bring Your Own Models จาก Azure Foundry (ในรูปแบบ preview). SQL Server 2025 เปิดตัวในรูปแบบ public preview พร้อมการรวม AI และความสามารถในการค้นหาเวกเตอร์ ซึ่งช่วยเพิ่มประสิทธิภาพในการจัดการฐานข้อมูล. - Microsoft ประกาศเปิดตัว Windows Subsystem for Linux (WSL) เป็นโอเพ่นซอร์ส รวมถึง "Mariner" Linux และ WSL-g UI layer, และมีแผนจะเปิดตัว GitHub Copilot Chat Extension สำหรับ VSCode เป็นโอเพ่นซอร์สในอีกไม่กี่สัปดาห์ข้างหน้า. นอกจากนี้ยังมีการพูดถึง Model Context Protocol (MCP) ซึ่ง Microsoft เข้าร่วม MCP Steering Committee และรองรับ MCP บนแพลตฟอร์มต่างๆ เช่น GitHub, Copilot Studio, Dynamics 365, Azure, Azure AI Foundry, Semantic Kernel, Foundry Agents, และ Windows 11. ℹ️ Microsoft 365 และ Copilot ➡️ Microsoft 365 Copilot Wave 2 Spring Release มีการอัปเดตใหม่สำหรับการทำงานร่วมกันระหว่างมนุษย์และ AI Agent รวมถึง: - แอปที่อัปเดตสำหรับการทำงานร่วมกัน. - ประสบการณ์การสร้างด้วย OpenAI GPT-4o สำหรับการสร้างภาพ. - Copilot Notebooks เปิดตัวอย่างเป็นทางการ (GA). - Copilot Search และ Copilot Memory จะเริ่มใช้งานในเดือนมิถุนายน. - Researcher และ Analyst agents ผ่านโปรแกรม Frontier จะเริ่มในเดือนนี้. ➡️ Power Apps มีการประกาศคุณสมบัติใหม่ เช่น: - Solution Workspace เปิดตัวอย่างเป็นทางการวันที่ 30 พฤษภาคม. - Generative pages ด้วย React code (Early Access Program). - Agent feed สำหรับแอป (Early Access Program). - นำแอปแบบ code-first มายัง Power Platform (Early Access Program). ℹ️ ความร่วมมือและนวัตกรรม - มีการร่วมมือกับ Nvidia โดย Jensen Huang กล่าวถึงการเร่งการทำงานของ AI และการจัดการงานหนักด้วย CUDA. นอกจากนี้ยังมีความร่วมมือกับ xAI โดย Elon Musk ปรากฏตัวผ่านวิดีโอและประกาศว่า Grok 3 และ Grok 3 Mini จะมีบน Azure AI Foundry เพื่อเพิ่มความแม่นยำและลดข้อผิดพลาดของ AI โดยใช้กฎหมายฟิสิกส์. - MyEngine AI ถูกนำมาใช้เพื่อช่วยผู้ที่มีปัญหาการได้ยินเข้าใจสำเนียงท้องถิ่นได้ดีขึ้น. AI ยังถูกนำมาใช้ในด้านที่น่าสนใจ เช่น การพยากรณ์อากาศด้วย supercomputer บนคลาวด์ ซึ่งต้องการพลังการคำนวณสูงเพื่อเพิ่มความแม่นยำ และ AI สำหรับ NFL Combine ซึ่งมีการสาธิตผ่านวิดีโอ (AI for NFL Combine). ℹ️ ความปลอดภัยและการจัดการ - Microsoft ขยายการใช้งาน Entra, Defender for Cloud, และ Purview เข้าสู่ Azure AI Foundry และ Copilot Studio เพื่อเพิ่มความปลอดภัย. Entra Agent ID เปิดตัวในรูปแบบ preview เพื่อจัดการ AI Agents ซึ่งช่วยในการควบคุมและปกป้องการทำงานของ AI. ℹ️ บุคคลสำคัญและการปรากฏตัว - งานวันที่ 2 มีการปรากฏตัวของบุคคลสำคัญผ่านวิดีโอ เช่น Sam Altman (OpenAI) ที่กล่าวถึงการจัดการงาน AI ขนาดใหญ่ และ Elon Musk (xAI) ที่พูดถึงความร่วมมือกับ Microsoft ในการนำ Grok 3 และ Grok 3 Mini มาใช้บน Azure.
    0 Comments 0 Shares 707 Views 0 Reviews
  • Gigabyte เปิดตัว AI Supercomputer ขนาดเล็ก DGX Spark รุ่นพิเศษ

    Gigabyte เปิดตัว AI Supercomputer รุ่นพิเศษที่พัฒนาจาก NVIDIA DGX Spark ในงาน Computex 2025 โดยใช้ชื่อ AI TOP ATOM ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ขนาดเล็กที่ให้พลังประมวลผล AI สูงถึง 1,000 TOPS

    รายละเอียดสำคัญเกี่ยวกับ AI TOP ATOM ของ Gigabyte
    ใช้ชิป GB10 Grace Blackwell Superchip ที่มี NVIDIA Blackwell GPU
    - รองรับ Tensor Cores รุ่นที่ 5 และ FP4 สำหรับการประมวลผล AI

    พลังประมวลผลสูงถึง 1,000 TOPS หรือ 1,000 ล้านล้านคำสั่งต่อวินาที
    - สูงกว่าหน่วยประมวลผล NPU ทั่วไปถึง 20-50 เท่า

    ใช้เทคโนโลยี NVLink-C2C เพื่อเชื่อมต่อ CPU และ GPU ให้ทำงานร่วมกันได้อย่างมีประสิทธิภาพ
    - มี แบนด์วิดท์สูงกว่ามาตรฐาน PCIe รุ่นที่ 5 ถึง 5 เท่า

    ใช้หน่วยความจำ LPDDR5X จาก Micron เพื่อเพิ่มประสิทธิภาพการทำงาน
    - ช่วยให้ สามารถประมวลผลโมเดล AI ที่มีพารามิเตอร์สูงถึง 70 พันล้านตัว

    รองรับการทำงานร่วมกันระหว่างสองเครื่องผ่าน NVIDIA Connect-X
    - ทำให้สามารถ เพิ่มพารามิเตอร์ของโมเดล AI ได้สูงถึง 405 พันล้านตัว

    https://wccftech.com/gigabyte-unveils-its-custom-nvidia-dgx-spark-mini-ai-supercomputer/
    Gigabyte เปิดตัว AI Supercomputer ขนาดเล็ก DGX Spark รุ่นพิเศษ Gigabyte เปิดตัว AI Supercomputer รุ่นพิเศษที่พัฒนาจาก NVIDIA DGX Spark ในงาน Computex 2025 โดยใช้ชื่อ AI TOP ATOM ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ขนาดเล็กที่ให้พลังประมวลผล AI สูงถึง 1,000 TOPS 🔍 รายละเอียดสำคัญเกี่ยวกับ AI TOP ATOM ของ Gigabyte ✅ ใช้ชิป GB10 Grace Blackwell Superchip ที่มี NVIDIA Blackwell GPU - รองรับ Tensor Cores รุ่นที่ 5 และ FP4 สำหรับการประมวลผล AI ✅ พลังประมวลผลสูงถึง 1,000 TOPS หรือ 1,000 ล้านล้านคำสั่งต่อวินาที - สูงกว่าหน่วยประมวลผล NPU ทั่วไปถึง 20-50 เท่า ✅ ใช้เทคโนโลยี NVLink-C2C เพื่อเชื่อมต่อ CPU และ GPU ให้ทำงานร่วมกันได้อย่างมีประสิทธิภาพ - มี แบนด์วิดท์สูงกว่ามาตรฐาน PCIe รุ่นที่ 5 ถึง 5 เท่า ✅ ใช้หน่วยความจำ LPDDR5X จาก Micron เพื่อเพิ่มประสิทธิภาพการทำงาน - ช่วยให้ สามารถประมวลผลโมเดล AI ที่มีพารามิเตอร์สูงถึง 70 พันล้านตัว ✅ รองรับการทำงานร่วมกันระหว่างสองเครื่องผ่าน NVIDIA Connect-X - ทำให้สามารถ เพิ่มพารามิเตอร์ของโมเดล AI ได้สูงถึง 405 พันล้านตัว https://wccftech.com/gigabyte-unveils-its-custom-nvidia-dgx-spark-mini-ai-supercomputer/
    WCCFTECH.COM
    Gigabyte Unveils Its Custom NVIDIA "DGX Spark" Mini-AI Supercomputer: The AI TOP ATOM Offering a Whopping 1,000 TOPS of AI Power
    Gigabyte also decided to take its shot at the AI segment as well, unveiling a custom variant of NVIDIA's DGX Spark, the AI TOP ATOM.
    0 Comments 0 Shares 220 Views 0 Reviews
  • MSI เปิดตัว EdgeXpert MS-C931: AI Supercomputer หรือแค่การตลาด?

    MSI เปิดตัว EdgeXpert MS-C931 ซึ่งเป็นเดสก์ท็อปที่ใช้แพลตฟอร์ม Nvidia DGX Spark โดยมีเป้าหมายเพื่อให้เป็น "AI Supercomputer" สำหรับนักพัฒนาและองค์กรที่ต้องการพลังประมวลผล AI ในระดับสูง อย่างไรก็ตาม ยังมีข้อสงสัยเกี่ยวกับความสามารถที่แท้จริงของอุปกรณ์นี้

    รายละเอียดสำคัญเกี่ยวกับ MSI EdgeXpert MS-C931
    ใช้ Nvidia GB10 Grace Blackwell Superchip
    - ให้ พลังประมวลผล AI สูงสุด 1,000 TOPS (FP4)

    มีหน่วยความจำรวม 128GB และรองรับ ConnectX-7 high-speed networking
    - เหมาะสำหรับ การประมวลผล AI ที่ต้องการแบนด์วิดท์สูง

    MSI ระบุว่าอุปกรณ์นี้เหมาะสำหรับภาคการศึกษา, การเงิน และการดูแลสุขภาพ
    - เนื่องจาก ต้องการความเป็นส่วนตัวของข้อมูลและความหน่วงต่ำ

    สามารถใช้เป็น Workstation สำหรับการพัฒนา AI และการจำลองขนาดใหญ่
    - มี ประสิทธิภาพสูงในการรันโมเดล Machine Learning

    จะถูกนำเสนอในงาน Computex 2025
    - MSI หวังว่าจะเป็นตัวเลือกใหม่สำหรับองค์กรที่ต้องการพลัง AI ในระดับสูง

    https://www.techradar.com/computing/cloud-computing/after-asus-and-dell-msi-is-launching-a-nvidia-dgx-spark-clone-but-i-am-still-skeptical-about-the-whole-desktop-ai-supercomputer-moniker
    MSI เปิดตัว EdgeXpert MS-C931: AI Supercomputer หรือแค่การตลาด? MSI เปิดตัว EdgeXpert MS-C931 ซึ่งเป็นเดสก์ท็อปที่ใช้แพลตฟอร์ม Nvidia DGX Spark โดยมีเป้าหมายเพื่อให้เป็น "AI Supercomputer" สำหรับนักพัฒนาและองค์กรที่ต้องการพลังประมวลผล AI ในระดับสูง อย่างไรก็ตาม ยังมีข้อสงสัยเกี่ยวกับความสามารถที่แท้จริงของอุปกรณ์นี้ 🔍 รายละเอียดสำคัญเกี่ยวกับ MSI EdgeXpert MS-C931 ✅ ใช้ Nvidia GB10 Grace Blackwell Superchip - ให้ พลังประมวลผล AI สูงสุด 1,000 TOPS (FP4) ✅ มีหน่วยความจำรวม 128GB และรองรับ ConnectX-7 high-speed networking - เหมาะสำหรับ การประมวลผล AI ที่ต้องการแบนด์วิดท์สูง ✅ MSI ระบุว่าอุปกรณ์นี้เหมาะสำหรับภาคการศึกษา, การเงิน และการดูแลสุขภาพ - เนื่องจาก ต้องการความเป็นส่วนตัวของข้อมูลและความหน่วงต่ำ ✅ สามารถใช้เป็น Workstation สำหรับการพัฒนา AI และการจำลองขนาดใหญ่ - มี ประสิทธิภาพสูงในการรันโมเดล Machine Learning ✅ จะถูกนำเสนอในงาน Computex 2025 - MSI หวังว่าจะเป็นตัวเลือกใหม่สำหรับองค์กรที่ต้องการพลัง AI ในระดับสูง https://www.techradar.com/computing/cloud-computing/after-asus-and-dell-msi-is-launching-a-nvidia-dgx-spark-clone-but-i-am-still-skeptical-about-the-whole-desktop-ai-supercomputer-moniker
    0 Comments 0 Shares 425 Views 0 Reviews
  • Google, Microsoft และ Meta นำเทคโนโลยีจากรถยนต์ไฟฟ้ามาใช้ในศูนย์ข้อมูล

    ศูนย์ข้อมูลกำลังเผชิญกับความต้องการพลังงานที่เพิ่มขึ้นอย่างมหาศาลจาก AI workloads ทำให้บริษัทเทคโนโลยีรายใหญ่ต้องปรับโครงสร้างพื้นฐาน โดยนำ ระบบไฟฟ้า 400VDC และระบบระบายความร้อนด้วยของเหลว ซึ่งเคยใช้ใน รถยนต์ไฟฟ้า (EVs) มาปรับใช้กับเซิร์ฟเวอร์ที่ต้องการพลังงานสูง

    รายละเอียดสำคัญเกี่ยวกับการเปลี่ยนแปลงในศูนย์ข้อมูล
    Google ใช้ระบบไฟฟ้า 400VDC เพื่อเพิ่มประสิทธิภาพการใช้พลังงาน
    - ลดพื้นที่ที่ใช้สำหรับระบบจ่ายไฟ ทำให้มีพื้นที่สำหรับเซิร์ฟเวอร์มากขึ้น

    Meta, Microsoft และ Open Compute Project (OCP) สนับสนุนมาตรฐาน Mt. Diablo
    - เป็น มาตรฐานใหม่สำหรับการจ่ายไฟในศูนย์ข้อมูล

    Google TPU Supercomputers ทำงานที่ระดับกิกะวัตต์ พร้อม uptime 99.999%
    - ใช้ ระบบระบายความร้อนด้วยของเหลวแทนฮีตซิงค์แบบเดิม

    ชิป AI รุ่นใหม่ใช้พลังงานมากกว่า 1,000 วัตต์ต่อชิป
    - ทำให้ ระบบระบายความร้อนด้วยอากาศเริ่มไม่เพียงพอ

    การใช้เทคโนโลยีจาก EVs ช่วยเพิ่มประสิทธิภาพการใช้พลังงานขึ้น 3%
    - ลด การสูญเสียพลังงานจากการแปลงไฟฟ้า

    https://www.techradar.com/pro/microsoft-google-and-meta-have-borrowed-ev-tech-for-the-next-big-thing-in-data-center-1mw-watercooled-racks
    Google, Microsoft และ Meta นำเทคโนโลยีจากรถยนต์ไฟฟ้ามาใช้ในศูนย์ข้อมูล ศูนย์ข้อมูลกำลังเผชิญกับความต้องการพลังงานที่เพิ่มขึ้นอย่างมหาศาลจาก AI workloads ทำให้บริษัทเทคโนโลยีรายใหญ่ต้องปรับโครงสร้างพื้นฐาน โดยนำ ระบบไฟฟ้า 400VDC และระบบระบายความร้อนด้วยของเหลว ซึ่งเคยใช้ใน รถยนต์ไฟฟ้า (EVs) มาปรับใช้กับเซิร์ฟเวอร์ที่ต้องการพลังงานสูง 🔍 รายละเอียดสำคัญเกี่ยวกับการเปลี่ยนแปลงในศูนย์ข้อมูล ✅ Google ใช้ระบบไฟฟ้า 400VDC เพื่อเพิ่มประสิทธิภาพการใช้พลังงาน - ลดพื้นที่ที่ใช้สำหรับระบบจ่ายไฟ ทำให้มีพื้นที่สำหรับเซิร์ฟเวอร์มากขึ้น ✅ Meta, Microsoft และ Open Compute Project (OCP) สนับสนุนมาตรฐาน Mt. Diablo - เป็น มาตรฐานใหม่สำหรับการจ่ายไฟในศูนย์ข้อมูล ✅ Google TPU Supercomputers ทำงานที่ระดับกิกะวัตต์ พร้อม uptime 99.999% - ใช้ ระบบระบายความร้อนด้วยของเหลวแทนฮีตซิงค์แบบเดิม ✅ ชิป AI รุ่นใหม่ใช้พลังงานมากกว่า 1,000 วัตต์ต่อชิป - ทำให้ ระบบระบายความร้อนด้วยอากาศเริ่มไม่เพียงพอ ✅ การใช้เทคโนโลยีจาก EVs ช่วยเพิ่มประสิทธิภาพการใช้พลังงานขึ้น 3% - ลด การสูญเสียพลังงานจากการแปลงไฟฟ้า https://www.techradar.com/pro/microsoft-google-and-meta-have-borrowed-ev-tech-for-the-next-big-thing-in-data-center-1mw-watercooled-racks
    0 Comments 0 Shares 331 Views 0 Reviews
  • MSI เปิดตัวซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อปที่ Computex 2025

    MSI เตรียมเปิดตัว EdgeXpert MS-C931 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อป ที่ใช้ แพลตฟอร์ม Nvidia DGX Spark โดยอุปกรณ์นี้มาพร้อมกับ GB10 Grace Blackwell Superchip ที่สามารถประมวลผลได้ถึง 1,000 AI TOPS FP4

    ใช้ Nvidia GB10 Grace Blackwell Superchip
    - ประกอบด้วย สถาปัตยกรรม Blackwell GPU และ Tensor Cores รุ่นที่ 5

    รองรับ NVLink-C2C เชื่อมต่อกับ Nvidia Grace CPU
    - ใช้ สถาปัตยกรรม Arm พร้อม 20 คอร์ที่ประหยัดพลังงาน

    มาพร้อมกับ ConnectX 7 networking และหน่วยความจำรวม 128GB
    - รองรับ LLM ขนาดสูงสุด 200 พันล้านพารามิเตอร์ และ 405 พันล้านพารามิเตอร์เมื่อใช้สองชิป

    สามารถรองรับ NVMe storage สูงสุด 4TB
    - ช่วยให้ การประมวลผลโมเดล AI มีประสิทธิภาพสูงขึ้น

    มาพร้อมกับซอฟต์แวร์ AI ของ Nvidia ที่รองรับโมเดลจาก DeepSeek, Meta และ Google
    - ช่วยให้ นักพัฒนาสามารถใช้งานโมเดล AI ได้ง่ายขึ้น

    https://www.tomshardware.com/desktops/mini-pcs/msi-to-unveil-desktop-ai-supercomputer-at-computex-2025-powered-by-nvidia-dgx
    MSI เปิดตัวซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อปที่ Computex 2025 MSI เตรียมเปิดตัว EdgeXpert MS-C931 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อป ที่ใช้ แพลตฟอร์ม Nvidia DGX Spark โดยอุปกรณ์นี้มาพร้อมกับ GB10 Grace Blackwell Superchip ที่สามารถประมวลผลได้ถึง 1,000 AI TOPS FP4 ✅ ใช้ Nvidia GB10 Grace Blackwell Superchip - ประกอบด้วย สถาปัตยกรรม Blackwell GPU และ Tensor Cores รุ่นที่ 5 ✅ รองรับ NVLink-C2C เชื่อมต่อกับ Nvidia Grace CPU - ใช้ สถาปัตยกรรม Arm พร้อม 20 คอร์ที่ประหยัดพลังงาน ✅ มาพร้อมกับ ConnectX 7 networking และหน่วยความจำรวม 128GB - รองรับ LLM ขนาดสูงสุด 200 พันล้านพารามิเตอร์ และ 405 พันล้านพารามิเตอร์เมื่อใช้สองชิป ✅ สามารถรองรับ NVMe storage สูงสุด 4TB - ช่วยให้ การประมวลผลโมเดล AI มีประสิทธิภาพสูงขึ้น ✅ มาพร้อมกับซอฟต์แวร์ AI ของ Nvidia ที่รองรับโมเดลจาก DeepSeek, Meta และ Google - ช่วยให้ นักพัฒนาสามารถใช้งานโมเดล AI ได้ง่ายขึ้น https://www.tomshardware.com/desktops/mini-pcs/msi-to-unveil-desktop-ai-supercomputer-at-computex-2025-powered-by-nvidia-dgx
    WWW.TOMSHARDWARE.COM
    MSI to unveil desktop AI supercomputer at Computex 2025, powered by Nvidia DGX
    MSI is also expanding its deskstop system and unveiling a new motherboard
    0 Comments 0 Shares 338 Views 0 Reviews
  • ที่งาน Nico Nico Super Conference ในญี่ปุ่น ซูเปอร์คอมพิวเตอร์ Fugaku ได้เข้าร่วมการแข่งขัน Super Keisan Battle ซึ่งเป็นเกมที่ให้ผู้เข้าแข่งขันพยายามแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที โดยมีรางวัลเป็น "Fugaku One-Day Unlimited Ticket" ที่ให้ผู้ชนะสามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน

    อย่างไรก็ตาม ไม่มีใครสามารถเอาชนะ Fugaku ได้ เพราะมันสามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้ง ในเวลาเพียง 10 วินาที ขณะที่มนุษย์ที่ทำคะแนนสูงสุดสามารถแก้โจทย์ได้เพียง 13 ข้อ

    Fugaku สามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้งใน 10 วินาที
    - เทียบกับมนุษย์ที่ทำคะแนนสูงสุดได้เพียง 13 ข้อ

    ผู้เข้าแข่งขันต้องแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที
    - ส่วนใหญ่ทำได้ประมาณ 10-11 ข้อ

    รางวัลสำหรับผู้ชนะคือ "Fugaku One-Day Unlimited Ticket"
    - สามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน

    แม้จะแพ้ แต่ผู้เข้าแข่งขันยังได้รับรางวัลปลอบใจเป็นโมเดลจำลองของ Fugaku
    - เป็นของที่ระลึกจากการแข่งขัน

    Fugaku ถูกใช้ในการวิจัยด้านการป้องกันภัยพิบัติ เช่น การจำลองน้ำท่วมและแผนการอพยพที่เหมาะสม
    - แสดงให้เห็นถึง ความสำคัญของซูเปอร์คอมพิวเตอร์ในงานวิจัยระดับประเทศ

    https://www.tomshardware.com/tech-industry/supercomputers/supercomputer-beats-human-four-sextillion-to-13-in-super-keisan-battle-at-japanese-tech-show
    ที่งาน Nico Nico Super Conference ในญี่ปุ่น ซูเปอร์คอมพิวเตอร์ Fugaku ได้เข้าร่วมการแข่งขัน Super Keisan Battle ซึ่งเป็นเกมที่ให้ผู้เข้าแข่งขันพยายามแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที โดยมีรางวัลเป็น "Fugaku One-Day Unlimited Ticket" ที่ให้ผู้ชนะสามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน อย่างไรก็ตาม ไม่มีใครสามารถเอาชนะ Fugaku ได้ เพราะมันสามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้ง ในเวลาเพียง 10 วินาที ขณะที่มนุษย์ที่ทำคะแนนสูงสุดสามารถแก้โจทย์ได้เพียง 13 ข้อ ✅ Fugaku สามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้งใน 10 วินาที - เทียบกับมนุษย์ที่ทำคะแนนสูงสุดได้เพียง 13 ข้อ ✅ ผู้เข้าแข่งขันต้องแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที - ส่วนใหญ่ทำได้ประมาณ 10-11 ข้อ ✅ รางวัลสำหรับผู้ชนะคือ "Fugaku One-Day Unlimited Ticket" - สามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน ✅ แม้จะแพ้ แต่ผู้เข้าแข่งขันยังได้รับรางวัลปลอบใจเป็นโมเดลจำลองของ Fugaku - เป็นของที่ระลึกจากการแข่งขัน ✅ Fugaku ถูกใช้ในการวิจัยด้านการป้องกันภัยพิบัติ เช่น การจำลองน้ำท่วมและแผนการอพยพที่เหมาะสม - แสดงให้เห็นถึง ความสำคัญของซูเปอร์คอมพิวเตอร์ในงานวิจัยระดับประเทศ https://www.tomshardware.com/tech-industry/supercomputers/supercomputer-beats-human-four-sextillion-to-13-in-super-keisan-battle-at-japanese-tech-show
    WWW.TOMSHARDWARE.COM
    Supercomputer beats human four sextillion to 13 in ‘Super Keisan Battle’ at Japanese tech show
    If you could beat Fugaku at the Nico Nico Super Conference you could do what you want with it for a whole day.
    0 Comments 0 Shares 460 Views 0 Reviews
  • NVIDIA GB10: ก้าวสำคัญสู่ตลาดโปรเซสเซอร์ Arm สำหรับเวิร์กสเตชัน NVIDIA กำลังเตรียมเปิดตัว GB10 Grace Blackwell ซึ่งเป็น โปรเซสเซอร์ Arm-based รุ่นแรกของบริษัท โดยมีข้อมูลหลุดจาก Geekbench ที่เผยให้เห็นว่า GB10 มีคอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz และมีประสิทธิภาพที่สามารถแข่งขันกับ โปรเซสเซอร์ Arm และ x86 ระดับสูง

    GB10 คาดว่าจะถูกนำเสนอในงาน Computex 2025 พร้อมกับ N1 และ N1X ซึ่งเป็นโปรเซสเซอร์ที่พัฒนาโดย MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป นอกจากนี้ ASUS และ Dell ได้เริ่มนำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว รวมถึง Project DIGITS AI supercomputer ของ NVIDIA ที่เปิดตัวในงาน CES 2025

    GB10 เป็นโปรเซสเซอร์ Arm-based รุ่นแรกของ NVIDIA
    - ใช้ คอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz

    คาดว่าจะเปิดตัวในงาน Computex 2025
    - พร้อมกับ N1 และ N1X ของ MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป

    ASUS และ Dell ได้นำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว
    - รวมถึง Project DIGITS AI supercomputer ของ NVIDIA

    GB10 มีประสิทธิภาพที่สามารถแข่งขันกับโปรเซสเซอร์ Arm และ x86 ระดับสูง
    - แต่ Apple M4 Max ยังคงมีคะแนนนำในด้าน single-core performance

    Project DIGITS AI supercomputer มีราคาเริ่มต้นที่ $2,999 และพร้อมจำหน่ายในเดือนนี้
    - เป็น หนึ่งในผลิตภัณฑ์ที่ใช้ GB10 เป็นโปรเซสเซอร์หลัก

    https://www.techpowerup.com/336586/nvidias-gb10-arm-superchip-looks-promising-in-leaked-benchmark-results
    NVIDIA GB10: ก้าวสำคัญสู่ตลาดโปรเซสเซอร์ Arm สำหรับเวิร์กสเตชัน NVIDIA กำลังเตรียมเปิดตัว GB10 Grace Blackwell ซึ่งเป็น โปรเซสเซอร์ Arm-based รุ่นแรกของบริษัท โดยมีข้อมูลหลุดจาก Geekbench ที่เผยให้เห็นว่า GB10 มีคอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz และมีประสิทธิภาพที่สามารถแข่งขันกับ โปรเซสเซอร์ Arm และ x86 ระดับสูง GB10 คาดว่าจะถูกนำเสนอในงาน Computex 2025 พร้อมกับ N1 และ N1X ซึ่งเป็นโปรเซสเซอร์ที่พัฒนาโดย MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป นอกจากนี้ ASUS และ Dell ได้เริ่มนำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว รวมถึง Project DIGITS AI supercomputer ของ NVIDIA ที่เปิดตัวในงาน CES 2025 ✅ GB10 เป็นโปรเซสเซอร์ Arm-based รุ่นแรกของ NVIDIA - ใช้ คอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz ✅ คาดว่าจะเปิดตัวในงาน Computex 2025 - พร้อมกับ N1 และ N1X ของ MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป ✅ ASUS และ Dell ได้นำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว - รวมถึง Project DIGITS AI supercomputer ของ NVIDIA ✅ GB10 มีประสิทธิภาพที่สามารถแข่งขันกับโปรเซสเซอร์ Arm และ x86 ระดับสูง - แต่ Apple M4 Max ยังคงมีคะแนนนำในด้าน single-core performance ✅ Project DIGITS AI supercomputer มีราคาเริ่มต้นที่ $2,999 และพร้อมจำหน่ายในเดือนนี้ - เป็น หนึ่งในผลิตภัณฑ์ที่ใช้ GB10 เป็นโปรเซสเซอร์หลัก https://www.techpowerup.com/336586/nvidias-gb10-arm-superchip-looks-promising-in-leaked-benchmark-results
    WWW.TECHPOWERUP.COM
    NVIDIA's GB10 Arm Superchip Looks Promising in Leaked Benchmark Results
    Recent benchmark leaks from Geekbench have revealed that NVIDIA's first Arm-based "superchip," the GB10 Grace Blackwell, is on the verge of its market launch as reported by Notebookcheck. This processor is expected to be showcased at Computex 2025 later this month, where NVIDIA may also roll out the...
    0 Comments 0 Shares 337 Views 0 Reviews
  • Cadence เปิดตัวซูเปอร์คอมพิวเตอร์ AI ใหม่ ใช้ GPU Nvidia RTX Pro 6000 เพื่อเพิ่มประสิทธิภาพการจำลอง Cadence ได้ประกาศเปิดตัว Millennium M2000 Supercomputer ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ออกแบบมาเพื่อการออกแบบชิปด้วย AI โดยใช้ Nvidia RTX Pro 6000 Blackwell Server Edition GPUs และ HGX B200 systems

    ระบบนี้ถูกเปิดตัวในงาน CadenceLIVE Silicon Valley 2025 และเป็นส่วนหนึ่งของ Millennium Enterprise Platform โดยสามารถ เพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU

    Millennium M2000 Supercomputer ใช้ Nvidia RTX Pro 6000 GPUs และ HGX B200 systems
    - ออกแบบมาเพื่อ การออกแบบชิปด้วย AI, การวิเคราะห์ระบบ และการค้นคว้ายา

    สามารถเพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU
    - ช่วยให้ บริษัทสามารถพัฒนาเทคโนโลยีได้เร็วขึ้น

    Cadence มีลูกค้ารายใหญ่ เช่น Intel, AMD, Apple และ Nvidia
    - ใช้ระบบของ Cadence เพื่อช่วยพัฒนาเทคโนโลยีชิปยุคใหม่

    Millennium M2000 สามารถลดการใช้พลังงานลงถึง 20 เท่าในหลายแอปพลิเคชัน
    - ช่วยให้ การประมวลผลมีประสิทธิภาพมากขึ้นโดยใช้พลังงานน้อยลง

    Cadence ขยายการใช้งานไปยังอุตสาหกรรมอื่น เช่น GE และ NASA
    - ใช้สำหรับ การจำลองพลศาสตร์ของไหล (CFD) และการวิเคราะห์ระบบ

    https://www.tomshardware.com/tech-industry/supercomputers/cadence-releases-new-ai-supercomputer-uses-nvidia-rtx-pro-6000-gpus-to-improve-simulation-run-time
    Cadence เปิดตัวซูเปอร์คอมพิวเตอร์ AI ใหม่ ใช้ GPU Nvidia RTX Pro 6000 เพื่อเพิ่มประสิทธิภาพการจำลอง Cadence ได้ประกาศเปิดตัว Millennium M2000 Supercomputer ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ออกแบบมาเพื่อการออกแบบชิปด้วย AI โดยใช้ Nvidia RTX Pro 6000 Blackwell Server Edition GPUs และ HGX B200 systems ระบบนี้ถูกเปิดตัวในงาน CadenceLIVE Silicon Valley 2025 และเป็นส่วนหนึ่งของ Millennium Enterprise Platform โดยสามารถ เพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU ✅ Millennium M2000 Supercomputer ใช้ Nvidia RTX Pro 6000 GPUs และ HGX B200 systems - ออกแบบมาเพื่อ การออกแบบชิปด้วย AI, การวิเคราะห์ระบบ และการค้นคว้ายา ✅ สามารถเพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU - ช่วยให้ บริษัทสามารถพัฒนาเทคโนโลยีได้เร็วขึ้น ✅ Cadence มีลูกค้ารายใหญ่ เช่น Intel, AMD, Apple และ Nvidia - ใช้ระบบของ Cadence เพื่อช่วยพัฒนาเทคโนโลยีชิปยุคใหม่ ✅ Millennium M2000 สามารถลดการใช้พลังงานลงถึง 20 เท่าในหลายแอปพลิเคชัน - ช่วยให้ การประมวลผลมีประสิทธิภาพมากขึ้นโดยใช้พลังงานน้อยลง ✅ Cadence ขยายการใช้งานไปยังอุตสาหกรรมอื่น เช่น GE และ NASA - ใช้สำหรับ การจำลองพลศาสตร์ของไหล (CFD) และการวิเคราะห์ระบบ https://www.tomshardware.com/tech-industry/supercomputers/cadence-releases-new-ai-supercomputer-uses-nvidia-rtx-pro-6000-gpus-to-improve-simulation-run-time
    0 Comments 0 Shares 209 Views 0 Reviews
  • Google ได้อ้างว่า Ironwood TPU v7p pod ของตนมีประสิทธิภาพสูงกว่า El Capitan supercomputer ถึง 24 เท่า แต่ Timothy Prickett Morgan นักวิเคราะห์จาก TheNextPlatform ได้ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ โดยระบุว่า "เป็นการเปรียบเทียบที่ไม่สมเหตุสมผล"

    Google ได้ทำการเปรียบเทียบ Ironwood TPU v7p pod ซึ่งมี 9,216 TPU compute engines กับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines โดยใช้ High Performance LINPACK (HPL) benchmark อย่างไรก็ตาม Prickett Morgan ชี้ให้เห็นว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ที่ใช้ความแม่นยำต่ำกว่า

    Google อ้างว่า Ironwood TPU v7p pod มีประสิทธิภาพสูงกว่า El Capitan ถึง 24 เท่า
    - ใช้ 9,216 TPU compute engines
    - เปรียบเทียบกับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines

    นักวิเคราะห์จาก TheNextPlatform ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้
    - ระบุว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง
    - ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training

    การเปรียบเทียบด้านต้นทุน
    - Ironwood pod มีต้นทุนการสร้าง $445 ล้าน และค่าเช่า $1.1 พันล้านใน 3 ปี
    - El Capitan มีต้นทุนการสร้าง $600 ล้าน
    - Ironwood pod มีต้นทุนต่อ teraflops สูงกว่า El Capitan

    El Capitan มีประสิทธิภาพสูงกว่า Ironwood TPU ในการประมวลผล FP16 และ FP8
    - El Capitan มี 2.05 เท่าของประสิทธิภาพ FP16 และ FP8 เมื่อเทียบกับ Ironwood pod

    https://www.techradar.com/pro/google-says-that-its-ai-behemoth-is-24x-faster-than-the-worlds-best-supercomputer-but-this-analyst-armed-with-a-spreadsheet-disagrees
    Google ได้อ้างว่า Ironwood TPU v7p pod ของตนมีประสิทธิภาพสูงกว่า El Capitan supercomputer ถึง 24 เท่า แต่ Timothy Prickett Morgan นักวิเคราะห์จาก TheNextPlatform ได้ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ โดยระบุว่า "เป็นการเปรียบเทียบที่ไม่สมเหตุสมผล" Google ได้ทำการเปรียบเทียบ Ironwood TPU v7p pod ซึ่งมี 9,216 TPU compute engines กับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines โดยใช้ High Performance LINPACK (HPL) benchmark อย่างไรก็ตาม Prickett Morgan ชี้ให้เห็นว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ที่ใช้ความแม่นยำต่ำกว่า ✅ Google อ้างว่า Ironwood TPU v7p pod มีประสิทธิภาพสูงกว่า El Capitan ถึง 24 เท่า - ใช้ 9,216 TPU compute engines - เปรียบเทียบกับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines ✅ นักวิเคราะห์จาก TheNextPlatform ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ - ระบุว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง - ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ✅ การเปรียบเทียบด้านต้นทุน - Ironwood pod มีต้นทุนการสร้าง $445 ล้าน และค่าเช่า $1.1 พันล้านใน 3 ปี - El Capitan มีต้นทุนการสร้าง $600 ล้าน - Ironwood pod มีต้นทุนต่อ teraflops สูงกว่า El Capitan ✅ El Capitan มีประสิทธิภาพสูงกว่า Ironwood TPU ในการประมวลผล FP16 และ FP8 - El Capitan มี 2.05 เท่าของประสิทธิภาพ FP16 และ FP8 เมื่อเทียบกับ Ironwood pod https://www.techradar.com/pro/google-says-that-its-ai-behemoth-is-24x-faster-than-the-worlds-best-supercomputer-but-this-analyst-armed-with-a-spreadsheet-disagrees
    0 Comments 0 Shares 322 Views 0 Reviews
  • Elon Musk ได้เปิดตัวซูเปอร์คอมพิวเตอร์ที่ชื่อว่า Colossus ซึ่งใช้ GPU Nvidia H100 จำนวน 100,000 ตัว ในการประมวลผล AI อย่างไรก็ตาม ซูเปอร์คอมพิวเตอร์นี้เผชิญกับข้อกล่าวหาเกี่ยวกับการปล่อยมลพิษจากเครื่องกำเนิดไฟฟ้าก๊าซมีเทนที่ใช้ในไซต์งาน Memphis รัฐเทนเนสซี

    ในช่วงแรก Colossus ใช้พลังงานเพียง 7 MW ซึ่งเพียงพอสำหรับการใช้งาน GPU เพียง 4% ของทั้งหมด เพื่อแก้ไขปัญหานี้ Musk ได้ติดตั้งเครื่องกำเนิดไฟฟ้าขนาดใหญ่หลายตัวเพื่อรองรับความต้องการพลังงานที่เพิ่มขึ้น โดยขณะนี้ไซต์งานยังคงใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัว ซึ่งปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืด โรคทางเดินหายใจ และมะเร็งบางชนิด

    Southern Environmental Law Center (SELC) ได้ร่วมมือกับ South Wings ในการถ่ายภาพไซต์งานด้วยกล้องถ่ายภาพความร้อน และพบว่ามีจุดร้อนกว่า 30 จุด ซึ่งบ่งชี้ถึงจำนวนเครื่องกำเนิดไฟฟ้าที่ใช้งานอยู่

    แม้ว่า Colossus จะได้รับการอนุมัติให้ใช้พลังงาน 150 MW แต่ผู้เชี่ยวชาญระบุว่าต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด และหาก Musk ขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW

    การออกแบบและการใช้งาน
    - ใช้ GPU Nvidia H100 จำนวน 100,000 ตัว
    - ต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด

    การแก้ไขปัญหาพลังงาน
    - ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัวเพื่อรองรับความต้องการพลังงาน
    - เครื่องกำเนิดไฟฟ้าปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืดและมะเร็ง

    การตรวจสอบจาก SELC
    - พบจุดร้อนกว่า 30 จุดในไซต์งานด้วยกล้องถ่ายภาพความร้อน
    - SELC กำลังยื่นคำร้องต่อ Shelby County Health Department เพื่อปฏิเสธการใช้งานเครื่องกำเนิดไฟฟ้า

    การขยายการใช้งาน GPU
    - หากขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW

    https://www.tomshardware.com/tech-industry/supercomputers/elon-musks-nvidia-powered-colossus-supercomputer-faces-pollution-allegations-from-under-reported-power-generators
    Elon Musk ได้เปิดตัวซูเปอร์คอมพิวเตอร์ที่ชื่อว่า Colossus ซึ่งใช้ GPU Nvidia H100 จำนวน 100,000 ตัว ในการประมวลผล AI อย่างไรก็ตาม ซูเปอร์คอมพิวเตอร์นี้เผชิญกับข้อกล่าวหาเกี่ยวกับการปล่อยมลพิษจากเครื่องกำเนิดไฟฟ้าก๊าซมีเทนที่ใช้ในไซต์งาน Memphis รัฐเทนเนสซี ในช่วงแรก Colossus ใช้พลังงานเพียง 7 MW ซึ่งเพียงพอสำหรับการใช้งาน GPU เพียง 4% ของทั้งหมด เพื่อแก้ไขปัญหานี้ Musk ได้ติดตั้งเครื่องกำเนิดไฟฟ้าขนาดใหญ่หลายตัวเพื่อรองรับความต้องการพลังงานที่เพิ่มขึ้น โดยขณะนี้ไซต์งานยังคงใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัว ซึ่งปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืด โรคทางเดินหายใจ และมะเร็งบางชนิด Southern Environmental Law Center (SELC) ได้ร่วมมือกับ South Wings ในการถ่ายภาพไซต์งานด้วยกล้องถ่ายภาพความร้อน และพบว่ามีจุดร้อนกว่า 30 จุด ซึ่งบ่งชี้ถึงจำนวนเครื่องกำเนิดไฟฟ้าที่ใช้งานอยู่ แม้ว่า Colossus จะได้รับการอนุมัติให้ใช้พลังงาน 150 MW แต่ผู้เชี่ยวชาญระบุว่าต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด และหาก Musk ขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW ✅ การออกแบบและการใช้งาน - ใช้ GPU Nvidia H100 จำนวน 100,000 ตัว - ต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด ✅ การแก้ไขปัญหาพลังงาน - ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัวเพื่อรองรับความต้องการพลังงาน - เครื่องกำเนิดไฟฟ้าปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืดและมะเร็ง ✅ การตรวจสอบจาก SELC - พบจุดร้อนกว่า 30 จุดในไซต์งานด้วยกล้องถ่ายภาพความร้อน - SELC กำลังยื่นคำร้องต่อ Shelby County Health Department เพื่อปฏิเสธการใช้งานเครื่องกำเนิดไฟฟ้า ✅ การขยายการใช้งาน GPU - หากขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW https://www.tomshardware.com/tech-industry/supercomputers/elon-musks-nvidia-powered-colossus-supercomputer-faces-pollution-allegations-from-under-reported-power-generators
    0 Comments 0 Shares 411 Views 0 Reviews
More Results