• “Nvidia Rubin CPX: ชิป AI ยุคใหม่ที่แยกงานประมวลผลออกเป็นสองเฟส — เร็วขึ้น ถูกลง และรองรับ context ยาวระดับล้านโทเคน”

    ในยุคที่โมเดล AI ขนาดใหญ่ เช่น GPT-5, Gemini 2 และ Grok 3 ต้องประมวลผลข้อมูลจำนวนมหาศาลในคราวเดียว Nvidia ได้เปิดตัว GPU ใหม่ในชื่อ “Rubin CPX” ซึ่งออกแบบมาเฉพาะสำหรับงาน “context phase” ของการ inference — คือช่วงที่โมเดลต้องอ่านและตีความอินพุตทั้งหมดก่อนจะเริ่มสร้างผลลัพธ์ใด ๆ

    Rubin CPX ใช้หน่วยความจำ GDDR7 ขนาด 128GB ซึ่งแม้จะมีแบนด์วิดธ์ต่ำกว่า HBM3E หรือ HBM4 แต่ก็มีข้อดีคือราคาถูกกว่า กินไฟน้อยกว่า และไม่ต้องใช้เทคโนโลยีแพ็กเกจขั้นสูงอย่าง CoWoS ทำให้ต้นทุนการผลิตลดลงอย่างมาก

    ตัวชิปสามารถประมวลผลได้ถึง 30 NVFP4 PetaFLOPS และมีฮาร์ดแวร์เฉพาะสำหรับการเร่ง attention mechanism ซึ่งจำเป็นมากในการจัดการกับ context ยาวระดับล้านโทเคน โดยไม่ลดความเร็ว นอกจากนี้ยังมีฟีเจอร์สำหรับการเข้ารหัสและถอดรหัสวิดีโอ เพื่อรองรับงาน generative video ที่กำลังมาแรง

    Rubin CPX จะทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ซึ่งให้พลังประมวลผลรวมถึง 8 ExaFLOPS และหน่วยความจำสูงถึง 100TB ต่อแร็ค โดยใช้การเชื่อมต่อผ่าน Quantum-X800 InfiniBand หรือ Spectrum-XGS Ethernet

    ที่สำคัญคือ Rubin CPX ไม่ต้องการการเขียนโค้ดใหม่ — นักพัฒนา AI สามารถใช้ CUDA, NIM microservices และเครื่องมือของ Nvidia ได้ทันที โดยระบบจะใช้ซอฟต์แวร์ “Dynamo” ในการจัดการการแบ่งงานระหว่าง context phase และ generation phase โดยอัตโนมัติ

    หลายบริษัทเริ่มนำ Rubin CPX ไปใช้งานแล้ว เช่น Cursor สำหรับการสร้างโค้ดแบบเรียลไทม์, Runway สำหรับการสร้างวิดีโอแบบ agent-driven และ Magic สำหรับโมเดลที่ใช้ context ยาวถึง 100 ล้านโทเคน

    ข้อมูลสำคัญจากข่าว
    Nvidia เปิดตัว Rubin CPX GPU สำหรับงาน inference เฟสแรก (context phase)
    ใช้ GDDR7 ขนาด 128GB ซึ่งราคาถูกและกินไฟน้อยกว่าหน่วยความจำ HBM
    ประมวลผลได้ถึง 30 NVFP4 PetaFLOPS พร้อมฮาร์ดแวร์เร่ง attention mechanism
    รองรับการเข้ารหัสและถอดรหัสวิดีโอสำหรับงาน generative video
    ทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX
    ระบบมีพลังรวม 8 ExaFLOPS และหน่วยความจำ 100TB ต่อแร็ค
    ใช้การเชื่อมต่อผ่าน InfiniBand Quantum-X800 หรือ Ethernet Spectrum-XGS
    รองรับ CUDA, NIM และเครื่องมือ Nvidia โดยไม่ต้องเขียนโค้ดใหม่
    ใช้ซอฟต์แวร์ Dynamo ในการจัดการการแบ่งงานระหว่าง GPU โดยอัตโนมัติ
    บริษัท Cursor, Runway และ Magic เริ่มนำ Rubin CPX ไปใช้งานจริงแล้ว

    ข้อมูลเสริมจากภายนอก
    Long-context inference คือการประมวลผลอินพุตจำนวนมากก่อนสร้างผลลัพธ์แรก
    GDDR7 มีแบนด์วิดธ์ต่ำกว่า HBM แต่เหมาะกับงานที่เน้นความจุและต้นทุน
    NVFP4 เป็นรูปแบบการประมวลผลที่ Nvidia พัฒนาขึ้นสำหรับงาน AI โดยเฉพาะ
    Rubin CPX อาจใช้ดีไซน์เดียวกับ GR102/GR202 ซึ่งเป็น GPU สำหรับกราฟิกระดับสูง
    การแยก context phase ออกจาก generation phase ช่วยเพิ่ม throughput ได้ถึง 6 เท่า

    https://www.tomshardware.com/pc-components/gpus/nvidias-new-cpx-gpu-aims-to-change-the-game-in-ai-inference-how-the-debut-of-cheaper-and-cooler-gddr7-memory-could-redefine-ai-inference-infrastructure
    🧠 “Nvidia Rubin CPX: ชิป AI ยุคใหม่ที่แยกงานประมวลผลออกเป็นสองเฟส — เร็วขึ้น ถูกลง และรองรับ context ยาวระดับล้านโทเคน” ในยุคที่โมเดล AI ขนาดใหญ่ เช่น GPT-5, Gemini 2 และ Grok 3 ต้องประมวลผลข้อมูลจำนวนมหาศาลในคราวเดียว Nvidia ได้เปิดตัว GPU ใหม่ในชื่อ “Rubin CPX” ซึ่งออกแบบมาเฉพาะสำหรับงาน “context phase” ของการ inference — คือช่วงที่โมเดลต้องอ่านและตีความอินพุตทั้งหมดก่อนจะเริ่มสร้างผลลัพธ์ใด ๆ Rubin CPX ใช้หน่วยความจำ GDDR7 ขนาด 128GB ซึ่งแม้จะมีแบนด์วิดธ์ต่ำกว่า HBM3E หรือ HBM4 แต่ก็มีข้อดีคือราคาถูกกว่า กินไฟน้อยกว่า และไม่ต้องใช้เทคโนโลยีแพ็กเกจขั้นสูงอย่าง CoWoS ทำให้ต้นทุนการผลิตลดลงอย่างมาก ตัวชิปสามารถประมวลผลได้ถึง 30 NVFP4 PetaFLOPS และมีฮาร์ดแวร์เฉพาะสำหรับการเร่ง attention mechanism ซึ่งจำเป็นมากในการจัดการกับ context ยาวระดับล้านโทเคน โดยไม่ลดความเร็ว นอกจากนี้ยังมีฟีเจอร์สำหรับการเข้ารหัสและถอดรหัสวิดีโอ เพื่อรองรับงาน generative video ที่กำลังมาแรง Rubin CPX จะทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ซึ่งให้พลังประมวลผลรวมถึง 8 ExaFLOPS และหน่วยความจำสูงถึง 100TB ต่อแร็ค โดยใช้การเชื่อมต่อผ่าน Quantum-X800 InfiniBand หรือ Spectrum-XGS Ethernet ที่สำคัญคือ Rubin CPX ไม่ต้องการการเขียนโค้ดใหม่ — นักพัฒนา AI สามารถใช้ CUDA, NIM microservices และเครื่องมือของ Nvidia ได้ทันที โดยระบบจะใช้ซอฟต์แวร์ “Dynamo” ในการจัดการการแบ่งงานระหว่าง context phase และ generation phase โดยอัตโนมัติ หลายบริษัทเริ่มนำ Rubin CPX ไปใช้งานแล้ว เช่น Cursor สำหรับการสร้างโค้ดแบบเรียลไทม์, Runway สำหรับการสร้างวิดีโอแบบ agent-driven และ Magic สำหรับโมเดลที่ใช้ context ยาวถึง 100 ล้านโทเคน ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia เปิดตัว Rubin CPX GPU สำหรับงาน inference เฟสแรก (context phase) ➡️ ใช้ GDDR7 ขนาด 128GB ซึ่งราคาถูกและกินไฟน้อยกว่าหน่วยความจำ HBM ➡️ ประมวลผลได้ถึง 30 NVFP4 PetaFLOPS พร้อมฮาร์ดแวร์เร่ง attention mechanism ➡️ รองรับการเข้ารหัสและถอดรหัสวิดีโอสำหรับงาน generative video ➡️ ทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ➡️ ระบบมีพลังรวม 8 ExaFLOPS และหน่วยความจำ 100TB ต่อแร็ค ➡️ ใช้การเชื่อมต่อผ่าน InfiniBand Quantum-X800 หรือ Ethernet Spectrum-XGS ➡️ รองรับ CUDA, NIM และเครื่องมือ Nvidia โดยไม่ต้องเขียนโค้ดใหม่ ➡️ ใช้ซอฟต์แวร์ Dynamo ในการจัดการการแบ่งงานระหว่าง GPU โดยอัตโนมัติ ➡️ บริษัท Cursor, Runway และ Magic เริ่มนำ Rubin CPX ไปใช้งานจริงแล้ว ✅ ข้อมูลเสริมจากภายนอก ➡️ Long-context inference คือการประมวลผลอินพุตจำนวนมากก่อนสร้างผลลัพธ์แรก ➡️ GDDR7 มีแบนด์วิดธ์ต่ำกว่า HBM แต่เหมาะกับงานที่เน้นความจุและต้นทุน ➡️ NVFP4 เป็นรูปแบบการประมวลผลที่ Nvidia พัฒนาขึ้นสำหรับงาน AI โดยเฉพาะ ➡️ Rubin CPX อาจใช้ดีไซน์เดียวกับ GR102/GR202 ซึ่งเป็น GPU สำหรับกราฟิกระดับสูง ➡️ การแยก context phase ออกจาก generation phase ช่วยเพิ่ม throughput ได้ถึง 6 เท่า https://www.tomshardware.com/pc-components/gpus/nvidias-new-cpx-gpu-aims-to-change-the-game-in-ai-inference-how-the-debut-of-cheaper-and-cooler-gddr7-memory-could-redefine-ai-inference-infrastructure
    0 Comments 0 Shares 159 Views 0 Reviews
  • “Nvidia เร่งดัน HBM4 ความเร็ว 10Gbps รับมือ AMD MI450 — เมื่อสงครามแบนด์วิดท์กลายเป็นเดิมพันของ AI ยุคใหม่”

    ในปี 2025 Nvidia กำลังเดินเกมรุกเพื่อเตรียมรับมือกับการเปิดตัวแพลตฟอร์ม MI450 Helios ของ AMD ที่จะมาถึงในปี 2026 โดยเน้นไปที่การเพิ่มความเร็วของหน่วยความจำ HBM4 ให้สูงถึง 10Gbps ต่อพิน ซึ่งมากกว่ามาตรฐานของ JEDEC ที่กำหนดไว้ที่ 8Gbps

    หากสำเร็จ ความเร็วนี้จะทำให้แบนด์วิดท์ต่อ stack เพิ่มจาก 2TB/s เป็น 2.56TB/s และเมื่อใช้ 6 stack ต่อ GPU จะได้แบนด์วิดท์รวมถึง 15TB/s ซึ่งเป็นตัวเลขที่น่าทึ่งสำหรับงาน AI inference ขนาดใหญ่ โดยเฉพาะในแพลตฟอร์ม Rubin CPX ที่ออกแบบมาเพื่อการประมวลผลระดับ petabyte ต่อวินาที

    อย่างไรก็ตาม การผลักดันความเร็วนี้ไม่ใช่เรื่องง่าย เพราะยิ่งเร็วก็ยิ่งต้องใช้พลังงานมากขึ้น มีข้อจำกัดด้าน timing และความเสถียรของ base die ซึ่งทำให้ Nvidia อาจต้องแบ่งรุ่น Rubin ออกเป็นหลายระดับ โดยใช้ HBM4 ที่เร็วที่สุดเฉพาะในรุ่น CPX และใช้รุ่นมาตรฐานในรุ่นทั่วไป

    ในด้านซัพพลายเออร์ SK hynix ยังคงเป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia แต่ Samsung กำลังเร่งพัฒนา base die ด้วยเทคโนโลยี 4nm FinFET ซึ่งอาจให้ความเร็วสูงกว่าและใช้พลังงานน้อยลง ส่วน Micron ก็เริ่มส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันว่าจะถึง 10Gbps หรือไม่

    ฝั่ง AMD ก็ไม่น้อยหน้า โดย MI450 จะใช้ HBM4 สูงสุดถึง 432GB ต่อ GPU ซึ่งเน้นความจุมากกว่าแบนด์วิดท์ และมาพร้อมสถาปัตยกรรม CDNA 4 ที่ออกแบบมาเพื่อแข่งขันกับ Rubin โดยตรงในงาน inference

    ข้อมูลสำคัญจากข่าว
    Nvidia กำลังผลักดัน HBM4 ให้เร็วถึง 10Gbps ต่อพิน เพื่อใช้ในแพลตฟอร์ม Rubin
    ความเร็วนี้จะให้แบนด์วิดท์สูงถึง 15TB/s ต่อ GPU เมื่อใช้ 6 stack
    Rubin CPX มีเป้าหมายแบนด์วิดท์รวม 1.7PB/s ต่อ rack
    SK hynix เป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia ในช่วงแรกของการผลิต

    การแข่งขันและกลยุทธ์
    Samsung พัฒนา base die ด้วยเทคโนโลยี 4nm FinFET เพื่อเพิ่มความเร็วและลดพลังงาน
    Micron ส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันความเร็ว 10Gbps
    AMD MI450 ใช้ HBM4 สูงสุด 432GB ต่อ GPU เน้นความจุมากกว่าแบนด์วิดท์
    CDNA 4 ของ AMD ออกแบบมาเพื่อแข่งขันกับ Rubin ในงาน inference โดยเฉพาะ

    ข้อมูลเสริมจากภายนอก
    JEDEC กำหนดมาตรฐาน HBM4 ที่ 8Gbps ต่อพิน
    การเพิ่มความเร็ว I/O ส่งผลต่อพลังงาน ความร้อน และ yield ของการผลิต
    Nvidia อาจแบ่งรุ่น Rubin ตามระดับความเร็วของ HBM4 เพื่อควบคุมต้นทุนและความเสถียร
    การรับรองซัพพลายเออร์แบบแบ่งเฟสช่วยให้ Nvidia ขยายการผลิตได้อย่างยืดหยุ่น

    https://www.tomshardware.com/pc-components/gpus/nvidia-wants-10gbps-hbm4-to-rival-amd-mi450
    ⚡ “Nvidia เร่งดัน HBM4 ความเร็ว 10Gbps รับมือ AMD MI450 — เมื่อสงครามแบนด์วิดท์กลายเป็นเดิมพันของ AI ยุคใหม่” ในปี 2025 Nvidia กำลังเดินเกมรุกเพื่อเตรียมรับมือกับการเปิดตัวแพลตฟอร์ม MI450 Helios ของ AMD ที่จะมาถึงในปี 2026 โดยเน้นไปที่การเพิ่มความเร็วของหน่วยความจำ HBM4 ให้สูงถึง 10Gbps ต่อพิน ซึ่งมากกว่ามาตรฐานของ JEDEC ที่กำหนดไว้ที่ 8Gbps หากสำเร็จ ความเร็วนี้จะทำให้แบนด์วิดท์ต่อ stack เพิ่มจาก 2TB/s เป็น 2.56TB/s และเมื่อใช้ 6 stack ต่อ GPU จะได้แบนด์วิดท์รวมถึง 15TB/s ซึ่งเป็นตัวเลขที่น่าทึ่งสำหรับงาน AI inference ขนาดใหญ่ โดยเฉพาะในแพลตฟอร์ม Rubin CPX ที่ออกแบบมาเพื่อการประมวลผลระดับ petabyte ต่อวินาที อย่างไรก็ตาม การผลักดันความเร็วนี้ไม่ใช่เรื่องง่าย เพราะยิ่งเร็วก็ยิ่งต้องใช้พลังงานมากขึ้น มีข้อจำกัดด้าน timing และความเสถียรของ base die ซึ่งทำให้ Nvidia อาจต้องแบ่งรุ่น Rubin ออกเป็นหลายระดับ โดยใช้ HBM4 ที่เร็วที่สุดเฉพาะในรุ่น CPX และใช้รุ่นมาตรฐานในรุ่นทั่วไป ในด้านซัพพลายเออร์ SK hynix ยังคงเป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia แต่ Samsung กำลังเร่งพัฒนา base die ด้วยเทคโนโลยี 4nm FinFET ซึ่งอาจให้ความเร็วสูงกว่าและใช้พลังงานน้อยลง ส่วน Micron ก็เริ่มส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันว่าจะถึง 10Gbps หรือไม่ ฝั่ง AMD ก็ไม่น้อยหน้า โดย MI450 จะใช้ HBM4 สูงสุดถึง 432GB ต่อ GPU ซึ่งเน้นความจุมากกว่าแบนด์วิดท์ และมาพร้อมสถาปัตยกรรม CDNA 4 ที่ออกแบบมาเพื่อแข่งขันกับ Rubin โดยตรงในงาน inference ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia กำลังผลักดัน HBM4 ให้เร็วถึง 10Gbps ต่อพิน เพื่อใช้ในแพลตฟอร์ม Rubin ➡️ ความเร็วนี้จะให้แบนด์วิดท์สูงถึง 15TB/s ต่อ GPU เมื่อใช้ 6 stack ➡️ Rubin CPX มีเป้าหมายแบนด์วิดท์รวม 1.7PB/s ต่อ rack ➡️ SK hynix เป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia ในช่วงแรกของการผลิต ✅ การแข่งขันและกลยุทธ์ ➡️ Samsung พัฒนา base die ด้วยเทคโนโลยี 4nm FinFET เพื่อเพิ่มความเร็วและลดพลังงาน ➡️ Micron ส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันความเร็ว 10Gbps ➡️ AMD MI450 ใช้ HBM4 สูงสุด 432GB ต่อ GPU เน้นความจุมากกว่าแบนด์วิดท์ ➡️ CDNA 4 ของ AMD ออกแบบมาเพื่อแข่งขันกับ Rubin ในงาน inference โดยเฉพาะ ✅ ข้อมูลเสริมจากภายนอก ➡️ JEDEC กำหนดมาตรฐาน HBM4 ที่ 8Gbps ต่อพิน ➡️ การเพิ่มความเร็ว I/O ส่งผลต่อพลังงาน ความร้อน และ yield ของการผลิต ➡️ Nvidia อาจแบ่งรุ่น Rubin ตามระดับความเร็วของ HBM4 เพื่อควบคุมต้นทุนและความเสถียร ➡️ การรับรองซัพพลายเออร์แบบแบ่งเฟสช่วยให้ Nvidia ขยายการผลิตได้อย่างยืดหยุ่น https://www.tomshardware.com/pc-components/gpus/nvidia-wants-10gbps-hbm4-to-rival-amd-mi450
    WWW.TOMSHARDWARE.COM
    Nvidia wants 10Gbps HBM4 to blunt AMD’s MI450, report claims — company said to be pushing suppliers for more bandwidth
    Nvidia’s Rubin platform bets big on 10Gb/s HBM4, but speed brings supply risk, and AMD’s MI450 is around the corner.
    0 Comments 0 Shares 127 Views 0 Reviews
  • “อินเทอร์เน็ตใหญ่แค่ไหน? — เมื่อข้อมูลทะลุ 181 Zettabytes และโลกต้องจ่ายด้วยพลังงานและน้ำมหาศาล”

    ลองจินตนาการว่าในเวลาเพียงหนึ่งนาทีของอินเทอร์เน็ต มีการสตรีม Netflix กว่าล้านชั่วโมง อัปโหลดวิดีโอ YouTube หลายพันชั่วโมง และโพสต์ภาพบน Instagram นับไม่ถ้วน นั่นคือสิ่งที่เกิดขึ้นจริงในปี 2025 และตัวเลขนี้ยังคงเพิ่มขึ้นทุกวินาที

    ข้อมูลทั่วโลกในปี 2024 มีปริมาณถึง 149 Zettabytes และคาดว่าจะเพิ่มเป็น 181 Zettabytesภายในสิ้นปี 20252 โดยบางการคาดการณ์อาจอยู่ที่ 175 ZB แต่ก็ถือว่าใกล้เคียงกันมาก ซึ่ง Zettabyte หนึ่งเท่ากับหนึ่งล้านล้าน Gigabytes — ขนาดที่สมองมนุษย์แทบจินตนาการไม่ออก

    แต่การวัด “ขนาดของอินเทอร์เน็ต” ไม่ใช่แค่เรื่องของปริมาณข้อมูล เพราะยังมีข้อมูลที่ไม่สามารถเข้าถึงได้ผ่าน Google หรือ search engine เช่น ฐานข้อมูลส่วนตัว แอปพลิเคชัน และเครือข่ายปิด ซึ่งเรียกรวมกันว่า “Deep Web” และยังมี “Dark Web” ที่ซ่อนตัวอยู่ลึกกว่านั้นอีก

    ข้อมูลใหม่เกิดขึ้นทุกวันกว่า 402 ล้าน Terabytes จากโพสต์โซเชียลมีเดีย วิดีโอ อุปกรณ์ IoT รถยนต์อัจฉริยะ และระบบคลาวด์ แม้แต่ CERN ก็ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์อนุภาค ซึ่งเทียบได้กับบริษัทเทคโนโลยีขนาดใหญ่

    แต่เบื้องหลังโลกดิจิทัลที่เติบโตอย่างรวดเร็วคือผลกระทบทางกายภาพที่ไม่อาจมองข้าม — ศูนย์ข้อมูลทั่วโลกใช้ไฟฟ้าราว 2% ของทั้งโลก และบางแห่งใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน แม้บางบริษัทจะเริ่มใช้ “น้ำรีไซเคิล” แต่ก็ยังไม่เพียงพอเมื่อเทียบกับการขยายตัวของข้อมูลที่ไม่มีวันหยุด

    ข้อมูลสำคัญจากข่าว
    ปริมาณข้อมูลทั่วโลกในปี 2025 คาดว่าจะอยู่ที่ 181 Zettabytes
    หนึ่ง Zettabyte เท่ากับหนึ่งล้านล้าน Gigabytes
    ข้อมูลใหม่เกิดขึ้นกว่า 402 ล้าน Terabytes ต่อวัน
    CERN ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์

    ข้อมูลที่ไม่สามารถวัดได้โดยตรง
    Deep Web และ Dark Web ไม่สามารถเข้าถึงผ่าน search engine
    แอปพลิเคชันและเครือข่ายปิดมีข้อมูลจำนวนมหาศาลที่ไม่ถูกนับรวม
    ขนาดของอินเทอร์เน็ตเปลี่ยนแปลงตลอดเวลา ไม่สามารถวัดได้แน่นอน

    ผลกระทบทางกายภาพจากข้อมูล
    ศูนย์ข้อมูลใช้ไฟฟ้าราว 2% ของโลก
    บางศูนย์ข้อมูลใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน
    Amazon เริ่มใช้ “น้ำรีไซเคิล” เพื่อช่วยลดผลกระทบ
    Cloud storage ช่วยแบ่งเบาภาระจากศูนย์ข้อมูล แต่ยังไม่ครอบคลุมทั้งหมด

    ข้อมูลเสริมจากภายนอก
    IDC คาดว่าปริมาณข้อมูลจะเพิ่มเป็น 394 Zettabytes ภายในปี 2028
    การเติบโตของ AI และ IoT เป็นตัวเร่งให้ข้อมูลเพิ่มขึ้นอย่างรวดเร็ว
    การวัดขนาดอินเทอร์เน็ตต้องพิจารณา 5V: Volume, Variety, Velocity, Value, Veracity
    การใช้ข้อมูลเพื่อการวิจัย การตลาด และ AI มีประโยชน์มหาศาล แต่ต้องแลกด้วยทรัพยากร

    https://www.slashgear.com/1970107/how-big-is-the-internet-data-size/
    🌐 “อินเทอร์เน็ตใหญ่แค่ไหน? — เมื่อข้อมูลทะลุ 181 Zettabytes และโลกต้องจ่ายด้วยพลังงานและน้ำมหาศาล” ลองจินตนาการว่าในเวลาเพียงหนึ่งนาทีของอินเทอร์เน็ต มีการสตรีม Netflix กว่าล้านชั่วโมง อัปโหลดวิดีโอ YouTube หลายพันชั่วโมง และโพสต์ภาพบน Instagram นับไม่ถ้วน นั่นคือสิ่งที่เกิดขึ้นจริงในปี 2025 และตัวเลขนี้ยังคงเพิ่มขึ้นทุกวินาที ข้อมูลทั่วโลกในปี 2024 มีปริมาณถึง 149 Zettabytes และคาดว่าจะเพิ่มเป็น 181 Zettabytesภายในสิ้นปี 20252 โดยบางการคาดการณ์อาจอยู่ที่ 175 ZB แต่ก็ถือว่าใกล้เคียงกันมาก ซึ่ง Zettabyte หนึ่งเท่ากับหนึ่งล้านล้าน Gigabytes — ขนาดที่สมองมนุษย์แทบจินตนาการไม่ออก แต่การวัด “ขนาดของอินเทอร์เน็ต” ไม่ใช่แค่เรื่องของปริมาณข้อมูล เพราะยังมีข้อมูลที่ไม่สามารถเข้าถึงได้ผ่าน Google หรือ search engine เช่น ฐานข้อมูลส่วนตัว แอปพลิเคชัน และเครือข่ายปิด ซึ่งเรียกรวมกันว่า “Deep Web” และยังมี “Dark Web” ที่ซ่อนตัวอยู่ลึกกว่านั้นอีก ข้อมูลใหม่เกิดขึ้นทุกวันกว่า 402 ล้าน Terabytes จากโพสต์โซเชียลมีเดีย วิดีโอ อุปกรณ์ IoT รถยนต์อัจฉริยะ และระบบคลาวด์ แม้แต่ CERN ก็ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์อนุภาค ซึ่งเทียบได้กับบริษัทเทคโนโลยีขนาดใหญ่ แต่เบื้องหลังโลกดิจิทัลที่เติบโตอย่างรวดเร็วคือผลกระทบทางกายภาพที่ไม่อาจมองข้าม — ศูนย์ข้อมูลทั่วโลกใช้ไฟฟ้าราว 2% ของทั้งโลก และบางแห่งใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน แม้บางบริษัทจะเริ่มใช้ “น้ำรีไซเคิล” แต่ก็ยังไม่เพียงพอเมื่อเทียบกับการขยายตัวของข้อมูลที่ไม่มีวันหยุด ✅ ข้อมูลสำคัญจากข่าว ➡️ ปริมาณข้อมูลทั่วโลกในปี 2025 คาดว่าจะอยู่ที่ 181 Zettabytes ➡️ หนึ่ง Zettabyte เท่ากับหนึ่งล้านล้าน Gigabytes ➡️ ข้อมูลใหม่เกิดขึ้นกว่า 402 ล้าน Terabytes ต่อวัน ➡️ CERN ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์ ✅ ข้อมูลที่ไม่สามารถวัดได้โดยตรง ➡️ Deep Web และ Dark Web ไม่สามารถเข้าถึงผ่าน search engine ➡️ แอปพลิเคชันและเครือข่ายปิดมีข้อมูลจำนวนมหาศาลที่ไม่ถูกนับรวม ➡️ ขนาดของอินเทอร์เน็ตเปลี่ยนแปลงตลอดเวลา ไม่สามารถวัดได้แน่นอน ✅ ผลกระทบทางกายภาพจากข้อมูล ➡️ ศูนย์ข้อมูลใช้ไฟฟ้าราว 2% ของโลก ➡️ บางศูนย์ข้อมูลใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน ➡️ Amazon เริ่มใช้ “น้ำรีไซเคิล” เพื่อช่วยลดผลกระทบ ➡️ Cloud storage ช่วยแบ่งเบาภาระจากศูนย์ข้อมูล แต่ยังไม่ครอบคลุมทั้งหมด ✅ ข้อมูลเสริมจากภายนอก ➡️ IDC คาดว่าปริมาณข้อมูลจะเพิ่มเป็น 394 Zettabytes ภายในปี 2028 ➡️ การเติบโตของ AI และ IoT เป็นตัวเร่งให้ข้อมูลเพิ่มขึ้นอย่างรวดเร็ว ➡️ การวัดขนาดอินเทอร์เน็ตต้องพิจารณา 5V: Volume, Variety, Velocity, Value, Veracity ➡️ การใช้ข้อมูลเพื่อการวิจัย การตลาด และ AI มีประโยชน์มหาศาล แต่ต้องแลกด้วยทรัพยากร https://www.slashgear.com/1970107/how-big-is-the-internet-data-size/
    WWW.SLASHGEAR.COM
    How Big Is The Internet? Here's How Much Data Is On It - SlashGear
    We may use the internet every day, but we take the massive resource for granted. How much data is actually on the internet and how is it quantified?
    0 Comments 0 Shares 195 Views 0 Reviews
  • เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย

    มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science)

    จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ

    เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021

    SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์

    ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์

    NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย

    การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC
    เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025
    ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops
    ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า

    เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance
    บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร
    แสดงผลแบบ visualization และค้นหาด้วย history ID
    ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง

    เป้าหมายของระบบนี้
    ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้
    ลดความผิดพลาดจากการบันทึกด้วยมือ
    เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย

    แผนการขยายในอนาคต
    NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์
    ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data
    อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย

    https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    🎙️ เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science) จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021 SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์ ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์ NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย ✅ การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC ➡️ เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025 ➡️ ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops ➡️ ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า ✅ เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance ➡️ บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร ➡️ แสดงผลแบบ visualization และค้นหาด้วย history ID ➡️ ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง ✅ เป้าหมายของระบบนี้ ➡️ ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้ ➡️ ลดความผิดพลาดจากการบันทึกด้วยมือ ➡️ เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย ✅ แผนการขยายในอนาคต ➡️ NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์ ➡️ ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data ➡️ อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    WWW.TECHPOWERUP.COM
    NEC Provides Computing Power for OCTOPUS Supercomputer at Osaka University
    The University of Osaka D3 Center will begin trial operations of the "Osaka University Compute and sTOrage Platform Urging open Science" (OCTOPUS), a computational and data platform promoting open science built by NEC Corporation (NEC; TSE: 6701), starting this September, with full-scale operations ...
    0 Comments 0 Shares 230 Views 0 Reviews
  • “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ”

    ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase)

    Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง

    แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน

    Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า

    Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ

    สถาปัตยกรรม Disaggregated Inference
    แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound)
    เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล
    เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ
    ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์

    ข้อมูลทางเทคนิคของ Rubin CPX
    พลังประมวลผล 30 petaFLOPs ด้วย NVFP4
    หน่วยความจำ GDDR7 ขนาด 128 GB
    ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet
    ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง

    ระบบ Vera Rubin NVL144 CPX
    ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว
    หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s
    พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า
    รองรับการประมวลผล AI ระดับโรงงาน (AI Factory)

    ข้อมูลเสริมจากภายนอก
    Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis
    ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out
    NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ
    ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    🧠 “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ” ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase) Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ ✅ สถาปัตยกรรม Disaggregated Inference ➡️ แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound) ➡️ เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล ➡️ เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ ➡️ ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์ ✅ ข้อมูลทางเทคนิคของ Rubin CPX ➡️ พลังประมวลผล 30 petaFLOPs ด้วย NVFP4 ➡️ หน่วยความจำ GDDR7 ขนาด 128 GB ➡️ ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet ➡️ ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง ✅ ระบบ Vera Rubin NVL144 CPX ➡️ ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว ➡️ หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s ➡️ พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า ➡️ รองรับการประมวลผล AI ระดับโรงงาน (AI Factory) ✅ ข้อมูลเสริมจากภายนอก ➡️ Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis ➡️ ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out ➡️ NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ ➡️ ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    0 Comments 0 Shares 243 Views 0 Reviews
  • “XCENA MX1: ชิปพันธุ์ใหม่ที่รวม RISC-V หลายพันคอร์ไว้ในหน่วยความจำ — เปลี่ยนโฉมเซิร์ฟเวอร์ด้วย CXL 3.2 และ SSD tiering!”

    ลองจินตนาการว่าคุณกำลังรันงาน AI ขนาดใหญ่ หรือ query ฐานข้อมูลแบบเวกเตอร์ที่กินแรมมหาศาล แล้วพบว่า bottleneck ไม่ได้อยู่ที่ CPU หรือ GPU — แต่อยู่ที่การเคลื่อนย้ายข้อมูลระหว่างหน่วยประมวลผลกับหน่วยความจำ นั่นคือปัญหาที่ XCENA MX1 เข้ามาแก้แบบตรงจุด

    ในงาน FMS 2025 (Future of Memory and Storage) บริษัทสตาร์ทอัพจากเกาหลีใต้ชื่อ XCENA ได้เปิดตัว MX1 Computational Memory ซึ่งเป็นชิปที่รวม “หลายพันคอร์ RISC-V” ไว้ในหน่วยความจำโดยตรง พร้อมรองรับมาตรฐาน PCIe Gen6 และ Compute Express Link (CXL) 3.2

    แนวคิดคือ “near-data processing” — ย้ายการประมวลผลมาอยู่ใกล้กับ DRAM เพื่อลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ซึ่งช่วยเพิ่มประสิทธิภาพอย่างมหาศาลในงานที่ใช้ข้อมูลหนัก เช่น AI inference, in-memory analytics และฐานข้อมูลขนาดใหญ่

    MX1 ยังรองรับการขยายหน่วยความจำด้วย SSD แบบ tiered storage ที่สามารถเพิ่มความจุได้ถึงระดับ petabyte พร้อมฟีเจอร์ด้านการบีบอัดข้อมูลและความเสถียร ทำให้เหมาะกับงานที่ต้องการทั้งความเร็วและความจุในเวลาเดียวกัน

    XCENA เตรียมเปิดตัวสองรุ่นคือ MX1P ในปลายปีนี้ และ MX1S ในปี 2026 โดยรุ่นหลังจะมี dual PCIe Gen6 x8 links และฟีเจอร์เพิ่มเติมสำหรับงานระดับ data center ขนาดใหญ่ ทั้งสองรุ่นจะใช้ประโยชน์จากแบนด์วิดธ์และความยืดหยุ่นของ CXL 3.2 อย่างเต็มที่

    การเปิดตัว MX1 Computational Memory
    เปิดตัวในงาน FMS 2025 โดยบริษัท XCENA จากเกาหลีใต้
    ใช้ PCIe Gen6 และ CXL 3.2 เป็นมาตรฐานการเชื่อมต่อ
    รวมหลายพันคอร์ RISC-V ไว้ในหน่วยความจำโดยตรง

    แนวคิด near-data processing
    ลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM
    เพิ่มประสิทธิภาพในงาน AI, analytics และฐานข้อมูล
    ช่วยลด latency และเพิ่ม throughput ในระบบเซิร์ฟเวอร์

    การขยายหน่วยความจำด้วย SSD tiering
    รองรับการขยายความจุถึงระดับ petabyte
    มีระบบบีบอัดข้อมูลและฟีเจอร์ด้าน reliability
    ใช้ SSD เป็น tier รองเพื่อเพิ่มความจุโดยไม่ลดความเร็ว

    แผนการเปิดตัวผลิตภัณฑ์
    MX1P จะเปิดตัวปลายปี 2025 พร้อมตัวอย่างสำหรับพันธมิตร
    MX1S จะเปิดตัวในปี 2026 พร้อม dual PCIe Gen6 x8 links
    ทั้งสองรุ่นรองรับ CXL 3.2 เต็มรูปแบบ

    การสนับสนุนสำหรับนักพัฒนา
    มี SDK พร้อมไดรเวอร์, runtime libraries และเครื่องมือสำหรับ deployment
    รองรับแอปพลิเคชันตั้งแต่ AI inference ถึง in-memory analytics
    ออกแบบให้ใช้งานได้ในสภาพแวดล้อมมาตรฐาน

    รางวัลและการยอมรับ
    ได้รับรางวัล “Most Innovative Memory Technology” ในงาน FMS 2025
    เคยได้รับรางวัล “Most Innovative Startup” ในปี 2024
    ได้รับการยกย่องจากผู้เชี่ยวชาญด้าน storage ว่าเป็นแนวทางใหม่ที่เปลี่ยนเกม

    https://www.techradar.com/pro/a-chip-with-thousands-of-cores-could-change-the-way-servers-are-designed-bringing-compute-nearer-to-ram-thanks-to-cxl-is-a-lightbulb-moment
    🧠 “XCENA MX1: ชิปพันธุ์ใหม่ที่รวม RISC-V หลายพันคอร์ไว้ในหน่วยความจำ — เปลี่ยนโฉมเซิร์ฟเวอร์ด้วย CXL 3.2 และ SSD tiering!” ลองจินตนาการว่าคุณกำลังรันงาน AI ขนาดใหญ่ หรือ query ฐานข้อมูลแบบเวกเตอร์ที่กินแรมมหาศาล แล้วพบว่า bottleneck ไม่ได้อยู่ที่ CPU หรือ GPU — แต่อยู่ที่การเคลื่อนย้ายข้อมูลระหว่างหน่วยประมวลผลกับหน่วยความจำ นั่นคือปัญหาที่ XCENA MX1 เข้ามาแก้แบบตรงจุด ในงาน FMS 2025 (Future of Memory and Storage) บริษัทสตาร์ทอัพจากเกาหลีใต้ชื่อ XCENA ได้เปิดตัว MX1 Computational Memory ซึ่งเป็นชิปที่รวม “หลายพันคอร์ RISC-V” ไว้ในหน่วยความจำโดยตรง พร้อมรองรับมาตรฐาน PCIe Gen6 และ Compute Express Link (CXL) 3.2 แนวคิดคือ “near-data processing” — ย้ายการประมวลผลมาอยู่ใกล้กับ DRAM เพื่อลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ซึ่งช่วยเพิ่มประสิทธิภาพอย่างมหาศาลในงานที่ใช้ข้อมูลหนัก เช่น AI inference, in-memory analytics และฐานข้อมูลขนาดใหญ่ MX1 ยังรองรับการขยายหน่วยความจำด้วย SSD แบบ tiered storage ที่สามารถเพิ่มความจุได้ถึงระดับ petabyte พร้อมฟีเจอร์ด้านการบีบอัดข้อมูลและความเสถียร ทำให้เหมาะกับงานที่ต้องการทั้งความเร็วและความจุในเวลาเดียวกัน XCENA เตรียมเปิดตัวสองรุ่นคือ MX1P ในปลายปีนี้ และ MX1S ในปี 2026 โดยรุ่นหลังจะมี dual PCIe Gen6 x8 links และฟีเจอร์เพิ่มเติมสำหรับงานระดับ data center ขนาดใหญ่ ทั้งสองรุ่นจะใช้ประโยชน์จากแบนด์วิดธ์และความยืดหยุ่นของ CXL 3.2 อย่างเต็มที่ ✅ การเปิดตัว MX1 Computational Memory ➡️ เปิดตัวในงาน FMS 2025 โดยบริษัท XCENA จากเกาหลีใต้ ➡️ ใช้ PCIe Gen6 และ CXL 3.2 เป็นมาตรฐานการเชื่อมต่อ ➡️ รวมหลายพันคอร์ RISC-V ไว้ในหน่วยความจำโดยตรง ✅ แนวคิด near-data processing ➡️ ลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ➡️ เพิ่มประสิทธิภาพในงาน AI, analytics และฐานข้อมูล ➡️ ช่วยลด latency และเพิ่ม throughput ในระบบเซิร์ฟเวอร์ ✅ การขยายหน่วยความจำด้วย SSD tiering ➡️ รองรับการขยายความจุถึงระดับ petabyte ➡️ มีระบบบีบอัดข้อมูลและฟีเจอร์ด้าน reliability ➡️ ใช้ SSD เป็น tier รองเพื่อเพิ่มความจุโดยไม่ลดความเร็ว ✅ แผนการเปิดตัวผลิตภัณฑ์ ➡️ MX1P จะเปิดตัวปลายปี 2025 พร้อมตัวอย่างสำหรับพันธมิตร ➡️ MX1S จะเปิดตัวในปี 2026 พร้อม dual PCIe Gen6 x8 links ➡️ ทั้งสองรุ่นรองรับ CXL 3.2 เต็มรูปแบบ ✅ การสนับสนุนสำหรับนักพัฒนา ➡️ มี SDK พร้อมไดรเวอร์, runtime libraries และเครื่องมือสำหรับ deployment ➡️ รองรับแอปพลิเคชันตั้งแต่ AI inference ถึง in-memory analytics ➡️ ออกแบบให้ใช้งานได้ในสภาพแวดล้อมมาตรฐาน ✅ รางวัลและการยอมรับ ➡️ ได้รับรางวัล “Most Innovative Memory Technology” ในงาน FMS 2025 ➡️ เคยได้รับรางวัล “Most Innovative Startup” ในปี 2024 ➡️ ได้รับการยกย่องจากผู้เชี่ยวชาญด้าน storage ว่าเป็นแนวทางใหม่ที่เปลี่ยนเกม https://www.techradar.com/pro/a-chip-with-thousands-of-cores-could-change-the-way-servers-are-designed-bringing-compute-nearer-to-ram-thanks-to-cxl-is-a-lightbulb-moment
    0 Comments 0 Shares 266 Views 0 Reviews
  • เมื่อกล้องหน้าร้านกลายเป็นเครื่องมือสแกนใบหน้า – และลูกค้าไม่รู้ตัว

    Benjamin Jankowski ลูกค้าประจำของ Home Depot ในรัฐอิลลินอยส์ สังเกตเห็นสิ่งผิดปกติระหว่างใช้เครื่อง self-checkout ที่ร้านในชิคาโก เขาเห็นกล้องและหน้าจอที่แสดงกรอบสีเขียวรอบใบหน้าของเขา ซึ่งทำให้เขาเชื่อว่าระบบกำลังสแกนและบันทึกข้อมูลใบหน้าโดยไม่ได้รับอนุญาต

    เขาจึงตัดสินใจฟ้อง Home Depot ในรูปแบบ class action โดยกล่าวหาว่าบริษัทละเมิดกฎหมาย Biometric Information Privacy Act (BIPA) ของรัฐอิลลินอยส์ ซึ่งกำหนดให้บริษัทต้องแจ้งลูกค้าอย่างชัดเจนก่อนเก็บข้อมูลชีวภาพ เช่น รูปทรงใบหน้า และต้องได้รับ “ความยินยอมเป็นลายลักษณ์อักษร”

    คดีนี้เปิดเผยว่า Home Depot เริ่มใช้เทคโนโลยี “computer vision” ตั้งแต่ปี 2023 เพื่อป้องกันการขโมยสินค้า โดยขยายการใช้งานในปี 2024 ไปยังเครื่อง self-checkout ทั่วรัฐอิลลินอยส์ แต่ไม่มีการแจ้งลูกค้าอย่างเป็นทางการ และไม่มีนโยบายการจัดเก็บข้อมูลที่เปิดเผยต่อสาธารณะ

    Jankowski ต้องการเป็นตัวแทนของลูกค้าทั้งหมดที่ถูกสแกนใบหน้าโดยไม่รู้ตัว และเรียกร้องค่าชดเชย $1,000 ต่อการละเมิดแบบประมาท และ $5,000 ต่อการละเมิดโดยเจตนา

    กรณีนี้เกิดขึ้นหลังจากที่ Rite Aid ถูกแบนไม่ให้ใช้เทคโนโลยีจดจำใบหน้าเป็นเวลา 5 ปี เนื่องจากการใช้งานที่ “ประมาท” และสร้างผลกระทบต่อผู้บริโภค เช่น การระบุผิดพลาดและการเก็บข้อมูลโดยไม่ได้รับอนุญาต

    สรุปเนื้อหาเป็นหัวข้อ
    ลูกค้าชื่อ Benjamin Jankowski ฟ้อง Home Depot ฐานใช้เทคโนโลยีจดจำใบหน้าโดยไม่แจ้ง
    เขาเห็นกรอบสีเขียวรอบใบหน้าบนหน้าจอ self-checkout ที่ร้านในชิคาโก
    ไม่มีป้ายแจ้งหรือคำเตือนเกี่ยวกับการสแกนใบหน้า
    Home Depot เริ่มใช้ “computer vision” ในปี 2023 และขยายในปี 2024 เพื่อป้องกันการขโมย
    ระบบนี้เก็บข้อมูลรูปทรงใบหน้า (facial geometry) ซึ่งถือเป็นข้อมูลชีวภาพตามกฎหมาย BIPA
    BIPA กำหนดให้บริษัทต้องแจ้งลูกค้าและขอความยินยอมเป็นลายลักษณ์อักษรก่อนเก็บข้อมูล
    Jankowski เรียกร้องค่าชดเชย $1,000 ต่อการละเมิดแบบประมาท และ $5,000 ต่อการละเมิดโดยเจตนา
    เขาต้องการเป็นตัวแทนของลูกค้าทั้งหมดที่ถูกสแกนใบหน้าโดยไม่รู้ตัว
    คดีนี้เกิดขึ้นในรัฐอิลลินอยส์ ซึ่งมีกฎหมายคุ้มครองข้อมูลชีวภาพที่เข้มงวด

    ข้อมูลเสริมจากภายนอก
    Rite Aid ถูกแบนจากการใช้เทคโนโลยีจดจำใบหน้าเป็นเวลา 5 ปี หลังจากใช้งานโดยประมาท
    ระบบของ Rite Aid เคยสร้าง false positives หลายพันครั้ง และเก็บภาพลูกค้าโดยไม่แจ้ง
    กฎหมาย BIPA ของรัฐอิลลินอยส์ถือเป็นหนึ่งในกฎหมายคุ้มครองข้อมูลชีวภาพที่เข้มงวดที่สุดในสหรัฐฯ
    เทคโนโลยีจดจำใบหน้าเริ่มถูกใช้อย่างแพร่หลายในร้านค้าปลีกเพื่อป้องกันการขโมย
    นักกฎหมายเตือนว่าการใช้เทคโนโลยีนี้โดยไม่แจ้งอาจนำไปสู่คดี class action จำนวนมาก

    https://petapixel.com/2025/08/20/home-depot-sued-for-secretly-using-facial-recognition-technology-on-self-checkout-cameras/
    🎙️ เมื่อกล้องหน้าร้านกลายเป็นเครื่องมือสแกนใบหน้า – และลูกค้าไม่รู้ตัว Benjamin Jankowski ลูกค้าประจำของ Home Depot ในรัฐอิลลินอยส์ สังเกตเห็นสิ่งผิดปกติระหว่างใช้เครื่อง self-checkout ที่ร้านในชิคาโก เขาเห็นกล้องและหน้าจอที่แสดงกรอบสีเขียวรอบใบหน้าของเขา ซึ่งทำให้เขาเชื่อว่าระบบกำลังสแกนและบันทึกข้อมูลใบหน้าโดยไม่ได้รับอนุญาต เขาจึงตัดสินใจฟ้อง Home Depot ในรูปแบบ class action โดยกล่าวหาว่าบริษัทละเมิดกฎหมาย Biometric Information Privacy Act (BIPA) ของรัฐอิลลินอยส์ ซึ่งกำหนดให้บริษัทต้องแจ้งลูกค้าอย่างชัดเจนก่อนเก็บข้อมูลชีวภาพ เช่น รูปทรงใบหน้า และต้องได้รับ “ความยินยอมเป็นลายลักษณ์อักษร” คดีนี้เปิดเผยว่า Home Depot เริ่มใช้เทคโนโลยี “computer vision” ตั้งแต่ปี 2023 เพื่อป้องกันการขโมยสินค้า โดยขยายการใช้งานในปี 2024 ไปยังเครื่อง self-checkout ทั่วรัฐอิลลินอยส์ แต่ไม่มีการแจ้งลูกค้าอย่างเป็นทางการ และไม่มีนโยบายการจัดเก็บข้อมูลที่เปิดเผยต่อสาธารณะ Jankowski ต้องการเป็นตัวแทนของลูกค้าทั้งหมดที่ถูกสแกนใบหน้าโดยไม่รู้ตัว และเรียกร้องค่าชดเชย $1,000 ต่อการละเมิดแบบประมาท และ $5,000 ต่อการละเมิดโดยเจตนา กรณีนี้เกิดขึ้นหลังจากที่ Rite Aid ถูกแบนไม่ให้ใช้เทคโนโลยีจดจำใบหน้าเป็นเวลา 5 ปี เนื่องจากการใช้งานที่ “ประมาท” และสร้างผลกระทบต่อผู้บริโภค เช่น การระบุผิดพลาดและการเก็บข้อมูลโดยไม่ได้รับอนุญาต 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ ลูกค้าชื่อ Benjamin Jankowski ฟ้อง Home Depot ฐานใช้เทคโนโลยีจดจำใบหน้าโดยไม่แจ้ง ➡️ เขาเห็นกรอบสีเขียวรอบใบหน้าบนหน้าจอ self-checkout ที่ร้านในชิคาโก ➡️ ไม่มีป้ายแจ้งหรือคำเตือนเกี่ยวกับการสแกนใบหน้า ➡️ Home Depot เริ่มใช้ “computer vision” ในปี 2023 และขยายในปี 2024 เพื่อป้องกันการขโมย ➡️ ระบบนี้เก็บข้อมูลรูปทรงใบหน้า (facial geometry) ซึ่งถือเป็นข้อมูลชีวภาพตามกฎหมาย BIPA ➡️ BIPA กำหนดให้บริษัทต้องแจ้งลูกค้าและขอความยินยอมเป็นลายลักษณ์อักษรก่อนเก็บข้อมูล ➡️ Jankowski เรียกร้องค่าชดเชย $1,000 ต่อการละเมิดแบบประมาท และ $5,000 ต่อการละเมิดโดยเจตนา ➡️ เขาต้องการเป็นตัวแทนของลูกค้าทั้งหมดที่ถูกสแกนใบหน้าโดยไม่รู้ตัว ➡️ คดีนี้เกิดขึ้นในรัฐอิลลินอยส์ ซึ่งมีกฎหมายคุ้มครองข้อมูลชีวภาพที่เข้มงวด ✅ ข้อมูลเสริมจากภายนอก ➡️ Rite Aid ถูกแบนจากการใช้เทคโนโลยีจดจำใบหน้าเป็นเวลา 5 ปี หลังจากใช้งานโดยประมาท ➡️ ระบบของ Rite Aid เคยสร้าง false positives หลายพันครั้ง และเก็บภาพลูกค้าโดยไม่แจ้ง ➡️ กฎหมาย BIPA ของรัฐอิลลินอยส์ถือเป็นหนึ่งในกฎหมายคุ้มครองข้อมูลชีวภาพที่เข้มงวดที่สุดในสหรัฐฯ ➡️ เทคโนโลยีจดจำใบหน้าเริ่มถูกใช้อย่างแพร่หลายในร้านค้าปลีกเพื่อป้องกันการขโมย ➡️ นักกฎหมายเตือนว่าการใช้เทคโนโลยีนี้โดยไม่แจ้งอาจนำไปสู่คดี class action จำนวนมาก https://petapixel.com/2025/08/20/home-depot-sued-for-secretly-using-facial-recognition-technology-on-self-checkout-cameras/
    PETAPIXEL.COM
    Home Depot Sued for 'Secretly' Using Facial Recognition Technology on Self-Checkout Cameras
    The Home Depot customer says he noticed the camera at a recent trip to the store.
    0 Comments 0 Shares 282 Views 0 Reviews
  • เรื่องเล่าจากโลกชิป: จาก 4 บิตสู่ 10 ล้านล้านพารามิเตอร์

    ย้อนกลับไปปี 1971 Intel เปิดตัวชิป 4004 ซึ่งเป็นไมโครโปรเซสเซอร์ตัวแรกของโลก ด้วยความเร็วเพียง 740kHz และประมวลผลได้ 92,600 คำสั่งต่อวินาที (IPS) ใช้หน่วยความจำแค่ 4KB ROM และ 640 bytes RAM—เล็กจนเทียบไม่ได้กับมือถือยุคนี้

    แต่ในปี 2025 NVIDIA เปิดตัว Blackwell ซึ่งเป็นชิป AI ที่ทรงพลังที่สุดในโลก ด้วยพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU รองรับโมเดลขนาด 10 ล้านล้านพารามิเตอร์ และใช้เทคโนโลยี NVLink รุ่นที่ 5 ที่เชื่อมต่อ GPU ได้ถึง 576 ตัวในคลัสเตอร์เดียว

    เมื่อเปรียบเทียบกันแล้ว Blackwell มีประสิทธิภาพมากกว่า Intel 4004 ถึง 217 ล้านเท่า! นี่คือผลลัพธ์ของการพัฒนาอย่างต่อเนื่องตามกฎของ Moore’s Law และความต้องการด้าน AI ที่เติบโตแบบทวีคูณ

    Intel 4004 คือจุดเริ่มต้นของยุคไมโครโปรเซสเซอร์ในปี 1971
    ความเร็ว 740kHz, 4-bit CPU, 2,300 ทรานซิสเตอร์
    ใช้ในเครื่องคิดเลขของบริษัท Busicom

    NVIDIA Blackwell คือชิป AI ที่ทรงพลังที่สุดในปี 2025
    มี 208 พันล้านทรานซิสเตอร์
    รองรับโมเดล AI ขนาด 10 ล้านล้านพารามิเตอร์
    ใช้เทคโนโลยี NVLink 5.0 ที่มีแบนด์วิดธ์ 1.8TB/s ต่อ GPU

    Blackwell มีพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU
    ใช้หน่วยความจำ HBM3e สูงสุด 192GB
    มี Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับ AI inference

    การพัฒนาใน 50 ปีทำให้ประสิทธิภาพเพิ่มขึ้นถึง 217 ล้านเท่า
    จาก 92,600 IPS ของ 4004 สู่ระดับ ExaFLOPS ของ Blackwell
    สะท้อนความก้าวหน้าของมนุษยชาติในด้านคอมพิวเตอร์

    Blackwell ถูกนำไปใช้ในระบบ AI ของบริษัทชั้นนำทั่วโลก
    เช่น Microsoft Azure, Google DeepMind, Meta, Tesla และ OpenAI
    ใช้ในงาน LLM, quantum computing, และ data analytics

    https://wccftech.com/computing-power-has-skyrocketed-over-the-last-50-years-with-a-whopping-217-million-times-increase/
    🧠 เรื่องเล่าจากโลกชิป: จาก 4 บิตสู่ 10 ล้านล้านพารามิเตอร์ ย้อนกลับไปปี 1971 Intel เปิดตัวชิป 4004 ซึ่งเป็นไมโครโปรเซสเซอร์ตัวแรกของโลก ด้วยความเร็วเพียง 740kHz และประมวลผลได้ 92,600 คำสั่งต่อวินาที (IPS) ใช้หน่วยความจำแค่ 4KB ROM และ 640 bytes RAM—เล็กจนเทียบไม่ได้กับมือถือยุคนี้ แต่ในปี 2025 NVIDIA เปิดตัว Blackwell ซึ่งเป็นชิป AI ที่ทรงพลังที่สุดในโลก ด้วยพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU รองรับโมเดลขนาด 10 ล้านล้านพารามิเตอร์ และใช้เทคโนโลยี NVLink รุ่นที่ 5 ที่เชื่อมต่อ GPU ได้ถึง 576 ตัวในคลัสเตอร์เดียว เมื่อเปรียบเทียบกันแล้ว Blackwell มีประสิทธิภาพมากกว่า Intel 4004 ถึง 217 ล้านเท่า! นี่คือผลลัพธ์ของการพัฒนาอย่างต่อเนื่องตามกฎของ Moore’s Law และความต้องการด้าน AI ที่เติบโตแบบทวีคูณ ✅ Intel 4004 คือจุดเริ่มต้นของยุคไมโครโปรเซสเซอร์ในปี 1971 ➡️ ความเร็ว 740kHz, 4-bit CPU, 2,300 ทรานซิสเตอร์ ➡️ ใช้ในเครื่องคิดเลขของบริษัท Busicom ✅ NVIDIA Blackwell คือชิป AI ที่ทรงพลังที่สุดในปี 2025 ➡️ มี 208 พันล้านทรานซิสเตอร์ ➡️ รองรับโมเดล AI ขนาด 10 ล้านล้านพารามิเตอร์ ➡️ ใช้เทคโนโลยี NVLink 5.0 ที่มีแบนด์วิดธ์ 1.8TB/s ต่อ GPU ✅ Blackwell มีพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU ➡️ ใช้หน่วยความจำ HBM3e สูงสุด 192GB ➡️ มี Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับ AI inference ✅ การพัฒนาใน 50 ปีทำให้ประสิทธิภาพเพิ่มขึ้นถึง 217 ล้านเท่า ➡️ จาก 92,600 IPS ของ 4004 สู่ระดับ ExaFLOPS ของ Blackwell ➡️ สะท้อนความก้าวหน้าของมนุษยชาติในด้านคอมพิวเตอร์ ✅ Blackwell ถูกนำไปใช้ในระบบ AI ของบริษัทชั้นนำทั่วโลก ➡️ เช่น Microsoft Azure, Google DeepMind, Meta, Tesla และ OpenAI ➡️ ใช้ในงาน LLM, quantum computing, และ data analytics https://wccftech.com/computing-power-has-skyrocketed-over-the-last-50-years-with-a-whopping-217-million-times-increase/
    WCCFTECH.COM
    Computing Power Has Skyrocketed Over the Last 50 Years, With a Whopping 217 Million Times Increase in Performance — From the Humble Intel 4004 to Cutting-Edge NVIDIA Blackwell Chip
    The evolution of humans has been the "talk of the town," but in the computing segment, we have achieved a lot in just five decades.
    0 Comments 0 Shares 243 Views 0 Reviews
  • 2/
    เทคโนโลยีโดรนก้าวหน้าไปอีกขั้น

    วิดีโอ 1 - ในประเทศจีนสามารถสร้างโดรนที่สามารถบินได้ในทุกสภาพภูมิประเทศทั้งผิวน้ำ ใต้น้ำ บินในอากาศ และบนบกได้

    วิดีโอ 2 - อันเดรย์ โคปาซี (Andrei Copaci) นักศึกษาระดับปริญญาโทจากมหาวิทยาลัยอัลบอร์ก ประเทศเดนมาร์ก ได้สร้างโดรนไฮบริดที่สามารถบินได้ทั้งใต้น้ำและบนอากาศ โคปาซีใช้เพียงแค่คอมพิวเตอร์แล็ปท็อปในการเขียนโค้ดคำสั่ง ร่วมกับเครื่องพิมพ์ 3 มิติ เขาทำงานร่วมกับศาสตราจารย์เปตาร์ ดูร์เดวิช (Petar Durdevic) อาจารย์ที่ปรึกษา โดยกล่าวว่าแบบของโดรนจะถูกเปิดเผยต่อสาธารณะหลังจากรายละเอียดในขั้นตอนสุดท้ายบางส่วนเสร็จสิ้นแล้ว
    2/ เทคโนโลยีโดรนก้าวหน้าไปอีกขั้น วิดีโอ 1 - ในประเทศจีนสามารถสร้างโดรนที่สามารถบินได้ในทุกสภาพภูมิประเทศทั้งผิวน้ำ ใต้น้ำ บินในอากาศ และบนบกได้ วิดีโอ 2 - อันเดรย์ โคปาซี (Andrei Copaci) นักศึกษาระดับปริญญาโทจากมหาวิทยาลัยอัลบอร์ก ประเทศเดนมาร์ก ได้สร้างโดรนไฮบริดที่สามารถบินได้ทั้งใต้น้ำและบนอากาศ โคปาซีใช้เพียงแค่คอมพิวเตอร์แล็ปท็อปในการเขียนโค้ดคำสั่ง ร่วมกับเครื่องพิมพ์ 3 มิติ เขาทำงานร่วมกับศาสตราจารย์เปตาร์ ดูร์เดวิช (Petar Durdevic) อาจารย์ที่ปรึกษา โดยกล่าวว่าแบบของโดรนจะถูกเปิดเผยต่อสาธารณะหลังจากรายละเอียดในขั้นตอนสุดท้ายบางส่วนเสร็จสิ้นแล้ว
    0 Comments 0 Shares 291 Views 0 0 Reviews
  • 1/
    เทคโนโลยีโดรนก้าวหน้าไปอีกขั้น

    วิดีโอ 1 - ในประเทศจีนสามารถสร้างโดรนที่สามารถบินได้ในทุกสภาพภูมิประเทศทั้งผิวน้ำ ใต้น้ำ บินในอากาศ และบนบกได้

    วิดีโอ 2 - อันเดรย์ โคปาซี (Andrei Copaci) นักศึกษาระดับปริญญาโทจากมหาวิทยาลัยอัลบอร์ก ประเทศเดนมาร์ก ได้สร้างโดรนไฮบริดที่สามารถบินได้ทั้งใต้น้ำและบนอากาศ โคปาซีใช้เพียงแค่คอมพิวเตอร์แล็ปท็อปในการเขียนโค้ดคำสั่ง ร่วมกับเครื่องพิมพ์ 3 มิติ เขาทำงานร่วมกับศาสตราจารย์เปตาร์ ดูร์เดวิช (Petar Durdevic) อาจารย์ที่ปรึกษา โดยกล่าวว่าแบบของโดรนจะถูกเปิดเผยต่อสาธารณะหลังจากรายละเอียดในขั้นตอนสุดท้ายบางส่วนเสร็จสิ้นแล้ว
    1/ เทคโนโลยีโดรนก้าวหน้าไปอีกขั้น วิดีโอ 1 - ในประเทศจีนสามารถสร้างโดรนที่สามารถบินได้ในทุกสภาพภูมิประเทศทั้งผิวน้ำ ใต้น้ำ บินในอากาศ และบนบกได้ วิดีโอ 2 - อันเดรย์ โคปาซี (Andrei Copaci) นักศึกษาระดับปริญญาโทจากมหาวิทยาลัยอัลบอร์ก ประเทศเดนมาร์ก ได้สร้างโดรนไฮบริดที่สามารถบินได้ทั้งใต้น้ำและบนอากาศ โคปาซีใช้เพียงแค่คอมพิวเตอร์แล็ปท็อปในการเขียนโค้ดคำสั่ง ร่วมกับเครื่องพิมพ์ 3 มิติ เขาทำงานร่วมกับศาสตราจารย์เปตาร์ ดูร์เดวิช (Petar Durdevic) อาจารย์ที่ปรึกษา โดยกล่าวว่าแบบของโดรนจะถูกเปิดเผยต่อสาธารณะหลังจากรายละเอียดในขั้นตอนสุดท้ายบางส่วนเสร็จสิ้นแล้ว
    0 Comments 0 Shares 317 Views 0 0 Reviews
  • เริ่มนับหนึ่ง MRT3 Circle Line รถไฟฟ้าวงแหวนรอบนอก KL

    หลังจากประเทศมาเลเซียพัฒนารถไฟฟ้าไปทั่วกรุงกัวลาลัมเปอร์และหุบเขาแคลงมาแล้ว 12 เส้นทาง ล่าสุดโครงการรถไฟฟ้า MRT3 Circle Line ของบริษัท มาเลเซีย แรพิด ทรานซิท คอร์ปอเรชัน (MRT Corp) นายแอนโทนี่ โลค รมว.คมนาคมมาเลเซีย ได้อนุมัติลงนามโครงการในขั้นตอนสุดท้ายเรียบร้อยแล้ว หลังเปิดรับฟังความคิดเห็นจากประชาชน 45,000 ราย พบว่ามีผู้สนับสนุนโครงการ 93.3% นับจากนี้จะเริ่มกระบวนการจัดซื้อที่ดินตามแนวเส้นทาง 690 แปลงภายในปี 2569 ก่อนประกวดราคาและก่อสร้างต่อไป

    สำหรับโครงการรถไฟฟ้า MRT3 Circle Line มีระยะทาง 51 กิโลเมตร ใช้เวลาเดินทางวนรอบ 73 นาที แบ่งเป็นทางรถไฟยกระดับ 39 กิโลเมตร และทางรถไฟใต้ดิน 12 กิโลเมตร เริ่มต้นจากสถานีบูกิต เคียรา เซลาตัน (Bukit Kiara Selatan) เชื่อมต่อกับรถไฟฟ้า MRT Kajang Line วนตามเข็มนาฬิกาจากทิศตะวันตกไปทางทิศตะวันออก มีสถานีทั้งหมด 32 สถานี แบ่งเป็นสถานียกระดับ 22 สถานี สถานีใต้ดิน 7 สถานี รองรับผู้โดยสาร 25,000 คนต่อชั่วโมงต่อทิศทาง ให้บริการผู้โดยสารรอบนอกกรุงกัวลาลัมเปอร์ และเชื่อมต่อเส้นทางรถไฟฟ้าสายอื่นแบบบูรณาการ สามารถเดินทางระหว่างกันได้อย่างราบรื่น

    เชื่อมต่อรถไฟฟ้าสายต่างๆ ได้แก่ สถานีคอมเพล็กซ์ ดูตา (Kompleks Duta) เชื่อมต่อรถไฟ KTM Tanjung Malim-Port Klang Line, สถานีตีตี้วังซา (Titiwangsa) เชื่อมต่อกับรถไฟฟ้า 4 สาย ได้แก่ LRT Ampang Line, LRT Sri Petaling Line, KL Monorail Line and MRT Putrajaya Line, สถานีเซเตียวังซา (Setiawangsa) เชื่อมต่อรถไฟ LRT Kelana Jaya Line, สถานีพันดัน อินดาห์ (Pandan Indah) เชื่อมต่อรถไฟฟ้า LRT Ampang Line,

    สถานีตามันมิดาห์ (Taman Midah) เชื่อมต่อรถไฟ MRT Kajang Line, สถานีซาลัคเซลาตัน (Salak Selatan) เชื่อมต่อรถไฟฟ้า LRT Sri Petaling Line, สถานีกูชาย (Kuchai) เชื่อมต่อรถไฟฟ้า MRT Putrajaya Line, สถานีพันทายดาลัม (Pantai Dalam) เชื่อมต่อรถไฟ KTM Tanjung Malim-Port Klang Line, สถานียูนิเวอร์ซิตี้ (Universiti) เชื่อมต่อรถไฟฟ้า LRT Kelana Jaya Line

    ผ่านสถานที่สำคัญ ได้แก่ ศูนย์นิทรรศการและการค้าระหว่างประเทศมาเลเซีย (MITEC) สถานีดูตามาส (Dutamas), โรงพยาบาลเฉพาะทาง Pusat Perubatan Universiti Kebangsaan Malaysia (PPUKM) and UKM Child Specialist Hospital สถานีจาลันยาโคบลาทิฟ (Jalan Yaacob Latif), ศูนย์การค้าเคแอลเกตเวย์มอลล์ สถานียูนิเวอร์ซิตี้ และศูนย์การแพทย์มหาวิทยาลัยมาลายา (University of Malaya Medical Centre) สถานียูเอ็ม (UM) เป็นต้น

    #Newskit
    เริ่มนับหนึ่ง MRT3 Circle Line รถไฟฟ้าวงแหวนรอบนอก KL หลังจากประเทศมาเลเซียพัฒนารถไฟฟ้าไปทั่วกรุงกัวลาลัมเปอร์และหุบเขาแคลงมาแล้ว 12 เส้นทาง ล่าสุดโครงการรถไฟฟ้า MRT3 Circle Line ของบริษัท มาเลเซีย แรพิด ทรานซิท คอร์ปอเรชัน (MRT Corp) นายแอนโทนี่ โลค รมว.คมนาคมมาเลเซีย ได้อนุมัติลงนามโครงการในขั้นตอนสุดท้ายเรียบร้อยแล้ว หลังเปิดรับฟังความคิดเห็นจากประชาชน 45,000 ราย พบว่ามีผู้สนับสนุนโครงการ 93.3% นับจากนี้จะเริ่มกระบวนการจัดซื้อที่ดินตามแนวเส้นทาง 690 แปลงภายในปี 2569 ก่อนประกวดราคาและก่อสร้างต่อไป สำหรับโครงการรถไฟฟ้า MRT3 Circle Line มีระยะทาง 51 กิโลเมตร ใช้เวลาเดินทางวนรอบ 73 นาที แบ่งเป็นทางรถไฟยกระดับ 39 กิโลเมตร และทางรถไฟใต้ดิน 12 กิโลเมตร เริ่มต้นจากสถานีบูกิต เคียรา เซลาตัน (Bukit Kiara Selatan) เชื่อมต่อกับรถไฟฟ้า MRT Kajang Line วนตามเข็มนาฬิกาจากทิศตะวันตกไปทางทิศตะวันออก มีสถานีทั้งหมด 32 สถานี แบ่งเป็นสถานียกระดับ 22 สถานี สถานีใต้ดิน 7 สถานี รองรับผู้โดยสาร 25,000 คนต่อชั่วโมงต่อทิศทาง ให้บริการผู้โดยสารรอบนอกกรุงกัวลาลัมเปอร์ และเชื่อมต่อเส้นทางรถไฟฟ้าสายอื่นแบบบูรณาการ สามารถเดินทางระหว่างกันได้อย่างราบรื่น เชื่อมต่อรถไฟฟ้าสายต่างๆ ได้แก่ สถานีคอมเพล็กซ์ ดูตา (Kompleks Duta) เชื่อมต่อรถไฟ KTM Tanjung Malim-Port Klang Line, สถานีตีตี้วังซา (Titiwangsa) เชื่อมต่อกับรถไฟฟ้า 4 สาย ได้แก่ LRT Ampang Line, LRT Sri Petaling Line, KL Monorail Line and MRT Putrajaya Line, สถานีเซเตียวังซา (Setiawangsa) เชื่อมต่อรถไฟ LRT Kelana Jaya Line, สถานีพันดัน อินดาห์ (Pandan Indah) เชื่อมต่อรถไฟฟ้า LRT Ampang Line, สถานีตามันมิดาห์ (Taman Midah) เชื่อมต่อรถไฟ MRT Kajang Line, สถานีซาลัคเซลาตัน (Salak Selatan) เชื่อมต่อรถไฟฟ้า LRT Sri Petaling Line, สถานีกูชาย (Kuchai) เชื่อมต่อรถไฟฟ้า MRT Putrajaya Line, สถานีพันทายดาลัม (Pantai Dalam) เชื่อมต่อรถไฟ KTM Tanjung Malim-Port Klang Line, สถานียูนิเวอร์ซิตี้ (Universiti) เชื่อมต่อรถไฟฟ้า LRT Kelana Jaya Line ผ่านสถานที่สำคัญ ได้แก่ ศูนย์นิทรรศการและการค้าระหว่างประเทศมาเลเซีย (MITEC) สถานีดูตามาส (Dutamas), โรงพยาบาลเฉพาะทาง Pusat Perubatan Universiti Kebangsaan Malaysia (PPUKM) and UKM Child Specialist Hospital สถานีจาลันยาโคบลาทิฟ (Jalan Yaacob Latif), ศูนย์การค้าเคแอลเกตเวย์มอลล์ สถานียูนิเวอร์ซิตี้ และศูนย์การแพทย์มหาวิทยาลัยมาลายา (University of Malaya Medical Centre) สถานียูเอ็ม (UM) เป็นต้น #Newskit
    0 Comments 0 Shares 614 Views 0 Reviews
  • นักวิจัยจาก Oxford และ Lisbon ได้ใช้ซอฟต์แวร์ OSIRIS รันการจำลอง 3D แบบเรียลไทม์ เพื่อศึกษาว่าเลเซอร์พลังสูงมีผลต่อ “สุญญากาศควอนตัม” อย่างไร ซึ่งจริง ๆ แล้วสุญญากาศไม่ได้ว่างเปล่า แต่เต็มไปด้วยอนุภาคเสมือน เช่น อิเล็กตรอน-โพซิตรอน ที่เกิดและดับในช่วงเวลาสั้น ๆ

    เมื่อยิงเลเซอร์สามชุดเข้าไปในสุญญากาศ จะเกิดปรากฏการณ์ “vacuum four-wave mixing” ซึ่งทำให้โฟตอนกระเด้งใส่กันและสร้างลำแสงที่สี่ขึ้นมา—เหมือนแสงเกิดจากความว่างเปล่า

    นี่ไม่ใช่แค่การจำลองเพื่อความรู้ แต่เป็นก้าวสำคัญในการยืนยันปรากฏการณ์ควอนตัมที่เคยเป็นแค่ทฤษฎี โดยใช้เลเซอร์ระดับ Petawatt ที่กำลังถูกติดตั้งทั่วโลก เช่น Vulcan 20-20 (UK), ELI (EU), SHINE และ SEL (จีน), OPAL (สหรัฐฯ)

    ทีมงานยังใช้ตัวแก้สมการแบบกึ่งคลาสสิกจาก Heisenberg-Euler Lagrangian เพื่อจำลองผลกระทบของสุญญากาศต่อแสง เช่น vacuum birefringence (การแยกแสงในสนามแม่เหล็กแรงสูง)

    ผลการจำลองตรงกับทฤษฎีเดิม และยังเผยรายละเอียดใหม่ เช่น รูปร่างของลำแสงที่เบี้ยวเล็กน้อย (astigmatism) และระยะเวลาการเกิดปฏิกิริยา

    นอกจากยืนยันทฤษฎีควอนตัมแล้ว เครื่องมือนี้ยังอาจช่วยค้นหาอนุภาคใหม่ เช่น axions และ millicharged particles ซึ่งเป็นผู้ต้องสงสัยว่าอาจเป็น “สสารมืด” ที่ยังไม่มีใครเห็น

    ข้อมูลจากข่าว
    - นักวิจัย Oxford และ Lisbon สร้างแสงจากสุญญากาศโดยใช้เลเซอร์พลังสูง
    - ใช้ปรากฏการณ์ vacuum four-wave mixing ที่โฟตอนกระเด้งใส่กัน
    - สุญญากาศควอนตัมเต็มไปด้วยอนุภาคเสมือนที่เกิดและดับตลอดเวลา
    - ใช้ซอฟต์แวร์ OSIRIS และตัวแก้สมการ Heisenberg-Euler Lagrangian
    - ผลการจำลองตรงกับทฤษฎี vacuum birefringence และเผยรายละเอียดใหม่
    - เลเซอร์ระดับ Petawatt เช่น Vulcan, ELI, SHINE, OPAL จะช่วยทดสอบทฤษฎีนี้ในโลกจริง
    - อาจช่วยค้นหาอนุภาคใหม่ เช่น axions และ millicharged particles ที่เกี่ยวข้องกับสสารมืด

    คำเตือนและข้อควรระวัง
    - ปรากฏการณ์นี้ยังอยู่ในขั้นจำลอง ต้องรอการทดลองจริงจากเลเซอร์ระดับ Petawatt
    - การสร้างแสงจากสุญญากาศต้องใช้พลังงานมหาศาลและเทคโนโลยีขั้นสูง
    - การค้นหาอนุภาคใหม่ยังไม่มีหลักฐานเชิงประจักษ์ ต้องใช้เวลาและการตรวจสอบซ้ำ
    - การเข้าใจสุญญากาศควอนตัมต้องใช้ฟิสิกส์ระดับสูง ซึ่งอาจยังไม่เข้าถึงได้สำหรับผู้ทั่วไป
    - หากทฤษฎีนี้ถูกยืนยัน อาจต้องปรับเปลี่ยนแนวคิดพื้นฐานเกี่ยวกับธรรมชาติของแสงและสุญญากาศ

    https://www.neowin.net/news/oxford-scientists-create-light-from-darkness-and-no-its-not-magic/
    นักวิจัยจาก Oxford และ Lisbon ได้ใช้ซอฟต์แวร์ OSIRIS รันการจำลอง 3D แบบเรียลไทม์ เพื่อศึกษาว่าเลเซอร์พลังสูงมีผลต่อ “สุญญากาศควอนตัม” อย่างไร ซึ่งจริง ๆ แล้วสุญญากาศไม่ได้ว่างเปล่า แต่เต็มไปด้วยอนุภาคเสมือน เช่น อิเล็กตรอน-โพซิตรอน ที่เกิดและดับในช่วงเวลาสั้น ๆ เมื่อยิงเลเซอร์สามชุดเข้าไปในสุญญากาศ จะเกิดปรากฏการณ์ “vacuum four-wave mixing” ซึ่งทำให้โฟตอนกระเด้งใส่กันและสร้างลำแสงที่สี่ขึ้นมา—เหมือนแสงเกิดจากความว่างเปล่า นี่ไม่ใช่แค่การจำลองเพื่อความรู้ แต่เป็นก้าวสำคัญในการยืนยันปรากฏการณ์ควอนตัมที่เคยเป็นแค่ทฤษฎี โดยใช้เลเซอร์ระดับ Petawatt ที่กำลังถูกติดตั้งทั่วโลก เช่น Vulcan 20-20 (UK), ELI (EU), SHINE และ SEL (จีน), OPAL (สหรัฐฯ) ทีมงานยังใช้ตัวแก้สมการแบบกึ่งคลาสสิกจาก Heisenberg-Euler Lagrangian เพื่อจำลองผลกระทบของสุญญากาศต่อแสง เช่น vacuum birefringence (การแยกแสงในสนามแม่เหล็กแรงสูง) ผลการจำลองตรงกับทฤษฎีเดิม และยังเผยรายละเอียดใหม่ เช่น รูปร่างของลำแสงที่เบี้ยวเล็กน้อย (astigmatism) และระยะเวลาการเกิดปฏิกิริยา นอกจากยืนยันทฤษฎีควอนตัมแล้ว เครื่องมือนี้ยังอาจช่วยค้นหาอนุภาคใหม่ เช่น axions และ millicharged particles ซึ่งเป็นผู้ต้องสงสัยว่าอาจเป็น “สสารมืด” ที่ยังไม่มีใครเห็น ✅ ข้อมูลจากข่าว - นักวิจัย Oxford และ Lisbon สร้างแสงจากสุญญากาศโดยใช้เลเซอร์พลังสูง - ใช้ปรากฏการณ์ vacuum four-wave mixing ที่โฟตอนกระเด้งใส่กัน - สุญญากาศควอนตัมเต็มไปด้วยอนุภาคเสมือนที่เกิดและดับตลอดเวลา - ใช้ซอฟต์แวร์ OSIRIS และตัวแก้สมการ Heisenberg-Euler Lagrangian - ผลการจำลองตรงกับทฤษฎี vacuum birefringence และเผยรายละเอียดใหม่ - เลเซอร์ระดับ Petawatt เช่น Vulcan, ELI, SHINE, OPAL จะช่วยทดสอบทฤษฎีนี้ในโลกจริง - อาจช่วยค้นหาอนุภาคใหม่ เช่น axions และ millicharged particles ที่เกี่ยวข้องกับสสารมืด ‼️ คำเตือนและข้อควรระวัง - ปรากฏการณ์นี้ยังอยู่ในขั้นจำลอง ต้องรอการทดลองจริงจากเลเซอร์ระดับ Petawatt - การสร้างแสงจากสุญญากาศต้องใช้พลังงานมหาศาลและเทคโนโลยีขั้นสูง - การค้นหาอนุภาคใหม่ยังไม่มีหลักฐานเชิงประจักษ์ ต้องใช้เวลาและการตรวจสอบซ้ำ - การเข้าใจสุญญากาศควอนตัมต้องใช้ฟิสิกส์ระดับสูง ซึ่งอาจยังไม่เข้าถึงได้สำหรับผู้ทั่วไป - หากทฤษฎีนี้ถูกยืนยัน อาจต้องปรับเปลี่ยนแนวคิดพื้นฐานเกี่ยวกับธรรมชาติของแสงและสุญญากาศ https://www.neowin.net/news/oxford-scientists-create-light-from-darkness-and-no-its-not-magic/
    WWW.NEOWIN.NET
    Oxford scientists create light from "darkness" and no it's not magic
    Scientists over at the University of Oxford have managed to generate light out of "darkness" and there is no magic involved here, just pure science.
    0 Comments 0 Shares 301 Views 0 Reviews
  • จีนใช้ฮาร์ดไดรฟ์ขนส่งข้อมูล AI เพื่อหลีกเลี่ยงข้อจำกัดด้านชิป
    บริษัท AI ในจีนกำลังใช้ ฮาร์ดไดรฟ์ความจุสูง เพื่อขนส่งข้อมูลฝึกสอนโมเดล AI ข้ามพรมแดน หลังจากที่สหรัฐฯ จำกัดการส่งออกชิป AI เช่น Nvidia H100 ซึ่งเป็นชิปที่สำคัญสำหรับการประมวลผล AI.

    รายละเอียดกลยุทธ์ใหม่
    บริษัทจีนใช้ฮาร์ดไดรฟ์แทนการส่งข้อมูลผ่านอินเทอร์เน็ต เพื่อหลีกเลี่ยงการตรวจสอบจากหน่วยงานสหรัฐฯ.
    นักวิจัยจีนเดินทางไปมาเลเซียพร้อมฮาร์ดไดรฟ์ 15 ลูก ซึ่งมีข้อมูลรวมกว่า 4.8 เพตะไบต์ สำหรับฝึกโมเดล AI.
    ศูนย์ข้อมูลในมาเลเซียกลายเป็นศูนย์กลางการประมวลผล AI ของจีน เนื่องจากมีเซิร์ฟเวอร์ที่มี GPU ประสิทธิภาพสูง.
    บริษัทจีนใช้บริษัทลูกในสิงคโปร์เพื่อเซ็นสัญญาเช่าศูนย์ข้อมูล แต่ต้องลงทะเบียนในมาเลเซียเพื่อหลีกเลี่ยงแรงกดดันทางกฎหมาย.

    ผลกระทบและข้อควรระวัง
    การขนส่งข้อมูลด้วยฮาร์ดไดรฟ์อาจมีความเสี่ยงด้านความปลอดภัย เช่น การสูญหายหรือถูกขโมยระหว่างการเดินทาง.
    การใช้ฮาร์ดไดรฟ์แทนการส่งข้อมูลออนไลน์อาจทำให้กระบวนการฝึกโมเดลล่าช้า เนื่องจากต้องรอการขนส่ง.
    สหรัฐฯ อาจเพิ่มมาตรการตรวจสอบการขนส่งฮาร์ดไดรฟ์ เพื่อป้องกันการหลีกเลี่ยงข้อจำกัดด้านชิป.

    แนวทางการรับมือและการพัฒนา
    บริษัทจีนอาจต้องพัฒนาโครงสร้างพื้นฐาน AI ภายในประเทศ เพื่อลดการพึ่งพาเซิร์ฟเวอร์ในต่างประเทศ.
    การใช้เทคโนโลยีบีบอัดข้อมูลอาจช่วยลดขนาดไฟล์ ทำให้สามารถส่งข้อมูลผ่านอินเทอร์เน็ตได้เร็วขึ้น.
    การพัฒนา AI ที่ใช้พลังงานต่ำและไม่ต้องพึ่งพา GPU ระดับสูง อาจเป็นทางออกในระยะยาว.

    ข้อมูลเพิ่มเติมเกี่ยวกับข้อจำกัดด้านชิปและ AI
    Nvidia กำลังพัฒนา GPU รุ่นพิเศษสำหรับตลาดจีน เพื่อให้สอดคล้องกับข้อจำกัดของสหรัฐฯ.
    Huawei เปิดตัวชิป AI ที่เร็วที่สุดของบริษัท หนึ่งวันหลังจากสหรัฐฯ แบน Nvidia H20 ในจีน.
    ตลาดศูนย์ข้อมูล AI ในจีนกำลังเผชิญกับปัญหาความต้องการที่ลดลง เนื่องจากข้อจำกัดด้านชิปและการลงทุนที่ชะลอตัว.

    https://www.techradar.com/pro/no-ai-gpu-no-problem-ai-firms-from-china-skirt-around-us-chip-restrictions-by-moving-petabytes-of-data-on-good-ol-hard-drives-but-why-not-use-tape
    จีนใช้ฮาร์ดไดรฟ์ขนส่งข้อมูล AI เพื่อหลีกเลี่ยงข้อจำกัดด้านชิป บริษัท AI ในจีนกำลังใช้ ฮาร์ดไดรฟ์ความจุสูง เพื่อขนส่งข้อมูลฝึกสอนโมเดล AI ข้ามพรมแดน หลังจากที่สหรัฐฯ จำกัดการส่งออกชิป AI เช่น Nvidia H100 ซึ่งเป็นชิปที่สำคัญสำหรับการประมวลผล AI. รายละเอียดกลยุทธ์ใหม่ ✅ บริษัทจีนใช้ฮาร์ดไดรฟ์แทนการส่งข้อมูลผ่านอินเทอร์เน็ต เพื่อหลีกเลี่ยงการตรวจสอบจากหน่วยงานสหรัฐฯ. ✅ นักวิจัยจีนเดินทางไปมาเลเซียพร้อมฮาร์ดไดรฟ์ 15 ลูก ซึ่งมีข้อมูลรวมกว่า 4.8 เพตะไบต์ สำหรับฝึกโมเดล AI. ✅ ศูนย์ข้อมูลในมาเลเซียกลายเป็นศูนย์กลางการประมวลผล AI ของจีน เนื่องจากมีเซิร์ฟเวอร์ที่มี GPU ประสิทธิภาพสูง. ✅ บริษัทจีนใช้บริษัทลูกในสิงคโปร์เพื่อเซ็นสัญญาเช่าศูนย์ข้อมูล แต่ต้องลงทะเบียนในมาเลเซียเพื่อหลีกเลี่ยงแรงกดดันทางกฎหมาย. ผลกระทบและข้อควรระวัง ‼️ การขนส่งข้อมูลด้วยฮาร์ดไดรฟ์อาจมีความเสี่ยงด้านความปลอดภัย เช่น การสูญหายหรือถูกขโมยระหว่างการเดินทาง. ‼️ การใช้ฮาร์ดไดรฟ์แทนการส่งข้อมูลออนไลน์อาจทำให้กระบวนการฝึกโมเดลล่าช้า เนื่องจากต้องรอการขนส่ง. ‼️ สหรัฐฯ อาจเพิ่มมาตรการตรวจสอบการขนส่งฮาร์ดไดรฟ์ เพื่อป้องกันการหลีกเลี่ยงข้อจำกัดด้านชิป. แนวทางการรับมือและการพัฒนา ✅ บริษัทจีนอาจต้องพัฒนาโครงสร้างพื้นฐาน AI ภายในประเทศ เพื่อลดการพึ่งพาเซิร์ฟเวอร์ในต่างประเทศ. ✅ การใช้เทคโนโลยีบีบอัดข้อมูลอาจช่วยลดขนาดไฟล์ ทำให้สามารถส่งข้อมูลผ่านอินเทอร์เน็ตได้เร็วขึ้น. ✅ การพัฒนา AI ที่ใช้พลังงานต่ำและไม่ต้องพึ่งพา GPU ระดับสูง อาจเป็นทางออกในระยะยาว. ข้อมูลเพิ่มเติมเกี่ยวกับข้อจำกัดด้านชิปและ AI ✅ Nvidia กำลังพัฒนา GPU รุ่นพิเศษสำหรับตลาดจีน เพื่อให้สอดคล้องกับข้อจำกัดของสหรัฐฯ. ✅ Huawei เปิดตัวชิป AI ที่เร็วที่สุดของบริษัท หนึ่งวันหลังจากสหรัฐฯ แบน Nvidia H20 ในจีน. ‼️ ตลาดศูนย์ข้อมูล AI ในจีนกำลังเผชิญกับปัญหาความต้องการที่ลดลง เนื่องจากข้อจำกัดด้านชิปและการลงทุนที่ชะลอตัว. https://www.techradar.com/pro/no-ai-gpu-no-problem-ai-firms-from-china-skirt-around-us-chip-restrictions-by-moving-petabytes-of-data-on-good-ol-hard-drives-but-why-not-use-tape
    0 Comments 0 Shares 301 Views 0 Reviews
  • วิดีโออีกหนึ่งมุมช่วงเวลาที่ขีปนาวุธอิหร่านโจมตีนิคมเปตาห์ติกวา (Petah Tikva) ตอนกลางของอิสราเอล ใกล้กับเทลอาวีฟ
    วิดีโออีกหนึ่งมุมช่วงเวลาที่ขีปนาวุธอิหร่านโจมตีนิคมเปตาห์ติกวา (Petah Tikva) ตอนกลางของอิสราเอล ใกล้กับเทลอาวีฟ
    Like
    1
    0 Comments 0 Shares 207 Views 0 Reviews
  • อาคารสูงระฟ้าในเขตเปตาห์ติกวา (Petah Tikva) ตอนกลางของอิสราเอล ได้รับความเสียหายอย่างหนัก หลังได้รับผลกระทบจากขีปนาวุธพิสัยไกลของอิหร่าน
    อาคารสูงระฟ้าในเขตเปตาห์ติกวา (Petah Tikva) ตอนกลางของอิสราเอล ได้รับความเสียหายอย่างหนัก หลังได้รับผลกระทบจากขีปนาวุธพิสัยไกลของอิหร่าน
    0 Comments 0 Shares 162 Views 0 Reviews
  • Inversion Semiconductor เตรียมปฏิวัติการผลิตชิปด้วยเครื่องเร่งอนุภาคขนาดเล็ก
    Inversion Semiconductor ซึ่งเป็น สตาร์ทอัพที่ได้รับการสนับสนุนจาก Y Combinator กำลังพัฒนา เครื่องเร่งอนุภาคขนาดเล็กแบบตั้งโต๊ะ ที่สามารถ เพิ่มความเร็วในการผลิตชิปได้ถึง 15 เท่า โดยใช้ เทคนิค Laser Wakefield Acceleration (LWFA)

    วิธีการทำงานของเครื่องเร่งอนุภาค
    เครื่องเร่งอนุภาคของ Inversion Semiconductor มีขนาดเล็กกว่าเครื่องเร่งอนุภาคทั่วไปถึง 1,000 เท่า แต่สามารถ ให้กำลังสูงสุดถึง 10 kW ซึ่งมากกว่าเทคโนโลยีของ ASML ถึง 10 เท่า

    ข้อมูลจากข่าว
    - Inversion Semiconductor พัฒนาเครื่องเร่งอนุภาคขนาดเล็กเพื่อใช้ในกระบวนการผลิตชิป
    - เทคโนโลยีนี้สามารถเพิ่มความเร็วในการผลิตชิปได้ถึง 15 เท่า
    - ใช้ Laser Wakefield Acceleration (LWFA) ซึ่งช่วยให้สามารถเร่งอิเล็กตรอนได้อย่างมีประสิทธิภาพ
    - เครื่องเร่งอนุภาคนี้มีขนาดเล็กกว่าเครื่องเร่งอนุภาคทั่วไปถึง 1,000 เท่า
    - สามารถให้กำลังสูงสุดถึง 10 kW ซึ่งมากกว่าเทคโนโลยีของ ASML ถึง 10 เท่า

    ความท้าทายในการพัฒนาเทคโนโลยี
    แม้ว่าแนวคิดนี้จะมีศักยภาพสูง แต่ต้องใช้เลเซอร์ระดับเพตะวัตต์ ซึ่งมีต้นทุนสูงและต้องการระบบระบายความร้อนที่มีประสิทธิภาพ

    คำเตือนที่ควรพิจารณา
    - ต้องใช้เลเซอร์ระดับเพตะวัตต์ ซึ่งมีต้นทุนสูงและใช้พลังงานมาก
    - Inversion Semiconductor ไม่มีประสบการณ์ในการผลิตเครื่องมือสำหรับโรงงานที่ทำงานตลอด 24 ชั่วโมง
    - ต้องพัฒนาอุปกรณ์ใหม่ทั้งหมด หากไม่สามารถร่วมมือกับ ASML หรือผู้ผลิตเครื่องมืออื่น ๆ
    - การใช้แหล่งกำเนิดแสงที่มีความยาวคลื่นต่ำกว่า 10nm อาจมีข้อจำกัดด้านการดูดซับแสงของวัสดุ

    หาก Inversion Semiconductor สามารถพัฒนาเทคโนโลยีนี้ได้สำเร็จ อาจช่วยให้ การผลิตชิปมีความเร็วสูงขึ้นและลดต้นทุน อย่างไรก็ตาม ต้องติดตามว่าบริษัทจะสามารถแก้ไขข้อจำกัดทางเทคนิคได้หรือไม่


    https://www.tomshardware.com/tech-industry/semiconductors/plans-to-shrink-particle-accelerators-by-1000x-could-speed-chipmaking-by-15x-inversion-semiconductor-proposes-tabletop-particle-accelerators-with-petawatt-lasers
    ⚡ Inversion Semiconductor เตรียมปฏิวัติการผลิตชิปด้วยเครื่องเร่งอนุภาคขนาดเล็ก Inversion Semiconductor ซึ่งเป็น สตาร์ทอัพที่ได้รับการสนับสนุนจาก Y Combinator กำลังพัฒนา เครื่องเร่งอนุภาคขนาดเล็กแบบตั้งโต๊ะ ที่สามารถ เพิ่มความเร็วในการผลิตชิปได้ถึง 15 เท่า โดยใช้ เทคนิค Laser Wakefield Acceleration (LWFA) 🔍 วิธีการทำงานของเครื่องเร่งอนุภาค เครื่องเร่งอนุภาคของ Inversion Semiconductor มีขนาดเล็กกว่าเครื่องเร่งอนุภาคทั่วไปถึง 1,000 เท่า แต่สามารถ ให้กำลังสูงสุดถึง 10 kW ซึ่งมากกว่าเทคโนโลยีของ ASML ถึง 10 เท่า ✅ ข้อมูลจากข่าว - Inversion Semiconductor พัฒนาเครื่องเร่งอนุภาคขนาดเล็กเพื่อใช้ในกระบวนการผลิตชิป - เทคโนโลยีนี้สามารถเพิ่มความเร็วในการผลิตชิปได้ถึง 15 เท่า - ใช้ Laser Wakefield Acceleration (LWFA) ซึ่งช่วยให้สามารถเร่งอิเล็กตรอนได้อย่างมีประสิทธิภาพ - เครื่องเร่งอนุภาคนี้มีขนาดเล็กกว่าเครื่องเร่งอนุภาคทั่วไปถึง 1,000 เท่า - สามารถให้กำลังสูงสุดถึง 10 kW ซึ่งมากกว่าเทคโนโลยีของ ASML ถึง 10 เท่า 🔥 ความท้าทายในการพัฒนาเทคโนโลยี แม้ว่าแนวคิดนี้จะมีศักยภาพสูง แต่ต้องใช้เลเซอร์ระดับเพตะวัตต์ ซึ่งมีต้นทุนสูงและต้องการระบบระบายความร้อนที่มีประสิทธิภาพ ‼️ คำเตือนที่ควรพิจารณา - ต้องใช้เลเซอร์ระดับเพตะวัตต์ ซึ่งมีต้นทุนสูงและใช้พลังงานมาก - Inversion Semiconductor ไม่มีประสบการณ์ในการผลิตเครื่องมือสำหรับโรงงานที่ทำงานตลอด 24 ชั่วโมง - ต้องพัฒนาอุปกรณ์ใหม่ทั้งหมด หากไม่สามารถร่วมมือกับ ASML หรือผู้ผลิตเครื่องมืออื่น ๆ - การใช้แหล่งกำเนิดแสงที่มีความยาวคลื่นต่ำกว่า 10nm อาจมีข้อจำกัดด้านการดูดซับแสงของวัสดุ หาก Inversion Semiconductor สามารถพัฒนาเทคโนโลยีนี้ได้สำเร็จ อาจช่วยให้ การผลิตชิปมีความเร็วสูงขึ้นและลดต้นทุน อย่างไรก็ตาม ต้องติดตามว่าบริษัทจะสามารถแก้ไขข้อจำกัดทางเทคนิคได้หรือไม่ https://www.tomshardware.com/tech-industry/semiconductors/plans-to-shrink-particle-accelerators-by-1000x-could-speed-chipmaking-by-15x-inversion-semiconductor-proposes-tabletop-particle-accelerators-with-petawatt-lasers
    0 Comments 0 Shares 325 Views 0 Reviews
  • Dell เปิดตัวแล็ปท็อป AI รุ่นใหม่ที่มาพร้อม NPU ระดับองค์กร

    Dell เปิดตัว Dell Pro Max Plus ซึ่งเป็นแล็ปท็อป AI รุ่นใหม่ที่มาพร้อมกับ NPU ระดับองค์กร โดยใช้ Qualcomm AI 100 PC Inference Card ที่มี 32 AI-cores และหน่วยความจำ 64GB ซึ่งช่วยให้สามารถ ประมวลผลงาน AI ที่มีความเข้มข้นสูงได้แม้ในขณะเดินทาง

    รายละเอียดสำคัญเกี่ยวกับ Dell Pro Max Plus
    Dell Pro Max Plus เป็นแล็ปท็อปเครื่องแรกที่มี NPU ระดับองค์กร
    - ใช้ Qualcomm AI 100 PC Inference Card ที่มี 32 AI-cores และ 64GB RAM

    สามารถรองรับงาน AI ที่ต้องการพลังประมวลผลสูง เช่น การฝึกโมเดลขนาดใหญ่
    - เหมาะสำหรับ นักวิทยาศาสตร์ข้อมูลและวิศวกร AI

    มาพร้อมกับ Nvidia GB300 ที่ให้ประสิทธิภาพสูงสุดถึง 20 petaflops
    - สามารถ รันและฝึกโมเดลที่มีพารามิเตอร์ระดับล้านล้านได้

    Dell เน้นว่าแล็ปท็อป AI กำลังกลายเป็นมาตรฐานใหม่ของอุตสาหกรรม
    - CEO Michael Dell ระบุว่า Windows 10 กำลังจะหมดอายุ และ AI PC จะเป็นอนาคตของการทำงาน

    มีหน่วยความจำสูงสุดถึง 800GB เพื่อรองรับงาน AI ที่ต้องใช้ข้อมูลจำนวนมาก
    - ทำให้ สามารถจัดการข้อมูลขนาดใหญ่ได้อย่างมีประสิทธิภาพ

    https://www.techradar.com/pro/dells-super-powered-new-mobile-workstation-has-one-crucial-feature-which-sets-it-apart-from-all-the-competition
    Dell เปิดตัวแล็ปท็อป AI รุ่นใหม่ที่มาพร้อม NPU ระดับองค์กร Dell เปิดตัว Dell Pro Max Plus ซึ่งเป็นแล็ปท็อป AI รุ่นใหม่ที่มาพร้อมกับ NPU ระดับองค์กร โดยใช้ Qualcomm AI 100 PC Inference Card ที่มี 32 AI-cores และหน่วยความจำ 64GB ซึ่งช่วยให้สามารถ ประมวลผลงาน AI ที่มีความเข้มข้นสูงได้แม้ในขณะเดินทาง 🔍 รายละเอียดสำคัญเกี่ยวกับ Dell Pro Max Plus ✅ Dell Pro Max Plus เป็นแล็ปท็อปเครื่องแรกที่มี NPU ระดับองค์กร - ใช้ Qualcomm AI 100 PC Inference Card ที่มี 32 AI-cores และ 64GB RAM ✅ สามารถรองรับงาน AI ที่ต้องการพลังประมวลผลสูง เช่น การฝึกโมเดลขนาดใหญ่ - เหมาะสำหรับ นักวิทยาศาสตร์ข้อมูลและวิศวกร AI ✅ มาพร้อมกับ Nvidia GB300 ที่ให้ประสิทธิภาพสูงสุดถึง 20 petaflops - สามารถ รันและฝึกโมเดลที่มีพารามิเตอร์ระดับล้านล้านได้ ✅ Dell เน้นว่าแล็ปท็อป AI กำลังกลายเป็นมาตรฐานใหม่ของอุตสาหกรรม - CEO Michael Dell ระบุว่า Windows 10 กำลังจะหมดอายุ และ AI PC จะเป็นอนาคตของการทำงาน ✅ มีหน่วยความจำสูงสุดถึง 800GB เพื่อรองรับงาน AI ที่ต้องใช้ข้อมูลจำนวนมาก - ทำให้ สามารถจัดการข้อมูลขนาดใหญ่ได้อย่างมีประสิทธิภาพ https://www.techradar.com/pro/dells-super-powered-new-mobile-workstation-has-one-crucial-feature-which-sets-it-apart-from-all-the-competition
    0 Comments 0 Shares 351 Views 0 Reviews
  • นักวิทยาศาสตร์จากมหาวิทยาลัยแอริโซนาเผยเทคโนโลยีทรานซิสเตอร์ความเร็วระดับเพตะเฮิรตซ์

    ทีมนักวิจัยจาก มหาวิทยาลัยแอริโซนา ประกาศความก้าวหน้าครั้งสำคัญในการพัฒนา ทรานซิสเตอร์ที่สามารถทำงานด้วยความเร็วระดับเพตะเฮิรตซ์ ซึ่งเร็วกว่าชิปคอมพิวเตอร์ในปัจจุบันหลายล้านเท่า โดยใช้ พัลส์แสงอัลตราฟาสต์ควบคุมการเคลื่อนที่ของอิเล็กตรอนในกราฟีน

    รายละเอียดสำคัญเกี่ยวกับทรานซิสเตอร์เพตะเฮิรตซ์
    ทรานซิสเตอร์ใหม่นี้ใช้พัลส์เลเซอร์ที่มีความเร็ว 638 อัตโตวินาที
    - อัตโตวินาที เท่ากับหนึ่งในพันล้านล้านวินาที

    นักวิจัยใช้กราฟีนที่มีโครงสร้างบางเพียงหนึ่งอะตอม
    - ทำให้ สามารถควบคุมการเคลื่อนที่ของอิเล็กตรอนได้อย่างแม่นยำ

    เทคโนโลยีนี้อาศัยปรากฏการณ์ควอนตัมทันเนลลิง
    - อิเล็กตรอนสามารถ ข้ามสิ่งกีดขวางได้แทบจะทันทีเมื่อถูกยิงด้วยพัลส์เลเซอร์

    ทรานซิสเตอร์นี้สามารถทำงานได้ในสภาพแวดล้อมทั่วไป ไม่ต้องใช้ห้องทดลองพิเศษ
    - เปิดโอกาสให้ สามารถนำไปใช้ในอุตสาหกรรมได้ง่ายขึ้น

    นักวิจัยกำลังทำงานร่วมกับ Tech Launch Arizona เพื่อจดสิทธิบัตรและพัฒนาเชิงพาณิชย์
    - เป้าหมายคือ ทำให้เทคโนโลยีนี้สามารถใช้กับเลเซอร์ที่มีจำหน่ายทั่วไป

    https://www.techspot.com/news/108050-university-arizona-scientists-unveil-breakthrough-petahertz-speed-transistor.html
    นักวิทยาศาสตร์จากมหาวิทยาลัยแอริโซนาเผยเทคโนโลยีทรานซิสเตอร์ความเร็วระดับเพตะเฮิรตซ์ ทีมนักวิจัยจาก มหาวิทยาลัยแอริโซนา ประกาศความก้าวหน้าครั้งสำคัญในการพัฒนา ทรานซิสเตอร์ที่สามารถทำงานด้วยความเร็วระดับเพตะเฮิรตซ์ ซึ่งเร็วกว่าชิปคอมพิวเตอร์ในปัจจุบันหลายล้านเท่า โดยใช้ พัลส์แสงอัลตราฟาสต์ควบคุมการเคลื่อนที่ของอิเล็กตรอนในกราฟีน 🔍 รายละเอียดสำคัญเกี่ยวกับทรานซิสเตอร์เพตะเฮิรตซ์ ✅ ทรานซิสเตอร์ใหม่นี้ใช้พัลส์เลเซอร์ที่มีความเร็ว 638 อัตโตวินาที - อัตโตวินาที เท่ากับหนึ่งในพันล้านล้านวินาที ✅ นักวิจัยใช้กราฟีนที่มีโครงสร้างบางเพียงหนึ่งอะตอม - ทำให้ สามารถควบคุมการเคลื่อนที่ของอิเล็กตรอนได้อย่างแม่นยำ ✅ เทคโนโลยีนี้อาศัยปรากฏการณ์ควอนตัมทันเนลลิง - อิเล็กตรอนสามารถ ข้ามสิ่งกีดขวางได้แทบจะทันทีเมื่อถูกยิงด้วยพัลส์เลเซอร์ ✅ ทรานซิสเตอร์นี้สามารถทำงานได้ในสภาพแวดล้อมทั่วไป ไม่ต้องใช้ห้องทดลองพิเศษ - เปิดโอกาสให้ สามารถนำไปใช้ในอุตสาหกรรมได้ง่ายขึ้น ✅ นักวิจัยกำลังทำงานร่วมกับ Tech Launch Arizona เพื่อจดสิทธิบัตรและพัฒนาเชิงพาณิชย์ - เป้าหมายคือ ทำให้เทคโนโลยีนี้สามารถใช้กับเลเซอร์ที่มีจำหน่ายทั่วไป https://www.techspot.com/news/108050-university-arizona-scientists-unveil-breakthrough-petahertz-speed-transistor.html
    WWW.TECHSPOT.COM
    University of Arizona scientists unveil breakthrough petahertz-speed transistor
    A team of scientists has unveiled a breakthrough that could one day propel computers to operate at speeds millions of times faster than today's most advanced processors.
    0 Comments 0 Shares 194 Views 0 Reviews
  • Phison เปิดตัว SSD X200Z ที่ทำลายสถิติด้านความเร็วและความทนทาน

    Phison เปิดตัว SSD รุ่นใหม่ X200Z ซึ่งเป็น SSD ระดับองค์กรที่มีความเร็วและความทนทานสูงสุดในตลาด โดยสามารถ เขียนข้อมูลเต็มไดรฟ์ทุก 24 นาที และมีอายุการใช้งานที่ยาวนานกว่ารุ่นอื่น ๆ

    รายละเอียดสำคัญเกี่ยวกับ Phison X200Z
    ใช้เทคโนโลยี SLC Flash และอินเทอร์เฟซ PCIe Gen5 x4
    - ช่วยให้ มีความเร็วในการอ่านสูงสุดถึง 15,026 MB/s และเขียนมากกว่า 10,200 MB/s

    มีความสามารถในการเขียนข้อมูล 60 DWPD (Drive Writes Per Day)
    - เทียบเท่ากับ การเขียนข้อมูลเต็มไดรฟ์ทุก 24 นาที

    ออกแบบมาเพื่อรองรับงานที่ต้องการความทนทานสูง เช่น ศูนย์ข้อมูลและแพลตฟอร์มวิดีโอ
    - มีอายุการใช้งาน สูงถึง 350 Petabytes

    รองรับฟอร์มแฟกเตอร์ U.2 และ E3.S พร้อมการเชื่อมต่อแบบ Dual-Port
    - ช่วยให้ สามารถใช้งานในระบบที่ต้องการความเร็วและความเสถียรสูง

    ได้รับการทดสอบโดย TweakTown และได้รับคำชมว่าเป็น SSD ที่ทรงพลังที่สุดเท่าที่เคยมีมา
    - มีประสิทธิภาพ สูงสุดในงานที่ต้องใช้การอ่านและเขียนแบบสุ่ม

    https://www.techradar.com/pro/this-extraordinary-ssd-can-do-something-no-other-ssd-can-do-a-full-groundhog-day-write-every-24-minutes
    Phison เปิดตัว SSD X200Z ที่ทำลายสถิติด้านความเร็วและความทนทาน Phison เปิดตัว SSD รุ่นใหม่ X200Z ซึ่งเป็น SSD ระดับองค์กรที่มีความเร็วและความทนทานสูงสุดในตลาด โดยสามารถ เขียนข้อมูลเต็มไดรฟ์ทุก 24 นาที และมีอายุการใช้งานที่ยาวนานกว่ารุ่นอื่น ๆ 🔍 รายละเอียดสำคัญเกี่ยวกับ Phison X200Z ✅ ใช้เทคโนโลยี SLC Flash และอินเทอร์เฟซ PCIe Gen5 x4 - ช่วยให้ มีความเร็วในการอ่านสูงสุดถึง 15,026 MB/s และเขียนมากกว่า 10,200 MB/s ✅ มีความสามารถในการเขียนข้อมูล 60 DWPD (Drive Writes Per Day) - เทียบเท่ากับ การเขียนข้อมูลเต็มไดรฟ์ทุก 24 นาที ✅ ออกแบบมาเพื่อรองรับงานที่ต้องการความทนทานสูง เช่น ศูนย์ข้อมูลและแพลตฟอร์มวิดีโอ - มีอายุการใช้งาน สูงถึง 350 Petabytes ✅ รองรับฟอร์มแฟกเตอร์ U.2 และ E3.S พร้อมการเชื่อมต่อแบบ Dual-Port - ช่วยให้ สามารถใช้งานในระบบที่ต้องการความเร็วและความเสถียรสูง ✅ ได้รับการทดสอบโดย TweakTown และได้รับคำชมว่าเป็น SSD ที่ทรงพลังที่สุดเท่าที่เคยมีมา - มีประสิทธิภาพ สูงสุดในงานที่ต้องใช้การอ่านและเขียนแบบสุ่ม https://www.techradar.com/pro/this-extraordinary-ssd-can-do-something-no-other-ssd-can-do-a-full-groundhog-day-write-every-24-minutes
    WWW.TECHRADAR.COM
    Built for endurance, Phison X200Z hits speeds and lifespans never seen before
    Phison Pascari X200Z SSD declared "incredible" in first review
    0 Comments 0 Shares 256 Views 0 Reviews
  • ZEUS: เลเซอร์ที่ทรงพลังที่สุดในสหรัฐฯ ทำลายสถิติ 2 เพตะวัตต์

    มหาวิทยาลัยมิชิแกน เปิดตัว ZEUS ซึ่งเป็นเลเซอร์ที่ทรงพลังที่สุดในสหรัฐฯ โดยสามารถ สร้างพลังงานสูงถึง 2 เพตะวัตต์ ซึ่งมากกว่ากำลังไฟฟ้าทั้งหมดของโลกถึง 100 เท่า แม้ว่าพลังงานนี้จะคงอยู่เพียง 25 ควินทริลเลียนวินาที แต่ถือเป็นก้าวสำคัญของการวิจัยทางวิทยาศาสตร์

    รายละเอียดสำคัญเกี่ยวกับ ZEUS
    ZEUS เป็นเลเซอร์ที่ทรงพลังที่สุดในสหรัฐฯ ด้วยกำลัง 2 เพตะวัตต์
    - มากกว่ากำลังไฟฟ้าทั้งหมดของโลกถึง 100 เท่า

    ใช้เทคโนโลยี Double Chirped Pulse Amplifier และ Acousto-Optic Filters
    - ช่วยให้ สามารถสร้างพัลส์เลเซอร์ที่สั้นและทรงพลังได้

    มีพื้นที่ทดลอง 3 ส่วน รองรับการทดลองด้านฟิสิกส์พลาสมาและการเร่งอนุภาค
    - สามารถ เร่งอิเล็กตรอนได้ถึง 5 GeV

    ได้รับการสนับสนุนจาก National Science Foundation และเปิดให้ทีมนักวิจัยทั่วโลกใช้งาน
    - ผ่านกระบวนการคัดเลือกโครงการทดลองอย่างเข้มงวด

    มีแผนพัฒนาไปสู่ระดับ 3 เพตะวัตต์ภายในปีนี้
    - จะช่วยให้ สามารถศึกษาปรากฏการณ์ทางฟิสิกส์ที่ซับซ้อนมากขึ้น

    https://www.techspot.com/news/107997-america-most-powerful-laser-reaches-2-petawatts-raising.html
    ZEUS: เลเซอร์ที่ทรงพลังที่สุดในสหรัฐฯ ทำลายสถิติ 2 เพตะวัตต์ มหาวิทยาลัยมิชิแกน เปิดตัว ZEUS ซึ่งเป็นเลเซอร์ที่ทรงพลังที่สุดในสหรัฐฯ โดยสามารถ สร้างพลังงานสูงถึง 2 เพตะวัตต์ ซึ่งมากกว่ากำลังไฟฟ้าทั้งหมดของโลกถึง 100 เท่า แม้ว่าพลังงานนี้จะคงอยู่เพียง 25 ควินทริลเลียนวินาที แต่ถือเป็นก้าวสำคัญของการวิจัยทางวิทยาศาสตร์ 🔍 รายละเอียดสำคัญเกี่ยวกับ ZEUS ✅ ZEUS เป็นเลเซอร์ที่ทรงพลังที่สุดในสหรัฐฯ ด้วยกำลัง 2 เพตะวัตต์ - มากกว่ากำลังไฟฟ้าทั้งหมดของโลกถึง 100 เท่า ✅ ใช้เทคโนโลยี Double Chirped Pulse Amplifier และ Acousto-Optic Filters - ช่วยให้ สามารถสร้างพัลส์เลเซอร์ที่สั้นและทรงพลังได้ ✅ มีพื้นที่ทดลอง 3 ส่วน รองรับการทดลองด้านฟิสิกส์พลาสมาและการเร่งอนุภาค - สามารถ เร่งอิเล็กตรอนได้ถึง 5 GeV ✅ ได้รับการสนับสนุนจาก National Science Foundation และเปิดให้ทีมนักวิจัยทั่วโลกใช้งาน - ผ่านกระบวนการคัดเลือกโครงการทดลองอย่างเข้มงวด ✅ มีแผนพัฒนาไปสู่ระดับ 3 เพตะวัตต์ภายในปีนี้ - จะช่วยให้ สามารถศึกษาปรากฏการณ์ทางฟิสิกส์ที่ซับซ้อนมากขึ้น https://www.techspot.com/news/107997-america-most-powerful-laser-reaches-2-petawatts-raising.html
    WWW.TECHSPOT.COM
    The most powerful laser in the US reaches 2 petawatts, setting new records
    The ZEUS laser facility at the University of Michigan has vaulted the United States to the forefront of high-intensity laser science. In its first official experiment, ZEUS...
    0 Comments 0 Shares 229 Views 0 Reviews
  • ฉลองพระองค์ไทยอมรินทร์ ผ้าไหมพื้นเรียบปักลูกปัด
    พระภูษาผ้าไหมยกดอก ลายกลีบบงกช

    ภูฏานเป็นเพียงประเทศเดียวในโลกที่ยอมรับนับถือพุทธศาสนามหายานแบบตันตระ เป็นศาสนาประจำชาติอย่างเป็นทางการ นิกายตันตรยานหรือวัชรยานถือกำเนิดขึ้นในช่วงสุดท้ายของพัฒนาการอันยาวนานของพุทธศาสนา พุทธศาสนาตันตรายานสูญหายไปจากอินเดียซึ่งเป็นดินแดนต้นกำเนิดในช่วงที่พวกมุสลิมยกมารุกรานในต้นศตวรรษที่ ๑๓ และไปรุ่งเรืองอยู่ในทิเบต ลาดัคห์ สิกขิม มองโกเลีย ภาคเหนือของเนปาล ภูฏาน จีน และญี่ปุ่นแทน

    สิ่งที่ชาวภูฏานถือเป็นสัญลักษณ์แห่งความมงคล ๘ ประการ ของชีวิตตามความเชื่อและความศรัทธา ซึ่งสิ่งเหล่านี้มักจะปรากฎเป็นรูปเคารพตามโบราณสถาน ตลอดจนในบ้านเรือน ของผู้นับถือพุทธศาสนามหายานแบบตันตระ หนึ่งสิ่งนั้นคือ ปัทมะ

    ปัทมะ หรือ ดอกบัว (Lotus หรือ meto pema) ดอกบัวมีความหมายเหมือนสังข์ขาว ดอกบัวถือเป็นตัวแทนพระพุทธเจ้า ดังพุทธวัจนะที่ว่า “ดอกบัวเกิดแต่โคลนตมในนน้ำ แต่ไม่เปียกน้ำ พระพุทธเจ้าก็เช่นกัน เกิดในโลก แต่ไม่เปรอะเปื้อนด้วยมลทินของโลกฉันนั้น”
    -------
    HER ROYAL ATTIRE IN THAI AMARIN
    EMBROIDERED BEADS LUMPHUN BROCADE SILK
    PETALS OF LOTUS MOTIF

    Bhutan is the only country in the world to accept Tantric Mahayana Buddhism as its official state religion. Tantric or Vajrayana Buddhism emerged at the end of a long development of Buddhism. Tantric Buddhism disappeared from its homeland of India during the Muslim invasions in the early 13th century and flourished instead in Tibet, Ladakh, Sikkim, Mongolia, northern Nepal, Bhutan, China and Japan.

    The Bhutanese believe in the Eight Auspicious Symbols of Life, which are often depicted in ancient monuments and in the homes of Tantric Mahayana Buddhists. One of these is the Padma.

    The Padma or Lotus (meto pema) is like a white conch shell. The lotus is considered to represent the Buddha, as the Buddha said: “A lotus flower is born from the mud in the water, but it is not wet with water. Similarly, the Buddha was born in the world, but it was not stained by the world’s impurities.”
    _________________________________
    #พระราชินีสุทิดา #苏提达王后 #QueenSuthida
    Cr. FB : สมเด็จพระนางเจ้าฯ พระบรมราชินี : We Love Her Majesty Queen Suthida Fanpage
    ฉลองพระองค์ไทยอมรินทร์ ผ้าไหมพื้นเรียบปักลูกปัด พระภูษาผ้าไหมยกดอก ลายกลีบบงกช ภูฏานเป็นเพียงประเทศเดียวในโลกที่ยอมรับนับถือพุทธศาสนามหายานแบบตันตระ เป็นศาสนาประจำชาติอย่างเป็นทางการ นิกายตันตรยานหรือวัชรยานถือกำเนิดขึ้นในช่วงสุดท้ายของพัฒนาการอันยาวนานของพุทธศาสนา พุทธศาสนาตันตรายานสูญหายไปจากอินเดียซึ่งเป็นดินแดนต้นกำเนิดในช่วงที่พวกมุสลิมยกมารุกรานในต้นศตวรรษที่ ๑๓ และไปรุ่งเรืองอยู่ในทิเบต ลาดัคห์ สิกขิม มองโกเลีย ภาคเหนือของเนปาล ภูฏาน จีน และญี่ปุ่นแทน สิ่งที่ชาวภูฏานถือเป็นสัญลักษณ์แห่งความมงคล ๘ ประการ ของชีวิตตามความเชื่อและความศรัทธา ซึ่งสิ่งเหล่านี้มักจะปรากฎเป็นรูปเคารพตามโบราณสถาน ตลอดจนในบ้านเรือน ของผู้นับถือพุทธศาสนามหายานแบบตันตระ หนึ่งสิ่งนั้นคือ ปัทมะ ปัทมะ หรือ ดอกบัว (Lotus หรือ meto pema) ดอกบัวมีความหมายเหมือนสังข์ขาว ดอกบัวถือเป็นตัวแทนพระพุทธเจ้า ดังพุทธวัจนะที่ว่า “ดอกบัวเกิดแต่โคลนตมในนน้ำ แต่ไม่เปียกน้ำ พระพุทธเจ้าก็เช่นกัน เกิดในโลก แต่ไม่เปรอะเปื้อนด้วยมลทินของโลกฉันนั้น” ------- HER ROYAL ATTIRE IN THAI AMARIN EMBROIDERED BEADS LUMPHUN BROCADE SILK PETALS OF LOTUS MOTIF Bhutan is the only country in the world to accept Tantric Mahayana Buddhism as its official state religion. Tantric or Vajrayana Buddhism emerged at the end of a long development of Buddhism. Tantric Buddhism disappeared from its homeland of India during the Muslim invasions in the early 13th century and flourished instead in Tibet, Ladakh, Sikkim, Mongolia, northern Nepal, Bhutan, China and Japan. The Bhutanese believe in the Eight Auspicious Symbols of Life, which are often depicted in ancient monuments and in the homes of Tantric Mahayana Buddhists. One of these is the Padma. The Padma or Lotus (meto pema) is like a white conch shell. The lotus is considered to represent the Buddha, as the Buddha said: “A lotus flower is born from the mud in the water, but it is not wet with water. Similarly, the Buddha was born in the world, but it was not stained by the world’s impurities.” _________________________________ #พระราชินีสุทิดา #苏提达王后 #QueenSuthida Cr. FB : สมเด็จพระนางเจ้าฯ พระบรมราชินี : We Love Her Majesty Queen Suthida Fanpage
    Love
    1
    0 Comments 0 Shares 984 Views 0 Reviews
  • จีนเปิดตัวเครือข่ายดาวเทียมคอมพิวเตอร์ในอวกาศ

    จีน ประสบความสำเร็จในการปล่อยดาวเทียม 12 ดวงแรกของโครงการ "Satellite Computing" ซึ่งเป็นเครือข่ายดาวเทียมที่มีความสามารถในการประมวลผล AI ในวงโคจรของโลก โครงการนี้มีเป้าหมาย เพื่อสร้างโครงสร้างพื้นฐานด้านคอมพิวเตอร์ในอวกาศ และสามารถรองรับการประมวลผลแบบเรียลไทม์

    รายละเอียดสำคัญเกี่ยวกับเครือข่ายดาวเทียมคอมพิวเตอร์ของจีน
    ดาวเทียม 12 ดวงแรกถูกปล่อยขึ้นสู่อวกาศด้วยจรวด Long March-2D
    - เป็น ก้าวแรกของเครือข่ายที่วางแผนจะมีทั้งหมด 2,800 ดวง

    แต่ละดาวเทียมมีความสามารถในการประมวลผลสูงถึง 5 peta-operations per second (POPS)
    - เป้าหมายระยะยาว คือการสร้างเครือข่ายที่สามารถประมวลผลได้ถึง 1,000 POPS

    ดาวเทียมใช้ระบบสื่อสารด้วยเลเซอร์ที่มีความเร็ว 100 Gbps
    - ช่วยให้ สามารถส่งข้อมูลระหว่างดาวเทียมได้อย่างรวดเร็ว

    มีเซ็นเซอร์ X-ray ที่พัฒนาโดย Guangxi University เพื่อศึกษาปรากฏการณ์ในอวกาศ
    - เช่น การระเบิดของรังสีแกมมา

    โครงการนี้ได้รับการสนับสนุนจาก ADA Space และ Zhejiang Lab ซึ่งเป็นความร่วมมือระหว่างรัฐบาลจีนและ Alibaba Group
    - รวมถึง SoftStone และ Kepu Cloud ที่พัฒนาโครงสร้างพื้นฐานภาคพื้นดิน

    https://www.techspot.com/news/107969-china-launches-first-12-satellites-massive-computing-constellation.html
    จีนเปิดตัวเครือข่ายดาวเทียมคอมพิวเตอร์ในอวกาศ จีน ประสบความสำเร็จในการปล่อยดาวเทียม 12 ดวงแรกของโครงการ "Satellite Computing" ซึ่งเป็นเครือข่ายดาวเทียมที่มีความสามารถในการประมวลผล AI ในวงโคจรของโลก โครงการนี้มีเป้าหมาย เพื่อสร้างโครงสร้างพื้นฐานด้านคอมพิวเตอร์ในอวกาศ และสามารถรองรับการประมวลผลแบบเรียลไทม์ 🔍 รายละเอียดสำคัญเกี่ยวกับเครือข่ายดาวเทียมคอมพิวเตอร์ของจีน ✅ ดาวเทียม 12 ดวงแรกถูกปล่อยขึ้นสู่อวกาศด้วยจรวด Long March-2D - เป็น ก้าวแรกของเครือข่ายที่วางแผนจะมีทั้งหมด 2,800 ดวง ✅ แต่ละดาวเทียมมีความสามารถในการประมวลผลสูงถึง 5 peta-operations per second (POPS) - เป้าหมายระยะยาว คือการสร้างเครือข่ายที่สามารถประมวลผลได้ถึง 1,000 POPS ✅ ดาวเทียมใช้ระบบสื่อสารด้วยเลเซอร์ที่มีความเร็ว 100 Gbps - ช่วยให้ สามารถส่งข้อมูลระหว่างดาวเทียมได้อย่างรวดเร็ว ✅ มีเซ็นเซอร์ X-ray ที่พัฒนาโดย Guangxi University เพื่อศึกษาปรากฏการณ์ในอวกาศ - เช่น การระเบิดของรังสีแกมมา ✅ โครงการนี้ได้รับการสนับสนุนจาก ADA Space และ Zhejiang Lab ซึ่งเป็นความร่วมมือระหว่างรัฐบาลจีนและ Alibaba Group - รวมถึง SoftStone และ Kepu Cloud ที่พัฒนาโครงสร้างพื้นฐานภาคพื้นดิน https://www.techspot.com/news/107969-china-launches-first-12-satellites-massive-computing-constellation.html
    WWW.TECHSPOT.COM
    China launches the first 12 satellites of a massive computing constellation in space
    While Eric Schmidt and other Western space entrepreneurs are still exploring the idea of orbital data centers, Chinese companies have already begun moving forward. Last week, China...
    0 Comments 0 Shares 437 Views 0 Reviews
  • DeepSeek บริษัทที่สร้างชื่อเสียงในวงการ AI ด้วยโมเดล R1 กำลังเตรียมเปิดตัวโมเดลใหม่ที่ชื่อว่า DeepSeek R2 ซึ่งมีประสิทธิภาพการประมวลผลสูงถึง 512 PetaFLOPS โดยใช้ชิป Huawei Ascend 910B และระบบการฝึกอบรมแบบกระจายที่พัฒนาโดย DeepSeek เอง โมเดลนี้มีการปรับปรุงการใช้งานชิปให้มีประสิทธิภาพถึง 82% และลดค่าใช้จ่ายในการฝึกอบรมต่อหน่วยลงถึง 97.3%

    DeepSeek R2 ยังมีการสนับสนุนจากพันธมิตรหลายราย เช่น Tuowei Information ที่จัดการคำสั่งซื้อฮาร์ดแวร์กว่า 50% และ Sugon ที่ให้บริการตู้เซิร์ฟเวอร์ระบายความร้อนด้วยของเหลวที่รองรับพลังงานสูงถึง 40 kW ต่อหน่วย นอกจากนี้ Huawei ยังเตรียมเปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นทางเลือกในประเทศสำหรับ NVIDIA GB200 NVL72 โดยมีประสิทธิภาพสูงกว่าในด้านการประมวลผลรวมและความจุ HBM

    ประสิทธิภาพการประมวลผล
    - DeepSeek R2 มีประสิทธิภาพการประมวลผลสูงถึง 512 PetaFLOPS
    - ใช้ชิป Huawei Ascend 910B และระบบการฝึกอบรมแบบกระจาย

    การลดค่าใช้จ่าย
    - ลดค่าใช้จ่ายในการฝึกอบรมต่อหน่วยลงถึง 97.3%

    การสนับสนุนจากพันธมิตร
    - Tuowei Information จัดการคำสั่งซื้อฮาร์ดแวร์กว่า 50%
    - Sugon ให้บริการตู้เซิร์ฟเวอร์ระบายความร้อนด้วยของเหลว

    การใช้งานในโครงการสมาร์ทซิตี้
    - DeepSeek R2 สนับสนุนโครงการสมาร์ทซิตี้ใน 15 จังหวัดผ่านแพลตฟอร์ม Yun Sai Zhilian

    การเปิดตัวระบบ CloudMatrix 384
    - Huawei เตรียมเปิดตัวระบบ CloudMatrix 384 ที่มีประสิทธิภาพสูงกว่า NVIDIA GB200 NVL72

    https://www.techpowerup.com/335984/deepseek-r2-leak-reveals-512-petaflops-push-on-domestic-ai-accelerator-infrastructure
    DeepSeek บริษัทที่สร้างชื่อเสียงในวงการ AI ด้วยโมเดล R1 กำลังเตรียมเปิดตัวโมเดลใหม่ที่ชื่อว่า DeepSeek R2 ซึ่งมีประสิทธิภาพการประมวลผลสูงถึง 512 PetaFLOPS โดยใช้ชิป Huawei Ascend 910B และระบบการฝึกอบรมแบบกระจายที่พัฒนาโดย DeepSeek เอง โมเดลนี้มีการปรับปรุงการใช้งานชิปให้มีประสิทธิภาพถึง 82% และลดค่าใช้จ่ายในการฝึกอบรมต่อหน่วยลงถึง 97.3% DeepSeek R2 ยังมีการสนับสนุนจากพันธมิตรหลายราย เช่น Tuowei Information ที่จัดการคำสั่งซื้อฮาร์ดแวร์กว่า 50% และ Sugon ที่ให้บริการตู้เซิร์ฟเวอร์ระบายความร้อนด้วยของเหลวที่รองรับพลังงานสูงถึง 40 kW ต่อหน่วย นอกจากนี้ Huawei ยังเตรียมเปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นทางเลือกในประเทศสำหรับ NVIDIA GB200 NVL72 โดยมีประสิทธิภาพสูงกว่าในด้านการประมวลผลรวมและความจุ HBM ✅ ประสิทธิภาพการประมวลผล - DeepSeek R2 มีประสิทธิภาพการประมวลผลสูงถึง 512 PetaFLOPS - ใช้ชิป Huawei Ascend 910B และระบบการฝึกอบรมแบบกระจาย ✅ การลดค่าใช้จ่าย - ลดค่าใช้จ่ายในการฝึกอบรมต่อหน่วยลงถึง 97.3% ✅ การสนับสนุนจากพันธมิตร - Tuowei Information จัดการคำสั่งซื้อฮาร์ดแวร์กว่า 50% - Sugon ให้บริการตู้เซิร์ฟเวอร์ระบายความร้อนด้วยของเหลว ✅ การใช้งานในโครงการสมาร์ทซิตี้ - DeepSeek R2 สนับสนุนโครงการสมาร์ทซิตี้ใน 15 จังหวัดผ่านแพลตฟอร์ม Yun Sai Zhilian ✅ การเปิดตัวระบบ CloudMatrix 384 - Huawei เตรียมเปิดตัวระบบ CloudMatrix 384 ที่มีประสิทธิภาพสูงกว่า NVIDIA GB200 NVL72 https://www.techpowerup.com/335984/deepseek-r2-leak-reveals-512-petaflops-push-on-domestic-ai-accelerator-infrastructure
    WWW.TECHPOWERUP.COM
    DeepSeek R2 Leak Reveals 512 PetaFLOPS Push on Domestic AI Accelerator Infrastructure
    DeepSeek, a company that took the AI world by storm with its R1 model, is preparing a new and reportedly much improved DeepSeek R2 model release, according to a well-known AI insider @iruletheworldmo on X. Powered by Huawei's Ascend 910B chip clusters, a possible Huawei Atlas 900, and DeepSeek's in-...
    0 Comments 0 Shares 466 Views 0 Reviews
  • เคาะวันเปิด LRT3 มาเลเซีย 30 กันยายน 2025

    ในที่สุดโครงการก่อสร้างรถไฟฟ้ารางเบาสายชาห์อลัม (Shah Alam Line) หรือ LRT3 รัฐสลังงอร์ ประเทศมาเลเซีย เชื่อมระหว่างสถานีบันดาร์ อูตามา (Bandar Utama) กับสถานีโยฮัน เซเตีย (Johan Setia) มีกำหนดเปิดให้บริการในวันที่ 30 ก.ย. 2568 หลังส่งมอบโครงการให้กับบริษัท ปราซารานา (Prasarana) ในวันที่ 31 ก.ค. 2568 ตามที่กระทรวงคมนาคมมาเลเซีย เปิดเผยเมื่อวันพุธ (26 ก.พ.) ระบุว่าความคืบหน้าของโครงการอยู่ที่ 98.16%

    สำหรับโครงการรถไฟฟ้ารางเบาสายที่ 3 (LRT3) ถือเป็นระบบขนส่งมวลชนลำดับที่ 11 ในหุบเขาแคลง มีระยะทาง 37 กิโลเมตร รวมทั้งอุโมงค์ความยาว 2 กิโลเมตร พาดผ่านเขตเปตาลิง จายา (Petaling Jaya) ชาห์อลัม (Shah Alam) และแคลง (Klang) รองรับประชากรมากกว่า 2 ล้านคน มีสถานีรถไฟฟ้า 20 สถานี และอีก 5 สถานีที่ก่อสร้างเพิ่มเติม พร้อมที่จอดรถ 6 สถานี รองรับรถยนต์รวม 2,000 คัน

    ส่วนขบวนรถมี 3 ตู้ รวม 22 ขบวน ผลิตโดยบริษัท CRRC Corporation รองรับผู้โดยสารสูงสุด 18,630 คนต่อชั่วโมงต่อทิศทาง ให้บริการความถี่ทุก 6 นาทีในชั่วโมงเร่งด่วน คาดว่าจะมีผู้โดยสาร 67,000 เที่ยวคนต่อวัน

    จุดเริ่มต้นอยู่ที่สถานีบันดาร์ อูตามา ใกล้กับศูนย์การค้าวันอูตามา (1 Utama) ศูนย์การค้าขนาดใหญ่ติดอันดับ 1 ใน 10 ของโลก ผ่านสถานที่สำคัญอย่างสนามกีฬาชาห์อลัม (Stadium Shah Alam) มัสยิดสุลต่านซาลาฮุดดินอับดุลอาซิซ (Masjid Sultan Salahuddin Abdul Aziz Shah) มหาวิทยาลัยเทคโนโลยียูไอทีเอ็ม (UiTM) โครงการไอ-ซิตี้ (i-City) สวนสนุกไอ-ซิตี้ ธีมพาร์ค (i-City Theme Park) มัสยิดบันดาร์ดิราจาแคลงอูตารา (Masjid Bandar Diraja Klang Utara)

    มีสถานีเชื่อมต่อ ได้แก่ 1. สถานีบันดาร์ อูตามา เชื่อมต่อกับรถไฟฟ้าเอ็มอาร์ที สายกาจัง (MRT Kajang Line) เส้นทางระหว่างสถานีควาซาดามานซารา (Kwasa Damansara) กับสถานีกาจัง (Kajang) ผ่านสถานีบูกิตบินตัง (Bukit Bintang) และสถานีตุนราซัคเอ็กซ์เชนจ์ (Tun Razak Exchange)

    2. สถานีเกลนมารี 2 (Glenmarie 2) เชื่อมต่อกับรถไฟฟ้า LRT สายเกลานา จายา (Kelana Jaya Line) เส้นทางระหว่างสถานีปูตราไฮต์ (Putra Heights) กับสถานีกอมบัค (Gombak) ผ่านสถานีเคแอล เซ็นทรัล (KL Sentral) และสถานีเคแอลซีซี (KLCC) ซึ่งเป็นที่ตั้งของอาคารปิโตรนาส ทวิน ทาวเวอร์

    อนึ่ง ที่สถานีเซคชันตูจู (Seksyen 7) บริเวณเขต 7 ของรัฐสลังงอร์ มีศูนย์การค้าเซ็นทรัล ไอ-ซิตี้ (Central i-City) ซึ่งกลุ่มเซ็นทรัลพัฒนาจากประเทศไทย ลงทุนร่วมกับไอ-เบอร์ฮัด (I-Berhad) เปิดให้บริการเมื่อปี 2562

    #Newskit
    เคาะวันเปิด LRT3 มาเลเซีย 30 กันยายน 2025 ในที่สุดโครงการก่อสร้างรถไฟฟ้ารางเบาสายชาห์อลัม (Shah Alam Line) หรือ LRT3 รัฐสลังงอร์ ประเทศมาเลเซีย เชื่อมระหว่างสถานีบันดาร์ อูตามา (Bandar Utama) กับสถานีโยฮัน เซเตีย (Johan Setia) มีกำหนดเปิดให้บริการในวันที่ 30 ก.ย. 2568 หลังส่งมอบโครงการให้กับบริษัท ปราซารานา (Prasarana) ในวันที่ 31 ก.ค. 2568 ตามที่กระทรวงคมนาคมมาเลเซีย เปิดเผยเมื่อวันพุธ (26 ก.พ.) ระบุว่าความคืบหน้าของโครงการอยู่ที่ 98.16% สำหรับโครงการรถไฟฟ้ารางเบาสายที่ 3 (LRT3) ถือเป็นระบบขนส่งมวลชนลำดับที่ 11 ในหุบเขาแคลง มีระยะทาง 37 กิโลเมตร รวมทั้งอุโมงค์ความยาว 2 กิโลเมตร พาดผ่านเขตเปตาลิง จายา (Petaling Jaya) ชาห์อลัม (Shah Alam) และแคลง (Klang) รองรับประชากรมากกว่า 2 ล้านคน มีสถานีรถไฟฟ้า 20 สถานี และอีก 5 สถานีที่ก่อสร้างเพิ่มเติม พร้อมที่จอดรถ 6 สถานี รองรับรถยนต์รวม 2,000 คัน ส่วนขบวนรถมี 3 ตู้ รวม 22 ขบวน ผลิตโดยบริษัท CRRC Corporation รองรับผู้โดยสารสูงสุด 18,630 คนต่อชั่วโมงต่อทิศทาง ให้บริการความถี่ทุก 6 นาทีในชั่วโมงเร่งด่วน คาดว่าจะมีผู้โดยสาร 67,000 เที่ยวคนต่อวัน จุดเริ่มต้นอยู่ที่สถานีบันดาร์ อูตามา ใกล้กับศูนย์การค้าวันอูตามา (1 Utama) ศูนย์การค้าขนาดใหญ่ติดอันดับ 1 ใน 10 ของโลก ผ่านสถานที่สำคัญอย่างสนามกีฬาชาห์อลัม (Stadium Shah Alam) มัสยิดสุลต่านซาลาฮุดดินอับดุลอาซิซ (Masjid Sultan Salahuddin Abdul Aziz Shah) มหาวิทยาลัยเทคโนโลยียูไอทีเอ็ม (UiTM) โครงการไอ-ซิตี้ (i-City) สวนสนุกไอ-ซิตี้ ธีมพาร์ค (i-City Theme Park) มัสยิดบันดาร์ดิราจาแคลงอูตารา (Masjid Bandar Diraja Klang Utara) มีสถานีเชื่อมต่อ ได้แก่ 1. สถานีบันดาร์ อูตามา เชื่อมต่อกับรถไฟฟ้าเอ็มอาร์ที สายกาจัง (MRT Kajang Line) เส้นทางระหว่างสถานีควาซาดามานซารา (Kwasa Damansara) กับสถานีกาจัง (Kajang) ผ่านสถานีบูกิตบินตัง (Bukit Bintang) และสถานีตุนราซัคเอ็กซ์เชนจ์ (Tun Razak Exchange) 2. สถานีเกลนมารี 2 (Glenmarie 2) เชื่อมต่อกับรถไฟฟ้า LRT สายเกลานา จายา (Kelana Jaya Line) เส้นทางระหว่างสถานีปูตราไฮต์ (Putra Heights) กับสถานีกอมบัค (Gombak) ผ่านสถานีเคแอล เซ็นทรัล (KL Sentral) และสถานีเคแอลซีซี (KLCC) ซึ่งเป็นที่ตั้งของอาคารปิโตรนาส ทวิน ทาวเวอร์ อนึ่ง ที่สถานีเซคชันตูจู (Seksyen 7) บริเวณเขต 7 ของรัฐสลังงอร์ มีศูนย์การค้าเซ็นทรัล ไอ-ซิตี้ (Central i-City) ซึ่งกลุ่มเซ็นทรัลพัฒนาจากประเทศไทย ลงทุนร่วมกับไอ-เบอร์ฮัด (I-Berhad) เปิดให้บริการเมื่อปี 2562 #Newskit
    Like
    1
    0 Comments 0 Shares 1031 Views 0 Reviews
  • กลุ่มอนุรักษ์สิทธิสัตว์ PETA ออกมาโต้รัฐมนตรีเฉลิมชัย ศรีอ่อน ที่ก่อนหน้ายืนยันรับประกันสวัสดิภาพหมูเด้งและสวนสัตว์เขาเขียวได้มาตรฐานว่า ให้ความสนใจหมูเด้งเป็นพิเศษ เนื่องมาจากกระแสความโด่งดังหมูเด้งที่มาจากการกักขังในสวนสัตว์เป็นสำคัญที่ทำให้สัตว์ป่าเช่นฮิปโปแคระสูญเสียธรรมชาติดั้งเดิมความเป็นสัตว์ป่าของตัวเองไป แต่ไม่ตอบคำเชิญเข้ามาดูหมูเด้งถึงสวนสัตว์เขาเขียว ด้านอดีตเอกอัครราชทูตอเมริกันประจำธนาคารพัฒนาเอเชีย (AsDB) สวนกระแสแบนบุกเยือน “หมูเด้ง” ถึงที่โพสต์ชื่นชมพี่เบนซ์ที่อุทิศตัวจนหมูเด้งมีชื่อไปทั่วโลก

    เจสัน เบเกอร์ (Jason Baker) รองประธานอาวุโสกลุ่มอนุรักษ์สิทธิสัตว์ PETA ชื่อดังออกแถลงการณ์เมื่อวันที่ 25 ก.พ. มายังผู้จัดการออนไลน์ ตอบโต้รัฐมนตรีกระทรวงทรัพยากรธรรมชาติและสิ่งแวดล้อม เฉลิมชัย ศรีอ่อน หลังข่าว PETA จับมือ Born Free รณรงค์ไม่ให้นักท่องเที่ยวในอังกฤษเดินทางบินเข้ามาชมหมูเด้งในไทยออกมาเป็นกระแสวิพากษ์วิจารณ์ไปทั่ว

    แถลงการณ์ PETA ที่ออกมาในวันเดียวกัน (25) กับการแถลงของรัฐมนตรีเฉลิมชัย โดยทางกลุ่มแถลงยังคงโจมตีไปที่กระแสความโด่งดังหมูเด้งที่มาจากการกักขังในสวนสัตว์เป็นสำคัญ PETA จุดยืนการรณรงค์หมูเด้งเนื่องมาจากทางกลุ่มต้องการให้ข้อมูลว่า สัตว์ที่ถูกกักกันนั้นแท้จริงเป็นสิ่งที่มีความรู้สึกเหมือนเช่นมนุษย์ และไม่ใช่สิ่งที่จะนำมาจัดแสดงได้ตามข้ออ้างของรัฐมนตรีกระทรวงทรัพยากรธรรมชาติ

    คลิกอ่านรายละเอียดเพิ่มเติม >>https://mgronline.com/around/detail/9680000020286

    #MGROnline #กลุ่มอนุรักษ์สิทธิสัตว์ #PETA #หมูเด้ง
    กลุ่มอนุรักษ์สิทธิสัตว์ PETA ออกมาโต้รัฐมนตรีเฉลิมชัย ศรีอ่อน ที่ก่อนหน้ายืนยันรับประกันสวัสดิภาพหมูเด้งและสวนสัตว์เขาเขียวได้มาตรฐานว่า ให้ความสนใจหมูเด้งเป็นพิเศษ เนื่องมาจากกระแสความโด่งดังหมูเด้งที่มาจากการกักขังในสวนสัตว์เป็นสำคัญที่ทำให้สัตว์ป่าเช่นฮิปโปแคระสูญเสียธรรมชาติดั้งเดิมความเป็นสัตว์ป่าของตัวเองไป แต่ไม่ตอบคำเชิญเข้ามาดูหมูเด้งถึงสวนสัตว์เขาเขียว ด้านอดีตเอกอัครราชทูตอเมริกันประจำธนาคารพัฒนาเอเชีย (AsDB) สวนกระแสแบนบุกเยือน “หมูเด้ง” ถึงที่โพสต์ชื่นชมพี่เบนซ์ที่อุทิศตัวจนหมูเด้งมีชื่อไปทั่วโลก • เจสัน เบเกอร์ (Jason Baker) รองประธานอาวุโสกลุ่มอนุรักษ์สิทธิสัตว์ PETA ชื่อดังออกแถลงการณ์เมื่อวันที่ 25 ก.พ. มายังผู้จัดการออนไลน์ ตอบโต้รัฐมนตรีกระทรวงทรัพยากรธรรมชาติและสิ่งแวดล้อม เฉลิมชัย ศรีอ่อน หลังข่าว PETA จับมือ Born Free รณรงค์ไม่ให้นักท่องเที่ยวในอังกฤษเดินทางบินเข้ามาชมหมูเด้งในไทยออกมาเป็นกระแสวิพากษ์วิจารณ์ไปทั่ว • แถลงการณ์ PETA ที่ออกมาในวันเดียวกัน (25) กับการแถลงของรัฐมนตรีเฉลิมชัย โดยทางกลุ่มแถลงยังคงโจมตีไปที่กระแสความโด่งดังหมูเด้งที่มาจากการกักขังในสวนสัตว์เป็นสำคัญ PETA จุดยืนการรณรงค์หมูเด้งเนื่องมาจากทางกลุ่มต้องการให้ข้อมูลว่า สัตว์ที่ถูกกักกันนั้นแท้จริงเป็นสิ่งที่มีความรู้สึกเหมือนเช่นมนุษย์ และไม่ใช่สิ่งที่จะนำมาจัดแสดงได้ตามข้ออ้างของรัฐมนตรีกระทรวงทรัพยากรธรรมชาติ • คลิกอ่านรายละเอียดเพิ่มเติม >>https://mgronline.com/around/detail/9680000020286 • #MGROnline #กลุ่มอนุรักษ์สิทธิสัตว์ #PETA #หมูเด้ง
    Like
    1
    0 Comments 0 Shares 979 Views 0 Reviews
More Results