• ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว
    → ติดตั้งที่ศูนย์ข้อมูลของ Switch
    → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี
     • 72 GPU (Blackwell Ultra)
     • 36 CPU (Grace 72-core)
      • 36 DPU (BlueField)
    → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB
    → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8)
    → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU

    ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก

    สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว → ติดตั้งที่ศูนย์ข้อมูลของ Switch → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี  • 72 GPU (Blackwell Ultra)  • 36 CPU (Grace 72-core)   • 36 DPU (BlueField) → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB 🔥 → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8) → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU 😮💧 ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    0 Comments 0 Shares 143 Views 0 Reviews
  • AMD ผลิตการ์ด Instinct ซึ่งเป็น GPU สำหรับซูเปอร์คอมพิวเตอร์และงานเทรน AI โดยเฉพาะ ด้วย VRAM สูงถึง 192GB ต่อการ์ด และในบางเซิร์ฟเวอร์ติดตั้งถึง 8 ใบ รวมเป็น VRAM มากถึง 1.5 TB — เยอะกว่าคอมทั่วไปหลายสิบเท่า!

    แต่เมื่อมีคนพยายามทำให้ระบบ Linux “จำศีล” เพื่อประหยัดไฟตอนไม่ได้ใช้งาน เช่น ช่วงเวลากลางคืน หรือเพื่อรองรับภาวะไฟฟ้าล้นกริด กลับพบว่า...ระบบแครช!

    สาเหตุมาจากว่า Linux ต้อง “ย้าย VRAM ทั้งหมดมาเก็บใน RAM ก่อน” แล้วจึง snapshot memory ไปเขียนลงดิสก์เพื่อเรียกกลับเมื่อเปิดเครื่อง — ปรากฏว่า VRAM 1.5TB + RAM อีกมากมาย ทำให้ระบบต้องใช้พื้นที่ snapshot เกิน 3TB ในบางกรณี → เกินขนาดของ RAM/Storage → ฮิเบอร์เนตล้มเหลว

    ทีมวิศวกรของ AMD จึงเสนอ patch สำหรับ Linux ที่จะ:
    - ลดปริมาณข้อมูลที่ต้อง snapshot
    - ข้ามการ restore VRAM บางส่วนเมื่อปลุกระบบขึ้น (thaw) เพื่อให้กลับมาใช้งานเร็วขึ้น

    สาเหตุที่มีคนพยายาม hibernate เซิร์ฟเวอร์เหล่านี้ เพราะถ้าไม่ปิด ก็เปลืองไฟระดับโรงไฟฟ้าย่อม ๆ แถมยังเสี่ยงต่อเหตุการณ์แบบ blackout แบบที่เกิดในสเปนเมื่อไม่นานมานี้

    AMD Instinct เป็น GPU สำหรับ AI ที่มี VRAM สูงถึง 192GB/ใบ  
    • ใช้ในซูเปอร์คอมพิวเตอร์, data center, และงานเทรนโมเดล LLM ขนาดใหญ่

    เซิร์ฟเวอร์ที่ติดตั้ง Instinct GPU 8 ใบ จะมี VRAM รวม ~1.5TB ต่อเครื่อง  
    • ทำให้ระบบต้องจัดการ memory ขนาดใหญ่มากระหว่างฮิเบอร์เนต

    Linux ต้องย้าย VRAM เข้าสู่ RAM เพื่อ snapshot ลงดิสก์ในการจำศีล  
    • ส่งผลให้ต้องใช้ RAM/disk เกินกว่าที่เครื่องมีจริง → ฮิเบอร์เนตล้มเหลว

    AMD ออก patch แก้ปัญหาด้วยวิธี:  
    • ลดพื้นที่ที่ต้อง snapshot  
    • ข้ามการโหลด buffer VRAM บางส่วนกลับมาระหว่าง resume  
    • ช่วยลดเวลา thaw (resume) เหลือไม่ถึง 1 ชั่วโมง จากเดิมที่อาจต้องรอนานมาก

    เหตุผลที่ต้อง hibernate เซิร์ฟเวอร์แม้จะเป็น AI server:  
    • ลดพลังงานในช่วง downtime  
    • ช่วยรักษาเสถียรภาพของโครงข่ายไฟฟ้า (power grid)  
    • เคยมี blackout ในสเปนซึ่งเชื่อมโยงกับโหลดของ data center

    https://www.tomshardware.com/tech-industry/supercomputers/massive-vram-pools-on-amd-instinct-accelerators-drown-linuxs-hibernation-process-1-5-tb-of-memory-per-server-creates-headaches
    AMD ผลิตการ์ด Instinct ซึ่งเป็น GPU สำหรับซูเปอร์คอมพิวเตอร์และงานเทรน AI โดยเฉพาะ ด้วย VRAM สูงถึง 192GB ต่อการ์ด และในบางเซิร์ฟเวอร์ติดตั้งถึง 8 ใบ รวมเป็น VRAM มากถึง 1.5 TB — เยอะกว่าคอมทั่วไปหลายสิบเท่า! แต่เมื่อมีคนพยายามทำให้ระบบ Linux “จำศีล” เพื่อประหยัดไฟตอนไม่ได้ใช้งาน เช่น ช่วงเวลากลางคืน หรือเพื่อรองรับภาวะไฟฟ้าล้นกริด กลับพบว่า...ระบบแครช! สาเหตุมาจากว่า Linux ต้อง “ย้าย VRAM ทั้งหมดมาเก็บใน RAM ก่อน” แล้วจึง snapshot memory ไปเขียนลงดิสก์เพื่อเรียกกลับเมื่อเปิดเครื่อง — ปรากฏว่า VRAM 1.5TB + RAM อีกมากมาย ทำให้ระบบต้องใช้พื้นที่ snapshot เกิน 3TB ในบางกรณี → เกินขนาดของ RAM/Storage → ฮิเบอร์เนตล้มเหลว ทีมวิศวกรของ AMD จึงเสนอ patch สำหรับ Linux ที่จะ: - ลดปริมาณข้อมูลที่ต้อง snapshot - ข้ามการ restore VRAM บางส่วนเมื่อปลุกระบบขึ้น (thaw) เพื่อให้กลับมาใช้งานเร็วขึ้น สาเหตุที่มีคนพยายาม hibernate เซิร์ฟเวอร์เหล่านี้ เพราะถ้าไม่ปิด ก็เปลืองไฟระดับโรงไฟฟ้าย่อม ๆ แถมยังเสี่ยงต่อเหตุการณ์แบบ blackout แบบที่เกิดในสเปนเมื่อไม่นานมานี้ ✅ AMD Instinct เป็น GPU สำหรับ AI ที่มี VRAM สูงถึง 192GB/ใบ   • ใช้ในซูเปอร์คอมพิวเตอร์, data center, และงานเทรนโมเดล LLM ขนาดใหญ่ ✅ เซิร์ฟเวอร์ที่ติดตั้ง Instinct GPU 8 ใบ จะมี VRAM รวม ~1.5TB ต่อเครื่อง   • ทำให้ระบบต้องจัดการ memory ขนาดใหญ่มากระหว่างฮิเบอร์เนต ✅ Linux ต้องย้าย VRAM เข้าสู่ RAM เพื่อ snapshot ลงดิสก์ในการจำศีล   • ส่งผลให้ต้องใช้ RAM/disk เกินกว่าที่เครื่องมีจริง → ฮิเบอร์เนตล้มเหลว ✅ AMD ออก patch แก้ปัญหาด้วยวิธี:   • ลดพื้นที่ที่ต้อง snapshot   • ข้ามการโหลด buffer VRAM บางส่วนกลับมาระหว่าง resume   • ช่วยลดเวลา thaw (resume) เหลือไม่ถึง 1 ชั่วโมง จากเดิมที่อาจต้องรอนานมาก ✅ เหตุผลที่ต้อง hibernate เซิร์ฟเวอร์แม้จะเป็น AI server:   • ลดพลังงานในช่วง downtime   • ช่วยรักษาเสถียรภาพของโครงข่ายไฟฟ้า (power grid)   • เคยมี blackout ในสเปนซึ่งเชื่อมโยงกับโหลดของ data center https://www.tomshardware.com/tech-industry/supercomputers/massive-vram-pools-on-amd-instinct-accelerators-drown-linuxs-hibernation-process-1-5-tb-of-memory-per-server-creates-headaches
    0 Comments 0 Shares 185 Views 0 Reviews
  • ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง

    ระบบนี้ประกอบด้วย:
    - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง
    - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที

    ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า"

    เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง)

    https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง ระบบนี้ประกอบด้วย: - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า" เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง) https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    WWW.TECHSPOT.COM
    X Display unveils ultra-fast, cable-free display that turns data into light
    X Display is focused on developing and licensing new intellectual property related to MicroLED and other display technologies. The North Carolina-based developer recently unveiled a novel application...
    0 Comments 0 Shares 156 Views 0 Reviews
  • เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์

    แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ”

    สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64)

    ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง

    https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์ แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ” สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64) ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    0 Comments 0 Shares 210 Views 0 Reviews
  • หลายคนคิดว่า GPU ต้องพึ่งพาแค่ไฟจากรัฐ แต่จริง ๆ แล้ว Jensen Huang แห่ง NVIDIA รู้ดีว่าในอนาคต “ไฟ” จะกลายเป็นปัจจัยจำกัดการเติบโตของ AI — ไม่ใช่ชิปอีกต่อไป

    ล่าสุด NVIDIA (ผ่านบริษัทลูกด้านลงทุน NVentures) ร่วมลงเงินกับ Bill Gates และ HD Hyundai ในรอบ funding ล่าสุดกว่า $650 ล้าน ให้กับ TerraPower บริษัทที่ Gates ก่อตั้งเพื่อพัฒนาโรงไฟฟ้านิวเคลียร์ขนาดเล็กแบบ SMR (Small Modular Reactor)

    โปรเจกต์แรกของ TerraPower คือโรงไฟฟ้า Natrium กำลัง 345 เมกะวัตต์ ที่ใช้โซเดียมเหลวระบายความร้อน และมี ระบบเก็บพลังงานด้วยเกลือหลอมเหลว ที่สะสมพลังงานได้ถึง 1 กิกะวัตต์ เพื่อป้อนโหลดพีคแบบ AI ได้ทันเวลา

    แม้จะยังรอใบอนุญาตจากหน่วยงานนิวเคลียร์ในสหรัฐ (คาดว่าได้ปี 2026) แต่ตอนนี้เริ่มสร้างโครงสร้างส่วนที่ไม่ใช่นิวเคลียร์แล้วในรัฐไวโอมิง

    NVIDIA ไม่ได้โดดเดี่ยว — Oracle, Microsoft, Google และ Amazon ต่างเร่งลงทุนด้านนิวเคลียร์คล้ายกัน เช่น Oracle ขออนุญาตสร้าง SMR 3 ชุด, Microsoft เตรียมรีสตาร์ตโรงไฟฟ้าเก่าใน Pennsylvania, Amazon ทุ่มเงินในหลายสตาร์ตอัปด้านพลังงาน

    เทรนด์นี้มาแรงเพราะ AI server ต้องการไฟมากเกินที่โครงข่ายจะรองรับไหว — AMD เผยว่าแค่ zettascale supercomputer จะใช้ไฟถึง 500 เมกะวัตต์ ซึ่งเทียบเท่าบ้าน 375,000 หลังเลยทีเดียว

    https://www.tomshardware.com/tech-industry/nvidia-goes-nuclear-company-joins-bill-gates-in-backing-terrapower-a-company-building-nuclear-reactors-for-powering-data-centers
    หลายคนคิดว่า GPU ต้องพึ่งพาแค่ไฟจากรัฐ แต่จริง ๆ แล้ว Jensen Huang แห่ง NVIDIA รู้ดีว่าในอนาคต “ไฟ” จะกลายเป็นปัจจัยจำกัดการเติบโตของ AI — ไม่ใช่ชิปอีกต่อไป ล่าสุด NVIDIA (ผ่านบริษัทลูกด้านลงทุน NVentures) ร่วมลงเงินกับ Bill Gates และ HD Hyundai ในรอบ funding ล่าสุดกว่า $650 ล้าน ให้กับ TerraPower บริษัทที่ Gates ก่อตั้งเพื่อพัฒนาโรงไฟฟ้านิวเคลียร์ขนาดเล็กแบบ SMR (Small Modular Reactor) โปรเจกต์แรกของ TerraPower คือโรงไฟฟ้า Natrium กำลัง 345 เมกะวัตต์ ที่ใช้โซเดียมเหลวระบายความร้อน และมี ระบบเก็บพลังงานด้วยเกลือหลอมเหลว ที่สะสมพลังงานได้ถึง 1 กิกะวัตต์ เพื่อป้อนโหลดพีคแบบ AI ได้ทันเวลา แม้จะยังรอใบอนุญาตจากหน่วยงานนิวเคลียร์ในสหรัฐ (คาดว่าได้ปี 2026) แต่ตอนนี้เริ่มสร้างโครงสร้างส่วนที่ไม่ใช่นิวเคลียร์แล้วในรัฐไวโอมิง NVIDIA ไม่ได้โดดเดี่ยว — Oracle, Microsoft, Google และ Amazon ต่างเร่งลงทุนด้านนิวเคลียร์คล้ายกัน เช่น Oracle ขออนุญาตสร้าง SMR 3 ชุด, Microsoft เตรียมรีสตาร์ตโรงไฟฟ้าเก่าใน Pennsylvania, Amazon ทุ่มเงินในหลายสตาร์ตอัปด้านพลังงาน เทรนด์นี้มาแรงเพราะ AI server ต้องการไฟมากเกินที่โครงข่ายจะรองรับไหว — AMD เผยว่าแค่ zettascale supercomputer จะใช้ไฟถึง 500 เมกะวัตต์ ซึ่งเทียบเท่าบ้าน 375,000 หลังเลยทีเดียว https://www.tomshardware.com/tech-industry/nvidia-goes-nuclear-company-joins-bill-gates-in-backing-terrapower-a-company-building-nuclear-reactors-for-powering-data-centers
    0 Comments 0 Shares 178 Views 0 Reviews
  • หลังจากสหรัฐฯ ออกข้อจำกัดไม่ให้ Nvidia ขายการ์ด AI ระดับสูง (เช่น H100, H200, B200) ให้กับจีนโดยตรง บริษัทจีนหลายแห่งก็พยายาม “หาทางอ้อม” เพื่อใช้งาน GPU เหล่านี้ต่อ

    ล่าสุด มีรายงานว่า ชาวจีน 4 คนบินจากปักกิ่งมามาเลเซีย พร้อมนำฮาร์ดดิสก์ที่บรรจุข้อมูลหลายสิบเทราไบต์ ทั้งวิดีโอ ภาพ และ spreadsheet เพื่อ “ฝึก AI” บนเซิร์ฟเวอร์ที่เช่าผ่าน data center ในมาเลเซีย ที่มี GPU ของ Nvidia ติดตั้งอยู่ราว 2,400 ตัว

    แม้จะฟังดูไม่ใช่คลัสเตอร์ขนาดใหญ่เท่า supercomputer แต่ก็เพียงพอสำหรับ training model ได้สบาย ๆ—ที่สำคัญคือ “เป็นวิธีที่ช่วยให้บริษัทจีนยังคงเข้าถึงเทคโนโลยีที่สหรัฐฯ ห้ามขาย” ได้โดยไม่ซื้อโดยตรง

    ประเด็นนี้ทำให้กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) ต้องออกมายืนยันว่ากำลังสอบสวนร่วมกับหน่วยงานอื่น ๆ เพื่อดูว่าเข้าข่ายละเมิดกฎหมายหรือไม่

    กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) กำลังสอบสวนกรณีบริษัทจีนใช้ GPU Nvidia ผ่าน data center ในมาเลเซีย  
    • เป็นการเช่าเซิร์ฟเวอร์เพื่อ train AI โดยไม่ได้ครอบครองฮาร์ดแวร์โดยตรง  
    • ยังไม่พบการละเมิดกฎหมายในประเทศ ณ เวลานี้

    มีรายงานว่าชาวจีน 4 คนขน HDD หลายสิบเทราไบต์เข้าเครื่องที่เช่าไว้ในมาเลเซีย  
    • ฝึกโมเดล AI บนเซิร์ฟเวอร์ที่ใช้ Nvidia GPU ~2,400 ตัว  
    • GPU เหล่านี้น่าจะเป็น H100 หรือรุ่นที่สหรัฐห้ามส่งออกไปยังจีน

    มาเลเซียไม่ได้อยู่ภายใต้มาตรการควบคุมการส่งออกของสหรัฐ  
    • ทำให้บริษัทในประเทศสามารถนำเข้า GPU ได้อย่างถูกกฎหมาย  
    • แต่ถ้ามีการ “นำ GPU ไปให้จีนใช้ทางอ้อม” ก็อาจละเมิดกฎของสหรัฐฯ

    หน่วยงานด้านการค้าในสหรัฐฯ เคยร้องขอให้มาเลเซียตรวจสอบทุก shipment ที่อาจเกี่ยวข้องกับ GPU ขั้นสูง  
    • หลังพบว่าในปี 2025 การนำเข้าเซิร์ฟเวอร์ AI จากไต้หวันไปยังมาเลเซีย “พุ่งขึ้นถึง 3,400%”

    บริษัทจีนที่ใช้บริการเช่าระยะไกลแบบนี้ อาจเลี่ยงข้อห้ามสหรัฐฯ ได้ชั่วคราวโดยไม่ซื้อตรง  
    • เรียกว่าใช้ “compute-as-a-service” แบบหลบเลี่ยง

    ยังไม่แน่ชัดว่ากรณีนี้จะเข้าข่าย “ละเมิดมาตรการของสหรัฐฯ” หรือไม่ เพราะไม่ได้ส่งมอบฮาร์ดแวร์ไปจีนโดยตรง  
    • หากสหรัฐมองว่า “การให้คนจีนเข้าถึง compute” ถือว่าเข้าข่าย ก็อาจสร้างแรงกดดันต่อมาเลเซียในอนาคต

    มาเลเซียอาจถูกจับตาจากรัฐบาลสหรัฐฯ หากพบว่าเป็นจุดผ่านของการ “ลักลอบใช้ GPU ที่ควบคุมอยู่”  
    • ส่งผลต่อภาพลักษณ์ด้านความร่วมมือระหว่างประเทศในเทคโนโลยี AI

    ผู้ให้บริการ data center ในภูมิภาคอาเซียนอาจต้องเผชิญแรงกดดันเช่นเดียวกัน  
    • หากไม่มีระบบ “ตรวจสอบแหล่งข้อมูลลูกค้า” อาจกลายเป็นช่องโหว่ให้ฝ่ายต่าง ๆ ใช้หลบมาตรการ

    กรณีนี้สะท้อนว่าแม้มาตรการควบคุม GPU จะรุนแรง แต่จีนยังคงหาวิธีเข้าถึงทรัพยากร AI ได้อยู่ดี  
    • เช่นเดียวกับกรณีก่อนหน้านี้ที่มีข่าวลอบขน GPU ผ่าน “กุ้ง” และ “ซิลิโคนหน้าท้องปลอม”

    https://www.tomshardware.com/tech-industry/artificial-intelligence/malaysia-investigates-chinese-use-of-nvidia-powered-servers-in-the-country-trade-minister-verifying-reports-of-possible-regulation-breach-following-reports-of-smuggled-hard-drives-and-server-rentals
    หลังจากสหรัฐฯ ออกข้อจำกัดไม่ให้ Nvidia ขายการ์ด AI ระดับสูง (เช่น H100, H200, B200) ให้กับจีนโดยตรง บริษัทจีนหลายแห่งก็พยายาม “หาทางอ้อม” เพื่อใช้งาน GPU เหล่านี้ต่อ ล่าสุด มีรายงานว่า ชาวจีน 4 คนบินจากปักกิ่งมามาเลเซีย พร้อมนำฮาร์ดดิสก์ที่บรรจุข้อมูลหลายสิบเทราไบต์ ทั้งวิดีโอ ภาพ และ spreadsheet เพื่อ “ฝึก AI” บนเซิร์ฟเวอร์ที่เช่าผ่าน data center ในมาเลเซีย ที่มี GPU ของ Nvidia ติดตั้งอยู่ราว 2,400 ตัว แม้จะฟังดูไม่ใช่คลัสเตอร์ขนาดใหญ่เท่า supercomputer แต่ก็เพียงพอสำหรับ training model ได้สบาย ๆ—ที่สำคัญคือ “เป็นวิธีที่ช่วยให้บริษัทจีนยังคงเข้าถึงเทคโนโลยีที่สหรัฐฯ ห้ามขาย” ได้โดยไม่ซื้อโดยตรง ประเด็นนี้ทำให้กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) ต้องออกมายืนยันว่ากำลังสอบสวนร่วมกับหน่วยงานอื่น ๆ เพื่อดูว่าเข้าข่ายละเมิดกฎหมายหรือไม่ ✅ กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) กำลังสอบสวนกรณีบริษัทจีนใช้ GPU Nvidia ผ่าน data center ในมาเลเซีย   • เป็นการเช่าเซิร์ฟเวอร์เพื่อ train AI โดยไม่ได้ครอบครองฮาร์ดแวร์โดยตรง   • ยังไม่พบการละเมิดกฎหมายในประเทศ ณ เวลานี้ ✅ มีรายงานว่าชาวจีน 4 คนขน HDD หลายสิบเทราไบต์เข้าเครื่องที่เช่าไว้ในมาเลเซีย   • ฝึกโมเดล AI บนเซิร์ฟเวอร์ที่ใช้ Nvidia GPU ~2,400 ตัว   • GPU เหล่านี้น่าจะเป็น H100 หรือรุ่นที่สหรัฐห้ามส่งออกไปยังจีน ✅ มาเลเซียไม่ได้อยู่ภายใต้มาตรการควบคุมการส่งออกของสหรัฐ   • ทำให้บริษัทในประเทศสามารถนำเข้า GPU ได้อย่างถูกกฎหมาย   • แต่ถ้ามีการ “นำ GPU ไปให้จีนใช้ทางอ้อม” ก็อาจละเมิดกฎของสหรัฐฯ ✅ หน่วยงานด้านการค้าในสหรัฐฯ เคยร้องขอให้มาเลเซียตรวจสอบทุก shipment ที่อาจเกี่ยวข้องกับ GPU ขั้นสูง   • หลังพบว่าในปี 2025 การนำเข้าเซิร์ฟเวอร์ AI จากไต้หวันไปยังมาเลเซีย “พุ่งขึ้นถึง 3,400%” ✅ บริษัทจีนที่ใช้บริการเช่าระยะไกลแบบนี้ อาจเลี่ยงข้อห้ามสหรัฐฯ ได้ชั่วคราวโดยไม่ซื้อตรง   • เรียกว่าใช้ “compute-as-a-service” แบบหลบเลี่ยง ‼️ ยังไม่แน่ชัดว่ากรณีนี้จะเข้าข่าย “ละเมิดมาตรการของสหรัฐฯ” หรือไม่ เพราะไม่ได้ส่งมอบฮาร์ดแวร์ไปจีนโดยตรง   • หากสหรัฐมองว่า “การให้คนจีนเข้าถึง compute” ถือว่าเข้าข่าย ก็อาจสร้างแรงกดดันต่อมาเลเซียในอนาคต ‼️ มาเลเซียอาจถูกจับตาจากรัฐบาลสหรัฐฯ หากพบว่าเป็นจุดผ่านของการ “ลักลอบใช้ GPU ที่ควบคุมอยู่”   • ส่งผลต่อภาพลักษณ์ด้านความร่วมมือระหว่างประเทศในเทคโนโลยี AI ‼️ ผู้ให้บริการ data center ในภูมิภาคอาเซียนอาจต้องเผชิญแรงกดดันเช่นเดียวกัน   • หากไม่มีระบบ “ตรวจสอบแหล่งข้อมูลลูกค้า” อาจกลายเป็นช่องโหว่ให้ฝ่ายต่าง ๆ ใช้หลบมาตรการ ‼️ กรณีนี้สะท้อนว่าแม้มาตรการควบคุม GPU จะรุนแรง แต่จีนยังคงหาวิธีเข้าถึงทรัพยากร AI ได้อยู่ดี   • เช่นเดียวกับกรณีก่อนหน้านี้ที่มีข่าวลอบขน GPU ผ่าน “กุ้ง” และ “ซิลิโคนหน้าท้องปลอม” https://www.tomshardware.com/tech-industry/artificial-intelligence/malaysia-investigates-chinese-use-of-nvidia-powered-servers-in-the-country-trade-minister-verifying-reports-of-possible-regulation-breach-following-reports-of-smuggled-hard-drives-and-server-rentals
    0 Comments 0 Shares 284 Views 0 Reviews
  • ซูเปอร์คอมพิวเตอร์ระดับ Zettascale อาจต้องใช้พลังงานเทียบเท่าโรงไฟฟ้านิวเคลียร์
    AMD ได้เปิดเผยข้อมูลเกี่ยวกับ แนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ในอนาคต โดยคาดการณ์ว่า ซูเปอร์คอมพิวเตอร์ระดับ Zettascale จะต้องใช้พลังงานถึง 500 เมกะวัตต์ ซึ่งเทียบเท่ากับ การใช้ไฟฟ้าของบ้าน 375,000 หลัง

    AMD ระบุว่า หน่วยความจำและระบบระบายความร้อนเป็นปัจจัยหลักที่ทำให้การใช้พลังงานเพิ่มขึ้น เนื่องจาก AI accelerators ต้องการแบนด์วิดท์ที่สูงขึ้นและระบบระบายความร้อนที่มีประสิทธิภาพมากขึ้น

    ข้อมูลจากข่าว
    - AMD คาดการณ์ว่า Zettascale supercomputers จะต้องใช้พลังงานถึง 500 เมกะวัตต์
    - กราฟแสดงแนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ตั้งแต่ปี 2010 ถึง 2035
    - การพัฒนา AI accelerators มีประสิทธิภาพเพิ่มขึ้น 2 เท่าทุก 2.2 ปี
    - FP128 และ FP64 ให้ความแม่นยำสูง แต่ FP16 และ FP8 มีประโยชน์สำหรับบางงาน
    - Nvidia B200 มี TDP 1,000W และ AMD MI355X มี TDP 1,400W

    ผลกระทบต่ออุตสาหกรรม AI และพลังงาน
    รัฐบาลสหรัฐฯ และบริษัทเทคโนโลยี กำลังลงทุนในพลังงานนิวเคลียร์และฟิวชัน เพื่อรองรับ ความต้องการพลังงานที่เพิ่มขึ้นของศูนย์ข้อมูล AI

    คำเตือนที่ควรพิจารณา
    - การใช้พลังงานของซูเปอร์คอมพิวเตอร์อาจเพิ่มขึ้นอย่างต่อเนื่องจนถึงปี 2035
    - ต้องติดตามว่าการลงทุนในพลังงานนิวเคลียร์จะสามารถรองรับความต้องการของศูนย์ข้อมูล AI ได้หรือไม่
    - บริษัทเทคโนโลยีต้องพัฒนาโซลูชันที่ช่วยลดการใช้พลังงานของ AI accelerators
    - ต้องรอดูว่า Nvidia และ AMD จะสามารถเพิ่มประสิทธิภาพของ AI accelerators โดยไม่เพิ่มการใช้พลังงานมากเกินไป

    แม้ว่าการใช้พลังงานจะเพิ่มขึ้น แต่การพัฒนา AI accelerators และระบบระบายความร้อนที่มีประสิทธิภาพสูงขึ้น อาจช่วยให้ ซูเปอร์คอมพิวเตอร์สามารถทำงานได้โดยใช้พลังงานน้อยลงในอนาคต

    https://www.tomshardware.com/pc-components/gpus/amd-says-zettascale-supercomputers-will-need-half-a-gigawatt-to-operate-enough-for-375-000-homes
    ⚡ ซูเปอร์คอมพิวเตอร์ระดับ Zettascale อาจต้องใช้พลังงานเทียบเท่าโรงไฟฟ้านิวเคลียร์ AMD ได้เปิดเผยข้อมูลเกี่ยวกับ แนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ในอนาคต โดยคาดการณ์ว่า ซูเปอร์คอมพิวเตอร์ระดับ Zettascale จะต้องใช้พลังงานถึง 500 เมกะวัตต์ ซึ่งเทียบเท่ากับ การใช้ไฟฟ้าของบ้าน 375,000 หลัง AMD ระบุว่า หน่วยความจำและระบบระบายความร้อนเป็นปัจจัยหลักที่ทำให้การใช้พลังงานเพิ่มขึ้น เนื่องจาก AI accelerators ต้องการแบนด์วิดท์ที่สูงขึ้นและระบบระบายความร้อนที่มีประสิทธิภาพมากขึ้น ✅ ข้อมูลจากข่าว - AMD คาดการณ์ว่า Zettascale supercomputers จะต้องใช้พลังงานถึง 500 เมกะวัตต์ - กราฟแสดงแนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ตั้งแต่ปี 2010 ถึง 2035 - การพัฒนา AI accelerators มีประสิทธิภาพเพิ่มขึ้น 2 เท่าทุก 2.2 ปี - FP128 และ FP64 ให้ความแม่นยำสูง แต่ FP16 และ FP8 มีประโยชน์สำหรับบางงาน - Nvidia B200 มี TDP 1,000W และ AMD MI355X มี TDP 1,400W 🔥 ผลกระทบต่ออุตสาหกรรม AI และพลังงาน รัฐบาลสหรัฐฯ และบริษัทเทคโนโลยี กำลังลงทุนในพลังงานนิวเคลียร์และฟิวชัน เพื่อรองรับ ความต้องการพลังงานที่เพิ่มขึ้นของศูนย์ข้อมูล AI ‼️ คำเตือนที่ควรพิจารณา - การใช้พลังงานของซูเปอร์คอมพิวเตอร์อาจเพิ่มขึ้นอย่างต่อเนื่องจนถึงปี 2035 - ต้องติดตามว่าการลงทุนในพลังงานนิวเคลียร์จะสามารถรองรับความต้องการของศูนย์ข้อมูล AI ได้หรือไม่ - บริษัทเทคโนโลยีต้องพัฒนาโซลูชันที่ช่วยลดการใช้พลังงานของ AI accelerators - ต้องรอดูว่า Nvidia และ AMD จะสามารถเพิ่มประสิทธิภาพของ AI accelerators โดยไม่เพิ่มการใช้พลังงานมากเกินไป แม้ว่าการใช้พลังงานจะเพิ่มขึ้น แต่การพัฒนา AI accelerators และระบบระบายความร้อนที่มีประสิทธิภาพสูงขึ้น อาจช่วยให้ ซูเปอร์คอมพิวเตอร์สามารถทำงานได้โดยใช้พลังงานน้อยลงในอนาคต https://www.tomshardware.com/pc-components/gpus/amd-says-zettascale-supercomputers-will-need-half-a-gigawatt-to-operate-enough-for-375-000-homes
    0 Comments 0 Shares 175 Views 0 Reviews
  • SpiNNaker 2: ซูเปอร์คอมพิวเตอร์ที่เลียนแบบสมองมนุษย์
    Sandia National Laboratories ได้เปิดตัว SpiNNaker 2 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ได้รับแรงบันดาลใจจากสมองมนุษย์ โดยใช้ 175,000 CPU cores และ ไม่ต้องใช้ GPU หรือ SSD

    วิธีการทำงานของ SpiNNaker 2
    SpiNNaker 2 ใช้ สถาปัตยกรรม Spiking Neural Network (SNN) ซึ่งเลียนแบบ การทำงานของเซลล์ประสาทและไซแนปส์ในสมอง โดย แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM ทำให้สามารถ จัดเก็บข้อมูลทั้งหมดในหน่วยความจำโดยไม่ต้องใช้ที่เก็บข้อมูลแยกต่างหาก

    ข้อมูลจากข่าว
    - SpiNNaker 2 ใช้ 175,000 CPU cores และไม่ต้องใช้ GPU หรือ SSD
    - ใช้สถาปัตยกรรม Spiking Neural Network (SNN) เพื่อเลียนแบบสมองมนุษย์
    - แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM
    - สามารถประมวลผลโมเดล AI ขนาดใหญ่และการจำลองสมองทั้งระบบ
    - ระบบใน Dresden อาจมีมากกว่า 720 บอร์ด รวมถึง 5.2 ล้าน CPU cores เมื่อสร้างเสร็จ

    คำเตือนที่ควรพิจารณา
    - แม้จะมีประสิทธิภาพสูง แต่ต้องติดตามว่าการเลียนแบบสมองมนุษย์จะมีข้อจำกัดด้านการใช้งานจริงหรือไม่
    - SpiNNaker 2 อาจไม่สามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ในงานบางประเภท เช่น การฝึกโมเดล AI ขนาดใหญ่
    - ต้องติดตามว่าการใช้ LPDDR4 memory และ SRAM แทน SSD จะส่งผลต่อความเร็วและความเสถียรของระบบอย่างไร
    - การขยายระบบให้มี 5.2 ล้าน CPU cores อาจต้องใช้ทรัพยากรจำนวนมากและมีต้นทุนสูง

    SpiNNaker 2 อาจช่วยให้การจำลองสมองและการประมวลผล AI มีประสิทธิภาพมากขึ้น โดยไม่ต้องใช้ GPU อย่างไรก็ตาม ต้องติดตามว่าการออกแบบนี้จะสามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ได้หรือไม่

    https://www.tomshardware.com/tech-industry/supercomputers/brain-inspired-supercomputer-with-no-gpus-or-storage-switched-on-spinnaker-2-mimics-150-180-million-neurons
    🧠 SpiNNaker 2: ซูเปอร์คอมพิวเตอร์ที่เลียนแบบสมองมนุษย์ Sandia National Laboratories ได้เปิดตัว SpiNNaker 2 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ได้รับแรงบันดาลใจจากสมองมนุษย์ โดยใช้ 175,000 CPU cores และ ไม่ต้องใช้ GPU หรือ SSD 🔍 วิธีการทำงานของ SpiNNaker 2 SpiNNaker 2 ใช้ สถาปัตยกรรม Spiking Neural Network (SNN) ซึ่งเลียนแบบ การทำงานของเซลล์ประสาทและไซแนปส์ในสมอง โดย แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM ทำให้สามารถ จัดเก็บข้อมูลทั้งหมดในหน่วยความจำโดยไม่ต้องใช้ที่เก็บข้อมูลแยกต่างหาก ✅ ข้อมูลจากข่าว - SpiNNaker 2 ใช้ 175,000 CPU cores และไม่ต้องใช้ GPU หรือ SSD - ใช้สถาปัตยกรรม Spiking Neural Network (SNN) เพื่อเลียนแบบสมองมนุษย์ - แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM - สามารถประมวลผลโมเดล AI ขนาดใหญ่และการจำลองสมองทั้งระบบ - ระบบใน Dresden อาจมีมากกว่า 720 บอร์ด รวมถึง 5.2 ล้าน CPU cores เมื่อสร้างเสร็จ ‼️ คำเตือนที่ควรพิจารณา - แม้จะมีประสิทธิภาพสูง แต่ต้องติดตามว่าการเลียนแบบสมองมนุษย์จะมีข้อจำกัดด้านการใช้งานจริงหรือไม่ - SpiNNaker 2 อาจไม่สามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ในงานบางประเภท เช่น การฝึกโมเดล AI ขนาดใหญ่ - ต้องติดตามว่าการใช้ LPDDR4 memory และ SRAM แทน SSD จะส่งผลต่อความเร็วและความเสถียรของระบบอย่างไร - การขยายระบบให้มี 5.2 ล้าน CPU cores อาจต้องใช้ทรัพยากรจำนวนมากและมีต้นทุนสูง SpiNNaker 2 อาจช่วยให้การจำลองสมองและการประมวลผล AI มีประสิทธิภาพมากขึ้น โดยไม่ต้องใช้ GPU อย่างไรก็ตาม ต้องติดตามว่าการออกแบบนี้จะสามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ได้หรือไม่ https://www.tomshardware.com/tech-industry/supercomputers/brain-inspired-supercomputer-with-no-gpus-or-storage-switched-on-spinnaker-2-mimics-150-180-million-neurons
    0 Comments 0 Shares 211 Views 0 Reviews
  • ซูเปอร์คอมพิวเตอร์ Doudna: ก้าวใหม่ของ AI และวิทยาศาสตร์
    กระทรวงพลังงานสหรัฐฯ ประกาศแผนสร้าง ซูเปอร์คอมพิวเตอร์ Doudna ซึ่งจะตั้งอยู่ที่ ห้องปฏิบัติการแห่งชาติ Lawrence Berkeley โดยระบบนี้ได้รับการออกแบบมาเพื่อเร่งความก้าวหน้าทางวิทยาศาสตร์และ AI

    Doudna ได้รับการตั้งชื่อตาม Jennifer Doudna นักวิทยาศาสตร์เจ้าของรางวัลโนเบลที่มีบทบาทสำคัญในการพัฒนาเทคโนโลยี CRISPR gene editing

    ซูเปอร์คอมพิวเตอร์นี้จะใช้ แพลตฟอร์ม Vera Rubin ของ Nvidia ซึ่งรวมพลังของ AI และการจำลองทางวิทยาศาสตร์ เข้าด้วยกัน โดยใช้ ซีพียู Arm-based และ ชิป Rubin AI ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการจำลองข้อมูล

    ข้อมูลจากข่าว
    - Doudna จะตั้งอยู่ที่ Lawrence Berkeley National Laboratory และเริ่มใช้งานในปี 2026
    - Dell Technologies ได้รับเลือกให้สร้างระบบนี้ ซึ่งถือเป็นการเปลี่ยนแปลงครั้งสำคัญในวงการซูเปอร์คอมพิวเตอร์
    - ใช้แพลตฟอร์ม Vera Rubin ของ Nvidia ซึ่งรวมพลังของ AI และการจำลองทางวิทยาศาสตร์
    - Doudna จะเร็วกว่า Perlmutter ซูเปอร์คอมพิวเตอร์รุ่นปัจจุบันกว่า 10 เท่า
    - ระบบนี้จะช่วยนักวิทยาศาสตร์กว่า 11,000 คนในการวิจัยด้านพลังงานความร้อนใต้พิภพและควอนตัมคอมพิวติ้ง

    คำเตือนที่ควรพิจารณา
    - การใช้ AI ในการจำลองข้อมูลอาจต้องปรับเปลี่ยนแนวทางการคำนวณแบบดั้งเดิม
    - การเปลี่ยนจากซีพียู Intel และ AMD ไปใช้ Arm-based อาจมีผลต่อการพัฒนาแอปพลิเคชันที่ต้องปรับตัว
    - ต้องติดตามว่าการรวม AI เข้ากับซูเปอร์คอมพิวเตอร์จะส่งผลต่อความแม่นยำของการจำลองข้อมูลอย่างไร
    - การลงทุนในระบบนี้อาจส่งผลต่อการพัฒนาโครงสร้างพื้นฐานด้าน AI ในอนาคต

    Doudna เป็นตัวอย่างของการผสานรวม AI และการจำลองทางวิทยาศาสตร์ เพื่อเร่งความก้าวหน้าทางเทคโนโลยี หากระบบนี้สามารถทำงานได้ตามที่คาดหวัง

    https://www.techspot.com/news/108119-energy-department-doudna-supercomputer-signals-new-era-ai.html
    🚀 ซูเปอร์คอมพิวเตอร์ Doudna: ก้าวใหม่ของ AI และวิทยาศาสตร์ กระทรวงพลังงานสหรัฐฯ ประกาศแผนสร้าง ซูเปอร์คอมพิวเตอร์ Doudna ซึ่งจะตั้งอยู่ที่ ห้องปฏิบัติการแห่งชาติ Lawrence Berkeley โดยระบบนี้ได้รับการออกแบบมาเพื่อเร่งความก้าวหน้าทางวิทยาศาสตร์และ AI Doudna ได้รับการตั้งชื่อตาม Jennifer Doudna นักวิทยาศาสตร์เจ้าของรางวัลโนเบลที่มีบทบาทสำคัญในการพัฒนาเทคโนโลยี CRISPR gene editing ซูเปอร์คอมพิวเตอร์นี้จะใช้ แพลตฟอร์ม Vera Rubin ของ Nvidia ซึ่งรวมพลังของ AI และการจำลองทางวิทยาศาสตร์ เข้าด้วยกัน โดยใช้ ซีพียู Arm-based และ ชิป Rubin AI ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการจำลองข้อมูล ✅ ข้อมูลจากข่าว - Doudna จะตั้งอยู่ที่ Lawrence Berkeley National Laboratory และเริ่มใช้งานในปี 2026 - Dell Technologies ได้รับเลือกให้สร้างระบบนี้ ซึ่งถือเป็นการเปลี่ยนแปลงครั้งสำคัญในวงการซูเปอร์คอมพิวเตอร์ - ใช้แพลตฟอร์ม Vera Rubin ของ Nvidia ซึ่งรวมพลังของ AI และการจำลองทางวิทยาศาสตร์ - Doudna จะเร็วกว่า Perlmutter ซูเปอร์คอมพิวเตอร์รุ่นปัจจุบันกว่า 10 เท่า - ระบบนี้จะช่วยนักวิทยาศาสตร์กว่า 11,000 คนในการวิจัยด้านพลังงานความร้อนใต้พิภพและควอนตัมคอมพิวติ้ง ‼️ คำเตือนที่ควรพิจารณา - การใช้ AI ในการจำลองข้อมูลอาจต้องปรับเปลี่ยนแนวทางการคำนวณแบบดั้งเดิม - การเปลี่ยนจากซีพียู Intel และ AMD ไปใช้ Arm-based อาจมีผลต่อการพัฒนาแอปพลิเคชันที่ต้องปรับตัว - ต้องติดตามว่าการรวม AI เข้ากับซูเปอร์คอมพิวเตอร์จะส่งผลต่อความแม่นยำของการจำลองข้อมูลอย่างไร - การลงทุนในระบบนี้อาจส่งผลต่อการพัฒนาโครงสร้างพื้นฐานด้าน AI ในอนาคต Doudna เป็นตัวอย่างของการผสานรวม AI และการจำลองทางวิทยาศาสตร์ เพื่อเร่งความก้าวหน้าทางเทคโนโลยี หากระบบนี้สามารถทำงานได้ตามที่คาดหวัง https://www.techspot.com/news/108119-energy-department-doudna-supercomputer-signals-new-era-ai.html
    WWW.TECHSPOT.COM
    Dell, Nvidia, and Department of Energy join forces on "Doudna" supercomputer for science and AI
    The advanced system, to be housed at Lawrence Berkeley National Laboratory and scheduled to become operational in 2026, will be named "Doudna" in honor of Nobel laureate...
    0 Comments 0 Shares 237 Views 0 Reviews
  • Hygon และ Sugon รวมตัวเป็นยักษ์ใหญ่ด้านซูเปอร์คอมพิวเตอร์ของจีน

    จีน กำลังสร้างอาณาจักรซูเปอร์คอมพิวเตอร์ที่แข็งแกร่งขึ้น ด้วยการควบรวม Hygon Information Technology ซึ่งเป็นผู้พัฒนาชิป และ Sugon ซึ่งเป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ โดยการควบรวมนี้ เกิดขึ้นท่ามกลางมาตรการคว่ำบาตรของสหรัฐฯ ที่จำกัดการเข้าถึงเทคโนโลยีจากตะวันตก

    รายละเอียดสำคัญเกี่ยวกับการควบรวม Hygon และ Sugon
    Hygon เป็นบริษัทที่เคยใช้สถาปัตยกรรม Zen ของ AMD แต่ปัจจุบันพัฒนาไมโครอาร์คิเทคเจอร์ของตนเอง
    - ล่าสุด เปิดตัวชิป C86-5G ที่มี 128 คอร์ และรองรับ DDR5-5600

    Sugon เป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ที่ได้รับการสนับสนุนจาก Chinese Academy of Sciences
    - ช่วยให้ จีนติดอันดับ 3 ของโลกในด้านซูเปอร์คอมพิวเตอร์

    การควบรวมนี้เป็นการแลกเปลี่ยนหุ้น โดยหุ้นของทั้งสองบริษัทจะถูกนำออกจากตลาดเป็นเวลา 10 วัน
    - หลังจากนั้น บริษัทใหม่จะเข้าสู่ตลาดหลักทรัพย์เซี่ยงไฮ้

    ทั้ง Hygon และ Sugon อยู่ในรายชื่อ Entity List ของสหรัฐฯ ซึ่งหมายความว่าไม่สามารถเข้าถึงชิปจาก AMD, Intel และ Nvidia ได้โดยตรง
    - การควบรวมนี้ อาจช่วยให้จีนพัฒนาเทคโนโลยีของตนเองได้เร็วขึ้น

    นักวิเคราะห์คาดว่าการควบรวมนี้จะช่วยให้จีนสร้างโครงสร้างพื้นฐานด้าน AI และ Big Data ได้แข็งแกร่งขึ้น
    - เป็น ส่วนหนึ่งของแผนยุทธศาสตร์ของรัฐบาลจีนในการลดการพึ่งพาตะวันตก

    https://www.tomshardware.com/tech-industry/supercomputers/chinas-hygon-and-sugon-merge-to-form-a-vertically-integrated-supercomputing-giant-as-they-fend-off-us-sanctions
    Hygon และ Sugon รวมตัวเป็นยักษ์ใหญ่ด้านซูเปอร์คอมพิวเตอร์ของจีน จีน กำลังสร้างอาณาจักรซูเปอร์คอมพิวเตอร์ที่แข็งแกร่งขึ้น ด้วยการควบรวม Hygon Information Technology ซึ่งเป็นผู้พัฒนาชิป และ Sugon ซึ่งเป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ โดยการควบรวมนี้ เกิดขึ้นท่ามกลางมาตรการคว่ำบาตรของสหรัฐฯ ที่จำกัดการเข้าถึงเทคโนโลยีจากตะวันตก 🔍 รายละเอียดสำคัญเกี่ยวกับการควบรวม Hygon และ Sugon ✅ Hygon เป็นบริษัทที่เคยใช้สถาปัตยกรรม Zen ของ AMD แต่ปัจจุบันพัฒนาไมโครอาร์คิเทคเจอร์ของตนเอง - ล่าสุด เปิดตัวชิป C86-5G ที่มี 128 คอร์ และรองรับ DDR5-5600 ✅ Sugon เป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ที่ได้รับการสนับสนุนจาก Chinese Academy of Sciences - ช่วยให้ จีนติดอันดับ 3 ของโลกในด้านซูเปอร์คอมพิวเตอร์ ✅ การควบรวมนี้เป็นการแลกเปลี่ยนหุ้น โดยหุ้นของทั้งสองบริษัทจะถูกนำออกจากตลาดเป็นเวลา 10 วัน - หลังจากนั้น บริษัทใหม่จะเข้าสู่ตลาดหลักทรัพย์เซี่ยงไฮ้ ✅ ทั้ง Hygon และ Sugon อยู่ในรายชื่อ Entity List ของสหรัฐฯ ซึ่งหมายความว่าไม่สามารถเข้าถึงชิปจาก AMD, Intel และ Nvidia ได้โดยตรง - การควบรวมนี้ อาจช่วยให้จีนพัฒนาเทคโนโลยีของตนเองได้เร็วขึ้น ✅ นักวิเคราะห์คาดว่าการควบรวมนี้จะช่วยให้จีนสร้างโครงสร้างพื้นฐานด้าน AI และ Big Data ได้แข็งแกร่งขึ้น - เป็น ส่วนหนึ่งของแผนยุทธศาสตร์ของรัฐบาลจีนในการลดการพึ่งพาตะวันตก https://www.tomshardware.com/tech-industry/supercomputers/chinas-hygon-and-sugon-merge-to-form-a-vertically-integrated-supercomputing-giant-as-they-fend-off-us-sanctions
    0 Comments 0 Shares 306 Views 0 Reviews
  • รายงานสรุปจากงาน Microsoft Build 2025 วันที่ 2

    งาน Microsoft Build 2025 ซึ่งจัดขึ้นระหว่างวันที่ 19-22 พฤษภาคม 2568 ที่เมืองซีแอตเทิล มีการประกาศนวัตกรรมสำคัญมากมายในวันที่ 2 (20 พฤษภาคม 2568) โดยเน้นที่การพัฒนาเทคโนโลยี AI และเครื่องมือสำหรับนักพัฒนา ด้านล่างนี้เป็นรายละเอียดทั้งหมดที่ครอบคลุมทุกแง่มุมของงานในวันที่ 2:

    การพัฒนา AI และเทคโนโลยี Agentic

    - งานวันที่ 2 เริ่มต้นด้วย keynote สำหรับนักพัฒนา โดยเน้นรายละเอียดทางเทคนิคมากกว่าวันแรกของ Satya Nadella. มีการเปิดตัว Microsoft Discovery ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ Agent AI เพื่อเปลี่ยนแปลงกระบวนการวิจัยวิทยาศาสตร์ โดยช่วยในการจำลองสถานการณ์จริง เช่น การพัฒนาโซลูชันระบายความร้อน. John Link ได้สาธิตการใช้งานในงานนี้.

    - NLWeb เป็นเทคโนโลยีที่ช่วยให้การโต้ตอบด้วยภาษาธรรมชาติบนเว็บมีประสิทธิภาพมากขึ้น โดยเปลี่ยนเว็บไซต์ให้เป็นแอปพลิเคชันที่ขับเคลื่อนด้วย AI Agent พัฒนาโดย R.V. Guha และได้รับการสนับสนุนจากองค์กรต่างๆ เช่น O’Reilly Media, Snowflake, Shopify, และ Chicago Public Library. Windows AI Foundry ซึ่งก่อนหน้านี้ชื่อ Windows 11 Copilot Runtime เปิดตัวอย่างเป็นทางการ (GA) รองรับการทำงานบน CPU, GPU, และคลาวด์ พร้อมรุ่นสำหรับ Mac ซึ่งช่วยให้นักพัฒนาสามารถสร้างฟีเจอร์ AI ได้หลากหลายมากขึ้น.

    - AI Agents ถูกนำมาใช้ในงานต่างๆ เช่น การวางแผนการเดินทาง, ลดการเกิด hallucination, และการดูแลผู้ป่วยมะเร็งโดยการรวมข้อมูลทางการแพทย์และแบ่งปันกับโรงพยาบาลชุมชน. มีการพูดถึง Agentic Web ซึ่งเป็นแนวคิดใหม่ในการพัฒนาเว็บที่ขับเคลื่อนด้วย AI Agent เพื่อความเปิดกว้างและความเร็วในการสร้างเว็บไซต์.

    เครื่องมือสำหรับนักพัฒนา

    - มีการสาธิต GitHub Copilot ซึ่งได้รับการอัปเกรดให้เป็น "เพื่อนนักพัฒนา" หรือ "Project Padawan" โดยสามารถแก้บั๊ก, พัฒนาฟีเจอร์ใหม่, และจัดการ GitHub Issues ได้โดยอัตโนมัติ รวมถึงช่วยจัดการหลายงานพร้อมกันเพื่อเพิ่มประสิทธิภาพการทำงานของนักพัฒนา. GitHub Copilot เปิดตัวอย่างเป็นทางการสำหรับลูกค้า Copilot Enterprise และ Copilot Pro+ เหมาะสำหรับงานที่มีความซับซ้อนต่ำถึงปานกลาง.

    - Copilot Studio ได้รับการอัปเกรดด้วยคุณสมบัติสำหรับนักพัฒนามืออาวุโส รวมถึง M365 Copilot APIs (ในรูปแบบ preview) และ Bring Your Own Models จาก Azure Foundry (ในรูปแบบ preview). SQL Server 2025 เปิดตัวในรูปแบบ public preview พร้อมการรวม AI และความสามารถในการค้นหาเวกเตอร์ ซึ่งช่วยเพิ่มประสิทธิภาพในการจัดการฐานข้อมูล.

    - Microsoft ประกาศเปิดตัว Windows Subsystem for Linux (WSL) เป็นโอเพ่นซอร์ส รวมถึง "Mariner" Linux และ WSL-g UI layer, และมีแผนจะเปิดตัว GitHub Copilot Chat Extension สำหรับ VSCode เป็นโอเพ่นซอร์สในอีกไม่กี่สัปดาห์ข้างหน้า. นอกจากนี้ยังมีการพูดถึง Model Context Protocol (MCP) ซึ่ง Microsoft เข้าร่วม MCP Steering Committee และรองรับ MCP บนแพลตฟอร์มต่างๆ เช่น GitHub, Copilot Studio, Dynamics 365, Azure, Azure AI Foundry, Semantic Kernel, Foundry Agents, และ Windows 11.

    Microsoft 365 และ Copilot
    Microsoft 365 Copilot Wave 2 Spring Release มีการอัปเดตใหม่สำหรับการทำงานร่วมกันระหว่างมนุษย์และ AI Agent รวมถึง:

    - แอปที่อัปเดตสำหรับการทำงานร่วมกัน.
    - ประสบการณ์การสร้างด้วย OpenAI GPT-4o สำหรับการสร้างภาพ.
    - Copilot Notebooks เปิดตัวอย่างเป็นทางการ (GA).
    - Copilot Search และ Copilot Memory จะเริ่มใช้งานในเดือนมิถุนายน.
    - Researcher และ Analyst agents ผ่านโปรแกรม Frontier จะเริ่มในเดือนนี้.

    Power Apps มีการประกาศคุณสมบัติใหม่ เช่น:
    - Solution Workspace เปิดตัวอย่างเป็นทางการวันที่ 30 พฤษภาคม.
    - Generative pages ด้วย React code (Early Access Program).
    - Agent feed สำหรับแอป (Early Access Program).
    - นำแอปแบบ code-first มายัง Power Platform (Early Access Program).

    ความร่วมมือและนวัตกรรม
    - มีการร่วมมือกับ Nvidia โดย Jensen Huang กล่าวถึงการเร่งการทำงานของ AI และการจัดการงานหนักด้วย CUDA. นอกจากนี้ยังมีความร่วมมือกับ xAI โดย Elon Musk ปรากฏตัวผ่านวิดีโอและประกาศว่า Grok 3 และ Grok 3 Mini จะมีบน Azure AI Foundry เพื่อเพิ่มความแม่นยำและลดข้อผิดพลาดของ AI โดยใช้กฎหมายฟิสิกส์.

    - MyEngine AI ถูกนำมาใช้เพื่อช่วยผู้ที่มีปัญหาการได้ยินเข้าใจสำเนียงท้องถิ่นได้ดีขึ้น. AI ยังถูกนำมาใช้ในด้านที่น่าสนใจ เช่น การพยากรณ์อากาศด้วย supercomputer บนคลาวด์ ซึ่งต้องการพลังการคำนวณสูงเพื่อเพิ่มความแม่นยำ และ AI สำหรับ NFL Combine ซึ่งมีการสาธิตผ่านวิดีโอ (AI for NFL Combine).

    ความปลอดภัยและการจัดการ
    - Microsoft ขยายการใช้งาน Entra, Defender for Cloud, และ Purview เข้าสู่ Azure AI Foundry และ Copilot Studio เพื่อเพิ่มความปลอดภัย. Entra Agent ID เปิดตัวในรูปแบบ preview เพื่อจัดการ AI Agents ซึ่งช่วยในการควบคุมและปกป้องการทำงานของ AI.

    บุคคลสำคัญและการปรากฏตัว
    - งานวันที่ 2 มีการปรากฏตัวของบุคคลสำคัญผ่านวิดีโอ เช่น Sam Altman (OpenAI) ที่กล่าวถึงการจัดการงาน AI ขนาดใหญ่ และ Elon Musk (xAI) ที่พูดถึงความร่วมมือกับ Microsoft ในการนำ Grok 3 และ Grok 3 Mini มาใช้บน Azure.
    รายงานสรุปจากงาน Microsoft Build 2025 วันที่ 2 งาน Microsoft Build 2025 ซึ่งจัดขึ้นระหว่างวันที่ 19-22 พฤษภาคม 2568 ที่เมืองซีแอตเทิล มีการประกาศนวัตกรรมสำคัญมากมายในวันที่ 2 (20 พฤษภาคม 2568) โดยเน้นที่การพัฒนาเทคโนโลยี AI และเครื่องมือสำหรับนักพัฒนา ด้านล่างนี้เป็นรายละเอียดทั้งหมดที่ครอบคลุมทุกแง่มุมของงานในวันที่ 2: ℹ️ การพัฒนา AI และเทคโนโลยี Agentic - งานวันที่ 2 เริ่มต้นด้วย keynote สำหรับนักพัฒนา โดยเน้นรายละเอียดทางเทคนิคมากกว่าวันแรกของ Satya Nadella. มีการเปิดตัว Microsoft Discovery ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ Agent AI เพื่อเปลี่ยนแปลงกระบวนการวิจัยวิทยาศาสตร์ โดยช่วยในการจำลองสถานการณ์จริง เช่น การพัฒนาโซลูชันระบายความร้อน. John Link ได้สาธิตการใช้งานในงานนี้. - NLWeb เป็นเทคโนโลยีที่ช่วยให้การโต้ตอบด้วยภาษาธรรมชาติบนเว็บมีประสิทธิภาพมากขึ้น โดยเปลี่ยนเว็บไซต์ให้เป็นแอปพลิเคชันที่ขับเคลื่อนด้วย AI Agent พัฒนาโดย R.V. Guha และได้รับการสนับสนุนจากองค์กรต่างๆ เช่น O’Reilly Media, Snowflake, Shopify, และ Chicago Public Library. Windows AI Foundry ซึ่งก่อนหน้านี้ชื่อ Windows 11 Copilot Runtime เปิดตัวอย่างเป็นทางการ (GA) รองรับการทำงานบน CPU, GPU, และคลาวด์ พร้อมรุ่นสำหรับ Mac ซึ่งช่วยให้นักพัฒนาสามารถสร้างฟีเจอร์ AI ได้หลากหลายมากขึ้น. - AI Agents ถูกนำมาใช้ในงานต่างๆ เช่น การวางแผนการเดินทาง, ลดการเกิด hallucination, และการดูแลผู้ป่วยมะเร็งโดยการรวมข้อมูลทางการแพทย์และแบ่งปันกับโรงพยาบาลชุมชน. มีการพูดถึง Agentic Web ซึ่งเป็นแนวคิดใหม่ในการพัฒนาเว็บที่ขับเคลื่อนด้วย AI Agent เพื่อความเปิดกว้างและความเร็วในการสร้างเว็บไซต์. ℹ️ เครื่องมือสำหรับนักพัฒนา - มีการสาธิต GitHub Copilot ซึ่งได้รับการอัปเกรดให้เป็น "เพื่อนนักพัฒนา" หรือ "Project Padawan" โดยสามารถแก้บั๊ก, พัฒนาฟีเจอร์ใหม่, และจัดการ GitHub Issues ได้โดยอัตโนมัติ รวมถึงช่วยจัดการหลายงานพร้อมกันเพื่อเพิ่มประสิทธิภาพการทำงานของนักพัฒนา. GitHub Copilot เปิดตัวอย่างเป็นทางการสำหรับลูกค้า Copilot Enterprise และ Copilot Pro+ เหมาะสำหรับงานที่มีความซับซ้อนต่ำถึงปานกลาง. - Copilot Studio ได้รับการอัปเกรดด้วยคุณสมบัติสำหรับนักพัฒนามืออาวุโส รวมถึง M365 Copilot APIs (ในรูปแบบ preview) และ Bring Your Own Models จาก Azure Foundry (ในรูปแบบ preview). SQL Server 2025 เปิดตัวในรูปแบบ public preview พร้อมการรวม AI และความสามารถในการค้นหาเวกเตอร์ ซึ่งช่วยเพิ่มประสิทธิภาพในการจัดการฐานข้อมูล. - Microsoft ประกาศเปิดตัว Windows Subsystem for Linux (WSL) เป็นโอเพ่นซอร์ส รวมถึง "Mariner" Linux และ WSL-g UI layer, และมีแผนจะเปิดตัว GitHub Copilot Chat Extension สำหรับ VSCode เป็นโอเพ่นซอร์สในอีกไม่กี่สัปดาห์ข้างหน้า. นอกจากนี้ยังมีการพูดถึง Model Context Protocol (MCP) ซึ่ง Microsoft เข้าร่วม MCP Steering Committee และรองรับ MCP บนแพลตฟอร์มต่างๆ เช่น GitHub, Copilot Studio, Dynamics 365, Azure, Azure AI Foundry, Semantic Kernel, Foundry Agents, และ Windows 11. ℹ️ Microsoft 365 และ Copilot ➡️ Microsoft 365 Copilot Wave 2 Spring Release มีการอัปเดตใหม่สำหรับการทำงานร่วมกันระหว่างมนุษย์และ AI Agent รวมถึง: - แอปที่อัปเดตสำหรับการทำงานร่วมกัน. - ประสบการณ์การสร้างด้วย OpenAI GPT-4o สำหรับการสร้างภาพ. - Copilot Notebooks เปิดตัวอย่างเป็นทางการ (GA). - Copilot Search และ Copilot Memory จะเริ่มใช้งานในเดือนมิถุนายน. - Researcher และ Analyst agents ผ่านโปรแกรม Frontier จะเริ่มในเดือนนี้. ➡️ Power Apps มีการประกาศคุณสมบัติใหม่ เช่น: - Solution Workspace เปิดตัวอย่างเป็นทางการวันที่ 30 พฤษภาคม. - Generative pages ด้วย React code (Early Access Program). - Agent feed สำหรับแอป (Early Access Program). - นำแอปแบบ code-first มายัง Power Platform (Early Access Program). ℹ️ ความร่วมมือและนวัตกรรม - มีการร่วมมือกับ Nvidia โดย Jensen Huang กล่าวถึงการเร่งการทำงานของ AI และการจัดการงานหนักด้วย CUDA. นอกจากนี้ยังมีความร่วมมือกับ xAI โดย Elon Musk ปรากฏตัวผ่านวิดีโอและประกาศว่า Grok 3 และ Grok 3 Mini จะมีบน Azure AI Foundry เพื่อเพิ่มความแม่นยำและลดข้อผิดพลาดของ AI โดยใช้กฎหมายฟิสิกส์. - MyEngine AI ถูกนำมาใช้เพื่อช่วยผู้ที่มีปัญหาการได้ยินเข้าใจสำเนียงท้องถิ่นได้ดีขึ้น. AI ยังถูกนำมาใช้ในด้านที่น่าสนใจ เช่น การพยากรณ์อากาศด้วย supercomputer บนคลาวด์ ซึ่งต้องการพลังการคำนวณสูงเพื่อเพิ่มความแม่นยำ และ AI สำหรับ NFL Combine ซึ่งมีการสาธิตผ่านวิดีโอ (AI for NFL Combine). ℹ️ ความปลอดภัยและการจัดการ - Microsoft ขยายการใช้งาน Entra, Defender for Cloud, และ Purview เข้าสู่ Azure AI Foundry และ Copilot Studio เพื่อเพิ่มความปลอดภัย. Entra Agent ID เปิดตัวในรูปแบบ preview เพื่อจัดการ AI Agents ซึ่งช่วยในการควบคุมและปกป้องการทำงานของ AI. ℹ️ บุคคลสำคัญและการปรากฏตัว - งานวันที่ 2 มีการปรากฏตัวของบุคคลสำคัญผ่านวิดีโอ เช่น Sam Altman (OpenAI) ที่กล่าวถึงการจัดการงาน AI ขนาดใหญ่ และ Elon Musk (xAI) ที่พูดถึงความร่วมมือกับ Microsoft ในการนำ Grok 3 และ Grok 3 Mini มาใช้บน Azure.
    0 Comments 0 Shares 574 Views 0 Reviews
  • Gigabyte เปิดตัว AI Supercomputer ขนาดเล็ก DGX Spark รุ่นพิเศษ

    Gigabyte เปิดตัว AI Supercomputer รุ่นพิเศษที่พัฒนาจาก NVIDIA DGX Spark ในงาน Computex 2025 โดยใช้ชื่อ AI TOP ATOM ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ขนาดเล็กที่ให้พลังประมวลผล AI สูงถึง 1,000 TOPS

    รายละเอียดสำคัญเกี่ยวกับ AI TOP ATOM ของ Gigabyte
    ใช้ชิป GB10 Grace Blackwell Superchip ที่มี NVIDIA Blackwell GPU
    - รองรับ Tensor Cores รุ่นที่ 5 และ FP4 สำหรับการประมวลผล AI

    พลังประมวลผลสูงถึง 1,000 TOPS หรือ 1,000 ล้านล้านคำสั่งต่อวินาที
    - สูงกว่าหน่วยประมวลผล NPU ทั่วไปถึง 20-50 เท่า

    ใช้เทคโนโลยี NVLink-C2C เพื่อเชื่อมต่อ CPU และ GPU ให้ทำงานร่วมกันได้อย่างมีประสิทธิภาพ
    - มี แบนด์วิดท์สูงกว่ามาตรฐาน PCIe รุ่นที่ 5 ถึง 5 เท่า

    ใช้หน่วยความจำ LPDDR5X จาก Micron เพื่อเพิ่มประสิทธิภาพการทำงาน
    - ช่วยให้ สามารถประมวลผลโมเดล AI ที่มีพารามิเตอร์สูงถึง 70 พันล้านตัว

    รองรับการทำงานร่วมกันระหว่างสองเครื่องผ่าน NVIDIA Connect-X
    - ทำให้สามารถ เพิ่มพารามิเตอร์ของโมเดล AI ได้สูงถึง 405 พันล้านตัว

    https://wccftech.com/gigabyte-unveils-its-custom-nvidia-dgx-spark-mini-ai-supercomputer/
    Gigabyte เปิดตัว AI Supercomputer ขนาดเล็ก DGX Spark รุ่นพิเศษ Gigabyte เปิดตัว AI Supercomputer รุ่นพิเศษที่พัฒนาจาก NVIDIA DGX Spark ในงาน Computex 2025 โดยใช้ชื่อ AI TOP ATOM ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ขนาดเล็กที่ให้พลังประมวลผล AI สูงถึง 1,000 TOPS 🔍 รายละเอียดสำคัญเกี่ยวกับ AI TOP ATOM ของ Gigabyte ✅ ใช้ชิป GB10 Grace Blackwell Superchip ที่มี NVIDIA Blackwell GPU - รองรับ Tensor Cores รุ่นที่ 5 และ FP4 สำหรับการประมวลผล AI ✅ พลังประมวลผลสูงถึง 1,000 TOPS หรือ 1,000 ล้านล้านคำสั่งต่อวินาที - สูงกว่าหน่วยประมวลผล NPU ทั่วไปถึง 20-50 เท่า ✅ ใช้เทคโนโลยี NVLink-C2C เพื่อเชื่อมต่อ CPU และ GPU ให้ทำงานร่วมกันได้อย่างมีประสิทธิภาพ - มี แบนด์วิดท์สูงกว่ามาตรฐาน PCIe รุ่นที่ 5 ถึง 5 เท่า ✅ ใช้หน่วยความจำ LPDDR5X จาก Micron เพื่อเพิ่มประสิทธิภาพการทำงาน - ช่วยให้ สามารถประมวลผลโมเดล AI ที่มีพารามิเตอร์สูงถึง 70 พันล้านตัว ✅ รองรับการทำงานร่วมกันระหว่างสองเครื่องผ่าน NVIDIA Connect-X - ทำให้สามารถ เพิ่มพารามิเตอร์ของโมเดล AI ได้สูงถึง 405 พันล้านตัว https://wccftech.com/gigabyte-unveils-its-custom-nvidia-dgx-spark-mini-ai-supercomputer/
    WCCFTECH.COM
    Gigabyte Unveils Its Custom NVIDIA "DGX Spark" Mini-AI Supercomputer: The AI TOP ATOM Offering a Whopping 1,000 TOPS of AI Power
    Gigabyte also decided to take its shot at the AI segment as well, unveiling a custom variant of NVIDIA's DGX Spark, the AI TOP ATOM.
    0 Comments 0 Shares 188 Views 0 Reviews
  • MSI เปิดตัว EdgeXpert MS-C931: AI Supercomputer หรือแค่การตลาด?

    MSI เปิดตัว EdgeXpert MS-C931 ซึ่งเป็นเดสก์ท็อปที่ใช้แพลตฟอร์ม Nvidia DGX Spark โดยมีเป้าหมายเพื่อให้เป็น "AI Supercomputer" สำหรับนักพัฒนาและองค์กรที่ต้องการพลังประมวลผล AI ในระดับสูง อย่างไรก็ตาม ยังมีข้อสงสัยเกี่ยวกับความสามารถที่แท้จริงของอุปกรณ์นี้

    รายละเอียดสำคัญเกี่ยวกับ MSI EdgeXpert MS-C931
    ใช้ Nvidia GB10 Grace Blackwell Superchip
    - ให้ พลังประมวลผล AI สูงสุด 1,000 TOPS (FP4)

    มีหน่วยความจำรวม 128GB และรองรับ ConnectX-7 high-speed networking
    - เหมาะสำหรับ การประมวลผล AI ที่ต้องการแบนด์วิดท์สูง

    MSI ระบุว่าอุปกรณ์นี้เหมาะสำหรับภาคการศึกษา, การเงิน และการดูแลสุขภาพ
    - เนื่องจาก ต้องการความเป็นส่วนตัวของข้อมูลและความหน่วงต่ำ

    สามารถใช้เป็น Workstation สำหรับการพัฒนา AI และการจำลองขนาดใหญ่
    - มี ประสิทธิภาพสูงในการรันโมเดล Machine Learning

    จะถูกนำเสนอในงาน Computex 2025
    - MSI หวังว่าจะเป็นตัวเลือกใหม่สำหรับองค์กรที่ต้องการพลัง AI ในระดับสูง

    https://www.techradar.com/computing/cloud-computing/after-asus-and-dell-msi-is-launching-a-nvidia-dgx-spark-clone-but-i-am-still-skeptical-about-the-whole-desktop-ai-supercomputer-moniker
    MSI เปิดตัว EdgeXpert MS-C931: AI Supercomputer หรือแค่การตลาด? MSI เปิดตัว EdgeXpert MS-C931 ซึ่งเป็นเดสก์ท็อปที่ใช้แพลตฟอร์ม Nvidia DGX Spark โดยมีเป้าหมายเพื่อให้เป็น "AI Supercomputer" สำหรับนักพัฒนาและองค์กรที่ต้องการพลังประมวลผล AI ในระดับสูง อย่างไรก็ตาม ยังมีข้อสงสัยเกี่ยวกับความสามารถที่แท้จริงของอุปกรณ์นี้ 🔍 รายละเอียดสำคัญเกี่ยวกับ MSI EdgeXpert MS-C931 ✅ ใช้ Nvidia GB10 Grace Blackwell Superchip - ให้ พลังประมวลผล AI สูงสุด 1,000 TOPS (FP4) ✅ มีหน่วยความจำรวม 128GB และรองรับ ConnectX-7 high-speed networking - เหมาะสำหรับ การประมวลผล AI ที่ต้องการแบนด์วิดท์สูง ✅ MSI ระบุว่าอุปกรณ์นี้เหมาะสำหรับภาคการศึกษา, การเงิน และการดูแลสุขภาพ - เนื่องจาก ต้องการความเป็นส่วนตัวของข้อมูลและความหน่วงต่ำ ✅ สามารถใช้เป็น Workstation สำหรับการพัฒนา AI และการจำลองขนาดใหญ่ - มี ประสิทธิภาพสูงในการรันโมเดล Machine Learning ✅ จะถูกนำเสนอในงาน Computex 2025 - MSI หวังว่าจะเป็นตัวเลือกใหม่สำหรับองค์กรที่ต้องการพลัง AI ในระดับสูง https://www.techradar.com/computing/cloud-computing/after-asus-and-dell-msi-is-launching-a-nvidia-dgx-spark-clone-but-i-am-still-skeptical-about-the-whole-desktop-ai-supercomputer-moniker
    0 Comments 0 Shares 331 Views 0 Reviews
  • Google, Microsoft และ Meta นำเทคโนโลยีจากรถยนต์ไฟฟ้ามาใช้ในศูนย์ข้อมูล

    ศูนย์ข้อมูลกำลังเผชิญกับความต้องการพลังงานที่เพิ่มขึ้นอย่างมหาศาลจาก AI workloads ทำให้บริษัทเทคโนโลยีรายใหญ่ต้องปรับโครงสร้างพื้นฐาน โดยนำ ระบบไฟฟ้า 400VDC และระบบระบายความร้อนด้วยของเหลว ซึ่งเคยใช้ใน รถยนต์ไฟฟ้า (EVs) มาปรับใช้กับเซิร์ฟเวอร์ที่ต้องการพลังงานสูง

    รายละเอียดสำคัญเกี่ยวกับการเปลี่ยนแปลงในศูนย์ข้อมูล
    Google ใช้ระบบไฟฟ้า 400VDC เพื่อเพิ่มประสิทธิภาพการใช้พลังงาน
    - ลดพื้นที่ที่ใช้สำหรับระบบจ่ายไฟ ทำให้มีพื้นที่สำหรับเซิร์ฟเวอร์มากขึ้น

    Meta, Microsoft และ Open Compute Project (OCP) สนับสนุนมาตรฐาน Mt. Diablo
    - เป็น มาตรฐานใหม่สำหรับการจ่ายไฟในศูนย์ข้อมูล

    Google TPU Supercomputers ทำงานที่ระดับกิกะวัตต์ พร้อม uptime 99.999%
    - ใช้ ระบบระบายความร้อนด้วยของเหลวแทนฮีตซิงค์แบบเดิม

    ชิป AI รุ่นใหม่ใช้พลังงานมากกว่า 1,000 วัตต์ต่อชิป
    - ทำให้ ระบบระบายความร้อนด้วยอากาศเริ่มไม่เพียงพอ

    การใช้เทคโนโลยีจาก EVs ช่วยเพิ่มประสิทธิภาพการใช้พลังงานขึ้น 3%
    - ลด การสูญเสียพลังงานจากการแปลงไฟฟ้า

    https://www.techradar.com/pro/microsoft-google-and-meta-have-borrowed-ev-tech-for-the-next-big-thing-in-data-center-1mw-watercooled-racks
    Google, Microsoft และ Meta นำเทคโนโลยีจากรถยนต์ไฟฟ้ามาใช้ในศูนย์ข้อมูล ศูนย์ข้อมูลกำลังเผชิญกับความต้องการพลังงานที่เพิ่มขึ้นอย่างมหาศาลจาก AI workloads ทำให้บริษัทเทคโนโลยีรายใหญ่ต้องปรับโครงสร้างพื้นฐาน โดยนำ ระบบไฟฟ้า 400VDC และระบบระบายความร้อนด้วยของเหลว ซึ่งเคยใช้ใน รถยนต์ไฟฟ้า (EVs) มาปรับใช้กับเซิร์ฟเวอร์ที่ต้องการพลังงานสูง 🔍 รายละเอียดสำคัญเกี่ยวกับการเปลี่ยนแปลงในศูนย์ข้อมูล ✅ Google ใช้ระบบไฟฟ้า 400VDC เพื่อเพิ่มประสิทธิภาพการใช้พลังงาน - ลดพื้นที่ที่ใช้สำหรับระบบจ่ายไฟ ทำให้มีพื้นที่สำหรับเซิร์ฟเวอร์มากขึ้น ✅ Meta, Microsoft และ Open Compute Project (OCP) สนับสนุนมาตรฐาน Mt. Diablo - เป็น มาตรฐานใหม่สำหรับการจ่ายไฟในศูนย์ข้อมูล ✅ Google TPU Supercomputers ทำงานที่ระดับกิกะวัตต์ พร้อม uptime 99.999% - ใช้ ระบบระบายความร้อนด้วยของเหลวแทนฮีตซิงค์แบบเดิม ✅ ชิป AI รุ่นใหม่ใช้พลังงานมากกว่า 1,000 วัตต์ต่อชิป - ทำให้ ระบบระบายความร้อนด้วยอากาศเริ่มไม่เพียงพอ ✅ การใช้เทคโนโลยีจาก EVs ช่วยเพิ่มประสิทธิภาพการใช้พลังงานขึ้น 3% - ลด การสูญเสียพลังงานจากการแปลงไฟฟ้า https://www.techradar.com/pro/microsoft-google-and-meta-have-borrowed-ev-tech-for-the-next-big-thing-in-data-center-1mw-watercooled-racks
    0 Comments 0 Shares 273 Views 0 Reviews
  • MSI เปิดตัวซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อปที่ Computex 2025

    MSI เตรียมเปิดตัว EdgeXpert MS-C931 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อป ที่ใช้ แพลตฟอร์ม Nvidia DGX Spark โดยอุปกรณ์นี้มาพร้อมกับ GB10 Grace Blackwell Superchip ที่สามารถประมวลผลได้ถึง 1,000 AI TOPS FP4

    ใช้ Nvidia GB10 Grace Blackwell Superchip
    - ประกอบด้วย สถาปัตยกรรม Blackwell GPU และ Tensor Cores รุ่นที่ 5

    รองรับ NVLink-C2C เชื่อมต่อกับ Nvidia Grace CPU
    - ใช้ สถาปัตยกรรม Arm พร้อม 20 คอร์ที่ประหยัดพลังงาน

    มาพร้อมกับ ConnectX 7 networking และหน่วยความจำรวม 128GB
    - รองรับ LLM ขนาดสูงสุด 200 พันล้านพารามิเตอร์ และ 405 พันล้านพารามิเตอร์เมื่อใช้สองชิป

    สามารถรองรับ NVMe storage สูงสุด 4TB
    - ช่วยให้ การประมวลผลโมเดล AI มีประสิทธิภาพสูงขึ้น

    มาพร้อมกับซอฟต์แวร์ AI ของ Nvidia ที่รองรับโมเดลจาก DeepSeek, Meta และ Google
    - ช่วยให้ นักพัฒนาสามารถใช้งานโมเดล AI ได้ง่ายขึ้น

    https://www.tomshardware.com/desktops/mini-pcs/msi-to-unveil-desktop-ai-supercomputer-at-computex-2025-powered-by-nvidia-dgx
    MSI เปิดตัวซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อปที่ Computex 2025 MSI เตรียมเปิดตัว EdgeXpert MS-C931 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อป ที่ใช้ แพลตฟอร์ม Nvidia DGX Spark โดยอุปกรณ์นี้มาพร้อมกับ GB10 Grace Blackwell Superchip ที่สามารถประมวลผลได้ถึง 1,000 AI TOPS FP4 ✅ ใช้ Nvidia GB10 Grace Blackwell Superchip - ประกอบด้วย สถาปัตยกรรม Blackwell GPU และ Tensor Cores รุ่นที่ 5 ✅ รองรับ NVLink-C2C เชื่อมต่อกับ Nvidia Grace CPU - ใช้ สถาปัตยกรรม Arm พร้อม 20 คอร์ที่ประหยัดพลังงาน ✅ มาพร้อมกับ ConnectX 7 networking และหน่วยความจำรวม 128GB - รองรับ LLM ขนาดสูงสุด 200 พันล้านพารามิเตอร์ และ 405 พันล้านพารามิเตอร์เมื่อใช้สองชิป ✅ สามารถรองรับ NVMe storage สูงสุด 4TB - ช่วยให้ การประมวลผลโมเดล AI มีประสิทธิภาพสูงขึ้น ✅ มาพร้อมกับซอฟต์แวร์ AI ของ Nvidia ที่รองรับโมเดลจาก DeepSeek, Meta และ Google - ช่วยให้ นักพัฒนาสามารถใช้งานโมเดล AI ได้ง่ายขึ้น https://www.tomshardware.com/desktops/mini-pcs/msi-to-unveil-desktop-ai-supercomputer-at-computex-2025-powered-by-nvidia-dgx
    WWW.TOMSHARDWARE.COM
    MSI to unveil desktop AI supercomputer at Computex 2025, powered by Nvidia DGX
    MSI is also expanding its deskstop system and unveiling a new motherboard
    0 Comments 0 Shares 270 Views 0 Reviews
  • ที่งาน Nico Nico Super Conference ในญี่ปุ่น ซูเปอร์คอมพิวเตอร์ Fugaku ได้เข้าร่วมการแข่งขัน Super Keisan Battle ซึ่งเป็นเกมที่ให้ผู้เข้าแข่งขันพยายามแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที โดยมีรางวัลเป็น "Fugaku One-Day Unlimited Ticket" ที่ให้ผู้ชนะสามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน

    อย่างไรก็ตาม ไม่มีใครสามารถเอาชนะ Fugaku ได้ เพราะมันสามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้ง ในเวลาเพียง 10 วินาที ขณะที่มนุษย์ที่ทำคะแนนสูงสุดสามารถแก้โจทย์ได้เพียง 13 ข้อ

    Fugaku สามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้งใน 10 วินาที
    - เทียบกับมนุษย์ที่ทำคะแนนสูงสุดได้เพียง 13 ข้อ

    ผู้เข้าแข่งขันต้องแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที
    - ส่วนใหญ่ทำได้ประมาณ 10-11 ข้อ

    รางวัลสำหรับผู้ชนะคือ "Fugaku One-Day Unlimited Ticket"
    - สามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน

    แม้จะแพ้ แต่ผู้เข้าแข่งขันยังได้รับรางวัลปลอบใจเป็นโมเดลจำลองของ Fugaku
    - เป็นของที่ระลึกจากการแข่งขัน

    Fugaku ถูกใช้ในการวิจัยด้านการป้องกันภัยพิบัติ เช่น การจำลองน้ำท่วมและแผนการอพยพที่เหมาะสม
    - แสดงให้เห็นถึง ความสำคัญของซูเปอร์คอมพิวเตอร์ในงานวิจัยระดับประเทศ

    https://www.tomshardware.com/tech-industry/supercomputers/supercomputer-beats-human-four-sextillion-to-13-in-super-keisan-battle-at-japanese-tech-show
    ที่งาน Nico Nico Super Conference ในญี่ปุ่น ซูเปอร์คอมพิวเตอร์ Fugaku ได้เข้าร่วมการแข่งขัน Super Keisan Battle ซึ่งเป็นเกมที่ให้ผู้เข้าแข่งขันพยายามแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที โดยมีรางวัลเป็น "Fugaku One-Day Unlimited Ticket" ที่ให้ผู้ชนะสามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน อย่างไรก็ตาม ไม่มีใครสามารถเอาชนะ Fugaku ได้ เพราะมันสามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้ง ในเวลาเพียง 10 วินาที ขณะที่มนุษย์ที่ทำคะแนนสูงสุดสามารถแก้โจทย์ได้เพียง 13 ข้อ ✅ Fugaku สามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้งใน 10 วินาที - เทียบกับมนุษย์ที่ทำคะแนนสูงสุดได้เพียง 13 ข้อ ✅ ผู้เข้าแข่งขันต้องแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที - ส่วนใหญ่ทำได้ประมาณ 10-11 ข้อ ✅ รางวัลสำหรับผู้ชนะคือ "Fugaku One-Day Unlimited Ticket" - สามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน ✅ แม้จะแพ้ แต่ผู้เข้าแข่งขันยังได้รับรางวัลปลอบใจเป็นโมเดลจำลองของ Fugaku - เป็นของที่ระลึกจากการแข่งขัน ✅ Fugaku ถูกใช้ในการวิจัยด้านการป้องกันภัยพิบัติ เช่น การจำลองน้ำท่วมและแผนการอพยพที่เหมาะสม - แสดงให้เห็นถึง ความสำคัญของซูเปอร์คอมพิวเตอร์ในงานวิจัยระดับประเทศ https://www.tomshardware.com/tech-industry/supercomputers/supercomputer-beats-human-four-sextillion-to-13-in-super-keisan-battle-at-japanese-tech-show
    WWW.TOMSHARDWARE.COM
    Supercomputer beats human four sextillion to 13 in ‘Super Keisan Battle’ at Japanese tech show
    If you could beat Fugaku at the Nico Nico Super Conference you could do what you want with it for a whole day.
    0 Comments 0 Shares 358 Views 0 Reviews
  • NVIDIA GB10: ก้าวสำคัญสู่ตลาดโปรเซสเซอร์ Arm สำหรับเวิร์กสเตชัน NVIDIA กำลังเตรียมเปิดตัว GB10 Grace Blackwell ซึ่งเป็น โปรเซสเซอร์ Arm-based รุ่นแรกของบริษัท โดยมีข้อมูลหลุดจาก Geekbench ที่เผยให้เห็นว่า GB10 มีคอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz และมีประสิทธิภาพที่สามารถแข่งขันกับ โปรเซสเซอร์ Arm และ x86 ระดับสูง

    GB10 คาดว่าจะถูกนำเสนอในงาน Computex 2025 พร้อมกับ N1 และ N1X ซึ่งเป็นโปรเซสเซอร์ที่พัฒนาโดย MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป นอกจากนี้ ASUS และ Dell ได้เริ่มนำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว รวมถึง Project DIGITS AI supercomputer ของ NVIDIA ที่เปิดตัวในงาน CES 2025

    GB10 เป็นโปรเซสเซอร์ Arm-based รุ่นแรกของ NVIDIA
    - ใช้ คอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz

    คาดว่าจะเปิดตัวในงาน Computex 2025
    - พร้อมกับ N1 และ N1X ของ MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป

    ASUS และ Dell ได้นำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว
    - รวมถึง Project DIGITS AI supercomputer ของ NVIDIA

    GB10 มีประสิทธิภาพที่สามารถแข่งขันกับโปรเซสเซอร์ Arm และ x86 ระดับสูง
    - แต่ Apple M4 Max ยังคงมีคะแนนนำในด้าน single-core performance

    Project DIGITS AI supercomputer มีราคาเริ่มต้นที่ $2,999 และพร้อมจำหน่ายในเดือนนี้
    - เป็น หนึ่งในผลิตภัณฑ์ที่ใช้ GB10 เป็นโปรเซสเซอร์หลัก

    https://www.techpowerup.com/336586/nvidias-gb10-arm-superchip-looks-promising-in-leaked-benchmark-results
    NVIDIA GB10: ก้าวสำคัญสู่ตลาดโปรเซสเซอร์ Arm สำหรับเวิร์กสเตชัน NVIDIA กำลังเตรียมเปิดตัว GB10 Grace Blackwell ซึ่งเป็น โปรเซสเซอร์ Arm-based รุ่นแรกของบริษัท โดยมีข้อมูลหลุดจาก Geekbench ที่เผยให้เห็นว่า GB10 มีคอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz และมีประสิทธิภาพที่สามารถแข่งขันกับ โปรเซสเซอร์ Arm และ x86 ระดับสูง GB10 คาดว่าจะถูกนำเสนอในงาน Computex 2025 พร้อมกับ N1 และ N1X ซึ่งเป็นโปรเซสเซอร์ที่พัฒนาโดย MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป นอกจากนี้ ASUS และ Dell ได้เริ่มนำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว รวมถึง Project DIGITS AI supercomputer ของ NVIDIA ที่เปิดตัวในงาน CES 2025 ✅ GB10 เป็นโปรเซสเซอร์ Arm-based รุ่นแรกของ NVIDIA - ใช้ คอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz ✅ คาดว่าจะเปิดตัวในงาน Computex 2025 - พร้อมกับ N1 และ N1X ของ MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป ✅ ASUS และ Dell ได้นำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว - รวมถึง Project DIGITS AI supercomputer ของ NVIDIA ✅ GB10 มีประสิทธิภาพที่สามารถแข่งขันกับโปรเซสเซอร์ Arm และ x86 ระดับสูง - แต่ Apple M4 Max ยังคงมีคะแนนนำในด้าน single-core performance ✅ Project DIGITS AI supercomputer มีราคาเริ่มต้นที่ $2,999 และพร้อมจำหน่ายในเดือนนี้ - เป็น หนึ่งในผลิตภัณฑ์ที่ใช้ GB10 เป็นโปรเซสเซอร์หลัก https://www.techpowerup.com/336586/nvidias-gb10-arm-superchip-looks-promising-in-leaked-benchmark-results
    WWW.TECHPOWERUP.COM
    NVIDIA's GB10 Arm Superchip Looks Promising in Leaked Benchmark Results
    Recent benchmark leaks from Geekbench have revealed that NVIDIA's first Arm-based "superchip," the GB10 Grace Blackwell, is on the verge of its market launch as reported by Notebookcheck. This processor is expected to be showcased at Computex 2025 later this month, where NVIDIA may also roll out the...
    0 Comments 0 Shares 273 Views 0 Reviews
  • Cadence เปิดตัวซูเปอร์คอมพิวเตอร์ AI ใหม่ ใช้ GPU Nvidia RTX Pro 6000 เพื่อเพิ่มประสิทธิภาพการจำลอง Cadence ได้ประกาศเปิดตัว Millennium M2000 Supercomputer ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ออกแบบมาเพื่อการออกแบบชิปด้วย AI โดยใช้ Nvidia RTX Pro 6000 Blackwell Server Edition GPUs และ HGX B200 systems

    ระบบนี้ถูกเปิดตัวในงาน CadenceLIVE Silicon Valley 2025 และเป็นส่วนหนึ่งของ Millennium Enterprise Platform โดยสามารถ เพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU

    Millennium M2000 Supercomputer ใช้ Nvidia RTX Pro 6000 GPUs และ HGX B200 systems
    - ออกแบบมาเพื่อ การออกแบบชิปด้วย AI, การวิเคราะห์ระบบ และการค้นคว้ายา

    สามารถเพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU
    - ช่วยให้ บริษัทสามารถพัฒนาเทคโนโลยีได้เร็วขึ้น

    Cadence มีลูกค้ารายใหญ่ เช่น Intel, AMD, Apple และ Nvidia
    - ใช้ระบบของ Cadence เพื่อช่วยพัฒนาเทคโนโลยีชิปยุคใหม่

    Millennium M2000 สามารถลดการใช้พลังงานลงถึง 20 เท่าในหลายแอปพลิเคชัน
    - ช่วยให้ การประมวลผลมีประสิทธิภาพมากขึ้นโดยใช้พลังงานน้อยลง

    Cadence ขยายการใช้งานไปยังอุตสาหกรรมอื่น เช่น GE และ NASA
    - ใช้สำหรับ การจำลองพลศาสตร์ของไหล (CFD) และการวิเคราะห์ระบบ

    https://www.tomshardware.com/tech-industry/supercomputers/cadence-releases-new-ai-supercomputer-uses-nvidia-rtx-pro-6000-gpus-to-improve-simulation-run-time
    Cadence เปิดตัวซูเปอร์คอมพิวเตอร์ AI ใหม่ ใช้ GPU Nvidia RTX Pro 6000 เพื่อเพิ่มประสิทธิภาพการจำลอง Cadence ได้ประกาศเปิดตัว Millennium M2000 Supercomputer ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ออกแบบมาเพื่อการออกแบบชิปด้วย AI โดยใช้ Nvidia RTX Pro 6000 Blackwell Server Edition GPUs และ HGX B200 systems ระบบนี้ถูกเปิดตัวในงาน CadenceLIVE Silicon Valley 2025 และเป็นส่วนหนึ่งของ Millennium Enterprise Platform โดยสามารถ เพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU ✅ Millennium M2000 Supercomputer ใช้ Nvidia RTX Pro 6000 GPUs และ HGX B200 systems - ออกแบบมาเพื่อ การออกแบบชิปด้วย AI, การวิเคราะห์ระบบ และการค้นคว้ายา ✅ สามารถเพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU - ช่วยให้ บริษัทสามารถพัฒนาเทคโนโลยีได้เร็วขึ้น ✅ Cadence มีลูกค้ารายใหญ่ เช่น Intel, AMD, Apple และ Nvidia - ใช้ระบบของ Cadence เพื่อช่วยพัฒนาเทคโนโลยีชิปยุคใหม่ ✅ Millennium M2000 สามารถลดการใช้พลังงานลงถึง 20 เท่าในหลายแอปพลิเคชัน - ช่วยให้ การประมวลผลมีประสิทธิภาพมากขึ้นโดยใช้พลังงานน้อยลง ✅ Cadence ขยายการใช้งานไปยังอุตสาหกรรมอื่น เช่น GE และ NASA - ใช้สำหรับ การจำลองพลศาสตร์ของไหล (CFD) และการวิเคราะห์ระบบ https://www.tomshardware.com/tech-industry/supercomputers/cadence-releases-new-ai-supercomputer-uses-nvidia-rtx-pro-6000-gpus-to-improve-simulation-run-time
    0 Comments 0 Shares 178 Views 0 Reviews
  • Google ได้อ้างว่า Ironwood TPU v7p pod ของตนมีประสิทธิภาพสูงกว่า El Capitan supercomputer ถึง 24 เท่า แต่ Timothy Prickett Morgan นักวิเคราะห์จาก TheNextPlatform ได้ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ โดยระบุว่า "เป็นการเปรียบเทียบที่ไม่สมเหตุสมผล"

    Google ได้ทำการเปรียบเทียบ Ironwood TPU v7p pod ซึ่งมี 9,216 TPU compute engines กับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines โดยใช้ High Performance LINPACK (HPL) benchmark อย่างไรก็ตาม Prickett Morgan ชี้ให้เห็นว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ที่ใช้ความแม่นยำต่ำกว่า

    Google อ้างว่า Ironwood TPU v7p pod มีประสิทธิภาพสูงกว่า El Capitan ถึง 24 เท่า
    - ใช้ 9,216 TPU compute engines
    - เปรียบเทียบกับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines

    นักวิเคราะห์จาก TheNextPlatform ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้
    - ระบุว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง
    - ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training

    การเปรียบเทียบด้านต้นทุน
    - Ironwood pod มีต้นทุนการสร้าง $445 ล้าน และค่าเช่า $1.1 พันล้านใน 3 ปี
    - El Capitan มีต้นทุนการสร้าง $600 ล้าน
    - Ironwood pod มีต้นทุนต่อ teraflops สูงกว่า El Capitan

    El Capitan มีประสิทธิภาพสูงกว่า Ironwood TPU ในการประมวลผล FP16 และ FP8
    - El Capitan มี 2.05 เท่าของประสิทธิภาพ FP16 และ FP8 เมื่อเทียบกับ Ironwood pod

    https://www.techradar.com/pro/google-says-that-its-ai-behemoth-is-24x-faster-than-the-worlds-best-supercomputer-but-this-analyst-armed-with-a-spreadsheet-disagrees
    Google ได้อ้างว่า Ironwood TPU v7p pod ของตนมีประสิทธิภาพสูงกว่า El Capitan supercomputer ถึง 24 เท่า แต่ Timothy Prickett Morgan นักวิเคราะห์จาก TheNextPlatform ได้ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ โดยระบุว่า "เป็นการเปรียบเทียบที่ไม่สมเหตุสมผล" Google ได้ทำการเปรียบเทียบ Ironwood TPU v7p pod ซึ่งมี 9,216 TPU compute engines กับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines โดยใช้ High Performance LINPACK (HPL) benchmark อย่างไรก็ตาม Prickett Morgan ชี้ให้เห็นว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ที่ใช้ความแม่นยำต่ำกว่า ✅ Google อ้างว่า Ironwood TPU v7p pod มีประสิทธิภาพสูงกว่า El Capitan ถึง 24 เท่า - ใช้ 9,216 TPU compute engines - เปรียบเทียบกับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines ✅ นักวิเคราะห์จาก TheNextPlatform ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ - ระบุว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง - ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ✅ การเปรียบเทียบด้านต้นทุน - Ironwood pod มีต้นทุนการสร้าง $445 ล้าน และค่าเช่า $1.1 พันล้านใน 3 ปี - El Capitan มีต้นทุนการสร้าง $600 ล้าน - Ironwood pod มีต้นทุนต่อ teraflops สูงกว่า El Capitan ✅ El Capitan มีประสิทธิภาพสูงกว่า Ironwood TPU ในการประมวลผล FP16 และ FP8 - El Capitan มี 2.05 เท่าของประสิทธิภาพ FP16 และ FP8 เมื่อเทียบกับ Ironwood pod https://www.techradar.com/pro/google-says-that-its-ai-behemoth-is-24x-faster-than-the-worlds-best-supercomputer-but-this-analyst-armed-with-a-spreadsheet-disagrees
    0 Comments 0 Shares 255 Views 0 Reviews
  • Elon Musk ได้เปิดตัวซูเปอร์คอมพิวเตอร์ที่ชื่อว่า Colossus ซึ่งใช้ GPU Nvidia H100 จำนวน 100,000 ตัว ในการประมวลผล AI อย่างไรก็ตาม ซูเปอร์คอมพิวเตอร์นี้เผชิญกับข้อกล่าวหาเกี่ยวกับการปล่อยมลพิษจากเครื่องกำเนิดไฟฟ้าก๊าซมีเทนที่ใช้ในไซต์งาน Memphis รัฐเทนเนสซี

    ในช่วงแรก Colossus ใช้พลังงานเพียง 7 MW ซึ่งเพียงพอสำหรับการใช้งาน GPU เพียง 4% ของทั้งหมด เพื่อแก้ไขปัญหานี้ Musk ได้ติดตั้งเครื่องกำเนิดไฟฟ้าขนาดใหญ่หลายตัวเพื่อรองรับความต้องการพลังงานที่เพิ่มขึ้น โดยขณะนี้ไซต์งานยังคงใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัว ซึ่งปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืด โรคทางเดินหายใจ และมะเร็งบางชนิด

    Southern Environmental Law Center (SELC) ได้ร่วมมือกับ South Wings ในการถ่ายภาพไซต์งานด้วยกล้องถ่ายภาพความร้อน และพบว่ามีจุดร้อนกว่า 30 จุด ซึ่งบ่งชี้ถึงจำนวนเครื่องกำเนิดไฟฟ้าที่ใช้งานอยู่

    แม้ว่า Colossus จะได้รับการอนุมัติให้ใช้พลังงาน 150 MW แต่ผู้เชี่ยวชาญระบุว่าต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด และหาก Musk ขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW

    การออกแบบและการใช้งาน
    - ใช้ GPU Nvidia H100 จำนวน 100,000 ตัว
    - ต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด

    การแก้ไขปัญหาพลังงาน
    - ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัวเพื่อรองรับความต้องการพลังงาน
    - เครื่องกำเนิดไฟฟ้าปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืดและมะเร็ง

    การตรวจสอบจาก SELC
    - พบจุดร้อนกว่า 30 จุดในไซต์งานด้วยกล้องถ่ายภาพความร้อน
    - SELC กำลังยื่นคำร้องต่อ Shelby County Health Department เพื่อปฏิเสธการใช้งานเครื่องกำเนิดไฟฟ้า

    การขยายการใช้งาน GPU
    - หากขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW

    https://www.tomshardware.com/tech-industry/supercomputers/elon-musks-nvidia-powered-colossus-supercomputer-faces-pollution-allegations-from-under-reported-power-generators
    Elon Musk ได้เปิดตัวซูเปอร์คอมพิวเตอร์ที่ชื่อว่า Colossus ซึ่งใช้ GPU Nvidia H100 จำนวน 100,000 ตัว ในการประมวลผล AI อย่างไรก็ตาม ซูเปอร์คอมพิวเตอร์นี้เผชิญกับข้อกล่าวหาเกี่ยวกับการปล่อยมลพิษจากเครื่องกำเนิดไฟฟ้าก๊าซมีเทนที่ใช้ในไซต์งาน Memphis รัฐเทนเนสซี ในช่วงแรก Colossus ใช้พลังงานเพียง 7 MW ซึ่งเพียงพอสำหรับการใช้งาน GPU เพียง 4% ของทั้งหมด เพื่อแก้ไขปัญหานี้ Musk ได้ติดตั้งเครื่องกำเนิดไฟฟ้าขนาดใหญ่หลายตัวเพื่อรองรับความต้องการพลังงานที่เพิ่มขึ้น โดยขณะนี้ไซต์งานยังคงใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัว ซึ่งปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืด โรคทางเดินหายใจ และมะเร็งบางชนิด Southern Environmental Law Center (SELC) ได้ร่วมมือกับ South Wings ในการถ่ายภาพไซต์งานด้วยกล้องถ่ายภาพความร้อน และพบว่ามีจุดร้อนกว่า 30 จุด ซึ่งบ่งชี้ถึงจำนวนเครื่องกำเนิดไฟฟ้าที่ใช้งานอยู่ แม้ว่า Colossus จะได้รับการอนุมัติให้ใช้พลังงาน 150 MW แต่ผู้เชี่ยวชาญระบุว่าต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด และหาก Musk ขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW ✅ การออกแบบและการใช้งาน - ใช้ GPU Nvidia H100 จำนวน 100,000 ตัว - ต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด ✅ การแก้ไขปัญหาพลังงาน - ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัวเพื่อรองรับความต้องการพลังงาน - เครื่องกำเนิดไฟฟ้าปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืดและมะเร็ง ✅ การตรวจสอบจาก SELC - พบจุดร้อนกว่า 30 จุดในไซต์งานด้วยกล้องถ่ายภาพความร้อน - SELC กำลังยื่นคำร้องต่อ Shelby County Health Department เพื่อปฏิเสธการใช้งานเครื่องกำเนิดไฟฟ้า ✅ การขยายการใช้งาน GPU - หากขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW https://www.tomshardware.com/tech-industry/supercomputers/elon-musks-nvidia-powered-colossus-supercomputer-faces-pollution-allegations-from-under-reported-power-generators
    0 Comments 0 Shares 334 Views 0 Reviews
  • Elon Musk กำลังวางแผนระดมทุนมูลค่าหลายหมื่นล้านดอลลาร์เพื่อสร้าง Colossus 2 ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มี GPU จำนวน 1 ล้านตัว โดยมีเป้าหมายเพื่อพัฒนาโมเดล AI ที่ล้ำสมัยและสร้างรายได้จากการใช้งาน AI ในระดับสูง การระดมทุนครั้งนี้อาจมีมูลค่าถึง 25 พันล้านดอลลาร์ และทำให้มูลค่าของบริษัท xAI อยู่ระหว่าง 150 ถึง 200 พันล้านดอลลาร์

    Elon Musk วางแผนสร้าง Colossus 2 ด้วย GPU จำนวน 1 ล้านตัว
    - ซูเปอร์คอมพิวเตอร์นี้จะใช้ GPU Nvidia Hopper H100 และ H100
    - Colossus 2 จะมีประสิทธิภาพสูงกว่า Colossus รุ่นแรกที่มี GPU จำนวน 200,000 ตัว

    การระดมทุนครั้งนี้อาจมีมูลค่าถึง 25 พันล้านดอลลาร์
    - Musk คาดว่าจะใช้เงินประมาณ 100 ถึง 125 พันล้านดอลลาร์ ในการสร้าง Colossus 2
    - รวมถึงค่าใช้จ่ายด้านอาคาร เซิร์ฟเวอร์ อุปกรณ์เครือข่าย และระบบระบายความร้อน

    xAI มีเป้าหมายเพื่อพัฒนาโมเดล AI ที่ล้ำสมัย
    - โมเดล AI ที่พัฒนาจะถูกนำไปใช้สร้างรายได้ในระดับสูง

    การลงทุนใน AI Data Centers กำลังเพิ่มขึ้นทั่วโลก
    - Broadcom คาดว่า Data Centers รุ่นใหม่จะมี AI Processors จำนวน 1 ล้านตัวภายในปี 2027

    https://www.tomshardware.com/tech-industry/artificial-intelligence/speculation-mounts-that-musk-will-raise-tens-of-billions-for-ai-supercomputer-with-1-million-gpus-report
    Elon Musk กำลังวางแผนระดมทุนมูลค่าหลายหมื่นล้านดอลลาร์เพื่อสร้าง Colossus 2 ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มี GPU จำนวน 1 ล้านตัว โดยมีเป้าหมายเพื่อพัฒนาโมเดล AI ที่ล้ำสมัยและสร้างรายได้จากการใช้งาน AI ในระดับสูง การระดมทุนครั้งนี้อาจมีมูลค่าถึง 25 พันล้านดอลลาร์ และทำให้มูลค่าของบริษัท xAI อยู่ระหว่าง 150 ถึง 200 พันล้านดอลลาร์ ✅ Elon Musk วางแผนสร้าง Colossus 2 ด้วย GPU จำนวน 1 ล้านตัว - ซูเปอร์คอมพิวเตอร์นี้จะใช้ GPU Nvidia Hopper H100 และ H100 - Colossus 2 จะมีประสิทธิภาพสูงกว่า Colossus รุ่นแรกที่มี GPU จำนวน 200,000 ตัว ✅ การระดมทุนครั้งนี้อาจมีมูลค่าถึง 25 พันล้านดอลลาร์ - Musk คาดว่าจะใช้เงินประมาณ 100 ถึง 125 พันล้านดอลลาร์ ในการสร้าง Colossus 2 - รวมถึงค่าใช้จ่ายด้านอาคาร เซิร์ฟเวอร์ อุปกรณ์เครือข่าย และระบบระบายความร้อน ✅ xAI มีเป้าหมายเพื่อพัฒนาโมเดล AI ที่ล้ำสมัย - โมเดล AI ที่พัฒนาจะถูกนำไปใช้สร้างรายได้ในระดับสูง ✅ การลงทุนใน AI Data Centers กำลังเพิ่มขึ้นทั่วโลก - Broadcom คาดว่า Data Centers รุ่นใหม่จะมี AI Processors จำนวน 1 ล้านตัวภายในปี 2027 https://www.tomshardware.com/tech-industry/artificial-intelligence/speculation-mounts-that-musk-will-raise-tens-of-billions-for-ai-supercomputer-with-1-million-gpus-report
    0 Comments 0 Shares 191 Views 0 Reviews
  • NVIDIA และ AMD กำลังแข่งขันกันเพื่อสร้างอิทธิพลในตลาด AI ของญี่ปุ่น หลังจากที่ทั้งสองบริษัทส่งซีอีโอไปเยือนประเทศในช่วงเวลาที่ใกล้เคียงกัน โดยมีเป้าหมายเพื่อขยายการลงทุนและพัฒนาโครงสร้างพื้นฐานด้าน AI ในญี่ปุ่น

    ญี่ปุ่นต้องการเป็นศูนย์กลางการพัฒนา AI ระดับโลก
    - รัฐบาลญี่ปุ่นกำลังผลักดันให้ประเทศเป็น "ประเทศที่ง่ายที่สุดในการพัฒนาและใช้ AI"
    - มีการลงทุนอย่างหนักในโครงสร้างพื้นฐานด้าน AI เพื่อแข่งขันในตลาดโลก

    ซีอีโอของ NVIDIA และ AMD พบกับนายกรัฐมนตรีญี่ปุ่น
    - Jensen Huang ซีอีโอของ NVIDIA ได้หารือกับนายกรัฐมนตรี Shigeru Ishiba เกี่ยวกับการเพิ่มกำลังการผลิตไฟฟ้าเพื่อรองรับอุตสาหกรรม AI
    - Lisa Su ซีอีโอของ AMD ก็เดินทางไปพบกับนายกรัฐมนตรีและพันธมิตรทางธุรกิจในญี่ปุ่น

    NVIDIA มอบ DGX Spark AI Supercomputer ให้กับรัฐบาลญี่ปุ่น
    - เป็นสัญลักษณ์ของความร่วมมือระหว่าง NVIDIA และญี่ปุ่นในการพัฒนา AI

    AMD กำลังขยายความร่วมมือกับญี่ปุ่นในด้าน AI
    - รัฐบาลญี่ปุ่นให้ความสนใจในการพัฒนาเทคโนโลยีร่วมกับ AMD

    https://wccftech.com/nvidia-and-amd-ceos-pay-a-visit-to-japan-in-quick-succession/
    NVIDIA และ AMD กำลังแข่งขันกันเพื่อสร้างอิทธิพลในตลาด AI ของญี่ปุ่น หลังจากที่ทั้งสองบริษัทส่งซีอีโอไปเยือนประเทศในช่วงเวลาที่ใกล้เคียงกัน โดยมีเป้าหมายเพื่อขยายการลงทุนและพัฒนาโครงสร้างพื้นฐานด้าน AI ในญี่ปุ่น ✅ ญี่ปุ่นต้องการเป็นศูนย์กลางการพัฒนา AI ระดับโลก - รัฐบาลญี่ปุ่นกำลังผลักดันให้ประเทศเป็น "ประเทศที่ง่ายที่สุดในการพัฒนาและใช้ AI" - มีการลงทุนอย่างหนักในโครงสร้างพื้นฐานด้าน AI เพื่อแข่งขันในตลาดโลก ✅ ซีอีโอของ NVIDIA และ AMD พบกับนายกรัฐมนตรีญี่ปุ่น - Jensen Huang ซีอีโอของ NVIDIA ได้หารือกับนายกรัฐมนตรี Shigeru Ishiba เกี่ยวกับการเพิ่มกำลังการผลิตไฟฟ้าเพื่อรองรับอุตสาหกรรม AI - Lisa Su ซีอีโอของ AMD ก็เดินทางไปพบกับนายกรัฐมนตรีและพันธมิตรทางธุรกิจในญี่ปุ่น ✅ NVIDIA มอบ DGX Spark AI Supercomputer ให้กับรัฐบาลญี่ปุ่น - เป็นสัญลักษณ์ของความร่วมมือระหว่าง NVIDIA และญี่ปุ่นในการพัฒนา AI ✅ AMD กำลังขยายความร่วมมือกับญี่ปุ่นในด้าน AI - รัฐบาลญี่ปุ่นให้ความสนใจในการพัฒนาเทคโนโลยีร่วมกับ AMD https://wccftech.com/nvidia-and-amd-ceos-pay-a-visit-to-japan-in-quick-succession/
    WCCFTECH.COM
    NVIDIA and AMD CEOs Pay a Visit To Japan In Quick Succession, Meet with PM Ishiba to Capitalize on the Nation's AI Ambitions
    The CEOs of NVIDIA and AMD have reportedly visited Japan in quick succession, as both firms are eager to capitalize on a growing AI market.
    0 Comments 0 Shares 392 Views 0 Reviews
  • Nvidia ได้ประกาศย้ายฐานการผลิตซูเปอร์คอมพิวเตอร์ AI ไปยังสหรัฐฯ เป็นครั้งแรก ซึ่งเป็นการตอบสนองต่อแนวโน้มอุตสาหกรรมที่มุ่งเน้นการผลิตภายในประเทศเพื่อรับมือกับนโยบายการค้าของสหรัฐฯ

    การย้ายฐานการผลิตไปยังสหรัฐฯ
    - Nvidia จะผลิตและทดสอบชิป Blackwell และซูเปอร์คอมพิวเตอร์ AI ในโรงงานที่รัฐแอริโซนาและเท็กซัส
    - โรงงานผลิตครอบคลุมพื้นที่กว่า 1 ล้านตารางฟุต และเริ่มดำเนินการแล้ว
    - คาดว่าจะเริ่มการผลิตจำนวนมากภายใน 12-15 เดือนข้างหน้า

    ความร่วมมือกับบริษัทผู้ผลิตรายใหญ่
    - TSMC จะผลิตชิป Blackwell ในเมืองฟีนิกซ์ รัฐแอริโซนา
    - Foxconn และ Wistron จะดูแลการประกอบซูเปอร์คอมพิวเตอร์ในรัฐเท็กซัส
    - Amkor และ SPIL จะรับผิดชอบด้านบรรจุภัณฑ์และการทดสอบชิปในแอริโซนา

    เป้าหมายการลงทุนและผลกระทบต่ออุตสาหกรรม
    - Nvidia วางแผนลงทุนสูงถึง 500 พันล้านดอลลาร์ในโครงสร้างพื้นฐาน AI ภายใน 4 ปีข้างหน้า
    - การผลิตในสหรัฐฯ ช่วยเสริมความแข็งแกร่งของห่วงโซ่อุปทานและลดความเสี่ยงจากข้อจำกัดทางการค้า

    ข้อควรระวังและประเด็นที่ต้องติดตาม
    ผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์
    - การย้ายฐานผลิตอาจส่งผลต่อซัพพลายเชนของบริษัทที่พึ่งพาการผลิตในเอเชีย
    - อาจเกิดความท้าทายด้านต้นทุนและการจัดหาวัตถุดิบสำหรับการผลิตในสหรัฐฯ

    ข้อกังวลด้านภูมิรัฐศาสตร์
    - การตัดสินใจของ Nvidia อาจเป็นผลจากแรงกดดันทางการค้าระหว่างสหรัฐฯ และจีน
    - อดีตประธานาธิบดีทรัมป์เคยเตือน TSMC ว่าอาจเผชิญภาษีนำเข้าสูงถึง 100% หากไม่ตั้งโรงงานในสหรัฐฯ

    อนาคตของอุตสาหกรรม AI และซูเปอร์คอมพิวเตอร์
    - Nvidia วางแผนสร้าง "AI factories" หรือศูนย์ข้อมูลเฉพาะสำหรับงาน AI ซึ่งจะเป็นโครงสร้างพื้นฐานสำคัญในอนาคต
    - บริษัทจะใช้แพลตฟอร์ม Omniverse เพื่อสร้างแบบจำลองดิจิทัลของโรงงาน และใช้หุ่นยนต์ Isaac GR00T ในกระบวนการผลิต

    https://www.techspot.com/news/107542-nvidia-shifts-ai-supercomputer-production-us-first-time.html
    Nvidia ได้ประกาศย้ายฐานการผลิตซูเปอร์คอมพิวเตอร์ AI ไปยังสหรัฐฯ เป็นครั้งแรก ซึ่งเป็นการตอบสนองต่อแนวโน้มอุตสาหกรรมที่มุ่งเน้นการผลิตภายในประเทศเพื่อรับมือกับนโยบายการค้าของสหรัฐฯ ✅ การย้ายฐานการผลิตไปยังสหรัฐฯ - Nvidia จะผลิตและทดสอบชิป Blackwell และซูเปอร์คอมพิวเตอร์ AI ในโรงงานที่รัฐแอริโซนาและเท็กซัส - โรงงานผลิตครอบคลุมพื้นที่กว่า 1 ล้านตารางฟุต และเริ่มดำเนินการแล้ว - คาดว่าจะเริ่มการผลิตจำนวนมากภายใน 12-15 เดือนข้างหน้า ✅ ความร่วมมือกับบริษัทผู้ผลิตรายใหญ่ - TSMC จะผลิตชิป Blackwell ในเมืองฟีนิกซ์ รัฐแอริโซนา - Foxconn และ Wistron จะดูแลการประกอบซูเปอร์คอมพิวเตอร์ในรัฐเท็กซัส - Amkor และ SPIL จะรับผิดชอบด้านบรรจุภัณฑ์และการทดสอบชิปในแอริโซนา ✅ เป้าหมายการลงทุนและผลกระทบต่ออุตสาหกรรม - Nvidia วางแผนลงทุนสูงถึง 500 พันล้านดอลลาร์ในโครงสร้างพื้นฐาน AI ภายใน 4 ปีข้างหน้า - การผลิตในสหรัฐฯ ช่วยเสริมความแข็งแกร่งของห่วงโซ่อุปทานและลดความเสี่ยงจากข้อจำกัดทางการค้า ⚠️ ข้อควรระวังและประเด็นที่ต้องติดตาม ℹ️ ผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์ - การย้ายฐานผลิตอาจส่งผลต่อซัพพลายเชนของบริษัทที่พึ่งพาการผลิตในเอเชีย - อาจเกิดความท้าทายด้านต้นทุนและการจัดหาวัตถุดิบสำหรับการผลิตในสหรัฐฯ ℹ️ ข้อกังวลด้านภูมิรัฐศาสตร์ - การตัดสินใจของ Nvidia อาจเป็นผลจากแรงกดดันทางการค้าระหว่างสหรัฐฯ และจีน - อดีตประธานาธิบดีทรัมป์เคยเตือน TSMC ว่าอาจเผชิญภาษีนำเข้าสูงถึง 100% หากไม่ตั้งโรงงานในสหรัฐฯ ℹ️ อนาคตของอุตสาหกรรม AI และซูเปอร์คอมพิวเตอร์ - Nvidia วางแผนสร้าง "AI factories" หรือศูนย์ข้อมูลเฉพาะสำหรับงาน AI ซึ่งจะเป็นโครงสร้างพื้นฐานสำคัญในอนาคต - บริษัทจะใช้แพลตฟอร์ม Omniverse เพื่อสร้างแบบจำลองดิจิทัลของโรงงาน และใช้หุ่นยนต์ Isaac GR00T ในกระบวนการผลิต https://www.techspot.com/news/107542-nvidia-shifts-ai-supercomputer-production-us-first-time.html
    WWW.TECHSPOT.COM
    Nvidia shifts AI supercomputer production to the US for the first time
    The project spans more than a million square feet of manufacturing space, with operations already underway. Nvidia's Blackwell chips are being produced at TSMC facilities in Phoenix,...
    0 Comments 0 Shares 403 Views 0 Reviews
  • Elon Musk’s xAI กำลังเผชิญกับข้อวิจารณ์เกี่ยวกับการใช้เครื่องกำเนิดไฟฟ้าที่ไม่ได้รับอนุญาตเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งตั้งอยู่ใกล้เมืองเมมฟิส รัฐเทนเนสซี โดยเหตุการณ์นี้สร้างความกังวลด้านสิ่งแวดล้อมและสุขภาพในพื้นที่

    การใช้เครื่องกำเนิดไฟฟ้า:
    - xAI ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนจำนวน 35 เครื่องเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งมี GPU Nvidia H100 มากกว่า 100,000 ตัว
    - เครื่องกำเนิดไฟฟ้าเหล่านี้สามารถผลิตพลังงานได้ถึง 420 MW ซึ่งเพียงพอสำหรับการจ่ายไฟให้กับเมือง

    ปัญหาด้านการอนุญาต:
    - xAI ได้รับอนุญาตให้ใช้เครื่องกำเนิดไฟฟ้าเพียง 15 เครื่อง แต่มีการใช้งานมากกว่านั้นโดยไม่มีการอนุมัติ
    - บริษัทใช้ช่องโหว่ทางกฎหมายที่อนุญาตให้เครื่องกำเนิดไฟฟ้าทำงานได้โดยไม่ต้องมีใบอนุญาต หากไม่ได้ติดตั้งในที่เดียวเกิน 364 วัน

    ผลกระทบต่อสิ่งแวดล้อม:
    - เครื่องกำเนิดไฟฟ้าก๊าซมีเทนเป็นแหล่งมลพิษที่สำคัญและละเมิดกฎคุณภาพอากาศของรัฐบาลกลาง
    - กลุ่ม Southern Environmental Law Center เรียกร้องให้หน่วยงานด้านสุขภาพในพื้นที่หยุดการดำเนินงานและปรับบริษัท $25,000 ต่อวัน

    การตอบสนองของชุมชน:
    - ชาวบ้านและกลุ่มสิ่งแวดล้อมในพื้นที่แสดงความกังวลเกี่ยวกับผลกระทบต่อสุขภาพและสิ่งแวดล้อม

    https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musks-xai-allegedly-powers-colossus-supercomputer-facility-using-illegal-generators
    Elon Musk’s xAI กำลังเผชิญกับข้อวิจารณ์เกี่ยวกับการใช้เครื่องกำเนิดไฟฟ้าที่ไม่ได้รับอนุญาตเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งตั้งอยู่ใกล้เมืองเมมฟิส รัฐเทนเนสซี โดยเหตุการณ์นี้สร้างความกังวลด้านสิ่งแวดล้อมและสุขภาพในพื้นที่ ✅ การใช้เครื่องกำเนิดไฟฟ้า: - xAI ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนจำนวน 35 เครื่องเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งมี GPU Nvidia H100 มากกว่า 100,000 ตัว - เครื่องกำเนิดไฟฟ้าเหล่านี้สามารถผลิตพลังงานได้ถึง 420 MW ซึ่งเพียงพอสำหรับการจ่ายไฟให้กับเมือง ✅ ปัญหาด้านการอนุญาต: - xAI ได้รับอนุญาตให้ใช้เครื่องกำเนิดไฟฟ้าเพียง 15 เครื่อง แต่มีการใช้งานมากกว่านั้นโดยไม่มีการอนุมัติ - บริษัทใช้ช่องโหว่ทางกฎหมายที่อนุญาตให้เครื่องกำเนิดไฟฟ้าทำงานได้โดยไม่ต้องมีใบอนุญาต หากไม่ได้ติดตั้งในที่เดียวเกิน 364 วัน ✅ ผลกระทบต่อสิ่งแวดล้อม: - เครื่องกำเนิดไฟฟ้าก๊าซมีเทนเป็นแหล่งมลพิษที่สำคัญและละเมิดกฎคุณภาพอากาศของรัฐบาลกลาง - กลุ่ม Southern Environmental Law Center เรียกร้องให้หน่วยงานด้านสุขภาพในพื้นที่หยุดการดำเนินงานและปรับบริษัท $25,000 ต่อวัน ✅ การตอบสนองของชุมชน: - ชาวบ้านและกลุ่มสิ่งแวดล้อมในพื้นที่แสดงความกังวลเกี่ยวกับผลกระทบต่อสุขภาพและสิ่งแวดล้อม https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musks-xai-allegedly-powers-colossus-supercomputer-facility-using-illegal-generators
    WWW.TOMSHARDWARE.COM
    Elon Musk’s xAI allegedly uses illegal generators to power Colossus supercomputer facility
    A loophole enables the generators to be used for 364 days without a permit
    0 Comments 0 Shares 357 Views 0 Reviews
  • AMD ได้แสดงศักยภาพครั้งยิ่งใหญ่ในโลกซูเปอร์คอมพิวเตอร์ โดยความสำเร็จนี้เกิดขึ้นใน Frontier Supercomputer ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลก ณ Oak Ridge National Laboratory (ORNL) ด้วยการใช้ ชิป AMD Instinct MI250X GPUs และโปรเซสเซอร์ AMD EPYC CPUs การจำลองการไหลของอากาศในเครื่องยนต์แก๊สเทอร์ไบน์ (CFD Simulation) ที่ก่อนหน้านี้ต้องใช้เวลาถึง 38.5 ชั่วโมง ได้ถูกลดลงเหลือเพียง 1.5 ชั่วโมง เท่านั้น

    การพัฒนาประสิทธิภาพระดับใหม่:
    - การใช้งาน 1,024 AMD Instinct MI250X accelerators และ EPYC CPUs ช่วยเร่งกระบวนการจำลอง 2.2 พันล้านเซลล์บนซูเปอร์คอมพิวเตอร์ Frontier ได้รวดเร็วกว่าเดิมถึง 25 เท่า
    - การลดเวลาในการจำลองช่วยให้บริษัทพลังงานอย่าง Baker Hughes สามารถปรับปรุงการออกแบบเครื่องยนต์ได้รวดเร็วขึ้น

    ศักยภาพอันมหาศาลของ Frontier:
    - Frontier เป็นซูเปอร์คอมพิวเตอร์ Exascale ตัวแรกของโลก ซึ่งหมายความว่ามีประสิทธิภาพที่สามารถประมวลผลได้ถึง 1 ExaFLOP (1 ล้านล้านล้านการคำนวณต่อวินาที)
    - Frontier มีฮาร์ดแวร์ระดับสูง เช่น 9,408 EPYC CPUs และ 37,632 MI250X GPUs ซึ่งยังคงมีศักยภาพให้ใช้งานมากกว่าที่ใช้ในงานวิจัยครั้งนี้

    การแสดงความโดดเด่นของ AMD:
    - แม้ว่า Nvidia จะครองตลาด GPU ในงาน AI แต่ AMD ยังแสดงให้เห็นถึงความสามารถในการแข่งขันในตลาดซูเปอร์คอมพิวเตอร์ ด้วยราคาที่คุ้มค่าและพลังการประมวลผลที่โดดเด่น
    - Brad McCredie รองประธานของ AMD กล่าวถึงการเปลี่ยนแปลงครั้งนี้ว่าเป็นก้าวสำคัญที่ทำให้วิศวกรรมระดับโลกเกิดนวัตกรรมในด้าน ความยั่งยืนและประสิทธิภาพ

    ความท้าทายด้านซอฟต์แวร์:
    - อย่างไรก็ตาม AMD ยังต้องพัฒนาในเรื่องของซอฟต์แวร์เพื่อแข่งขันกับ Nvidia ซึ่งยังคงได้เปรียบในด้านการรองรับซอฟต์แวร์ที่มีประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/supercomputers/amd-sets-new-supercomputer-record-runs-cfd-simulation-over-25x-faster-on-instinct-mi250x-gpus
    AMD ได้แสดงศักยภาพครั้งยิ่งใหญ่ในโลกซูเปอร์คอมพิวเตอร์ โดยความสำเร็จนี้เกิดขึ้นใน Frontier Supercomputer ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลก ณ Oak Ridge National Laboratory (ORNL) ด้วยการใช้ ชิป AMD Instinct MI250X GPUs และโปรเซสเซอร์ AMD EPYC CPUs การจำลองการไหลของอากาศในเครื่องยนต์แก๊สเทอร์ไบน์ (CFD Simulation) ที่ก่อนหน้านี้ต้องใช้เวลาถึง 38.5 ชั่วโมง ได้ถูกลดลงเหลือเพียง 1.5 ชั่วโมง เท่านั้น ✅ การพัฒนาประสิทธิภาพระดับใหม่: - การใช้งาน 1,024 AMD Instinct MI250X accelerators และ EPYC CPUs ช่วยเร่งกระบวนการจำลอง 2.2 พันล้านเซลล์บนซูเปอร์คอมพิวเตอร์ Frontier ได้รวดเร็วกว่าเดิมถึง 25 เท่า - การลดเวลาในการจำลองช่วยให้บริษัทพลังงานอย่าง Baker Hughes สามารถปรับปรุงการออกแบบเครื่องยนต์ได้รวดเร็วขึ้น ✅ ศักยภาพอันมหาศาลของ Frontier: - Frontier เป็นซูเปอร์คอมพิวเตอร์ Exascale ตัวแรกของโลก ซึ่งหมายความว่ามีประสิทธิภาพที่สามารถประมวลผลได้ถึง 1 ExaFLOP (1 ล้านล้านล้านการคำนวณต่อวินาที) - Frontier มีฮาร์ดแวร์ระดับสูง เช่น 9,408 EPYC CPUs และ 37,632 MI250X GPUs ซึ่งยังคงมีศักยภาพให้ใช้งานมากกว่าที่ใช้ในงานวิจัยครั้งนี้ ✅ การแสดงความโดดเด่นของ AMD: - แม้ว่า Nvidia จะครองตลาด GPU ในงาน AI แต่ AMD ยังแสดงให้เห็นถึงความสามารถในการแข่งขันในตลาดซูเปอร์คอมพิวเตอร์ ด้วยราคาที่คุ้มค่าและพลังการประมวลผลที่โดดเด่น - Brad McCredie รองประธานของ AMD กล่าวถึงการเปลี่ยนแปลงครั้งนี้ว่าเป็นก้าวสำคัญที่ทำให้วิศวกรรมระดับโลกเกิดนวัตกรรมในด้าน ความยั่งยืนและประสิทธิภาพ ✅ ความท้าทายด้านซอฟต์แวร์: - อย่างไรก็ตาม AMD ยังต้องพัฒนาในเรื่องของซอฟต์แวร์เพื่อแข่งขันกับ Nvidia ซึ่งยังคงได้เปรียบในด้านการรองรับซอฟต์แวร์ที่มีประสิทธิภาพ https://www.tomshardware.com/tech-industry/supercomputers/amd-sets-new-supercomputer-record-runs-cfd-simulation-over-25x-faster-on-instinct-mi250x-gpus
    WWW.TOMSHARDWARE.COM
    AMD sets new supercomputer record, runs CFD simulation over 25x faster on Instinct MI250X GPUs
    CFD simulation is cut down from almost 40 hours to less than two using 1,024 Instinct MI250X accelerators paired with Epyc CPUs.
    0 Comments 0 Shares 304 Views 0 Reviews
More Results