• Nvidia ได้ประกาศย้ายฐานการผลิตซูเปอร์คอมพิวเตอร์ AI ไปยังสหรัฐฯ เป็นครั้งแรก ซึ่งเป็นการตอบสนองต่อแนวโน้มอุตสาหกรรมที่มุ่งเน้นการผลิตภายในประเทศเพื่อรับมือกับนโยบายการค้าของสหรัฐฯ

    ✅ การย้ายฐานการผลิตไปยังสหรัฐฯ
    - Nvidia จะผลิตและทดสอบชิป Blackwell และซูเปอร์คอมพิวเตอร์ AI ในโรงงานที่รัฐแอริโซนาและเท็กซัส
    - โรงงานผลิตครอบคลุมพื้นที่กว่า 1 ล้านตารางฟุต และเริ่มดำเนินการแล้ว
    - คาดว่าจะเริ่มการผลิตจำนวนมากภายใน 12-15 เดือนข้างหน้า

    ✅ ความร่วมมือกับบริษัทผู้ผลิตรายใหญ่
    - TSMC จะผลิตชิป Blackwell ในเมืองฟีนิกซ์ รัฐแอริโซนา
    - Foxconn และ Wistron จะดูแลการประกอบซูเปอร์คอมพิวเตอร์ในรัฐเท็กซัส
    - Amkor และ SPIL จะรับผิดชอบด้านบรรจุภัณฑ์และการทดสอบชิปในแอริโซนา

    ✅ เป้าหมายการลงทุนและผลกระทบต่ออุตสาหกรรม
    - Nvidia วางแผนลงทุนสูงถึง 500 พันล้านดอลลาร์ในโครงสร้างพื้นฐาน AI ภายใน 4 ปีข้างหน้า
    - การผลิตในสหรัฐฯ ช่วยเสริมความแข็งแกร่งของห่วงโซ่อุปทานและลดความเสี่ยงจากข้อจำกัดทางการค้า

    ⚠️ ข้อควรระวังและประเด็นที่ต้องติดตาม
    ℹ️ ผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์
    - การย้ายฐานผลิตอาจส่งผลต่อซัพพลายเชนของบริษัทที่พึ่งพาการผลิตในเอเชีย
    - อาจเกิดความท้าทายด้านต้นทุนและการจัดหาวัตถุดิบสำหรับการผลิตในสหรัฐฯ

    ℹ️ ข้อกังวลด้านภูมิรัฐศาสตร์
    - การตัดสินใจของ Nvidia อาจเป็นผลจากแรงกดดันทางการค้าระหว่างสหรัฐฯ และจีน
    - อดีตประธานาธิบดีทรัมป์เคยเตือน TSMC ว่าอาจเผชิญภาษีนำเข้าสูงถึง 100% หากไม่ตั้งโรงงานในสหรัฐฯ

    ℹ️ อนาคตของอุตสาหกรรม AI และซูเปอร์คอมพิวเตอร์
    - Nvidia วางแผนสร้าง "AI factories" หรือศูนย์ข้อมูลเฉพาะสำหรับงาน AI ซึ่งจะเป็นโครงสร้างพื้นฐานสำคัญในอนาคต
    - บริษัทจะใช้แพลตฟอร์ม Omniverse เพื่อสร้างแบบจำลองดิจิทัลของโรงงาน และใช้หุ่นยนต์ Isaac GR00T ในกระบวนการผลิต

    https://www.techspot.com/news/107542-nvidia-shifts-ai-supercomputer-production-us-first-time.html
    Nvidia ได้ประกาศย้ายฐานการผลิตซูเปอร์คอมพิวเตอร์ AI ไปยังสหรัฐฯ เป็นครั้งแรก ซึ่งเป็นการตอบสนองต่อแนวโน้มอุตสาหกรรมที่มุ่งเน้นการผลิตภายในประเทศเพื่อรับมือกับนโยบายการค้าของสหรัฐฯ ✅ การย้ายฐานการผลิตไปยังสหรัฐฯ - Nvidia จะผลิตและทดสอบชิป Blackwell และซูเปอร์คอมพิวเตอร์ AI ในโรงงานที่รัฐแอริโซนาและเท็กซัส - โรงงานผลิตครอบคลุมพื้นที่กว่า 1 ล้านตารางฟุต และเริ่มดำเนินการแล้ว - คาดว่าจะเริ่มการผลิตจำนวนมากภายใน 12-15 เดือนข้างหน้า ✅ ความร่วมมือกับบริษัทผู้ผลิตรายใหญ่ - TSMC จะผลิตชิป Blackwell ในเมืองฟีนิกซ์ รัฐแอริโซนา - Foxconn และ Wistron จะดูแลการประกอบซูเปอร์คอมพิวเตอร์ในรัฐเท็กซัส - Amkor และ SPIL จะรับผิดชอบด้านบรรจุภัณฑ์และการทดสอบชิปในแอริโซนา ✅ เป้าหมายการลงทุนและผลกระทบต่ออุตสาหกรรม - Nvidia วางแผนลงทุนสูงถึง 500 พันล้านดอลลาร์ในโครงสร้างพื้นฐาน AI ภายใน 4 ปีข้างหน้า - การผลิตในสหรัฐฯ ช่วยเสริมความแข็งแกร่งของห่วงโซ่อุปทานและลดความเสี่ยงจากข้อจำกัดทางการค้า ⚠️ ข้อควรระวังและประเด็นที่ต้องติดตาม ℹ️ ผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์ - การย้ายฐานผลิตอาจส่งผลต่อซัพพลายเชนของบริษัทที่พึ่งพาการผลิตในเอเชีย - อาจเกิดความท้าทายด้านต้นทุนและการจัดหาวัตถุดิบสำหรับการผลิตในสหรัฐฯ ℹ️ ข้อกังวลด้านภูมิรัฐศาสตร์ - การตัดสินใจของ Nvidia อาจเป็นผลจากแรงกดดันทางการค้าระหว่างสหรัฐฯ และจีน - อดีตประธานาธิบดีทรัมป์เคยเตือน TSMC ว่าอาจเผชิญภาษีนำเข้าสูงถึง 100% หากไม่ตั้งโรงงานในสหรัฐฯ ℹ️ อนาคตของอุตสาหกรรม AI และซูเปอร์คอมพิวเตอร์ - Nvidia วางแผนสร้าง "AI factories" หรือศูนย์ข้อมูลเฉพาะสำหรับงาน AI ซึ่งจะเป็นโครงสร้างพื้นฐานสำคัญในอนาคต - บริษัทจะใช้แพลตฟอร์ม Omniverse เพื่อสร้างแบบจำลองดิจิทัลของโรงงาน และใช้หุ่นยนต์ Isaac GR00T ในกระบวนการผลิต https://www.techspot.com/news/107542-nvidia-shifts-ai-supercomputer-production-us-first-time.html
    WWW.TECHSPOT.COM
    Nvidia shifts AI supercomputer production to the US for the first time
    The project spans more than a million square feet of manufacturing space, with operations already underway. Nvidia's Blackwell chips are being produced at TSMC facilities in Phoenix,...
    0 ความคิดเห็น 0 การแบ่งปัน 65 มุมมอง 0 รีวิว
  • Elon Musk’s xAI กำลังเผชิญกับข้อวิจารณ์เกี่ยวกับการใช้เครื่องกำเนิดไฟฟ้าที่ไม่ได้รับอนุญาตเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งตั้งอยู่ใกล้เมืองเมมฟิส รัฐเทนเนสซี โดยเหตุการณ์นี้สร้างความกังวลด้านสิ่งแวดล้อมและสุขภาพในพื้นที่

    ✅ การใช้เครื่องกำเนิดไฟฟ้า:
    - xAI ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนจำนวน 35 เครื่องเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งมี GPU Nvidia H100 มากกว่า 100,000 ตัว
    - เครื่องกำเนิดไฟฟ้าเหล่านี้สามารถผลิตพลังงานได้ถึง 420 MW ซึ่งเพียงพอสำหรับการจ่ายไฟให้กับเมือง

    ✅ ปัญหาด้านการอนุญาต:
    - xAI ได้รับอนุญาตให้ใช้เครื่องกำเนิดไฟฟ้าเพียง 15 เครื่อง แต่มีการใช้งานมากกว่านั้นโดยไม่มีการอนุมัติ
    - บริษัทใช้ช่องโหว่ทางกฎหมายที่อนุญาตให้เครื่องกำเนิดไฟฟ้าทำงานได้โดยไม่ต้องมีใบอนุญาต หากไม่ได้ติดตั้งในที่เดียวเกิน 364 วัน

    ✅ ผลกระทบต่อสิ่งแวดล้อม:
    - เครื่องกำเนิดไฟฟ้าก๊าซมีเทนเป็นแหล่งมลพิษที่สำคัญและละเมิดกฎคุณภาพอากาศของรัฐบาลกลาง
    - กลุ่ม Southern Environmental Law Center เรียกร้องให้หน่วยงานด้านสุขภาพในพื้นที่หยุดการดำเนินงานและปรับบริษัท $25,000 ต่อวัน

    ✅ การตอบสนองของชุมชน:
    - ชาวบ้านและกลุ่มสิ่งแวดล้อมในพื้นที่แสดงความกังวลเกี่ยวกับผลกระทบต่อสุขภาพและสิ่งแวดล้อม

    https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musks-xai-allegedly-powers-colossus-supercomputer-facility-using-illegal-generators
    Elon Musk’s xAI กำลังเผชิญกับข้อวิจารณ์เกี่ยวกับการใช้เครื่องกำเนิดไฟฟ้าที่ไม่ได้รับอนุญาตเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งตั้งอยู่ใกล้เมืองเมมฟิส รัฐเทนเนสซี โดยเหตุการณ์นี้สร้างความกังวลด้านสิ่งแวดล้อมและสุขภาพในพื้นที่ ✅ การใช้เครื่องกำเนิดไฟฟ้า: - xAI ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนจำนวน 35 เครื่องเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งมี GPU Nvidia H100 มากกว่า 100,000 ตัว - เครื่องกำเนิดไฟฟ้าเหล่านี้สามารถผลิตพลังงานได้ถึง 420 MW ซึ่งเพียงพอสำหรับการจ่ายไฟให้กับเมือง ✅ ปัญหาด้านการอนุญาต: - xAI ได้รับอนุญาตให้ใช้เครื่องกำเนิดไฟฟ้าเพียง 15 เครื่อง แต่มีการใช้งานมากกว่านั้นโดยไม่มีการอนุมัติ - บริษัทใช้ช่องโหว่ทางกฎหมายที่อนุญาตให้เครื่องกำเนิดไฟฟ้าทำงานได้โดยไม่ต้องมีใบอนุญาต หากไม่ได้ติดตั้งในที่เดียวเกิน 364 วัน ✅ ผลกระทบต่อสิ่งแวดล้อม: - เครื่องกำเนิดไฟฟ้าก๊าซมีเทนเป็นแหล่งมลพิษที่สำคัญและละเมิดกฎคุณภาพอากาศของรัฐบาลกลาง - กลุ่ม Southern Environmental Law Center เรียกร้องให้หน่วยงานด้านสุขภาพในพื้นที่หยุดการดำเนินงานและปรับบริษัท $25,000 ต่อวัน ✅ การตอบสนองของชุมชน: - ชาวบ้านและกลุ่มสิ่งแวดล้อมในพื้นที่แสดงความกังวลเกี่ยวกับผลกระทบต่อสุขภาพและสิ่งแวดล้อม https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musks-xai-allegedly-powers-colossus-supercomputer-facility-using-illegal-generators
    WWW.TOMSHARDWARE.COM
    Elon Musk’s xAI allegedly uses illegal generators to power Colossus supercomputer facility
    A loophole enables the generators to be used for 364 days without a permit
    0 ความคิดเห็น 0 การแบ่งปัน 121 มุมมอง 0 รีวิว
  • AMD ได้แสดงศักยภาพครั้งยิ่งใหญ่ในโลกซูเปอร์คอมพิวเตอร์ โดยความสำเร็จนี้เกิดขึ้นใน Frontier Supercomputer ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลก ณ Oak Ridge National Laboratory (ORNL) ด้วยการใช้ ชิป AMD Instinct MI250X GPUs และโปรเซสเซอร์ AMD EPYC CPUs การจำลองการไหลของอากาศในเครื่องยนต์แก๊สเทอร์ไบน์ (CFD Simulation) ที่ก่อนหน้านี้ต้องใช้เวลาถึง 38.5 ชั่วโมง ได้ถูกลดลงเหลือเพียง 1.5 ชั่วโมง เท่านั้น

    ✅ การพัฒนาประสิทธิภาพระดับใหม่:
    - การใช้งาน 1,024 AMD Instinct MI250X accelerators และ EPYC CPUs ช่วยเร่งกระบวนการจำลอง 2.2 พันล้านเซลล์บนซูเปอร์คอมพิวเตอร์ Frontier ได้รวดเร็วกว่าเดิมถึง 25 เท่า
    - การลดเวลาในการจำลองช่วยให้บริษัทพลังงานอย่าง Baker Hughes สามารถปรับปรุงการออกแบบเครื่องยนต์ได้รวดเร็วขึ้น

    ✅ ศักยภาพอันมหาศาลของ Frontier:
    - Frontier เป็นซูเปอร์คอมพิวเตอร์ Exascale ตัวแรกของโลก ซึ่งหมายความว่ามีประสิทธิภาพที่สามารถประมวลผลได้ถึง 1 ExaFLOP (1 ล้านล้านล้านการคำนวณต่อวินาที)
    - Frontier มีฮาร์ดแวร์ระดับสูง เช่น 9,408 EPYC CPUs และ 37,632 MI250X GPUs ซึ่งยังคงมีศักยภาพให้ใช้งานมากกว่าที่ใช้ในงานวิจัยครั้งนี้

    ✅ การแสดงความโดดเด่นของ AMD:
    - แม้ว่า Nvidia จะครองตลาด GPU ในงาน AI แต่ AMD ยังแสดงให้เห็นถึงความสามารถในการแข่งขันในตลาดซูเปอร์คอมพิวเตอร์ ด้วยราคาที่คุ้มค่าและพลังการประมวลผลที่โดดเด่น
    - Brad McCredie รองประธานของ AMD กล่าวถึงการเปลี่ยนแปลงครั้งนี้ว่าเป็นก้าวสำคัญที่ทำให้วิศวกรรมระดับโลกเกิดนวัตกรรมในด้าน ความยั่งยืนและประสิทธิภาพ

    ✅ ความท้าทายด้านซอฟต์แวร์:
    - อย่างไรก็ตาม AMD ยังต้องพัฒนาในเรื่องของซอฟต์แวร์เพื่อแข่งขันกับ Nvidia ซึ่งยังคงได้เปรียบในด้านการรองรับซอฟต์แวร์ที่มีประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/supercomputers/amd-sets-new-supercomputer-record-runs-cfd-simulation-over-25x-faster-on-instinct-mi250x-gpus
    AMD ได้แสดงศักยภาพครั้งยิ่งใหญ่ในโลกซูเปอร์คอมพิวเตอร์ โดยความสำเร็จนี้เกิดขึ้นใน Frontier Supercomputer ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลก ณ Oak Ridge National Laboratory (ORNL) ด้วยการใช้ ชิป AMD Instinct MI250X GPUs และโปรเซสเซอร์ AMD EPYC CPUs การจำลองการไหลของอากาศในเครื่องยนต์แก๊สเทอร์ไบน์ (CFD Simulation) ที่ก่อนหน้านี้ต้องใช้เวลาถึง 38.5 ชั่วโมง ได้ถูกลดลงเหลือเพียง 1.5 ชั่วโมง เท่านั้น ✅ การพัฒนาประสิทธิภาพระดับใหม่: - การใช้งาน 1,024 AMD Instinct MI250X accelerators และ EPYC CPUs ช่วยเร่งกระบวนการจำลอง 2.2 พันล้านเซลล์บนซูเปอร์คอมพิวเตอร์ Frontier ได้รวดเร็วกว่าเดิมถึง 25 เท่า - การลดเวลาในการจำลองช่วยให้บริษัทพลังงานอย่าง Baker Hughes สามารถปรับปรุงการออกแบบเครื่องยนต์ได้รวดเร็วขึ้น ✅ ศักยภาพอันมหาศาลของ Frontier: - Frontier เป็นซูเปอร์คอมพิวเตอร์ Exascale ตัวแรกของโลก ซึ่งหมายความว่ามีประสิทธิภาพที่สามารถประมวลผลได้ถึง 1 ExaFLOP (1 ล้านล้านล้านการคำนวณต่อวินาที) - Frontier มีฮาร์ดแวร์ระดับสูง เช่น 9,408 EPYC CPUs และ 37,632 MI250X GPUs ซึ่งยังคงมีศักยภาพให้ใช้งานมากกว่าที่ใช้ในงานวิจัยครั้งนี้ ✅ การแสดงความโดดเด่นของ AMD: - แม้ว่า Nvidia จะครองตลาด GPU ในงาน AI แต่ AMD ยังแสดงให้เห็นถึงความสามารถในการแข่งขันในตลาดซูเปอร์คอมพิวเตอร์ ด้วยราคาที่คุ้มค่าและพลังการประมวลผลที่โดดเด่น - Brad McCredie รองประธานของ AMD กล่าวถึงการเปลี่ยนแปลงครั้งนี้ว่าเป็นก้าวสำคัญที่ทำให้วิศวกรรมระดับโลกเกิดนวัตกรรมในด้าน ความยั่งยืนและประสิทธิภาพ ✅ ความท้าทายด้านซอฟต์แวร์: - อย่างไรก็ตาม AMD ยังต้องพัฒนาในเรื่องของซอฟต์แวร์เพื่อแข่งขันกับ Nvidia ซึ่งยังคงได้เปรียบในด้านการรองรับซอฟต์แวร์ที่มีประสิทธิภาพ https://www.tomshardware.com/tech-industry/supercomputers/amd-sets-new-supercomputer-record-runs-cfd-simulation-over-25x-faster-on-instinct-mi250x-gpus
    WWW.TOMSHARDWARE.COM
    AMD sets new supercomputer record, runs CFD simulation over 25x faster on Instinct MI250X GPUs
    CFD simulation is cut down from almost 40 hours to less than two using 1,024 Instinct MI250X accelerators paired with Epyc CPUs.
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
  • นักวิจัยจาก MIT กำลังปฏิวัติวงการควอนตัมคอมพิวเตอร์ด้วยการพัฒนาอุปกรณ์ที่ช่วยให้ ชิปควอนตัมสามารถสื่อสารกันได้โดยไม่ต้องใช้การเชื่อมต่อทางกายภาพ เทคนิคใหม่นี้นับเป็นความก้าวหน้าสำคัญในโลกควอนตัม โดยมีเป้าหมายเพื่อแก้ไขปัญหาใหญ่ของการแบ่งปันข้อมูลระหว่างหน่วยประมวลผลในระบบควอนตัมคอมพิวเตอร์

    == หัวใจของเทคโนโลยีนี้ ==
    ✅ การใช้ Microwave Photons เป็นตัวกลาง
    - ระบบใหม่ใช้ คลื่นไมโครเวฟ (Microwave Photons) ในการส่งข้อมูลระหว่างชิปควอนตัมโดยตรง
    - ด้วยการสร้าง waveguide ซึ่งเป็นสายไฟแบบ superconducting ที่ทำหน้าที่เหมือนถนนควอนตัม ช่วยให้ชิปสื่อสารกันได้โดยไม่มี "ตัวกลาง"

    ✅ กระบวนการสร้าง Remote Entanglement
    - Remote Entanglement เป็นหลักการทางควอนตัมที่ช่วยให้สองชิปสามารถสร้างความสัมพันธ์เชิงควอนตัมแบบเรียลไทม์ โดยไม่ต้องเชื่อมต่อกัน
    - วิธีการใหม่ทำให้การส่งและรับโฟตอนเกิดขึ้นได้ในสถานะ “ครึ่งหนึ่ง” ซึ่งโฟตอนอยู่ในสถานะที่ปล่อยและเก็บไว้พร้อมกัน

    ✅ การปรับรูปทรงโฟตอนเพื่อประสิทธิภาพสูงสุด
    - การเดินทางของโฟตอนผ่าน waveguide อาจเกิดความผิดเพี้ยน นักวิจัยจึงใช้ อัลกอริทึมเพื่อปรับแต่งรูปร่างของโฟตอน ส่งผลให้อัตราความสำเร็จในการสร้าง Entanglement สูงถึง 60%

    == ผลกระทบต่อโลกควอนตัมและเทคโนโลยีในอนาคต ==
    ✅ เปิดประตูสู่ Quantum Supercomputer ขนาดใหญ่
    - ระบบใหม่รองรับ “All-to-All Connectivity” ซึ่งช่วยให้หน่วยประมวลผลทุกชิปสามารถสื่อสารกันได้โดยตรง
    - อนาคตอาจมีการพัฒนาเทคโนโลยีเพิ่มเติม เช่น 3D Integration หรือ โปรโตคอลที่เร็วขึ้น เพื่อเพิ่มประสิทธิภาพ

    ✅ การสนับสนุนจากหน่วยงานสำคัญ
    - โครงการนี้ได้รับการสนับสนุนโดยหน่วยงานเช่น US Army Research Office, AWS Center for Quantum Computing และ US Air Force Office of Scientific Research

    ✅ ความสำคัญต่อ Quantum Internet
    - นอกจากการพัฒนา Quantum Computer ระบบใหม่นี้ยังสามารถขยายไปยัง Quantum Internet ซึ่งเป็นเครือข่ายที่เชื่อมโยงควอนตัมคอมพิวเตอร์ทั่วโลก

    https://www.techspot.com/news/107436-mit-showcases-quantum-chip-communication-without-physical-contact.html
    นักวิจัยจาก MIT กำลังปฏิวัติวงการควอนตัมคอมพิวเตอร์ด้วยการพัฒนาอุปกรณ์ที่ช่วยให้ ชิปควอนตัมสามารถสื่อสารกันได้โดยไม่ต้องใช้การเชื่อมต่อทางกายภาพ เทคนิคใหม่นี้นับเป็นความก้าวหน้าสำคัญในโลกควอนตัม โดยมีเป้าหมายเพื่อแก้ไขปัญหาใหญ่ของการแบ่งปันข้อมูลระหว่างหน่วยประมวลผลในระบบควอนตัมคอมพิวเตอร์ == หัวใจของเทคโนโลยีนี้ == ✅ การใช้ Microwave Photons เป็นตัวกลาง - ระบบใหม่ใช้ คลื่นไมโครเวฟ (Microwave Photons) ในการส่งข้อมูลระหว่างชิปควอนตัมโดยตรง - ด้วยการสร้าง waveguide ซึ่งเป็นสายไฟแบบ superconducting ที่ทำหน้าที่เหมือนถนนควอนตัม ช่วยให้ชิปสื่อสารกันได้โดยไม่มี "ตัวกลาง" ✅ กระบวนการสร้าง Remote Entanglement - Remote Entanglement เป็นหลักการทางควอนตัมที่ช่วยให้สองชิปสามารถสร้างความสัมพันธ์เชิงควอนตัมแบบเรียลไทม์ โดยไม่ต้องเชื่อมต่อกัน - วิธีการใหม่ทำให้การส่งและรับโฟตอนเกิดขึ้นได้ในสถานะ “ครึ่งหนึ่ง” ซึ่งโฟตอนอยู่ในสถานะที่ปล่อยและเก็บไว้พร้อมกัน ✅ การปรับรูปทรงโฟตอนเพื่อประสิทธิภาพสูงสุด - การเดินทางของโฟตอนผ่าน waveguide อาจเกิดความผิดเพี้ยน นักวิจัยจึงใช้ อัลกอริทึมเพื่อปรับแต่งรูปร่างของโฟตอน ส่งผลให้อัตราความสำเร็จในการสร้าง Entanglement สูงถึง 60% == ผลกระทบต่อโลกควอนตัมและเทคโนโลยีในอนาคต == ✅ เปิดประตูสู่ Quantum Supercomputer ขนาดใหญ่ - ระบบใหม่รองรับ “All-to-All Connectivity” ซึ่งช่วยให้หน่วยประมวลผลทุกชิปสามารถสื่อสารกันได้โดยตรง - อนาคตอาจมีการพัฒนาเทคโนโลยีเพิ่มเติม เช่น 3D Integration หรือ โปรโตคอลที่เร็วขึ้น เพื่อเพิ่มประสิทธิภาพ ✅ การสนับสนุนจากหน่วยงานสำคัญ - โครงการนี้ได้รับการสนับสนุนโดยหน่วยงานเช่น US Army Research Office, AWS Center for Quantum Computing และ US Air Force Office of Scientific Research ✅ ความสำคัญต่อ Quantum Internet - นอกจากการพัฒนา Quantum Computer ระบบใหม่นี้ยังสามารถขยายไปยัง Quantum Internet ซึ่งเป็นเครือข่ายที่เชื่อมโยงควอนตัมคอมพิวเตอร์ทั่วโลก https://www.techspot.com/news/107436-mit-showcases-quantum-chip-communication-without-physical-contact.html
    WWW.TECHSPOT.COM
    MIT showcases quantum chip communication without physical contact
    Current quantum-computing systems rely on clunky "point-to-point" connections, where data is transferred in a chain and has to jump between nodes. Unfortunately, each hop also increases the...
    0 ความคิดเห็น 0 การแบ่งปัน 185 มุมมอง 1 รีวิว
  • Google ร่วมมือกับ MediaTek เพื่อพัฒนา TPU รุ่นใหม่ที่มีต้นทุนต่ำลงและประสิทธิภาพสูงขึ้น โดย Google จะออกแบบตัวชิป ส่วน MediaTek จะดูแลระบบ I/O เพื่อเชื่อมต่อกับอุปกรณ์ ส่งผลให้ Google ลดการพึ่งพา Broadcom ในด้าน AI Hardware นักวิเคราะห์คาดว่า TPU รุ่นใหม่อาจช่วยเร่งการพัฒนาโมเดล AI ขนาดใหญ่ และทำให้ ต้นทุนการประมวลผล AI ถูกลงกว่าเดิม

    ✅ Google ลดการพึ่งพา Broadcom ในการพัฒนา AI Hardware
    - TPU รุ่นก่อนหน้าของ Google พึ่งพา Broadcom ในการพัฒนาแกนหลัก
    - แต่ครั้งนี้ Google เป็นผู้นำด้านการออกแบบ ขณะที่ MediaTek จะดูแลโมดูล I/O

    ✅ TPU รุ่นใหม่มุ่งเน้นประสิทธิภาพและความประหยัดพลังงาน
    - คาดว่า จะช่วยลดต้นทุนการประมวลผล AI สำหรับคลาวด์และบริการภายในของ Google
    - ออกแบบมาเพื่อ รองรับการฝึกโมเดลขนาดใหญ่ (LLMs) ได้ดีขึ้น

    ✅ MediaTek ขยายอิทธิพลในตลาด AI Hardware
    - MediaTek ได้ร่วมมือในโครงการ AI Supercomputer และกำลังขยายธุรกิจด้าน ชิป AI อย่างต่อเนื่อง
    - การร่วมมือกับ Google จะช่วยให้ MediaTek แข่งขันกับผู้ผลิตชิประดับโลก เช่น Nvidia และ Broadcom

    ✅ อนาคตของ TPU ใหม่—อาจส่งผลต่อการพัฒนา AI Model ระดับโลก
    - หากโครงการนี้สำเร็จ Google อาจสร้าง ระบบ AI ที่มีประสิทธิภาพสูงขึ้น โดยใช้ต้นทุนที่ต่ำลง
    - นักวิเคราะห์ชี้ว่า จะมีผลต่ออุตสาหกรรม AI ในวงกว้าง รวมถึงการพัฒนา Large Language Models (LLMs)

    https://www.techradar.com/pro/after-nvidia-mediatek-may-have-convinced-another-huge-tech-company-to-use-its-expertise-to-develop-ai-chips
    Google ร่วมมือกับ MediaTek เพื่อพัฒนา TPU รุ่นใหม่ที่มีต้นทุนต่ำลงและประสิทธิภาพสูงขึ้น โดย Google จะออกแบบตัวชิป ส่วน MediaTek จะดูแลระบบ I/O เพื่อเชื่อมต่อกับอุปกรณ์ ส่งผลให้ Google ลดการพึ่งพา Broadcom ในด้าน AI Hardware นักวิเคราะห์คาดว่า TPU รุ่นใหม่อาจช่วยเร่งการพัฒนาโมเดล AI ขนาดใหญ่ และทำให้ ต้นทุนการประมวลผล AI ถูกลงกว่าเดิม ✅ Google ลดการพึ่งพา Broadcom ในการพัฒนา AI Hardware - TPU รุ่นก่อนหน้าของ Google พึ่งพา Broadcom ในการพัฒนาแกนหลัก - แต่ครั้งนี้ Google เป็นผู้นำด้านการออกแบบ ขณะที่ MediaTek จะดูแลโมดูล I/O ✅ TPU รุ่นใหม่มุ่งเน้นประสิทธิภาพและความประหยัดพลังงาน - คาดว่า จะช่วยลดต้นทุนการประมวลผล AI สำหรับคลาวด์และบริการภายในของ Google - ออกแบบมาเพื่อ รองรับการฝึกโมเดลขนาดใหญ่ (LLMs) ได้ดีขึ้น ✅ MediaTek ขยายอิทธิพลในตลาด AI Hardware - MediaTek ได้ร่วมมือในโครงการ AI Supercomputer และกำลังขยายธุรกิจด้าน ชิป AI อย่างต่อเนื่อง - การร่วมมือกับ Google จะช่วยให้ MediaTek แข่งขันกับผู้ผลิตชิประดับโลก เช่น Nvidia และ Broadcom ✅ อนาคตของ TPU ใหม่—อาจส่งผลต่อการพัฒนา AI Model ระดับโลก - หากโครงการนี้สำเร็จ Google อาจสร้าง ระบบ AI ที่มีประสิทธิภาพสูงขึ้น โดยใช้ต้นทุนที่ต่ำลง - นักวิเคราะห์ชี้ว่า จะมีผลต่ออุตสาหกรรม AI ในวงกว้าง รวมถึงการพัฒนา Large Language Models (LLMs) https://www.techradar.com/pro/after-nvidia-mediatek-may-have-convinced-another-huge-tech-company-to-use-its-expertise-to-develop-ai-chips
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
  • มีการศึกษาล่าสุดของนักวิจัยที่ใช้ซูเปอร์คอมพิวเตอร์ของ NASA เพื่อสร้างแบบจำลองใหม่ของ Oort Cloud ซึ่งอยู่ไกลออกไปจากวงโคจรของดาวพลูโต Oort Cloud เป็นพื้นที่ที่เต็มไปด้วยวัตถุที่เป็นน้ำแข็งซึ่งโคจรรอบดวงอาทิตย์ และเป็นที่มาของดาวหางระยะยาวที่บางครั้งจะพุ่งเข้าสู่ระบบสุริยะของเรา

    Oort Cloud เริ่มต้นที่ระยะประมาณ 2,000 ถึง 5,000 หน่วยดาราศาสตร์ (AU) จากดวงอาทิตย์ โดย 1 AU คือระยะทางเฉลี่ยระหว่างโลกและดวงอาทิตย์ ขอบเขตด้านนอกของ Oort Cloud ยาวถึง 10,000 ถึง 100,000 AU ซึ่งอยู่ไกลเกินกว่าที่เราจะเห็นได้ แต่สามารถอนุมานได้จากดาวหางที่มาจากพื้นที่นี้

    จนถึงขณะนี้ นักวิทยาศาสตร์รู้ว่า Oort Cloud มีอยู่จริงแต่ไม่เข้าใจรูปร่างของมันมากนัก อย่างไรก็ตาม นักวิจัยจาก Southwest Research Institute และ American Museum of Natural History ได้เสนอว่าโครงสร้างภายในของ Oort Cloud อาจเป็น เกลียว คล้ายกับกาแล็กซีขนาดจิ๋ว

    นักวิจัยได้ศึกษาปรากฏการณ์ที่เรียกว่า "galactic tide" ซึ่งเป็นผลรวมของแรงดึงดูดจากดาวฤกษ์ หลุมดำ และมวลรวมอื่น ๆ ภายในกาแล็กซี่ทางช้างเผือก สำหรับวัตถุที่อยู่ใกล้ดวงอาทิตย์ แรงเหล่านี้ไม่สำคัญเท่าแรงดึงดูดของดวงอาทิตย์ แต่ใน Oort Cloud แรงเหล่านี้กลายเป็นปัจจัยหลัก

    โดยใช้ซูเปอร์คอมพิวเตอร์ Pleiades ของ NASA ทีมวิจัยได้รันการจำลองที่รวม galactic tide และผลกระทบอื่น ๆ เป็นเวลาหลายพันล้านปี ผลลัพธ์แสดงให้เห็นว่า Oort Cloud มีโครงสร้างเป็นแผ่นเกลียวขนาดประมาณ 15,000 AU โดยมีเกลียวสองเส้น ซึ่งทำให้ Oort Cloud ดูเหมือนกับกาแล็กซีขนาดเล็กและแปลกจากรูปแบบที่เคยเห็นในโมเดลส่วนใหญ่ในปัจจุบัน

    สาเหตุของการเกิดเกลียวนี้มาจากปรากฏการณ์ที่เรียกว่า Kozai-Lidov effect ซึ่งเป็นปรากฏการณ์แรงดึงดูดที่ทำให้เกิดการสั่นไหวระยะยาวในวงโคจรของวัตถุใน Oort Cloud ในขณะที่แรงดึงดูดจากดาวเคราะห์ในระบบสุริยะของเรามีผลกระทบน้อยมาก

    การจับภาพเพื่อยืนยันโครงสร้างนี้เป็นความท้าทายใหญ่ วิธีหนึ่งที่อาจใช้ได้คือการติดตามวัตถุใน Oort Cloud จำนวนมากในระยะยาว อีกวิธีหนึ่งคือการตรวจจับแสงที่มองเห็นร่วมกันของพวกมันในขณะที่กรองแสงจากแหล่งอื่นออกไป แต่น่าเสียดายว่าทั้งสองวิธีนี้ยังไม่มีการลงทุนที่เพียงพอ

    https://www.techspot.com/news/106898-nasa-supercomputer-suggests-oort-cloud-may-spiral-like.html
    มีการศึกษาล่าสุดของนักวิจัยที่ใช้ซูเปอร์คอมพิวเตอร์ของ NASA เพื่อสร้างแบบจำลองใหม่ของ Oort Cloud ซึ่งอยู่ไกลออกไปจากวงโคจรของดาวพลูโต Oort Cloud เป็นพื้นที่ที่เต็มไปด้วยวัตถุที่เป็นน้ำแข็งซึ่งโคจรรอบดวงอาทิตย์ และเป็นที่มาของดาวหางระยะยาวที่บางครั้งจะพุ่งเข้าสู่ระบบสุริยะของเรา Oort Cloud เริ่มต้นที่ระยะประมาณ 2,000 ถึง 5,000 หน่วยดาราศาสตร์ (AU) จากดวงอาทิตย์ โดย 1 AU คือระยะทางเฉลี่ยระหว่างโลกและดวงอาทิตย์ ขอบเขตด้านนอกของ Oort Cloud ยาวถึง 10,000 ถึง 100,000 AU ซึ่งอยู่ไกลเกินกว่าที่เราจะเห็นได้ แต่สามารถอนุมานได้จากดาวหางที่มาจากพื้นที่นี้ จนถึงขณะนี้ นักวิทยาศาสตร์รู้ว่า Oort Cloud มีอยู่จริงแต่ไม่เข้าใจรูปร่างของมันมากนัก อย่างไรก็ตาม นักวิจัยจาก Southwest Research Institute และ American Museum of Natural History ได้เสนอว่าโครงสร้างภายในของ Oort Cloud อาจเป็น เกลียว คล้ายกับกาแล็กซีขนาดจิ๋ว นักวิจัยได้ศึกษาปรากฏการณ์ที่เรียกว่า "galactic tide" ซึ่งเป็นผลรวมของแรงดึงดูดจากดาวฤกษ์ หลุมดำ และมวลรวมอื่น ๆ ภายในกาแล็กซี่ทางช้างเผือก สำหรับวัตถุที่อยู่ใกล้ดวงอาทิตย์ แรงเหล่านี้ไม่สำคัญเท่าแรงดึงดูดของดวงอาทิตย์ แต่ใน Oort Cloud แรงเหล่านี้กลายเป็นปัจจัยหลัก โดยใช้ซูเปอร์คอมพิวเตอร์ Pleiades ของ NASA ทีมวิจัยได้รันการจำลองที่รวม galactic tide และผลกระทบอื่น ๆ เป็นเวลาหลายพันล้านปี ผลลัพธ์แสดงให้เห็นว่า Oort Cloud มีโครงสร้างเป็นแผ่นเกลียวขนาดประมาณ 15,000 AU โดยมีเกลียวสองเส้น ซึ่งทำให้ Oort Cloud ดูเหมือนกับกาแล็กซีขนาดเล็กและแปลกจากรูปแบบที่เคยเห็นในโมเดลส่วนใหญ่ในปัจจุบัน สาเหตุของการเกิดเกลียวนี้มาจากปรากฏการณ์ที่เรียกว่า Kozai-Lidov effect ซึ่งเป็นปรากฏการณ์แรงดึงดูดที่ทำให้เกิดการสั่นไหวระยะยาวในวงโคจรของวัตถุใน Oort Cloud ในขณะที่แรงดึงดูดจากดาวเคราะห์ในระบบสุริยะของเรามีผลกระทบน้อยมาก การจับภาพเพื่อยืนยันโครงสร้างนี้เป็นความท้าทายใหญ่ วิธีหนึ่งที่อาจใช้ได้คือการติดตามวัตถุใน Oort Cloud จำนวนมากในระยะยาว อีกวิธีหนึ่งคือการตรวจจับแสงที่มองเห็นร่วมกันของพวกมันในขณะที่กรองแสงจากแหล่งอื่นออกไป แต่น่าเสียดายว่าทั้งสองวิธีนี้ยังไม่มีการลงทุนที่เพียงพอ https://www.techspot.com/news/106898-nasa-supercomputer-suggests-oort-cloud-may-spiral-like.html
    WWW.TECHSPOT.COM
    NASA supercomputer suggests the Oort Cloud may be a spiral, like a miniature galaxy
    The Oort Cloud begins roughly 2,000 – 5,000 astronomical units (AU) from the Sun, with 1 AU being the average distance between Earth and the Sun. Its...
    0 ความคิดเห็น 0 การแบ่งปัน 363 มุมมอง 0 รีวิว
  • บริษัท Dell กำลังจะทำสัญญากับบริษัท xAI ของ Elon Musk เพื่อส่งมอบเซิร์ฟเวอร์ที่มีมูลค่าถึง $5 พันล้านเหรียญสหรัฐ เซิร์ฟเวอร์เหล่านี้จะใช้ชิป Nvidia GB200 ที่ออกแบบมาเพื่อรองรับการประมวลผลทางด้านปัญญาประดิษฐ์ (AI)

    ข้อตกลงนี้คาดว่าจะเป็นส่วนหนึ่งของโครงการ Memphis supercomputer ของ xAI ซึ่งกำลังสร้างขึ้นในเมืองเมมฟิส โดยใช้เซิร์ฟเวอร์จาก Dell และ Supermicro บางส่วน รายงานบอกว่าข้อตกลงนี้ยังอยู่ในขั้นตอนการเจรจาบางส่วน แต่คาดว่าจะสามารถส่งมอบเซิร์ฟเวอร์ได้ในปลายปี 2025

    Elon Musk เคยกล่าวไว้ว่า "การจะสามารถแข่งขันในด้าน AI ได้นั้นต้องใช้เงินหลายพันล้านเหรียญต่อปี" และครั้งนี้เขาได้แสดงให้เห็นถึงการทุ่มทุนในโครงการที่เกี่ยวข้องกับ AI อย่างจริงจัง

    นอกจากนี้ Dell ยังคาดการณ์ว่ารายได้จากเซิร์ฟเวอร์ AI ของบริษัทจะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐ ในปีงบประมาณ 2026 การชนะข้อตกลงนี้จะทำให้ Dell สามารถยกระดับสถานะของตนในตลาดเซิร์ฟเวอร์ที่รองรับ AI ได้อย่างชัดเจน

    ก่อนหน้านี้ HPE ได้รับสัญญามูลค่า $1 พันล้านเหรียญสหรัฐจาก xAI เพื่อส่งมอบเซิร์ฟเวอร์ที่ออกแบบมาเฉพาะสำหรับการทำงาน AI ซึ่งแสดงถึงการแข่งขันที่รุนแรงในตลาดนี้ การที่ Dell สามารถเข้ามาแย่งข้อตกลงจากคู่แข่งยิ่งทำให้เห็นว่า Dell มีความตั้งใจที่จะขยายตลาดนี้อย่างจริงจัง

    นักวิเคราะห์คาดว่า Dell จะส่งมอบเซิร์ฟเวอร์ AI มูลค่ามากกว่า $10 พันล้านเหรียญสหรัฐในปีงบประมาณที่ผ่านมา และมูลค่านี้จะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐในปี 2026 การทำสัญญากับ xAI ครั้งนี้จะช่วยยกระดับสถานะของ Dell ในตลาด AI และเพิ่มยอดขายให้กับบริษัทอย่างชัดเจน ซึ่งนักวิเคราะห์ Woo Jin Ho ของ Bloomberg Intelligence ระบุว่าจะ "ทำให้บริษัทกลายเป็นผู้นำด้านเซิร์ฟเวอร์ AI อย่างมั่นคง"

    https://www.techradar.com/pro/xai-could-sign-a-usd5-billion-deal-with-dell-for-thousands-of-servers-with-nvidias-gb200-blackwell-ai-gpu-accelerators
    บริษัท Dell กำลังจะทำสัญญากับบริษัท xAI ของ Elon Musk เพื่อส่งมอบเซิร์ฟเวอร์ที่มีมูลค่าถึง $5 พันล้านเหรียญสหรัฐ เซิร์ฟเวอร์เหล่านี้จะใช้ชิป Nvidia GB200 ที่ออกแบบมาเพื่อรองรับการประมวลผลทางด้านปัญญาประดิษฐ์ (AI) ข้อตกลงนี้คาดว่าจะเป็นส่วนหนึ่งของโครงการ Memphis supercomputer ของ xAI ซึ่งกำลังสร้างขึ้นในเมืองเมมฟิส โดยใช้เซิร์ฟเวอร์จาก Dell และ Supermicro บางส่วน รายงานบอกว่าข้อตกลงนี้ยังอยู่ในขั้นตอนการเจรจาบางส่วน แต่คาดว่าจะสามารถส่งมอบเซิร์ฟเวอร์ได้ในปลายปี 2025 Elon Musk เคยกล่าวไว้ว่า "การจะสามารถแข่งขันในด้าน AI ได้นั้นต้องใช้เงินหลายพันล้านเหรียญต่อปี" และครั้งนี้เขาได้แสดงให้เห็นถึงการทุ่มทุนในโครงการที่เกี่ยวข้องกับ AI อย่างจริงจัง นอกจากนี้ Dell ยังคาดการณ์ว่ารายได้จากเซิร์ฟเวอร์ AI ของบริษัทจะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐ ในปีงบประมาณ 2026 การชนะข้อตกลงนี้จะทำให้ Dell สามารถยกระดับสถานะของตนในตลาดเซิร์ฟเวอร์ที่รองรับ AI ได้อย่างชัดเจน ก่อนหน้านี้ HPE ได้รับสัญญามูลค่า $1 พันล้านเหรียญสหรัฐจาก xAI เพื่อส่งมอบเซิร์ฟเวอร์ที่ออกแบบมาเฉพาะสำหรับการทำงาน AI ซึ่งแสดงถึงการแข่งขันที่รุนแรงในตลาดนี้ การที่ Dell สามารถเข้ามาแย่งข้อตกลงจากคู่แข่งยิ่งทำให้เห็นว่า Dell มีความตั้งใจที่จะขยายตลาดนี้อย่างจริงจัง นักวิเคราะห์คาดว่า Dell จะส่งมอบเซิร์ฟเวอร์ AI มูลค่ามากกว่า $10 พันล้านเหรียญสหรัฐในปีงบประมาณที่ผ่านมา และมูลค่านี้จะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐในปี 2026 การทำสัญญากับ xAI ครั้งนี้จะช่วยยกระดับสถานะของ Dell ในตลาด AI และเพิ่มยอดขายให้กับบริษัทอย่างชัดเจน ซึ่งนักวิเคราะห์ Woo Jin Ho ของ Bloomberg Intelligence ระบุว่าจะ "ทำให้บริษัทกลายเป็นผู้นำด้านเซิร์ฟเวอร์ AI อย่างมั่นคง" https://www.techradar.com/pro/xai-could-sign-a-usd5-billion-deal-with-dell-for-thousands-of-servers-with-nvidias-gb200-blackwell-ai-gpu-accelerators
    WWW.TECHRADAR.COM
    Dell's deal with Grok's mothership set to be confirmed according to business reports
    The order is expected to form part of xAI's Memphis supercomputer project
    0 ความคิดเห็น 0 การแบ่งปัน 246 มุมมอง 0 รีวิว
  • บริษัท Gigabyte ได้เปิดโอกาสให้บุคคลหรือองค์กรที่มีความคิดสร้างสรรค์และมีโครงการที่น่าสนใจ สามารถทดสอบซูเปอร์คอมพิวเตอร์รุ่น G383-R80 ที่ใช้โปรเซสเซอร์ AMD MI300A ได้ฟรีเป็นเวลา 7 วัน ซูเปอร์คอมพิวเตอร์นี้มีมูลค่าถึง $304,207 หรือประมาณ 10,000,000 บาท และถูกออกแบบมาเพื่อรองรับงานที่ต้องการประสิทธิภาพสูง เช่น การฝึก AI, การทำนายข้อมูลด้วย AI, และการประมวลผลความเร็วสูง

    เพื่อเข้าร่วมทดสอบ ผู้สมัครต้องกรอกแบบฟอร์มบนเว็บไซต์ Gigabyte Launchpad และโครงการที่เสนอต้องมีความเป็นไปได้เชิงพาณิชย์หรือมีความคิดสร้างสรรค์ที่น่าสนใจ ทางบริษัทจะพิจารณาใบสมัครและแจ้งผลให้ผู้สมัครทราบภายในสามวันทำการ โดยระยะเวลาการทดสอบสามารถขยายได้ถึงสองสัปดาห์ผ่านการติดต่อกับตัวแทนขาย

    ซูเปอร์คอมพิวเตอร์รุ่นนี้มีคุณสมบัติที่ยอดเยี่ยม เช่น การรองรับโปรเซสเซอร์ AMD MI300A APUs ซึ่งรวมทั้ง CPU และ GPU ไว้ด้วยกันเพื่อการประมวลผลที่รวดเร็ว นอกจากนี้ ยังมีหน่วยเก็บข้อมูลแบบ NVMe ที่รองรับความจุถึง 61.44TB และการเชื่อมต่ออินเทอร์เน็ตความเร็วสูง 10Gb/s Ethernet

    https://www.techradar.com/pro/want-to-rent-a-usd300-000-amd-mi300a-supercomputer-for-free-for-seven-days-gigabyte-wants-to-hear-from-you-asap
    บริษัท Gigabyte ได้เปิดโอกาสให้บุคคลหรือองค์กรที่มีความคิดสร้างสรรค์และมีโครงการที่น่าสนใจ สามารถทดสอบซูเปอร์คอมพิวเตอร์รุ่น G383-R80 ที่ใช้โปรเซสเซอร์ AMD MI300A ได้ฟรีเป็นเวลา 7 วัน ซูเปอร์คอมพิวเตอร์นี้มีมูลค่าถึง $304,207 หรือประมาณ 10,000,000 บาท และถูกออกแบบมาเพื่อรองรับงานที่ต้องการประสิทธิภาพสูง เช่น การฝึก AI, การทำนายข้อมูลด้วย AI, และการประมวลผลความเร็วสูง เพื่อเข้าร่วมทดสอบ ผู้สมัครต้องกรอกแบบฟอร์มบนเว็บไซต์ Gigabyte Launchpad และโครงการที่เสนอต้องมีความเป็นไปได้เชิงพาณิชย์หรือมีความคิดสร้างสรรค์ที่น่าสนใจ ทางบริษัทจะพิจารณาใบสมัครและแจ้งผลให้ผู้สมัครทราบภายในสามวันทำการ โดยระยะเวลาการทดสอบสามารถขยายได้ถึงสองสัปดาห์ผ่านการติดต่อกับตัวแทนขาย ซูเปอร์คอมพิวเตอร์รุ่นนี้มีคุณสมบัติที่ยอดเยี่ยม เช่น การรองรับโปรเซสเซอร์ AMD MI300A APUs ซึ่งรวมทั้ง CPU และ GPU ไว้ด้วยกันเพื่อการประมวลผลที่รวดเร็ว นอกจากนี้ ยังมีหน่วยเก็บข้อมูลแบบ NVMe ที่รองรับความจุถึง 61.44TB และการเชื่อมต่ออินเทอร์เน็ตความเร็วสูง 10Gb/s Ethernet https://www.techradar.com/pro/want-to-rent-a-usd300-000-amd-mi300a-supercomputer-for-free-for-seven-days-gigabyte-wants-to-hear-from-you-asap
    0 ความคิดเห็น 0 การแบ่งปัน 251 มุมมอง 0 รีวิว
  • ซูเปอร์คอมพิวเตอร์ Aurora ของ Argonne National Laboratory ได้เปิดให้บริการอย่างเป็นทางการแล้ว ซูเปอร์คอมพิวเตอร์นี้ถูกประกาศครั้งแรกในปี 2015 และเผชิญกับความล่าช้ามากมาย แต่ตอนนี้สามารถให้บริการได้มากกว่า 1 ExaFLOPS สำหรับการจำลองและ 11.6 ExaFLOPS สำหรับการประมวลผลปัญญาประดิษฐ์และการเรียนรู้ของเครื่อง

    Michael Papka ผู้อำนวยการ Argonne Leadership Computing Facility (ALCF) กล่าวว่า "เรารู้สึกตื่นเต้นที่ได้เปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์" และเสริมว่า "ผู้ใช้เริ่มแรกได้แสดงให้เราเห็นถึงศักยภาพอันมหาศาลของ Aurora เรารอคอยที่จะเห็นว่าชุมชนวิทยาศาสตร์จะใช้ระบบนี้ในการเปลี่ยนแปลงการวิจัยของพวกเขาอย่างไร"

    การเปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์ถือเป็นการยอมรับระบบอย่างเป็นทางการโดย ARNL ซึ่งเป็นก้าวสำคัญสำหรับเครื่องที่มีปัญหานี้ Aurora ถูกวางแผนไว้สำหรับปี 2018 แต่พลาดเป้าหมายเนื่องจากการตัดสินใจของ Intel ที่จะยกเลิกโปรเซสเซอร์ Xeon Phi หลังจากที่เครื่องถูกออกแบบใหม่ โครงการก็เผชิญกับความล่าช้าเพิ่มเติมเนื่องจากการล่าช้าของเทคโนโลยีการผลิต 7nm ของ Intel ทำให้วันที่เสร็จสมบูรณ์ถูกเลื่อนออกไปเป็นปี 2021 และอีกครั้งในปี 2023

    แม้ว่าอุปกรณ์จะถูกติดตั้งในเดือนมิถุนายน 2023 แต่ต้องใช้เวลาหลายเดือนกว่าระบบจะสามารถทำงานได้เต็มที่และบรรลุประสิทธิภาพระดับ exascale ซึ่งในที่สุดก็สำเร็จในเดือนพฤษภาคม 2024 แต่ระบบนี้ยังคงเปิดให้บริการเฉพาะนักวิจัยบางกลุ่มเท่านั้นเป็นเวลานานกว่าครึ่งปี

    Aurora ไม่ใช่ซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดสำหรับการจำลอง เนื่องจากประสิทธิภาพ FP64 ของมันเพียงแค่เกิน 1 ExaFLOPS แต่เป็นระบบที่ทรงพลังที่สุดสำหรับ AI เนื่องจากสามารถบรรลุ 11.6 ExaFLOPS ตามการทดสอบ HPL-MxP

    Rick Stevens ผู้อำนวยการห้องปฏิบัติการ Argonne กล่าวว่า "เป้าหมายใหญ่ของ Aurora คือการฝึกอบรมโมเดลภาษาขนาดใหญ่สำหรับวิทยาศาสตร์" และเสริมว่า "ด้วยโครงการ AuroraGPT เรากำลังสร้างโมเดลพื้นฐานที่เน้นวิทยาศาสตร์ที่สามารถสกัดความรู้จากหลายโดเมน ตั้งแต่ชีววิทยาถึงเคมี หนึ่งในเป้าหมายของ Aurora คือการช่วยให้นักวิจัยสร้างเครื่องมือ AI ใหม่ที่ช่วยให้พวกเขาก้าวหน้าได้เร็วเท่าที่พวกเขาคิด ไม่ใช่แค่เร็วเท่าที่การคำนวณของพวกเขา"

    โครงการวิจัยแรกๆ ที่ใช้ Aurora รวมถึงการจำลองระบบที่ซับซ้อน เช่น ระบบหมุนเวียนเลือดของมนุษย์ เครื่องปฏิกรณ์นิวเคลียร์ และการระเบิดของซูเปอร์โนวา ประสิทธิภาพที่ล้นหลามของเครื่องนี้ยังมีบทบาทสำคัญในการประมวลผลข้อมูลจากศูนย์วิจัยใหญ่ๆ เช่น Argonne's Advanced Photon Source (APS) และ CERN's Large Hadron Collider

    Aurora ประกอบด้วย 166 แร็ค แต่ละแร็คมี 64 เบลด รวมทั้งหมด 10,624 เบลด แต่ละเบลดมีโปรเซสเซอร์ Xeon Max สองตัวพร้อมหน่วยความจำ HBM2E ขนาด 64 GB และ GPU Intel Data Center Max 'Ponte Vecchio' หกตัว ทั้งหมดนี้ถูกทำความเย็นด้วยระบบระบายความร้อนด้วยของเหลวเฉพาะ

    Aurora มี CPU 21,248 ตัวพร้อมคอร์ x86 ประสิทธิภาพสูงกว่า 1.1 ล้านคอร์ หน่วยความจำ DDR5 ขนาด 19.9 PB และหน่วยความจำ HBM2E ขนาด 1.36 PB ที่เชื่อมต่อกับ CPU นอกจากนี้ยังมี GPU 63,744 ตัวที่ปรับแต่งสำหรับ AI และ HPC พร้อมหน่วยความจำ HBM2E ขนาด 8.16 PB Aurora ใช้โหนด 1,024 โหนดที่มีไดรฟ์โซลิดสเตตสำหรับการจัดเก็บข้อมูล รวมความจุทั้งหมด 220 PB และแบนด์วิดท์ 31 TB/s ระบบนี้ใช้สถาปัตยกรรมซูเปอร์คอมพิวเตอร์ Shasta ของ HPE พร้อมการเชื่อมต่อ Slingshot

    https://www.tomshardware.com/tech-industry/supercomputers/aurora-supercomputer-is-now-fully-operational-available-to-researchers
    ซูเปอร์คอมพิวเตอร์ Aurora ของ Argonne National Laboratory ได้เปิดให้บริการอย่างเป็นทางการแล้ว ซูเปอร์คอมพิวเตอร์นี้ถูกประกาศครั้งแรกในปี 2015 และเผชิญกับความล่าช้ามากมาย แต่ตอนนี้สามารถให้บริการได้มากกว่า 1 ExaFLOPS สำหรับการจำลองและ 11.6 ExaFLOPS สำหรับการประมวลผลปัญญาประดิษฐ์และการเรียนรู้ของเครื่อง Michael Papka ผู้อำนวยการ Argonne Leadership Computing Facility (ALCF) กล่าวว่า "เรารู้สึกตื่นเต้นที่ได้เปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์" และเสริมว่า "ผู้ใช้เริ่มแรกได้แสดงให้เราเห็นถึงศักยภาพอันมหาศาลของ Aurora เรารอคอยที่จะเห็นว่าชุมชนวิทยาศาสตร์จะใช้ระบบนี้ในการเปลี่ยนแปลงการวิจัยของพวกเขาอย่างไร" การเปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์ถือเป็นการยอมรับระบบอย่างเป็นทางการโดย ARNL ซึ่งเป็นก้าวสำคัญสำหรับเครื่องที่มีปัญหานี้ Aurora ถูกวางแผนไว้สำหรับปี 2018 แต่พลาดเป้าหมายเนื่องจากการตัดสินใจของ Intel ที่จะยกเลิกโปรเซสเซอร์ Xeon Phi หลังจากที่เครื่องถูกออกแบบใหม่ โครงการก็เผชิญกับความล่าช้าเพิ่มเติมเนื่องจากการล่าช้าของเทคโนโลยีการผลิต 7nm ของ Intel ทำให้วันที่เสร็จสมบูรณ์ถูกเลื่อนออกไปเป็นปี 2021 และอีกครั้งในปี 2023 แม้ว่าอุปกรณ์จะถูกติดตั้งในเดือนมิถุนายน 2023 แต่ต้องใช้เวลาหลายเดือนกว่าระบบจะสามารถทำงานได้เต็มที่และบรรลุประสิทธิภาพระดับ exascale ซึ่งในที่สุดก็สำเร็จในเดือนพฤษภาคม 2024 แต่ระบบนี้ยังคงเปิดให้บริการเฉพาะนักวิจัยบางกลุ่มเท่านั้นเป็นเวลานานกว่าครึ่งปี Aurora ไม่ใช่ซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดสำหรับการจำลอง เนื่องจากประสิทธิภาพ FP64 ของมันเพียงแค่เกิน 1 ExaFLOPS แต่เป็นระบบที่ทรงพลังที่สุดสำหรับ AI เนื่องจากสามารถบรรลุ 11.6 ExaFLOPS ตามการทดสอบ HPL-MxP Rick Stevens ผู้อำนวยการห้องปฏิบัติการ Argonne กล่าวว่า "เป้าหมายใหญ่ของ Aurora คือการฝึกอบรมโมเดลภาษาขนาดใหญ่สำหรับวิทยาศาสตร์" และเสริมว่า "ด้วยโครงการ AuroraGPT เรากำลังสร้างโมเดลพื้นฐานที่เน้นวิทยาศาสตร์ที่สามารถสกัดความรู้จากหลายโดเมน ตั้งแต่ชีววิทยาถึงเคมี หนึ่งในเป้าหมายของ Aurora คือการช่วยให้นักวิจัยสร้างเครื่องมือ AI ใหม่ที่ช่วยให้พวกเขาก้าวหน้าได้เร็วเท่าที่พวกเขาคิด ไม่ใช่แค่เร็วเท่าที่การคำนวณของพวกเขา" โครงการวิจัยแรกๆ ที่ใช้ Aurora รวมถึงการจำลองระบบที่ซับซ้อน เช่น ระบบหมุนเวียนเลือดของมนุษย์ เครื่องปฏิกรณ์นิวเคลียร์ และการระเบิดของซูเปอร์โนวา ประสิทธิภาพที่ล้นหลามของเครื่องนี้ยังมีบทบาทสำคัญในการประมวลผลข้อมูลจากศูนย์วิจัยใหญ่ๆ เช่น Argonne's Advanced Photon Source (APS) และ CERN's Large Hadron Collider Aurora ประกอบด้วย 166 แร็ค แต่ละแร็คมี 64 เบลด รวมทั้งหมด 10,624 เบลด แต่ละเบลดมีโปรเซสเซอร์ Xeon Max สองตัวพร้อมหน่วยความจำ HBM2E ขนาด 64 GB และ GPU Intel Data Center Max 'Ponte Vecchio' หกตัว ทั้งหมดนี้ถูกทำความเย็นด้วยระบบระบายความร้อนด้วยของเหลวเฉพาะ Aurora มี CPU 21,248 ตัวพร้อมคอร์ x86 ประสิทธิภาพสูงกว่า 1.1 ล้านคอร์ หน่วยความจำ DDR5 ขนาด 19.9 PB และหน่วยความจำ HBM2E ขนาด 1.36 PB ที่เชื่อมต่อกับ CPU นอกจากนี้ยังมี GPU 63,744 ตัวที่ปรับแต่งสำหรับ AI และ HPC พร้อมหน่วยความจำ HBM2E ขนาด 8.16 PB Aurora ใช้โหนด 1,024 โหนดที่มีไดรฟ์โซลิดสเตตสำหรับการจัดเก็บข้อมูล รวมความจุทั้งหมด 220 PB และแบนด์วิดท์ 31 TB/s ระบบนี้ใช้สถาปัตยกรรมซูเปอร์คอมพิวเตอร์ Shasta ของ HPE พร้อมการเชื่อมต่อ Slingshot https://www.tomshardware.com/tech-industry/supercomputers/aurora-supercomputer-is-now-fully-operational-available-to-researchers
    0 ความคิดเห็น 0 การแบ่งปัน 520 มุมมอง 0 รีวิว
  • Supercomputer ทำนายผลยูฟ่าแชมเปียนส์ลีก (24/01/68)#news1 #ข่าวกีฬา #supercomputer #ยูฟ่าแชมเปียนส์ลีก
    Supercomputer ทำนายผลยูฟ่าแชมเปียนส์ลีก (24/01/68)#news1 #ข่าวกีฬา #supercomputer #ยูฟ่าแชมเปียนส์ลีก
    Like
    Love
    8
    0 ความคิดเห็น 0 การแบ่งปัน 1444 มุมมอง 54 0 รีวิว
  • เปิดตัวซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกชื่อ "El Capitan" ที่ห้องปฏิบัติการแห่งชาติ Lawrence Livermore (LLNL) ในแคลิฟอร์เนีย ซูเปอร์คอมพิวเตอร์นี้ถูกพัฒนามานานกว่าแปดปีและมีความสามารถในการประมวลผลสูงสุดถึง 2.746 exaFLOPS El Capitan ถูกออกแบบมาเพื่อรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์ของสหรัฐอเมริกาและใช้ในการวิจัยที่เป็นความลับ

    El Capitan ใช้พลังงานจากซีพียูและจีพียูมากกว่า 11 ล้านคอร์ที่รวมอยู่ในตัวเร่ง AMD Instinct MI300A กว่า 43,000 ตัว. ซูเปอร์คอมพิวเตอร์นี้สามารถทำการคำนวณได้ถึง 2.79 quintillion ครั้งต่อวินาที ซึ่งเป็นจำนวนที่มากจนถ้าคุณย้อนเวลากลับไป 2.79 quintillion วินาที คุณจะไปถึงกว่า 70 พันล้านปีก่อนการเกิดบิ๊กแบง

    นอกจากการรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์แล้ว El Capitan ยังถูกใช้ในการวิจัยด้านวิทยาศาสตร์วัสดุและฟิสิกส์ รวมถึงงานที่เกี่ยวข้องกับ AI และการเรียนรู้ของเครื่อง ซูเปอร์คอมพิวเตอร์นี้ถูกสร้างขึ้นด้วยงบประมาณประมาณ 600 ล้านดอลลาร์สหรัฐ และถูกคาดหวังว่าจะมีประสิทธิภาพมากกว่าซูเปอร์คอมพิวเตอร์ Sierra ที่ถูกใช้งานมาตั้งแต่ปี 2018 ถึง 18 เท่า

    น่าสนใจที่เห็นว่าเทคโนโลยีซูเปอร์คอมพิวเตอร์กำลังพัฒนาอย่างรวดเร็วและมีบทบาทสำคัญในการรักษาความปลอดภัยและการวิจัยทางวิทยาศาสตร์ การที่ El Capitan สามารถทำการคำนวณได้ในระดับที่สูงมากนี้อาจนำไปสู่การค้นพบใหม่ๆ ที่สำคัญในอนาคต

    https://www.techspot.com/news/106467-world-fastest-supercomputer-amd-powered-el-capitan-goes.html
    เปิดตัวซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกชื่อ "El Capitan" ที่ห้องปฏิบัติการแห่งชาติ Lawrence Livermore (LLNL) ในแคลิฟอร์เนีย ซูเปอร์คอมพิวเตอร์นี้ถูกพัฒนามานานกว่าแปดปีและมีความสามารถในการประมวลผลสูงสุดถึง 2.746 exaFLOPS El Capitan ถูกออกแบบมาเพื่อรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์ของสหรัฐอเมริกาและใช้ในการวิจัยที่เป็นความลับ El Capitan ใช้พลังงานจากซีพียูและจีพียูมากกว่า 11 ล้านคอร์ที่รวมอยู่ในตัวเร่ง AMD Instinct MI300A กว่า 43,000 ตัว. ซูเปอร์คอมพิวเตอร์นี้สามารถทำการคำนวณได้ถึง 2.79 quintillion ครั้งต่อวินาที ซึ่งเป็นจำนวนที่มากจนถ้าคุณย้อนเวลากลับไป 2.79 quintillion วินาที คุณจะไปถึงกว่า 70 พันล้านปีก่อนการเกิดบิ๊กแบง นอกจากการรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์แล้ว El Capitan ยังถูกใช้ในการวิจัยด้านวิทยาศาสตร์วัสดุและฟิสิกส์ รวมถึงงานที่เกี่ยวข้องกับ AI และการเรียนรู้ของเครื่อง ซูเปอร์คอมพิวเตอร์นี้ถูกสร้างขึ้นด้วยงบประมาณประมาณ 600 ล้านดอลลาร์สหรัฐ และถูกคาดหวังว่าจะมีประสิทธิภาพมากกว่าซูเปอร์คอมพิวเตอร์ Sierra ที่ถูกใช้งานมาตั้งแต่ปี 2018 ถึง 18 เท่า น่าสนใจที่เห็นว่าเทคโนโลยีซูเปอร์คอมพิวเตอร์กำลังพัฒนาอย่างรวดเร็วและมีบทบาทสำคัญในการรักษาความปลอดภัยและการวิจัยทางวิทยาศาสตร์ การที่ El Capitan สามารถทำการคำนวณได้ในระดับที่สูงมากนี้อาจนำไปสู่การค้นพบใหม่ๆ ที่สำคัญในอนาคต https://www.techspot.com/news/106467-world-fastest-supercomputer-amd-powered-el-capitan-goes.html
    WWW.TECHSPOT.COM
    World's fastest supercomputer, "El Capitan," goes online to safeguard US nuclear weapons
    El Capitan can reach a peak performance of 2.746 exaFLOPS, making it the National Nuclear Security Administration's first exascale supercomputer. It's the world's third exascale machine after...
    0 ความคิดเห็น 0 การแบ่งปัน 301 มุมมอง 0 รีวิว
  • Nvidia ได้เปิดเผยว่า ซูเปอร์คอมพิวเตอร์ของบริษัทได้ทำการปรับปรุงเทคโนโลยี DLSS (Deep Learning Super Sampling) อย่างต่อเนื่องตลอด 6 ปีที่ผ่านมา DLSS เป็นเทคโนโลยีที่ช่วยเพิ่มคุณภาพของภาพและการอัพสเกลภาพในเกม โดยใช้การเรียนรู้เชิงลึก

    ตั้งแต่การเปิดตัวครั้งแรกในซีรีส์ GeForce 20, DLSS ได้รับการปรับปรุงอย่างต่อเนื่อง. ล่าสุด Nvidia ได้เปิดตัว DLSS 4 ที่งาน CES ซึ่งสัญญาว่าจะมีประสิทธิภาพที่ดีกว่ารุ่นก่อนหน้านี้อย่างมาก

    Bryan Catanzaro รองประธานฝ่ายวิจัยการเรียนรู้เชิงลึกประยุกต์ของ Nvidia กล่าวว่าซูเปอร์คอมพิวเตอร์ของบริษัทที่มี GPU หลายพันตัวทำงานตลอด 24 ชั่วโมงทุกวัน เพื่อปรับปรุง DLSS กระบวนการฝึกอบรมนี้เกี่ยวข้องกับการวิเคราะห์ความล้มเหลว เช่น การเกิดภาพเบลอหรือการกระพริบในเกม

    Nvidia อ้างว่า RTX 5070 ที่ใช้ DLSS 4 มีประสิทธิภาพเทียบเท่ากับ RTX 4090 นอกจากนี้ RTX 5090 ยังเร็วกว่า RTX 4090 ประมาณ 30% โดยไม่ใช้ DLSS และ RTX 5080 เร็วกว่า RTX 4080 ประมาณ 15%

    https://www.techspot.com/news/106368-supercomputer-nvidia-has-improving-dlss-non-stop-six.html
    Nvidia ได้เปิดเผยว่า ซูเปอร์คอมพิวเตอร์ของบริษัทได้ทำการปรับปรุงเทคโนโลยี DLSS (Deep Learning Super Sampling) อย่างต่อเนื่องตลอด 6 ปีที่ผ่านมา DLSS เป็นเทคโนโลยีที่ช่วยเพิ่มคุณภาพของภาพและการอัพสเกลภาพในเกม โดยใช้การเรียนรู้เชิงลึก ตั้งแต่การเปิดตัวครั้งแรกในซีรีส์ GeForce 20, DLSS ได้รับการปรับปรุงอย่างต่อเนื่อง. ล่าสุด Nvidia ได้เปิดตัว DLSS 4 ที่งาน CES ซึ่งสัญญาว่าจะมีประสิทธิภาพที่ดีกว่ารุ่นก่อนหน้านี้อย่างมาก Bryan Catanzaro รองประธานฝ่ายวิจัยการเรียนรู้เชิงลึกประยุกต์ของ Nvidia กล่าวว่าซูเปอร์คอมพิวเตอร์ของบริษัทที่มี GPU หลายพันตัวทำงานตลอด 24 ชั่วโมงทุกวัน เพื่อปรับปรุง DLSS กระบวนการฝึกอบรมนี้เกี่ยวข้องกับการวิเคราะห์ความล้มเหลว เช่น การเกิดภาพเบลอหรือการกระพริบในเกม Nvidia อ้างว่า RTX 5070 ที่ใช้ DLSS 4 มีประสิทธิภาพเทียบเท่ากับ RTX 4090 นอกจากนี้ RTX 5090 ยังเร็วกว่า RTX 4090 ประมาณ 30% โดยไม่ใช้ DLSS และ RTX 5080 เร็วกว่า RTX 4080 ประมาณ 15% https://www.techspot.com/news/106368-supercomputer-nvidia-has-improving-dlss-non-stop-six.html
    WWW.TECHSPOT.COM
    An Nvidia supercomputer has been improving DLSS non-stop for the past six years
    While discussing the tech at at the consumer electronics show, Nvidia's VP of applied deep learning research, Bryan Catanzaro, said improving DLSS has been a continuous, six-year...
    0 ความคิดเห็น 0 การแบ่งปัน 322 มุมมอง 0 รีวิว
  • Frore Systems ได้เปิดตัวโซลูชันการระบายความร้อน "AirJet" สำหรับ Jetson Orin Nano Super AI "mini-supercomputer" ของ NVIDIA ซึ่งช่วยเพิ่มประสิทธิภาพการทำงานได้อย่างมาก

    AirJet PAK 5C-25 สามารถระบายความร้อนได้ถึง 25 วัตต์ ทำให้ Jetson Orin Nano Super สามารถทำงานได้เต็มประสิทธิภาพแม้ในสภาวะการทำงานที่ยากลำบาก AirJet PAK เป็นโซลูชันการระบายความร้อนแบบ solid-state ที่บาง เงียบ ป้องกันฝุ่นและน้ำ และสามารถติดตั้งได้ง่ายบน System on Module (SoM) AI Computers

    https://wccf.tech/1fpdg
    Frore Systems ได้เปิดตัวโซลูชันการระบายความร้อน "AirJet" สำหรับ Jetson Orin Nano Super AI "mini-supercomputer" ของ NVIDIA ซึ่งช่วยเพิ่มประสิทธิภาพการทำงานได้อย่างมาก AirJet PAK 5C-25 สามารถระบายความร้อนได้ถึง 25 วัตต์ ทำให้ Jetson Orin Nano Super สามารถทำงานได้เต็มประสิทธิภาพแม้ในสภาวะการทำงานที่ยากลำบาก AirJet PAK เป็นโซลูชันการระบายความร้อนแบบ solid-state ที่บาง เงียบ ป้องกันฝุ่นและน้ำ และสามารถติดตั้งได้ง่ายบน System on Module (SoM) AI Computers https://wccf.tech/1fpdg
    WCCF.TECH
    Frore Systems Unveils "AirJet" Cooling Solution For NVIDIA's Newest Jetson Orin Nano Super AI "Mini-Supercomputer"
    Frore Systems has released a dedicated cooling solution for NVIDIA's recently-launched Jetson Orin Nano Super AI "mini-supercomputer".
    0 ความคิดเห็น 0 การแบ่งปัน 245 มุมมอง 0 รีวิว
  • Broadcom บริษัทเทคโนโลยีชั้นนำได้ประกาศแผนการสร้างซูเปอร์คอมพิวเตอร์ AI ที่มี GPU หนึ่งล้านตัวภายในปี 2027 คาดว่าจะมีลูกค้าระดับ hyperscaler สามรายที่ใช้ซูเปอร์คอมพิวเตอร์ AI ที่มี XPU หนึ่งล้านตัว นอกจากนี้ยังมีการสั่งซื้อจากลูกค้า hyperscaler สองรายเพิ่มเติมและกำลังพัฒนา AI XPU รุ่นใหม่สำหรับพวกเขา

    บริษัท Broadcom ได้พัฒนาชิปสำหรับ AI, การประมวลผลข้อมูลทั่วไป, หรือฮาร์ดแวร์ศูนย์ข้อมูลที่ customization สำหรับบริษัทใหญ่ๆ เช่น Google และ Meta

    Broadcom ได้คาดว่าตลาดเหล่านี้ จะมีมูลค่าระหว่าง 60 ถึง 90 พันล้านดอลลาร์ในปี 2027

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-gpu-clusters-with-one-million-gpus-are-planned-for-2027-broadcom-says-three-ai-supercomputers-are-in-the-works
    Broadcom บริษัทเทคโนโลยีชั้นนำได้ประกาศแผนการสร้างซูเปอร์คอมพิวเตอร์ AI ที่มี GPU หนึ่งล้านตัวภายในปี 2027 คาดว่าจะมีลูกค้าระดับ hyperscaler สามรายที่ใช้ซูเปอร์คอมพิวเตอร์ AI ที่มี XPU หนึ่งล้านตัว นอกจากนี้ยังมีการสั่งซื้อจากลูกค้า hyperscaler สองรายเพิ่มเติมและกำลังพัฒนา AI XPU รุ่นใหม่สำหรับพวกเขา บริษัท Broadcom ได้พัฒนาชิปสำหรับ AI, การประมวลผลข้อมูลทั่วไป, หรือฮาร์ดแวร์ศูนย์ข้อมูลที่ customization สำหรับบริษัทใหญ่ๆ เช่น Google และ Meta Broadcom ได้คาดว่าตลาดเหล่านี้ จะมีมูลค่าระหว่าง 60 ถึง 90 พันล้านดอลลาร์ในปี 2027 https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-gpu-clusters-with-one-million-gpus-are-planned-for-2027-broadcom-says-three-ai-supercomputers-are-in-the-works
    0 ความคิดเห็น 0 การแบ่งปัน 265 มุมมอง 0 รีวิว
  • Elon Musk กำลังวางแผนขยายซูเปอร์คอมพิวเตอร์ xAI Colossus ให้มี GPU มากกว่าหนึ่งล้านตัว โดยปัจจุบันมีมากกว่า 100,000 H100 GPU จาก Nvidia และกำลังจะเพิ่มจำนวน GPU เป็นสองเท่าในเร็วๆ นี้
    การขยายนี้ต้องใช้เวลาและความพยายามมาก และยังไม่ชัดเจนว่า xAI จะใช้ GPU รุ่น Hopper หรือ Blackwell ในการขยาย การขยายนี้ต้องการการลงทุนมหาศาล โดย xAI ได้ระดมทุน 11 พันล้านดอลลาร์ในปีนี้และเพิ่งได้รับอีก 5 พันล้านดอลลาร์ ปัจจุบันบริษัทมีมูลค่า 45 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musk-plans-to-scale-the-xai-supercomputer-to-a-million-gpus-currently-at-over-100-000-h100-gpus-and-counting
    Elon Musk กำลังวางแผนขยายซูเปอร์คอมพิวเตอร์ xAI Colossus ให้มี GPU มากกว่าหนึ่งล้านตัว โดยปัจจุบันมีมากกว่า 100,000 H100 GPU จาก Nvidia และกำลังจะเพิ่มจำนวน GPU เป็นสองเท่าในเร็วๆ นี้ การขยายนี้ต้องใช้เวลาและความพยายามมาก และยังไม่ชัดเจนว่า xAI จะใช้ GPU รุ่น Hopper หรือ Blackwell ในการขยาย การขยายนี้ต้องการการลงทุนมหาศาล โดย xAI ได้ระดมทุน 11 พันล้านดอลลาร์ในปีนี้และเพิ่งได้รับอีก 5 พันล้านดอลลาร์ ปัจจุบันบริษัทมีมูลค่า 45 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musk-plans-to-scale-the-xai-supercomputer-to-a-million-gpus-currently-at-over-100-000-h100-gpus-and-counting
    0 ความคิดเห็น 0 การแบ่งปัน 270 มุมมอง 0 รีวิว
  • El Capitan คือซุปเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลกเครื่องใหม่ เจ้าของคือกระทรวงพลังงานสหรัฐฯ ตั้งอยู่ที่ Lawrence Livermore National Laboratory ในแคลิฟอร์เนีย
    กระทรวงพลังงานของสหรัฐฯ คงเป็นหน่วยงานเดียวที่จ่ายค่าไฟไหว เพราะเป็นเจ้าของ Supercomputer top 3 ของโลก อันประกอบด้วย El Capitan, Frontier และ Aurora

    https://overclock3d.net/news/misc/el-capitan-becomes-the-worlds-most-powerful-supercomputer/
    El Capitan คือซุปเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลกเครื่องใหม่ เจ้าของคือกระทรวงพลังงานสหรัฐฯ ตั้งอยู่ที่ Lawrence Livermore National Laboratory ในแคลิฟอร์เนีย กระทรวงพลังงานของสหรัฐฯ คงเป็นหน่วยงานเดียวที่จ่ายค่าไฟไหว เพราะเป็นเจ้าของ Supercomputer top 3 ของโลก อันประกอบด้วย El Capitan, Frontier และ Aurora https://overclock3d.net/news/misc/el-capitan-becomes-the-worlds-most-powerful-supercomputer/
    OVERCLOCK3D.NET
    El Capitan becomes the world's most powerful supercomputer - OC3D
    The US' El Capitan Supercomputer has become the third to pass the ExaFLOP barrier, surpassing all other supercomputers in the TOP500.
    0 ความคิดเห็น 0 การแบ่งปัน 375 มุมมอง 0 รีวิว