• มีการศึกษาล่าสุดของนักวิจัยที่ใช้ซูเปอร์คอมพิวเตอร์ของ NASA เพื่อสร้างแบบจำลองใหม่ของ Oort Cloud ซึ่งอยู่ไกลออกไปจากวงโคจรของดาวพลูโต Oort Cloud เป็นพื้นที่ที่เต็มไปด้วยวัตถุที่เป็นน้ำแข็งซึ่งโคจรรอบดวงอาทิตย์ และเป็นที่มาของดาวหางระยะยาวที่บางครั้งจะพุ่งเข้าสู่ระบบสุริยะของเรา

    Oort Cloud เริ่มต้นที่ระยะประมาณ 2,000 ถึง 5,000 หน่วยดาราศาสตร์ (AU) จากดวงอาทิตย์ โดย 1 AU คือระยะทางเฉลี่ยระหว่างโลกและดวงอาทิตย์ ขอบเขตด้านนอกของ Oort Cloud ยาวถึง 10,000 ถึง 100,000 AU ซึ่งอยู่ไกลเกินกว่าที่เราจะเห็นได้ แต่สามารถอนุมานได้จากดาวหางที่มาจากพื้นที่นี้

    จนถึงขณะนี้ นักวิทยาศาสตร์รู้ว่า Oort Cloud มีอยู่จริงแต่ไม่เข้าใจรูปร่างของมันมากนัก อย่างไรก็ตาม นักวิจัยจาก Southwest Research Institute และ American Museum of Natural History ได้เสนอว่าโครงสร้างภายในของ Oort Cloud อาจเป็น เกลียว คล้ายกับกาแล็กซีขนาดจิ๋ว

    นักวิจัยได้ศึกษาปรากฏการณ์ที่เรียกว่า "galactic tide" ซึ่งเป็นผลรวมของแรงดึงดูดจากดาวฤกษ์ หลุมดำ และมวลรวมอื่น ๆ ภายในกาแล็กซี่ทางช้างเผือก สำหรับวัตถุที่อยู่ใกล้ดวงอาทิตย์ แรงเหล่านี้ไม่สำคัญเท่าแรงดึงดูดของดวงอาทิตย์ แต่ใน Oort Cloud แรงเหล่านี้กลายเป็นปัจจัยหลัก

    โดยใช้ซูเปอร์คอมพิวเตอร์ Pleiades ของ NASA ทีมวิจัยได้รันการจำลองที่รวม galactic tide และผลกระทบอื่น ๆ เป็นเวลาหลายพันล้านปี ผลลัพธ์แสดงให้เห็นว่า Oort Cloud มีโครงสร้างเป็นแผ่นเกลียวขนาดประมาณ 15,000 AU โดยมีเกลียวสองเส้น ซึ่งทำให้ Oort Cloud ดูเหมือนกับกาแล็กซีขนาดเล็กและแปลกจากรูปแบบที่เคยเห็นในโมเดลส่วนใหญ่ในปัจจุบัน

    สาเหตุของการเกิดเกลียวนี้มาจากปรากฏการณ์ที่เรียกว่า Kozai-Lidov effect ซึ่งเป็นปรากฏการณ์แรงดึงดูดที่ทำให้เกิดการสั่นไหวระยะยาวในวงโคจรของวัตถุใน Oort Cloud ในขณะที่แรงดึงดูดจากดาวเคราะห์ในระบบสุริยะของเรามีผลกระทบน้อยมาก

    การจับภาพเพื่อยืนยันโครงสร้างนี้เป็นความท้าทายใหญ่ วิธีหนึ่งที่อาจใช้ได้คือการติดตามวัตถุใน Oort Cloud จำนวนมากในระยะยาว อีกวิธีหนึ่งคือการตรวจจับแสงที่มองเห็นร่วมกันของพวกมันในขณะที่กรองแสงจากแหล่งอื่นออกไป แต่น่าเสียดายว่าทั้งสองวิธีนี้ยังไม่มีการลงทุนที่เพียงพอ

    https://www.techspot.com/news/106898-nasa-supercomputer-suggests-oort-cloud-may-spiral-like.html
    มีการศึกษาล่าสุดของนักวิจัยที่ใช้ซูเปอร์คอมพิวเตอร์ของ NASA เพื่อสร้างแบบจำลองใหม่ของ Oort Cloud ซึ่งอยู่ไกลออกไปจากวงโคจรของดาวพลูโต Oort Cloud เป็นพื้นที่ที่เต็มไปด้วยวัตถุที่เป็นน้ำแข็งซึ่งโคจรรอบดวงอาทิตย์ และเป็นที่มาของดาวหางระยะยาวที่บางครั้งจะพุ่งเข้าสู่ระบบสุริยะของเรา Oort Cloud เริ่มต้นที่ระยะประมาณ 2,000 ถึง 5,000 หน่วยดาราศาสตร์ (AU) จากดวงอาทิตย์ โดย 1 AU คือระยะทางเฉลี่ยระหว่างโลกและดวงอาทิตย์ ขอบเขตด้านนอกของ Oort Cloud ยาวถึง 10,000 ถึง 100,000 AU ซึ่งอยู่ไกลเกินกว่าที่เราจะเห็นได้ แต่สามารถอนุมานได้จากดาวหางที่มาจากพื้นที่นี้ จนถึงขณะนี้ นักวิทยาศาสตร์รู้ว่า Oort Cloud มีอยู่จริงแต่ไม่เข้าใจรูปร่างของมันมากนัก อย่างไรก็ตาม นักวิจัยจาก Southwest Research Institute และ American Museum of Natural History ได้เสนอว่าโครงสร้างภายในของ Oort Cloud อาจเป็น เกลียว คล้ายกับกาแล็กซีขนาดจิ๋ว นักวิจัยได้ศึกษาปรากฏการณ์ที่เรียกว่า "galactic tide" ซึ่งเป็นผลรวมของแรงดึงดูดจากดาวฤกษ์ หลุมดำ และมวลรวมอื่น ๆ ภายในกาแล็กซี่ทางช้างเผือก สำหรับวัตถุที่อยู่ใกล้ดวงอาทิตย์ แรงเหล่านี้ไม่สำคัญเท่าแรงดึงดูดของดวงอาทิตย์ แต่ใน Oort Cloud แรงเหล่านี้กลายเป็นปัจจัยหลัก โดยใช้ซูเปอร์คอมพิวเตอร์ Pleiades ของ NASA ทีมวิจัยได้รันการจำลองที่รวม galactic tide และผลกระทบอื่น ๆ เป็นเวลาหลายพันล้านปี ผลลัพธ์แสดงให้เห็นว่า Oort Cloud มีโครงสร้างเป็นแผ่นเกลียวขนาดประมาณ 15,000 AU โดยมีเกลียวสองเส้น ซึ่งทำให้ Oort Cloud ดูเหมือนกับกาแล็กซีขนาดเล็กและแปลกจากรูปแบบที่เคยเห็นในโมเดลส่วนใหญ่ในปัจจุบัน สาเหตุของการเกิดเกลียวนี้มาจากปรากฏการณ์ที่เรียกว่า Kozai-Lidov effect ซึ่งเป็นปรากฏการณ์แรงดึงดูดที่ทำให้เกิดการสั่นไหวระยะยาวในวงโคจรของวัตถุใน Oort Cloud ในขณะที่แรงดึงดูดจากดาวเคราะห์ในระบบสุริยะของเรามีผลกระทบน้อยมาก การจับภาพเพื่อยืนยันโครงสร้างนี้เป็นความท้าทายใหญ่ วิธีหนึ่งที่อาจใช้ได้คือการติดตามวัตถุใน Oort Cloud จำนวนมากในระยะยาว อีกวิธีหนึ่งคือการตรวจจับแสงที่มองเห็นร่วมกันของพวกมันในขณะที่กรองแสงจากแหล่งอื่นออกไป แต่น่าเสียดายว่าทั้งสองวิธีนี้ยังไม่มีการลงทุนที่เพียงพอ https://www.techspot.com/news/106898-nasa-supercomputer-suggests-oort-cloud-may-spiral-like.html
    WWW.TECHSPOT.COM
    NASA supercomputer suggests the Oort Cloud may be a spiral, like a miniature galaxy
    The Oort Cloud begins roughly 2,000 – 5,000 astronomical units (AU) from the Sun, with 1 AU being the average distance between Earth and the Sun. Its...
    0 ความคิดเห็น 0 การแบ่งปัน 121 มุมมอง 0 รีวิว
  • บริษัท Dell กำลังจะทำสัญญากับบริษัท xAI ของ Elon Musk เพื่อส่งมอบเซิร์ฟเวอร์ที่มีมูลค่าถึง $5 พันล้านเหรียญสหรัฐ เซิร์ฟเวอร์เหล่านี้จะใช้ชิป Nvidia GB200 ที่ออกแบบมาเพื่อรองรับการประมวลผลทางด้านปัญญาประดิษฐ์ (AI)

    ข้อตกลงนี้คาดว่าจะเป็นส่วนหนึ่งของโครงการ Memphis supercomputer ของ xAI ซึ่งกำลังสร้างขึ้นในเมืองเมมฟิส โดยใช้เซิร์ฟเวอร์จาก Dell และ Supermicro บางส่วน รายงานบอกว่าข้อตกลงนี้ยังอยู่ในขั้นตอนการเจรจาบางส่วน แต่คาดว่าจะสามารถส่งมอบเซิร์ฟเวอร์ได้ในปลายปี 2025

    Elon Musk เคยกล่าวไว้ว่า "การจะสามารถแข่งขันในด้าน AI ได้นั้นต้องใช้เงินหลายพันล้านเหรียญต่อปี" และครั้งนี้เขาได้แสดงให้เห็นถึงการทุ่มทุนในโครงการที่เกี่ยวข้องกับ AI อย่างจริงจัง

    นอกจากนี้ Dell ยังคาดการณ์ว่ารายได้จากเซิร์ฟเวอร์ AI ของบริษัทจะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐ ในปีงบประมาณ 2026 การชนะข้อตกลงนี้จะทำให้ Dell สามารถยกระดับสถานะของตนในตลาดเซิร์ฟเวอร์ที่รองรับ AI ได้อย่างชัดเจน

    ก่อนหน้านี้ HPE ได้รับสัญญามูลค่า $1 พันล้านเหรียญสหรัฐจาก xAI เพื่อส่งมอบเซิร์ฟเวอร์ที่ออกแบบมาเฉพาะสำหรับการทำงาน AI ซึ่งแสดงถึงการแข่งขันที่รุนแรงในตลาดนี้ การที่ Dell สามารถเข้ามาแย่งข้อตกลงจากคู่แข่งยิ่งทำให้เห็นว่า Dell มีความตั้งใจที่จะขยายตลาดนี้อย่างจริงจัง

    นักวิเคราะห์คาดว่า Dell จะส่งมอบเซิร์ฟเวอร์ AI มูลค่ามากกว่า $10 พันล้านเหรียญสหรัฐในปีงบประมาณที่ผ่านมา และมูลค่านี้จะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐในปี 2026 การทำสัญญากับ xAI ครั้งนี้จะช่วยยกระดับสถานะของ Dell ในตลาด AI และเพิ่มยอดขายให้กับบริษัทอย่างชัดเจน ซึ่งนักวิเคราะห์ Woo Jin Ho ของ Bloomberg Intelligence ระบุว่าจะ "ทำให้บริษัทกลายเป็นผู้นำด้านเซิร์ฟเวอร์ AI อย่างมั่นคง"

    https://www.techradar.com/pro/xai-could-sign-a-usd5-billion-deal-with-dell-for-thousands-of-servers-with-nvidias-gb200-blackwell-ai-gpu-accelerators
    บริษัท Dell กำลังจะทำสัญญากับบริษัท xAI ของ Elon Musk เพื่อส่งมอบเซิร์ฟเวอร์ที่มีมูลค่าถึง $5 พันล้านเหรียญสหรัฐ เซิร์ฟเวอร์เหล่านี้จะใช้ชิป Nvidia GB200 ที่ออกแบบมาเพื่อรองรับการประมวลผลทางด้านปัญญาประดิษฐ์ (AI) ข้อตกลงนี้คาดว่าจะเป็นส่วนหนึ่งของโครงการ Memphis supercomputer ของ xAI ซึ่งกำลังสร้างขึ้นในเมืองเมมฟิส โดยใช้เซิร์ฟเวอร์จาก Dell และ Supermicro บางส่วน รายงานบอกว่าข้อตกลงนี้ยังอยู่ในขั้นตอนการเจรจาบางส่วน แต่คาดว่าจะสามารถส่งมอบเซิร์ฟเวอร์ได้ในปลายปี 2025 Elon Musk เคยกล่าวไว้ว่า "การจะสามารถแข่งขันในด้าน AI ได้นั้นต้องใช้เงินหลายพันล้านเหรียญต่อปี" และครั้งนี้เขาได้แสดงให้เห็นถึงการทุ่มทุนในโครงการที่เกี่ยวข้องกับ AI อย่างจริงจัง นอกจากนี้ Dell ยังคาดการณ์ว่ารายได้จากเซิร์ฟเวอร์ AI ของบริษัทจะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐ ในปีงบประมาณ 2026 การชนะข้อตกลงนี้จะทำให้ Dell สามารถยกระดับสถานะของตนในตลาดเซิร์ฟเวอร์ที่รองรับ AI ได้อย่างชัดเจน ก่อนหน้านี้ HPE ได้รับสัญญามูลค่า $1 พันล้านเหรียญสหรัฐจาก xAI เพื่อส่งมอบเซิร์ฟเวอร์ที่ออกแบบมาเฉพาะสำหรับการทำงาน AI ซึ่งแสดงถึงการแข่งขันที่รุนแรงในตลาดนี้ การที่ Dell สามารถเข้ามาแย่งข้อตกลงจากคู่แข่งยิ่งทำให้เห็นว่า Dell มีความตั้งใจที่จะขยายตลาดนี้อย่างจริงจัง นักวิเคราะห์คาดว่า Dell จะส่งมอบเซิร์ฟเวอร์ AI มูลค่ามากกว่า $10 พันล้านเหรียญสหรัฐในปีงบประมาณที่ผ่านมา และมูลค่านี้จะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐในปี 2026 การทำสัญญากับ xAI ครั้งนี้จะช่วยยกระดับสถานะของ Dell ในตลาด AI และเพิ่มยอดขายให้กับบริษัทอย่างชัดเจน ซึ่งนักวิเคราะห์ Woo Jin Ho ของ Bloomberg Intelligence ระบุว่าจะ "ทำให้บริษัทกลายเป็นผู้นำด้านเซิร์ฟเวอร์ AI อย่างมั่นคง" https://www.techradar.com/pro/xai-could-sign-a-usd5-billion-deal-with-dell-for-thousands-of-servers-with-nvidias-gb200-blackwell-ai-gpu-accelerators
    WWW.TECHRADAR.COM
    Dell's deal with Grok's mothership set to be confirmed according to business reports
    The order is expected to form part of xAI's Memphis supercomputer project
    0 ความคิดเห็น 0 การแบ่งปัน 106 มุมมอง 0 รีวิว
  • บริษัท Gigabyte ได้เปิดโอกาสให้บุคคลหรือองค์กรที่มีความคิดสร้างสรรค์และมีโครงการที่น่าสนใจ สามารถทดสอบซูเปอร์คอมพิวเตอร์รุ่น G383-R80 ที่ใช้โปรเซสเซอร์ AMD MI300A ได้ฟรีเป็นเวลา 7 วัน ซูเปอร์คอมพิวเตอร์นี้มีมูลค่าถึง $304,207 หรือประมาณ 10,000,000 บาท และถูกออกแบบมาเพื่อรองรับงานที่ต้องการประสิทธิภาพสูง เช่น การฝึก AI, การทำนายข้อมูลด้วย AI, และการประมวลผลความเร็วสูง

    เพื่อเข้าร่วมทดสอบ ผู้สมัครต้องกรอกแบบฟอร์มบนเว็บไซต์ Gigabyte Launchpad และโครงการที่เสนอต้องมีความเป็นไปได้เชิงพาณิชย์หรือมีความคิดสร้างสรรค์ที่น่าสนใจ ทางบริษัทจะพิจารณาใบสมัครและแจ้งผลให้ผู้สมัครทราบภายในสามวันทำการ โดยระยะเวลาการทดสอบสามารถขยายได้ถึงสองสัปดาห์ผ่านการติดต่อกับตัวแทนขาย

    ซูเปอร์คอมพิวเตอร์รุ่นนี้มีคุณสมบัติที่ยอดเยี่ยม เช่น การรองรับโปรเซสเซอร์ AMD MI300A APUs ซึ่งรวมทั้ง CPU และ GPU ไว้ด้วยกันเพื่อการประมวลผลที่รวดเร็ว นอกจากนี้ ยังมีหน่วยเก็บข้อมูลแบบ NVMe ที่รองรับความจุถึง 61.44TB และการเชื่อมต่ออินเทอร์เน็ตความเร็วสูง 10Gb/s Ethernet

    https://www.techradar.com/pro/want-to-rent-a-usd300-000-amd-mi300a-supercomputer-for-free-for-seven-days-gigabyte-wants-to-hear-from-you-asap
    บริษัท Gigabyte ได้เปิดโอกาสให้บุคคลหรือองค์กรที่มีความคิดสร้างสรรค์และมีโครงการที่น่าสนใจ สามารถทดสอบซูเปอร์คอมพิวเตอร์รุ่น G383-R80 ที่ใช้โปรเซสเซอร์ AMD MI300A ได้ฟรีเป็นเวลา 7 วัน ซูเปอร์คอมพิวเตอร์นี้มีมูลค่าถึง $304,207 หรือประมาณ 10,000,000 บาท และถูกออกแบบมาเพื่อรองรับงานที่ต้องการประสิทธิภาพสูง เช่น การฝึก AI, การทำนายข้อมูลด้วย AI, และการประมวลผลความเร็วสูง เพื่อเข้าร่วมทดสอบ ผู้สมัครต้องกรอกแบบฟอร์มบนเว็บไซต์ Gigabyte Launchpad และโครงการที่เสนอต้องมีความเป็นไปได้เชิงพาณิชย์หรือมีความคิดสร้างสรรค์ที่น่าสนใจ ทางบริษัทจะพิจารณาใบสมัครและแจ้งผลให้ผู้สมัครทราบภายในสามวันทำการ โดยระยะเวลาการทดสอบสามารถขยายได้ถึงสองสัปดาห์ผ่านการติดต่อกับตัวแทนขาย ซูเปอร์คอมพิวเตอร์รุ่นนี้มีคุณสมบัติที่ยอดเยี่ยม เช่น การรองรับโปรเซสเซอร์ AMD MI300A APUs ซึ่งรวมทั้ง CPU และ GPU ไว้ด้วยกันเพื่อการประมวลผลที่รวดเร็ว นอกจากนี้ ยังมีหน่วยเก็บข้อมูลแบบ NVMe ที่รองรับความจุถึง 61.44TB และการเชื่อมต่ออินเทอร์เน็ตความเร็วสูง 10Gb/s Ethernet https://www.techradar.com/pro/want-to-rent-a-usd300-000-amd-mi300a-supercomputer-for-free-for-seven-days-gigabyte-wants-to-hear-from-you-asap
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
  • ซูเปอร์คอมพิวเตอร์ Aurora ของ Argonne National Laboratory ได้เปิดให้บริการอย่างเป็นทางการแล้ว ซูเปอร์คอมพิวเตอร์นี้ถูกประกาศครั้งแรกในปี 2015 และเผชิญกับความล่าช้ามากมาย แต่ตอนนี้สามารถให้บริการได้มากกว่า 1 ExaFLOPS สำหรับการจำลองและ 11.6 ExaFLOPS สำหรับการประมวลผลปัญญาประดิษฐ์และการเรียนรู้ของเครื่อง

    Michael Papka ผู้อำนวยการ Argonne Leadership Computing Facility (ALCF) กล่าวว่า "เรารู้สึกตื่นเต้นที่ได้เปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์" และเสริมว่า "ผู้ใช้เริ่มแรกได้แสดงให้เราเห็นถึงศักยภาพอันมหาศาลของ Aurora เรารอคอยที่จะเห็นว่าชุมชนวิทยาศาสตร์จะใช้ระบบนี้ในการเปลี่ยนแปลงการวิจัยของพวกเขาอย่างไร"

    การเปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์ถือเป็นการยอมรับระบบอย่างเป็นทางการโดย ARNL ซึ่งเป็นก้าวสำคัญสำหรับเครื่องที่มีปัญหานี้ Aurora ถูกวางแผนไว้สำหรับปี 2018 แต่พลาดเป้าหมายเนื่องจากการตัดสินใจของ Intel ที่จะยกเลิกโปรเซสเซอร์ Xeon Phi หลังจากที่เครื่องถูกออกแบบใหม่ โครงการก็เผชิญกับความล่าช้าเพิ่มเติมเนื่องจากการล่าช้าของเทคโนโลยีการผลิต 7nm ของ Intel ทำให้วันที่เสร็จสมบูรณ์ถูกเลื่อนออกไปเป็นปี 2021 และอีกครั้งในปี 2023

    แม้ว่าอุปกรณ์จะถูกติดตั้งในเดือนมิถุนายน 2023 แต่ต้องใช้เวลาหลายเดือนกว่าระบบจะสามารถทำงานได้เต็มที่และบรรลุประสิทธิภาพระดับ exascale ซึ่งในที่สุดก็สำเร็จในเดือนพฤษภาคม 2024 แต่ระบบนี้ยังคงเปิดให้บริการเฉพาะนักวิจัยบางกลุ่มเท่านั้นเป็นเวลานานกว่าครึ่งปี

    Aurora ไม่ใช่ซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดสำหรับการจำลอง เนื่องจากประสิทธิภาพ FP64 ของมันเพียงแค่เกิน 1 ExaFLOPS แต่เป็นระบบที่ทรงพลังที่สุดสำหรับ AI เนื่องจากสามารถบรรลุ 11.6 ExaFLOPS ตามการทดสอบ HPL-MxP

    Rick Stevens ผู้อำนวยการห้องปฏิบัติการ Argonne กล่าวว่า "เป้าหมายใหญ่ของ Aurora คือการฝึกอบรมโมเดลภาษาขนาดใหญ่สำหรับวิทยาศาสตร์" และเสริมว่า "ด้วยโครงการ AuroraGPT เรากำลังสร้างโมเดลพื้นฐานที่เน้นวิทยาศาสตร์ที่สามารถสกัดความรู้จากหลายโดเมน ตั้งแต่ชีววิทยาถึงเคมี หนึ่งในเป้าหมายของ Aurora คือการช่วยให้นักวิจัยสร้างเครื่องมือ AI ใหม่ที่ช่วยให้พวกเขาก้าวหน้าได้เร็วเท่าที่พวกเขาคิด ไม่ใช่แค่เร็วเท่าที่การคำนวณของพวกเขา"

    โครงการวิจัยแรกๆ ที่ใช้ Aurora รวมถึงการจำลองระบบที่ซับซ้อน เช่น ระบบหมุนเวียนเลือดของมนุษย์ เครื่องปฏิกรณ์นิวเคลียร์ และการระเบิดของซูเปอร์โนวา ประสิทธิภาพที่ล้นหลามของเครื่องนี้ยังมีบทบาทสำคัญในการประมวลผลข้อมูลจากศูนย์วิจัยใหญ่ๆ เช่น Argonne's Advanced Photon Source (APS) และ CERN's Large Hadron Collider

    Aurora ประกอบด้วย 166 แร็ค แต่ละแร็คมี 64 เบลด รวมทั้งหมด 10,624 เบลด แต่ละเบลดมีโปรเซสเซอร์ Xeon Max สองตัวพร้อมหน่วยความจำ HBM2E ขนาด 64 GB และ GPU Intel Data Center Max 'Ponte Vecchio' หกตัว ทั้งหมดนี้ถูกทำความเย็นด้วยระบบระบายความร้อนด้วยของเหลวเฉพาะ

    Aurora มี CPU 21,248 ตัวพร้อมคอร์ x86 ประสิทธิภาพสูงกว่า 1.1 ล้านคอร์ หน่วยความจำ DDR5 ขนาด 19.9 PB และหน่วยความจำ HBM2E ขนาด 1.36 PB ที่เชื่อมต่อกับ CPU นอกจากนี้ยังมี GPU 63,744 ตัวที่ปรับแต่งสำหรับ AI และ HPC พร้อมหน่วยความจำ HBM2E ขนาด 8.16 PB Aurora ใช้โหนด 1,024 โหนดที่มีไดรฟ์โซลิดสเตตสำหรับการจัดเก็บข้อมูล รวมความจุทั้งหมด 220 PB และแบนด์วิดท์ 31 TB/s ระบบนี้ใช้สถาปัตยกรรมซูเปอร์คอมพิวเตอร์ Shasta ของ HPE พร้อมการเชื่อมต่อ Slingshot

    https://www.tomshardware.com/tech-industry/supercomputers/aurora-supercomputer-is-now-fully-operational-available-to-researchers
    ซูเปอร์คอมพิวเตอร์ Aurora ของ Argonne National Laboratory ได้เปิดให้บริการอย่างเป็นทางการแล้ว ซูเปอร์คอมพิวเตอร์นี้ถูกประกาศครั้งแรกในปี 2015 และเผชิญกับความล่าช้ามากมาย แต่ตอนนี้สามารถให้บริการได้มากกว่า 1 ExaFLOPS สำหรับการจำลองและ 11.6 ExaFLOPS สำหรับการประมวลผลปัญญาประดิษฐ์และการเรียนรู้ของเครื่อง Michael Papka ผู้อำนวยการ Argonne Leadership Computing Facility (ALCF) กล่าวว่า "เรารู้สึกตื่นเต้นที่ได้เปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์" และเสริมว่า "ผู้ใช้เริ่มแรกได้แสดงให้เราเห็นถึงศักยภาพอันมหาศาลของ Aurora เรารอคอยที่จะเห็นว่าชุมชนวิทยาศาสตร์จะใช้ระบบนี้ในการเปลี่ยนแปลงการวิจัยของพวกเขาอย่างไร" การเปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์ถือเป็นการยอมรับระบบอย่างเป็นทางการโดย ARNL ซึ่งเป็นก้าวสำคัญสำหรับเครื่องที่มีปัญหานี้ Aurora ถูกวางแผนไว้สำหรับปี 2018 แต่พลาดเป้าหมายเนื่องจากการตัดสินใจของ Intel ที่จะยกเลิกโปรเซสเซอร์ Xeon Phi หลังจากที่เครื่องถูกออกแบบใหม่ โครงการก็เผชิญกับความล่าช้าเพิ่มเติมเนื่องจากการล่าช้าของเทคโนโลยีการผลิต 7nm ของ Intel ทำให้วันที่เสร็จสมบูรณ์ถูกเลื่อนออกไปเป็นปี 2021 และอีกครั้งในปี 2023 แม้ว่าอุปกรณ์จะถูกติดตั้งในเดือนมิถุนายน 2023 แต่ต้องใช้เวลาหลายเดือนกว่าระบบจะสามารถทำงานได้เต็มที่และบรรลุประสิทธิภาพระดับ exascale ซึ่งในที่สุดก็สำเร็จในเดือนพฤษภาคม 2024 แต่ระบบนี้ยังคงเปิดให้บริการเฉพาะนักวิจัยบางกลุ่มเท่านั้นเป็นเวลานานกว่าครึ่งปี Aurora ไม่ใช่ซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดสำหรับการจำลอง เนื่องจากประสิทธิภาพ FP64 ของมันเพียงแค่เกิน 1 ExaFLOPS แต่เป็นระบบที่ทรงพลังที่สุดสำหรับ AI เนื่องจากสามารถบรรลุ 11.6 ExaFLOPS ตามการทดสอบ HPL-MxP Rick Stevens ผู้อำนวยการห้องปฏิบัติการ Argonne กล่าวว่า "เป้าหมายใหญ่ของ Aurora คือการฝึกอบรมโมเดลภาษาขนาดใหญ่สำหรับวิทยาศาสตร์" และเสริมว่า "ด้วยโครงการ AuroraGPT เรากำลังสร้างโมเดลพื้นฐานที่เน้นวิทยาศาสตร์ที่สามารถสกัดความรู้จากหลายโดเมน ตั้งแต่ชีววิทยาถึงเคมี หนึ่งในเป้าหมายของ Aurora คือการช่วยให้นักวิจัยสร้างเครื่องมือ AI ใหม่ที่ช่วยให้พวกเขาก้าวหน้าได้เร็วเท่าที่พวกเขาคิด ไม่ใช่แค่เร็วเท่าที่การคำนวณของพวกเขา" โครงการวิจัยแรกๆ ที่ใช้ Aurora รวมถึงการจำลองระบบที่ซับซ้อน เช่น ระบบหมุนเวียนเลือดของมนุษย์ เครื่องปฏิกรณ์นิวเคลียร์ และการระเบิดของซูเปอร์โนวา ประสิทธิภาพที่ล้นหลามของเครื่องนี้ยังมีบทบาทสำคัญในการประมวลผลข้อมูลจากศูนย์วิจัยใหญ่ๆ เช่น Argonne's Advanced Photon Source (APS) และ CERN's Large Hadron Collider Aurora ประกอบด้วย 166 แร็ค แต่ละแร็คมี 64 เบลด รวมทั้งหมด 10,624 เบลด แต่ละเบลดมีโปรเซสเซอร์ Xeon Max สองตัวพร้อมหน่วยความจำ HBM2E ขนาด 64 GB และ GPU Intel Data Center Max 'Ponte Vecchio' หกตัว ทั้งหมดนี้ถูกทำความเย็นด้วยระบบระบายความร้อนด้วยของเหลวเฉพาะ Aurora มี CPU 21,248 ตัวพร้อมคอร์ x86 ประสิทธิภาพสูงกว่า 1.1 ล้านคอร์ หน่วยความจำ DDR5 ขนาด 19.9 PB และหน่วยความจำ HBM2E ขนาด 1.36 PB ที่เชื่อมต่อกับ CPU นอกจากนี้ยังมี GPU 63,744 ตัวที่ปรับแต่งสำหรับ AI และ HPC พร้อมหน่วยความจำ HBM2E ขนาด 8.16 PB Aurora ใช้โหนด 1,024 โหนดที่มีไดรฟ์โซลิดสเตตสำหรับการจัดเก็บข้อมูล รวมความจุทั้งหมด 220 PB และแบนด์วิดท์ 31 TB/s ระบบนี้ใช้สถาปัตยกรรมซูเปอร์คอมพิวเตอร์ Shasta ของ HPE พร้อมการเชื่อมต่อ Slingshot https://www.tomshardware.com/tech-industry/supercomputers/aurora-supercomputer-is-now-fully-operational-available-to-researchers
    0 ความคิดเห็น 0 การแบ่งปัน 410 มุมมอง 0 รีวิว
  • Supercomputer ทำนายผลยูฟ่าแชมเปียนส์ลีก (24/01/68)#news1 #ข่าวกีฬา #supercomputer #ยูฟ่าแชมเปียนส์ลีก
    Supercomputer ทำนายผลยูฟ่าแชมเปียนส์ลีก (24/01/68)#news1 #ข่าวกีฬา #supercomputer #ยูฟ่าแชมเปียนส์ลีก
    Like
    Love
    8
    0 ความคิดเห็น 0 การแบ่งปัน 1279 มุมมอง 54 0 รีวิว
  • เปิดตัวซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกชื่อ "El Capitan" ที่ห้องปฏิบัติการแห่งชาติ Lawrence Livermore (LLNL) ในแคลิฟอร์เนีย ซูเปอร์คอมพิวเตอร์นี้ถูกพัฒนามานานกว่าแปดปีและมีความสามารถในการประมวลผลสูงสุดถึง 2.746 exaFLOPS El Capitan ถูกออกแบบมาเพื่อรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์ของสหรัฐอเมริกาและใช้ในการวิจัยที่เป็นความลับ

    El Capitan ใช้พลังงานจากซีพียูและจีพียูมากกว่า 11 ล้านคอร์ที่รวมอยู่ในตัวเร่ง AMD Instinct MI300A กว่า 43,000 ตัว. ซูเปอร์คอมพิวเตอร์นี้สามารถทำการคำนวณได้ถึง 2.79 quintillion ครั้งต่อวินาที ซึ่งเป็นจำนวนที่มากจนถ้าคุณย้อนเวลากลับไป 2.79 quintillion วินาที คุณจะไปถึงกว่า 70 พันล้านปีก่อนการเกิดบิ๊กแบง

    นอกจากการรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์แล้ว El Capitan ยังถูกใช้ในการวิจัยด้านวิทยาศาสตร์วัสดุและฟิสิกส์ รวมถึงงานที่เกี่ยวข้องกับ AI และการเรียนรู้ของเครื่อง ซูเปอร์คอมพิวเตอร์นี้ถูกสร้างขึ้นด้วยงบประมาณประมาณ 600 ล้านดอลลาร์สหรัฐ และถูกคาดหวังว่าจะมีประสิทธิภาพมากกว่าซูเปอร์คอมพิวเตอร์ Sierra ที่ถูกใช้งานมาตั้งแต่ปี 2018 ถึง 18 เท่า

    น่าสนใจที่เห็นว่าเทคโนโลยีซูเปอร์คอมพิวเตอร์กำลังพัฒนาอย่างรวดเร็วและมีบทบาทสำคัญในการรักษาความปลอดภัยและการวิจัยทางวิทยาศาสตร์ การที่ El Capitan สามารถทำการคำนวณได้ในระดับที่สูงมากนี้อาจนำไปสู่การค้นพบใหม่ๆ ที่สำคัญในอนาคต

    https://www.techspot.com/news/106467-world-fastest-supercomputer-amd-powered-el-capitan-goes.html
    เปิดตัวซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกชื่อ "El Capitan" ที่ห้องปฏิบัติการแห่งชาติ Lawrence Livermore (LLNL) ในแคลิฟอร์เนีย ซูเปอร์คอมพิวเตอร์นี้ถูกพัฒนามานานกว่าแปดปีและมีความสามารถในการประมวลผลสูงสุดถึง 2.746 exaFLOPS El Capitan ถูกออกแบบมาเพื่อรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์ของสหรัฐอเมริกาและใช้ในการวิจัยที่เป็นความลับ El Capitan ใช้พลังงานจากซีพียูและจีพียูมากกว่า 11 ล้านคอร์ที่รวมอยู่ในตัวเร่ง AMD Instinct MI300A กว่า 43,000 ตัว. ซูเปอร์คอมพิวเตอร์นี้สามารถทำการคำนวณได้ถึง 2.79 quintillion ครั้งต่อวินาที ซึ่งเป็นจำนวนที่มากจนถ้าคุณย้อนเวลากลับไป 2.79 quintillion วินาที คุณจะไปถึงกว่า 70 พันล้านปีก่อนการเกิดบิ๊กแบง นอกจากการรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์แล้ว El Capitan ยังถูกใช้ในการวิจัยด้านวิทยาศาสตร์วัสดุและฟิสิกส์ รวมถึงงานที่เกี่ยวข้องกับ AI และการเรียนรู้ของเครื่อง ซูเปอร์คอมพิวเตอร์นี้ถูกสร้างขึ้นด้วยงบประมาณประมาณ 600 ล้านดอลลาร์สหรัฐ และถูกคาดหวังว่าจะมีประสิทธิภาพมากกว่าซูเปอร์คอมพิวเตอร์ Sierra ที่ถูกใช้งานมาตั้งแต่ปี 2018 ถึง 18 เท่า น่าสนใจที่เห็นว่าเทคโนโลยีซูเปอร์คอมพิวเตอร์กำลังพัฒนาอย่างรวดเร็วและมีบทบาทสำคัญในการรักษาความปลอดภัยและการวิจัยทางวิทยาศาสตร์ การที่ El Capitan สามารถทำการคำนวณได้ในระดับที่สูงมากนี้อาจนำไปสู่การค้นพบใหม่ๆ ที่สำคัญในอนาคต https://www.techspot.com/news/106467-world-fastest-supercomputer-amd-powered-el-capitan-goes.html
    WWW.TECHSPOT.COM
    World's fastest supercomputer, "El Capitan," goes online to safeguard US nuclear weapons
    El Capitan can reach a peak performance of 2.746 exaFLOPS, making it the National Nuclear Security Administration's first exascale supercomputer. It's the world's third exascale machine after...
    0 ความคิดเห็น 0 การแบ่งปัน 241 มุมมอง 0 รีวิว
  • Nvidia ได้เปิดเผยว่า ซูเปอร์คอมพิวเตอร์ของบริษัทได้ทำการปรับปรุงเทคโนโลยี DLSS (Deep Learning Super Sampling) อย่างต่อเนื่องตลอด 6 ปีที่ผ่านมา DLSS เป็นเทคโนโลยีที่ช่วยเพิ่มคุณภาพของภาพและการอัพสเกลภาพในเกม โดยใช้การเรียนรู้เชิงลึก

    ตั้งแต่การเปิดตัวครั้งแรกในซีรีส์ GeForce 20, DLSS ได้รับการปรับปรุงอย่างต่อเนื่อง. ล่าสุด Nvidia ได้เปิดตัว DLSS 4 ที่งาน CES ซึ่งสัญญาว่าจะมีประสิทธิภาพที่ดีกว่ารุ่นก่อนหน้านี้อย่างมาก

    Bryan Catanzaro รองประธานฝ่ายวิจัยการเรียนรู้เชิงลึกประยุกต์ของ Nvidia กล่าวว่าซูเปอร์คอมพิวเตอร์ของบริษัทที่มี GPU หลายพันตัวทำงานตลอด 24 ชั่วโมงทุกวัน เพื่อปรับปรุง DLSS กระบวนการฝึกอบรมนี้เกี่ยวข้องกับการวิเคราะห์ความล้มเหลว เช่น การเกิดภาพเบลอหรือการกระพริบในเกม

    Nvidia อ้างว่า RTX 5070 ที่ใช้ DLSS 4 มีประสิทธิภาพเทียบเท่ากับ RTX 4090 นอกจากนี้ RTX 5090 ยังเร็วกว่า RTX 4090 ประมาณ 30% โดยไม่ใช้ DLSS และ RTX 5080 เร็วกว่า RTX 4080 ประมาณ 15%

    https://www.techspot.com/news/106368-supercomputer-nvidia-has-improving-dlss-non-stop-six.html
    Nvidia ได้เปิดเผยว่า ซูเปอร์คอมพิวเตอร์ของบริษัทได้ทำการปรับปรุงเทคโนโลยี DLSS (Deep Learning Super Sampling) อย่างต่อเนื่องตลอด 6 ปีที่ผ่านมา DLSS เป็นเทคโนโลยีที่ช่วยเพิ่มคุณภาพของภาพและการอัพสเกลภาพในเกม โดยใช้การเรียนรู้เชิงลึก ตั้งแต่การเปิดตัวครั้งแรกในซีรีส์ GeForce 20, DLSS ได้รับการปรับปรุงอย่างต่อเนื่อง. ล่าสุด Nvidia ได้เปิดตัว DLSS 4 ที่งาน CES ซึ่งสัญญาว่าจะมีประสิทธิภาพที่ดีกว่ารุ่นก่อนหน้านี้อย่างมาก Bryan Catanzaro รองประธานฝ่ายวิจัยการเรียนรู้เชิงลึกประยุกต์ของ Nvidia กล่าวว่าซูเปอร์คอมพิวเตอร์ของบริษัทที่มี GPU หลายพันตัวทำงานตลอด 24 ชั่วโมงทุกวัน เพื่อปรับปรุง DLSS กระบวนการฝึกอบรมนี้เกี่ยวข้องกับการวิเคราะห์ความล้มเหลว เช่น การเกิดภาพเบลอหรือการกระพริบในเกม Nvidia อ้างว่า RTX 5070 ที่ใช้ DLSS 4 มีประสิทธิภาพเทียบเท่ากับ RTX 4090 นอกจากนี้ RTX 5090 ยังเร็วกว่า RTX 4090 ประมาณ 30% โดยไม่ใช้ DLSS และ RTX 5080 เร็วกว่า RTX 4080 ประมาณ 15% https://www.techspot.com/news/106368-supercomputer-nvidia-has-improving-dlss-non-stop-six.html
    WWW.TECHSPOT.COM
    An Nvidia supercomputer has been improving DLSS non-stop for the past six years
    While discussing the tech at at the consumer electronics show, Nvidia's VP of applied deep learning research, Bryan Catanzaro, said improving DLSS has been a continuous, six-year...
    0 ความคิดเห็น 0 การแบ่งปัน 258 มุมมอง 0 รีวิว
  • Frore Systems ได้เปิดตัวโซลูชันการระบายความร้อน "AirJet" สำหรับ Jetson Orin Nano Super AI "mini-supercomputer" ของ NVIDIA ซึ่งช่วยเพิ่มประสิทธิภาพการทำงานได้อย่างมาก

    AirJet PAK 5C-25 สามารถระบายความร้อนได้ถึง 25 วัตต์ ทำให้ Jetson Orin Nano Super สามารถทำงานได้เต็มประสิทธิภาพแม้ในสภาวะการทำงานที่ยากลำบาก AirJet PAK เป็นโซลูชันการระบายความร้อนแบบ solid-state ที่บาง เงียบ ป้องกันฝุ่นและน้ำ และสามารถติดตั้งได้ง่ายบน System on Module (SoM) AI Computers

    https://wccf.tech/1fpdg
    Frore Systems ได้เปิดตัวโซลูชันการระบายความร้อน "AirJet" สำหรับ Jetson Orin Nano Super AI "mini-supercomputer" ของ NVIDIA ซึ่งช่วยเพิ่มประสิทธิภาพการทำงานได้อย่างมาก AirJet PAK 5C-25 สามารถระบายความร้อนได้ถึง 25 วัตต์ ทำให้ Jetson Orin Nano Super สามารถทำงานได้เต็มประสิทธิภาพแม้ในสภาวะการทำงานที่ยากลำบาก AirJet PAK เป็นโซลูชันการระบายความร้อนแบบ solid-state ที่บาง เงียบ ป้องกันฝุ่นและน้ำ และสามารถติดตั้งได้ง่ายบน System on Module (SoM) AI Computers https://wccf.tech/1fpdg
    WCCF.TECH
    Frore Systems Unveils "AirJet" Cooling Solution For NVIDIA's Newest Jetson Orin Nano Super AI "Mini-Supercomputer"
    Frore Systems has released a dedicated cooling solution for NVIDIA's recently-launched Jetson Orin Nano Super AI "mini-supercomputer".
    0 ความคิดเห็น 0 การแบ่งปัน 196 มุมมอง 0 รีวิว
  • Broadcom บริษัทเทคโนโลยีชั้นนำได้ประกาศแผนการสร้างซูเปอร์คอมพิวเตอร์ AI ที่มี GPU หนึ่งล้านตัวภายในปี 2027 คาดว่าจะมีลูกค้าระดับ hyperscaler สามรายที่ใช้ซูเปอร์คอมพิวเตอร์ AI ที่มี XPU หนึ่งล้านตัว นอกจากนี้ยังมีการสั่งซื้อจากลูกค้า hyperscaler สองรายเพิ่มเติมและกำลังพัฒนา AI XPU รุ่นใหม่สำหรับพวกเขา

    บริษัท Broadcom ได้พัฒนาชิปสำหรับ AI, การประมวลผลข้อมูลทั่วไป, หรือฮาร์ดแวร์ศูนย์ข้อมูลที่ customization สำหรับบริษัทใหญ่ๆ เช่น Google และ Meta

    Broadcom ได้คาดว่าตลาดเหล่านี้ จะมีมูลค่าระหว่าง 60 ถึง 90 พันล้านดอลลาร์ในปี 2027

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-gpu-clusters-with-one-million-gpus-are-planned-for-2027-broadcom-says-three-ai-supercomputers-are-in-the-works
    Broadcom บริษัทเทคโนโลยีชั้นนำได้ประกาศแผนการสร้างซูเปอร์คอมพิวเตอร์ AI ที่มี GPU หนึ่งล้านตัวภายในปี 2027 คาดว่าจะมีลูกค้าระดับ hyperscaler สามรายที่ใช้ซูเปอร์คอมพิวเตอร์ AI ที่มี XPU หนึ่งล้านตัว นอกจากนี้ยังมีการสั่งซื้อจากลูกค้า hyperscaler สองรายเพิ่มเติมและกำลังพัฒนา AI XPU รุ่นใหม่สำหรับพวกเขา บริษัท Broadcom ได้พัฒนาชิปสำหรับ AI, การประมวลผลข้อมูลทั่วไป, หรือฮาร์ดแวร์ศูนย์ข้อมูลที่ customization สำหรับบริษัทใหญ่ๆ เช่น Google และ Meta Broadcom ได้คาดว่าตลาดเหล่านี้ จะมีมูลค่าระหว่าง 60 ถึง 90 พันล้านดอลลาร์ในปี 2027 https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-gpu-clusters-with-one-million-gpus-are-planned-for-2027-broadcom-says-three-ai-supercomputers-are-in-the-works
    0 ความคิดเห็น 0 การแบ่งปัน 198 มุมมอง 0 รีวิว
  • Elon Musk กำลังวางแผนขยายซูเปอร์คอมพิวเตอร์ xAI Colossus ให้มี GPU มากกว่าหนึ่งล้านตัว โดยปัจจุบันมีมากกว่า 100,000 H100 GPU จาก Nvidia และกำลังจะเพิ่มจำนวน GPU เป็นสองเท่าในเร็วๆ นี้
    การขยายนี้ต้องใช้เวลาและความพยายามมาก และยังไม่ชัดเจนว่า xAI จะใช้ GPU รุ่น Hopper หรือ Blackwell ในการขยาย การขยายนี้ต้องการการลงทุนมหาศาล โดย xAI ได้ระดมทุน 11 พันล้านดอลลาร์ในปีนี้และเพิ่งได้รับอีก 5 พันล้านดอลลาร์ ปัจจุบันบริษัทมีมูลค่า 45 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musk-plans-to-scale-the-xai-supercomputer-to-a-million-gpus-currently-at-over-100-000-h100-gpus-and-counting
    Elon Musk กำลังวางแผนขยายซูเปอร์คอมพิวเตอร์ xAI Colossus ให้มี GPU มากกว่าหนึ่งล้านตัว โดยปัจจุบันมีมากกว่า 100,000 H100 GPU จาก Nvidia และกำลังจะเพิ่มจำนวน GPU เป็นสองเท่าในเร็วๆ นี้ การขยายนี้ต้องใช้เวลาและความพยายามมาก และยังไม่ชัดเจนว่า xAI จะใช้ GPU รุ่น Hopper หรือ Blackwell ในการขยาย การขยายนี้ต้องการการลงทุนมหาศาล โดย xAI ได้ระดมทุน 11 พันล้านดอลลาร์ในปีนี้และเพิ่งได้รับอีก 5 พันล้านดอลลาร์ ปัจจุบันบริษัทมีมูลค่า 45 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musk-plans-to-scale-the-xai-supercomputer-to-a-million-gpus-currently-at-over-100-000-h100-gpus-and-counting
    0 ความคิดเห็น 0 การแบ่งปัน 209 มุมมอง 0 รีวิว
  • El Capitan คือซุปเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลกเครื่องใหม่ เจ้าของคือกระทรวงพลังงานสหรัฐฯ ตั้งอยู่ที่ Lawrence Livermore National Laboratory ในแคลิฟอร์เนีย
    กระทรวงพลังงานของสหรัฐฯ คงเป็นหน่วยงานเดียวที่จ่ายค่าไฟไหว เพราะเป็นเจ้าของ Supercomputer top 3 ของโลก อันประกอบด้วย El Capitan, Frontier และ Aurora

    https://overclock3d.net/news/misc/el-capitan-becomes-the-worlds-most-powerful-supercomputer/
    El Capitan คือซุปเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลกเครื่องใหม่ เจ้าของคือกระทรวงพลังงานสหรัฐฯ ตั้งอยู่ที่ Lawrence Livermore National Laboratory ในแคลิฟอร์เนีย กระทรวงพลังงานของสหรัฐฯ คงเป็นหน่วยงานเดียวที่จ่ายค่าไฟไหว เพราะเป็นเจ้าของ Supercomputer top 3 ของโลก อันประกอบด้วย El Capitan, Frontier และ Aurora https://overclock3d.net/news/misc/el-capitan-becomes-the-worlds-most-powerful-supercomputer/
    OVERCLOCK3D.NET
    El Capitan becomes the world's most powerful supercomputer - OC3D
    The US' El Capitan Supercomputer has become the third to pass the ExaFLOP barrier, surpassing all other supercomputers in the TOP500.
    0 ความคิดเห็น 0 การแบ่งปัน 305 มุมมอง 0 รีวิว