• กระทรวงยุติธรรมสหรัฐฯ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU Nvidia มีโทษจำคุกสูงสุดถึง 200 ปี

    กลุ่มผู้ต้องหานำโดย Brian Curtis Raymond ผู้ก่อตั้งบริษัท Bitworks ใน Alabama ถูกกล่าวหาว่าซื้อ GPU Nvidia A100, H100, H200 และซูเปอร์คอมพิวเตอร์ HPE จากช่องทางถูกกฎหมาย ก่อนจะขายต่อให้บริษัท Janford Realtor ใน Florida ซึ่งควบคุมโดย Hon Ning “Mathew” Ho จากนั้นมีการส่งออกไปจีนผ่านฮ่องกง มาเลเซีย และไทย โดยใช้เอกสารปลอมและเส้นทางการขนส่งที่ซับซ้อน

    มูลค่าการลักลอบและเส้นทางเงิน
    การดำเนินการนี้เกิดขึ้นตั้งแต่ปี 2023–2025 หลังจากรัฐบาลสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ขั้นสูง ผู้ต้องหาสามารถลักลอบส่งออก GPU A100 จำนวน 400 ตัว ไปจีนได้สำเร็จ และพยายามส่งออกซูเปอร์คอมพิวเตอร์ HPE อีก 10 เครื่องพร้อม GPU H100 และ H200 แต่ถูกจับกุมก่อน มูลค่าการทำธุรกรรมรวมกว่า 3.89 ล้านดอลลาร์ โดยมีการโอนเงินจากจีนมายังสหรัฐฯ ผ่านการฟอกเงิน

    ความสำคัญเชิงภูมิรัฐศาสตร์
    ชิป AI อย่าง A100/H100/H200 ถือเป็นหัวใจสำคัญของการพัฒนา AI และการประมวลผลขั้นสูง รัฐบาลสหรัฐฯ จึงเข้มงวดต่อการส่งออกไปจีนเพราะเกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์ การจับกุมครั้งนี้สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีนที่ยังคงรุนแรง

    บทเรียนและผลกระทบ
    แม้ตัวเลข 3.89 ล้านดอลลาร์จะดูเล็กเมื่อเทียบกับตลาด AI ที่มีมูลค่าหลายหมื่นล้าน แต่คดีนี้ชี้ให้เห็นช่องโหว่ในระบบควบคุมการส่งออก และอาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทที่เกี่ยวข้องกับการจัดจำหน่ายฮาร์ดแวร์ AI ในอนาคต

    สรุปประเด็นสำคัญ
    DOJ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU และซูเปอร์คอมพิวเตอร์
    ผู้ต้องหาหลักคือ Brian Curtis Raymond และ Hon Ning “Mathew” Ho

    ลักลอบส่งออก GPU A100 จำนวน 400 ตัว สำเร็จ
    พยายามส่งออก HPE Supercomputers และ GPU H200 แต่ถูกจับกุม
    มีโทษจำคุกสูงสุดถึง 200 ปี

    มูลค่าการลักลอบรวมกว่า 3.89 ล้านดอลลาร์
    มีการฟอกเงินผ่านบริษัท Janford Realtor

    สหรัฐฯ คุมเข้มการส่งออกชิป AI ขั้นสูง
    เกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์

    ความเสี่ยงด้านความมั่นคงและภูมิรัฐศาสตร์
    การลักลอบส่งออกชิปอาจช่วยเพิ่มศักยภาพด้าน AI ของจีน

    ช่องโหว่ในระบบควบคุมการส่งออก
    อาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทผู้จัดจำหน่ายฮาร์ดแวร์ AI

    https://www.tomshardware.com/pc-components/gpus/four-americans-charged-with-smuggling-nvidia-gpus-and-hpe-supercomputers-to-china-face-up-to-200-years-in-prison-usd3-89-million-worth-of-gear-smuggled-in-operation
    ⚖️ กระทรวงยุติธรรมสหรัฐฯ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU Nvidia มีโทษจำคุกสูงสุดถึง 200 ปี กลุ่มผู้ต้องหานำโดย Brian Curtis Raymond ผู้ก่อตั้งบริษัท Bitworks ใน Alabama ถูกกล่าวหาว่าซื้อ GPU Nvidia A100, H100, H200 และซูเปอร์คอมพิวเตอร์ HPE จากช่องทางถูกกฎหมาย ก่อนจะขายต่อให้บริษัท Janford Realtor ใน Florida ซึ่งควบคุมโดย Hon Ning “Mathew” Ho จากนั้นมีการส่งออกไปจีนผ่านฮ่องกง มาเลเซีย และไทย โดยใช้เอกสารปลอมและเส้นทางการขนส่งที่ซับซ้อน 💰 มูลค่าการลักลอบและเส้นทางเงิน การดำเนินการนี้เกิดขึ้นตั้งแต่ปี 2023–2025 หลังจากรัฐบาลสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ขั้นสูง ผู้ต้องหาสามารถลักลอบส่งออก GPU A100 จำนวน 400 ตัว ไปจีนได้สำเร็จ และพยายามส่งออกซูเปอร์คอมพิวเตอร์ HPE อีก 10 เครื่องพร้อม GPU H100 และ H200 แต่ถูกจับกุมก่อน มูลค่าการทำธุรกรรมรวมกว่า 3.89 ล้านดอลลาร์ โดยมีการโอนเงินจากจีนมายังสหรัฐฯ ผ่านการฟอกเงิน 🌐 ความสำคัญเชิงภูมิรัฐศาสตร์ ชิป AI อย่าง A100/H100/H200 ถือเป็นหัวใจสำคัญของการพัฒนา AI และการประมวลผลขั้นสูง รัฐบาลสหรัฐฯ จึงเข้มงวดต่อการส่งออกไปจีนเพราะเกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์ การจับกุมครั้งนี้สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีนที่ยังคงรุนแรง 🚨 บทเรียนและผลกระทบ แม้ตัวเลข 3.89 ล้านดอลลาร์จะดูเล็กเมื่อเทียบกับตลาด AI ที่มีมูลค่าหลายหมื่นล้าน แต่คดีนี้ชี้ให้เห็นช่องโหว่ในระบบควบคุมการส่งออก และอาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทที่เกี่ยวข้องกับการจัดจำหน่ายฮาร์ดแวร์ AI ในอนาคต 📌 สรุปประเด็นสำคัญ ✅ DOJ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU และซูเปอร์คอมพิวเตอร์ ➡️ ผู้ต้องหาหลักคือ Brian Curtis Raymond และ Hon Ning “Mathew” Ho ✅ ลักลอบส่งออก GPU A100 จำนวน 400 ตัว สำเร็จ ➡️ พยายามส่งออก HPE Supercomputers และ GPU H200 แต่ถูกจับกุม ➡️ มีโทษจำคุกสูงสุดถึง 200 ปี ✅ มูลค่าการลักลอบรวมกว่า 3.89 ล้านดอลลาร์ ➡️ มีการฟอกเงินผ่านบริษัท Janford Realtor ✅ สหรัฐฯ คุมเข้มการส่งออกชิป AI ขั้นสูง ➡️ เกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์ ‼️ ความเสี่ยงด้านความมั่นคงและภูมิรัฐศาสตร์ ⛔ การลักลอบส่งออกชิปอาจช่วยเพิ่มศักยภาพด้าน AI ของจีน ‼️ ช่องโหว่ในระบบควบคุมการส่งออก ⛔ อาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทผู้จัดจำหน่ายฮาร์ดแวร์ AI https://www.tomshardware.com/pc-components/gpus/four-americans-charged-with-smuggling-nvidia-gpus-and-hpe-supercomputers-to-china-face-up-to-200-years-in-prison-usd3-89-million-worth-of-gear-smuggled-in-operation
    0 ความคิดเห็น 0 การแบ่งปัน 204 มุมมอง 0 รีวิว
  • ยุโรปเปิดตัวซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สอง

    ยุโรปได้เปิดตัวซูเปอร์คอมพิวเตอร์ Alice Recoque ซึ่งถือเป็นระบบ Exascale เครื่องที่สองของภูมิภาค โดยใช้พลังจากซีพียู AMD EPYC “Venice” รุ่นใหม่และจีพียู Instinct MI430X ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการประมวลผลทางวิทยาศาสตร์ขนาดใหญ่

    สเปกและเทคโนโลยีล้ำสมัย
    Alice Recoque จะประกอบด้วย 94 แร็ค บนแพลตฟอร์ม BullSequana XH3500 ของ Eviden พร้อมระบบจัดเก็บข้อมูลจาก DDN และโครงสร้างการเชื่อมต่อ BXI fabric ที่ช่วยให้การประมวลผลแบบขยายตัวมีประสิทธิภาพสูงสุด ซีพียู Venice มีจำนวนคอร์สูงสุดถึง 256 คอร์ ขณะที่จีพียู MI430X มาพร้อมหน่วยความจำ HBM4 ขนาด 432 GB และรองรับรูปแบบข้อมูล FP4 และ FP8 เพื่อให้เหมาะกับงาน AI โดยเฉพาะ

    พลังงานและการติดตั้ง
    ระบบนี้จะใช้พลังงานประมาณ 12 เมกะวัตต์ ภายใต้การทำงานปกติ และใช้เทคโนโลยี การระบายความร้อนด้วยน้ำอุ่นรุ่นที่ 5 ของ Eviden เพื่อจัดการกับความร้อนจากส่วนประกอบที่ใช้พลังงานสูง ซูเปอร์คอมพิวเตอร์จะถูกติดตั้งที่ประเทศฝรั่งเศส ภายใต้การดูแลของ GENCI และดำเนินงานโดย CEA โดยมีการสนับสนุนจากหลายประเทศในยุโรป เช่น เนเธอร์แลนด์ และกรีซ

    การใช้งานและอนาคต
    Alice Recoque จะถูกใช้ในงานวิจัยที่หลากหลาย ตั้งแต่ การพัฒนาโมเดล AI, การแพทย์เฉพาะบุคคล, การวิจัยสภาพภูมิอากาศ, ไปจนถึง การวิเคราะห์ข้อมูลจากดาวเทียมและกล้องโทรทรรศน์ คาดว่าระบบจะเริ่มใช้งานจริงในช่วงปี 2027–2028 หลังจาก AMD เปิดตัวซีพียู Venice และจีพียู MI430X อย่างเป็นทางการในปี 2026

    สรุปประเด็นสำคัญ
    เปิดตัว Alice Recoque
    ซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สองของยุโรป

    สเปกหลัก
    ใช้ AMD EPYC Venice (256 คอร์) และ Instinct MI430X (432 GB HBM4)

    โครงสร้างระบบ
    94 แร็ค บน BullSequana XH3500 พร้อม BXI fabric และ DDN storage

    พลังงานและการระบายความร้อน
    ใช้พลังงาน ~12 เมกะวัตต์ พร้อมระบบน้ำอุ่นรุ่นที่ 5

    การติดตั้งและการดำเนินงาน
    ติดตั้งที่ฝรั่งเศส ดูแลโดย GENCI และ CEA

    ความท้าทายด้านเวลาและเทคโนโลยี
    ระบบจะพร้อมใช้งานจริงได้ราวปี 2027–2028 หลังจากฮาร์ดแวร์หลักเปิดตัว

    ความเสี่ยงจากการพึ่งพาเทคโนโลยีใหม่
    หากการพัฒนา Venice และ MI430X ล่าช้า อาจกระทบต่อกำหนดการใช้งาน

    https://www.tomshardware.com/tech-industry/supercomputers/amd-and-eviden-unveil-europes-second-exascale-system-epyc-venice-and-instinct-mi430x-power-system-breaks-the-exaflop-barrier
    ⚡ ยุโรปเปิดตัวซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สอง ยุโรปได้เปิดตัวซูเปอร์คอมพิวเตอร์ Alice Recoque ซึ่งถือเป็นระบบ Exascale เครื่องที่สองของภูมิภาค โดยใช้พลังจากซีพียู AMD EPYC “Venice” รุ่นใหม่และจีพียู Instinct MI430X ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการประมวลผลทางวิทยาศาสตร์ขนาดใหญ่ 🖥️ สเปกและเทคโนโลยีล้ำสมัย Alice Recoque จะประกอบด้วย 94 แร็ค บนแพลตฟอร์ม BullSequana XH3500 ของ Eviden พร้อมระบบจัดเก็บข้อมูลจาก DDN และโครงสร้างการเชื่อมต่อ BXI fabric ที่ช่วยให้การประมวลผลแบบขยายตัวมีประสิทธิภาพสูงสุด ซีพียู Venice มีจำนวนคอร์สูงสุดถึง 256 คอร์ ขณะที่จีพียู MI430X มาพร้อมหน่วยความจำ HBM4 ขนาด 432 GB และรองรับรูปแบบข้อมูล FP4 และ FP8 เพื่อให้เหมาะกับงาน AI โดยเฉพาะ 🌍 พลังงานและการติดตั้ง ระบบนี้จะใช้พลังงานประมาณ 12 เมกะวัตต์ ภายใต้การทำงานปกติ และใช้เทคโนโลยี การระบายความร้อนด้วยน้ำอุ่นรุ่นที่ 5 ของ Eviden เพื่อจัดการกับความร้อนจากส่วนประกอบที่ใช้พลังงานสูง ซูเปอร์คอมพิวเตอร์จะถูกติดตั้งที่ประเทศฝรั่งเศส ภายใต้การดูแลของ GENCI และดำเนินงานโดย CEA โดยมีการสนับสนุนจากหลายประเทศในยุโรป เช่น เนเธอร์แลนด์ และกรีซ 🔮 การใช้งานและอนาคต Alice Recoque จะถูกใช้ในงานวิจัยที่หลากหลาย ตั้งแต่ การพัฒนาโมเดล AI, การแพทย์เฉพาะบุคคล, การวิจัยสภาพภูมิอากาศ, ไปจนถึง การวิเคราะห์ข้อมูลจากดาวเทียมและกล้องโทรทรรศน์ คาดว่าระบบจะเริ่มใช้งานจริงในช่วงปี 2027–2028 หลังจาก AMD เปิดตัวซีพียู Venice และจีพียู MI430X อย่างเป็นทางการในปี 2026 📌 สรุปประเด็นสำคัญ ✅ เปิดตัว Alice Recoque ➡️ ซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สองของยุโรป ✅ สเปกหลัก ➡️ ใช้ AMD EPYC Venice (256 คอร์) และ Instinct MI430X (432 GB HBM4) ✅ โครงสร้างระบบ ➡️ 94 แร็ค บน BullSequana XH3500 พร้อม BXI fabric และ DDN storage ✅ พลังงานและการระบายความร้อน ➡️ ใช้พลังงาน ~12 เมกะวัตต์ พร้อมระบบน้ำอุ่นรุ่นที่ 5 ✅ การติดตั้งและการดำเนินงาน ➡️ ติดตั้งที่ฝรั่งเศส ดูแลโดย GENCI และ CEA ‼️ ความท้าทายด้านเวลาและเทคโนโลยี ⛔ ระบบจะพร้อมใช้งานจริงได้ราวปี 2027–2028 หลังจากฮาร์ดแวร์หลักเปิดตัว ‼️ ความเสี่ยงจากการพึ่งพาเทคโนโลยีใหม่ ⛔ หากการพัฒนา Venice และ MI430X ล่าช้า อาจกระทบต่อกำหนดการใช้งาน https://www.tomshardware.com/tech-industry/supercomputers/amd-and-eviden-unveil-europes-second-exascale-system-epyc-venice-and-instinct-mi430x-power-system-breaks-the-exaflop-barrier
    0 ความคิดเห็น 0 การแบ่งปัน 218 มุมมอง 0 รีวิว
  • ข่าวใหญ่แห่งโลกเทคโนโลยี: นักฟิสิกส์รางวัลโนเบลจับมือ HPE และอุตสาหกรรมชิป สร้างซูเปอร์คอมพิวเตอร์ควอนตัมใช้งานจริง!

    เรื่องราวนี้เริ่มต้นจาก John M. Martinis นักฟิสิกส์ผู้คว้ารางวัลโนเบลปี 2025 จากผลงานด้านควอนตัมคอมพิวติ้ง ล่าสุดเขาได้ร่วมมือกับ HPE และบริษัทชิปหลายแห่ง เพื่อสร้าง “ควอนตัมซูเปอร์คอมพิวเตอร์” ที่ไม่ใช่แค่ต้นแบบในห้องแล็บ แต่สามารถผลิตใช้งานได้จริงในระดับอุตสาหกรรม

    ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาซับซ้อนในสาขาเคมี การแพทย์ และวัสดุศาสตร์ ที่คอมพิวเตอร์ทั่วไปต้องใช้เวลานับพันปีในการประมวลผล ความร่วมมือครั้งนี้จึงเป็นก้าวสำคัญในการเปลี่ยนเทคโนโลยีล้ำยุคให้กลายเป็นเครื่องมือที่ใช้งานได้จริงในภาคธุรกิจและวิทยาศาสตร์

    John M. Martinis ผู้คว้ารางวัลโนเบลปี 2025
    ได้รับรางวัลจากผลงานด้านควอนตัมคอมพิวติ้ง
    เป็นผู้นำในการผลักดันเทคโนโลยีควอนตัมสู่การใช้งานจริง

    ความร่วมมือกับ HPE และบริษัทชิป
    เป้าหมายคือสร้างควอนตัมซูเปอร์คอมพิวเตอร์ที่ผลิตได้จริง
    รวมพลังจากภาคธุรกิจและวิทยาศาสตร์เพื่อเร่งการพัฒนา

    ควอนตัมคอมพิวเตอร์มีศักยภาพมหาศาล
    สามารถแก้ปัญหาทางเคมีและการแพทย์ที่คอมพิวเตอร์ทั่วไปทำไม่ได้
    มีบทบาทสำคัญในการค้นคว้ายาใหม่ การออกแบบวัสดุ และการจำลองโมเลกุล

    การเปลี่ยนจากต้นแบบสู่การผลิตจริง
    ความท้าทายคือการทำให้ระบบควอนตัมมีเสถียรภาพและสามารถผลิตจำนวนมากได้
    ต้องอาศัยการออกแบบร่วมกันระหว่างนักฟิสิกส์ วิศวกร และผู้ผลิตชิป

    คำเตือน: ควอนตัมคอมพิวเตอร์ยังไม่พร้อมใช้งานทั่วไป
    ยังต้องการการพัฒนาเพิ่มเติมในด้านการควบคุม qubit และการแก้ไขข้อผิดพลาด
    การใช้งานในระดับผู้บริโภคยังอยู่ห่างไกล ต้องรอการพัฒนาอีกหลายปี

    การลงทุนในเทคโนโลยีนี้มีความเสี่ยง
    ต้องใช้เงินทุนมหาศาลและอาจใช้เวลานานกว่าจะเห็นผลตอบแทน
    บริษัทที่ลงทุนต้องมีวิสัยทัศน์ระยะยาวและความเข้าใจในเทคโนโลยีขั้นสูง

    https://www.thestar.com.my/tech/tech-news/2025/11/10/nobel-winner-hpe-and-chip-industry-firms-team-up-to-make-a-practical-quantum-supercomputer
    🧠 ข่าวใหญ่แห่งโลกเทคโนโลยี: นักฟิสิกส์รางวัลโนเบลจับมือ HPE และอุตสาหกรรมชิป สร้างซูเปอร์คอมพิวเตอร์ควอนตัมใช้งานจริง! เรื่องราวนี้เริ่มต้นจาก John M. Martinis นักฟิสิกส์ผู้คว้ารางวัลโนเบลปี 2025 จากผลงานด้านควอนตัมคอมพิวติ้ง ล่าสุดเขาได้ร่วมมือกับ HPE และบริษัทชิปหลายแห่ง เพื่อสร้าง “ควอนตัมซูเปอร์คอมพิวเตอร์” ที่ไม่ใช่แค่ต้นแบบในห้องแล็บ แต่สามารถผลิตใช้งานได้จริงในระดับอุตสาหกรรม ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาซับซ้อนในสาขาเคมี การแพทย์ และวัสดุศาสตร์ ที่คอมพิวเตอร์ทั่วไปต้องใช้เวลานับพันปีในการประมวลผล ความร่วมมือครั้งนี้จึงเป็นก้าวสำคัญในการเปลี่ยนเทคโนโลยีล้ำยุคให้กลายเป็นเครื่องมือที่ใช้งานได้จริงในภาคธุรกิจและวิทยาศาสตร์ ✅ John M. Martinis ผู้คว้ารางวัลโนเบลปี 2025 ➡️ ได้รับรางวัลจากผลงานด้านควอนตัมคอมพิวติ้ง ➡️ เป็นผู้นำในการผลักดันเทคโนโลยีควอนตัมสู่การใช้งานจริง ✅ ความร่วมมือกับ HPE และบริษัทชิป ➡️ เป้าหมายคือสร้างควอนตัมซูเปอร์คอมพิวเตอร์ที่ผลิตได้จริง ➡️ รวมพลังจากภาคธุรกิจและวิทยาศาสตร์เพื่อเร่งการพัฒนา ✅ ควอนตัมคอมพิวเตอร์มีศักยภาพมหาศาล ➡️ สามารถแก้ปัญหาทางเคมีและการแพทย์ที่คอมพิวเตอร์ทั่วไปทำไม่ได้ ➡️ มีบทบาทสำคัญในการค้นคว้ายาใหม่ การออกแบบวัสดุ และการจำลองโมเลกุล ✅ การเปลี่ยนจากต้นแบบสู่การผลิตจริง ➡️ ความท้าทายคือการทำให้ระบบควอนตัมมีเสถียรภาพและสามารถผลิตจำนวนมากได้ ➡️ ต้องอาศัยการออกแบบร่วมกันระหว่างนักฟิสิกส์ วิศวกร และผู้ผลิตชิป ‼️ คำเตือน: ควอนตัมคอมพิวเตอร์ยังไม่พร้อมใช้งานทั่วไป ⛔ ยังต้องการการพัฒนาเพิ่มเติมในด้านการควบคุม qubit และการแก้ไขข้อผิดพลาด ⛔ การใช้งานในระดับผู้บริโภคยังอยู่ห่างไกล ต้องรอการพัฒนาอีกหลายปี ‼️ การลงทุนในเทคโนโลยีนี้มีความเสี่ยง ⛔ ต้องใช้เงินทุนมหาศาลและอาจใช้เวลานานกว่าจะเห็นผลตอบแทน ⛔ บริษัทที่ลงทุนต้องมีวิสัยทัศน์ระยะยาวและความเข้าใจในเทคโนโลยีขั้นสูง https://www.thestar.com.my/tech/tech-news/2025/11/10/nobel-winner-hpe-and-chip-industry-firms-team-up-to-make-a-practical-quantum-supercomputer
    WWW.THESTAR.COM.MY
    Nobel winner, HPE and chip industry firms team up to make a practical quantum supercomputer
    SAN FRANCISCO (Reuters) -John M. Martinis, one of this year's winners of the Nobel Prize in physics for breakthroughs in quantum computing, on Monday formed an alliance with HPE and several chip firms to create a practical, mass-producible quantum supercomputer.
    0 ความคิดเห็น 0 การแบ่งปัน 271 มุมมอง 0 รีวิว
  • “Nvidia ผนึกกำลัง Oracle สร้าง 7 ซูเปอร์คอม AI ให้รัฐบาลสหรัฐ – รวมพลังทะลุ 2,200 ExaFLOPS ด้วย Blackwell กว่าแสนตัว!”

    Nvidia ประกาศความร่วมมือครั้งใหญ่กับ Oracle และกระทรวงพลังงานสหรัฐ (DOE) เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI จำนวน 7 ระบบ โดยเฉพาะที่ Argonne National Laboratory ซึ่งจะเป็นที่ตั้งของ “Equinox” และ “Solstice” สองระบบหลักที่ใช้ GPU Blackwell รวมกันกว่า 100,000 ตัว ให้พลังประมวลผลรวมสูงถึง 2,200 ExaFLOPS สำหรับงาน AI โดยเฉพาะ

    Equinox จะเริ่มใช้งานในปี 2026 โดยใช้ GPU Blackwell จำนวน 10,000 ตัว ส่วน Solstice จะเป็นระบบขนาด 200 เมกะวัตต์ ที่ใช้ GPU Blackwell มากกว่า 100,000 ตัว และเมื่อเชื่อมต่อกับ Equinox จะกลายเป็นโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดของ DOE

    ระบบเหล่านี้จะถูกใช้ในการสร้างโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ และพัฒนา “agentic scientists” หรือ AI ที่สามารถค้นคว้าและตั้งสมมติฐานทางวิทยาศาสตร์ได้ด้วยตนเอง

    ข้อมูลสำคัญจากข่าว
    Nvidia และ Oracle สร้างซูเปอร์คอมพิวเตอร์ AI 7 ระบบให้รัฐบาลสหรัฐ
    ใช้ GPU Blackwell รวมกว่า 100,000 ตัว
    พลังประมวลผลรวม 2,200 ExaFLOPS (FP4 สำหรับ AI)
    ระบบหลักคือ Equinox (10,000 GPU) และ Solstice (100,000+ GPU)
    Equinox จะเริ่มใช้งานในปี 2026

    จุดประสงค์ของโครงการ
    สนับสนุนการวิจัยด้านวิทยาศาสตร์และความมั่นคง
    พัฒนาโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์
    สร้าง “agentic AI” ที่สามารถตั้งสมมติฐานและทดลองได้เอง
    ขับเคลื่อนการค้นพบทางวิทยาศาสตร์ด้วย AI

    ความร่วมมือและการลงทุน
    ใช้โมเดล public-private partnership ระหว่าง Nvidia, Oracle และ DOE
    Oracle เป็นผู้สร้างระบบ Equinox และ Solstice
    ระบบจะใช้ซอฟต์แวร์ของ Nvidia เช่น Megatron-Core และ TensorRT

    ระบบอื่นในโครงการ
    Argonne ยังจะได้ระบบใหม่อีก 3 ตัว: Tara, Minerva และ Janus
    ทั้งหมดจะอยู่ภายใต้ Argonne Leadership Computing Facility

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-and-partners-to-build-seven-ai-supercomputers-for-the-u-s-govt-with-over-100-000-blackwell-gpus-combined-performance-of-2-200-exaflops-of-compute
    🚀 “Nvidia ผนึกกำลัง Oracle สร้าง 7 ซูเปอร์คอม AI ให้รัฐบาลสหรัฐ – รวมพลังทะลุ 2,200 ExaFLOPS ด้วย Blackwell กว่าแสนตัว!” Nvidia ประกาศความร่วมมือครั้งใหญ่กับ Oracle และกระทรวงพลังงานสหรัฐ (DOE) เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI จำนวน 7 ระบบ โดยเฉพาะที่ Argonne National Laboratory ซึ่งจะเป็นที่ตั้งของ “Equinox” และ “Solstice” สองระบบหลักที่ใช้ GPU Blackwell รวมกันกว่า 100,000 ตัว ให้พลังประมวลผลรวมสูงถึง 2,200 ExaFLOPS สำหรับงาน AI โดยเฉพาะ Equinox จะเริ่มใช้งานในปี 2026 โดยใช้ GPU Blackwell จำนวน 10,000 ตัว ส่วน Solstice จะเป็นระบบขนาด 200 เมกะวัตต์ ที่ใช้ GPU Blackwell มากกว่า 100,000 ตัว และเมื่อเชื่อมต่อกับ Equinox จะกลายเป็นโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดของ DOE ระบบเหล่านี้จะถูกใช้ในการสร้างโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ และพัฒนา “agentic scientists” หรือ AI ที่สามารถค้นคว้าและตั้งสมมติฐานทางวิทยาศาสตร์ได้ด้วยตนเอง ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia และ Oracle สร้างซูเปอร์คอมพิวเตอร์ AI 7 ระบบให้รัฐบาลสหรัฐ ➡️ ใช้ GPU Blackwell รวมกว่า 100,000 ตัว ➡️ พลังประมวลผลรวม 2,200 ExaFLOPS (FP4 สำหรับ AI) ➡️ ระบบหลักคือ Equinox (10,000 GPU) และ Solstice (100,000+ GPU) ➡️ Equinox จะเริ่มใช้งานในปี 2026 ✅ จุดประสงค์ของโครงการ ➡️ สนับสนุนการวิจัยด้านวิทยาศาสตร์และความมั่นคง ➡️ พัฒนาโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ ➡️ สร้าง “agentic AI” ที่สามารถตั้งสมมติฐานและทดลองได้เอง ➡️ ขับเคลื่อนการค้นพบทางวิทยาศาสตร์ด้วย AI ✅ ความร่วมมือและการลงทุน ➡️ ใช้โมเดล public-private partnership ระหว่าง Nvidia, Oracle และ DOE ➡️ Oracle เป็นผู้สร้างระบบ Equinox และ Solstice ➡️ ระบบจะใช้ซอฟต์แวร์ของ Nvidia เช่น Megatron-Core และ TensorRT ✅ ระบบอื่นในโครงการ ➡️ Argonne ยังจะได้ระบบใหม่อีก 3 ตัว: Tara, Minerva และ Janus ➡️ ทั้งหมดจะอยู่ภายใต้ Argonne Leadership Computing Facility https://www.tomshardware.com/tech-industry/supercomputers/nvidia-and-partners-to-build-seven-ai-supercomputers-for-the-u-s-govt-with-over-100-000-blackwell-gpus-combined-performance-of-2-200-exaflops-of-compute
    0 ความคิดเห็น 0 การแบ่งปัน 240 มุมมอง 0 รีวิว
  • “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง”

    Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ

    สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก

    ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด

    แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision

    ข้อมูลสำคัญจากข่าว
    Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL
    ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin
    ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ
    Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA)
    Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI

    ความสามารถที่คาดการณ์ได้
    Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS
    คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า
    รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8

    ความสำคัญเชิงยุทธศาสตร์
    Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL
    Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด
    เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์

    ข้อควรระวังและข้อจำกัด
    Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง
    การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027
    การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    🧠 “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง” Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL ➡️ ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin ➡️ ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ ➡️ Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA) ➡️ Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI ✅ ความสามารถที่คาดการณ์ได้ ➡️ Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS ➡️ คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า ➡️ รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8 ✅ ความสำคัญเชิงยุทธศาสตร์ ➡️ Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL ➡️ Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด ➡️ เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์ ‼️ ข้อควรระวังและข้อจำกัด ⛔ Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง ⛔ การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027 ⛔ การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    0 ความคิดเห็น 0 การแบ่งปัน 268 มุมมอง 0 รีวิว
  • กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก

    บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ

    ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา

    เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์

    โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์

    รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี

    โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน
    ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle
    ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี

    ซูเปอร์คอมพิวเตอร์ “Lux”
    ใช้ AMD Instinct MI355X accelerators
    เริ่มใช้งานภายใน 6 เดือน
    เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI

    ซูเปอร์คอมพิวเตอร์ “Discovery”
    ใช้ MI430X-HPC พร้อม Epyc CPU
    เริ่มใช้งานปี 2029
    เน้นงานวิจัยที่ต้องการความแม่นยำสูง

    เป้าหมายของโครงการ
    วิจัยฟิวชันพลังงานและการรักษามะเร็ง
    เสริมความมั่นคงแห่งชาติ
    ใช้ร่วมกันระหว่างภาครัฐและเอกชน

    คำเตือนสำหรับการลงทุนด้าน AI compute
    การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี
    การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย
    ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม

    https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    🚀 กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์ โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์ รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี ✅ โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน ➡️ ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle ➡️ ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี ✅ ซูเปอร์คอมพิวเตอร์ “Lux” ➡️ ใช้ AMD Instinct MI355X accelerators ➡️ เริ่มใช้งานภายใน 6 เดือน ➡️ เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI ✅ ซูเปอร์คอมพิวเตอร์ “Discovery” ➡️ ใช้ MI430X-HPC พร้อม Epyc CPU ➡️ เริ่มใช้งานปี 2029 ➡️ เน้นงานวิจัยที่ต้องการความแม่นยำสูง ✅ เป้าหมายของโครงการ ➡️ วิจัยฟิวชันพลังงานและการรักษามะเร็ง ➡️ เสริมความมั่นคงแห่งชาติ ➡️ ใช้ร่วมกันระหว่างภาครัฐและเอกชน ‼️ คำเตือนสำหรับการลงทุนด้าน AI compute ⛔ การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี ⛔ การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย ⛔ ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    0 ความคิดเห็น 0 การแบ่งปัน 314 มุมมอง 0 รีวิว
  • “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!”

    จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก

    ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น

    สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า

    การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล

    ความสำเร็จของ Sunway Supercomputer
    ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์
    จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ
    ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens
    ประมวลผลเร็วกว่า exascale GPU หลายเท่า
    สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก

    ความสำคัญของการจำลองเคมีควอนตัม
    ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่
    ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่
    ลดต้นทุนและเวลาในการทดลองในห้องแล็บ
    เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล
    เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน

    ข้อควรระวังและคำเตือน
    การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล
    โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท
    การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ
    ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง
    การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง

    https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    🧬 “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!” จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล ✅ ความสำเร็จของ Sunway Supercomputer ➡️ ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์ ➡️ จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ ➡️ ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ➡️ ประมวลผลเร็วกว่า exascale GPU หลายเท่า ➡️ สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก ✅ ความสำคัญของการจำลองเคมีควอนตัม ➡️ ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่ ➡️ ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่ ➡️ ลดต้นทุนและเวลาในการทดลองในห้องแล็บ ➡️ เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล ➡️ เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน ‼️ ข้อควรระวังและคำเตือน ⛔ การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล ⛔ โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท ⛔ การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ ⛔ ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง ⛔ การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    0 ความคิดเห็น 0 การแบ่งปัน 213 มุมมอง 0 รีวิว
  • “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ

    ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน

    Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7

    Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด

    Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10
    วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน

    ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน
    ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4)

    มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB
    รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก.
    พกพาสะดวกแต่ทรงพลัง

    พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet
    รองรับการใช้งานระดับมืออาชีพ

    รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7
    ขยายการประมวลผลแบบ local ได้

    https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    🖥️ “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด ✅ Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10 ➡️ วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน ✅ ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน ➡️ ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4) ✅ มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB ➡️ รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ ✅ ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก. ➡️ พกพาสะดวกแต่ทรงพลัง ✅ พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet ➡️ รองรับการใช้งานระดับมืออาชีพ ✅ รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 ➡️ ขยายการประมวลผลแบบ local ได้ https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    0 ความคิดเห็น 0 การแบ่งปัน 288 มุมมอง 0 รีวิว
  • “Intel ยุติยุค Ponte Vecchio และ Arctic Sound — เตรียมเข้าสู่ Jaguar Shores ด้วย AI ที่ทรงพลังกว่าเดิม”

    Intel ประกาศเริ่มกระบวนการเลิกใช้งาน GPU สำหรับดาต้าเซ็นเตอร์รุ่น Ponte Vecchio และ Arctic Sound อย่างเป็นทางการ โดยการเปลี่ยนแปลงนี้ปรากฏใน changelog ของ Intel XPU Manager เวอร์ชัน 1.3.3 ซึ่งระบุว่าซอฟต์แวร์จะไม่รองรับ GPU Flex และ Max อีกต่อไป ผู้ใช้งานจึงควรใช้เวอร์ชัน 1.2.42 เพื่อรักษาฟีเจอร์เดิมไว้

    Ponte Vecchio เป็น GPU ขนาดใหญ่ที่ใช้สถาปัตยกรรม Xe-HPC และกระบวนการผลิต Intel 10 โดยมีขนาดถึง 1,280 mm² และมีทรานซิสเตอร์กว่า 100 พันล้านตัว พร้อม shading units 16,384 และ tensor cores 1,024 ใช้พลังงานสูงสุดถึง 600W ต่อการ์ด และมีหน่วยความจำตั้งแต่ 48 ถึง 128 GB เหมาะสำหรับงาน HPC และ AI ที่ต้องการประสิทธิภาพสูง

    Arctic Sound เป็น GPU ขนาดเล็กกว่า ใช้สถาปัตยกรรม Gen 12.5 และผลิตด้วย Intel 10 node เช่นกัน มีขนาด 190 mm² และทรานซิสเตอร์ประมาณ 8 พันล้านตัว พร้อม shading units 8,192 และ ROPs 128 ใช้พลังงานประมาณ 500W และมีหน่วยความจำ 16 GB เหมาะสำหรับงานระดับกลางในดาต้าเซ็นเตอร์

    แม้ GPU ทั้งสองรุ่นจะถูกนำไปใช้งานในระบบ Aurora supercomputer ซึ่งถือเป็นความสำเร็จด้านวิศวกรรม แต่การเปลี่ยนแปลงกลยุทธ์ของ Intel ทำให้ผู้ผลิตหลายรายลังเลที่จะลงทุนกับแพลตฟอร์มที่ไม่มั่นคง

    Intel เตรียมเปิดตัว Jaguar Shores ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ HBM4 และซอฟต์แวร์ OneAPI ที่พัฒนาเต็มรูปแบบแล้ว เพื่อรองรับงาน AI และ HPC ในระดับ rack-scale

    ข้อมูลสำคัญจากข่าว
    Intel ยุติการสนับสนุน GPU Ponte Vecchio และ Arctic Sound
    การเปลี่ยนแปลงปรากฏใน Intel XPU Manager เวอร์ชัน 1.3.3
    Ponte Vecchio ใช้ Xe-HPC, ขนาด 1,280 mm², 100 พันล้านทรานซิสเตอร์
    มี shading units 16,384 และ tensor cores 1,024
    ใช้พลังงานสูงสุด 600W และมีหน่วยความจำ 48–128 GB
    Arctic Sound ใช้ Gen 12.5, ขนาด 190 mm², 8 พันล้านทรานซิสเตอร์
    มี shading units 8,192 และ ROPs 128, ใช้พลังงาน 500W
    GPU ทั้งสองถูกใช้งานใน Aurora supercomputer
    Intel เตรียมเปิดตัว Jaguar Shores พร้อม HBM4 และ OneAPI

    ข้อมูลเสริมจากภายนอก
    Xe-HPC เป็นสถาปัตยกรรมที่ออกแบบมาเพื่องาน HPC โดยเฉพาะ
    HBM4 คือหน่วยความจำความเร็วสูงรุ่นใหม่ที่มี bandwidth สูงกว่า HBM3
    OneAPI เป็นแพลตฟอร์มที่รวมการพัฒนา GPU, CPU และ FPGA ไว้ในชุดเดียว
    Aurora supercomputer เป็นหนึ่งในระบบที่ทรงพลังที่สุดของสหรัฐฯ
    การเปลี่ยนแปลงกลยุทธ์ของ Intel สะท้อนถึงการแข่งขันที่รุนแรงในตลาด AI

    https://www.techpowerup.com/341806/intel-phases-out-ponte-vecchio-and-arctic-sound-data-center-gpus
    🧊 “Intel ยุติยุค Ponte Vecchio และ Arctic Sound — เตรียมเข้าสู่ Jaguar Shores ด้วย AI ที่ทรงพลังกว่าเดิม” Intel ประกาศเริ่มกระบวนการเลิกใช้งาน GPU สำหรับดาต้าเซ็นเตอร์รุ่น Ponte Vecchio และ Arctic Sound อย่างเป็นทางการ โดยการเปลี่ยนแปลงนี้ปรากฏใน changelog ของ Intel XPU Manager เวอร์ชัน 1.3.3 ซึ่งระบุว่าซอฟต์แวร์จะไม่รองรับ GPU Flex และ Max อีกต่อไป ผู้ใช้งานจึงควรใช้เวอร์ชัน 1.2.42 เพื่อรักษาฟีเจอร์เดิมไว้ Ponte Vecchio เป็น GPU ขนาดใหญ่ที่ใช้สถาปัตยกรรม Xe-HPC และกระบวนการผลิต Intel 10 โดยมีขนาดถึง 1,280 mm² และมีทรานซิสเตอร์กว่า 100 พันล้านตัว พร้อม shading units 16,384 และ tensor cores 1,024 ใช้พลังงานสูงสุดถึง 600W ต่อการ์ด และมีหน่วยความจำตั้งแต่ 48 ถึง 128 GB เหมาะสำหรับงาน HPC และ AI ที่ต้องการประสิทธิภาพสูง Arctic Sound เป็น GPU ขนาดเล็กกว่า ใช้สถาปัตยกรรม Gen 12.5 และผลิตด้วย Intel 10 node เช่นกัน มีขนาด 190 mm² และทรานซิสเตอร์ประมาณ 8 พันล้านตัว พร้อม shading units 8,192 และ ROPs 128 ใช้พลังงานประมาณ 500W และมีหน่วยความจำ 16 GB เหมาะสำหรับงานระดับกลางในดาต้าเซ็นเตอร์ แม้ GPU ทั้งสองรุ่นจะถูกนำไปใช้งานในระบบ Aurora supercomputer ซึ่งถือเป็นความสำเร็จด้านวิศวกรรม แต่การเปลี่ยนแปลงกลยุทธ์ของ Intel ทำให้ผู้ผลิตหลายรายลังเลที่จะลงทุนกับแพลตฟอร์มที่ไม่มั่นคง Intel เตรียมเปิดตัว Jaguar Shores ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ HBM4 และซอฟต์แวร์ OneAPI ที่พัฒนาเต็มรูปแบบแล้ว เพื่อรองรับงาน AI และ HPC ในระดับ rack-scale ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยุติการสนับสนุน GPU Ponte Vecchio และ Arctic Sound ➡️ การเปลี่ยนแปลงปรากฏใน Intel XPU Manager เวอร์ชัน 1.3.3 ➡️ Ponte Vecchio ใช้ Xe-HPC, ขนาด 1,280 mm², 100 พันล้านทรานซิสเตอร์ ➡️ มี shading units 16,384 และ tensor cores 1,024 ➡️ ใช้พลังงานสูงสุด 600W และมีหน่วยความจำ 48–128 GB ➡️ Arctic Sound ใช้ Gen 12.5, ขนาด 190 mm², 8 พันล้านทรานซิสเตอร์ ➡️ มี shading units 8,192 และ ROPs 128, ใช้พลังงาน 500W ➡️ GPU ทั้งสองถูกใช้งานใน Aurora supercomputer ➡️ Intel เตรียมเปิดตัว Jaguar Shores พร้อม HBM4 และ OneAPI ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe-HPC เป็นสถาปัตยกรรมที่ออกแบบมาเพื่องาน HPC โดยเฉพาะ ➡️ HBM4 คือหน่วยความจำความเร็วสูงรุ่นใหม่ที่มี bandwidth สูงกว่า HBM3 ➡️ OneAPI เป็นแพลตฟอร์มที่รวมการพัฒนา GPU, CPU และ FPGA ไว้ในชุดเดียว ➡️ Aurora supercomputer เป็นหนึ่งในระบบที่ทรงพลังที่สุดของสหรัฐฯ ➡️ การเปลี่ยนแปลงกลยุทธ์ของ Intel สะท้อนถึงการแข่งขันที่รุนแรงในตลาด AI https://www.techpowerup.com/341806/intel-phases-out-ponte-vecchio-and-arctic-sound-data-center-gpus
    WWW.TECHPOWERUP.COM
    Intel Phases Out "Ponte Vecchio" and "Arctic Sound" Data Center GPUs
    Intel has apparently started a slow deprecation phase of its "Ponte Vecchio" Data Center GPU Max and "Arctic Sound" Data Center GPU Flex series. According to the changelog in the Intel XPU Manager—a free and open-source tool for monitoring and managing Intel data center GPUs—version 1.3.3 deprecates...
    0 ความคิดเห็น 0 การแบ่งปัน 244 มุมมอง 0 รีวิว
  • xAI เร่งสร้างโรงงาน AI พลังงานก๊าซ — เดินหน้าสู่เป้าหมาย 1 กิกะวัตต์เพื่อรองรับ GPU กว่า 1 ล้านตัวใน Colossus Supercomputer

    บริษัท xAI ของ Elon Musk กำลังเดินหน้าอย่างรวดเร็วในการสร้างโรงงาน AI ขนาดมหึมาที่ใช้พลังงานจากก๊าซธรรมชาติ โดยล่าสุดมีการติดตั้งหรืออยู่ระหว่างการก่อสร้างระบบผลิตไฟฟ้ารวมกว่า 460 เมกะวัตต์ ทั้งในเมือง Memphis รัฐเทนเนสซี และ Southaven รัฐมิสซิสซิปปี ซึ่งถือเป็นครึ่งหนึ่งของเป้าหมาย 1 กิกะวัตต์ที่ Musk ตั้งไว้สำหรับ “AI factory”

    ในฝั่ง Memphis xAI ได้รับอนุญาตให้ติดตั้งกังหันก๊าซ 15 ตัวที่ไซต์ Paul R. Lowry Road หลังจากมีข้อถกเถียงกับกลุ่มสิ่งแวดล้อม ขณะที่ใน Southaven บริษัทได้ซื้อโรงไฟฟ้าก๊าซเก่าจาก Duke Energy และได้รับอนุญาตให้ใช้งานชั่วคราวเป็นเวลา 12 เดือน โดยใช้กังหัน Titan 350 ที่ให้กำลังมากกว่า 35 เมกะวัตต์ต่อเครื่อง

    เมื่อรวมกันแล้ว ระบบผลิตไฟฟ้าของ xAI สามารถรองรับ GPU ระดับ Nvidia GB200 NVL72 ได้มากถึง 200,000 ตัว ซึ่งเป็นหัวใจของ Colossus Supercomputer ที่ใช้ฝึกโมเดล Grok และระบบ AI ขนาดใหญ่ โดยมีแผนจะขยายไปถึง 1 ล้าน GPU ภายในปี 2026

    การเลือกใช้กังหันแบบ containerized เช่น SMT-130 และ Titan 350 ช่วยให้ xAI สามารถติดตั้งได้รวดเร็วโดยไม่ต้องรอการเชื่อมต่อกับโครงข่ายไฟฟ้าหลัก ซึ่งมักใช้เวลาหลายปี นี่จึงเป็นกลยุทธ์ที่แตกต่างจาก Microsoft และ Amazon ที่ยังทดลองระบบ onsite เพียง 100–200 เมกะวัตต์เท่านั้น

    xAI สร้างโรงงานผลิตไฟฟ้าก๊าซเพื่อรองรับโรงงาน AI ขนาดใหญ่
    ติดตั้งแล้วหรืออยู่ระหว่างการก่อสร้างรวม 460 เมกะวัตต์
    ตั้งเป้า 1 กิกะวัตต์เพื่อรองรับ GPU กว่า 1 ล้านตัว

    ใช้กังหัน SMT-130 และ Titan 350 สำหรับการผลิตไฟฟ้า
    SMT-130 ให้กำลัง ~16MW / Titan 350 มากกว่า 35MW
    ติดตั้งแบบ containerized เพื่อความรวดเร็ว

    มีการติดตั้งในสองรัฐคือ Tennessee และ Mississippi
    Memphis: ได้รับอนุญาตติดตั้งกังหัน 15 ตัว
    Southaven: ซื้อโรงไฟฟ้าเก่าจาก Duke Energy พร้อมใบอนุญาตชั่วคราว

    รองรับการใช้งาน GPU Nvidia GB200 NVL72 ได้มากถึง 200,000 ตัว
    เทียบเท่ากับซูเปอร์คอมพิวเตอร์ระดับโลก
    ใช้ฝึกโมเดล Grok และระบบ AI ขนาดใหญ่

    กลยุทธ์พลังงานของ xAI แตกต่างจากบริษัทอื่น
    Microsoft และ Amazon ยังอยู่ที่ระดับ 100–200MW
    xAI เลือกใช้พลังงานก๊าซเพื่อหลีกเลี่ยงการรอเชื่อมต่อกับโครงข่าย

    https://www.tomshardware.com/tech-industry/xai-pushes-power-strategy-towards-1gw-ai-factory
    📰 xAI เร่งสร้างโรงงาน AI พลังงานก๊าซ — เดินหน้าสู่เป้าหมาย 1 กิกะวัตต์เพื่อรองรับ GPU กว่า 1 ล้านตัวใน Colossus Supercomputer บริษัท xAI ของ Elon Musk กำลังเดินหน้าอย่างรวดเร็วในการสร้างโรงงาน AI ขนาดมหึมาที่ใช้พลังงานจากก๊าซธรรมชาติ โดยล่าสุดมีการติดตั้งหรืออยู่ระหว่างการก่อสร้างระบบผลิตไฟฟ้ารวมกว่า 460 เมกะวัตต์ ทั้งในเมือง Memphis รัฐเทนเนสซี และ Southaven รัฐมิสซิสซิปปี ซึ่งถือเป็นครึ่งหนึ่งของเป้าหมาย 1 กิกะวัตต์ที่ Musk ตั้งไว้สำหรับ “AI factory” ในฝั่ง Memphis xAI ได้รับอนุญาตให้ติดตั้งกังหันก๊าซ 15 ตัวที่ไซต์ Paul R. Lowry Road หลังจากมีข้อถกเถียงกับกลุ่มสิ่งแวดล้อม ขณะที่ใน Southaven บริษัทได้ซื้อโรงไฟฟ้าก๊าซเก่าจาก Duke Energy และได้รับอนุญาตให้ใช้งานชั่วคราวเป็นเวลา 12 เดือน โดยใช้กังหัน Titan 350 ที่ให้กำลังมากกว่า 35 เมกะวัตต์ต่อเครื่อง เมื่อรวมกันแล้ว ระบบผลิตไฟฟ้าของ xAI สามารถรองรับ GPU ระดับ Nvidia GB200 NVL72 ได้มากถึง 200,000 ตัว ซึ่งเป็นหัวใจของ Colossus Supercomputer ที่ใช้ฝึกโมเดล Grok และระบบ AI ขนาดใหญ่ โดยมีแผนจะขยายไปถึง 1 ล้าน GPU ภายในปี 2026 การเลือกใช้กังหันแบบ containerized เช่น SMT-130 และ Titan 350 ช่วยให้ xAI สามารถติดตั้งได้รวดเร็วโดยไม่ต้องรอการเชื่อมต่อกับโครงข่ายไฟฟ้าหลัก ซึ่งมักใช้เวลาหลายปี นี่จึงเป็นกลยุทธ์ที่แตกต่างจาก Microsoft และ Amazon ที่ยังทดลองระบบ onsite เพียง 100–200 เมกะวัตต์เท่านั้น ✅ xAI สร้างโรงงานผลิตไฟฟ้าก๊าซเพื่อรองรับโรงงาน AI ขนาดใหญ่ ➡️ ติดตั้งแล้วหรืออยู่ระหว่างการก่อสร้างรวม 460 เมกะวัตต์ ➡️ ตั้งเป้า 1 กิกะวัตต์เพื่อรองรับ GPU กว่า 1 ล้านตัว ✅ ใช้กังหัน SMT-130 และ Titan 350 สำหรับการผลิตไฟฟ้า ➡️ SMT-130 ให้กำลัง ~16MW / Titan 350 มากกว่า 35MW ➡️ ติดตั้งแบบ containerized เพื่อความรวดเร็ว ✅ มีการติดตั้งในสองรัฐคือ Tennessee และ Mississippi ➡️ Memphis: ได้รับอนุญาตติดตั้งกังหัน 15 ตัว ➡️ Southaven: ซื้อโรงไฟฟ้าเก่าจาก Duke Energy พร้อมใบอนุญาตชั่วคราว ✅ รองรับการใช้งาน GPU Nvidia GB200 NVL72 ได้มากถึง 200,000 ตัว ➡️ เทียบเท่ากับซูเปอร์คอมพิวเตอร์ระดับโลก ➡️ ใช้ฝึกโมเดล Grok และระบบ AI ขนาดใหญ่ ✅ กลยุทธ์พลังงานของ xAI แตกต่างจากบริษัทอื่น ➡️ Microsoft และ Amazon ยังอยู่ที่ระดับ 100–200MW ➡️ xAI เลือกใช้พลังงานก๊าซเพื่อหลีกเลี่ยงการรอเชื่อมต่อกับโครงข่าย https://www.tomshardware.com/tech-industry/xai-pushes-power-strategy-towards-1gw-ai-factory
    WWW.TOMSHARDWARE.COM
    xAI's new gas turbine facility gets halfway to Elon Musk's 1-gigawatt 'AI factory' goal
    Permits and turbine orders point to half a gigawatt of on-site generation as xAI accelerates its Mississippi build.
    0 ความคิดเห็น 0 การแบ่งปัน 339 มุมมอง 0 รีวิว
  • “Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมจากชิปซิลิคอน — จุดเปลี่ยนที่อาจทำให้ควอนตัมกลายเป็นเรื่อง ‘ธรรมดา’”

    Quantum Motion สตาร์ทอัพจากสหราชอาณาจักรที่แยกตัวจากมหาวิทยาลัย Oxford และ UCL ได้ประกาศเปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack เครื่องแรกของโลกที่สร้างขึ้นจากเทคโนโลยีชิปซิลิคอนมาตรฐานแบบเดียวกับที่ใช้ในโน้ตบุ๊กและสมาร์ตโฟน โดยระบบนี้ถูกติดตั้งแล้วที่ศูนย์ National Quantum Computing Centre (NQCC) ของสหราชอาณาจักรเมื่อวันที่ 15 กันยายน 2025

    สิ่งที่ทำให้ระบบนี้โดดเด่นคือการใช้กระบวนการผลิต CMOS ขนาด 300 มม. ซึ่งสามารถผลิตได้ในโรงงานชิปทั่วไป และติดตั้งในตู้เซิร์ฟเวอร์ขนาดมาตรฐาน 19 นิ้วเพียง 3 ตู้เท่านั้น — รวมถึงระบบ cryogenics และอุปกรณ์ควบคุมทั้งหมด ถือเป็น “quantum computing’s silicon moment” ที่อาจเปลี่ยนเกมการผลิตฮาร์ดแวร์ควอนตัมให้สามารถขยายได้ในระดับอุตสาหกรรม

    ระบบนี้ใช้สถาปัตยกรรมแบบ tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต และรองรับเฟรมเวิร์กยอดนิยมอย่าง Qiskit และ Cirq ทำให้นักพัฒนาสามารถสร้างแอปควอนตัมได้โดยไม่ต้องเปลี่ยนเครื่องมือใหม่ทั้งหมด

    แม้จะเป็นก้าวใหญ่ด้านวิศวกรรม แต่ Quantum Motion ยังไม่ได้เปิดเผยข้อมูลสำคัญ เช่น จำนวน qubit, ความแม่นยำของ gate, เวลาคงอยู่ของ qubit หรือ benchmark ใด ๆ ทั้งสิ้น ทำให้ยังไม่สามารถประเมินประสิทธิภาพจริงได้ในตอนนี้ และต้องรอการทดสอบจาก NQCC ในอีกไม่กี่เดือนข้างหน้า

    ข้อมูลสำคัญจากข่าว
    Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack จากชิปซิลิคอนมาตรฐาน
    ใช้กระบวนการผลิต CMOS ขนาด 300 มม. ที่สามารถผลิตในโรงงานทั่วไป
    ติดตั้งในศูนย์ NQCC ของสหราชอาณาจักรเมื่อ 15 กันยายน 2025
    ระบบทั้งหมดอยู่ในตู้เซิร์ฟเวอร์ขนาด 19 นิ้วเพียง 3 ตู้ รวมถึงตู้เย็นควอนตัมและอุปกรณ์ควบคุม

    จุดเด่นด้านเทคโนโลยี
    ใช้สถาปัตยกรรม tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต
    รองรับเฟรมเวิร์กยอดนิยม เช่น Qiskit และ Cirq
    ออกแบบให้สามารถติดตั้งในศูนย์ข้อมูลทั่วไปโดยไม่ต้องปรับโครงสร้าง
    เป็นระบบแรกที่ใช้ชิปซิลิคอนแบบ mass manufacturable สำหรับควอนตัม

    ข้อมูลเสริมจากภายนอก
    Quantum Motion ก่อตั้งในปี 2017 โดยนักวิจัยจาก Oxford และ UCL
    ได้รับเงินทุนกว่า $50.8 ล้านในปี 2023 และเข้าร่วมโครงการ DARPA QBI ในปี 2025
    การใช้ชิปซิลิคอนช่วยลดต้นทุนและเพิ่มความสามารถในการผลิตจำนวนมาก
    หากสำเร็จ อาจนำไปสู่การใช้งานควอนตัมในด้านพลังงาน ยา และการเงินอย่างแพร่หลาย

    https://www.tomshardware.com/tech-industry/supercomputers/uk-start-up-quantum-computer-runs-on-standard-chips
    🧊 “Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมจากชิปซิลิคอน — จุดเปลี่ยนที่อาจทำให้ควอนตัมกลายเป็นเรื่อง ‘ธรรมดา’” Quantum Motion สตาร์ทอัพจากสหราชอาณาจักรที่แยกตัวจากมหาวิทยาลัย Oxford และ UCL ได้ประกาศเปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack เครื่องแรกของโลกที่สร้างขึ้นจากเทคโนโลยีชิปซิลิคอนมาตรฐานแบบเดียวกับที่ใช้ในโน้ตบุ๊กและสมาร์ตโฟน โดยระบบนี้ถูกติดตั้งแล้วที่ศูนย์ National Quantum Computing Centre (NQCC) ของสหราชอาณาจักรเมื่อวันที่ 15 กันยายน 2025 สิ่งที่ทำให้ระบบนี้โดดเด่นคือการใช้กระบวนการผลิต CMOS ขนาด 300 มม. ซึ่งสามารถผลิตได้ในโรงงานชิปทั่วไป และติดตั้งในตู้เซิร์ฟเวอร์ขนาดมาตรฐาน 19 นิ้วเพียง 3 ตู้เท่านั้น — รวมถึงระบบ cryogenics และอุปกรณ์ควบคุมทั้งหมด ถือเป็น “quantum computing’s silicon moment” ที่อาจเปลี่ยนเกมการผลิตฮาร์ดแวร์ควอนตัมให้สามารถขยายได้ในระดับอุตสาหกรรม ระบบนี้ใช้สถาปัตยกรรมแบบ tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต และรองรับเฟรมเวิร์กยอดนิยมอย่าง Qiskit และ Cirq ทำให้นักพัฒนาสามารถสร้างแอปควอนตัมได้โดยไม่ต้องเปลี่ยนเครื่องมือใหม่ทั้งหมด แม้จะเป็นก้าวใหญ่ด้านวิศวกรรม แต่ Quantum Motion ยังไม่ได้เปิดเผยข้อมูลสำคัญ เช่น จำนวน qubit, ความแม่นยำของ gate, เวลาคงอยู่ของ qubit หรือ benchmark ใด ๆ ทั้งสิ้น ทำให้ยังไม่สามารถประเมินประสิทธิภาพจริงได้ในตอนนี้ และต้องรอการทดสอบจาก NQCC ในอีกไม่กี่เดือนข้างหน้า ✅ ข้อมูลสำคัญจากข่าว ➡️ Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack จากชิปซิลิคอนมาตรฐาน ➡️ ใช้กระบวนการผลิต CMOS ขนาด 300 มม. ที่สามารถผลิตในโรงงานทั่วไป ➡️ ติดตั้งในศูนย์ NQCC ของสหราชอาณาจักรเมื่อ 15 กันยายน 2025 ➡️ ระบบทั้งหมดอยู่ในตู้เซิร์ฟเวอร์ขนาด 19 นิ้วเพียง 3 ตู้ รวมถึงตู้เย็นควอนตัมและอุปกรณ์ควบคุม ✅ จุดเด่นด้านเทคโนโลยี ➡️ ใช้สถาปัตยกรรม tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต ➡️ รองรับเฟรมเวิร์กยอดนิยม เช่น Qiskit และ Cirq ➡️ ออกแบบให้สามารถติดตั้งในศูนย์ข้อมูลทั่วไปโดยไม่ต้องปรับโครงสร้าง ➡️ เป็นระบบแรกที่ใช้ชิปซิลิคอนแบบ mass manufacturable สำหรับควอนตัม ✅ ข้อมูลเสริมจากภายนอก ➡️ Quantum Motion ก่อตั้งในปี 2017 โดยนักวิจัยจาก Oxford และ UCL ➡️ ได้รับเงินทุนกว่า $50.8 ล้านในปี 2023 และเข้าร่วมโครงการ DARPA QBI ในปี 2025 ➡️ การใช้ชิปซิลิคอนช่วยลดต้นทุนและเพิ่มความสามารถในการผลิตจำนวนมาก ➡️ หากสำเร็จ อาจนำไปสู่การใช้งานควอนตัมในด้านพลังงาน ยา และการเงินอย่างแพร่หลาย https://www.tomshardware.com/tech-industry/supercomputers/uk-start-up-quantum-computer-runs-on-standard-chips
    WWW.TOMSHARDWARE.COM
    Start-up hails world's first quantum computer made from everyday silicon — fits in three 19-inch server racks and is touted as 'quantum computing's silicon moment'
    Built on a standard CMOS process and packed into three racks, Quantum Motion’s silicon spin-qubit machine is ready to be tested.
    0 ความคิดเห็น 0 การแบ่งปัน 316 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย

    มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science)

    จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ

    เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021

    SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์

    ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์

    NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย

    การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC
    เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025
    ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops
    ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า

    เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance
    บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร
    แสดงผลแบบ visualization และค้นหาด้วย history ID
    ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง

    เป้าหมายของระบบนี้
    ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้
    ลดความผิดพลาดจากการบันทึกด้วยมือ
    เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย

    แผนการขยายในอนาคต
    NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์
    ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data
    อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย

    https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    🎙️ เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science) จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021 SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์ ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์ NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย ✅ การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC ➡️ เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025 ➡️ ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops ➡️ ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า ✅ เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance ➡️ บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร ➡️ แสดงผลแบบ visualization และค้นหาด้วย history ID ➡️ ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง ✅ เป้าหมายของระบบนี้ ➡️ ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้ ➡️ ลดความผิดพลาดจากการบันทึกด้วยมือ ➡️ เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย ✅ แผนการขยายในอนาคต ➡️ NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์ ➡️ ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data ➡️ อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    WWW.TECHPOWERUP.COM
    NEC Provides Computing Power for OCTOPUS Supercomputer at Osaka University
    The University of Osaka D3 Center will begin trial operations of the "Osaka University Compute and sTOrage Platform Urging open Science" (OCTOPUS), a computational and data platform promoting open science built by NEC Corporation (NEC; TSE: 6701), starting this September, with full-scale operations ...
    0 ความคิดเห็น 0 การแบ่งปัน 361 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 ความคิดเห็น 0 การแบ่งปัน 407 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้

    ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์

    ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว

    ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว

    GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์

    สเปกของ Acer Veriton GN100
    ใช้ Nvidia GB10 Grace Blackwell Superchip
    CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725)
    GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP
    RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB

    ความสามารถด้าน AI
    รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง
    ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT
    รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama

    การเชื่อมต่อและการขยาย
    มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1
    เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่
    รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล

    การออกแบบและการใช้งาน
    ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย
    มี Kensington lock สำหรับความปลอดภัย
    ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    🎙️ เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้ ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์ ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์ ✅ สเปกของ Acer Veriton GN100 ➡️ ใช้ Nvidia GB10 Grace Blackwell Superchip ➡️ CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725) ➡️ GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP ➡️ RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB ✅ ความสามารถด้าน AI ➡️ รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง ➡️ ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT ➡️ รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama ✅ การเชื่อมต่อและการขยาย ➡️ มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1 ➡️ เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่ ➡️ รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล ✅ การออกแบบและการใช้งาน ➡️ ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย ➡️ มี Kensington lock สำหรับความปลอดภัย ➡️ ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    WWW.TOMSHARDWARE.COM
    Acer unveils Project Digits supercomputer featuring Nvidia's GB10 superchip with 128GB of LPDDR5x
    Acer joins Asus, Lenovo, and Dell with its third-party Project Digits variation.
    0 ความคิดเห็น 0 การแบ่งปัน 307 มุมมอง 0 รีวิว
  • FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale

    ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก

    FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด

    ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์

    นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก

    สรุปเนื้อหาเป็นหัวข้อ
    FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale
    เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia
    ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion
    เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ
    ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ
    งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน
    ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision
    เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม
    ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล
    ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience

    ข้อมูลเสริมจากภายนอก
    MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI
    Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก
    NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต
    ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI
    มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน
    FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    🎙️ FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale ➡️ เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia ➡️ ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion ➡️ เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ ➡️ ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ ➡️ งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน ➡️ ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision ➡️ เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม ➡️ ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล ➡️ ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience ✅ ข้อมูลเสริมจากภายนอก ➡️ MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI ➡️ Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก ➡️ NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต ➡️ ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI ➡️ มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน ➡️ FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    0 ความคิดเห็น 0 การแบ่งปัน 465 มุมมอง 0 รีวิว
  • NVIDIA: จากการ์ด VGA ไปสู่ GPU และก้าวสู่ NPU หัวใจของ AI

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks.

    จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน

    การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล และการคำนวณทางวิทยาศาสตร์ สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI

    เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics และ autonomous vehicles .

    ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T.

    สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง.

    #ลุงเขียนหลานอ่าน
    NVIDIA: จากการ์ด VGA ➡️ ไปสู่ GPU 🚀 และก้าวสู่ NPU หัวใจของ AI ❤️ ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) 🤖 กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม 🎮 แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks. 🧠 จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ 💻 กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก 📉 เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย 😥 แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน 📈 สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" 🌍 GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ 💰 ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล 📊 และการคำนวณทางวิทยาศาสตร์ 🧪 สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics 🤖 และ autonomous vehicles 🚗. ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. 💰 การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ 🩺 การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T. สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง 👍 การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง. 💡 #ลุงเขียนหลานอ่าน
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 432 มุมมอง 0 รีวิว
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 ความคิดเห็น 0 การแบ่งปัน 379 มุมมอง 0 รีวิว
  • ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว
    → ติดตั้งที่ศูนย์ข้อมูลของ Switch
    → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี
     • 72 GPU (Blackwell Ultra)
     • 36 CPU (Grace 72-core)
      • 36 DPU (BlueField)
    → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB
    → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8)
    → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU

    ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก

    สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว → ติดตั้งที่ศูนย์ข้อมูลของ Switch → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี  • 72 GPU (Blackwell Ultra)  • 36 CPU (Grace 72-core)   • 36 DPU (BlueField) → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB 🔥 → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8) → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU 😮💧 ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    0 ความคิดเห็น 0 การแบ่งปัน 344 มุมมอง 0 รีวิว
  • AMD ผลิตการ์ด Instinct ซึ่งเป็น GPU สำหรับซูเปอร์คอมพิวเตอร์และงานเทรน AI โดยเฉพาะ ด้วย VRAM สูงถึง 192GB ต่อการ์ด และในบางเซิร์ฟเวอร์ติดตั้งถึง 8 ใบ รวมเป็น VRAM มากถึง 1.5 TB — เยอะกว่าคอมทั่วไปหลายสิบเท่า!

    แต่เมื่อมีคนพยายามทำให้ระบบ Linux “จำศีล” เพื่อประหยัดไฟตอนไม่ได้ใช้งาน เช่น ช่วงเวลากลางคืน หรือเพื่อรองรับภาวะไฟฟ้าล้นกริด กลับพบว่า...ระบบแครช!

    สาเหตุมาจากว่า Linux ต้อง “ย้าย VRAM ทั้งหมดมาเก็บใน RAM ก่อน” แล้วจึง snapshot memory ไปเขียนลงดิสก์เพื่อเรียกกลับเมื่อเปิดเครื่อง — ปรากฏว่า VRAM 1.5TB + RAM อีกมากมาย ทำให้ระบบต้องใช้พื้นที่ snapshot เกิน 3TB ในบางกรณี → เกินขนาดของ RAM/Storage → ฮิเบอร์เนตล้มเหลว

    ทีมวิศวกรของ AMD จึงเสนอ patch สำหรับ Linux ที่จะ:
    - ลดปริมาณข้อมูลที่ต้อง snapshot
    - ข้ามการ restore VRAM บางส่วนเมื่อปลุกระบบขึ้น (thaw) เพื่อให้กลับมาใช้งานเร็วขึ้น

    สาเหตุที่มีคนพยายาม hibernate เซิร์ฟเวอร์เหล่านี้ เพราะถ้าไม่ปิด ก็เปลืองไฟระดับโรงไฟฟ้าย่อม ๆ แถมยังเสี่ยงต่อเหตุการณ์แบบ blackout แบบที่เกิดในสเปนเมื่อไม่นานมานี้

    AMD Instinct เป็น GPU สำหรับ AI ที่มี VRAM สูงถึง 192GB/ใบ  
    • ใช้ในซูเปอร์คอมพิวเตอร์, data center, และงานเทรนโมเดล LLM ขนาดใหญ่

    เซิร์ฟเวอร์ที่ติดตั้ง Instinct GPU 8 ใบ จะมี VRAM รวม ~1.5TB ต่อเครื่อง  
    • ทำให้ระบบต้องจัดการ memory ขนาดใหญ่มากระหว่างฮิเบอร์เนต

    Linux ต้องย้าย VRAM เข้าสู่ RAM เพื่อ snapshot ลงดิสก์ในการจำศีล  
    • ส่งผลให้ต้องใช้ RAM/disk เกินกว่าที่เครื่องมีจริง → ฮิเบอร์เนตล้มเหลว

    AMD ออก patch แก้ปัญหาด้วยวิธี:  
    • ลดพื้นที่ที่ต้อง snapshot  
    • ข้ามการโหลด buffer VRAM บางส่วนกลับมาระหว่าง resume  
    • ช่วยลดเวลา thaw (resume) เหลือไม่ถึง 1 ชั่วโมง จากเดิมที่อาจต้องรอนานมาก

    เหตุผลที่ต้อง hibernate เซิร์ฟเวอร์แม้จะเป็น AI server:  
    • ลดพลังงานในช่วง downtime  
    • ช่วยรักษาเสถียรภาพของโครงข่ายไฟฟ้า (power grid)  
    • เคยมี blackout ในสเปนซึ่งเชื่อมโยงกับโหลดของ data center

    https://www.tomshardware.com/tech-industry/supercomputers/massive-vram-pools-on-amd-instinct-accelerators-drown-linuxs-hibernation-process-1-5-tb-of-memory-per-server-creates-headaches
    AMD ผลิตการ์ด Instinct ซึ่งเป็น GPU สำหรับซูเปอร์คอมพิวเตอร์และงานเทรน AI โดยเฉพาะ ด้วย VRAM สูงถึง 192GB ต่อการ์ด และในบางเซิร์ฟเวอร์ติดตั้งถึง 8 ใบ รวมเป็น VRAM มากถึง 1.5 TB — เยอะกว่าคอมทั่วไปหลายสิบเท่า! แต่เมื่อมีคนพยายามทำให้ระบบ Linux “จำศีล” เพื่อประหยัดไฟตอนไม่ได้ใช้งาน เช่น ช่วงเวลากลางคืน หรือเพื่อรองรับภาวะไฟฟ้าล้นกริด กลับพบว่า...ระบบแครช! สาเหตุมาจากว่า Linux ต้อง “ย้าย VRAM ทั้งหมดมาเก็บใน RAM ก่อน” แล้วจึง snapshot memory ไปเขียนลงดิสก์เพื่อเรียกกลับเมื่อเปิดเครื่อง — ปรากฏว่า VRAM 1.5TB + RAM อีกมากมาย ทำให้ระบบต้องใช้พื้นที่ snapshot เกิน 3TB ในบางกรณี → เกินขนาดของ RAM/Storage → ฮิเบอร์เนตล้มเหลว ทีมวิศวกรของ AMD จึงเสนอ patch สำหรับ Linux ที่จะ: - ลดปริมาณข้อมูลที่ต้อง snapshot - ข้ามการ restore VRAM บางส่วนเมื่อปลุกระบบขึ้น (thaw) เพื่อให้กลับมาใช้งานเร็วขึ้น สาเหตุที่มีคนพยายาม hibernate เซิร์ฟเวอร์เหล่านี้ เพราะถ้าไม่ปิด ก็เปลืองไฟระดับโรงไฟฟ้าย่อม ๆ แถมยังเสี่ยงต่อเหตุการณ์แบบ blackout แบบที่เกิดในสเปนเมื่อไม่นานมานี้ ✅ AMD Instinct เป็น GPU สำหรับ AI ที่มี VRAM สูงถึง 192GB/ใบ   • ใช้ในซูเปอร์คอมพิวเตอร์, data center, และงานเทรนโมเดล LLM ขนาดใหญ่ ✅ เซิร์ฟเวอร์ที่ติดตั้ง Instinct GPU 8 ใบ จะมี VRAM รวม ~1.5TB ต่อเครื่อง   • ทำให้ระบบต้องจัดการ memory ขนาดใหญ่มากระหว่างฮิเบอร์เนต ✅ Linux ต้องย้าย VRAM เข้าสู่ RAM เพื่อ snapshot ลงดิสก์ในการจำศีล   • ส่งผลให้ต้องใช้ RAM/disk เกินกว่าที่เครื่องมีจริง → ฮิเบอร์เนตล้มเหลว ✅ AMD ออก patch แก้ปัญหาด้วยวิธี:   • ลดพื้นที่ที่ต้อง snapshot   • ข้ามการโหลด buffer VRAM บางส่วนกลับมาระหว่าง resume   • ช่วยลดเวลา thaw (resume) เหลือไม่ถึง 1 ชั่วโมง จากเดิมที่อาจต้องรอนานมาก ✅ เหตุผลที่ต้อง hibernate เซิร์ฟเวอร์แม้จะเป็น AI server:   • ลดพลังงานในช่วง downtime   • ช่วยรักษาเสถียรภาพของโครงข่ายไฟฟ้า (power grid)   • เคยมี blackout ในสเปนซึ่งเชื่อมโยงกับโหลดของ data center https://www.tomshardware.com/tech-industry/supercomputers/massive-vram-pools-on-amd-instinct-accelerators-drown-linuxs-hibernation-process-1-5-tb-of-memory-per-server-creates-headaches
    0 ความคิดเห็น 0 การแบ่งปัน 348 มุมมอง 0 รีวิว
  • ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง

    ระบบนี้ประกอบด้วย:
    - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง
    - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที

    ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า"

    เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง)

    https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง ระบบนี้ประกอบด้วย: - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า" เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง) https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    WWW.TECHSPOT.COM
    X Display unveils ultra-fast, cable-free display that turns data into light
    X Display is focused on developing and licensing new intellectual property related to MicroLED and other display technologies. The North Carolina-based developer recently unveiled a novel application...
    0 ความคิดเห็น 0 การแบ่งปัน 332 มุมมอง 0 รีวิว
  • เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์

    แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ”

    สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64)

    ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง

    https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์ แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ” สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64) ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    0 ความคิดเห็น 0 การแบ่งปัน 446 มุมมอง 0 รีวิว
  • หลายคนคิดว่า GPU ต้องพึ่งพาแค่ไฟจากรัฐ แต่จริง ๆ แล้ว Jensen Huang แห่ง NVIDIA รู้ดีว่าในอนาคต “ไฟ” จะกลายเป็นปัจจัยจำกัดการเติบโตของ AI — ไม่ใช่ชิปอีกต่อไป

    ล่าสุด NVIDIA (ผ่านบริษัทลูกด้านลงทุน NVentures) ร่วมลงเงินกับ Bill Gates และ HD Hyundai ในรอบ funding ล่าสุดกว่า $650 ล้าน ให้กับ TerraPower บริษัทที่ Gates ก่อตั้งเพื่อพัฒนาโรงไฟฟ้านิวเคลียร์ขนาดเล็กแบบ SMR (Small Modular Reactor)

    โปรเจกต์แรกของ TerraPower คือโรงไฟฟ้า Natrium กำลัง 345 เมกะวัตต์ ที่ใช้โซเดียมเหลวระบายความร้อน และมี ระบบเก็บพลังงานด้วยเกลือหลอมเหลว ที่สะสมพลังงานได้ถึง 1 กิกะวัตต์ เพื่อป้อนโหลดพีคแบบ AI ได้ทันเวลา

    แม้จะยังรอใบอนุญาตจากหน่วยงานนิวเคลียร์ในสหรัฐ (คาดว่าได้ปี 2026) แต่ตอนนี้เริ่มสร้างโครงสร้างส่วนที่ไม่ใช่นิวเคลียร์แล้วในรัฐไวโอมิง

    NVIDIA ไม่ได้โดดเดี่ยว — Oracle, Microsoft, Google และ Amazon ต่างเร่งลงทุนด้านนิวเคลียร์คล้ายกัน เช่น Oracle ขออนุญาตสร้าง SMR 3 ชุด, Microsoft เตรียมรีสตาร์ตโรงไฟฟ้าเก่าใน Pennsylvania, Amazon ทุ่มเงินในหลายสตาร์ตอัปด้านพลังงาน

    เทรนด์นี้มาแรงเพราะ AI server ต้องการไฟมากเกินที่โครงข่ายจะรองรับไหว — AMD เผยว่าแค่ zettascale supercomputer จะใช้ไฟถึง 500 เมกะวัตต์ ซึ่งเทียบเท่าบ้าน 375,000 หลังเลยทีเดียว

    https://www.tomshardware.com/tech-industry/nvidia-goes-nuclear-company-joins-bill-gates-in-backing-terrapower-a-company-building-nuclear-reactors-for-powering-data-centers
    หลายคนคิดว่า GPU ต้องพึ่งพาแค่ไฟจากรัฐ แต่จริง ๆ แล้ว Jensen Huang แห่ง NVIDIA รู้ดีว่าในอนาคต “ไฟ” จะกลายเป็นปัจจัยจำกัดการเติบโตของ AI — ไม่ใช่ชิปอีกต่อไป ล่าสุด NVIDIA (ผ่านบริษัทลูกด้านลงทุน NVentures) ร่วมลงเงินกับ Bill Gates และ HD Hyundai ในรอบ funding ล่าสุดกว่า $650 ล้าน ให้กับ TerraPower บริษัทที่ Gates ก่อตั้งเพื่อพัฒนาโรงไฟฟ้านิวเคลียร์ขนาดเล็กแบบ SMR (Small Modular Reactor) โปรเจกต์แรกของ TerraPower คือโรงไฟฟ้า Natrium กำลัง 345 เมกะวัตต์ ที่ใช้โซเดียมเหลวระบายความร้อน และมี ระบบเก็บพลังงานด้วยเกลือหลอมเหลว ที่สะสมพลังงานได้ถึง 1 กิกะวัตต์ เพื่อป้อนโหลดพีคแบบ AI ได้ทันเวลา แม้จะยังรอใบอนุญาตจากหน่วยงานนิวเคลียร์ในสหรัฐ (คาดว่าได้ปี 2026) แต่ตอนนี้เริ่มสร้างโครงสร้างส่วนที่ไม่ใช่นิวเคลียร์แล้วในรัฐไวโอมิง NVIDIA ไม่ได้โดดเดี่ยว — Oracle, Microsoft, Google และ Amazon ต่างเร่งลงทุนด้านนิวเคลียร์คล้ายกัน เช่น Oracle ขออนุญาตสร้าง SMR 3 ชุด, Microsoft เตรียมรีสตาร์ตโรงไฟฟ้าเก่าใน Pennsylvania, Amazon ทุ่มเงินในหลายสตาร์ตอัปด้านพลังงาน เทรนด์นี้มาแรงเพราะ AI server ต้องการไฟมากเกินที่โครงข่ายจะรองรับไหว — AMD เผยว่าแค่ zettascale supercomputer จะใช้ไฟถึง 500 เมกะวัตต์ ซึ่งเทียบเท่าบ้าน 375,000 หลังเลยทีเดียว https://www.tomshardware.com/tech-industry/nvidia-goes-nuclear-company-joins-bill-gates-in-backing-terrapower-a-company-building-nuclear-reactors-for-powering-data-centers
    0 ความคิดเห็น 0 การแบ่งปัน 359 มุมมอง 0 รีวิว
  • หลังจากสหรัฐฯ ออกข้อจำกัดไม่ให้ Nvidia ขายการ์ด AI ระดับสูง (เช่น H100, H200, B200) ให้กับจีนโดยตรง บริษัทจีนหลายแห่งก็พยายาม “หาทางอ้อม” เพื่อใช้งาน GPU เหล่านี้ต่อ

    ล่าสุด มีรายงานว่า ชาวจีน 4 คนบินจากปักกิ่งมามาเลเซีย พร้อมนำฮาร์ดดิสก์ที่บรรจุข้อมูลหลายสิบเทราไบต์ ทั้งวิดีโอ ภาพ และ spreadsheet เพื่อ “ฝึก AI” บนเซิร์ฟเวอร์ที่เช่าผ่าน data center ในมาเลเซีย ที่มี GPU ของ Nvidia ติดตั้งอยู่ราว 2,400 ตัว

    แม้จะฟังดูไม่ใช่คลัสเตอร์ขนาดใหญ่เท่า supercomputer แต่ก็เพียงพอสำหรับ training model ได้สบาย ๆ—ที่สำคัญคือ “เป็นวิธีที่ช่วยให้บริษัทจีนยังคงเข้าถึงเทคโนโลยีที่สหรัฐฯ ห้ามขาย” ได้โดยไม่ซื้อโดยตรง

    ประเด็นนี้ทำให้กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) ต้องออกมายืนยันว่ากำลังสอบสวนร่วมกับหน่วยงานอื่น ๆ เพื่อดูว่าเข้าข่ายละเมิดกฎหมายหรือไม่

    กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) กำลังสอบสวนกรณีบริษัทจีนใช้ GPU Nvidia ผ่าน data center ในมาเลเซีย  
    • เป็นการเช่าเซิร์ฟเวอร์เพื่อ train AI โดยไม่ได้ครอบครองฮาร์ดแวร์โดยตรง  
    • ยังไม่พบการละเมิดกฎหมายในประเทศ ณ เวลานี้

    มีรายงานว่าชาวจีน 4 คนขน HDD หลายสิบเทราไบต์เข้าเครื่องที่เช่าไว้ในมาเลเซีย  
    • ฝึกโมเดล AI บนเซิร์ฟเวอร์ที่ใช้ Nvidia GPU ~2,400 ตัว  
    • GPU เหล่านี้น่าจะเป็น H100 หรือรุ่นที่สหรัฐห้ามส่งออกไปยังจีน

    มาเลเซียไม่ได้อยู่ภายใต้มาตรการควบคุมการส่งออกของสหรัฐ  
    • ทำให้บริษัทในประเทศสามารถนำเข้า GPU ได้อย่างถูกกฎหมาย  
    • แต่ถ้ามีการ “นำ GPU ไปให้จีนใช้ทางอ้อม” ก็อาจละเมิดกฎของสหรัฐฯ

    หน่วยงานด้านการค้าในสหรัฐฯ เคยร้องขอให้มาเลเซียตรวจสอบทุก shipment ที่อาจเกี่ยวข้องกับ GPU ขั้นสูง  
    • หลังพบว่าในปี 2025 การนำเข้าเซิร์ฟเวอร์ AI จากไต้หวันไปยังมาเลเซีย “พุ่งขึ้นถึง 3,400%”

    บริษัทจีนที่ใช้บริการเช่าระยะไกลแบบนี้ อาจเลี่ยงข้อห้ามสหรัฐฯ ได้ชั่วคราวโดยไม่ซื้อตรง  
    • เรียกว่าใช้ “compute-as-a-service” แบบหลบเลี่ยง

    ยังไม่แน่ชัดว่ากรณีนี้จะเข้าข่าย “ละเมิดมาตรการของสหรัฐฯ” หรือไม่ เพราะไม่ได้ส่งมอบฮาร์ดแวร์ไปจีนโดยตรง  
    • หากสหรัฐมองว่า “การให้คนจีนเข้าถึง compute” ถือว่าเข้าข่าย ก็อาจสร้างแรงกดดันต่อมาเลเซียในอนาคต

    มาเลเซียอาจถูกจับตาจากรัฐบาลสหรัฐฯ หากพบว่าเป็นจุดผ่านของการ “ลักลอบใช้ GPU ที่ควบคุมอยู่”  
    • ส่งผลต่อภาพลักษณ์ด้านความร่วมมือระหว่างประเทศในเทคโนโลยี AI

    ผู้ให้บริการ data center ในภูมิภาคอาเซียนอาจต้องเผชิญแรงกดดันเช่นเดียวกัน  
    • หากไม่มีระบบ “ตรวจสอบแหล่งข้อมูลลูกค้า” อาจกลายเป็นช่องโหว่ให้ฝ่ายต่าง ๆ ใช้หลบมาตรการ

    กรณีนี้สะท้อนว่าแม้มาตรการควบคุม GPU จะรุนแรง แต่จีนยังคงหาวิธีเข้าถึงทรัพยากร AI ได้อยู่ดี  
    • เช่นเดียวกับกรณีก่อนหน้านี้ที่มีข่าวลอบขน GPU ผ่าน “กุ้ง” และ “ซิลิโคนหน้าท้องปลอม”

    https://www.tomshardware.com/tech-industry/artificial-intelligence/malaysia-investigates-chinese-use-of-nvidia-powered-servers-in-the-country-trade-minister-verifying-reports-of-possible-regulation-breach-following-reports-of-smuggled-hard-drives-and-server-rentals
    หลังจากสหรัฐฯ ออกข้อจำกัดไม่ให้ Nvidia ขายการ์ด AI ระดับสูง (เช่น H100, H200, B200) ให้กับจีนโดยตรง บริษัทจีนหลายแห่งก็พยายาม “หาทางอ้อม” เพื่อใช้งาน GPU เหล่านี้ต่อ ล่าสุด มีรายงานว่า ชาวจีน 4 คนบินจากปักกิ่งมามาเลเซีย พร้อมนำฮาร์ดดิสก์ที่บรรจุข้อมูลหลายสิบเทราไบต์ ทั้งวิดีโอ ภาพ และ spreadsheet เพื่อ “ฝึก AI” บนเซิร์ฟเวอร์ที่เช่าผ่าน data center ในมาเลเซีย ที่มี GPU ของ Nvidia ติดตั้งอยู่ราว 2,400 ตัว แม้จะฟังดูไม่ใช่คลัสเตอร์ขนาดใหญ่เท่า supercomputer แต่ก็เพียงพอสำหรับ training model ได้สบาย ๆ—ที่สำคัญคือ “เป็นวิธีที่ช่วยให้บริษัทจีนยังคงเข้าถึงเทคโนโลยีที่สหรัฐฯ ห้ามขาย” ได้โดยไม่ซื้อโดยตรง ประเด็นนี้ทำให้กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) ต้องออกมายืนยันว่ากำลังสอบสวนร่วมกับหน่วยงานอื่น ๆ เพื่อดูว่าเข้าข่ายละเมิดกฎหมายหรือไม่ ✅ กระทรวงการค้าและการลงทุนของมาเลเซีย (MITI) กำลังสอบสวนกรณีบริษัทจีนใช้ GPU Nvidia ผ่าน data center ในมาเลเซีย   • เป็นการเช่าเซิร์ฟเวอร์เพื่อ train AI โดยไม่ได้ครอบครองฮาร์ดแวร์โดยตรง   • ยังไม่พบการละเมิดกฎหมายในประเทศ ณ เวลานี้ ✅ มีรายงานว่าชาวจีน 4 คนขน HDD หลายสิบเทราไบต์เข้าเครื่องที่เช่าไว้ในมาเลเซีย   • ฝึกโมเดล AI บนเซิร์ฟเวอร์ที่ใช้ Nvidia GPU ~2,400 ตัว   • GPU เหล่านี้น่าจะเป็น H100 หรือรุ่นที่สหรัฐห้ามส่งออกไปยังจีน ✅ มาเลเซียไม่ได้อยู่ภายใต้มาตรการควบคุมการส่งออกของสหรัฐ   • ทำให้บริษัทในประเทศสามารถนำเข้า GPU ได้อย่างถูกกฎหมาย   • แต่ถ้ามีการ “นำ GPU ไปให้จีนใช้ทางอ้อม” ก็อาจละเมิดกฎของสหรัฐฯ ✅ หน่วยงานด้านการค้าในสหรัฐฯ เคยร้องขอให้มาเลเซียตรวจสอบทุก shipment ที่อาจเกี่ยวข้องกับ GPU ขั้นสูง   • หลังพบว่าในปี 2025 การนำเข้าเซิร์ฟเวอร์ AI จากไต้หวันไปยังมาเลเซีย “พุ่งขึ้นถึง 3,400%” ✅ บริษัทจีนที่ใช้บริการเช่าระยะไกลแบบนี้ อาจเลี่ยงข้อห้ามสหรัฐฯ ได้ชั่วคราวโดยไม่ซื้อตรง   • เรียกว่าใช้ “compute-as-a-service” แบบหลบเลี่ยง ‼️ ยังไม่แน่ชัดว่ากรณีนี้จะเข้าข่าย “ละเมิดมาตรการของสหรัฐฯ” หรือไม่ เพราะไม่ได้ส่งมอบฮาร์ดแวร์ไปจีนโดยตรง   • หากสหรัฐมองว่า “การให้คนจีนเข้าถึง compute” ถือว่าเข้าข่าย ก็อาจสร้างแรงกดดันต่อมาเลเซียในอนาคต ‼️ มาเลเซียอาจถูกจับตาจากรัฐบาลสหรัฐฯ หากพบว่าเป็นจุดผ่านของการ “ลักลอบใช้ GPU ที่ควบคุมอยู่”   • ส่งผลต่อภาพลักษณ์ด้านความร่วมมือระหว่างประเทศในเทคโนโลยี AI ‼️ ผู้ให้บริการ data center ในภูมิภาคอาเซียนอาจต้องเผชิญแรงกดดันเช่นเดียวกัน   • หากไม่มีระบบ “ตรวจสอบแหล่งข้อมูลลูกค้า” อาจกลายเป็นช่องโหว่ให้ฝ่ายต่าง ๆ ใช้หลบมาตรการ ‼️ กรณีนี้สะท้อนว่าแม้มาตรการควบคุม GPU จะรุนแรง แต่จีนยังคงหาวิธีเข้าถึงทรัพยากร AI ได้อยู่ดี   • เช่นเดียวกับกรณีก่อนหน้านี้ที่มีข่าวลอบขน GPU ผ่าน “กุ้ง” และ “ซิลิโคนหน้าท้องปลอม” https://www.tomshardware.com/tech-industry/artificial-intelligence/malaysia-investigates-chinese-use-of-nvidia-powered-servers-in-the-country-trade-minister-verifying-reports-of-possible-regulation-breach-following-reports-of-smuggled-hard-drives-and-server-rentals
    0 ความคิดเห็น 0 การแบ่งปัน 564 มุมมอง 0 รีวิว
  • ซูเปอร์คอมพิวเตอร์ระดับ Zettascale อาจต้องใช้พลังงานเทียบเท่าโรงไฟฟ้านิวเคลียร์
    AMD ได้เปิดเผยข้อมูลเกี่ยวกับ แนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ในอนาคต โดยคาดการณ์ว่า ซูเปอร์คอมพิวเตอร์ระดับ Zettascale จะต้องใช้พลังงานถึง 500 เมกะวัตต์ ซึ่งเทียบเท่ากับ การใช้ไฟฟ้าของบ้าน 375,000 หลัง

    AMD ระบุว่า หน่วยความจำและระบบระบายความร้อนเป็นปัจจัยหลักที่ทำให้การใช้พลังงานเพิ่มขึ้น เนื่องจาก AI accelerators ต้องการแบนด์วิดท์ที่สูงขึ้นและระบบระบายความร้อนที่มีประสิทธิภาพมากขึ้น

    ข้อมูลจากข่าว
    - AMD คาดการณ์ว่า Zettascale supercomputers จะต้องใช้พลังงานถึง 500 เมกะวัตต์
    - กราฟแสดงแนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ตั้งแต่ปี 2010 ถึง 2035
    - การพัฒนา AI accelerators มีประสิทธิภาพเพิ่มขึ้น 2 เท่าทุก 2.2 ปี
    - FP128 และ FP64 ให้ความแม่นยำสูง แต่ FP16 และ FP8 มีประโยชน์สำหรับบางงาน
    - Nvidia B200 มี TDP 1,000W และ AMD MI355X มี TDP 1,400W

    ผลกระทบต่ออุตสาหกรรม AI และพลังงาน
    รัฐบาลสหรัฐฯ และบริษัทเทคโนโลยี กำลังลงทุนในพลังงานนิวเคลียร์และฟิวชัน เพื่อรองรับ ความต้องการพลังงานที่เพิ่มขึ้นของศูนย์ข้อมูล AI

    คำเตือนที่ควรพิจารณา
    - การใช้พลังงานของซูเปอร์คอมพิวเตอร์อาจเพิ่มขึ้นอย่างต่อเนื่องจนถึงปี 2035
    - ต้องติดตามว่าการลงทุนในพลังงานนิวเคลียร์จะสามารถรองรับความต้องการของศูนย์ข้อมูล AI ได้หรือไม่
    - บริษัทเทคโนโลยีต้องพัฒนาโซลูชันที่ช่วยลดการใช้พลังงานของ AI accelerators
    - ต้องรอดูว่า Nvidia และ AMD จะสามารถเพิ่มประสิทธิภาพของ AI accelerators โดยไม่เพิ่มการใช้พลังงานมากเกินไป

    แม้ว่าการใช้พลังงานจะเพิ่มขึ้น แต่การพัฒนา AI accelerators และระบบระบายความร้อนที่มีประสิทธิภาพสูงขึ้น อาจช่วยให้ ซูเปอร์คอมพิวเตอร์สามารถทำงานได้โดยใช้พลังงานน้อยลงในอนาคต

    https://www.tomshardware.com/pc-components/gpus/amd-says-zettascale-supercomputers-will-need-half-a-gigawatt-to-operate-enough-for-375-000-homes
    ⚡ ซูเปอร์คอมพิวเตอร์ระดับ Zettascale อาจต้องใช้พลังงานเทียบเท่าโรงไฟฟ้านิวเคลียร์ AMD ได้เปิดเผยข้อมูลเกี่ยวกับ แนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ในอนาคต โดยคาดการณ์ว่า ซูเปอร์คอมพิวเตอร์ระดับ Zettascale จะต้องใช้พลังงานถึง 500 เมกะวัตต์ ซึ่งเทียบเท่ากับ การใช้ไฟฟ้าของบ้าน 375,000 หลัง AMD ระบุว่า หน่วยความจำและระบบระบายความร้อนเป็นปัจจัยหลักที่ทำให้การใช้พลังงานเพิ่มขึ้น เนื่องจาก AI accelerators ต้องการแบนด์วิดท์ที่สูงขึ้นและระบบระบายความร้อนที่มีประสิทธิภาพมากขึ้น ✅ ข้อมูลจากข่าว - AMD คาดการณ์ว่า Zettascale supercomputers จะต้องใช้พลังงานถึง 500 เมกะวัตต์ - กราฟแสดงแนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ตั้งแต่ปี 2010 ถึง 2035 - การพัฒนา AI accelerators มีประสิทธิภาพเพิ่มขึ้น 2 เท่าทุก 2.2 ปี - FP128 และ FP64 ให้ความแม่นยำสูง แต่ FP16 และ FP8 มีประโยชน์สำหรับบางงาน - Nvidia B200 มี TDP 1,000W และ AMD MI355X มี TDP 1,400W 🔥 ผลกระทบต่ออุตสาหกรรม AI และพลังงาน รัฐบาลสหรัฐฯ และบริษัทเทคโนโลยี กำลังลงทุนในพลังงานนิวเคลียร์และฟิวชัน เพื่อรองรับ ความต้องการพลังงานที่เพิ่มขึ้นของศูนย์ข้อมูล AI ‼️ คำเตือนที่ควรพิจารณา - การใช้พลังงานของซูเปอร์คอมพิวเตอร์อาจเพิ่มขึ้นอย่างต่อเนื่องจนถึงปี 2035 - ต้องติดตามว่าการลงทุนในพลังงานนิวเคลียร์จะสามารถรองรับความต้องการของศูนย์ข้อมูล AI ได้หรือไม่ - บริษัทเทคโนโลยีต้องพัฒนาโซลูชันที่ช่วยลดการใช้พลังงานของ AI accelerators - ต้องรอดูว่า Nvidia และ AMD จะสามารถเพิ่มประสิทธิภาพของ AI accelerators โดยไม่เพิ่มการใช้พลังงานมากเกินไป แม้ว่าการใช้พลังงานจะเพิ่มขึ้น แต่การพัฒนา AI accelerators และระบบระบายความร้อนที่มีประสิทธิภาพสูงขึ้น อาจช่วยให้ ซูเปอร์คอมพิวเตอร์สามารถทำงานได้โดยใช้พลังงานน้อยลงในอนาคต https://www.tomshardware.com/pc-components/gpus/amd-says-zettascale-supercomputers-will-need-half-a-gigawatt-to-operate-enough-for-375-000-homes
    0 ความคิดเห็น 0 การแบ่งปัน 296 มุมมอง 0 รีวิว
  • SpiNNaker 2: ซูเปอร์คอมพิวเตอร์ที่เลียนแบบสมองมนุษย์
    Sandia National Laboratories ได้เปิดตัว SpiNNaker 2 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ได้รับแรงบันดาลใจจากสมองมนุษย์ โดยใช้ 175,000 CPU cores และ ไม่ต้องใช้ GPU หรือ SSD

    วิธีการทำงานของ SpiNNaker 2
    SpiNNaker 2 ใช้ สถาปัตยกรรม Spiking Neural Network (SNN) ซึ่งเลียนแบบ การทำงานของเซลล์ประสาทและไซแนปส์ในสมอง โดย แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM ทำให้สามารถ จัดเก็บข้อมูลทั้งหมดในหน่วยความจำโดยไม่ต้องใช้ที่เก็บข้อมูลแยกต่างหาก

    ข้อมูลจากข่าว
    - SpiNNaker 2 ใช้ 175,000 CPU cores และไม่ต้องใช้ GPU หรือ SSD
    - ใช้สถาปัตยกรรม Spiking Neural Network (SNN) เพื่อเลียนแบบสมองมนุษย์
    - แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM
    - สามารถประมวลผลโมเดล AI ขนาดใหญ่และการจำลองสมองทั้งระบบ
    - ระบบใน Dresden อาจมีมากกว่า 720 บอร์ด รวมถึง 5.2 ล้าน CPU cores เมื่อสร้างเสร็จ

    คำเตือนที่ควรพิจารณา
    - แม้จะมีประสิทธิภาพสูง แต่ต้องติดตามว่าการเลียนแบบสมองมนุษย์จะมีข้อจำกัดด้านการใช้งานจริงหรือไม่
    - SpiNNaker 2 อาจไม่สามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ในงานบางประเภท เช่น การฝึกโมเดล AI ขนาดใหญ่
    - ต้องติดตามว่าการใช้ LPDDR4 memory และ SRAM แทน SSD จะส่งผลต่อความเร็วและความเสถียรของระบบอย่างไร
    - การขยายระบบให้มี 5.2 ล้าน CPU cores อาจต้องใช้ทรัพยากรจำนวนมากและมีต้นทุนสูง

    SpiNNaker 2 อาจช่วยให้การจำลองสมองและการประมวลผล AI มีประสิทธิภาพมากขึ้น โดยไม่ต้องใช้ GPU อย่างไรก็ตาม ต้องติดตามว่าการออกแบบนี้จะสามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ได้หรือไม่

    https://www.tomshardware.com/tech-industry/supercomputers/brain-inspired-supercomputer-with-no-gpus-or-storage-switched-on-spinnaker-2-mimics-150-180-million-neurons
    🧠 SpiNNaker 2: ซูเปอร์คอมพิวเตอร์ที่เลียนแบบสมองมนุษย์ Sandia National Laboratories ได้เปิดตัว SpiNNaker 2 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ได้รับแรงบันดาลใจจากสมองมนุษย์ โดยใช้ 175,000 CPU cores และ ไม่ต้องใช้ GPU หรือ SSD 🔍 วิธีการทำงานของ SpiNNaker 2 SpiNNaker 2 ใช้ สถาปัตยกรรม Spiking Neural Network (SNN) ซึ่งเลียนแบบ การทำงานของเซลล์ประสาทและไซแนปส์ในสมอง โดย แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM ทำให้สามารถ จัดเก็บข้อมูลทั้งหมดในหน่วยความจำโดยไม่ต้องใช้ที่เก็บข้อมูลแยกต่างหาก ✅ ข้อมูลจากข่าว - SpiNNaker 2 ใช้ 175,000 CPU cores และไม่ต้องใช้ GPU หรือ SSD - ใช้สถาปัตยกรรม Spiking Neural Network (SNN) เพื่อเลียนแบบสมองมนุษย์ - แต่ละบอร์ดมี 96GB LPDDR4 memory และ 23GB SRAM - สามารถประมวลผลโมเดล AI ขนาดใหญ่และการจำลองสมองทั้งระบบ - ระบบใน Dresden อาจมีมากกว่า 720 บอร์ด รวมถึง 5.2 ล้าน CPU cores เมื่อสร้างเสร็จ ‼️ คำเตือนที่ควรพิจารณา - แม้จะมีประสิทธิภาพสูง แต่ต้องติดตามว่าการเลียนแบบสมองมนุษย์จะมีข้อจำกัดด้านการใช้งานจริงหรือไม่ - SpiNNaker 2 อาจไม่สามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ในงานบางประเภท เช่น การฝึกโมเดล AI ขนาดใหญ่ - ต้องติดตามว่าการใช้ LPDDR4 memory และ SRAM แทน SSD จะส่งผลต่อความเร็วและความเสถียรของระบบอย่างไร - การขยายระบบให้มี 5.2 ล้าน CPU cores อาจต้องใช้ทรัพยากรจำนวนมากและมีต้นทุนสูง SpiNNaker 2 อาจช่วยให้การจำลองสมองและการประมวลผล AI มีประสิทธิภาพมากขึ้น โดยไม่ต้องใช้ GPU อย่างไรก็ตาม ต้องติดตามว่าการออกแบบนี้จะสามารถแข่งขันกับซูเปอร์คอมพิวเตอร์ที่ใช้ GPU ได้หรือไม่ https://www.tomshardware.com/tech-industry/supercomputers/brain-inspired-supercomputer-with-no-gpus-or-storage-switched-on-spinnaker-2-mimics-150-180-million-neurons
    0 ความคิดเห็น 0 การแบ่งปัน 341 มุมมอง 0 รีวิว
Pages Boosts