• Hygon และ Sugon รวมตัวเป็นยักษ์ใหญ่ด้านซูเปอร์คอมพิวเตอร์ของจีน

    จีน กำลังสร้างอาณาจักรซูเปอร์คอมพิวเตอร์ที่แข็งแกร่งขึ้น ด้วยการควบรวม Hygon Information Technology ซึ่งเป็นผู้พัฒนาชิป และ Sugon ซึ่งเป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ โดยการควบรวมนี้ เกิดขึ้นท่ามกลางมาตรการคว่ำบาตรของสหรัฐฯ ที่จำกัดการเข้าถึงเทคโนโลยีจากตะวันตก

    🔍 รายละเอียดสำคัญเกี่ยวกับการควบรวม Hygon และ Sugon
    ✅ Hygon เป็นบริษัทที่เคยใช้สถาปัตยกรรม Zen ของ AMD แต่ปัจจุบันพัฒนาไมโครอาร์คิเทคเจอร์ของตนเอง
    - ล่าสุด เปิดตัวชิป C86-5G ที่มี 128 คอร์ และรองรับ DDR5-5600

    ✅ Sugon เป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ที่ได้รับการสนับสนุนจาก Chinese Academy of Sciences
    - ช่วยให้ จีนติดอันดับ 3 ของโลกในด้านซูเปอร์คอมพิวเตอร์

    ✅ การควบรวมนี้เป็นการแลกเปลี่ยนหุ้น โดยหุ้นของทั้งสองบริษัทจะถูกนำออกจากตลาดเป็นเวลา 10 วัน
    - หลังจากนั้น บริษัทใหม่จะเข้าสู่ตลาดหลักทรัพย์เซี่ยงไฮ้

    ✅ ทั้ง Hygon และ Sugon อยู่ในรายชื่อ Entity List ของสหรัฐฯ ซึ่งหมายความว่าไม่สามารถเข้าถึงชิปจาก AMD, Intel และ Nvidia ได้โดยตรง
    - การควบรวมนี้ อาจช่วยให้จีนพัฒนาเทคโนโลยีของตนเองได้เร็วขึ้น

    ✅ นักวิเคราะห์คาดว่าการควบรวมนี้จะช่วยให้จีนสร้างโครงสร้างพื้นฐานด้าน AI และ Big Data ได้แข็งแกร่งขึ้น
    - เป็น ส่วนหนึ่งของแผนยุทธศาสตร์ของรัฐบาลจีนในการลดการพึ่งพาตะวันตก

    https://www.tomshardware.com/tech-industry/supercomputers/chinas-hygon-and-sugon-merge-to-form-a-vertically-integrated-supercomputing-giant-as-they-fend-off-us-sanctions
    Hygon และ Sugon รวมตัวเป็นยักษ์ใหญ่ด้านซูเปอร์คอมพิวเตอร์ของจีน จีน กำลังสร้างอาณาจักรซูเปอร์คอมพิวเตอร์ที่แข็งแกร่งขึ้น ด้วยการควบรวม Hygon Information Technology ซึ่งเป็นผู้พัฒนาชิป และ Sugon ซึ่งเป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ โดยการควบรวมนี้ เกิดขึ้นท่ามกลางมาตรการคว่ำบาตรของสหรัฐฯ ที่จำกัดการเข้าถึงเทคโนโลยีจากตะวันตก 🔍 รายละเอียดสำคัญเกี่ยวกับการควบรวม Hygon และ Sugon ✅ Hygon เป็นบริษัทที่เคยใช้สถาปัตยกรรม Zen ของ AMD แต่ปัจจุบันพัฒนาไมโครอาร์คิเทคเจอร์ของตนเอง - ล่าสุด เปิดตัวชิป C86-5G ที่มี 128 คอร์ และรองรับ DDR5-5600 ✅ Sugon เป็นผู้ผลิตซูเปอร์คอมพิวเตอร์ที่ได้รับการสนับสนุนจาก Chinese Academy of Sciences - ช่วยให้ จีนติดอันดับ 3 ของโลกในด้านซูเปอร์คอมพิวเตอร์ ✅ การควบรวมนี้เป็นการแลกเปลี่ยนหุ้น โดยหุ้นของทั้งสองบริษัทจะถูกนำออกจากตลาดเป็นเวลา 10 วัน - หลังจากนั้น บริษัทใหม่จะเข้าสู่ตลาดหลักทรัพย์เซี่ยงไฮ้ ✅ ทั้ง Hygon และ Sugon อยู่ในรายชื่อ Entity List ของสหรัฐฯ ซึ่งหมายความว่าไม่สามารถเข้าถึงชิปจาก AMD, Intel และ Nvidia ได้โดยตรง - การควบรวมนี้ อาจช่วยให้จีนพัฒนาเทคโนโลยีของตนเองได้เร็วขึ้น ✅ นักวิเคราะห์คาดว่าการควบรวมนี้จะช่วยให้จีนสร้างโครงสร้างพื้นฐานด้าน AI และ Big Data ได้แข็งแกร่งขึ้น - เป็น ส่วนหนึ่งของแผนยุทธศาสตร์ของรัฐบาลจีนในการลดการพึ่งพาตะวันตก https://www.tomshardware.com/tech-industry/supercomputers/chinas-hygon-and-sugon-merge-to-form-a-vertically-integrated-supercomputing-giant-as-they-fend-off-us-sanctions
    0 ความคิดเห็น 0 การแบ่งปัน 49 มุมมอง 0 รีวิว
  • รายงานสรุปจากงาน Microsoft Build 2025 วันที่ 2

    งาน Microsoft Build 2025 ซึ่งจัดขึ้นระหว่างวันที่ 19-22 พฤษภาคม 2568 ที่เมืองซีแอตเทิล มีการประกาศนวัตกรรมสำคัญมากมายในวันที่ 2 (20 พฤษภาคม 2568) โดยเน้นที่การพัฒนาเทคโนโลยี AI และเครื่องมือสำหรับนักพัฒนา ด้านล่างนี้เป็นรายละเอียดทั้งหมดที่ครอบคลุมทุกแง่มุมของงานในวันที่ 2:

    ℹ️ การพัฒนา AI และเทคโนโลยี Agentic

    - งานวันที่ 2 เริ่มต้นด้วย keynote สำหรับนักพัฒนา โดยเน้นรายละเอียดทางเทคนิคมากกว่าวันแรกของ Satya Nadella. มีการเปิดตัว Microsoft Discovery ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ Agent AI เพื่อเปลี่ยนแปลงกระบวนการวิจัยวิทยาศาสตร์ โดยช่วยในการจำลองสถานการณ์จริง เช่น การพัฒนาโซลูชันระบายความร้อน. John Link ได้สาธิตการใช้งานในงานนี้.

    - NLWeb เป็นเทคโนโลยีที่ช่วยให้การโต้ตอบด้วยภาษาธรรมชาติบนเว็บมีประสิทธิภาพมากขึ้น โดยเปลี่ยนเว็บไซต์ให้เป็นแอปพลิเคชันที่ขับเคลื่อนด้วย AI Agent พัฒนาโดย R.V. Guha และได้รับการสนับสนุนจากองค์กรต่างๆ เช่น O’Reilly Media, Snowflake, Shopify, และ Chicago Public Library. Windows AI Foundry ซึ่งก่อนหน้านี้ชื่อ Windows 11 Copilot Runtime เปิดตัวอย่างเป็นทางการ (GA) รองรับการทำงานบน CPU, GPU, และคลาวด์ พร้อมรุ่นสำหรับ Mac ซึ่งช่วยให้นักพัฒนาสามารถสร้างฟีเจอร์ AI ได้หลากหลายมากขึ้น.

    - AI Agents ถูกนำมาใช้ในงานต่างๆ เช่น การวางแผนการเดินทาง, ลดการเกิด hallucination, และการดูแลผู้ป่วยมะเร็งโดยการรวมข้อมูลทางการแพทย์และแบ่งปันกับโรงพยาบาลชุมชน. มีการพูดถึง Agentic Web ซึ่งเป็นแนวคิดใหม่ในการพัฒนาเว็บที่ขับเคลื่อนด้วย AI Agent เพื่อความเปิดกว้างและความเร็วในการสร้างเว็บไซต์.

    ℹ️ เครื่องมือสำหรับนักพัฒนา

    - มีการสาธิต GitHub Copilot ซึ่งได้รับการอัปเกรดให้เป็น "เพื่อนนักพัฒนา" หรือ "Project Padawan" โดยสามารถแก้บั๊ก, พัฒนาฟีเจอร์ใหม่, และจัดการ GitHub Issues ได้โดยอัตโนมัติ รวมถึงช่วยจัดการหลายงานพร้อมกันเพื่อเพิ่มประสิทธิภาพการทำงานของนักพัฒนา. GitHub Copilot เปิดตัวอย่างเป็นทางการสำหรับลูกค้า Copilot Enterprise และ Copilot Pro+ เหมาะสำหรับงานที่มีความซับซ้อนต่ำถึงปานกลาง.

    - Copilot Studio ได้รับการอัปเกรดด้วยคุณสมบัติสำหรับนักพัฒนามืออาวุโส รวมถึง M365 Copilot APIs (ในรูปแบบ preview) และ Bring Your Own Models จาก Azure Foundry (ในรูปแบบ preview). SQL Server 2025 เปิดตัวในรูปแบบ public preview พร้อมการรวม AI และความสามารถในการค้นหาเวกเตอร์ ซึ่งช่วยเพิ่มประสิทธิภาพในการจัดการฐานข้อมูล.

    - Microsoft ประกาศเปิดตัว Windows Subsystem for Linux (WSL) เป็นโอเพ่นซอร์ส รวมถึง "Mariner" Linux และ WSL-g UI layer, และมีแผนจะเปิดตัว GitHub Copilot Chat Extension สำหรับ VSCode เป็นโอเพ่นซอร์สในอีกไม่กี่สัปดาห์ข้างหน้า. นอกจากนี้ยังมีการพูดถึง Model Context Protocol (MCP) ซึ่ง Microsoft เข้าร่วม MCP Steering Committee และรองรับ MCP บนแพลตฟอร์มต่างๆ เช่น GitHub, Copilot Studio, Dynamics 365, Azure, Azure AI Foundry, Semantic Kernel, Foundry Agents, และ Windows 11.

    ℹ️ Microsoft 365 และ Copilot
    ➡️ Microsoft 365 Copilot Wave 2 Spring Release มีการอัปเดตใหม่สำหรับการทำงานร่วมกันระหว่างมนุษย์และ AI Agent รวมถึง:

    - แอปที่อัปเดตสำหรับการทำงานร่วมกัน.
    - ประสบการณ์การสร้างด้วย OpenAI GPT-4o สำหรับการสร้างภาพ.
    - Copilot Notebooks เปิดตัวอย่างเป็นทางการ (GA).
    - Copilot Search และ Copilot Memory จะเริ่มใช้งานในเดือนมิถุนายน.
    - Researcher และ Analyst agents ผ่านโปรแกรม Frontier จะเริ่มในเดือนนี้.

    ➡️ Power Apps มีการประกาศคุณสมบัติใหม่ เช่น:
    - Solution Workspace เปิดตัวอย่างเป็นทางการวันที่ 30 พฤษภาคม.
    - Generative pages ด้วย React code (Early Access Program).
    - Agent feed สำหรับแอป (Early Access Program).
    - นำแอปแบบ code-first มายัง Power Platform (Early Access Program).

    ℹ️ ความร่วมมือและนวัตกรรม
    - มีการร่วมมือกับ Nvidia โดย Jensen Huang กล่าวถึงการเร่งการทำงานของ AI และการจัดการงานหนักด้วย CUDA. นอกจากนี้ยังมีความร่วมมือกับ xAI โดย Elon Musk ปรากฏตัวผ่านวิดีโอและประกาศว่า Grok 3 และ Grok 3 Mini จะมีบน Azure AI Foundry เพื่อเพิ่มความแม่นยำและลดข้อผิดพลาดของ AI โดยใช้กฎหมายฟิสิกส์.

    - MyEngine AI ถูกนำมาใช้เพื่อช่วยผู้ที่มีปัญหาการได้ยินเข้าใจสำเนียงท้องถิ่นได้ดีขึ้น. AI ยังถูกนำมาใช้ในด้านที่น่าสนใจ เช่น การพยากรณ์อากาศด้วย supercomputer บนคลาวด์ ซึ่งต้องการพลังการคำนวณสูงเพื่อเพิ่มความแม่นยำ และ AI สำหรับ NFL Combine ซึ่งมีการสาธิตผ่านวิดีโอ (AI for NFL Combine).

    ℹ️ ความปลอดภัยและการจัดการ
    - Microsoft ขยายการใช้งาน Entra, Defender for Cloud, และ Purview เข้าสู่ Azure AI Foundry และ Copilot Studio เพื่อเพิ่มความปลอดภัย. Entra Agent ID เปิดตัวในรูปแบบ preview เพื่อจัดการ AI Agents ซึ่งช่วยในการควบคุมและปกป้องการทำงานของ AI.

    ℹ️ บุคคลสำคัญและการปรากฏตัว
    - งานวันที่ 2 มีการปรากฏตัวของบุคคลสำคัญผ่านวิดีโอ เช่น Sam Altman (OpenAI) ที่กล่าวถึงการจัดการงาน AI ขนาดใหญ่ และ Elon Musk (xAI) ที่พูดถึงความร่วมมือกับ Microsoft ในการนำ Grok 3 และ Grok 3 Mini มาใช้บน Azure.
    รายงานสรุปจากงาน Microsoft Build 2025 วันที่ 2 งาน Microsoft Build 2025 ซึ่งจัดขึ้นระหว่างวันที่ 19-22 พฤษภาคม 2568 ที่เมืองซีแอตเทิล มีการประกาศนวัตกรรมสำคัญมากมายในวันที่ 2 (20 พฤษภาคม 2568) โดยเน้นที่การพัฒนาเทคโนโลยี AI และเครื่องมือสำหรับนักพัฒนา ด้านล่างนี้เป็นรายละเอียดทั้งหมดที่ครอบคลุมทุกแง่มุมของงานในวันที่ 2: ℹ️ การพัฒนา AI และเทคโนโลยี Agentic - งานวันที่ 2 เริ่มต้นด้วย keynote สำหรับนักพัฒนา โดยเน้นรายละเอียดทางเทคนิคมากกว่าวันแรกของ Satya Nadella. มีการเปิดตัว Microsoft Discovery ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ Agent AI เพื่อเปลี่ยนแปลงกระบวนการวิจัยวิทยาศาสตร์ โดยช่วยในการจำลองสถานการณ์จริง เช่น การพัฒนาโซลูชันระบายความร้อน. John Link ได้สาธิตการใช้งานในงานนี้. - NLWeb เป็นเทคโนโลยีที่ช่วยให้การโต้ตอบด้วยภาษาธรรมชาติบนเว็บมีประสิทธิภาพมากขึ้น โดยเปลี่ยนเว็บไซต์ให้เป็นแอปพลิเคชันที่ขับเคลื่อนด้วย AI Agent พัฒนาโดย R.V. Guha และได้รับการสนับสนุนจากองค์กรต่างๆ เช่น O’Reilly Media, Snowflake, Shopify, และ Chicago Public Library. Windows AI Foundry ซึ่งก่อนหน้านี้ชื่อ Windows 11 Copilot Runtime เปิดตัวอย่างเป็นทางการ (GA) รองรับการทำงานบน CPU, GPU, และคลาวด์ พร้อมรุ่นสำหรับ Mac ซึ่งช่วยให้นักพัฒนาสามารถสร้างฟีเจอร์ AI ได้หลากหลายมากขึ้น. - AI Agents ถูกนำมาใช้ในงานต่างๆ เช่น การวางแผนการเดินทาง, ลดการเกิด hallucination, และการดูแลผู้ป่วยมะเร็งโดยการรวมข้อมูลทางการแพทย์และแบ่งปันกับโรงพยาบาลชุมชน. มีการพูดถึง Agentic Web ซึ่งเป็นแนวคิดใหม่ในการพัฒนาเว็บที่ขับเคลื่อนด้วย AI Agent เพื่อความเปิดกว้างและความเร็วในการสร้างเว็บไซต์. ℹ️ เครื่องมือสำหรับนักพัฒนา - มีการสาธิต GitHub Copilot ซึ่งได้รับการอัปเกรดให้เป็น "เพื่อนนักพัฒนา" หรือ "Project Padawan" โดยสามารถแก้บั๊ก, พัฒนาฟีเจอร์ใหม่, และจัดการ GitHub Issues ได้โดยอัตโนมัติ รวมถึงช่วยจัดการหลายงานพร้อมกันเพื่อเพิ่มประสิทธิภาพการทำงานของนักพัฒนา. GitHub Copilot เปิดตัวอย่างเป็นทางการสำหรับลูกค้า Copilot Enterprise และ Copilot Pro+ เหมาะสำหรับงานที่มีความซับซ้อนต่ำถึงปานกลาง. - Copilot Studio ได้รับการอัปเกรดด้วยคุณสมบัติสำหรับนักพัฒนามืออาวุโส รวมถึง M365 Copilot APIs (ในรูปแบบ preview) และ Bring Your Own Models จาก Azure Foundry (ในรูปแบบ preview). SQL Server 2025 เปิดตัวในรูปแบบ public preview พร้อมการรวม AI และความสามารถในการค้นหาเวกเตอร์ ซึ่งช่วยเพิ่มประสิทธิภาพในการจัดการฐานข้อมูล. - Microsoft ประกาศเปิดตัว Windows Subsystem for Linux (WSL) เป็นโอเพ่นซอร์ส รวมถึง "Mariner" Linux และ WSL-g UI layer, และมีแผนจะเปิดตัว GitHub Copilot Chat Extension สำหรับ VSCode เป็นโอเพ่นซอร์สในอีกไม่กี่สัปดาห์ข้างหน้า. นอกจากนี้ยังมีการพูดถึง Model Context Protocol (MCP) ซึ่ง Microsoft เข้าร่วม MCP Steering Committee และรองรับ MCP บนแพลตฟอร์มต่างๆ เช่น GitHub, Copilot Studio, Dynamics 365, Azure, Azure AI Foundry, Semantic Kernel, Foundry Agents, และ Windows 11. ℹ️ Microsoft 365 และ Copilot ➡️ Microsoft 365 Copilot Wave 2 Spring Release มีการอัปเดตใหม่สำหรับการทำงานร่วมกันระหว่างมนุษย์และ AI Agent รวมถึง: - แอปที่อัปเดตสำหรับการทำงานร่วมกัน. - ประสบการณ์การสร้างด้วย OpenAI GPT-4o สำหรับการสร้างภาพ. - Copilot Notebooks เปิดตัวอย่างเป็นทางการ (GA). - Copilot Search และ Copilot Memory จะเริ่มใช้งานในเดือนมิถุนายน. - Researcher และ Analyst agents ผ่านโปรแกรม Frontier จะเริ่มในเดือนนี้. ➡️ Power Apps มีการประกาศคุณสมบัติใหม่ เช่น: - Solution Workspace เปิดตัวอย่างเป็นทางการวันที่ 30 พฤษภาคม. - Generative pages ด้วย React code (Early Access Program). - Agent feed สำหรับแอป (Early Access Program). - นำแอปแบบ code-first มายัง Power Platform (Early Access Program). ℹ️ ความร่วมมือและนวัตกรรม - มีการร่วมมือกับ Nvidia โดย Jensen Huang กล่าวถึงการเร่งการทำงานของ AI และการจัดการงานหนักด้วย CUDA. นอกจากนี้ยังมีความร่วมมือกับ xAI โดย Elon Musk ปรากฏตัวผ่านวิดีโอและประกาศว่า Grok 3 และ Grok 3 Mini จะมีบน Azure AI Foundry เพื่อเพิ่มความแม่นยำและลดข้อผิดพลาดของ AI โดยใช้กฎหมายฟิสิกส์. - MyEngine AI ถูกนำมาใช้เพื่อช่วยผู้ที่มีปัญหาการได้ยินเข้าใจสำเนียงท้องถิ่นได้ดีขึ้น. AI ยังถูกนำมาใช้ในด้านที่น่าสนใจ เช่น การพยากรณ์อากาศด้วย supercomputer บนคลาวด์ ซึ่งต้องการพลังการคำนวณสูงเพื่อเพิ่มความแม่นยำ และ AI สำหรับ NFL Combine ซึ่งมีการสาธิตผ่านวิดีโอ (AI for NFL Combine). ℹ️ ความปลอดภัยและการจัดการ - Microsoft ขยายการใช้งาน Entra, Defender for Cloud, และ Purview เข้าสู่ Azure AI Foundry และ Copilot Studio เพื่อเพิ่มความปลอดภัย. Entra Agent ID เปิดตัวในรูปแบบ preview เพื่อจัดการ AI Agents ซึ่งช่วยในการควบคุมและปกป้องการทำงานของ AI. ℹ️ บุคคลสำคัญและการปรากฏตัว - งานวันที่ 2 มีการปรากฏตัวของบุคคลสำคัญผ่านวิดีโอ เช่น Sam Altman (OpenAI) ที่กล่าวถึงการจัดการงาน AI ขนาดใหญ่ และ Elon Musk (xAI) ที่พูดถึงความร่วมมือกับ Microsoft ในการนำ Grok 3 และ Grok 3 Mini มาใช้บน Azure.
    0 ความคิดเห็น 0 การแบ่งปัน 331 มุมมอง 0 รีวิว
  • Gigabyte เปิดตัว AI Supercomputer ขนาดเล็ก DGX Spark รุ่นพิเศษ

    Gigabyte เปิดตัว AI Supercomputer รุ่นพิเศษที่พัฒนาจาก NVIDIA DGX Spark ในงาน Computex 2025 โดยใช้ชื่อ AI TOP ATOM ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ขนาดเล็กที่ให้พลังประมวลผล AI สูงถึง 1,000 TOPS

    🔍 รายละเอียดสำคัญเกี่ยวกับ AI TOP ATOM ของ Gigabyte
    ✅ ใช้ชิป GB10 Grace Blackwell Superchip ที่มี NVIDIA Blackwell GPU
    - รองรับ Tensor Cores รุ่นที่ 5 และ FP4 สำหรับการประมวลผล AI

    ✅ พลังประมวลผลสูงถึง 1,000 TOPS หรือ 1,000 ล้านล้านคำสั่งต่อวินาที
    - สูงกว่าหน่วยประมวลผล NPU ทั่วไปถึง 20-50 เท่า

    ✅ ใช้เทคโนโลยี NVLink-C2C เพื่อเชื่อมต่อ CPU และ GPU ให้ทำงานร่วมกันได้อย่างมีประสิทธิภาพ
    - มี แบนด์วิดท์สูงกว่ามาตรฐาน PCIe รุ่นที่ 5 ถึง 5 เท่า

    ✅ ใช้หน่วยความจำ LPDDR5X จาก Micron เพื่อเพิ่มประสิทธิภาพการทำงาน
    - ช่วยให้ สามารถประมวลผลโมเดล AI ที่มีพารามิเตอร์สูงถึง 70 พันล้านตัว

    ✅ รองรับการทำงานร่วมกันระหว่างสองเครื่องผ่าน NVIDIA Connect-X
    - ทำให้สามารถ เพิ่มพารามิเตอร์ของโมเดล AI ได้สูงถึง 405 พันล้านตัว

    https://wccftech.com/gigabyte-unveils-its-custom-nvidia-dgx-spark-mini-ai-supercomputer/
    Gigabyte เปิดตัว AI Supercomputer ขนาดเล็ก DGX Spark รุ่นพิเศษ Gigabyte เปิดตัว AI Supercomputer รุ่นพิเศษที่พัฒนาจาก NVIDIA DGX Spark ในงาน Computex 2025 โดยใช้ชื่อ AI TOP ATOM ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ขนาดเล็กที่ให้พลังประมวลผล AI สูงถึง 1,000 TOPS 🔍 รายละเอียดสำคัญเกี่ยวกับ AI TOP ATOM ของ Gigabyte ✅ ใช้ชิป GB10 Grace Blackwell Superchip ที่มี NVIDIA Blackwell GPU - รองรับ Tensor Cores รุ่นที่ 5 และ FP4 สำหรับการประมวลผล AI ✅ พลังประมวลผลสูงถึง 1,000 TOPS หรือ 1,000 ล้านล้านคำสั่งต่อวินาที - สูงกว่าหน่วยประมวลผล NPU ทั่วไปถึง 20-50 เท่า ✅ ใช้เทคโนโลยี NVLink-C2C เพื่อเชื่อมต่อ CPU และ GPU ให้ทำงานร่วมกันได้อย่างมีประสิทธิภาพ - มี แบนด์วิดท์สูงกว่ามาตรฐาน PCIe รุ่นที่ 5 ถึง 5 เท่า ✅ ใช้หน่วยความจำ LPDDR5X จาก Micron เพื่อเพิ่มประสิทธิภาพการทำงาน - ช่วยให้ สามารถประมวลผลโมเดล AI ที่มีพารามิเตอร์สูงถึง 70 พันล้านตัว ✅ รองรับการทำงานร่วมกันระหว่างสองเครื่องผ่าน NVIDIA Connect-X - ทำให้สามารถ เพิ่มพารามิเตอร์ของโมเดล AI ได้สูงถึง 405 พันล้านตัว https://wccftech.com/gigabyte-unveils-its-custom-nvidia-dgx-spark-mini-ai-supercomputer/
    WCCFTECH.COM
    Gigabyte Unveils Its Custom NVIDIA "DGX Spark" Mini-AI Supercomputer: The AI TOP ATOM Offering a Whopping 1,000 TOPS of AI Power
    Gigabyte also decided to take its shot at the AI segment as well, unveiling a custom variant of NVIDIA's DGX Spark, the AI TOP ATOM.
    0 ความคิดเห็น 0 การแบ่งปัน 95 มุมมอง 0 รีวิว
  • MSI เปิดตัว EdgeXpert MS-C931: AI Supercomputer หรือแค่การตลาด?

    MSI เปิดตัว EdgeXpert MS-C931 ซึ่งเป็นเดสก์ท็อปที่ใช้แพลตฟอร์ม Nvidia DGX Spark โดยมีเป้าหมายเพื่อให้เป็น "AI Supercomputer" สำหรับนักพัฒนาและองค์กรที่ต้องการพลังประมวลผล AI ในระดับสูง อย่างไรก็ตาม ยังมีข้อสงสัยเกี่ยวกับความสามารถที่แท้จริงของอุปกรณ์นี้

    🔍 รายละเอียดสำคัญเกี่ยวกับ MSI EdgeXpert MS-C931
    ✅ ใช้ Nvidia GB10 Grace Blackwell Superchip
    - ให้ พลังประมวลผล AI สูงสุด 1,000 TOPS (FP4)

    ✅ มีหน่วยความจำรวม 128GB และรองรับ ConnectX-7 high-speed networking
    - เหมาะสำหรับ การประมวลผล AI ที่ต้องการแบนด์วิดท์สูง

    ✅ MSI ระบุว่าอุปกรณ์นี้เหมาะสำหรับภาคการศึกษา, การเงิน และการดูแลสุขภาพ
    - เนื่องจาก ต้องการความเป็นส่วนตัวของข้อมูลและความหน่วงต่ำ

    ✅ สามารถใช้เป็น Workstation สำหรับการพัฒนา AI และการจำลองขนาดใหญ่
    - มี ประสิทธิภาพสูงในการรันโมเดล Machine Learning

    ✅ จะถูกนำเสนอในงาน Computex 2025
    - MSI หวังว่าจะเป็นตัวเลือกใหม่สำหรับองค์กรที่ต้องการพลัง AI ในระดับสูง

    https://www.techradar.com/computing/cloud-computing/after-asus-and-dell-msi-is-launching-a-nvidia-dgx-spark-clone-but-i-am-still-skeptical-about-the-whole-desktop-ai-supercomputer-moniker
    MSI เปิดตัว EdgeXpert MS-C931: AI Supercomputer หรือแค่การตลาด? MSI เปิดตัว EdgeXpert MS-C931 ซึ่งเป็นเดสก์ท็อปที่ใช้แพลตฟอร์ม Nvidia DGX Spark โดยมีเป้าหมายเพื่อให้เป็น "AI Supercomputer" สำหรับนักพัฒนาและองค์กรที่ต้องการพลังประมวลผล AI ในระดับสูง อย่างไรก็ตาม ยังมีข้อสงสัยเกี่ยวกับความสามารถที่แท้จริงของอุปกรณ์นี้ 🔍 รายละเอียดสำคัญเกี่ยวกับ MSI EdgeXpert MS-C931 ✅ ใช้ Nvidia GB10 Grace Blackwell Superchip - ให้ พลังประมวลผล AI สูงสุด 1,000 TOPS (FP4) ✅ มีหน่วยความจำรวม 128GB และรองรับ ConnectX-7 high-speed networking - เหมาะสำหรับ การประมวลผล AI ที่ต้องการแบนด์วิดท์สูง ✅ MSI ระบุว่าอุปกรณ์นี้เหมาะสำหรับภาคการศึกษา, การเงิน และการดูแลสุขภาพ - เนื่องจาก ต้องการความเป็นส่วนตัวของข้อมูลและความหน่วงต่ำ ✅ สามารถใช้เป็น Workstation สำหรับการพัฒนา AI และการจำลองขนาดใหญ่ - มี ประสิทธิภาพสูงในการรันโมเดล Machine Learning ✅ จะถูกนำเสนอในงาน Computex 2025 - MSI หวังว่าจะเป็นตัวเลือกใหม่สำหรับองค์กรที่ต้องการพลัง AI ในระดับสูง https://www.techradar.com/computing/cloud-computing/after-asus-and-dell-msi-is-launching-a-nvidia-dgx-spark-clone-but-i-am-still-skeptical-about-the-whole-desktop-ai-supercomputer-moniker
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
  • Google, Microsoft และ Meta นำเทคโนโลยีจากรถยนต์ไฟฟ้ามาใช้ในศูนย์ข้อมูล

    ศูนย์ข้อมูลกำลังเผชิญกับความต้องการพลังงานที่เพิ่มขึ้นอย่างมหาศาลจาก AI workloads ทำให้บริษัทเทคโนโลยีรายใหญ่ต้องปรับโครงสร้างพื้นฐาน โดยนำ ระบบไฟฟ้า 400VDC และระบบระบายความร้อนด้วยของเหลว ซึ่งเคยใช้ใน รถยนต์ไฟฟ้า (EVs) มาปรับใช้กับเซิร์ฟเวอร์ที่ต้องการพลังงานสูง

    🔍 รายละเอียดสำคัญเกี่ยวกับการเปลี่ยนแปลงในศูนย์ข้อมูล
    ✅ Google ใช้ระบบไฟฟ้า 400VDC เพื่อเพิ่มประสิทธิภาพการใช้พลังงาน
    - ลดพื้นที่ที่ใช้สำหรับระบบจ่ายไฟ ทำให้มีพื้นที่สำหรับเซิร์ฟเวอร์มากขึ้น

    ✅ Meta, Microsoft และ Open Compute Project (OCP) สนับสนุนมาตรฐาน Mt. Diablo
    - เป็น มาตรฐานใหม่สำหรับการจ่ายไฟในศูนย์ข้อมูล

    ✅ Google TPU Supercomputers ทำงานที่ระดับกิกะวัตต์ พร้อม uptime 99.999%
    - ใช้ ระบบระบายความร้อนด้วยของเหลวแทนฮีตซิงค์แบบเดิม

    ✅ ชิป AI รุ่นใหม่ใช้พลังงานมากกว่า 1,000 วัตต์ต่อชิป
    - ทำให้ ระบบระบายความร้อนด้วยอากาศเริ่มไม่เพียงพอ

    ✅ การใช้เทคโนโลยีจาก EVs ช่วยเพิ่มประสิทธิภาพการใช้พลังงานขึ้น 3%
    - ลด การสูญเสียพลังงานจากการแปลงไฟฟ้า

    https://www.techradar.com/pro/microsoft-google-and-meta-have-borrowed-ev-tech-for-the-next-big-thing-in-data-center-1mw-watercooled-racks
    Google, Microsoft และ Meta นำเทคโนโลยีจากรถยนต์ไฟฟ้ามาใช้ในศูนย์ข้อมูล ศูนย์ข้อมูลกำลังเผชิญกับความต้องการพลังงานที่เพิ่มขึ้นอย่างมหาศาลจาก AI workloads ทำให้บริษัทเทคโนโลยีรายใหญ่ต้องปรับโครงสร้างพื้นฐาน โดยนำ ระบบไฟฟ้า 400VDC และระบบระบายความร้อนด้วยของเหลว ซึ่งเคยใช้ใน รถยนต์ไฟฟ้า (EVs) มาปรับใช้กับเซิร์ฟเวอร์ที่ต้องการพลังงานสูง 🔍 รายละเอียดสำคัญเกี่ยวกับการเปลี่ยนแปลงในศูนย์ข้อมูล ✅ Google ใช้ระบบไฟฟ้า 400VDC เพื่อเพิ่มประสิทธิภาพการใช้พลังงาน - ลดพื้นที่ที่ใช้สำหรับระบบจ่ายไฟ ทำให้มีพื้นที่สำหรับเซิร์ฟเวอร์มากขึ้น ✅ Meta, Microsoft และ Open Compute Project (OCP) สนับสนุนมาตรฐาน Mt. Diablo - เป็น มาตรฐานใหม่สำหรับการจ่ายไฟในศูนย์ข้อมูล ✅ Google TPU Supercomputers ทำงานที่ระดับกิกะวัตต์ พร้อม uptime 99.999% - ใช้ ระบบระบายความร้อนด้วยของเหลวแทนฮีตซิงค์แบบเดิม ✅ ชิป AI รุ่นใหม่ใช้พลังงานมากกว่า 1,000 วัตต์ต่อชิป - ทำให้ ระบบระบายความร้อนด้วยอากาศเริ่มไม่เพียงพอ ✅ การใช้เทคโนโลยีจาก EVs ช่วยเพิ่มประสิทธิภาพการใช้พลังงานขึ้น 3% - ลด การสูญเสียพลังงานจากการแปลงไฟฟ้า https://www.techradar.com/pro/microsoft-google-and-meta-have-borrowed-ev-tech-for-the-next-big-thing-in-data-center-1mw-watercooled-racks
    0 ความคิดเห็น 0 การแบ่งปัน 154 มุมมอง 0 รีวิว
  • MSI เปิดตัวซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อปที่ Computex 2025

    MSI เตรียมเปิดตัว EdgeXpert MS-C931 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อป ที่ใช้ แพลตฟอร์ม Nvidia DGX Spark โดยอุปกรณ์นี้มาพร้อมกับ GB10 Grace Blackwell Superchip ที่สามารถประมวลผลได้ถึง 1,000 AI TOPS FP4

    ✅ ใช้ Nvidia GB10 Grace Blackwell Superchip
    - ประกอบด้วย สถาปัตยกรรม Blackwell GPU และ Tensor Cores รุ่นที่ 5

    ✅ รองรับ NVLink-C2C เชื่อมต่อกับ Nvidia Grace CPU
    - ใช้ สถาปัตยกรรม Arm พร้อม 20 คอร์ที่ประหยัดพลังงาน

    ✅ มาพร้อมกับ ConnectX 7 networking และหน่วยความจำรวม 128GB
    - รองรับ LLM ขนาดสูงสุด 200 พันล้านพารามิเตอร์ และ 405 พันล้านพารามิเตอร์เมื่อใช้สองชิป

    ✅ สามารถรองรับ NVMe storage สูงสุด 4TB
    - ช่วยให้ การประมวลผลโมเดล AI มีประสิทธิภาพสูงขึ้น

    ✅ มาพร้อมกับซอฟต์แวร์ AI ของ Nvidia ที่รองรับโมเดลจาก DeepSeek, Meta และ Google
    - ช่วยให้ นักพัฒนาสามารถใช้งานโมเดล AI ได้ง่ายขึ้น

    https://www.tomshardware.com/desktops/mini-pcs/msi-to-unveil-desktop-ai-supercomputer-at-computex-2025-powered-by-nvidia-dgx
    MSI เปิดตัวซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อปที่ Computex 2025 MSI เตรียมเปิดตัว EdgeXpert MS-C931 ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อป ที่ใช้ แพลตฟอร์ม Nvidia DGX Spark โดยอุปกรณ์นี้มาพร้อมกับ GB10 Grace Blackwell Superchip ที่สามารถประมวลผลได้ถึง 1,000 AI TOPS FP4 ✅ ใช้ Nvidia GB10 Grace Blackwell Superchip - ประกอบด้วย สถาปัตยกรรม Blackwell GPU และ Tensor Cores รุ่นที่ 5 ✅ รองรับ NVLink-C2C เชื่อมต่อกับ Nvidia Grace CPU - ใช้ สถาปัตยกรรม Arm พร้อม 20 คอร์ที่ประหยัดพลังงาน ✅ มาพร้อมกับ ConnectX 7 networking และหน่วยความจำรวม 128GB - รองรับ LLM ขนาดสูงสุด 200 พันล้านพารามิเตอร์ และ 405 พันล้านพารามิเตอร์เมื่อใช้สองชิป ✅ สามารถรองรับ NVMe storage สูงสุด 4TB - ช่วยให้ การประมวลผลโมเดล AI มีประสิทธิภาพสูงขึ้น ✅ มาพร้อมกับซอฟต์แวร์ AI ของ Nvidia ที่รองรับโมเดลจาก DeepSeek, Meta และ Google - ช่วยให้ นักพัฒนาสามารถใช้งานโมเดล AI ได้ง่ายขึ้น https://www.tomshardware.com/desktops/mini-pcs/msi-to-unveil-desktop-ai-supercomputer-at-computex-2025-powered-by-nvidia-dgx
    WWW.TOMSHARDWARE.COM
    MSI to unveil desktop AI supercomputer at Computex 2025, powered by Nvidia DGX
    MSI is also expanding its deskstop system and unveiling a new motherboard
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • ที่งาน Nico Nico Super Conference ในญี่ปุ่น ซูเปอร์คอมพิวเตอร์ Fugaku ได้เข้าร่วมการแข่งขัน Super Keisan Battle ซึ่งเป็นเกมที่ให้ผู้เข้าแข่งขันพยายามแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที โดยมีรางวัลเป็น "Fugaku One-Day Unlimited Ticket" ที่ให้ผู้ชนะสามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน

    อย่างไรก็ตาม ไม่มีใครสามารถเอาชนะ Fugaku ได้ เพราะมันสามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้ง ในเวลาเพียง 10 วินาที ขณะที่มนุษย์ที่ทำคะแนนสูงสุดสามารถแก้โจทย์ได้เพียง 13 ข้อ

    ✅ Fugaku สามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้งใน 10 วินาที
    - เทียบกับมนุษย์ที่ทำคะแนนสูงสุดได้เพียง 13 ข้อ

    ✅ ผู้เข้าแข่งขันต้องแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที
    - ส่วนใหญ่ทำได้ประมาณ 10-11 ข้อ

    ✅ รางวัลสำหรับผู้ชนะคือ "Fugaku One-Day Unlimited Ticket"
    - สามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน

    ✅ แม้จะแพ้ แต่ผู้เข้าแข่งขันยังได้รับรางวัลปลอบใจเป็นโมเดลจำลองของ Fugaku
    - เป็นของที่ระลึกจากการแข่งขัน

    ✅ Fugaku ถูกใช้ในการวิจัยด้านการป้องกันภัยพิบัติ เช่น การจำลองน้ำท่วมและแผนการอพยพที่เหมาะสม
    - แสดงให้เห็นถึง ความสำคัญของซูเปอร์คอมพิวเตอร์ในงานวิจัยระดับประเทศ

    https://www.tomshardware.com/tech-industry/supercomputers/supercomputer-beats-human-four-sextillion-to-13-in-super-keisan-battle-at-japanese-tech-show
    ที่งาน Nico Nico Super Conference ในญี่ปุ่น ซูเปอร์คอมพิวเตอร์ Fugaku ได้เข้าร่วมการแข่งขัน Super Keisan Battle ซึ่งเป็นเกมที่ให้ผู้เข้าแข่งขันพยายามแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที โดยมีรางวัลเป็น "Fugaku One-Day Unlimited Ticket" ที่ให้ผู้ชนะสามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน อย่างไรก็ตาม ไม่มีใครสามารถเอาชนะ Fugaku ได้ เพราะมันสามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้ง ในเวลาเพียง 10 วินาที ขณะที่มนุษย์ที่ทำคะแนนสูงสุดสามารถแก้โจทย์ได้เพียง 13 ข้อ ✅ Fugaku สามารถคำนวณได้ถึง 442,010,000,000,000,000,000,000,000 ครั้งใน 10 วินาที - เทียบกับมนุษย์ที่ทำคะแนนสูงสุดได้เพียง 13 ข้อ ✅ ผู้เข้าแข่งขันต้องแก้โจทย์คณิตศาสตร์ให้ได้มากที่สุดภายใน 10 วินาที - ส่วนใหญ่ทำได้ประมาณ 10-11 ข้อ ✅ รางวัลสำหรับผู้ชนะคือ "Fugaku One-Day Unlimited Ticket" - สามารถใช้ซูเปอร์คอมพิวเตอร์ได้ฟรีหนึ่งวัน ✅ แม้จะแพ้ แต่ผู้เข้าแข่งขันยังได้รับรางวัลปลอบใจเป็นโมเดลจำลองของ Fugaku - เป็นของที่ระลึกจากการแข่งขัน ✅ Fugaku ถูกใช้ในการวิจัยด้านการป้องกันภัยพิบัติ เช่น การจำลองน้ำท่วมและแผนการอพยพที่เหมาะสม - แสดงให้เห็นถึง ความสำคัญของซูเปอร์คอมพิวเตอร์ในงานวิจัยระดับประเทศ https://www.tomshardware.com/tech-industry/supercomputers/supercomputer-beats-human-four-sextillion-to-13-in-super-keisan-battle-at-japanese-tech-show
    WWW.TOMSHARDWARE.COM
    Supercomputer beats human four sextillion to 13 in ‘Super Keisan Battle’ at Japanese tech show
    If you could beat Fugaku at the Nico Nico Super Conference you could do what you want with it for a whole day.
    0 ความคิดเห็น 0 การแบ่งปัน 208 มุมมอง 0 รีวิว
  • NVIDIA GB10: ก้าวสำคัญสู่ตลาดโปรเซสเซอร์ Arm สำหรับเวิร์กสเตชัน NVIDIA กำลังเตรียมเปิดตัว GB10 Grace Blackwell ซึ่งเป็น โปรเซสเซอร์ Arm-based รุ่นแรกของบริษัท โดยมีข้อมูลหลุดจาก Geekbench ที่เผยให้เห็นว่า GB10 มีคอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz และมีประสิทธิภาพที่สามารถแข่งขันกับ โปรเซสเซอร์ Arm และ x86 ระดับสูง

    GB10 คาดว่าจะถูกนำเสนอในงาน Computex 2025 พร้อมกับ N1 และ N1X ซึ่งเป็นโปรเซสเซอร์ที่พัฒนาโดย MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป นอกจากนี้ ASUS และ Dell ได้เริ่มนำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว รวมถึง Project DIGITS AI supercomputer ของ NVIDIA ที่เปิดตัวในงาน CES 2025

    ✅ GB10 เป็นโปรเซสเซอร์ Arm-based รุ่นแรกของ NVIDIA
    - ใช้ คอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz

    ✅ คาดว่าจะเปิดตัวในงาน Computex 2025
    - พร้อมกับ N1 และ N1X ของ MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป

    ✅ ASUS และ Dell ได้นำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว
    - รวมถึง Project DIGITS AI supercomputer ของ NVIDIA

    ✅ GB10 มีประสิทธิภาพที่สามารถแข่งขันกับโปรเซสเซอร์ Arm และ x86 ระดับสูง
    - แต่ Apple M4 Max ยังคงมีคะแนนนำในด้าน single-core performance

    ✅ Project DIGITS AI supercomputer มีราคาเริ่มต้นที่ $2,999 และพร้อมจำหน่ายในเดือนนี้
    - เป็น หนึ่งในผลิตภัณฑ์ที่ใช้ GB10 เป็นโปรเซสเซอร์หลัก

    https://www.techpowerup.com/336586/nvidias-gb10-arm-superchip-looks-promising-in-leaked-benchmark-results
    NVIDIA GB10: ก้าวสำคัญสู่ตลาดโปรเซสเซอร์ Arm สำหรับเวิร์กสเตชัน NVIDIA กำลังเตรียมเปิดตัว GB10 Grace Blackwell ซึ่งเป็น โปรเซสเซอร์ Arm-based รุ่นแรกของบริษัท โดยมีข้อมูลหลุดจาก Geekbench ที่เผยให้เห็นว่า GB10 มีคอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz และมีประสิทธิภาพที่สามารถแข่งขันกับ โปรเซสเซอร์ Arm และ x86 ระดับสูง GB10 คาดว่าจะถูกนำเสนอในงาน Computex 2025 พร้อมกับ N1 และ N1X ซึ่งเป็นโปรเซสเซอร์ที่พัฒนาโดย MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป นอกจากนี้ ASUS และ Dell ได้เริ่มนำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว รวมถึง Project DIGITS AI supercomputer ของ NVIDIA ที่เปิดตัวในงาน CES 2025 ✅ GB10 เป็นโปรเซสเซอร์ Arm-based รุ่นแรกของ NVIDIA - ใช้ คอร์ Cortex-X925 ที่สามารถทำงานได้สูงสุด 3.9 GHz ✅ คาดว่าจะเปิดตัวในงาน Computex 2025 - พร้อมกับ N1 และ N1X ของ MediaTek สำหรับเดสก์ท็อปและแล็ปท็อป ✅ ASUS และ Dell ได้นำ GB10 ไปใช้ในผลิตภัณฑ์ของตนแล้ว - รวมถึง Project DIGITS AI supercomputer ของ NVIDIA ✅ GB10 มีประสิทธิภาพที่สามารถแข่งขันกับโปรเซสเซอร์ Arm และ x86 ระดับสูง - แต่ Apple M4 Max ยังคงมีคะแนนนำในด้าน single-core performance ✅ Project DIGITS AI supercomputer มีราคาเริ่มต้นที่ $2,999 และพร้อมจำหน่ายในเดือนนี้ - เป็น หนึ่งในผลิตภัณฑ์ที่ใช้ GB10 เป็นโปรเซสเซอร์หลัก https://www.techpowerup.com/336586/nvidias-gb10-arm-superchip-looks-promising-in-leaked-benchmark-results
    WWW.TECHPOWERUP.COM
    NVIDIA's GB10 Arm Superchip Looks Promising in Leaked Benchmark Results
    Recent benchmark leaks from Geekbench have revealed that NVIDIA's first Arm-based "superchip," the GB10 Grace Blackwell, is on the verge of its market launch as reported by Notebookcheck. This processor is expected to be showcased at Computex 2025 later this month, where NVIDIA may also roll out the...
    0 ความคิดเห็น 0 การแบ่งปัน 188 มุมมอง 0 รีวิว
  • Cadence เปิดตัวซูเปอร์คอมพิวเตอร์ AI ใหม่ ใช้ GPU Nvidia RTX Pro 6000 เพื่อเพิ่มประสิทธิภาพการจำลอง Cadence ได้ประกาศเปิดตัว Millennium M2000 Supercomputer ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ออกแบบมาเพื่อการออกแบบชิปด้วย AI โดยใช้ Nvidia RTX Pro 6000 Blackwell Server Edition GPUs และ HGX B200 systems

    ระบบนี้ถูกเปิดตัวในงาน CadenceLIVE Silicon Valley 2025 และเป็นส่วนหนึ่งของ Millennium Enterprise Platform โดยสามารถ เพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU

    ✅ Millennium M2000 Supercomputer ใช้ Nvidia RTX Pro 6000 GPUs และ HGX B200 systems
    - ออกแบบมาเพื่อ การออกแบบชิปด้วย AI, การวิเคราะห์ระบบ และการค้นคว้ายา

    ✅ สามารถเพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU
    - ช่วยให้ บริษัทสามารถพัฒนาเทคโนโลยีได้เร็วขึ้น

    ✅ Cadence มีลูกค้ารายใหญ่ เช่น Intel, AMD, Apple และ Nvidia
    - ใช้ระบบของ Cadence เพื่อช่วยพัฒนาเทคโนโลยีชิปยุคใหม่

    ✅ Millennium M2000 สามารถลดการใช้พลังงานลงถึง 20 เท่าในหลายแอปพลิเคชัน
    - ช่วยให้ การประมวลผลมีประสิทธิภาพมากขึ้นโดยใช้พลังงานน้อยลง

    ✅ Cadence ขยายการใช้งานไปยังอุตสาหกรรมอื่น เช่น GE และ NASA
    - ใช้สำหรับ การจำลองพลศาสตร์ของไหล (CFD) และการวิเคราะห์ระบบ

    https://www.tomshardware.com/tech-industry/supercomputers/cadence-releases-new-ai-supercomputer-uses-nvidia-rtx-pro-6000-gpus-to-improve-simulation-run-time
    Cadence เปิดตัวซูเปอร์คอมพิวเตอร์ AI ใหม่ ใช้ GPU Nvidia RTX Pro 6000 เพื่อเพิ่มประสิทธิภาพการจำลอง Cadence ได้ประกาศเปิดตัว Millennium M2000 Supercomputer ซึ่งเป็น ซูเปอร์คอมพิวเตอร์ที่ออกแบบมาเพื่อการออกแบบชิปด้วย AI โดยใช้ Nvidia RTX Pro 6000 Blackwell Server Edition GPUs และ HGX B200 systems ระบบนี้ถูกเปิดตัวในงาน CadenceLIVE Silicon Valley 2025 และเป็นส่วนหนึ่งของ Millennium Enterprise Platform โดยสามารถ เพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU ✅ Millennium M2000 Supercomputer ใช้ Nvidia RTX Pro 6000 GPUs และ HGX B200 systems - ออกแบบมาเพื่อ การออกแบบชิปด้วย AI, การวิเคราะห์ระบบ และการค้นคว้ายา ✅ สามารถเพิ่มประสิทธิภาพการจำลองได้ถึง 80 เท่าเมื่อเทียบกับระบบที่ใช้ CPU - ช่วยให้ บริษัทสามารถพัฒนาเทคโนโลยีได้เร็วขึ้น ✅ Cadence มีลูกค้ารายใหญ่ เช่น Intel, AMD, Apple และ Nvidia - ใช้ระบบของ Cadence เพื่อช่วยพัฒนาเทคโนโลยีชิปยุคใหม่ ✅ Millennium M2000 สามารถลดการใช้พลังงานลงถึง 20 เท่าในหลายแอปพลิเคชัน - ช่วยให้ การประมวลผลมีประสิทธิภาพมากขึ้นโดยใช้พลังงานน้อยลง ✅ Cadence ขยายการใช้งานไปยังอุตสาหกรรมอื่น เช่น GE และ NASA - ใช้สำหรับ การจำลองพลศาสตร์ของไหล (CFD) และการวิเคราะห์ระบบ https://www.tomshardware.com/tech-industry/supercomputers/cadence-releases-new-ai-supercomputer-uses-nvidia-rtx-pro-6000-gpus-to-improve-simulation-run-time
    0 ความคิดเห็น 0 การแบ่งปัน 139 มุมมอง 0 รีวิว
  • Google ได้อ้างว่า Ironwood TPU v7p pod ของตนมีประสิทธิภาพสูงกว่า El Capitan supercomputer ถึง 24 เท่า แต่ Timothy Prickett Morgan นักวิเคราะห์จาก TheNextPlatform ได้ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ โดยระบุว่า "เป็นการเปรียบเทียบที่ไม่สมเหตุสมผล"

    Google ได้ทำการเปรียบเทียบ Ironwood TPU v7p pod ซึ่งมี 9,216 TPU compute engines กับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines โดยใช้ High Performance LINPACK (HPL) benchmark อย่างไรก็ตาม Prickett Morgan ชี้ให้เห็นว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ที่ใช้ความแม่นยำต่ำกว่า

    ✅ Google อ้างว่า Ironwood TPU v7p pod มีประสิทธิภาพสูงกว่า El Capitan ถึง 24 เท่า
    - ใช้ 9,216 TPU compute engines
    - เปรียบเทียบกับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines

    ✅ นักวิเคราะห์จาก TheNextPlatform ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้
    - ระบุว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง
    - ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training

    ✅ การเปรียบเทียบด้านต้นทุน
    - Ironwood pod มีต้นทุนการสร้าง $445 ล้าน และค่าเช่า $1.1 พันล้านใน 3 ปี
    - El Capitan มีต้นทุนการสร้าง $600 ล้าน
    - Ironwood pod มีต้นทุนต่อ teraflops สูงกว่า El Capitan

    ✅ El Capitan มีประสิทธิภาพสูงกว่า Ironwood TPU ในการประมวลผล FP16 และ FP8
    - El Capitan มี 2.05 เท่าของประสิทธิภาพ FP16 และ FP8 เมื่อเทียบกับ Ironwood pod

    https://www.techradar.com/pro/google-says-that-its-ai-behemoth-is-24x-faster-than-the-worlds-best-supercomputer-but-this-analyst-armed-with-a-spreadsheet-disagrees
    Google ได้อ้างว่า Ironwood TPU v7p pod ของตนมีประสิทธิภาพสูงกว่า El Capitan supercomputer ถึง 24 เท่า แต่ Timothy Prickett Morgan นักวิเคราะห์จาก TheNextPlatform ได้ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ โดยระบุว่า "เป็นการเปรียบเทียบที่ไม่สมเหตุสมผล" Google ได้ทำการเปรียบเทียบ Ironwood TPU v7p pod ซึ่งมี 9,216 TPU compute engines กับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines โดยใช้ High Performance LINPACK (HPL) benchmark อย่างไรก็ตาม Prickett Morgan ชี้ให้เห็นว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ที่ใช้ความแม่นยำต่ำกว่า ✅ Google อ้างว่า Ironwood TPU v7p pod มีประสิทธิภาพสูงกว่า El Capitan ถึง 24 เท่า - ใช้ 9,216 TPU compute engines - เปรียบเทียบกับ El Capitan ที่ใช้ 44,544 AMD Instinct MI300A hybrid CPU-GPU compute engines ✅ นักวิเคราะห์จาก TheNextPlatform ตั้งข้อสงสัยเกี่ยวกับการเปรียบเทียบนี้ - ระบุว่า El Capitan ถูกออกแบบมาสำหรับการจำลองที่มีความแม่นยำสูง - ขณะที่ Ironwood TPU ถูกออกแบบมาสำหรับ AI inference และ training ✅ การเปรียบเทียบด้านต้นทุน - Ironwood pod มีต้นทุนการสร้าง $445 ล้าน และค่าเช่า $1.1 พันล้านใน 3 ปี - El Capitan มีต้นทุนการสร้าง $600 ล้าน - Ironwood pod มีต้นทุนต่อ teraflops สูงกว่า El Capitan ✅ El Capitan มีประสิทธิภาพสูงกว่า Ironwood TPU ในการประมวลผล FP16 และ FP8 - El Capitan มี 2.05 เท่าของประสิทธิภาพ FP16 และ FP8 เมื่อเทียบกับ Ironwood pod https://www.techradar.com/pro/google-says-that-its-ai-behemoth-is-24x-faster-than-the-worlds-best-supercomputer-but-this-analyst-armed-with-a-spreadsheet-disagrees
    0 ความคิดเห็น 0 การแบ่งปัน 169 มุมมอง 0 รีวิว
  • Elon Musk ได้เปิดตัวซูเปอร์คอมพิวเตอร์ที่ชื่อว่า Colossus ซึ่งใช้ GPU Nvidia H100 จำนวน 100,000 ตัว ในการประมวลผล AI อย่างไรก็ตาม ซูเปอร์คอมพิวเตอร์นี้เผชิญกับข้อกล่าวหาเกี่ยวกับการปล่อยมลพิษจากเครื่องกำเนิดไฟฟ้าก๊าซมีเทนที่ใช้ในไซต์งาน Memphis รัฐเทนเนสซี

    ในช่วงแรก Colossus ใช้พลังงานเพียง 7 MW ซึ่งเพียงพอสำหรับการใช้งาน GPU เพียง 4% ของทั้งหมด เพื่อแก้ไขปัญหานี้ Musk ได้ติดตั้งเครื่องกำเนิดไฟฟ้าขนาดใหญ่หลายตัวเพื่อรองรับความต้องการพลังงานที่เพิ่มขึ้น โดยขณะนี้ไซต์งานยังคงใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัว ซึ่งปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืด โรคทางเดินหายใจ และมะเร็งบางชนิด

    Southern Environmental Law Center (SELC) ได้ร่วมมือกับ South Wings ในการถ่ายภาพไซต์งานด้วยกล้องถ่ายภาพความร้อน และพบว่ามีจุดร้อนกว่า 30 จุด ซึ่งบ่งชี้ถึงจำนวนเครื่องกำเนิดไฟฟ้าที่ใช้งานอยู่

    แม้ว่า Colossus จะได้รับการอนุมัติให้ใช้พลังงาน 150 MW แต่ผู้เชี่ยวชาญระบุว่าต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด และหาก Musk ขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW

    ✅ การออกแบบและการใช้งาน
    - ใช้ GPU Nvidia H100 จำนวน 100,000 ตัว
    - ต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด

    ✅ การแก้ไขปัญหาพลังงาน
    - ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัวเพื่อรองรับความต้องการพลังงาน
    - เครื่องกำเนิดไฟฟ้าปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืดและมะเร็ง

    ✅ การตรวจสอบจาก SELC
    - พบจุดร้อนกว่า 30 จุดในไซต์งานด้วยกล้องถ่ายภาพความร้อน
    - SELC กำลังยื่นคำร้องต่อ Shelby County Health Department เพื่อปฏิเสธการใช้งานเครื่องกำเนิดไฟฟ้า

    ✅ การขยายการใช้งาน GPU
    - หากขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW

    https://www.tomshardware.com/tech-industry/supercomputers/elon-musks-nvidia-powered-colossus-supercomputer-faces-pollution-allegations-from-under-reported-power-generators
    Elon Musk ได้เปิดตัวซูเปอร์คอมพิวเตอร์ที่ชื่อว่า Colossus ซึ่งใช้ GPU Nvidia H100 จำนวน 100,000 ตัว ในการประมวลผล AI อย่างไรก็ตาม ซูเปอร์คอมพิวเตอร์นี้เผชิญกับข้อกล่าวหาเกี่ยวกับการปล่อยมลพิษจากเครื่องกำเนิดไฟฟ้าก๊าซมีเทนที่ใช้ในไซต์งาน Memphis รัฐเทนเนสซี ในช่วงแรก Colossus ใช้พลังงานเพียง 7 MW ซึ่งเพียงพอสำหรับการใช้งาน GPU เพียง 4% ของทั้งหมด เพื่อแก้ไขปัญหานี้ Musk ได้ติดตั้งเครื่องกำเนิดไฟฟ้าขนาดใหญ่หลายตัวเพื่อรองรับความต้องการพลังงานที่เพิ่มขึ้น โดยขณะนี้ไซต์งานยังคงใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัว ซึ่งปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืด โรคทางเดินหายใจ และมะเร็งบางชนิด Southern Environmental Law Center (SELC) ได้ร่วมมือกับ South Wings ในการถ่ายภาพไซต์งานด้วยกล้องถ่ายภาพความร้อน และพบว่ามีจุดร้อนกว่า 30 จุด ซึ่งบ่งชี้ถึงจำนวนเครื่องกำเนิดไฟฟ้าที่ใช้งานอยู่ แม้ว่า Colossus จะได้รับการอนุมัติให้ใช้พลังงาน 150 MW แต่ผู้เชี่ยวชาญระบุว่าต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด และหาก Musk ขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW ✅ การออกแบบและการใช้งาน - ใช้ GPU Nvidia H100 จำนวน 100,000 ตัว - ต้องการพลังงานอย่างน้อย 155 MW เพื่อใช้งาน GPU ทั้งหมด ✅ การแก้ไขปัญหาพลังงาน - ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนกว่า 30 ตัวเพื่อรองรับความต้องการพลังงาน - เครื่องกำเนิดไฟฟ้าปล่อยสารมลพิษที่เชื่อมโยงกับโรคหอบหืดและมะเร็ง ✅ การตรวจสอบจาก SELC - พบจุดร้อนกว่า 30 จุดในไซต์งานด้วยกล้องถ่ายภาพความร้อน - SELC กำลังยื่นคำร้องต่อ Shelby County Health Department เพื่อปฏิเสธการใช้งานเครื่องกำเนิดไฟฟ้า ✅ การขยายการใช้งาน GPU - หากขยายการใช้งาน GPU เป็น 200,000 ตัว จะต้องการพลังงานถึง 310 MW https://www.tomshardware.com/tech-industry/supercomputers/elon-musks-nvidia-powered-colossus-supercomputer-faces-pollution-allegations-from-under-reported-power-generators
    0 ความคิดเห็น 0 การแบ่งปัน 250 มุมมอง 0 รีวิว
  • Elon Musk กำลังวางแผนระดมทุนมูลค่าหลายหมื่นล้านดอลลาร์เพื่อสร้าง Colossus 2 ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มี GPU จำนวน 1 ล้านตัว โดยมีเป้าหมายเพื่อพัฒนาโมเดล AI ที่ล้ำสมัยและสร้างรายได้จากการใช้งาน AI ในระดับสูง การระดมทุนครั้งนี้อาจมีมูลค่าถึง 25 พันล้านดอลลาร์ และทำให้มูลค่าของบริษัท xAI อยู่ระหว่าง 150 ถึง 200 พันล้านดอลลาร์

    ✅ Elon Musk วางแผนสร้าง Colossus 2 ด้วย GPU จำนวน 1 ล้านตัว
    - ซูเปอร์คอมพิวเตอร์นี้จะใช้ GPU Nvidia Hopper H100 และ H100
    - Colossus 2 จะมีประสิทธิภาพสูงกว่า Colossus รุ่นแรกที่มี GPU จำนวน 200,000 ตัว

    ✅ การระดมทุนครั้งนี้อาจมีมูลค่าถึง 25 พันล้านดอลลาร์
    - Musk คาดว่าจะใช้เงินประมาณ 100 ถึง 125 พันล้านดอลลาร์ ในการสร้าง Colossus 2
    - รวมถึงค่าใช้จ่ายด้านอาคาร เซิร์ฟเวอร์ อุปกรณ์เครือข่าย และระบบระบายความร้อน

    ✅ xAI มีเป้าหมายเพื่อพัฒนาโมเดล AI ที่ล้ำสมัย
    - โมเดล AI ที่พัฒนาจะถูกนำไปใช้สร้างรายได้ในระดับสูง

    ✅ การลงทุนใน AI Data Centers กำลังเพิ่มขึ้นทั่วโลก
    - Broadcom คาดว่า Data Centers รุ่นใหม่จะมี AI Processors จำนวน 1 ล้านตัวภายในปี 2027

    https://www.tomshardware.com/tech-industry/artificial-intelligence/speculation-mounts-that-musk-will-raise-tens-of-billions-for-ai-supercomputer-with-1-million-gpus-report
    Elon Musk กำลังวางแผนระดมทุนมูลค่าหลายหมื่นล้านดอลลาร์เพื่อสร้าง Colossus 2 ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มี GPU จำนวน 1 ล้านตัว โดยมีเป้าหมายเพื่อพัฒนาโมเดล AI ที่ล้ำสมัยและสร้างรายได้จากการใช้งาน AI ในระดับสูง การระดมทุนครั้งนี้อาจมีมูลค่าถึง 25 พันล้านดอลลาร์ และทำให้มูลค่าของบริษัท xAI อยู่ระหว่าง 150 ถึง 200 พันล้านดอลลาร์ ✅ Elon Musk วางแผนสร้าง Colossus 2 ด้วย GPU จำนวน 1 ล้านตัว - ซูเปอร์คอมพิวเตอร์นี้จะใช้ GPU Nvidia Hopper H100 และ H100 - Colossus 2 จะมีประสิทธิภาพสูงกว่า Colossus รุ่นแรกที่มี GPU จำนวน 200,000 ตัว ✅ การระดมทุนครั้งนี้อาจมีมูลค่าถึง 25 พันล้านดอลลาร์ - Musk คาดว่าจะใช้เงินประมาณ 100 ถึง 125 พันล้านดอลลาร์ ในการสร้าง Colossus 2 - รวมถึงค่าใช้จ่ายด้านอาคาร เซิร์ฟเวอร์ อุปกรณ์เครือข่าย และระบบระบายความร้อน ✅ xAI มีเป้าหมายเพื่อพัฒนาโมเดล AI ที่ล้ำสมัย - โมเดล AI ที่พัฒนาจะถูกนำไปใช้สร้างรายได้ในระดับสูง ✅ การลงทุนใน AI Data Centers กำลังเพิ่มขึ้นทั่วโลก - Broadcom คาดว่า Data Centers รุ่นใหม่จะมี AI Processors จำนวน 1 ล้านตัวภายในปี 2027 https://www.tomshardware.com/tech-industry/artificial-intelligence/speculation-mounts-that-musk-will-raise-tens-of-billions-for-ai-supercomputer-with-1-million-gpus-report
    0 ความคิดเห็น 0 การแบ่งปัน 154 มุมมอง 0 รีวิว
  • NVIDIA และ AMD กำลังแข่งขันกันเพื่อสร้างอิทธิพลในตลาด AI ของญี่ปุ่น หลังจากที่ทั้งสองบริษัทส่งซีอีโอไปเยือนประเทศในช่วงเวลาที่ใกล้เคียงกัน โดยมีเป้าหมายเพื่อขยายการลงทุนและพัฒนาโครงสร้างพื้นฐานด้าน AI ในญี่ปุ่น

    ✅ ญี่ปุ่นต้องการเป็นศูนย์กลางการพัฒนา AI ระดับโลก
    - รัฐบาลญี่ปุ่นกำลังผลักดันให้ประเทศเป็น "ประเทศที่ง่ายที่สุดในการพัฒนาและใช้ AI"
    - มีการลงทุนอย่างหนักในโครงสร้างพื้นฐานด้าน AI เพื่อแข่งขันในตลาดโลก

    ✅ ซีอีโอของ NVIDIA และ AMD พบกับนายกรัฐมนตรีญี่ปุ่น
    - Jensen Huang ซีอีโอของ NVIDIA ได้หารือกับนายกรัฐมนตรี Shigeru Ishiba เกี่ยวกับการเพิ่มกำลังการผลิตไฟฟ้าเพื่อรองรับอุตสาหกรรม AI
    - Lisa Su ซีอีโอของ AMD ก็เดินทางไปพบกับนายกรัฐมนตรีและพันธมิตรทางธุรกิจในญี่ปุ่น

    ✅ NVIDIA มอบ DGX Spark AI Supercomputer ให้กับรัฐบาลญี่ปุ่น
    - เป็นสัญลักษณ์ของความร่วมมือระหว่าง NVIDIA และญี่ปุ่นในการพัฒนา AI

    ✅ AMD กำลังขยายความร่วมมือกับญี่ปุ่นในด้าน AI
    - รัฐบาลญี่ปุ่นให้ความสนใจในการพัฒนาเทคโนโลยีร่วมกับ AMD

    https://wccftech.com/nvidia-and-amd-ceos-pay-a-visit-to-japan-in-quick-succession/
    NVIDIA และ AMD กำลังแข่งขันกันเพื่อสร้างอิทธิพลในตลาด AI ของญี่ปุ่น หลังจากที่ทั้งสองบริษัทส่งซีอีโอไปเยือนประเทศในช่วงเวลาที่ใกล้เคียงกัน โดยมีเป้าหมายเพื่อขยายการลงทุนและพัฒนาโครงสร้างพื้นฐานด้าน AI ในญี่ปุ่น ✅ ญี่ปุ่นต้องการเป็นศูนย์กลางการพัฒนา AI ระดับโลก - รัฐบาลญี่ปุ่นกำลังผลักดันให้ประเทศเป็น "ประเทศที่ง่ายที่สุดในการพัฒนาและใช้ AI" - มีการลงทุนอย่างหนักในโครงสร้างพื้นฐานด้าน AI เพื่อแข่งขันในตลาดโลก ✅ ซีอีโอของ NVIDIA และ AMD พบกับนายกรัฐมนตรีญี่ปุ่น - Jensen Huang ซีอีโอของ NVIDIA ได้หารือกับนายกรัฐมนตรี Shigeru Ishiba เกี่ยวกับการเพิ่มกำลังการผลิตไฟฟ้าเพื่อรองรับอุตสาหกรรม AI - Lisa Su ซีอีโอของ AMD ก็เดินทางไปพบกับนายกรัฐมนตรีและพันธมิตรทางธุรกิจในญี่ปุ่น ✅ NVIDIA มอบ DGX Spark AI Supercomputer ให้กับรัฐบาลญี่ปุ่น - เป็นสัญลักษณ์ของความร่วมมือระหว่าง NVIDIA และญี่ปุ่นในการพัฒนา AI ✅ AMD กำลังขยายความร่วมมือกับญี่ปุ่นในด้าน AI - รัฐบาลญี่ปุ่นให้ความสนใจในการพัฒนาเทคโนโลยีร่วมกับ AMD https://wccftech.com/nvidia-and-amd-ceos-pay-a-visit-to-japan-in-quick-succession/
    WCCFTECH.COM
    NVIDIA and AMD CEOs Pay a Visit To Japan In Quick Succession, Meet with PM Ishiba to Capitalize on the Nation's AI Ambitions
    The CEOs of NVIDIA and AMD have reportedly visited Japan in quick succession, as both firms are eager to capitalize on a growing AI market.
    0 ความคิดเห็น 0 การแบ่งปัน 261 มุมมอง 0 รีวิว
  • Nvidia ได้ประกาศย้ายฐานการผลิตซูเปอร์คอมพิวเตอร์ AI ไปยังสหรัฐฯ เป็นครั้งแรก ซึ่งเป็นการตอบสนองต่อแนวโน้มอุตสาหกรรมที่มุ่งเน้นการผลิตภายในประเทศเพื่อรับมือกับนโยบายการค้าของสหรัฐฯ

    ✅ การย้ายฐานการผลิตไปยังสหรัฐฯ
    - Nvidia จะผลิตและทดสอบชิป Blackwell และซูเปอร์คอมพิวเตอร์ AI ในโรงงานที่รัฐแอริโซนาและเท็กซัส
    - โรงงานผลิตครอบคลุมพื้นที่กว่า 1 ล้านตารางฟุต และเริ่มดำเนินการแล้ว
    - คาดว่าจะเริ่มการผลิตจำนวนมากภายใน 12-15 เดือนข้างหน้า

    ✅ ความร่วมมือกับบริษัทผู้ผลิตรายใหญ่
    - TSMC จะผลิตชิป Blackwell ในเมืองฟีนิกซ์ รัฐแอริโซนา
    - Foxconn และ Wistron จะดูแลการประกอบซูเปอร์คอมพิวเตอร์ในรัฐเท็กซัส
    - Amkor และ SPIL จะรับผิดชอบด้านบรรจุภัณฑ์และการทดสอบชิปในแอริโซนา

    ✅ เป้าหมายการลงทุนและผลกระทบต่ออุตสาหกรรม
    - Nvidia วางแผนลงทุนสูงถึง 500 พันล้านดอลลาร์ในโครงสร้างพื้นฐาน AI ภายใน 4 ปีข้างหน้า
    - การผลิตในสหรัฐฯ ช่วยเสริมความแข็งแกร่งของห่วงโซ่อุปทานและลดความเสี่ยงจากข้อจำกัดทางการค้า

    ⚠️ ข้อควรระวังและประเด็นที่ต้องติดตาม
    ℹ️ ผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์
    - การย้ายฐานผลิตอาจส่งผลต่อซัพพลายเชนของบริษัทที่พึ่งพาการผลิตในเอเชีย
    - อาจเกิดความท้าทายด้านต้นทุนและการจัดหาวัตถุดิบสำหรับการผลิตในสหรัฐฯ

    ℹ️ ข้อกังวลด้านภูมิรัฐศาสตร์
    - การตัดสินใจของ Nvidia อาจเป็นผลจากแรงกดดันทางการค้าระหว่างสหรัฐฯ และจีน
    - อดีตประธานาธิบดีทรัมป์เคยเตือน TSMC ว่าอาจเผชิญภาษีนำเข้าสูงถึง 100% หากไม่ตั้งโรงงานในสหรัฐฯ

    ℹ️ อนาคตของอุตสาหกรรม AI และซูเปอร์คอมพิวเตอร์
    - Nvidia วางแผนสร้าง "AI factories" หรือศูนย์ข้อมูลเฉพาะสำหรับงาน AI ซึ่งจะเป็นโครงสร้างพื้นฐานสำคัญในอนาคต
    - บริษัทจะใช้แพลตฟอร์ม Omniverse เพื่อสร้างแบบจำลองดิจิทัลของโรงงาน และใช้หุ่นยนต์ Isaac GR00T ในกระบวนการผลิต

    https://www.techspot.com/news/107542-nvidia-shifts-ai-supercomputer-production-us-first-time.html
    Nvidia ได้ประกาศย้ายฐานการผลิตซูเปอร์คอมพิวเตอร์ AI ไปยังสหรัฐฯ เป็นครั้งแรก ซึ่งเป็นการตอบสนองต่อแนวโน้มอุตสาหกรรมที่มุ่งเน้นการผลิตภายในประเทศเพื่อรับมือกับนโยบายการค้าของสหรัฐฯ ✅ การย้ายฐานการผลิตไปยังสหรัฐฯ - Nvidia จะผลิตและทดสอบชิป Blackwell และซูเปอร์คอมพิวเตอร์ AI ในโรงงานที่รัฐแอริโซนาและเท็กซัส - โรงงานผลิตครอบคลุมพื้นที่กว่า 1 ล้านตารางฟุต และเริ่มดำเนินการแล้ว - คาดว่าจะเริ่มการผลิตจำนวนมากภายใน 12-15 เดือนข้างหน้า ✅ ความร่วมมือกับบริษัทผู้ผลิตรายใหญ่ - TSMC จะผลิตชิป Blackwell ในเมืองฟีนิกซ์ รัฐแอริโซนา - Foxconn และ Wistron จะดูแลการประกอบซูเปอร์คอมพิวเตอร์ในรัฐเท็กซัส - Amkor และ SPIL จะรับผิดชอบด้านบรรจุภัณฑ์และการทดสอบชิปในแอริโซนา ✅ เป้าหมายการลงทุนและผลกระทบต่ออุตสาหกรรม - Nvidia วางแผนลงทุนสูงถึง 500 พันล้านดอลลาร์ในโครงสร้างพื้นฐาน AI ภายใน 4 ปีข้างหน้า - การผลิตในสหรัฐฯ ช่วยเสริมความแข็งแกร่งของห่วงโซ่อุปทานและลดความเสี่ยงจากข้อจำกัดทางการค้า ⚠️ ข้อควรระวังและประเด็นที่ต้องติดตาม ℹ️ ผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์ - การย้ายฐานผลิตอาจส่งผลต่อซัพพลายเชนของบริษัทที่พึ่งพาการผลิตในเอเชีย - อาจเกิดความท้าทายด้านต้นทุนและการจัดหาวัตถุดิบสำหรับการผลิตในสหรัฐฯ ℹ️ ข้อกังวลด้านภูมิรัฐศาสตร์ - การตัดสินใจของ Nvidia อาจเป็นผลจากแรงกดดันทางการค้าระหว่างสหรัฐฯ และจีน - อดีตประธานาธิบดีทรัมป์เคยเตือน TSMC ว่าอาจเผชิญภาษีนำเข้าสูงถึง 100% หากไม่ตั้งโรงงานในสหรัฐฯ ℹ️ อนาคตของอุตสาหกรรม AI และซูเปอร์คอมพิวเตอร์ - Nvidia วางแผนสร้าง "AI factories" หรือศูนย์ข้อมูลเฉพาะสำหรับงาน AI ซึ่งจะเป็นโครงสร้างพื้นฐานสำคัญในอนาคต - บริษัทจะใช้แพลตฟอร์ม Omniverse เพื่อสร้างแบบจำลองดิจิทัลของโรงงาน และใช้หุ่นยนต์ Isaac GR00T ในกระบวนการผลิต https://www.techspot.com/news/107542-nvidia-shifts-ai-supercomputer-production-us-first-time.html
    WWW.TECHSPOT.COM
    Nvidia shifts AI supercomputer production to the US for the first time
    The project spans more than a million square feet of manufacturing space, with operations already underway. Nvidia's Blackwell chips are being produced at TSMC facilities in Phoenix,...
    0 ความคิดเห็น 0 การแบ่งปัน 327 มุมมอง 0 รีวิว
  • Elon Musk’s xAI กำลังเผชิญกับข้อวิจารณ์เกี่ยวกับการใช้เครื่องกำเนิดไฟฟ้าที่ไม่ได้รับอนุญาตเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งตั้งอยู่ใกล้เมืองเมมฟิส รัฐเทนเนสซี โดยเหตุการณ์นี้สร้างความกังวลด้านสิ่งแวดล้อมและสุขภาพในพื้นที่

    ✅ การใช้เครื่องกำเนิดไฟฟ้า:
    - xAI ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนจำนวน 35 เครื่องเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งมี GPU Nvidia H100 มากกว่า 100,000 ตัว
    - เครื่องกำเนิดไฟฟ้าเหล่านี้สามารถผลิตพลังงานได้ถึง 420 MW ซึ่งเพียงพอสำหรับการจ่ายไฟให้กับเมือง

    ✅ ปัญหาด้านการอนุญาต:
    - xAI ได้รับอนุญาตให้ใช้เครื่องกำเนิดไฟฟ้าเพียง 15 เครื่อง แต่มีการใช้งานมากกว่านั้นโดยไม่มีการอนุมัติ
    - บริษัทใช้ช่องโหว่ทางกฎหมายที่อนุญาตให้เครื่องกำเนิดไฟฟ้าทำงานได้โดยไม่ต้องมีใบอนุญาต หากไม่ได้ติดตั้งในที่เดียวเกิน 364 วัน

    ✅ ผลกระทบต่อสิ่งแวดล้อม:
    - เครื่องกำเนิดไฟฟ้าก๊าซมีเทนเป็นแหล่งมลพิษที่สำคัญและละเมิดกฎคุณภาพอากาศของรัฐบาลกลาง
    - กลุ่ม Southern Environmental Law Center เรียกร้องให้หน่วยงานด้านสุขภาพในพื้นที่หยุดการดำเนินงานและปรับบริษัท $25,000 ต่อวัน

    ✅ การตอบสนองของชุมชน:
    - ชาวบ้านและกลุ่มสิ่งแวดล้อมในพื้นที่แสดงความกังวลเกี่ยวกับผลกระทบต่อสุขภาพและสิ่งแวดล้อม

    https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musks-xai-allegedly-powers-colossus-supercomputer-facility-using-illegal-generators
    Elon Musk’s xAI กำลังเผชิญกับข้อวิจารณ์เกี่ยวกับการใช้เครื่องกำเนิดไฟฟ้าที่ไม่ได้รับอนุญาตเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งตั้งอยู่ใกล้เมืองเมมฟิส รัฐเทนเนสซี โดยเหตุการณ์นี้สร้างความกังวลด้านสิ่งแวดล้อมและสุขภาพในพื้นที่ ✅ การใช้เครื่องกำเนิดไฟฟ้า: - xAI ใช้เครื่องกำเนิดไฟฟ้าก๊าซมีเทนจำนวน 35 เครื่องเพื่อให้พลังงานแก่ Colossus Supercomputer ซึ่งมี GPU Nvidia H100 มากกว่า 100,000 ตัว - เครื่องกำเนิดไฟฟ้าเหล่านี้สามารถผลิตพลังงานได้ถึง 420 MW ซึ่งเพียงพอสำหรับการจ่ายไฟให้กับเมือง ✅ ปัญหาด้านการอนุญาต: - xAI ได้รับอนุญาตให้ใช้เครื่องกำเนิดไฟฟ้าเพียง 15 เครื่อง แต่มีการใช้งานมากกว่านั้นโดยไม่มีการอนุมัติ - บริษัทใช้ช่องโหว่ทางกฎหมายที่อนุญาตให้เครื่องกำเนิดไฟฟ้าทำงานได้โดยไม่ต้องมีใบอนุญาต หากไม่ได้ติดตั้งในที่เดียวเกิน 364 วัน ✅ ผลกระทบต่อสิ่งแวดล้อม: - เครื่องกำเนิดไฟฟ้าก๊าซมีเทนเป็นแหล่งมลพิษที่สำคัญและละเมิดกฎคุณภาพอากาศของรัฐบาลกลาง - กลุ่ม Southern Environmental Law Center เรียกร้องให้หน่วยงานด้านสุขภาพในพื้นที่หยุดการดำเนินงานและปรับบริษัท $25,000 ต่อวัน ✅ การตอบสนองของชุมชน: - ชาวบ้านและกลุ่มสิ่งแวดล้อมในพื้นที่แสดงความกังวลเกี่ยวกับผลกระทบต่อสุขภาพและสิ่งแวดล้อม https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musks-xai-allegedly-powers-colossus-supercomputer-facility-using-illegal-generators
    WWW.TOMSHARDWARE.COM
    Elon Musk’s xAI allegedly uses illegal generators to power Colossus supercomputer facility
    A loophole enables the generators to be used for 364 days without a permit
    0 ความคิดเห็น 0 การแบ่งปัน 314 มุมมอง 0 รีวิว
  • AMD ได้แสดงศักยภาพครั้งยิ่งใหญ่ในโลกซูเปอร์คอมพิวเตอร์ โดยความสำเร็จนี้เกิดขึ้นใน Frontier Supercomputer ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลก ณ Oak Ridge National Laboratory (ORNL) ด้วยการใช้ ชิป AMD Instinct MI250X GPUs และโปรเซสเซอร์ AMD EPYC CPUs การจำลองการไหลของอากาศในเครื่องยนต์แก๊สเทอร์ไบน์ (CFD Simulation) ที่ก่อนหน้านี้ต้องใช้เวลาถึง 38.5 ชั่วโมง ได้ถูกลดลงเหลือเพียง 1.5 ชั่วโมง เท่านั้น

    ✅ การพัฒนาประสิทธิภาพระดับใหม่:
    - การใช้งาน 1,024 AMD Instinct MI250X accelerators และ EPYC CPUs ช่วยเร่งกระบวนการจำลอง 2.2 พันล้านเซลล์บนซูเปอร์คอมพิวเตอร์ Frontier ได้รวดเร็วกว่าเดิมถึง 25 เท่า
    - การลดเวลาในการจำลองช่วยให้บริษัทพลังงานอย่าง Baker Hughes สามารถปรับปรุงการออกแบบเครื่องยนต์ได้รวดเร็วขึ้น

    ✅ ศักยภาพอันมหาศาลของ Frontier:
    - Frontier เป็นซูเปอร์คอมพิวเตอร์ Exascale ตัวแรกของโลก ซึ่งหมายความว่ามีประสิทธิภาพที่สามารถประมวลผลได้ถึง 1 ExaFLOP (1 ล้านล้านล้านการคำนวณต่อวินาที)
    - Frontier มีฮาร์ดแวร์ระดับสูง เช่น 9,408 EPYC CPUs และ 37,632 MI250X GPUs ซึ่งยังคงมีศักยภาพให้ใช้งานมากกว่าที่ใช้ในงานวิจัยครั้งนี้

    ✅ การแสดงความโดดเด่นของ AMD:
    - แม้ว่า Nvidia จะครองตลาด GPU ในงาน AI แต่ AMD ยังแสดงให้เห็นถึงความสามารถในการแข่งขันในตลาดซูเปอร์คอมพิวเตอร์ ด้วยราคาที่คุ้มค่าและพลังการประมวลผลที่โดดเด่น
    - Brad McCredie รองประธานของ AMD กล่าวถึงการเปลี่ยนแปลงครั้งนี้ว่าเป็นก้าวสำคัญที่ทำให้วิศวกรรมระดับโลกเกิดนวัตกรรมในด้าน ความยั่งยืนและประสิทธิภาพ

    ✅ ความท้าทายด้านซอฟต์แวร์:
    - อย่างไรก็ตาม AMD ยังต้องพัฒนาในเรื่องของซอฟต์แวร์เพื่อแข่งขันกับ Nvidia ซึ่งยังคงได้เปรียบในด้านการรองรับซอฟต์แวร์ที่มีประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/supercomputers/amd-sets-new-supercomputer-record-runs-cfd-simulation-over-25x-faster-on-instinct-mi250x-gpus
    AMD ได้แสดงศักยภาพครั้งยิ่งใหญ่ในโลกซูเปอร์คอมพิวเตอร์ โดยความสำเร็จนี้เกิดขึ้นใน Frontier Supercomputer ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลก ณ Oak Ridge National Laboratory (ORNL) ด้วยการใช้ ชิป AMD Instinct MI250X GPUs และโปรเซสเซอร์ AMD EPYC CPUs การจำลองการไหลของอากาศในเครื่องยนต์แก๊สเทอร์ไบน์ (CFD Simulation) ที่ก่อนหน้านี้ต้องใช้เวลาถึง 38.5 ชั่วโมง ได้ถูกลดลงเหลือเพียง 1.5 ชั่วโมง เท่านั้น ✅ การพัฒนาประสิทธิภาพระดับใหม่: - การใช้งาน 1,024 AMD Instinct MI250X accelerators และ EPYC CPUs ช่วยเร่งกระบวนการจำลอง 2.2 พันล้านเซลล์บนซูเปอร์คอมพิวเตอร์ Frontier ได้รวดเร็วกว่าเดิมถึง 25 เท่า - การลดเวลาในการจำลองช่วยให้บริษัทพลังงานอย่าง Baker Hughes สามารถปรับปรุงการออกแบบเครื่องยนต์ได้รวดเร็วขึ้น ✅ ศักยภาพอันมหาศาลของ Frontier: - Frontier เป็นซูเปอร์คอมพิวเตอร์ Exascale ตัวแรกของโลก ซึ่งหมายความว่ามีประสิทธิภาพที่สามารถประมวลผลได้ถึง 1 ExaFLOP (1 ล้านล้านล้านการคำนวณต่อวินาที) - Frontier มีฮาร์ดแวร์ระดับสูง เช่น 9,408 EPYC CPUs และ 37,632 MI250X GPUs ซึ่งยังคงมีศักยภาพให้ใช้งานมากกว่าที่ใช้ในงานวิจัยครั้งนี้ ✅ การแสดงความโดดเด่นของ AMD: - แม้ว่า Nvidia จะครองตลาด GPU ในงาน AI แต่ AMD ยังแสดงให้เห็นถึงความสามารถในการแข่งขันในตลาดซูเปอร์คอมพิวเตอร์ ด้วยราคาที่คุ้มค่าและพลังการประมวลผลที่โดดเด่น - Brad McCredie รองประธานของ AMD กล่าวถึงการเปลี่ยนแปลงครั้งนี้ว่าเป็นก้าวสำคัญที่ทำให้วิศวกรรมระดับโลกเกิดนวัตกรรมในด้าน ความยั่งยืนและประสิทธิภาพ ✅ ความท้าทายด้านซอฟต์แวร์: - อย่างไรก็ตาม AMD ยังต้องพัฒนาในเรื่องของซอฟต์แวร์เพื่อแข่งขันกับ Nvidia ซึ่งยังคงได้เปรียบในด้านการรองรับซอฟต์แวร์ที่มีประสิทธิภาพ https://www.tomshardware.com/tech-industry/supercomputers/amd-sets-new-supercomputer-record-runs-cfd-simulation-over-25x-faster-on-instinct-mi250x-gpus
    WWW.TOMSHARDWARE.COM
    AMD sets new supercomputer record, runs CFD simulation over 25x faster on Instinct MI250X GPUs
    CFD simulation is cut down from almost 40 hours to less than two using 1,024 Instinct MI250X accelerators paired with Epyc CPUs.
    0 ความคิดเห็น 0 การแบ่งปัน 279 มุมมอง 0 รีวิว
  • นักวิจัยจาก MIT กำลังปฏิวัติวงการควอนตัมคอมพิวเตอร์ด้วยการพัฒนาอุปกรณ์ที่ช่วยให้ ชิปควอนตัมสามารถสื่อสารกันได้โดยไม่ต้องใช้การเชื่อมต่อทางกายภาพ เทคนิคใหม่นี้นับเป็นความก้าวหน้าสำคัญในโลกควอนตัม โดยมีเป้าหมายเพื่อแก้ไขปัญหาใหญ่ของการแบ่งปันข้อมูลระหว่างหน่วยประมวลผลในระบบควอนตัมคอมพิวเตอร์

    == หัวใจของเทคโนโลยีนี้ ==
    ✅ การใช้ Microwave Photons เป็นตัวกลาง
    - ระบบใหม่ใช้ คลื่นไมโครเวฟ (Microwave Photons) ในการส่งข้อมูลระหว่างชิปควอนตัมโดยตรง
    - ด้วยการสร้าง waveguide ซึ่งเป็นสายไฟแบบ superconducting ที่ทำหน้าที่เหมือนถนนควอนตัม ช่วยให้ชิปสื่อสารกันได้โดยไม่มี "ตัวกลาง"

    ✅ กระบวนการสร้าง Remote Entanglement
    - Remote Entanglement เป็นหลักการทางควอนตัมที่ช่วยให้สองชิปสามารถสร้างความสัมพันธ์เชิงควอนตัมแบบเรียลไทม์ โดยไม่ต้องเชื่อมต่อกัน
    - วิธีการใหม่ทำให้การส่งและรับโฟตอนเกิดขึ้นได้ในสถานะ “ครึ่งหนึ่ง” ซึ่งโฟตอนอยู่ในสถานะที่ปล่อยและเก็บไว้พร้อมกัน

    ✅ การปรับรูปทรงโฟตอนเพื่อประสิทธิภาพสูงสุด
    - การเดินทางของโฟตอนผ่าน waveguide อาจเกิดความผิดเพี้ยน นักวิจัยจึงใช้ อัลกอริทึมเพื่อปรับแต่งรูปร่างของโฟตอน ส่งผลให้อัตราความสำเร็จในการสร้าง Entanglement สูงถึง 60%

    == ผลกระทบต่อโลกควอนตัมและเทคโนโลยีในอนาคต ==
    ✅ เปิดประตูสู่ Quantum Supercomputer ขนาดใหญ่
    - ระบบใหม่รองรับ “All-to-All Connectivity” ซึ่งช่วยให้หน่วยประมวลผลทุกชิปสามารถสื่อสารกันได้โดยตรง
    - อนาคตอาจมีการพัฒนาเทคโนโลยีเพิ่มเติม เช่น 3D Integration หรือ โปรโตคอลที่เร็วขึ้น เพื่อเพิ่มประสิทธิภาพ

    ✅ การสนับสนุนจากหน่วยงานสำคัญ
    - โครงการนี้ได้รับการสนับสนุนโดยหน่วยงานเช่น US Army Research Office, AWS Center for Quantum Computing และ US Air Force Office of Scientific Research

    ✅ ความสำคัญต่อ Quantum Internet
    - นอกจากการพัฒนา Quantum Computer ระบบใหม่นี้ยังสามารถขยายไปยัง Quantum Internet ซึ่งเป็นเครือข่ายที่เชื่อมโยงควอนตัมคอมพิวเตอร์ทั่วโลก

    https://www.techspot.com/news/107436-mit-showcases-quantum-chip-communication-without-physical-contact.html
    นักวิจัยจาก MIT กำลังปฏิวัติวงการควอนตัมคอมพิวเตอร์ด้วยการพัฒนาอุปกรณ์ที่ช่วยให้ ชิปควอนตัมสามารถสื่อสารกันได้โดยไม่ต้องใช้การเชื่อมต่อทางกายภาพ เทคนิคใหม่นี้นับเป็นความก้าวหน้าสำคัญในโลกควอนตัม โดยมีเป้าหมายเพื่อแก้ไขปัญหาใหญ่ของการแบ่งปันข้อมูลระหว่างหน่วยประมวลผลในระบบควอนตัมคอมพิวเตอร์ == หัวใจของเทคโนโลยีนี้ == ✅ การใช้ Microwave Photons เป็นตัวกลาง - ระบบใหม่ใช้ คลื่นไมโครเวฟ (Microwave Photons) ในการส่งข้อมูลระหว่างชิปควอนตัมโดยตรง - ด้วยการสร้าง waveguide ซึ่งเป็นสายไฟแบบ superconducting ที่ทำหน้าที่เหมือนถนนควอนตัม ช่วยให้ชิปสื่อสารกันได้โดยไม่มี "ตัวกลาง" ✅ กระบวนการสร้าง Remote Entanglement - Remote Entanglement เป็นหลักการทางควอนตัมที่ช่วยให้สองชิปสามารถสร้างความสัมพันธ์เชิงควอนตัมแบบเรียลไทม์ โดยไม่ต้องเชื่อมต่อกัน - วิธีการใหม่ทำให้การส่งและรับโฟตอนเกิดขึ้นได้ในสถานะ “ครึ่งหนึ่ง” ซึ่งโฟตอนอยู่ในสถานะที่ปล่อยและเก็บไว้พร้อมกัน ✅ การปรับรูปทรงโฟตอนเพื่อประสิทธิภาพสูงสุด - การเดินทางของโฟตอนผ่าน waveguide อาจเกิดความผิดเพี้ยน นักวิจัยจึงใช้ อัลกอริทึมเพื่อปรับแต่งรูปร่างของโฟตอน ส่งผลให้อัตราความสำเร็จในการสร้าง Entanglement สูงถึง 60% == ผลกระทบต่อโลกควอนตัมและเทคโนโลยีในอนาคต == ✅ เปิดประตูสู่ Quantum Supercomputer ขนาดใหญ่ - ระบบใหม่รองรับ “All-to-All Connectivity” ซึ่งช่วยให้หน่วยประมวลผลทุกชิปสามารถสื่อสารกันได้โดยตรง - อนาคตอาจมีการพัฒนาเทคโนโลยีเพิ่มเติม เช่น 3D Integration หรือ โปรโตคอลที่เร็วขึ้น เพื่อเพิ่มประสิทธิภาพ ✅ การสนับสนุนจากหน่วยงานสำคัญ - โครงการนี้ได้รับการสนับสนุนโดยหน่วยงานเช่น US Army Research Office, AWS Center for Quantum Computing และ US Air Force Office of Scientific Research ✅ ความสำคัญต่อ Quantum Internet - นอกจากการพัฒนา Quantum Computer ระบบใหม่นี้ยังสามารถขยายไปยัง Quantum Internet ซึ่งเป็นเครือข่ายที่เชื่อมโยงควอนตัมคอมพิวเตอร์ทั่วโลก https://www.techspot.com/news/107436-mit-showcases-quantum-chip-communication-without-physical-contact.html
    WWW.TECHSPOT.COM
    MIT showcases quantum chip communication without physical contact
    Current quantum-computing systems rely on clunky "point-to-point" connections, where data is transferred in a chain and has to jump between nodes. Unfortunately, each hop also increases the...
    0 ความคิดเห็น 0 การแบ่งปัน 326 มุมมอง 1 รีวิว
  • Google ร่วมมือกับ MediaTek เพื่อพัฒนา TPU รุ่นใหม่ที่มีต้นทุนต่ำลงและประสิทธิภาพสูงขึ้น โดย Google จะออกแบบตัวชิป ส่วน MediaTek จะดูแลระบบ I/O เพื่อเชื่อมต่อกับอุปกรณ์ ส่งผลให้ Google ลดการพึ่งพา Broadcom ในด้าน AI Hardware นักวิเคราะห์คาดว่า TPU รุ่นใหม่อาจช่วยเร่งการพัฒนาโมเดล AI ขนาดใหญ่ และทำให้ ต้นทุนการประมวลผล AI ถูกลงกว่าเดิม

    ✅ Google ลดการพึ่งพา Broadcom ในการพัฒนา AI Hardware
    - TPU รุ่นก่อนหน้าของ Google พึ่งพา Broadcom ในการพัฒนาแกนหลัก
    - แต่ครั้งนี้ Google เป็นผู้นำด้านการออกแบบ ขณะที่ MediaTek จะดูแลโมดูล I/O

    ✅ TPU รุ่นใหม่มุ่งเน้นประสิทธิภาพและความประหยัดพลังงาน
    - คาดว่า จะช่วยลดต้นทุนการประมวลผล AI สำหรับคลาวด์และบริการภายในของ Google
    - ออกแบบมาเพื่อ รองรับการฝึกโมเดลขนาดใหญ่ (LLMs) ได้ดีขึ้น

    ✅ MediaTek ขยายอิทธิพลในตลาด AI Hardware
    - MediaTek ได้ร่วมมือในโครงการ AI Supercomputer และกำลังขยายธุรกิจด้าน ชิป AI อย่างต่อเนื่อง
    - การร่วมมือกับ Google จะช่วยให้ MediaTek แข่งขันกับผู้ผลิตชิประดับโลก เช่น Nvidia และ Broadcom

    ✅ อนาคตของ TPU ใหม่—อาจส่งผลต่อการพัฒนา AI Model ระดับโลก
    - หากโครงการนี้สำเร็จ Google อาจสร้าง ระบบ AI ที่มีประสิทธิภาพสูงขึ้น โดยใช้ต้นทุนที่ต่ำลง
    - นักวิเคราะห์ชี้ว่า จะมีผลต่ออุตสาหกรรม AI ในวงกว้าง รวมถึงการพัฒนา Large Language Models (LLMs)

    https://www.techradar.com/pro/after-nvidia-mediatek-may-have-convinced-another-huge-tech-company-to-use-its-expertise-to-develop-ai-chips
    Google ร่วมมือกับ MediaTek เพื่อพัฒนา TPU รุ่นใหม่ที่มีต้นทุนต่ำลงและประสิทธิภาพสูงขึ้น โดย Google จะออกแบบตัวชิป ส่วน MediaTek จะดูแลระบบ I/O เพื่อเชื่อมต่อกับอุปกรณ์ ส่งผลให้ Google ลดการพึ่งพา Broadcom ในด้าน AI Hardware นักวิเคราะห์คาดว่า TPU รุ่นใหม่อาจช่วยเร่งการพัฒนาโมเดล AI ขนาดใหญ่ และทำให้ ต้นทุนการประมวลผล AI ถูกลงกว่าเดิม ✅ Google ลดการพึ่งพา Broadcom ในการพัฒนา AI Hardware - TPU รุ่นก่อนหน้าของ Google พึ่งพา Broadcom ในการพัฒนาแกนหลัก - แต่ครั้งนี้ Google เป็นผู้นำด้านการออกแบบ ขณะที่ MediaTek จะดูแลโมดูล I/O ✅ TPU รุ่นใหม่มุ่งเน้นประสิทธิภาพและความประหยัดพลังงาน - คาดว่า จะช่วยลดต้นทุนการประมวลผล AI สำหรับคลาวด์และบริการภายในของ Google - ออกแบบมาเพื่อ รองรับการฝึกโมเดลขนาดใหญ่ (LLMs) ได้ดีขึ้น ✅ MediaTek ขยายอิทธิพลในตลาด AI Hardware - MediaTek ได้ร่วมมือในโครงการ AI Supercomputer และกำลังขยายธุรกิจด้าน ชิป AI อย่างต่อเนื่อง - การร่วมมือกับ Google จะช่วยให้ MediaTek แข่งขันกับผู้ผลิตชิประดับโลก เช่น Nvidia และ Broadcom ✅ อนาคตของ TPU ใหม่—อาจส่งผลต่อการพัฒนา AI Model ระดับโลก - หากโครงการนี้สำเร็จ Google อาจสร้าง ระบบ AI ที่มีประสิทธิภาพสูงขึ้น โดยใช้ต้นทุนที่ต่ำลง - นักวิเคราะห์ชี้ว่า จะมีผลต่ออุตสาหกรรม AI ในวงกว้าง รวมถึงการพัฒนา Large Language Models (LLMs) https://www.techradar.com/pro/after-nvidia-mediatek-may-have-convinced-another-huge-tech-company-to-use-its-expertise-to-develop-ai-chips
    0 ความคิดเห็น 0 การแบ่งปัน 272 มุมมอง 0 รีวิว
  • มีการศึกษาล่าสุดของนักวิจัยที่ใช้ซูเปอร์คอมพิวเตอร์ของ NASA เพื่อสร้างแบบจำลองใหม่ของ Oort Cloud ซึ่งอยู่ไกลออกไปจากวงโคจรของดาวพลูโต Oort Cloud เป็นพื้นที่ที่เต็มไปด้วยวัตถุที่เป็นน้ำแข็งซึ่งโคจรรอบดวงอาทิตย์ และเป็นที่มาของดาวหางระยะยาวที่บางครั้งจะพุ่งเข้าสู่ระบบสุริยะของเรา

    Oort Cloud เริ่มต้นที่ระยะประมาณ 2,000 ถึง 5,000 หน่วยดาราศาสตร์ (AU) จากดวงอาทิตย์ โดย 1 AU คือระยะทางเฉลี่ยระหว่างโลกและดวงอาทิตย์ ขอบเขตด้านนอกของ Oort Cloud ยาวถึง 10,000 ถึง 100,000 AU ซึ่งอยู่ไกลเกินกว่าที่เราจะเห็นได้ แต่สามารถอนุมานได้จากดาวหางที่มาจากพื้นที่นี้

    จนถึงขณะนี้ นักวิทยาศาสตร์รู้ว่า Oort Cloud มีอยู่จริงแต่ไม่เข้าใจรูปร่างของมันมากนัก อย่างไรก็ตาม นักวิจัยจาก Southwest Research Institute และ American Museum of Natural History ได้เสนอว่าโครงสร้างภายในของ Oort Cloud อาจเป็น เกลียว คล้ายกับกาแล็กซีขนาดจิ๋ว

    นักวิจัยได้ศึกษาปรากฏการณ์ที่เรียกว่า "galactic tide" ซึ่งเป็นผลรวมของแรงดึงดูดจากดาวฤกษ์ หลุมดำ และมวลรวมอื่น ๆ ภายในกาแล็กซี่ทางช้างเผือก สำหรับวัตถุที่อยู่ใกล้ดวงอาทิตย์ แรงเหล่านี้ไม่สำคัญเท่าแรงดึงดูดของดวงอาทิตย์ แต่ใน Oort Cloud แรงเหล่านี้กลายเป็นปัจจัยหลัก

    โดยใช้ซูเปอร์คอมพิวเตอร์ Pleiades ของ NASA ทีมวิจัยได้รันการจำลองที่รวม galactic tide และผลกระทบอื่น ๆ เป็นเวลาหลายพันล้านปี ผลลัพธ์แสดงให้เห็นว่า Oort Cloud มีโครงสร้างเป็นแผ่นเกลียวขนาดประมาณ 15,000 AU โดยมีเกลียวสองเส้น ซึ่งทำให้ Oort Cloud ดูเหมือนกับกาแล็กซีขนาดเล็กและแปลกจากรูปแบบที่เคยเห็นในโมเดลส่วนใหญ่ในปัจจุบัน

    สาเหตุของการเกิดเกลียวนี้มาจากปรากฏการณ์ที่เรียกว่า Kozai-Lidov effect ซึ่งเป็นปรากฏการณ์แรงดึงดูดที่ทำให้เกิดการสั่นไหวระยะยาวในวงโคจรของวัตถุใน Oort Cloud ในขณะที่แรงดึงดูดจากดาวเคราะห์ในระบบสุริยะของเรามีผลกระทบน้อยมาก

    การจับภาพเพื่อยืนยันโครงสร้างนี้เป็นความท้าทายใหญ่ วิธีหนึ่งที่อาจใช้ได้คือการติดตามวัตถุใน Oort Cloud จำนวนมากในระยะยาว อีกวิธีหนึ่งคือการตรวจจับแสงที่มองเห็นร่วมกันของพวกมันในขณะที่กรองแสงจากแหล่งอื่นออกไป แต่น่าเสียดายว่าทั้งสองวิธีนี้ยังไม่มีการลงทุนที่เพียงพอ

    https://www.techspot.com/news/106898-nasa-supercomputer-suggests-oort-cloud-may-spiral-like.html
    มีการศึกษาล่าสุดของนักวิจัยที่ใช้ซูเปอร์คอมพิวเตอร์ของ NASA เพื่อสร้างแบบจำลองใหม่ของ Oort Cloud ซึ่งอยู่ไกลออกไปจากวงโคจรของดาวพลูโต Oort Cloud เป็นพื้นที่ที่เต็มไปด้วยวัตถุที่เป็นน้ำแข็งซึ่งโคจรรอบดวงอาทิตย์ และเป็นที่มาของดาวหางระยะยาวที่บางครั้งจะพุ่งเข้าสู่ระบบสุริยะของเรา Oort Cloud เริ่มต้นที่ระยะประมาณ 2,000 ถึง 5,000 หน่วยดาราศาสตร์ (AU) จากดวงอาทิตย์ โดย 1 AU คือระยะทางเฉลี่ยระหว่างโลกและดวงอาทิตย์ ขอบเขตด้านนอกของ Oort Cloud ยาวถึง 10,000 ถึง 100,000 AU ซึ่งอยู่ไกลเกินกว่าที่เราจะเห็นได้ แต่สามารถอนุมานได้จากดาวหางที่มาจากพื้นที่นี้ จนถึงขณะนี้ นักวิทยาศาสตร์รู้ว่า Oort Cloud มีอยู่จริงแต่ไม่เข้าใจรูปร่างของมันมากนัก อย่างไรก็ตาม นักวิจัยจาก Southwest Research Institute และ American Museum of Natural History ได้เสนอว่าโครงสร้างภายในของ Oort Cloud อาจเป็น เกลียว คล้ายกับกาแล็กซีขนาดจิ๋ว นักวิจัยได้ศึกษาปรากฏการณ์ที่เรียกว่า "galactic tide" ซึ่งเป็นผลรวมของแรงดึงดูดจากดาวฤกษ์ หลุมดำ และมวลรวมอื่น ๆ ภายในกาแล็กซี่ทางช้างเผือก สำหรับวัตถุที่อยู่ใกล้ดวงอาทิตย์ แรงเหล่านี้ไม่สำคัญเท่าแรงดึงดูดของดวงอาทิตย์ แต่ใน Oort Cloud แรงเหล่านี้กลายเป็นปัจจัยหลัก โดยใช้ซูเปอร์คอมพิวเตอร์ Pleiades ของ NASA ทีมวิจัยได้รันการจำลองที่รวม galactic tide และผลกระทบอื่น ๆ เป็นเวลาหลายพันล้านปี ผลลัพธ์แสดงให้เห็นว่า Oort Cloud มีโครงสร้างเป็นแผ่นเกลียวขนาดประมาณ 15,000 AU โดยมีเกลียวสองเส้น ซึ่งทำให้ Oort Cloud ดูเหมือนกับกาแล็กซีขนาดเล็กและแปลกจากรูปแบบที่เคยเห็นในโมเดลส่วนใหญ่ในปัจจุบัน สาเหตุของการเกิดเกลียวนี้มาจากปรากฏการณ์ที่เรียกว่า Kozai-Lidov effect ซึ่งเป็นปรากฏการณ์แรงดึงดูดที่ทำให้เกิดการสั่นไหวระยะยาวในวงโคจรของวัตถุใน Oort Cloud ในขณะที่แรงดึงดูดจากดาวเคราะห์ในระบบสุริยะของเรามีผลกระทบน้อยมาก การจับภาพเพื่อยืนยันโครงสร้างนี้เป็นความท้าทายใหญ่ วิธีหนึ่งที่อาจใช้ได้คือการติดตามวัตถุใน Oort Cloud จำนวนมากในระยะยาว อีกวิธีหนึ่งคือการตรวจจับแสงที่มองเห็นร่วมกันของพวกมันในขณะที่กรองแสงจากแหล่งอื่นออกไป แต่น่าเสียดายว่าทั้งสองวิธีนี้ยังไม่มีการลงทุนที่เพียงพอ https://www.techspot.com/news/106898-nasa-supercomputer-suggests-oort-cloud-may-spiral-like.html
    WWW.TECHSPOT.COM
    NASA supercomputer suggests the Oort Cloud may be a spiral, like a miniature galaxy
    The Oort Cloud begins roughly 2,000 – 5,000 astronomical units (AU) from the Sun, with 1 AU being the average distance between Earth and the Sun. Its...
    0 ความคิดเห็น 0 การแบ่งปัน 499 มุมมอง 0 รีวิว
  • บริษัท Dell กำลังจะทำสัญญากับบริษัท xAI ของ Elon Musk เพื่อส่งมอบเซิร์ฟเวอร์ที่มีมูลค่าถึง $5 พันล้านเหรียญสหรัฐ เซิร์ฟเวอร์เหล่านี้จะใช้ชิป Nvidia GB200 ที่ออกแบบมาเพื่อรองรับการประมวลผลทางด้านปัญญาประดิษฐ์ (AI)

    ข้อตกลงนี้คาดว่าจะเป็นส่วนหนึ่งของโครงการ Memphis supercomputer ของ xAI ซึ่งกำลังสร้างขึ้นในเมืองเมมฟิส โดยใช้เซิร์ฟเวอร์จาก Dell และ Supermicro บางส่วน รายงานบอกว่าข้อตกลงนี้ยังอยู่ในขั้นตอนการเจรจาบางส่วน แต่คาดว่าจะสามารถส่งมอบเซิร์ฟเวอร์ได้ในปลายปี 2025

    Elon Musk เคยกล่าวไว้ว่า "การจะสามารถแข่งขันในด้าน AI ได้นั้นต้องใช้เงินหลายพันล้านเหรียญต่อปี" และครั้งนี้เขาได้แสดงให้เห็นถึงการทุ่มทุนในโครงการที่เกี่ยวข้องกับ AI อย่างจริงจัง

    นอกจากนี้ Dell ยังคาดการณ์ว่ารายได้จากเซิร์ฟเวอร์ AI ของบริษัทจะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐ ในปีงบประมาณ 2026 การชนะข้อตกลงนี้จะทำให้ Dell สามารถยกระดับสถานะของตนในตลาดเซิร์ฟเวอร์ที่รองรับ AI ได้อย่างชัดเจน

    ก่อนหน้านี้ HPE ได้รับสัญญามูลค่า $1 พันล้านเหรียญสหรัฐจาก xAI เพื่อส่งมอบเซิร์ฟเวอร์ที่ออกแบบมาเฉพาะสำหรับการทำงาน AI ซึ่งแสดงถึงการแข่งขันที่รุนแรงในตลาดนี้ การที่ Dell สามารถเข้ามาแย่งข้อตกลงจากคู่แข่งยิ่งทำให้เห็นว่า Dell มีความตั้งใจที่จะขยายตลาดนี้อย่างจริงจัง

    นักวิเคราะห์คาดว่า Dell จะส่งมอบเซิร์ฟเวอร์ AI มูลค่ามากกว่า $10 พันล้านเหรียญสหรัฐในปีงบประมาณที่ผ่านมา และมูลค่านี้จะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐในปี 2026 การทำสัญญากับ xAI ครั้งนี้จะช่วยยกระดับสถานะของ Dell ในตลาด AI และเพิ่มยอดขายให้กับบริษัทอย่างชัดเจน ซึ่งนักวิเคราะห์ Woo Jin Ho ของ Bloomberg Intelligence ระบุว่าจะ "ทำให้บริษัทกลายเป็นผู้นำด้านเซิร์ฟเวอร์ AI อย่างมั่นคง"

    https://www.techradar.com/pro/xai-could-sign-a-usd5-billion-deal-with-dell-for-thousands-of-servers-with-nvidias-gb200-blackwell-ai-gpu-accelerators
    บริษัท Dell กำลังจะทำสัญญากับบริษัท xAI ของ Elon Musk เพื่อส่งมอบเซิร์ฟเวอร์ที่มีมูลค่าถึง $5 พันล้านเหรียญสหรัฐ เซิร์ฟเวอร์เหล่านี้จะใช้ชิป Nvidia GB200 ที่ออกแบบมาเพื่อรองรับการประมวลผลทางด้านปัญญาประดิษฐ์ (AI) ข้อตกลงนี้คาดว่าจะเป็นส่วนหนึ่งของโครงการ Memphis supercomputer ของ xAI ซึ่งกำลังสร้างขึ้นในเมืองเมมฟิส โดยใช้เซิร์ฟเวอร์จาก Dell และ Supermicro บางส่วน รายงานบอกว่าข้อตกลงนี้ยังอยู่ในขั้นตอนการเจรจาบางส่วน แต่คาดว่าจะสามารถส่งมอบเซิร์ฟเวอร์ได้ในปลายปี 2025 Elon Musk เคยกล่าวไว้ว่า "การจะสามารถแข่งขันในด้าน AI ได้นั้นต้องใช้เงินหลายพันล้านเหรียญต่อปี" และครั้งนี้เขาได้แสดงให้เห็นถึงการทุ่มทุนในโครงการที่เกี่ยวข้องกับ AI อย่างจริงจัง นอกจากนี้ Dell ยังคาดการณ์ว่ารายได้จากเซิร์ฟเวอร์ AI ของบริษัทจะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐ ในปีงบประมาณ 2026 การชนะข้อตกลงนี้จะทำให้ Dell สามารถยกระดับสถานะของตนในตลาดเซิร์ฟเวอร์ที่รองรับ AI ได้อย่างชัดเจน ก่อนหน้านี้ HPE ได้รับสัญญามูลค่า $1 พันล้านเหรียญสหรัฐจาก xAI เพื่อส่งมอบเซิร์ฟเวอร์ที่ออกแบบมาเฉพาะสำหรับการทำงาน AI ซึ่งแสดงถึงการแข่งขันที่รุนแรงในตลาดนี้ การที่ Dell สามารถเข้ามาแย่งข้อตกลงจากคู่แข่งยิ่งทำให้เห็นว่า Dell มีความตั้งใจที่จะขยายตลาดนี้อย่างจริงจัง นักวิเคราะห์คาดว่า Dell จะส่งมอบเซิร์ฟเวอร์ AI มูลค่ามากกว่า $10 พันล้านเหรียญสหรัฐในปีงบประมาณที่ผ่านมา และมูลค่านี้จะเพิ่มขึ้นเป็น $14 พันล้านเหรียญสหรัฐในปี 2026 การทำสัญญากับ xAI ครั้งนี้จะช่วยยกระดับสถานะของ Dell ในตลาด AI และเพิ่มยอดขายให้กับบริษัทอย่างชัดเจน ซึ่งนักวิเคราะห์ Woo Jin Ho ของ Bloomberg Intelligence ระบุว่าจะ "ทำให้บริษัทกลายเป็นผู้นำด้านเซิร์ฟเวอร์ AI อย่างมั่นคง" https://www.techradar.com/pro/xai-could-sign-a-usd5-billion-deal-with-dell-for-thousands-of-servers-with-nvidias-gb200-blackwell-ai-gpu-accelerators
    WWW.TECHRADAR.COM
    Dell's deal with Grok's mothership set to be confirmed according to business reports
    The order is expected to form part of xAI's Memphis supercomputer project
    0 ความคิดเห็น 0 การแบ่งปัน 303 มุมมอง 0 รีวิว
  • บริษัท Gigabyte ได้เปิดโอกาสให้บุคคลหรือองค์กรที่มีความคิดสร้างสรรค์และมีโครงการที่น่าสนใจ สามารถทดสอบซูเปอร์คอมพิวเตอร์รุ่น G383-R80 ที่ใช้โปรเซสเซอร์ AMD MI300A ได้ฟรีเป็นเวลา 7 วัน ซูเปอร์คอมพิวเตอร์นี้มีมูลค่าถึง $304,207 หรือประมาณ 10,000,000 บาท และถูกออกแบบมาเพื่อรองรับงานที่ต้องการประสิทธิภาพสูง เช่น การฝึก AI, การทำนายข้อมูลด้วย AI, และการประมวลผลความเร็วสูง

    เพื่อเข้าร่วมทดสอบ ผู้สมัครต้องกรอกแบบฟอร์มบนเว็บไซต์ Gigabyte Launchpad และโครงการที่เสนอต้องมีความเป็นไปได้เชิงพาณิชย์หรือมีความคิดสร้างสรรค์ที่น่าสนใจ ทางบริษัทจะพิจารณาใบสมัครและแจ้งผลให้ผู้สมัครทราบภายในสามวันทำการ โดยระยะเวลาการทดสอบสามารถขยายได้ถึงสองสัปดาห์ผ่านการติดต่อกับตัวแทนขาย

    ซูเปอร์คอมพิวเตอร์รุ่นนี้มีคุณสมบัติที่ยอดเยี่ยม เช่น การรองรับโปรเซสเซอร์ AMD MI300A APUs ซึ่งรวมทั้ง CPU และ GPU ไว้ด้วยกันเพื่อการประมวลผลที่รวดเร็ว นอกจากนี้ ยังมีหน่วยเก็บข้อมูลแบบ NVMe ที่รองรับความจุถึง 61.44TB และการเชื่อมต่ออินเทอร์เน็ตความเร็วสูง 10Gb/s Ethernet

    https://www.techradar.com/pro/want-to-rent-a-usd300-000-amd-mi300a-supercomputer-for-free-for-seven-days-gigabyte-wants-to-hear-from-you-asap
    บริษัท Gigabyte ได้เปิดโอกาสให้บุคคลหรือองค์กรที่มีความคิดสร้างสรรค์และมีโครงการที่น่าสนใจ สามารถทดสอบซูเปอร์คอมพิวเตอร์รุ่น G383-R80 ที่ใช้โปรเซสเซอร์ AMD MI300A ได้ฟรีเป็นเวลา 7 วัน ซูเปอร์คอมพิวเตอร์นี้มีมูลค่าถึง $304,207 หรือประมาณ 10,000,000 บาท และถูกออกแบบมาเพื่อรองรับงานที่ต้องการประสิทธิภาพสูง เช่น การฝึก AI, การทำนายข้อมูลด้วย AI, และการประมวลผลความเร็วสูง เพื่อเข้าร่วมทดสอบ ผู้สมัครต้องกรอกแบบฟอร์มบนเว็บไซต์ Gigabyte Launchpad และโครงการที่เสนอต้องมีความเป็นไปได้เชิงพาณิชย์หรือมีความคิดสร้างสรรค์ที่น่าสนใจ ทางบริษัทจะพิจารณาใบสมัครและแจ้งผลให้ผู้สมัครทราบภายในสามวันทำการ โดยระยะเวลาการทดสอบสามารถขยายได้ถึงสองสัปดาห์ผ่านการติดต่อกับตัวแทนขาย ซูเปอร์คอมพิวเตอร์รุ่นนี้มีคุณสมบัติที่ยอดเยี่ยม เช่น การรองรับโปรเซสเซอร์ AMD MI300A APUs ซึ่งรวมทั้ง CPU และ GPU ไว้ด้วยกันเพื่อการประมวลผลที่รวดเร็ว นอกจากนี้ ยังมีหน่วยเก็บข้อมูลแบบ NVMe ที่รองรับความจุถึง 61.44TB และการเชื่อมต่ออินเทอร์เน็ตความเร็วสูง 10Gb/s Ethernet https://www.techradar.com/pro/want-to-rent-a-usd300-000-amd-mi300a-supercomputer-for-free-for-seven-days-gigabyte-wants-to-hear-from-you-asap
    0 ความคิดเห็น 0 การแบ่งปัน 334 มุมมอง 0 รีวิว
  • ซูเปอร์คอมพิวเตอร์ Aurora ของ Argonne National Laboratory ได้เปิดให้บริการอย่างเป็นทางการแล้ว ซูเปอร์คอมพิวเตอร์นี้ถูกประกาศครั้งแรกในปี 2015 และเผชิญกับความล่าช้ามากมาย แต่ตอนนี้สามารถให้บริการได้มากกว่า 1 ExaFLOPS สำหรับการจำลองและ 11.6 ExaFLOPS สำหรับการประมวลผลปัญญาประดิษฐ์และการเรียนรู้ของเครื่อง

    Michael Papka ผู้อำนวยการ Argonne Leadership Computing Facility (ALCF) กล่าวว่า "เรารู้สึกตื่นเต้นที่ได้เปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์" และเสริมว่า "ผู้ใช้เริ่มแรกได้แสดงให้เราเห็นถึงศักยภาพอันมหาศาลของ Aurora เรารอคอยที่จะเห็นว่าชุมชนวิทยาศาสตร์จะใช้ระบบนี้ในการเปลี่ยนแปลงการวิจัยของพวกเขาอย่างไร"

    การเปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์ถือเป็นการยอมรับระบบอย่างเป็นทางการโดย ARNL ซึ่งเป็นก้าวสำคัญสำหรับเครื่องที่มีปัญหานี้ Aurora ถูกวางแผนไว้สำหรับปี 2018 แต่พลาดเป้าหมายเนื่องจากการตัดสินใจของ Intel ที่จะยกเลิกโปรเซสเซอร์ Xeon Phi หลังจากที่เครื่องถูกออกแบบใหม่ โครงการก็เผชิญกับความล่าช้าเพิ่มเติมเนื่องจากการล่าช้าของเทคโนโลยีการผลิต 7nm ของ Intel ทำให้วันที่เสร็จสมบูรณ์ถูกเลื่อนออกไปเป็นปี 2021 และอีกครั้งในปี 2023

    แม้ว่าอุปกรณ์จะถูกติดตั้งในเดือนมิถุนายน 2023 แต่ต้องใช้เวลาหลายเดือนกว่าระบบจะสามารถทำงานได้เต็มที่และบรรลุประสิทธิภาพระดับ exascale ซึ่งในที่สุดก็สำเร็จในเดือนพฤษภาคม 2024 แต่ระบบนี้ยังคงเปิดให้บริการเฉพาะนักวิจัยบางกลุ่มเท่านั้นเป็นเวลานานกว่าครึ่งปี

    Aurora ไม่ใช่ซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดสำหรับการจำลอง เนื่องจากประสิทธิภาพ FP64 ของมันเพียงแค่เกิน 1 ExaFLOPS แต่เป็นระบบที่ทรงพลังที่สุดสำหรับ AI เนื่องจากสามารถบรรลุ 11.6 ExaFLOPS ตามการทดสอบ HPL-MxP

    Rick Stevens ผู้อำนวยการห้องปฏิบัติการ Argonne กล่าวว่า "เป้าหมายใหญ่ของ Aurora คือการฝึกอบรมโมเดลภาษาขนาดใหญ่สำหรับวิทยาศาสตร์" และเสริมว่า "ด้วยโครงการ AuroraGPT เรากำลังสร้างโมเดลพื้นฐานที่เน้นวิทยาศาสตร์ที่สามารถสกัดความรู้จากหลายโดเมน ตั้งแต่ชีววิทยาถึงเคมี หนึ่งในเป้าหมายของ Aurora คือการช่วยให้นักวิจัยสร้างเครื่องมือ AI ใหม่ที่ช่วยให้พวกเขาก้าวหน้าได้เร็วเท่าที่พวกเขาคิด ไม่ใช่แค่เร็วเท่าที่การคำนวณของพวกเขา"

    โครงการวิจัยแรกๆ ที่ใช้ Aurora รวมถึงการจำลองระบบที่ซับซ้อน เช่น ระบบหมุนเวียนเลือดของมนุษย์ เครื่องปฏิกรณ์นิวเคลียร์ และการระเบิดของซูเปอร์โนวา ประสิทธิภาพที่ล้นหลามของเครื่องนี้ยังมีบทบาทสำคัญในการประมวลผลข้อมูลจากศูนย์วิจัยใหญ่ๆ เช่น Argonne's Advanced Photon Source (APS) และ CERN's Large Hadron Collider

    Aurora ประกอบด้วย 166 แร็ค แต่ละแร็คมี 64 เบลด รวมทั้งหมด 10,624 เบลด แต่ละเบลดมีโปรเซสเซอร์ Xeon Max สองตัวพร้อมหน่วยความจำ HBM2E ขนาด 64 GB และ GPU Intel Data Center Max 'Ponte Vecchio' หกตัว ทั้งหมดนี้ถูกทำความเย็นด้วยระบบระบายความร้อนด้วยของเหลวเฉพาะ

    Aurora มี CPU 21,248 ตัวพร้อมคอร์ x86 ประสิทธิภาพสูงกว่า 1.1 ล้านคอร์ หน่วยความจำ DDR5 ขนาด 19.9 PB และหน่วยความจำ HBM2E ขนาด 1.36 PB ที่เชื่อมต่อกับ CPU นอกจากนี้ยังมี GPU 63,744 ตัวที่ปรับแต่งสำหรับ AI และ HPC พร้อมหน่วยความจำ HBM2E ขนาด 8.16 PB Aurora ใช้โหนด 1,024 โหนดที่มีไดรฟ์โซลิดสเตตสำหรับการจัดเก็บข้อมูล รวมความจุทั้งหมด 220 PB และแบนด์วิดท์ 31 TB/s ระบบนี้ใช้สถาปัตยกรรมซูเปอร์คอมพิวเตอร์ Shasta ของ HPE พร้อมการเชื่อมต่อ Slingshot

    https://www.tomshardware.com/tech-industry/supercomputers/aurora-supercomputer-is-now-fully-operational-available-to-researchers
    ซูเปอร์คอมพิวเตอร์ Aurora ของ Argonne National Laboratory ได้เปิดให้บริการอย่างเป็นทางการแล้ว ซูเปอร์คอมพิวเตอร์นี้ถูกประกาศครั้งแรกในปี 2015 และเผชิญกับความล่าช้ามากมาย แต่ตอนนี้สามารถให้บริการได้มากกว่า 1 ExaFLOPS สำหรับการจำลองและ 11.6 ExaFLOPS สำหรับการประมวลผลปัญญาประดิษฐ์และการเรียนรู้ของเครื่อง Michael Papka ผู้อำนวยการ Argonne Leadership Computing Facility (ALCF) กล่าวว่า "เรารู้สึกตื่นเต้นที่ได้เปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์" และเสริมว่า "ผู้ใช้เริ่มแรกได้แสดงให้เราเห็นถึงศักยภาพอันมหาศาลของ Aurora เรารอคอยที่จะเห็นว่าชุมชนวิทยาศาสตร์จะใช้ระบบนี้ในการเปลี่ยนแปลงการวิจัยของพวกเขาอย่างไร" การเปิดตัว Aurora สำหรับการวิจัยทางวิทยาศาสตร์ถือเป็นการยอมรับระบบอย่างเป็นทางการโดย ARNL ซึ่งเป็นก้าวสำคัญสำหรับเครื่องที่มีปัญหานี้ Aurora ถูกวางแผนไว้สำหรับปี 2018 แต่พลาดเป้าหมายเนื่องจากการตัดสินใจของ Intel ที่จะยกเลิกโปรเซสเซอร์ Xeon Phi หลังจากที่เครื่องถูกออกแบบใหม่ โครงการก็เผชิญกับความล่าช้าเพิ่มเติมเนื่องจากการล่าช้าของเทคโนโลยีการผลิต 7nm ของ Intel ทำให้วันที่เสร็จสมบูรณ์ถูกเลื่อนออกไปเป็นปี 2021 และอีกครั้งในปี 2023 แม้ว่าอุปกรณ์จะถูกติดตั้งในเดือนมิถุนายน 2023 แต่ต้องใช้เวลาหลายเดือนกว่าระบบจะสามารถทำงานได้เต็มที่และบรรลุประสิทธิภาพระดับ exascale ซึ่งในที่สุดก็สำเร็จในเดือนพฤษภาคม 2024 แต่ระบบนี้ยังคงเปิดให้บริการเฉพาะนักวิจัยบางกลุ่มเท่านั้นเป็นเวลานานกว่าครึ่งปี Aurora ไม่ใช่ซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดสำหรับการจำลอง เนื่องจากประสิทธิภาพ FP64 ของมันเพียงแค่เกิน 1 ExaFLOPS แต่เป็นระบบที่ทรงพลังที่สุดสำหรับ AI เนื่องจากสามารถบรรลุ 11.6 ExaFLOPS ตามการทดสอบ HPL-MxP Rick Stevens ผู้อำนวยการห้องปฏิบัติการ Argonne กล่าวว่า "เป้าหมายใหญ่ของ Aurora คือการฝึกอบรมโมเดลภาษาขนาดใหญ่สำหรับวิทยาศาสตร์" และเสริมว่า "ด้วยโครงการ AuroraGPT เรากำลังสร้างโมเดลพื้นฐานที่เน้นวิทยาศาสตร์ที่สามารถสกัดความรู้จากหลายโดเมน ตั้งแต่ชีววิทยาถึงเคมี หนึ่งในเป้าหมายของ Aurora คือการช่วยให้นักวิจัยสร้างเครื่องมือ AI ใหม่ที่ช่วยให้พวกเขาก้าวหน้าได้เร็วเท่าที่พวกเขาคิด ไม่ใช่แค่เร็วเท่าที่การคำนวณของพวกเขา" โครงการวิจัยแรกๆ ที่ใช้ Aurora รวมถึงการจำลองระบบที่ซับซ้อน เช่น ระบบหมุนเวียนเลือดของมนุษย์ เครื่องปฏิกรณ์นิวเคลียร์ และการระเบิดของซูเปอร์โนวา ประสิทธิภาพที่ล้นหลามของเครื่องนี้ยังมีบทบาทสำคัญในการประมวลผลข้อมูลจากศูนย์วิจัยใหญ่ๆ เช่น Argonne's Advanced Photon Source (APS) และ CERN's Large Hadron Collider Aurora ประกอบด้วย 166 แร็ค แต่ละแร็คมี 64 เบลด รวมทั้งหมด 10,624 เบลด แต่ละเบลดมีโปรเซสเซอร์ Xeon Max สองตัวพร้อมหน่วยความจำ HBM2E ขนาด 64 GB และ GPU Intel Data Center Max 'Ponte Vecchio' หกตัว ทั้งหมดนี้ถูกทำความเย็นด้วยระบบระบายความร้อนด้วยของเหลวเฉพาะ Aurora มี CPU 21,248 ตัวพร้อมคอร์ x86 ประสิทธิภาพสูงกว่า 1.1 ล้านคอร์ หน่วยความจำ DDR5 ขนาด 19.9 PB และหน่วยความจำ HBM2E ขนาด 1.36 PB ที่เชื่อมต่อกับ CPU นอกจากนี้ยังมี GPU 63,744 ตัวที่ปรับแต่งสำหรับ AI และ HPC พร้อมหน่วยความจำ HBM2E ขนาด 8.16 PB Aurora ใช้โหนด 1,024 โหนดที่มีไดรฟ์โซลิดสเตตสำหรับการจัดเก็บข้อมูล รวมความจุทั้งหมด 220 PB และแบนด์วิดท์ 31 TB/s ระบบนี้ใช้สถาปัตยกรรมซูเปอร์คอมพิวเตอร์ Shasta ของ HPE พร้อมการเชื่อมต่อ Slingshot https://www.tomshardware.com/tech-industry/supercomputers/aurora-supercomputer-is-now-fully-operational-available-to-researchers
    0 ความคิดเห็น 0 การแบ่งปัน 628 มุมมอง 0 รีวิว
  • Supercomputer ทำนายผลยูฟ่าแชมเปียนส์ลีก (24/01/68)#news1 #ข่าวกีฬา #supercomputer #ยูฟ่าแชมเปียนส์ลีก
    Supercomputer ทำนายผลยูฟ่าแชมเปียนส์ลีก (24/01/68)#news1 #ข่าวกีฬา #supercomputer #ยูฟ่าแชมเปียนส์ลีก
    Like
    Love
    8
    0 ความคิดเห็น 0 การแบ่งปัน 1555 มุมมอง 54 0 รีวิว
  • เปิดตัวซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกชื่อ "El Capitan" ที่ห้องปฏิบัติการแห่งชาติ Lawrence Livermore (LLNL) ในแคลิฟอร์เนีย ซูเปอร์คอมพิวเตอร์นี้ถูกพัฒนามานานกว่าแปดปีและมีความสามารถในการประมวลผลสูงสุดถึง 2.746 exaFLOPS El Capitan ถูกออกแบบมาเพื่อรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์ของสหรัฐอเมริกาและใช้ในการวิจัยที่เป็นความลับ

    El Capitan ใช้พลังงานจากซีพียูและจีพียูมากกว่า 11 ล้านคอร์ที่รวมอยู่ในตัวเร่ง AMD Instinct MI300A กว่า 43,000 ตัว. ซูเปอร์คอมพิวเตอร์นี้สามารถทำการคำนวณได้ถึง 2.79 quintillion ครั้งต่อวินาที ซึ่งเป็นจำนวนที่มากจนถ้าคุณย้อนเวลากลับไป 2.79 quintillion วินาที คุณจะไปถึงกว่า 70 พันล้านปีก่อนการเกิดบิ๊กแบง

    นอกจากการรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์แล้ว El Capitan ยังถูกใช้ในการวิจัยด้านวิทยาศาสตร์วัสดุและฟิสิกส์ รวมถึงงานที่เกี่ยวข้องกับ AI และการเรียนรู้ของเครื่อง ซูเปอร์คอมพิวเตอร์นี้ถูกสร้างขึ้นด้วยงบประมาณประมาณ 600 ล้านดอลลาร์สหรัฐ และถูกคาดหวังว่าจะมีประสิทธิภาพมากกว่าซูเปอร์คอมพิวเตอร์ Sierra ที่ถูกใช้งานมาตั้งแต่ปี 2018 ถึง 18 เท่า

    น่าสนใจที่เห็นว่าเทคโนโลยีซูเปอร์คอมพิวเตอร์กำลังพัฒนาอย่างรวดเร็วและมีบทบาทสำคัญในการรักษาความปลอดภัยและการวิจัยทางวิทยาศาสตร์ การที่ El Capitan สามารถทำการคำนวณได้ในระดับที่สูงมากนี้อาจนำไปสู่การค้นพบใหม่ๆ ที่สำคัญในอนาคต

    https://www.techspot.com/news/106467-world-fastest-supercomputer-amd-powered-el-capitan-goes.html
    เปิดตัวซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกชื่อ "El Capitan" ที่ห้องปฏิบัติการแห่งชาติ Lawrence Livermore (LLNL) ในแคลิฟอร์เนีย ซูเปอร์คอมพิวเตอร์นี้ถูกพัฒนามานานกว่าแปดปีและมีความสามารถในการประมวลผลสูงสุดถึง 2.746 exaFLOPS El Capitan ถูกออกแบบมาเพื่อรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์ของสหรัฐอเมริกาและใช้ในการวิจัยที่เป็นความลับ El Capitan ใช้พลังงานจากซีพียูและจีพียูมากกว่า 11 ล้านคอร์ที่รวมอยู่ในตัวเร่ง AMD Instinct MI300A กว่า 43,000 ตัว. ซูเปอร์คอมพิวเตอร์นี้สามารถทำการคำนวณได้ถึง 2.79 quintillion ครั้งต่อวินาที ซึ่งเป็นจำนวนที่มากจนถ้าคุณย้อนเวลากลับไป 2.79 quintillion วินาที คุณจะไปถึงกว่า 70 พันล้านปีก่อนการเกิดบิ๊กแบง นอกจากการรักษาความปลอดภัยของคลังอาวุธนิวเคลียร์แล้ว El Capitan ยังถูกใช้ในการวิจัยด้านวิทยาศาสตร์วัสดุและฟิสิกส์ รวมถึงงานที่เกี่ยวข้องกับ AI และการเรียนรู้ของเครื่อง ซูเปอร์คอมพิวเตอร์นี้ถูกสร้างขึ้นด้วยงบประมาณประมาณ 600 ล้านดอลลาร์สหรัฐ และถูกคาดหวังว่าจะมีประสิทธิภาพมากกว่าซูเปอร์คอมพิวเตอร์ Sierra ที่ถูกใช้งานมาตั้งแต่ปี 2018 ถึง 18 เท่า น่าสนใจที่เห็นว่าเทคโนโลยีซูเปอร์คอมพิวเตอร์กำลังพัฒนาอย่างรวดเร็วและมีบทบาทสำคัญในการรักษาความปลอดภัยและการวิจัยทางวิทยาศาสตร์ การที่ El Capitan สามารถทำการคำนวณได้ในระดับที่สูงมากนี้อาจนำไปสู่การค้นพบใหม่ๆ ที่สำคัญในอนาคต https://www.techspot.com/news/106467-world-fastest-supercomputer-amd-powered-el-capitan-goes.html
    WWW.TECHSPOT.COM
    World's fastest supercomputer, "El Capitan," goes online to safeguard US nuclear weapons
    El Capitan can reach a peak performance of 2.746 exaFLOPS, making it the National Nuclear Security Administration's first exascale supercomputer. It's the world's third exascale machine after...
    0 ความคิดเห็น 0 การแบ่งปัน 346 มุมมอง 0 รีวิว
  • Nvidia ได้เปิดเผยว่า ซูเปอร์คอมพิวเตอร์ของบริษัทได้ทำการปรับปรุงเทคโนโลยี DLSS (Deep Learning Super Sampling) อย่างต่อเนื่องตลอด 6 ปีที่ผ่านมา DLSS เป็นเทคโนโลยีที่ช่วยเพิ่มคุณภาพของภาพและการอัพสเกลภาพในเกม โดยใช้การเรียนรู้เชิงลึก

    ตั้งแต่การเปิดตัวครั้งแรกในซีรีส์ GeForce 20, DLSS ได้รับการปรับปรุงอย่างต่อเนื่อง. ล่าสุด Nvidia ได้เปิดตัว DLSS 4 ที่งาน CES ซึ่งสัญญาว่าจะมีประสิทธิภาพที่ดีกว่ารุ่นก่อนหน้านี้อย่างมาก

    Bryan Catanzaro รองประธานฝ่ายวิจัยการเรียนรู้เชิงลึกประยุกต์ของ Nvidia กล่าวว่าซูเปอร์คอมพิวเตอร์ของบริษัทที่มี GPU หลายพันตัวทำงานตลอด 24 ชั่วโมงทุกวัน เพื่อปรับปรุง DLSS กระบวนการฝึกอบรมนี้เกี่ยวข้องกับการวิเคราะห์ความล้มเหลว เช่น การเกิดภาพเบลอหรือการกระพริบในเกม

    Nvidia อ้างว่า RTX 5070 ที่ใช้ DLSS 4 มีประสิทธิภาพเทียบเท่ากับ RTX 4090 นอกจากนี้ RTX 5090 ยังเร็วกว่า RTX 4090 ประมาณ 30% โดยไม่ใช้ DLSS และ RTX 5080 เร็วกว่า RTX 4080 ประมาณ 15%

    https://www.techspot.com/news/106368-supercomputer-nvidia-has-improving-dlss-non-stop-six.html
    Nvidia ได้เปิดเผยว่า ซูเปอร์คอมพิวเตอร์ของบริษัทได้ทำการปรับปรุงเทคโนโลยี DLSS (Deep Learning Super Sampling) อย่างต่อเนื่องตลอด 6 ปีที่ผ่านมา DLSS เป็นเทคโนโลยีที่ช่วยเพิ่มคุณภาพของภาพและการอัพสเกลภาพในเกม โดยใช้การเรียนรู้เชิงลึก ตั้งแต่การเปิดตัวครั้งแรกในซีรีส์ GeForce 20, DLSS ได้รับการปรับปรุงอย่างต่อเนื่อง. ล่าสุด Nvidia ได้เปิดตัว DLSS 4 ที่งาน CES ซึ่งสัญญาว่าจะมีประสิทธิภาพที่ดีกว่ารุ่นก่อนหน้านี้อย่างมาก Bryan Catanzaro รองประธานฝ่ายวิจัยการเรียนรู้เชิงลึกประยุกต์ของ Nvidia กล่าวว่าซูเปอร์คอมพิวเตอร์ของบริษัทที่มี GPU หลายพันตัวทำงานตลอด 24 ชั่วโมงทุกวัน เพื่อปรับปรุง DLSS กระบวนการฝึกอบรมนี้เกี่ยวข้องกับการวิเคราะห์ความล้มเหลว เช่น การเกิดภาพเบลอหรือการกระพริบในเกม Nvidia อ้างว่า RTX 5070 ที่ใช้ DLSS 4 มีประสิทธิภาพเทียบเท่ากับ RTX 4090 นอกจากนี้ RTX 5090 ยังเร็วกว่า RTX 4090 ประมาณ 30% โดยไม่ใช้ DLSS และ RTX 5080 เร็วกว่า RTX 4080 ประมาณ 15% https://www.techspot.com/news/106368-supercomputer-nvidia-has-improving-dlss-non-stop-six.html
    WWW.TECHSPOT.COM
    An Nvidia supercomputer has been improving DLSS non-stop for the past six years
    While discussing the tech at at the consumer electronics show, Nvidia's VP of applied deep learning research, Bryan Catanzaro, said improving DLSS has been a continuous, six-year...
    0 ความคิดเห็น 0 การแบ่งปัน 370 มุมมอง 0 รีวิว
Pages Boosts