• “ดีลชิป AI ระหว่างสหรัฐฯ–UAE ติดเบรกนาน 5 เดือน — Nvidia หงุดหงิด, เจ้าหน้าที่วอชิงตันกังวลเรื่องความมั่นคง”

    ดีลมูลค่าหลายพันล้านดอลลาร์ที่มีเป้าหมายส่งออกชิป AI ของ Nvidia ไปยังสหรัฐอาหรับเอมิเรตส์ (UAE) ซึ่งเคยถูกประกาศอย่างยิ่งใหญ่โดยประธานาธิบดีทรัมป์ในเดือนพฤษภาคม 2025 กลับติดอยู่ในภาวะ “ชะงักงัน” มานานกว่า 5 เดือน สร้างความไม่พอใจให้กับ Jensen Huang ซีอีโอของ Nvidia และเจ้าหน้าที่ระดับสูงในรัฐบาลสหรัฐฯ

    เดิมที UAE ให้คำมั่นว่าจะลงทุนในสหรัฐฯ เพื่อแลกกับการได้รับชิป AI จำนวนหลายแสนตัวต่อปี โดยเฉพาะรุ่น H100 และ H20 ที่ใช้ในการฝึกโมเดลขนาดใหญ่ แต่จนถึงตอนนี้ยังไม่มีการลงทุนใดเกิดขึ้น ทำให้กระทรวงพาณิชย์สหรัฐฯ โดยรัฐมนตรี Howard Lutnick ยืนยันว่าจะไม่อนุมัติการส่งออกชิปจนกว่า UAE จะดำเนินการลงทุนตามที่ตกลงไว้

    ความล่าช้านี้เกิดขึ้นท่ามกลางความกังวลเรื่องความมั่นคงระดับชาติ โดยเฉพาะความสัมพันธ์ของ UAE กับจีน และการที่บริษัท G42 ซึ่งเป็นผู้รับชิปโดยตรง มีความเกี่ยวข้องกับหน่วยข่าวกรองของรัฐและมีประวัติการลงทุนร่วมกับจีนในด้านเทคโนโลยี AI

    แม้จะมีแรงกดดันจาก Nvidia และผู้สนับสนุนดีลในทำเนียบขาว เช่น David Sacks ซึ่งมองว่าการชะลออาจเปิดช่องให้จีนเข้ามาแทนที่ แต่เจ้าหน้าที่ด้านความมั่นคงยังคงยืนกรานว่าต้องมีการตรวจสอบอย่างละเอียดก่อนอนุมัติการส่งออก โดยเฉพาะการป้องกันไม่ให้เทคโนโลยี AI ถูกนำไปใช้ในทางที่อาจกระทบต่อผลประโยชน์ของสหรัฐฯ

    ข้อมูลสำคัญจากข่าว
    ดีลส่งออกชิป AI ของ Nvidia ไปยัง UAE ติดค้างนานกว่า 5 เดือนหลังเซ็นสัญญา
    Jensen Huang ซีอีโอ Nvidia แสดงความไม่พอใจต่อความล่าช้า
    UAE เคยให้คำมั่นว่าจะลงทุนในสหรัฐฯ เพื่อแลกกับชิปหลายแสนตัวต่อปี
    กระทรวงพาณิชย์สหรัฐฯ ยังไม่อนุมัติการส่งออก เพราะ UAE ยังไม่ลงทุน
    รัฐมนตรี Howard Lutnick ยืนยันจะไม่ปล่อยชิปจนกว่าจะมีการลงทุนจริง
    บริษัท G42 ของ UAE เป็นผู้รับชิปโดยตรง และมีความเกี่ยวข้องกับหน่วยข่าวกรอง
    เจ้าหน้าที่ด้านความมั่นคงกังวลเรื่องการรั่วไหลของเทคโนโลยีไปยังจีน
    David Sacks สนับสนุนดีล โดยมองว่าเป็นโอกาสทางเศรษฐกิจที่ไม่ควรปล่อยให้จีนแย่ง

    ข้อมูลเสริมจากภายนอก
    G42 เป็นบริษัทที่มีบทบาทสำคัญในโครงการ AI ของรัฐ UAE และเคยร่วมมือกับจีนในด้าน cloud และ genomics
    ชิป H100 และ H20 ของ Nvidia เป็นหัวใจของการฝึกโมเดลขนาดใหญ่ เช่น GPT และ LLaMA
    การส่งออกเทคโนโลยี AI ถูกควบคุมอย่างเข้มงวดภายใต้กฎหมาย ITAR และ EAR ของสหรัฐฯ
    การลงทุนจากต่างประเทศในสหรัฐฯ ต้องผ่านการตรวจสอบจาก CFIUS เพื่อป้องกันความเสี่ยงด้านความมั่นคง
    จีนกำลังเร่งพัฒนา AI ด้วยชิปในประเทศ เช่น Ascend ของ Huawei และกำลังแย่งตลาดจาก Nvidia

    https://www.thestar.com.my/tech/tech-news/2025/10/03/delays-to-trump039s-uae-chips-deal-frustrate-nvidia039s-jensen-huang-officials-wsj-reports
    🇺🇸🤖 “ดีลชิป AI ระหว่างสหรัฐฯ–UAE ติดเบรกนาน 5 เดือน — Nvidia หงุดหงิด, เจ้าหน้าที่วอชิงตันกังวลเรื่องความมั่นคง” ดีลมูลค่าหลายพันล้านดอลลาร์ที่มีเป้าหมายส่งออกชิป AI ของ Nvidia ไปยังสหรัฐอาหรับเอมิเรตส์ (UAE) ซึ่งเคยถูกประกาศอย่างยิ่งใหญ่โดยประธานาธิบดีทรัมป์ในเดือนพฤษภาคม 2025 กลับติดอยู่ในภาวะ “ชะงักงัน” มานานกว่า 5 เดือน สร้างความไม่พอใจให้กับ Jensen Huang ซีอีโอของ Nvidia และเจ้าหน้าที่ระดับสูงในรัฐบาลสหรัฐฯ เดิมที UAE ให้คำมั่นว่าจะลงทุนในสหรัฐฯ เพื่อแลกกับการได้รับชิป AI จำนวนหลายแสนตัวต่อปี โดยเฉพาะรุ่น H100 และ H20 ที่ใช้ในการฝึกโมเดลขนาดใหญ่ แต่จนถึงตอนนี้ยังไม่มีการลงทุนใดเกิดขึ้น ทำให้กระทรวงพาณิชย์สหรัฐฯ โดยรัฐมนตรี Howard Lutnick ยืนยันว่าจะไม่อนุมัติการส่งออกชิปจนกว่า UAE จะดำเนินการลงทุนตามที่ตกลงไว้ ความล่าช้านี้เกิดขึ้นท่ามกลางความกังวลเรื่องความมั่นคงระดับชาติ โดยเฉพาะความสัมพันธ์ของ UAE กับจีน และการที่บริษัท G42 ซึ่งเป็นผู้รับชิปโดยตรง มีความเกี่ยวข้องกับหน่วยข่าวกรองของรัฐและมีประวัติการลงทุนร่วมกับจีนในด้านเทคโนโลยี AI แม้จะมีแรงกดดันจาก Nvidia และผู้สนับสนุนดีลในทำเนียบขาว เช่น David Sacks ซึ่งมองว่าการชะลออาจเปิดช่องให้จีนเข้ามาแทนที่ แต่เจ้าหน้าที่ด้านความมั่นคงยังคงยืนกรานว่าต้องมีการตรวจสอบอย่างละเอียดก่อนอนุมัติการส่งออก โดยเฉพาะการป้องกันไม่ให้เทคโนโลยี AI ถูกนำไปใช้ในทางที่อาจกระทบต่อผลประโยชน์ของสหรัฐฯ ✅ ข้อมูลสำคัญจากข่าว ➡️ ดีลส่งออกชิป AI ของ Nvidia ไปยัง UAE ติดค้างนานกว่า 5 เดือนหลังเซ็นสัญญา ➡️ Jensen Huang ซีอีโอ Nvidia แสดงความไม่พอใจต่อความล่าช้า ➡️ UAE เคยให้คำมั่นว่าจะลงทุนในสหรัฐฯ เพื่อแลกกับชิปหลายแสนตัวต่อปี ➡️ กระทรวงพาณิชย์สหรัฐฯ ยังไม่อนุมัติการส่งออก เพราะ UAE ยังไม่ลงทุน ➡️ รัฐมนตรี Howard Lutnick ยืนยันจะไม่ปล่อยชิปจนกว่าจะมีการลงทุนจริง ➡️ บริษัท G42 ของ UAE เป็นผู้รับชิปโดยตรง และมีความเกี่ยวข้องกับหน่วยข่าวกรอง ➡️ เจ้าหน้าที่ด้านความมั่นคงกังวลเรื่องการรั่วไหลของเทคโนโลยีไปยังจีน ➡️ David Sacks สนับสนุนดีล โดยมองว่าเป็นโอกาสทางเศรษฐกิจที่ไม่ควรปล่อยให้จีนแย่ง ✅ ข้อมูลเสริมจากภายนอก ➡️ G42 เป็นบริษัทที่มีบทบาทสำคัญในโครงการ AI ของรัฐ UAE และเคยร่วมมือกับจีนในด้าน cloud และ genomics ➡️ ชิป H100 และ H20 ของ Nvidia เป็นหัวใจของการฝึกโมเดลขนาดใหญ่ เช่น GPT และ LLaMA ➡️ การส่งออกเทคโนโลยี AI ถูกควบคุมอย่างเข้มงวดภายใต้กฎหมาย ITAR และ EAR ของสหรัฐฯ ➡️ การลงทุนจากต่างประเทศในสหรัฐฯ ต้องผ่านการตรวจสอบจาก CFIUS เพื่อป้องกันความเสี่ยงด้านความมั่นคง ➡️ จีนกำลังเร่งพัฒนา AI ด้วยชิปในประเทศ เช่น Ascend ของ Huawei และกำลังแย่งตลาดจาก Nvidia https://www.thestar.com.my/tech/tech-news/2025/10/03/delays-to-trump039s-uae-chips-deal-frustrate-nvidia039s-jensen-huang-officials-wsj-reports
    WWW.THESTAR.COM.MY
    Delays to Trump's UAE chips deal frustrate Nvidia's Jensen Huang, officials, WSJ reports
    (Reuters) -A multibillion-dollar deal to send Nvidia's artificial-intelligence chips to the United Arab Emirates is stuck in neutral nearly five months after it was signed, frustrating CEO Jensen Huang and some senior administration officials, the Wall Street Journal reported on Thursday.
    0 ความคิดเห็น 0 การแบ่งปัน 73 มุมมอง 0 รีวิว
  • “Orange Pi AI Studio Pro — มินิพีซีพลัง Huawei Ascend 310 ที่แรงทะลุ 352 TOPS แต่ยังติดข้อจำกัดด้านการเชื่อมต่อ”

    Orange Pi เปิดตัวมินิพีซีรุ่นใหม่สำหรับงานปัญญาประดิษฐ์โดยเฉพาะในชื่อ “AI Studio Pro” ซึ่งใช้ชิป Huawei Ascend 310 แบบ ARM octa-core ที่ให้พลังประมวลผลด้าน AI สูงถึง 176 TOPS ในรุ่นปกติ และ 352 TOPS ในรุ่น Pro ที่รวมสองเครื่องเข้าด้วยกัน พร้อมหน่วยความจำสูงสุดถึง 192GB LPDDR4X ความเร็ว 4266 Mbps2

    ตัวเครื่องออกแบบมาเพื่อรองรับงาน AI หลากหลาย เช่น การประมวลผลภาพ, การเรียนรู้เชิงลึก, การวิเคราะห์ข้อมูล, การใช้งาน IoT และระบบขนส่งอัจฉริยะ โดยสามารถติดตั้ง Ubuntu 22.04.5 และ Linux kernel 5.15 ได้ทันที ส่วน Windows จะรองรับในอนาคต3

    แม้จะมีพลังประมวลผลสูงและหน่วยความจำมหาศาล แต่ Orange Pi AI Studio Pro กลับมีข้อจำกัดด้านการเชื่อมต่ออย่างชัดเจน โดยมีเพียงพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ ไม่ว่าจะเป็นจอภาพ, อุปกรณ์เก็บข้อมูล หรืออุปกรณ์เสริมอื่น ๆ ทำให้ผู้ใช้ต้องพึ่งพา dock หรือ hub เพิ่มเติม

    นอกจากนี้ยังไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว ทำให้การเชื่อมต่อเครือข่ายอาจต้องใช้วิธีอื่น เช่น Ethernet หรืออุปกรณ์เสริมภายนอก ซึ่งอาจไม่สะดวกสำหรับการใช้งานแบบเคลื่อนที่หรือในพื้นที่จำกัด

    ราคาจำหน่ายในจีนเริ่มต้นที่ประมาณ $955 สำหรับรุ่น 48GB และสูงสุดถึง $2,200 สำหรับรุ่น Pro ที่มี RAM 192GB โดยมีวางจำหน่ายผ่าน JD.com และ AliExpress

    ข้อมูลสำคัญจากข่าว
    Orange Pi AI Studio Pro ใช้ชิป Huawei Ascend 310 แบบ ARM octa-core
    รุ่น Pro รวมสองเครื่องเข้าด้วยกัน ให้พลังประมวลผลสูงถึง 352 TOPS
    รองรับหน่วยความจำสูงสุด 192GB LPDDR4X ความเร็ว 4266 Mbps
    รองรับ Ubuntu 22.04.5 และ Linux kernel 5.15 พร้อมรองรับ Windows ในอนาคต
    เหมาะสำหรับงาน AI เช่น OCR, การรู้จำใบหน้า, การแนะนำเนื้อหา, IoT และระบบขนส่งอัจฉริยะ
    มีพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ
    ไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว
    ราคาจำหน่ายเริ่มต้นที่ $955 และสูงสุดถึง $2,200 ขึ้นอยู่กับรุ่นและ RAM

    ข้อมูลเสริมจากภายนอก
    Huawei Ascend 310 เป็นชิปที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีประสิทธิภาพสูงในงาน inference
    Orange Pi เป็นแบรนด์ที่เน้นการพัฒนาอุปกรณ์สำหรับนักพัฒนาและงานวิจัย
    การใช้ context window ขนาดใหญ่และ RAM สูงช่วยให้รองรับโมเดล AI ขนาดใหญ่ได้ดี
    การรองรับ Deepseek-R1 distillation model ช่วยให้สามารถ deploy โมเดล AI แบบ local ได้
    การรวมการฝึกและการ inference ในเครื่องเดียวช่วยลดต้นทุนและเพิ่มความคล่องตัวในการพัฒนา

    https://www.tomshardware.com/tech-industry/artificial-intelligence/orange-pi-ai-studio-pro-mini-pc-debuts-with-huawei-ascend-310-and-352-tops-of-ai-performance-also-features-up-to-192gb-of-memory-but-relies-on-a-single-usb-c-port
    🧠 “Orange Pi AI Studio Pro — มินิพีซีพลัง Huawei Ascend 310 ที่แรงทะลุ 352 TOPS แต่ยังติดข้อจำกัดด้านการเชื่อมต่อ” Orange Pi เปิดตัวมินิพีซีรุ่นใหม่สำหรับงานปัญญาประดิษฐ์โดยเฉพาะในชื่อ “AI Studio Pro” ซึ่งใช้ชิป Huawei Ascend 310 แบบ ARM octa-core ที่ให้พลังประมวลผลด้าน AI สูงถึง 176 TOPS ในรุ่นปกติ และ 352 TOPS ในรุ่น Pro ที่รวมสองเครื่องเข้าด้วยกัน พร้อมหน่วยความจำสูงสุดถึง 192GB LPDDR4X ความเร็ว 4266 Mbps2 ตัวเครื่องออกแบบมาเพื่อรองรับงาน AI หลากหลาย เช่น การประมวลผลภาพ, การเรียนรู้เชิงลึก, การวิเคราะห์ข้อมูล, การใช้งาน IoT และระบบขนส่งอัจฉริยะ โดยสามารถติดตั้ง Ubuntu 22.04.5 และ Linux kernel 5.15 ได้ทันที ส่วน Windows จะรองรับในอนาคต3 แม้จะมีพลังประมวลผลสูงและหน่วยความจำมหาศาล แต่ Orange Pi AI Studio Pro กลับมีข้อจำกัดด้านการเชื่อมต่ออย่างชัดเจน โดยมีเพียงพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ ไม่ว่าจะเป็นจอภาพ, อุปกรณ์เก็บข้อมูล หรืออุปกรณ์เสริมอื่น ๆ ทำให้ผู้ใช้ต้องพึ่งพา dock หรือ hub เพิ่มเติม นอกจากนี้ยังไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว ทำให้การเชื่อมต่อเครือข่ายอาจต้องใช้วิธีอื่น เช่น Ethernet หรืออุปกรณ์เสริมภายนอก ซึ่งอาจไม่สะดวกสำหรับการใช้งานแบบเคลื่อนที่หรือในพื้นที่จำกัด ราคาจำหน่ายในจีนเริ่มต้นที่ประมาณ $955 สำหรับรุ่น 48GB และสูงสุดถึง $2,200 สำหรับรุ่น Pro ที่มี RAM 192GB โดยมีวางจำหน่ายผ่าน JD.com และ AliExpress ✅ ข้อมูลสำคัญจากข่าว ➡️ Orange Pi AI Studio Pro ใช้ชิป Huawei Ascend 310 แบบ ARM octa-core ➡️ รุ่น Pro รวมสองเครื่องเข้าด้วยกัน ให้พลังประมวลผลสูงถึง 352 TOPS ➡️ รองรับหน่วยความจำสูงสุด 192GB LPDDR4X ความเร็ว 4266 Mbps ➡️ รองรับ Ubuntu 22.04.5 และ Linux kernel 5.15 พร้อมรองรับ Windows ในอนาคต ➡️ เหมาะสำหรับงาน AI เช่น OCR, การรู้จำใบหน้า, การแนะนำเนื้อหา, IoT และระบบขนส่งอัจฉริยะ ➡️ มีพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ ➡️ ไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว ➡️ ราคาจำหน่ายเริ่มต้นที่ $955 และสูงสุดถึง $2,200 ขึ้นอยู่กับรุ่นและ RAM ✅ ข้อมูลเสริมจากภายนอก ➡️ Huawei Ascend 310 เป็นชิปที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีประสิทธิภาพสูงในงาน inference ➡️ Orange Pi เป็นแบรนด์ที่เน้นการพัฒนาอุปกรณ์สำหรับนักพัฒนาและงานวิจัย ➡️ การใช้ context window ขนาดใหญ่และ RAM สูงช่วยให้รองรับโมเดล AI ขนาดใหญ่ได้ดี ➡️ การรองรับ Deepseek-R1 distillation model ช่วยให้สามารถ deploy โมเดล AI แบบ local ได้ ➡️ การรวมการฝึกและการ inference ในเครื่องเดียวช่วยลดต้นทุนและเพิ่มความคล่องตัวในการพัฒนา https://www.tomshardware.com/tech-industry/artificial-intelligence/orange-pi-ai-studio-pro-mini-pc-debuts-with-huawei-ascend-310-and-352-tops-of-ai-performance-also-features-up-to-192gb-of-memory-but-relies-on-a-single-usb-c-port
    0 ความคิดเห็น 0 การแบ่งปัน 134 มุมมอง 0 รีวิว
  • “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ”

    DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม

    จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ

    นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน

    แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง

    ข้อมูลสำคัญจากข่าว
    DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face
    เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท
    ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว
    ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า
    ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI
    ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง
    โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License
    มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง
    เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด

    ข้อมูลเสริมจากภายนอก
    Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ
    Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล
    การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง
    DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง
    ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ

    https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    🧠 “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ” DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง ✅ ข้อมูลสำคัญจากข่าว ➡️ DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face ➡️ เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท ➡️ ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว ➡️ ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า ➡️ ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI ➡️ ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง ➡️ โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License ➡️ มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง ➡️ เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด ✅ ข้อมูลเสริมจากภายนอก ➡️ Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ ➡️ Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล ➡️ การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง ➡️ DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง ➡️ ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    WWW.THESTAR.COM.MY
    DeepSeek releases model it calls 'intermediate step' towards 'next-generation architecture'
    BEIJING (Reuters) -Chinese AI developer DeepSeek has released its latest model which it said was an "experimental release" that was more efficient to train and better at processing long sequences of text than previous iterations.
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • “Jensen Huang ชี้จีนตามหลังแค่ ‘นาโนวินาที’ — เรียกร้องให้สหรัฐฯ ผ่อนคลายข้อจำกัดการส่งออกชิป AI”

    Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความเห็นอย่างตรงไปตรงมาในรายการ BG2 Podcast ว่า “จีนตามหลังสหรัฐฯ ในด้านการผลิตชิปแค่ไม่กี่นาโนวินาที” พร้อมเรียกร้องให้รัฐบาลสหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI ไปยังจีน โดยให้เหตุผลว่าการเปิดตลาดจะช่วยขยายอิทธิพลเทคโนโลยีของสหรัฐฯ และรักษาความเป็นผู้นำในระดับโลก

    คำพูดของ Huang เกิดขึ้นในช่วงที่ Nvidia กำลังพยายามกลับมาขายชิป H20 ให้กับลูกค้าในจีน หลังจากถูกระงับการส่งออกหลายเดือนจากข้อจำกัดของกระทรวงพาณิชย์สหรัฐฯ ซึ่งเพิ่งเริ่มออกใบอนุญาตให้ส่งออกอีกครั้งในเดือนสิงหาคม 2025

    อย่างไรก็ตาม จีนเองก็ไม่ได้รอให้ Nvidia กลับมา เพราะ Huawei ได้เปิดตัวระบบ Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ซึ่งไม่พึ่งพา CUDA และออกแบบมาเพื่อซอฟต์แวร์จีนโดยเฉพาะ พร้อมวางแผนพัฒนาชิปรุ่นใหม่ให้เทียบเท่าหรือเหนือกว่าชิปของ Nvidia ภายในปี 2027

    Huang ยอมรับว่าจีนเป็นคู่แข่งที่ “หิวโหย เคลื่อนไหวเร็ว และมีวัฒนธรรมการทำงานแบบ 9-9-6” ซึ่งทำให้การพัฒนาเทคโนโลยีในจีนก้าวหน้าอย่างรวดเร็ว โดยเฉพาะเมื่อบริษัทใหญ่อย่าง Baidu, Alibaba, Tencent และ ByteDance ต่างลงทุนในทีมพัฒนาชิปของตัวเองและสนับสนุนสตาร์ทอัพด้านเซมิคอนดักเตอร์

    แม้ Nvidia จะพยายามรักษาตลาดจีนด้วยการออกแบบชิปเฉพาะ เช่น H20 และ RTX Pro 6000D แต่ก็ยังถูกจีนสั่งห้ามซื้อในเดือนกันยายน 2025 โดยหน่วยงาน CAC ของจีนให้เหตุผลว่า “ชิปจีนตอนนี้เทียบเท่าหรือดีกว่าชิปที่ Nvidia อนุญาตให้ขายในจีนแล้ว” และเรียกร้องให้บริษัทในประเทศหันไปใช้ชิปภายในประเทศแทน

    ข้อมูลสำคัญจากข่าว
    Jensen Huang ระบุว่าจีนตามหลังสหรัฐฯ ในการผลิตชิปแค่ “นาโนวินาที”
    เรียกร้องให้สหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI เพื่อรักษาอิทธิพลทางเทคโนโลยี
    Nvidia หวังกลับมาขายชิป H20 ให้จีนหลังถูกระงับหลายเดือน
    กระทรวงพาณิชย์สหรัฐฯ เริ่มออกใบอนุญาตส่งออก H20 ในเดือนสิงหาคม 2025
    Huawei เปิดตัว Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ไม่พึ่ง CUDA
    จีนวางแผนพัฒนาชิป Ascend รุ่นใหม่ให้เทียบเท่าหรือเหนือกว่า Nvidia ภายในปี 2027
    บริษัทจีนใหญ่ลงทุนในชิปภายในประเทศ เช่น Baidu, Alibaba, Tencent และ ByteDance
    Nvidia เคยครองตลาดจีนถึง 95% แต่ลดลงอย่างรวดเร็วจากข้อจำกัดการส่งออก
    CAC ของจีนสั่งห้ามบริษัทในประเทศซื้อชิป H20 และ RTX Pro 6000D

    ข้อมูลเสริมจากภายนอก
    ชิป H20 และ RTX Pro 6000D ถูกออกแบบมาเพื่อให้ผ่านข้อจำกัดของสหรัฐฯ โดยเฉพาะ
    จีนกำลังสร้างระบบ AI ที่ไม่พึ่งพาเทคโนโลยีสหรัฐฯ เช่น CUDA หรือ TensorRT
    การพัฒนา AI ในจีนเติบโตเร็วที่สุดในโลก โดยเฉพาะในเมืองใหญ่ เช่น เซินเจิ้นและปักกิ่ง
    DeepSeek เป็นโมเดล AI จากจีนที่เทียบเคียงกับ OpenAI และ Anthropic
    การแข่งขันด้านชิปส่งผลต่ออุตสาหกรรมอื่น เช่น บล็อกเชนและอินเทอร์เน็ตดาวเทียม

    https://www.tomshardware.com/jensen-huang-says-china-is-nanoseconds-behind-in-chips
    🇨🇳⚙️ “Jensen Huang ชี้จีนตามหลังแค่ ‘นาโนวินาที’ — เรียกร้องให้สหรัฐฯ ผ่อนคลายข้อจำกัดการส่งออกชิป AI” Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความเห็นอย่างตรงไปตรงมาในรายการ BG2 Podcast ว่า “จีนตามหลังสหรัฐฯ ในด้านการผลิตชิปแค่ไม่กี่นาโนวินาที” พร้อมเรียกร้องให้รัฐบาลสหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI ไปยังจีน โดยให้เหตุผลว่าการเปิดตลาดจะช่วยขยายอิทธิพลเทคโนโลยีของสหรัฐฯ และรักษาความเป็นผู้นำในระดับโลก คำพูดของ Huang เกิดขึ้นในช่วงที่ Nvidia กำลังพยายามกลับมาขายชิป H20 ให้กับลูกค้าในจีน หลังจากถูกระงับการส่งออกหลายเดือนจากข้อจำกัดของกระทรวงพาณิชย์สหรัฐฯ ซึ่งเพิ่งเริ่มออกใบอนุญาตให้ส่งออกอีกครั้งในเดือนสิงหาคม 2025 อย่างไรก็ตาม จีนเองก็ไม่ได้รอให้ Nvidia กลับมา เพราะ Huawei ได้เปิดตัวระบบ Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ซึ่งไม่พึ่งพา CUDA และออกแบบมาเพื่อซอฟต์แวร์จีนโดยเฉพาะ พร้อมวางแผนพัฒนาชิปรุ่นใหม่ให้เทียบเท่าหรือเหนือกว่าชิปของ Nvidia ภายในปี 2027 Huang ยอมรับว่าจีนเป็นคู่แข่งที่ “หิวโหย เคลื่อนไหวเร็ว และมีวัฒนธรรมการทำงานแบบ 9-9-6” ซึ่งทำให้การพัฒนาเทคโนโลยีในจีนก้าวหน้าอย่างรวดเร็ว โดยเฉพาะเมื่อบริษัทใหญ่อย่าง Baidu, Alibaba, Tencent และ ByteDance ต่างลงทุนในทีมพัฒนาชิปของตัวเองและสนับสนุนสตาร์ทอัพด้านเซมิคอนดักเตอร์ แม้ Nvidia จะพยายามรักษาตลาดจีนด้วยการออกแบบชิปเฉพาะ เช่น H20 และ RTX Pro 6000D แต่ก็ยังถูกจีนสั่งห้ามซื้อในเดือนกันยายน 2025 โดยหน่วยงาน CAC ของจีนให้เหตุผลว่า “ชิปจีนตอนนี้เทียบเท่าหรือดีกว่าชิปที่ Nvidia อนุญาตให้ขายในจีนแล้ว” และเรียกร้องให้บริษัทในประเทศหันไปใช้ชิปภายในประเทศแทน ✅ ข้อมูลสำคัญจากข่าว ➡️ Jensen Huang ระบุว่าจีนตามหลังสหรัฐฯ ในการผลิตชิปแค่ “นาโนวินาที” ➡️ เรียกร้องให้สหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI เพื่อรักษาอิทธิพลทางเทคโนโลยี ➡️ Nvidia หวังกลับมาขายชิป H20 ให้จีนหลังถูกระงับหลายเดือน ➡️ กระทรวงพาณิชย์สหรัฐฯ เริ่มออกใบอนุญาตส่งออก H20 ในเดือนสิงหาคม 2025 ➡️ Huawei เปิดตัว Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ไม่พึ่ง CUDA ➡️ จีนวางแผนพัฒนาชิป Ascend รุ่นใหม่ให้เทียบเท่าหรือเหนือกว่า Nvidia ภายในปี 2027 ➡️ บริษัทจีนใหญ่ลงทุนในชิปภายในประเทศ เช่น Baidu, Alibaba, Tencent และ ByteDance ➡️ Nvidia เคยครองตลาดจีนถึง 95% แต่ลดลงอย่างรวดเร็วจากข้อจำกัดการส่งออก ➡️ CAC ของจีนสั่งห้ามบริษัทในประเทศซื้อชิป H20 และ RTX Pro 6000D ✅ ข้อมูลเสริมจากภายนอก ➡️ ชิป H20 และ RTX Pro 6000D ถูกออกแบบมาเพื่อให้ผ่านข้อจำกัดของสหรัฐฯ โดยเฉพาะ ➡️ จีนกำลังสร้างระบบ AI ที่ไม่พึ่งพาเทคโนโลยีสหรัฐฯ เช่น CUDA หรือ TensorRT ➡️ การพัฒนา AI ในจีนเติบโตเร็วที่สุดในโลก โดยเฉพาะในเมืองใหญ่ เช่น เซินเจิ้นและปักกิ่ง ➡️ DeepSeek เป็นโมเดล AI จากจีนที่เทียบเคียงกับ OpenAI และ Anthropic ➡️ การแข่งขันด้านชิปส่งผลต่ออุตสาหกรรมอื่น เช่น บล็อกเชนและอินเทอร์เน็ตดาวเทียม https://www.tomshardware.com/jensen-huang-says-china-is-nanoseconds-behind-in-chips
    0 ความคิดเห็น 0 การแบ่งปัน 138 มุมมอง 0 รีวิว
  • “YMTC กระโดดสู่ตลาด DRAM — จีนเร่งผลิต HBM ในประเทศ สู้วิกฤตขาดแคลนชิป AI หลังถูกสหรัฐฯ ควบคุมการส่งออก”

    หลังจากเป็นที่รู้จักในฐานะผู้ผลิต NAND รายใหญ่ของจีน บริษัท YMTC (Yangtze Memory Technologies Co.) กำลังขยายธุรกิจเข้าสู่ตลาด DRAM โดยมีเป้าหมายหลักคือการผลิต HBM (High Bandwidth Memory) ด้วยตัวเอง เพื่อแก้ปัญหาการขาดแคลนชิปหน่วยความจำความเร็วสูงที่จำเป็นต่อการพัฒนา AI ในประเทศ

    จีนกำลังเผชิญกับวิกฤต HBM อย่างหนัก เนื่องจากความต้องการชิป AI พุ่งสูง แต่กลับถูกสหรัฐฯ ขยายมาตรการควบคุมการส่งออกในปลายปี 2024 ทำให้บริษัทจีนไม่สามารถเข้าถึง HBM จากผู้ผลิตต่างประเทศ เช่น Micron, SK Hynix และ Samsung ได้อีกต่อไป

    YMTC จึงเริ่มตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยีการบรรจุชิปแบบ TSV (Through-Silicon Via) ซึ่งเป็นหัวใจสำคัญของการสร้าง HBM ที่ต้องซ้อนชั้น VRAM หลายชั้นอย่างแม่นยำ โดยมีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่น และร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีน เพื่อแลกเปลี่ยนความเชี่ยวชาญด้านการซ้อนชั้น 3D และการผลิต HBM2/HBM3

    แม้จะยังไม่มีตัวเลขการผลิตที่แน่นอน แต่ CXMT คาดว่าจะผลิตแผ่นเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025 ซึ่งใกล้เคียงกับระดับของ Micron แล้ว ขณะที่ YMTC นำเทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM เพื่อเพิ่มความแม่นยำในการเชื่อมต่อระหว่างชั้น

    การเคลื่อนไหวนี้ไม่เพียงแต่ตอบสนองความต้องการภายในประเทศ แต่ยังอาจส่งผลต่ออุตสาหกรรมโลก หากจีนสามารถผลิต HBM ได้ในปริมาณมากและคุณภาพสูง โดยเฉพาะเมื่อ Huawei และบริษัทเทคโนโลยีจีนอื่น ๆ เริ่มพัฒนา AI accelerator ที่ใช้ HBM ในประเทศอย่างเต็มรูปแบบ

    ข้อมูลสำคัญจากข่าว
    YMTC ขยายธุรกิจจาก NAND สู่ DRAM เพื่อผลิต HBM ภายในประเทศ
    การขาดแคลน HBM เกิดจากการควบคุมการส่งออกของสหรัฐฯ ที่เริ่มปลายปี 2024
    YMTC ตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยี TSV สำหรับการซ้อนชั้น VRAM
    มีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่นเพื่อรองรับการผลิต DRAM
    ร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีนในการพัฒนา HBM2/HBM3
    CXMT คาดว่าจะผลิตเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025
    YMTC ใช้เทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM
    Huawei เตรียมใช้ HBM ที่ผลิตในประเทศกับชิป AI รุ่นใหม่
    การผลิต HBM ในประเทศช่วยลดการพึ่งพาตะวันตกและเสริมความมั่นคงด้านเทคโนโลยี

    ข้อมูลเสริมจากภายนอก
    HBM เป็นหน่วยความจำที่จำเป็นต่อการประมวลผล AI เช่นใน GPU และ XPU
    TSV เป็นเทคนิคที่ใช้เชื่อมต่อชั้นหน่วยความจำแบบแนวตั้งด้วยความแม่นยำสูง
    CXMT เป็นผู้ผลิต DRAM ที่มีโครงสร้างพื้นฐานพร้อมสำหรับการผลิต HBM
    การใช้ Xtacking ช่วยลดความร้อนและเพิ่มความเร็วในการเชื่อมต่อระหว่างชั้น
    หากจีนผลิต HBM ได้สำเร็จ อาจมีผลต่อการแข่งขันกับ Samsung และ SK Hynix

    https://wccftech.com/china-ymtc-is-now-tapping-into-the-dram-business/
    🇨🇳 “YMTC กระโดดสู่ตลาด DRAM — จีนเร่งผลิต HBM ในประเทศ สู้วิกฤตขาดแคลนชิป AI หลังถูกสหรัฐฯ ควบคุมการส่งออก” หลังจากเป็นที่รู้จักในฐานะผู้ผลิต NAND รายใหญ่ของจีน บริษัท YMTC (Yangtze Memory Technologies Co.) กำลังขยายธุรกิจเข้าสู่ตลาด DRAM โดยมีเป้าหมายหลักคือการผลิต HBM (High Bandwidth Memory) ด้วยตัวเอง เพื่อแก้ปัญหาการขาดแคลนชิปหน่วยความจำความเร็วสูงที่จำเป็นต่อการพัฒนา AI ในประเทศ จีนกำลังเผชิญกับวิกฤต HBM อย่างหนัก เนื่องจากความต้องการชิป AI พุ่งสูง แต่กลับถูกสหรัฐฯ ขยายมาตรการควบคุมการส่งออกในปลายปี 2024 ทำให้บริษัทจีนไม่สามารถเข้าถึง HBM จากผู้ผลิตต่างประเทศ เช่น Micron, SK Hynix และ Samsung ได้อีกต่อไป YMTC จึงเริ่มตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยีการบรรจุชิปแบบ TSV (Through-Silicon Via) ซึ่งเป็นหัวใจสำคัญของการสร้าง HBM ที่ต้องซ้อนชั้น VRAM หลายชั้นอย่างแม่นยำ โดยมีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่น และร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีน เพื่อแลกเปลี่ยนความเชี่ยวชาญด้านการซ้อนชั้น 3D และการผลิต HBM2/HBM3 แม้จะยังไม่มีตัวเลขการผลิตที่แน่นอน แต่ CXMT คาดว่าจะผลิตแผ่นเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025 ซึ่งใกล้เคียงกับระดับของ Micron แล้ว ขณะที่ YMTC นำเทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM เพื่อเพิ่มความแม่นยำในการเชื่อมต่อระหว่างชั้น การเคลื่อนไหวนี้ไม่เพียงแต่ตอบสนองความต้องการภายในประเทศ แต่ยังอาจส่งผลต่ออุตสาหกรรมโลก หากจีนสามารถผลิต HBM ได้ในปริมาณมากและคุณภาพสูง โดยเฉพาะเมื่อ Huawei และบริษัทเทคโนโลยีจีนอื่น ๆ เริ่มพัฒนา AI accelerator ที่ใช้ HBM ในประเทศอย่างเต็มรูปแบบ ✅ ข้อมูลสำคัญจากข่าว ➡️ YMTC ขยายธุรกิจจาก NAND สู่ DRAM เพื่อผลิต HBM ภายในประเทศ ➡️ การขาดแคลน HBM เกิดจากการควบคุมการส่งออกของสหรัฐฯ ที่เริ่มปลายปี 2024 ➡️ YMTC ตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยี TSV สำหรับการซ้อนชั้น VRAM ➡️ มีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่นเพื่อรองรับการผลิต DRAM ➡️ ร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีนในการพัฒนา HBM2/HBM3 ➡️ CXMT คาดว่าจะผลิตเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025 ➡️ YMTC ใช้เทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM ➡️ Huawei เตรียมใช้ HBM ที่ผลิตในประเทศกับชิป AI รุ่นใหม่ ➡️ การผลิต HBM ในประเทศช่วยลดการพึ่งพาตะวันตกและเสริมความมั่นคงด้านเทคโนโลยี ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM เป็นหน่วยความจำที่จำเป็นต่อการประมวลผล AI เช่นใน GPU และ XPU ➡️ TSV เป็นเทคนิคที่ใช้เชื่อมต่อชั้นหน่วยความจำแบบแนวตั้งด้วยความแม่นยำสูง ➡️ CXMT เป็นผู้ผลิต DRAM ที่มีโครงสร้างพื้นฐานพร้อมสำหรับการผลิต HBM ➡️ การใช้ Xtacking ช่วยลดความร้อนและเพิ่มความเร็วในการเชื่อมต่อระหว่างชั้น ➡️ หากจีนผลิต HBM ได้สำเร็จ อาจมีผลต่อการแข่งขันกับ Samsung และ SK Hynix https://wccftech.com/china-ymtc-is-now-tapping-into-the-dram-business/
    WCCFTECH.COM
    China's YMTC Is Now Tapping Into the DRAM Business, Producing It Domestically to Combat the HBM Shortage in the Region
    China's famous NAND producer YMTC is now planning to tap into the DRAM business, likely to speed up development of 'in-house' HBM.
    0 ความคิดเห็น 0 การแบ่งปัน 167 มุมมอง 0 รีวิว
  • “Huawei เตรียมเปิดตัว Kunpeng 960 ซีพียู 256 คอร์ในปี 2028 — ท้าชน AMD และ Intel ด้วยพลังประมวลผลระดับ SuperPod”

    Huawei ประกาศแผนการพัฒนาซีพียู Kunpeng รุ่นใหม่ในงาน Connect 2025 ที่เซี่ยงไฮ้ โดยตั้งเป้าเปิดตัว Kunpeng 950 ในปี 2026 และ Kunpeng 960 ในปี 2028 ซึ่งจะมีรุ่นที่มีจำนวนคอร์สูงสุดถึง 256 คอร์ และ 512 เธรด เพื่อรองรับงานด้าน virtualization, big data, container และฐานข้อมูลขนาดใหญ่

    Kunpeng 950 จะมีสองรุ่น ได้แก่ รุ่น 96 คอร์ 192 เธรด และรุ่น 192 คอร์ 384 เธรด โดยจะถูกนำไปใช้ใน TaiShan 950 SuperPoD ซึ่งรองรับได้ถึง 16 โหนด และหน่วยความจำรวม 48TB เหมาะสำหรับการใช้งานในภาคการเงินที่ต้องการแทนที่ระบบ mainframe แบบเก่า

    สำหรับ Kunpeng 960 ซึ่งมีการอ้างถึงใน benchmark ล่าสุด จะมีรุ่นที่เน้นประสิทธิภาพต่อคอร์สูงขึ้นกว่า 50% และรุ่น high-density ที่มี 256 คอร์ขึ้นไป โดยสามารถทำงานร่วมกับระบบฐานข้อมูล GaussDB และ MogDB ได้อย่างมีประสิทธิภาพ โดยมีรายงานว่าทำธุรกรรมได้ถึง 4.8 ล้านรายการต่อนาทีในระบบที่มี 768 การเชื่อมต่อพร้อมกัน

    แม้ Huawei จะระบุว่า Kunpeng 960 จะเปิดตัวในปี 2028 แต่การมี benchmark ที่ใช้งานจริงแล้วในบางระบบ ทำให้เกิดข้อสงสัยว่า Huawei อาจพัฒนาไปไกลกว่าที่ประกาศไว้ และอาจเปิดตัวเร็วกว่าที่คาดการณ์

    แผนการพัฒนาซีพียู Kunpeng ของ Huawei
    Kunpeng 950 จะเปิดตัวใน Q1 ปี 2026 มีรุ่น 96 และ 192 คอร์
    Kunpeng 960 จะเปิดตัวใน Q1 ปี 2028 มีรุ่น 256 คอร์ขึ้นไป
    รุ่น high-density เหมาะสำหรับงาน virtualization, container, big data และ warehouse workloads
    รุ่นที่เน้น single-core performance จะเพิ่มประสิทธิภาพกว่า 50% สำหรับ AI และฐานข้อมูล

    การใช้งานร่วมกับระบบ SuperPod และฐานข้อมูล
    Kunpeng 950 จะใช้ใน TaiShan 950 SuperPoD รองรับ 16 โหนด และ 48TB RAM
    Kunpeng 960 จะใช้ใน SuperPoD รุ่นใหม่ที่อาจมี accelerator ถึง 15,488 ตัว
    ระบบสามารถแทนที่ Oracle Exadata และ mainframe แบบเดิมในภาคการเงิน
    Benchmark จาก MogDB แสดงผลการทำงาน 4.8 ล้านธุรกรรมต่อนาทีในระบบ 256 คอร์

    ข้อมูลเสริมจากภายนอก
    Huawei ใช้สถาปัตยกรรม Unix-Core แบบ dual-threaded ในซีพียู Kunpeng
    การพัฒนา Kunpeng เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีจากสหรัฐฯ
    SuperPod ของ Huawei มีเป้าหมายสร้างระบบคลัสเตอร์ที่มี accelerator รวมเกิน 1 ล้านตัว
    Kunpeng 960 อาจใช้ชื่อเดียวกับผลิตภัณฑ์ในสาย Atlas และ Ascend ที่มีเลข 960 อยู่แล้ว

    https://www.techradar.com/pro/huawei-is-planning-a-256-core-cpu-monster-to-take-on-amds-epyc-and-intels-xeon-range-but-it-wont-land-till-2028-at-least-thats-the-official-line
    🧠 “Huawei เตรียมเปิดตัว Kunpeng 960 ซีพียู 256 คอร์ในปี 2028 — ท้าชน AMD และ Intel ด้วยพลังประมวลผลระดับ SuperPod” Huawei ประกาศแผนการพัฒนาซีพียู Kunpeng รุ่นใหม่ในงาน Connect 2025 ที่เซี่ยงไฮ้ โดยตั้งเป้าเปิดตัว Kunpeng 950 ในปี 2026 และ Kunpeng 960 ในปี 2028 ซึ่งจะมีรุ่นที่มีจำนวนคอร์สูงสุดถึง 256 คอร์ และ 512 เธรด เพื่อรองรับงานด้าน virtualization, big data, container และฐานข้อมูลขนาดใหญ่ Kunpeng 950 จะมีสองรุ่น ได้แก่ รุ่น 96 คอร์ 192 เธรด และรุ่น 192 คอร์ 384 เธรด โดยจะถูกนำไปใช้ใน TaiShan 950 SuperPoD ซึ่งรองรับได้ถึง 16 โหนด และหน่วยความจำรวม 48TB เหมาะสำหรับการใช้งานในภาคการเงินที่ต้องการแทนที่ระบบ mainframe แบบเก่า สำหรับ Kunpeng 960 ซึ่งมีการอ้างถึงใน benchmark ล่าสุด จะมีรุ่นที่เน้นประสิทธิภาพต่อคอร์สูงขึ้นกว่า 50% และรุ่น high-density ที่มี 256 คอร์ขึ้นไป โดยสามารถทำงานร่วมกับระบบฐานข้อมูล GaussDB และ MogDB ได้อย่างมีประสิทธิภาพ โดยมีรายงานว่าทำธุรกรรมได้ถึง 4.8 ล้านรายการต่อนาทีในระบบที่มี 768 การเชื่อมต่อพร้อมกัน แม้ Huawei จะระบุว่า Kunpeng 960 จะเปิดตัวในปี 2028 แต่การมี benchmark ที่ใช้งานจริงแล้วในบางระบบ ทำให้เกิดข้อสงสัยว่า Huawei อาจพัฒนาไปไกลกว่าที่ประกาศไว้ และอาจเปิดตัวเร็วกว่าที่คาดการณ์ ✅ แผนการพัฒนาซีพียู Kunpeng ของ Huawei ➡️ Kunpeng 950 จะเปิดตัวใน Q1 ปี 2026 มีรุ่น 96 และ 192 คอร์ ➡️ Kunpeng 960 จะเปิดตัวใน Q1 ปี 2028 มีรุ่น 256 คอร์ขึ้นไป ➡️ รุ่น high-density เหมาะสำหรับงาน virtualization, container, big data และ warehouse workloads ➡️ รุ่นที่เน้น single-core performance จะเพิ่มประสิทธิภาพกว่า 50% สำหรับ AI และฐานข้อมูล ✅ การใช้งานร่วมกับระบบ SuperPod และฐานข้อมูล ➡️ Kunpeng 950 จะใช้ใน TaiShan 950 SuperPoD รองรับ 16 โหนด และ 48TB RAM ➡️ Kunpeng 960 จะใช้ใน SuperPoD รุ่นใหม่ที่อาจมี accelerator ถึง 15,488 ตัว ➡️ ระบบสามารถแทนที่ Oracle Exadata และ mainframe แบบเดิมในภาคการเงิน ➡️ Benchmark จาก MogDB แสดงผลการทำงาน 4.8 ล้านธุรกรรมต่อนาทีในระบบ 256 คอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Huawei ใช้สถาปัตยกรรม Unix-Core แบบ dual-threaded ในซีพียู Kunpeng ➡️ การพัฒนา Kunpeng เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีจากสหรัฐฯ ➡️ SuperPod ของ Huawei มีเป้าหมายสร้างระบบคลัสเตอร์ที่มี accelerator รวมเกิน 1 ล้านตัว ➡️ Kunpeng 960 อาจใช้ชื่อเดียวกับผลิตภัณฑ์ในสาย Atlas และ Ascend ที่มีเลข 960 อยู่แล้ว https://www.techradar.com/pro/huawei-is-planning-a-256-core-cpu-monster-to-take-on-amds-epyc-and-intels-xeon-range-but-it-wont-land-till-2028-at-least-thats-the-official-line
    0 ความคิดเห็น 0 การแบ่งปัน 148 มุมมอง 0 รีวิว
  • “Stargate of China: เมื่อจีนเปลี่ยนผืนนาเป็นศูนย์กลาง AI — แผน 37 พันล้านดอลลาร์เพื่อท้าทายอำนาจคอมพิวต์ของสหรัฐฯ”

    กลางลุ่มแม่น้ำแยงซี บนเกาะขนาด 760 เอเคอร์ในเมืองอู่ฮู่ ประเทศจีน กำลังเกิดการเปลี่ยนแปลงครั้งใหญ่ — จากพื้นที่ปลูกข้าว สู่ “Data Island” ที่จะกลายเป็นศูนย์กลางประมวลผล AI ขนาดมหึมา ภายใต้โครงการที่ถูกขนานนามว่า “Stargate of China” ซึ่งมีมูลค่าการลงทุนกว่า 37 พันล้านดอลลาร์

    เป้าหมายของโครงการนี้คือการรวมศูนย์พลังการประมวลผล AI ที่กระจัดกระจายทั่วประเทศให้เป็นเครือข่ายเดียว โดยใช้เทคโนโลยี UB-Mesh ของ Huawei เชื่อมโยงเซิร์ฟเวอร์จากหลายภูมิภาคเข้าด้วยกัน เพื่อเพิ่มประสิทธิภาพในการประมวลผลแบบ “inference” ให้เร็วขึ้นสำหรับผู้ใช้งานในเมืองใหญ่ เช่น เซี่ยงไฮ้ หางโจว หนานจิง และซูโจว

    ในขณะที่สหรัฐฯ ครองสัดส่วนพลังคอมพิวต์ AI กว่า 75% ของโลก จีนมีเพียง 15% เท่านั้น การลงทุนครั้งนี้จึงเป็นการ “ไล่ตาม” ด้วยกลยุทธ์ที่เน้นการใช้ทรัพยากรที่มีอยู่ให้เกิดประโยชน์สูงสุด เช่น การนำเซิร์ฟเวอร์ที่เคยถูกทิ้งไว้ในพื้นที่ห่างไกลกลับมาใช้งานใหม่ โดยเชื่อมโยงกับศูนย์ข้อมูลในเมืองผ่านเครือข่ายความเร็วสูง

    ศูนย์ข้อมูลในอู่ฮู่จะถูกใช้โดยบริษัทใหญ่ของจีน ได้แก่ Huawei, China Mobile, China Telecom และ China Unicom โดยรัฐบาลท้องถิ่นเสนอเงินอุดหนุนสูงถึง 30% สำหรับการจัดซื้อชิป AI เพื่อเร่งการพัฒนา

    อย่างไรก็ตาม จีนยังเผชิญกับข้อจำกัดจากการควบคุมการส่งออกของสหรัฐฯ ที่ห้ามบริษัทอย่าง Nvidia, TSMC และ Samsung ส่งมอบชิป AI ขั้นสูงให้กับลูกค้าจีน ทำให้จีนต้องพึ่งพาชิปภายในประเทศที่ยังไม่สามารถเทียบเท่าได้ และบางส่วนต้องพึ่งพาตลาดมืดในการจัดหา GPU

    ข้อมูลสำคัญจากข่าว
    จีนลงทุน $37 พันล้านในโครงการ “Stargate of China” เพื่อรวมศูนย์พลังคอมพิวต์ AI
    พื้นที่เกษตรในเมืองอู่ฮู่ถูกเปลี่ยนเป็น “Data Island” สำหรับศูนย์ข้อมูลขนาดใหญ่
    ใช้เทคโนโลยี UB-Mesh ของ Huawei เชื่อมโยงเซิร์ฟเวอร์ทั่วประเทศ
    ศูนย์ข้อมูลจะรองรับการประมวลผลแบบ inference สำหรับเมืองใหญ่ในลุ่มแม่น้ำแยงซี
    รัฐบาลท้องถิ่นเสนอเงินอุดหนุนสูงถึง 30% สำหรับการจัดซื้อชิป AI

    การจัดการทรัพยากรและการขยายเครือข่าย
    เซิร์ฟเวอร์ในพื้นที่ห่างไกล เช่น มองโกเลียใน กุ้ยโจว และกานซู่ จะถูกนำกลับมาใช้งาน
    เครือข่ายใหม่จะช่วยลดปัญหาการใช้งานเซิร์ฟเวอร์ที่ไม่ได้ใช้ประโยชน์
    การกระจายศูนย์ข้อมูลใกล้เมืองใหญ่ช่วยลด latency และเพิ่มประสิทธิภาพ AI
    มีการจัดตั้งศูนย์ข้อมูลใหม่ใน 15 แห่งทั่วเมืองอู่ฮู่

    ข้อมูลเสริมจากภายนอก
    โครงการนี้ได้รับแรงบันดาลใจจาก “Stargate” ของสหรัฐฯ ที่มีมูลค่ากว่า $500 พันล้าน
    การประมวลผลแบบ inference คือการตอบสนองของ AI เช่น chatbot หรือผู้ช่วยอัจฉริยะ
    การรวมศูนย์ข้อมูลช่วยให้สามารถจัดการพลังงานและทรัพยากรได้มีประสิทธิภาพมากขึ้น
    การลงทุนใน AI compute เป็นยุทธศาสตร์ระดับชาติของจีนเพื่อแข่งขันกับสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/china-is-converting-farmland-into-data-centers-as-part-of-usd37-billion-effort-to-centralize-ai-compute-power-project-dubbed-stargate-of-china
    🌾 “Stargate of China: เมื่อจีนเปลี่ยนผืนนาเป็นศูนย์กลาง AI — แผน 37 พันล้านดอลลาร์เพื่อท้าทายอำนาจคอมพิวต์ของสหรัฐฯ” กลางลุ่มแม่น้ำแยงซี บนเกาะขนาด 760 เอเคอร์ในเมืองอู่ฮู่ ประเทศจีน กำลังเกิดการเปลี่ยนแปลงครั้งใหญ่ — จากพื้นที่ปลูกข้าว สู่ “Data Island” ที่จะกลายเป็นศูนย์กลางประมวลผล AI ขนาดมหึมา ภายใต้โครงการที่ถูกขนานนามว่า “Stargate of China” ซึ่งมีมูลค่าการลงทุนกว่า 37 พันล้านดอลลาร์ เป้าหมายของโครงการนี้คือการรวมศูนย์พลังการประมวลผล AI ที่กระจัดกระจายทั่วประเทศให้เป็นเครือข่ายเดียว โดยใช้เทคโนโลยี UB-Mesh ของ Huawei เชื่อมโยงเซิร์ฟเวอร์จากหลายภูมิภาคเข้าด้วยกัน เพื่อเพิ่มประสิทธิภาพในการประมวลผลแบบ “inference” ให้เร็วขึ้นสำหรับผู้ใช้งานในเมืองใหญ่ เช่น เซี่ยงไฮ้ หางโจว หนานจิง และซูโจว ในขณะที่สหรัฐฯ ครองสัดส่วนพลังคอมพิวต์ AI กว่า 75% ของโลก จีนมีเพียง 15% เท่านั้น การลงทุนครั้งนี้จึงเป็นการ “ไล่ตาม” ด้วยกลยุทธ์ที่เน้นการใช้ทรัพยากรที่มีอยู่ให้เกิดประโยชน์สูงสุด เช่น การนำเซิร์ฟเวอร์ที่เคยถูกทิ้งไว้ในพื้นที่ห่างไกลกลับมาใช้งานใหม่ โดยเชื่อมโยงกับศูนย์ข้อมูลในเมืองผ่านเครือข่ายความเร็วสูง ศูนย์ข้อมูลในอู่ฮู่จะถูกใช้โดยบริษัทใหญ่ของจีน ได้แก่ Huawei, China Mobile, China Telecom และ China Unicom โดยรัฐบาลท้องถิ่นเสนอเงินอุดหนุนสูงถึง 30% สำหรับการจัดซื้อชิป AI เพื่อเร่งการพัฒนา อย่างไรก็ตาม จีนยังเผชิญกับข้อจำกัดจากการควบคุมการส่งออกของสหรัฐฯ ที่ห้ามบริษัทอย่าง Nvidia, TSMC และ Samsung ส่งมอบชิป AI ขั้นสูงให้กับลูกค้าจีน ทำให้จีนต้องพึ่งพาชิปภายในประเทศที่ยังไม่สามารถเทียบเท่าได้ และบางส่วนต้องพึ่งพาตลาดมืดในการจัดหา GPU ✅ ข้อมูลสำคัญจากข่าว ➡️ จีนลงทุน $37 พันล้านในโครงการ “Stargate of China” เพื่อรวมศูนย์พลังคอมพิวต์ AI ➡️ พื้นที่เกษตรในเมืองอู่ฮู่ถูกเปลี่ยนเป็น “Data Island” สำหรับศูนย์ข้อมูลขนาดใหญ่ ➡️ ใช้เทคโนโลยี UB-Mesh ของ Huawei เชื่อมโยงเซิร์ฟเวอร์ทั่วประเทศ ➡️ ศูนย์ข้อมูลจะรองรับการประมวลผลแบบ inference สำหรับเมืองใหญ่ในลุ่มแม่น้ำแยงซี ➡️ รัฐบาลท้องถิ่นเสนอเงินอุดหนุนสูงถึง 30% สำหรับการจัดซื้อชิป AI ✅ การจัดการทรัพยากรและการขยายเครือข่าย ➡️ เซิร์ฟเวอร์ในพื้นที่ห่างไกล เช่น มองโกเลียใน กุ้ยโจว และกานซู่ จะถูกนำกลับมาใช้งาน ➡️ เครือข่ายใหม่จะช่วยลดปัญหาการใช้งานเซิร์ฟเวอร์ที่ไม่ได้ใช้ประโยชน์ ➡️ การกระจายศูนย์ข้อมูลใกล้เมืองใหญ่ช่วยลด latency และเพิ่มประสิทธิภาพ AI ➡️ มีการจัดตั้งศูนย์ข้อมูลใหม่ใน 15 แห่งทั่วเมืองอู่ฮู่ ✅ ข้อมูลเสริมจากภายนอก ➡️ โครงการนี้ได้รับแรงบันดาลใจจาก “Stargate” ของสหรัฐฯ ที่มีมูลค่ากว่า $500 พันล้าน ➡️ การประมวลผลแบบ inference คือการตอบสนองของ AI เช่น chatbot หรือผู้ช่วยอัจฉริยะ ➡️ การรวมศูนย์ข้อมูลช่วยให้สามารถจัดการพลังงานและทรัพยากรได้มีประสิทธิภาพมากขึ้น ➡️ การลงทุนใน AI compute เป็นยุทธศาสตร์ระดับชาติของจีนเพื่อแข่งขันกับสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/china-is-converting-farmland-into-data-centers-as-part-of-usd37-billion-effort-to-centralize-ai-compute-power-project-dubbed-stargate-of-china
    0 ความคิดเห็น 0 การแบ่งปัน 220 มุมมอง 0 รีวิว
  • “Huawei เปิดตัว Atlas 950 SuperCluster — ซูเปอร์คอมพิวเตอร์ AI ขนาดยักษ์ที่แรงถึง 1 ZettaFLOPS พร้อมท้าชน Nvidia ในปี 2026”

    ในงาน Huawei Connect 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ชื่อว่า Atlas 950 SuperCluster ซึ่งถือเป็นก้าวกระโดดครั้งใหญ่ของจีนในการแข่งขันด้านฮาร์ดแวร์ AI ระดับโลก โดยระบบนี้สามารถประมวลผลได้ถึง 1 FP4 ZettaFLOPS สำหรับงาน inference และ 524 FP8 ExaFLOPS สำหรับการฝึกโมเดล AI ขนาดใหญ่

    Atlas 950 สร้างขึ้นจากหน่วยประมวลผล Ascend 950DT จำนวนมหาศาลถึง 524,288 ตัว ซึ่งกระจายอยู่ในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้ และเชื่อมต่อกันด้วยระบบออปติกความเร็วสูงแบบ UnifiedBus over Ethernet (UBoE) ที่ Huawei พัฒนาขึ้นเอง โดยมี latency ต่ำเพียง 2.1 ไมโครวินาที และ bandwidth สูงถึง 16 PB/s

    ระบบนี้ประกอบด้วย 64 SuperPoD ซึ่งแต่ละชุดมี 8,192 APU และให้พลังประมวลผล 8 FP8 ExaFLOPS และ 16 FP4 ExaFLOPS ต่อชุด ถือเป็นการเพิ่มขีดความสามารถจากรุ่นก่อนหน้าอย่าง Atlas 900 A3 ถึง 20 เท่า และมีขนาดพื้นที่รวมกว่า 64,000 ตารางเมตร หรือเทียบเท่าสนามฟุตบอล 9 สนาม

    แม้ Huawei จะยอมรับว่า APU ของตนยังไม่สามารถเทียบกับ GPU ของ Nvidia ได้ในแง่ประสิทธิภาพต่อชิป แต่บริษัทเลือกใช้แนวทาง “brute force” โดยเพิ่มจำนวนชิปมหาศาลเพื่อให้ได้พลังประมวลผลรวมที่สามารถแข่งขันกับระบบ Rubin ของ Nvidia ที่จะเปิดตัวในปี 2026–2027

    นอกจากนี้ Huawei ยังประกาศแผนเปิดตัว Atlas 960 SuperCluster ในปี 2027 ซึ่งจะใช้ Ascend 960 NPU กว่า 1 ล้านตัว และให้พลังประมวลผลสูงถึง 4 ZettaFLOPS สำหรับ inference และ 2 ZettaFLOPS สำหรับ training

    ข้อมูลสำคัญจากข่าว
    Huawei เปิดตัว Atlas 950 SuperCluster ที่งาน Huawei Connect 2025
    ให้พลังประมวลผล 1 FP4 ZettaFLOPS สำหรับ inference และ 524 FP8 ExaFLOPS สำหรับ training
    ใช้ Ascend 950DT จำนวน 524,288 ตัวในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้
    เชื่อมต่อด้วยระบบ UBoE ที่มี latency ต่ำและ bandwidth สูง

    โครงสร้างและการออกแบบ
    ประกอบด้วย 64 SuperPoD แต่ละชุดมี 8,192 APU
    พื้นที่รวมของระบบกว่า 64,000 ตารางเมตร เทียบเท่าสนามฟุตบอล 9 สนาม
    ใช้แนวทาง brute force เพื่อแข่งขันกับ Nvidia Rubin ที่จะเปิดตัวในปี 2026
    รองรับโมเดล AI ขนาดใหญ่ระดับหลายแสนล้านถึงหลายล้านล้านพารามิเตอร์

    ข้อมูลเสริมจากภายนอก
    Nvidia Vera Rubin NVL144 ให้พลังเพียง 1.2 FP8 ExaFLOPS เทียบกับ 8 FP8 ของ SuperPoD Huawei
    Oracle OCI Supercluster ใช้ B200 GPU 131,072 ตัว ให้พลัง 2.4 FP4 ZettaFLOPS
    Huawei เตรียมเปิดตัว Atlas 960 SuperCluster ในปี 2027 พร้อมพลัง 4 ZettaFLOPS
    Ascend roadmap ของ Huawei จะมีรุ่น 950PR, 960 และ 970 ตามลำดับในปีถัดไป

    https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-unveils-atlas-950-supercluster-touting-1-fp4-zettaflops-performance-for-ai-inference-and-524-fp8-exaflops-for-ai-training-features-hundreds-of-thousands-of-950dt-apus
    🚀 “Huawei เปิดตัว Atlas 950 SuperCluster — ซูเปอร์คอมพิวเตอร์ AI ขนาดยักษ์ที่แรงถึง 1 ZettaFLOPS พร้อมท้าชน Nvidia ในปี 2026” ในงาน Huawei Connect 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ชื่อว่า Atlas 950 SuperCluster ซึ่งถือเป็นก้าวกระโดดครั้งใหญ่ของจีนในการแข่งขันด้านฮาร์ดแวร์ AI ระดับโลก โดยระบบนี้สามารถประมวลผลได้ถึง 1 FP4 ZettaFLOPS สำหรับงาน inference และ 524 FP8 ExaFLOPS สำหรับการฝึกโมเดล AI ขนาดใหญ่ Atlas 950 สร้างขึ้นจากหน่วยประมวลผล Ascend 950DT จำนวนมหาศาลถึง 524,288 ตัว ซึ่งกระจายอยู่ในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้ และเชื่อมต่อกันด้วยระบบออปติกความเร็วสูงแบบ UnifiedBus over Ethernet (UBoE) ที่ Huawei พัฒนาขึ้นเอง โดยมี latency ต่ำเพียง 2.1 ไมโครวินาที และ bandwidth สูงถึง 16 PB/s ระบบนี้ประกอบด้วย 64 SuperPoD ซึ่งแต่ละชุดมี 8,192 APU และให้พลังประมวลผล 8 FP8 ExaFLOPS และ 16 FP4 ExaFLOPS ต่อชุด ถือเป็นการเพิ่มขีดความสามารถจากรุ่นก่อนหน้าอย่าง Atlas 900 A3 ถึง 20 เท่า และมีขนาดพื้นที่รวมกว่า 64,000 ตารางเมตร หรือเทียบเท่าสนามฟุตบอล 9 สนาม แม้ Huawei จะยอมรับว่า APU ของตนยังไม่สามารถเทียบกับ GPU ของ Nvidia ได้ในแง่ประสิทธิภาพต่อชิป แต่บริษัทเลือกใช้แนวทาง “brute force” โดยเพิ่มจำนวนชิปมหาศาลเพื่อให้ได้พลังประมวลผลรวมที่สามารถแข่งขันกับระบบ Rubin ของ Nvidia ที่จะเปิดตัวในปี 2026–2027 นอกจากนี้ Huawei ยังประกาศแผนเปิดตัว Atlas 960 SuperCluster ในปี 2027 ซึ่งจะใช้ Ascend 960 NPU กว่า 1 ล้านตัว และให้พลังประมวลผลสูงถึง 4 ZettaFLOPS สำหรับ inference และ 2 ZettaFLOPS สำหรับ training ✅ ข้อมูลสำคัญจากข่าว ➡️ Huawei เปิดตัว Atlas 950 SuperCluster ที่งาน Huawei Connect 2025 ➡️ ให้พลังประมวลผล 1 FP4 ZettaFLOPS สำหรับ inference และ 524 FP8 ExaFLOPS สำหรับ training ➡️ ใช้ Ascend 950DT จำนวน 524,288 ตัวในตู้เซิร์ฟเวอร์กว่า 10,240 ตู้ ➡️ เชื่อมต่อด้วยระบบ UBoE ที่มี latency ต่ำและ bandwidth สูง ✅ โครงสร้างและการออกแบบ ➡️ ประกอบด้วย 64 SuperPoD แต่ละชุดมี 8,192 APU ➡️ พื้นที่รวมของระบบกว่า 64,000 ตารางเมตร เทียบเท่าสนามฟุตบอล 9 สนาม ➡️ ใช้แนวทาง brute force เพื่อแข่งขันกับ Nvidia Rubin ที่จะเปิดตัวในปี 2026 ➡️ รองรับโมเดล AI ขนาดใหญ่ระดับหลายแสนล้านถึงหลายล้านล้านพารามิเตอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia Vera Rubin NVL144 ให้พลังเพียง 1.2 FP8 ExaFLOPS เทียบกับ 8 FP8 ของ SuperPoD Huawei ➡️ Oracle OCI Supercluster ใช้ B200 GPU 131,072 ตัว ให้พลัง 2.4 FP4 ZettaFLOPS ➡️ Huawei เตรียมเปิดตัว Atlas 960 SuperCluster ในปี 2027 พร้อมพลัง 4 ZettaFLOPS ➡️ Ascend roadmap ของ Huawei จะมีรุ่น 950PR, 960 และ 970 ตามลำดับในปีถัดไป https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-unveils-atlas-950-supercluster-touting-1-fp4-zettaflops-performance-for-ai-inference-and-524-fp8-exaflops-for-ai-training-features-hundreds-of-thousands-of-950dt-apus
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • Apple เตรียมทดสอบสายการผลิต iPhone พับได้ — ตั้งเป้าเพิ่มยอดขาย 10% ในปี 2026 พร้อมขยายฐานการผลิตสู่อินเดีย

    Apple กำลังเดินหมากครั้งสำคัญในตลาดสมาร์ตโฟน ด้วยการเตรียมทดสอบสายการผลิต iPhone รุ่นพับได้ ซึ่งอาจเป็นการเปิดตัวครั้งแรกของบริษัทในกลุ่มผลิตภัณฑ์ foldable ที่คู่แข่งอย่าง Samsung และ Huawei ได้ลงสนามไปก่อนแล้ว โดยมีรายงานจาก Nikkei Asia ว่า Apple ได้เริ่มพูดคุยกับซัพพลายเออร์เกี่ยวกับการตั้งสายการผลิตทดลองในไต้หวัน และมีแผนจะขยายไปสู่การผลิตจริงในอินเดียภายในปี 2026

    เป้าหมายของ Apple คือการเพิ่มยอดขาย iPhone ให้ได้ 10% จากปี 2025 ซึ่งคาดว่าจะอยู่ที่ประมาณ 241 ล้านเครื่อง โดยตั้งเป้าไว้ที่ 265 ล้านเครื่องในปี 2026 ซึ่งหากทำได้จริง จะเป็นสถิติใหม่ของบริษัทนับตั้งแต่ปี 2015 ที่ยอดขาย iPhone แกว่งอยู่ระหว่าง 200–250 ล้านเครื่องต่อปี

    นอกจากการเปิดตัว iPhone พับได้แล้ว Apple ยังเตรียมเปิดตัว iPhone 18 รุ่นใหม่ในช่วงปลายปี 2026 ซึ่งรวมถึง iPhone 18 Pro, Pro Max, Air 2 และรุ่นพับได้ โดยคาดว่าจะมี “halo effect” คือผู้บริโภคที่สนใจรุ่นพับได้ อาจตัดสินใจซื้อรุ่นธรรมดาแทน ส่งผลให้ยอดขายโดยรวมเพิ่มขึ้นทั้งไลน์ผลิตภัณฑ์

    อย่างไรก็ตาม ข้อมูลจาก Bank of America ระบุว่า iPhone 17 Pro และ Pro Max ในปีนี้มีระยะเวลารอจัดส่งนานกว่ารุ่นก่อนหน้า โดยเฉพาะ iPhone 17 รุ่นพื้นฐานที่มีเวลารอจัดส่งเฉลี่ยถึง 19 วัน ซึ่งเป็นระดับที่สูงที่สุดนับตั้งแต่ iPhone 11 ในปี 2019

    Apple เตรียมทดสอบสายการผลิต iPhone พับได้
    เริ่มพูดคุยกับซัพพลายเออร์ในไต้หวัน
    มีแผนขยายการผลิตจริงไปยังอินเดียในปี 2026

    ตั้งเป้าเพิ่มยอดขาย iPhone 10% ในปี 2026
    จาก 241 ล้านเครื่องในปี 2025 เป็น 265 ล้านเครื่องในปี 2026
    หากสำเร็จ จะเป็นสถิติใหม่ของบริษัท

    iPhone พับได้จะเป็นส่วนหนึ่งของไลน์ iPhone 18
    รวมถึงรุ่น Pro, Pro Max และ Air 2
    คาดว่าจะเกิด halo effect เพิ่มยอดขายรุ่นธรรมดา

    iPhone 17 มีระยะเวลารอจัดส่งนานกว่ารุ่นก่อน
    iPhone 17 Pro: รอ 18 วัน / Pro Max: รอ 25 วัน
    iPhone 17 รุ่นพื้นฐาน: รอ 19 วัน เทียบกับ 10 วันใน iPhone 16

    https://wccftech.com/apple-mulling-a-possible-test-production-line-for-a-foldable-iphone-targets-10-shipment-growth-in-2026/
    📰 Apple เตรียมทดสอบสายการผลิต iPhone พับได้ — ตั้งเป้าเพิ่มยอดขาย 10% ในปี 2026 พร้อมขยายฐานการผลิตสู่อินเดีย Apple กำลังเดินหมากครั้งสำคัญในตลาดสมาร์ตโฟน ด้วยการเตรียมทดสอบสายการผลิต iPhone รุ่นพับได้ ซึ่งอาจเป็นการเปิดตัวครั้งแรกของบริษัทในกลุ่มผลิตภัณฑ์ foldable ที่คู่แข่งอย่าง Samsung และ Huawei ได้ลงสนามไปก่อนแล้ว โดยมีรายงานจาก Nikkei Asia ว่า Apple ได้เริ่มพูดคุยกับซัพพลายเออร์เกี่ยวกับการตั้งสายการผลิตทดลองในไต้หวัน และมีแผนจะขยายไปสู่การผลิตจริงในอินเดียภายในปี 2026 เป้าหมายของ Apple คือการเพิ่มยอดขาย iPhone ให้ได้ 10% จากปี 2025 ซึ่งคาดว่าจะอยู่ที่ประมาณ 241 ล้านเครื่อง โดยตั้งเป้าไว้ที่ 265 ล้านเครื่องในปี 2026 ซึ่งหากทำได้จริง จะเป็นสถิติใหม่ของบริษัทนับตั้งแต่ปี 2015 ที่ยอดขาย iPhone แกว่งอยู่ระหว่าง 200–250 ล้านเครื่องต่อปี นอกจากการเปิดตัว iPhone พับได้แล้ว Apple ยังเตรียมเปิดตัว iPhone 18 รุ่นใหม่ในช่วงปลายปี 2026 ซึ่งรวมถึง iPhone 18 Pro, Pro Max, Air 2 และรุ่นพับได้ โดยคาดว่าจะมี “halo effect” คือผู้บริโภคที่สนใจรุ่นพับได้ อาจตัดสินใจซื้อรุ่นธรรมดาแทน ส่งผลให้ยอดขายโดยรวมเพิ่มขึ้นทั้งไลน์ผลิตภัณฑ์ อย่างไรก็ตาม ข้อมูลจาก Bank of America ระบุว่า iPhone 17 Pro และ Pro Max ในปีนี้มีระยะเวลารอจัดส่งนานกว่ารุ่นก่อนหน้า โดยเฉพาะ iPhone 17 รุ่นพื้นฐานที่มีเวลารอจัดส่งเฉลี่ยถึง 19 วัน ซึ่งเป็นระดับที่สูงที่สุดนับตั้งแต่ iPhone 11 ในปี 2019 ✅ Apple เตรียมทดสอบสายการผลิต iPhone พับได้ ➡️ เริ่มพูดคุยกับซัพพลายเออร์ในไต้หวัน ➡️ มีแผนขยายการผลิตจริงไปยังอินเดียในปี 2026 ✅ ตั้งเป้าเพิ่มยอดขาย iPhone 10% ในปี 2026 ➡️ จาก 241 ล้านเครื่องในปี 2025 เป็น 265 ล้านเครื่องในปี 2026 ➡️ หากสำเร็จ จะเป็นสถิติใหม่ของบริษัท ✅ iPhone พับได้จะเป็นส่วนหนึ่งของไลน์ iPhone 18 ➡️ รวมถึงรุ่น Pro, Pro Max และ Air 2 ➡️ คาดว่าจะเกิด halo effect เพิ่มยอดขายรุ่นธรรมดา ✅ iPhone 17 มีระยะเวลารอจัดส่งนานกว่ารุ่นก่อน ➡️ iPhone 17 Pro: รอ 18 วัน / Pro Max: รอ 25 วัน ➡️ iPhone 17 รุ่นพื้นฐาน: รอ 19 วัน เทียบกับ 10 วันใน iPhone 16 https://wccftech.com/apple-mulling-a-possible-test-production-line-for-a-foldable-iphone-targets-10-shipment-growth-in-2026/
    WCCFTECH.COM
    Apple Mulling A Possible Test Production Line For A Foldable iPhone, Targets 10% Shipment Growth In 2026
    Apple has held talks with its suppliers regarding the possibility of building a test production line for its planned foldable iPhones.
    0 ความคิดเห็น 0 การแบ่งปัน 182 มุมมอง 0 รีวิว
  • Futurewei แชร์อาคารกับ Nvidia นานนับสิบปี — สภาคองเกรสสหรัฐฯ เปิดสอบข้อกล่าวหา “จารกรรมเทคโนโลยี” จากจีน

    เรื่องนี้เริ่มต้นจากจดหมายของสองสมาชิกสภาคองเกรสสหรัฐฯ ได้แก่ John Moolenaar (รีพับลิกัน) และ Raja Krishnamoorthi (เดโมแครต) จากคณะกรรมการ Select Committee on China ที่ส่งถึงบริษัท Futurewei ซึ่งเป็นบริษัทวิจัยและพัฒนาในสหรัฐฯ แต่ถูกระบุว่าเป็น “บริษัทย่อยของ Huawei” ตามเอกสารที่ยื่นในเดือนพฤษภาคม 2025

    สิ่งที่น่ากังวลคือ Futurewei ได้แชร์พื้นที่สำนักงานกับ Nvidia ที่เมืองซานตาคลารา รัฐแคลิฟอร์เนีย เป็นเวลานานกว่า 10 ปี โดยถือสัญญาเช่าหลักในอาคาร 3 หลัง ก่อนที่ Nvidia จะเข้าครอบครองเต็มรูปแบบในปี 2024 ซึ่งนักการเมืองสหรัฐฯ มองว่า การอยู่ใกล้กันเช่นนี้อาจเปิดช่องให้ Futurewei เข้าถึงเทคโนโลยีเซมิคอนดักเตอร์และ AI ขั้นสูงของสหรัฐฯ ได้โดยไม่ต้องเจาะระบบ

    นอกจากนี้ยังมีการอ้างถึงเหตุการณ์ในปี 2018 ที่พนักงานของ Futurewei ถูกกล่าวหาว่าใช้ชื่อบริษัทปลอมเพื่อแอบเข้าร่วมงานประชุมของ Facebook ที่ Huawei ถูกแบน ซึ่งยิ่งเพิ่มความสงสัยว่า Futurewei อาจถูกใช้เป็นเครื่องมือในการสอดแนมทางเทคโนโลยี

    แม้ Nvidia จะออกมายืนยันว่า “แม้จะมีเพื่อนบ้าน แต่เราดำเนินงานในพื้นที่เฉพาะของ Nvidia เท่านั้น” แต่คณะกรรมการสภาฯ ยังคงเรียกร้องให้ Futurewei ส่งเอกสารทั้งหมดที่เกี่ยวข้องกับความสัมพันธ์กับ Huawei และเหตุผลในการเลือกสถานที่ตั้งสำนักงานดังกล่าวภายในวันที่ 28 กันยายนนี้

    Futurewei ถูกกล่าวหาว่าเป็นบริษัทย่อยของ Huawei
    อ้างอิงจากเอกสารที่ยื่นในเดือนพฤษภาคม 2025
    มีพนักงานประมาณ 400 คน ตั้งอยู่ในซานตาคลารา รัฐแคลิฟอร์เนีย

    แชร์พื้นที่สำนักงานกับ Nvidia นานกว่า 10 ปี
    Futurewei ถือสัญญาเช่าหลักในอาคาร 3 หลัง
    Nvidia เข้าครอบครองพื้นที่เต็มรูปแบบในปี 2024

    สภาคองเกรสสหรัฐฯ เปิดสอบข้อกล่าวหาการจารกรรมเทคโนโลยี
    ส่งจดหมายเรียกร้องเอกสารเกี่ยวกับความสัมพันธ์กับ Huawei
    ขอข้อมูลเกี่ยวกับการเลือกสถานที่ตั้งและกิจกรรมที่เกี่ยวข้องกับ Nvidia

    เหตุการณ์ในปี 2018 เพิ่มความสงสัย
    พนักงาน Futurewei ถูกกล่าวหาว่าใช้ชื่อบริษัทปลอมเพื่อเข้าร่วมงาน Facebook Summit
    Huawei ถูกแบนจากงานดังกล่าวในขณะนั้น

    Nvidia ยืนยันความปลอดภัยของพื้นที่ทำงาน
    ระบุว่า “เราดำเนินงานในพื้นที่เฉพาะของ Nvidia เท่านั้น”
    ไม่ได้มีการแชร์ระบบหรือข้อมูลร่วมกัน

    https://www.techradar.com/pro/security/nvidia-and-a-huawei-subsidiary-shared-a-building-now-its-being-probed-for-chinese-espionage
    📰 Futurewei แชร์อาคารกับ Nvidia นานนับสิบปี — สภาคองเกรสสหรัฐฯ เปิดสอบข้อกล่าวหา “จารกรรมเทคโนโลยี” จากจีน เรื่องนี้เริ่มต้นจากจดหมายของสองสมาชิกสภาคองเกรสสหรัฐฯ ได้แก่ John Moolenaar (รีพับลิกัน) และ Raja Krishnamoorthi (เดโมแครต) จากคณะกรรมการ Select Committee on China ที่ส่งถึงบริษัท Futurewei ซึ่งเป็นบริษัทวิจัยและพัฒนาในสหรัฐฯ แต่ถูกระบุว่าเป็น “บริษัทย่อยของ Huawei” ตามเอกสารที่ยื่นในเดือนพฤษภาคม 2025 สิ่งที่น่ากังวลคือ Futurewei ได้แชร์พื้นที่สำนักงานกับ Nvidia ที่เมืองซานตาคลารา รัฐแคลิฟอร์เนีย เป็นเวลานานกว่า 10 ปี โดยถือสัญญาเช่าหลักในอาคาร 3 หลัง ก่อนที่ Nvidia จะเข้าครอบครองเต็มรูปแบบในปี 2024 ซึ่งนักการเมืองสหรัฐฯ มองว่า การอยู่ใกล้กันเช่นนี้อาจเปิดช่องให้ Futurewei เข้าถึงเทคโนโลยีเซมิคอนดักเตอร์และ AI ขั้นสูงของสหรัฐฯ ได้โดยไม่ต้องเจาะระบบ นอกจากนี้ยังมีการอ้างถึงเหตุการณ์ในปี 2018 ที่พนักงานของ Futurewei ถูกกล่าวหาว่าใช้ชื่อบริษัทปลอมเพื่อแอบเข้าร่วมงานประชุมของ Facebook ที่ Huawei ถูกแบน ซึ่งยิ่งเพิ่มความสงสัยว่า Futurewei อาจถูกใช้เป็นเครื่องมือในการสอดแนมทางเทคโนโลยี แม้ Nvidia จะออกมายืนยันว่า “แม้จะมีเพื่อนบ้าน แต่เราดำเนินงานในพื้นที่เฉพาะของ Nvidia เท่านั้น” แต่คณะกรรมการสภาฯ ยังคงเรียกร้องให้ Futurewei ส่งเอกสารทั้งหมดที่เกี่ยวข้องกับความสัมพันธ์กับ Huawei และเหตุผลในการเลือกสถานที่ตั้งสำนักงานดังกล่าวภายในวันที่ 28 กันยายนนี้ ✅ Futurewei ถูกกล่าวหาว่าเป็นบริษัทย่อยของ Huawei ➡️ อ้างอิงจากเอกสารที่ยื่นในเดือนพฤษภาคม 2025 ➡️ มีพนักงานประมาณ 400 คน ตั้งอยู่ในซานตาคลารา รัฐแคลิฟอร์เนีย ✅ แชร์พื้นที่สำนักงานกับ Nvidia นานกว่า 10 ปี ➡️ Futurewei ถือสัญญาเช่าหลักในอาคาร 3 หลัง ➡️ Nvidia เข้าครอบครองพื้นที่เต็มรูปแบบในปี 2024 ✅ สภาคองเกรสสหรัฐฯ เปิดสอบข้อกล่าวหาการจารกรรมเทคโนโลยี ➡️ ส่งจดหมายเรียกร้องเอกสารเกี่ยวกับความสัมพันธ์กับ Huawei ➡️ ขอข้อมูลเกี่ยวกับการเลือกสถานที่ตั้งและกิจกรรมที่เกี่ยวข้องกับ Nvidia ✅ เหตุการณ์ในปี 2018 เพิ่มความสงสัย ➡️ พนักงาน Futurewei ถูกกล่าวหาว่าใช้ชื่อบริษัทปลอมเพื่อเข้าร่วมงาน Facebook Summit ➡️ Huawei ถูกแบนจากงานดังกล่าวในขณะนั้น ✅ Nvidia ยืนยันความปลอดภัยของพื้นที่ทำงาน ➡️ ระบุว่า “เราดำเนินงานในพื้นที่เฉพาะของ Nvidia เท่านั้น” ➡️ ไม่ได้มีการแชร์ระบบหรือข้อมูลร่วมกัน https://www.techradar.com/pro/security/nvidia-and-a-huawei-subsidiary-shared-a-building-now-its-being-probed-for-chinese-espionage
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia — ผลักดันใช้โปรเซสเซอร์ในประเทศแทน

    ในความเคลื่อนไหวที่สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีน ล่าสุดมีรายงานว่า รัฐบาลจีนได้สั่งห้ามบริษัทเทคโนโลยีรายใหญ่ของประเทศ เช่น Alibaba, ByteDance, Baidu และ Tencent ทำการจัดซื้อชิป AI จาก Nvidia แม้จะเป็นรุ่นที่ออกแบบมาเฉพาะสำหรับตลาดจีนอย่าง H800 และ A800 ก็ตาม

    คำสั่งนี้มีเป้าหมายเพื่อผลักดันให้บริษัทจีนหันมาใช้โปรเซสเซอร์ที่ผลิตภายในประเทศ เช่น Huawei Ascend 910B และ Moore Threads ซึ่งทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่ากับชิปรุ่น H20 และ RTX 6000 Pro ของ Nvidia

    การตัดสินใจนี้เกิดขึ้นหลังจากสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ไปยังจีน โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ซึ่งอาจนำไปใช้ในงานด้านการทหารหรือการพัฒนาเทคโนโลยีที่อ่อนไหว

    แม้บริษัทจีนจะยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลกระทบต่อการพัฒนา AI และการประมวลผลขั้นสูงในระยะยาว

    จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia
    รวมถึงชิปรุ่น H800 และ A800 ที่ออกแบบมาเฉพาะสำหรับตลาดจีน
    บริษัทที่ได้รับผลกระทบ ได้แก่ Alibaba, ByteDance, Baidu และ Tencent

    ผลักดันให้ใช้โปรเซสเซอร์ที่ผลิตในประเทศ
    เช่น Huawei Ascend 910B และ Moore Threads
    ทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่าชิปรุ่น H20 และ RTX 6000 Pro

    สหรัฐฯ มีมาตรการควบคุมการส่งออกชิป AI ไปยังจีน
    โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง
    หวั่นว่าจะถูกนำไปใช้ในงานด้านการทหารหรือเทคโนโลยีอ่อนไหว

    บริษัทจีนยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้
    แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลต่อการพัฒนา AI ในระยะยาว

    คำเตือนเกี่ยวกับผลกระทบต่ออุตสาหกรรม AI ในจีน
    การจำกัดการเข้าถึงชิปอาจทำให้การพัฒนาเทคโนโลยีล่าช้า
    อาจกระทบต่อการแข่งขันระดับโลกในด้าน AI และการประมวลผลขั้นสูง
    บริษัทจีนอาจต้องลงทุนเพิ่มในการพัฒนาเทคโนโลยีภายในประเทศ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/china-bans-its-biggest-tech-companies-from-acquiring-nvidia-chips-says-report-beijing-claims-its-homegrown-ai-processors-now-match-h20-and-rtx-pro-6000d
    📰 จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia — ผลักดันใช้โปรเซสเซอร์ในประเทศแทน ในความเคลื่อนไหวที่สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีน ล่าสุดมีรายงานว่า รัฐบาลจีนได้สั่งห้ามบริษัทเทคโนโลยีรายใหญ่ของประเทศ เช่น Alibaba, ByteDance, Baidu และ Tencent ทำการจัดซื้อชิป AI จาก Nvidia แม้จะเป็นรุ่นที่ออกแบบมาเฉพาะสำหรับตลาดจีนอย่าง H800 และ A800 ก็ตาม คำสั่งนี้มีเป้าหมายเพื่อผลักดันให้บริษัทจีนหันมาใช้โปรเซสเซอร์ที่ผลิตภายในประเทศ เช่น Huawei Ascend 910B และ Moore Threads ซึ่งทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่ากับชิปรุ่น H20 และ RTX 6000 Pro ของ Nvidia การตัดสินใจนี้เกิดขึ้นหลังจากสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ไปยังจีน โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ซึ่งอาจนำไปใช้ในงานด้านการทหารหรือการพัฒนาเทคโนโลยีที่อ่อนไหว แม้บริษัทจีนจะยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลกระทบต่อการพัฒนา AI และการประมวลผลขั้นสูงในระยะยาว ✅ จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia ➡️ รวมถึงชิปรุ่น H800 และ A800 ที่ออกแบบมาเฉพาะสำหรับตลาดจีน ➡️ บริษัทที่ได้รับผลกระทบ ได้แก่ Alibaba, ByteDance, Baidu และ Tencent ✅ ผลักดันให้ใช้โปรเซสเซอร์ที่ผลิตในประเทศ ➡️ เช่น Huawei Ascend 910B และ Moore Threads ➡️ ทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่าชิปรุ่น H20 และ RTX 6000 Pro ✅ สหรัฐฯ มีมาตรการควบคุมการส่งออกชิป AI ไปยังจีน ➡️ โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ➡️ หวั่นว่าจะถูกนำไปใช้ในงานด้านการทหารหรือเทคโนโลยีอ่อนไหว ✅ บริษัทจีนยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ ➡️ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลต่อการพัฒนา AI ในระยะยาว ‼️ คำเตือนเกี่ยวกับผลกระทบต่ออุตสาหกรรม AI ในจีน ⛔ การจำกัดการเข้าถึงชิปอาจทำให้การพัฒนาเทคโนโลยีล่าช้า ⛔ อาจกระทบต่อการแข่งขันระดับโลกในด้าน AI และการประมวลผลขั้นสูง ⛔ บริษัทจีนอาจต้องลงทุนเพิ่มในการพัฒนาเทคโนโลยีภายในประเทศ https://www.tomshardware.com/tech-industry/artificial-intelligence/china-bans-its-biggest-tech-companies-from-acquiring-nvidia-chips-says-report-beijing-claims-its-homegrown-ai-processors-now-match-h20-and-rtx-pro-6000d
    0 ความคิดเห็น 0 การแบ่งปัน 223 มุมมอง 0 รีวิว
  • “SMIC ทดสอบเครื่อง DUV ฝีมือจีนครั้งแรก — ความหวังใหม่สู่การผลิตชิป 5nm โดยไม่ต้องพึ่ง ASML”

    ในช่วงกลางเดือนกันยายน 2025 มีรายงานจาก Financial Times ว่า SMIC (Semiconductor Manufacturing International Corporation) ผู้ผลิตชิปรายใหญ่ของจีน กำลังทดสอบเครื่อง lithography แบบ DUV (Deep Ultraviolet) ที่ผลิตโดยบริษัทสตาร์ทอัพในประเทศชื่อ Yuliangsheng ซึ่งตั้งอยู่ในเซี่ยงไฮ้ นี่ถือเป็นครั้งแรกที่จีนสามารถผลิตเครื่อง DUV ได้เอง และอาจเป็นจุดเริ่มต้นของการพึ่งพาตนเองด้านอุปกรณ์ผลิตชิปขั้นสูง

    เดิมที SMIC ต้องพึ่งพาเครื่องจักรจาก ASML บริษัทเนเธอร์แลนด์ที่เป็นผู้นำด้านเทคโนโลยี lithography แต่เนื่องจากข้อจำกัดด้านการส่งออกจากสหรัฐฯ ทำให้จีนไม่สามารถเข้าถึงเครื่อง EUV (Extreme Ultraviolet) ได้ ซึ่งจำเป็นสำหรับการผลิตชิประดับ 5nm และต่ำกว่า

    แม้เครื่อง DUV ของ Yuliangsheng จะยังไม่สามารถเทียบเท่า EUV ได้ แต่มีการระบุว่าสามารถ “scale” การผลิตได้ถึงระดับ 5nm ด้วยเทคนิคการทำ pattern ซ้ำหลายชั้น (multi-patterning) อย่างไรก็ตาม วิธีนี้มีความเสี่ยงด้าน yield หรืออัตราการผลิตชิปที่ใช้งานได้จริง เนื่องจากการจัดตำแหน่งหลายชั้นอาจเกิดข้อผิดพลาดสะสม

    SMIC เคยใช้วิธีนี้ในการผลิตชิป 7nm มาก่อน และยอมรับ yield ที่ต่ำเพื่อให้สามารถผลิตได้ในปริมาณมาก ซึ่งอาจเป็นแนวทางเดียวกันสำหรับการผลิต 5nm ด้วยเครื่อง DUV ภายในประเทศ โดยเฉพาะเมื่อความต้องการชิป AI ในจีนเพิ่มขึ้นอย่างรวดเร็ว

    การพัฒนาเครื่อง DUV นี้ยังมีความท้าทาย เพราะแม้ส่วนใหญ่ของชิ้นส่วนจะผลิตในประเทศ แต่บางส่วนยังต้องนำเข้าจากต่างประเทศ อย่างไรก็ตาม Yuliangsheng กำลังพยายามพัฒนาให้ทุกชิ้นส่วนสามารถผลิตในจีนได้ในอนาคต

    ข้อมูลสำคัญจากข่าว
    SMIC กำลังทดสอบเครื่อง DUV ที่ผลิตโดยบริษัทจีน Yuliangsheng
    เป็นครั้งแรกที่จีนสามารถผลิตเครื่อง lithography แบบ DUV ได้เอง
    เครื่องนี้อาจสามารถ scale การผลิตชิปได้ถึงระดับ 5nm ด้วยเทคนิค multi-patterning
    SMIC เคยใช้วิธีนี้ในการผลิตชิป 7nm โดยยอมรับ yield ต่ำเพื่อให้ผลิตได้

    ความเคลื่อนไหวในอุตสาหกรรม
    ความต้องการชิป AI ในจีนเพิ่มขึ้นอย่างรวดเร็ว ทำให้ต้องเร่งพัฒนาอุปกรณ์ภายในประเทศ
    SMIC ไม่สามารถเข้าถึงเครื่อง EUV จาก ASML เนื่องจากข้อจำกัดด้านการส่งออก
    เครื่อง DUV ของ Yuliangsheng ใช้เทคโนโลยี immersion คล้ายกับของ ASML
    ส่วนประกอบบางส่วนยังนำเข้าจากต่างประเทศ แต่มีแผนพัฒนาให้ผลิตในจีนทั้งหมด

    ข้อมูลเสริมจากภายนอก
    SMIC เคยผลิตชิป 5nm โดยใช้เทคนิค SAQP (Self-Aligned Quadruple Patterning) บนเครื่อง DUV
    Huawei ใช้ชิปจาก SMIC ใน Ascend 920 ที่ผลิตบนกระบวนการ 6nm และให้ประสิทธิภาพสูงถึง 900 TFLOPS1
    บริษัทจีนอย่าง AMEC และ NAURA เริ่มแข่งขันกับ Lam Research และ TEL ในด้านอุปกรณ์ประกอบการผลิตชิป
    จีนตั้งเป้าเป็นผู้ผลิตชิปอันดับหนึ่งของโลกภายในปี 2030 โดยเน้นการพึ่งพาตนเองในทุกขั้นตอน

    https://wccftech.com/china-smic-reportedly-testing-nations-first-self-built-duv-machine/
    🔬 “SMIC ทดสอบเครื่อง DUV ฝีมือจีนครั้งแรก — ความหวังใหม่สู่การผลิตชิป 5nm โดยไม่ต้องพึ่ง ASML” ในช่วงกลางเดือนกันยายน 2025 มีรายงานจาก Financial Times ว่า SMIC (Semiconductor Manufacturing International Corporation) ผู้ผลิตชิปรายใหญ่ของจีน กำลังทดสอบเครื่อง lithography แบบ DUV (Deep Ultraviolet) ที่ผลิตโดยบริษัทสตาร์ทอัพในประเทศชื่อ Yuliangsheng ซึ่งตั้งอยู่ในเซี่ยงไฮ้ นี่ถือเป็นครั้งแรกที่จีนสามารถผลิตเครื่อง DUV ได้เอง และอาจเป็นจุดเริ่มต้นของการพึ่งพาตนเองด้านอุปกรณ์ผลิตชิปขั้นสูง เดิมที SMIC ต้องพึ่งพาเครื่องจักรจาก ASML บริษัทเนเธอร์แลนด์ที่เป็นผู้นำด้านเทคโนโลยี lithography แต่เนื่องจากข้อจำกัดด้านการส่งออกจากสหรัฐฯ ทำให้จีนไม่สามารถเข้าถึงเครื่อง EUV (Extreme Ultraviolet) ได้ ซึ่งจำเป็นสำหรับการผลิตชิประดับ 5nm และต่ำกว่า แม้เครื่อง DUV ของ Yuliangsheng จะยังไม่สามารถเทียบเท่า EUV ได้ แต่มีการระบุว่าสามารถ “scale” การผลิตได้ถึงระดับ 5nm ด้วยเทคนิคการทำ pattern ซ้ำหลายชั้น (multi-patterning) อย่างไรก็ตาม วิธีนี้มีความเสี่ยงด้าน yield หรืออัตราการผลิตชิปที่ใช้งานได้จริง เนื่องจากการจัดตำแหน่งหลายชั้นอาจเกิดข้อผิดพลาดสะสม SMIC เคยใช้วิธีนี้ในการผลิตชิป 7nm มาก่อน และยอมรับ yield ที่ต่ำเพื่อให้สามารถผลิตได้ในปริมาณมาก ซึ่งอาจเป็นแนวทางเดียวกันสำหรับการผลิต 5nm ด้วยเครื่อง DUV ภายในประเทศ โดยเฉพาะเมื่อความต้องการชิป AI ในจีนเพิ่มขึ้นอย่างรวดเร็ว การพัฒนาเครื่อง DUV นี้ยังมีความท้าทาย เพราะแม้ส่วนใหญ่ของชิ้นส่วนจะผลิตในประเทศ แต่บางส่วนยังต้องนำเข้าจากต่างประเทศ อย่างไรก็ตาม Yuliangsheng กำลังพยายามพัฒนาให้ทุกชิ้นส่วนสามารถผลิตในจีนได้ในอนาคต ✅ ข้อมูลสำคัญจากข่าว ➡️ SMIC กำลังทดสอบเครื่อง DUV ที่ผลิตโดยบริษัทจีน Yuliangsheng ➡️ เป็นครั้งแรกที่จีนสามารถผลิตเครื่อง lithography แบบ DUV ได้เอง ➡️ เครื่องนี้อาจสามารถ scale การผลิตชิปได้ถึงระดับ 5nm ด้วยเทคนิค multi-patterning ➡️ SMIC เคยใช้วิธีนี้ในการผลิตชิป 7nm โดยยอมรับ yield ต่ำเพื่อให้ผลิตได้ ✅ ความเคลื่อนไหวในอุตสาหกรรม ➡️ ความต้องการชิป AI ในจีนเพิ่มขึ้นอย่างรวดเร็ว ทำให้ต้องเร่งพัฒนาอุปกรณ์ภายในประเทศ ➡️ SMIC ไม่สามารถเข้าถึงเครื่อง EUV จาก ASML เนื่องจากข้อจำกัดด้านการส่งออก ➡️ เครื่อง DUV ของ Yuliangsheng ใช้เทคโนโลยี immersion คล้ายกับของ ASML ➡️ ส่วนประกอบบางส่วนยังนำเข้าจากต่างประเทศ แต่มีแผนพัฒนาให้ผลิตในจีนทั้งหมด ✅ ข้อมูลเสริมจากภายนอก ➡️ SMIC เคยผลิตชิป 5nm โดยใช้เทคนิค SAQP (Self-Aligned Quadruple Patterning) บนเครื่อง DUV ➡️ Huawei ใช้ชิปจาก SMIC ใน Ascend 920 ที่ผลิตบนกระบวนการ 6nm และให้ประสิทธิภาพสูงถึง 900 TFLOPS1 ➡️ บริษัทจีนอย่าง AMEC และ NAURA เริ่มแข่งขันกับ Lam Research และ TEL ในด้านอุปกรณ์ประกอบการผลิตชิป ➡️ จีนตั้งเป้าเป็นผู้ผลิตชิปอันดับหนึ่งของโลกภายในปี 2030 โดยเน้นการพึ่งพาตนเองในทุกขั้นตอน https://wccftech.com/china-smic-reportedly-testing-nations-first-self-built-duv-machine/
    WCCFTECH.COM
    China's SMIC Reportedly Testing Nation's First Self-Built DUV Machine in a Major Breakthrough That Could Scale Production to 5nm
    China's chip segment might have witnessed another breakthrough, as a new report claims that SMIC is trialing the first in-house DUV machine.
    0 ความคิดเห็น 0 การแบ่งปัน 245 มุมมอง 0 รีวิว
  • “Tencent หันหลังให้ Nvidia — ปรับโครงสร้าง AI สู่ชิปจีนเต็มรูปแบบ ท่ามกลางแรงกดดันจากสงครามเทคโนโลยี”

    Tencent บริษัทเทคโนโลยียักษ์ใหญ่ของจีน ประกาศอย่างเป็นทางการในงาน Global Digital Ecosystem Summit เมื่อวันที่ 16 กันยายน 2025 ว่าได้ “ปรับโครงสร้างระบบประมวลผล AI ทั้งหมด” เพื่อรองรับชิปที่ออกแบบโดยบริษัทจีน โดยไม่พึ่งพา Nvidia อีกต่อไป ถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในยุทธศาสตร์ด้านฮาร์ดแวร์ของบริษัท และสะท้อนแนวโน้มการพึ่งพาตนเองของจีนในยุคที่การส่งออกเทคโนโลยีจากสหรัฐฯ ถูกจำกัดอย่างเข้มงวด

    Qiu Yuepeng ประธาน Tencent Cloud ยืนยันว่าบริษัทได้ใช้ “ชิปจีนกระแสหลัก” ในการผลิตจริง ไม่ใช่แค่ทดลอง และกำลังร่วมมือกับผู้ผลิตชิปหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน พร้อมลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อลดต้นทุนการประมวลผล

    การประกาศนี้เกิดขึ้นเพียงหนึ่งวันหลังจากหน่วยงานกำกับดูแลของจีนเปิดเผยว่า Nvidia ละเมิดกฎการควบรวมกิจการจากการซื้อ Mellanox ในปี 2019 ซึ่งเพิ่มแรงกดดันให้บริษัทจีนต้องเร่งพัฒนาเทคโนโลยีของตนเอง

    แม้ Tencent จะไม่เปิดเผยชื่อชิปที่ใช้งานจริง แต่หลายฝ่ายคาดว่าเป็น Huawei Ascend ซึ่งมีการใช้งานแล้วใน ByteDance และได้รับการสนับสนุนจากเฟรมเวิร์ก MindSpore ที่พัฒนาอย่างต่อเนื่อง อย่างไรก็ตาม ยังมีข้อสงสัยว่าชิปเหล่านี้จะสามารถรองรับการฝึกโมเดลขนาดใหญ่ได้จริงหรือไม่ เนื่องจาก Huawei ถูกคาดว่าจะผลิตได้เพียง 200,000 ชิป AI ในปีหน้า

    Tencent ยังระบุว่ามีชิปสำหรับการฝึกโมเดลเพียงพอในคลัง และมี “หลายทางเลือก” สำหรับ inference ซึ่งสะท้อนถึงการกระจายความเสี่ยงด้านซัพพลายเชนอย่างชัดเจน

    ข้อมูลสำคัญจากข่าว
    Tencent ประกาศปรับโครงสร้างระบบ AI เพื่อรองรับชิปจีนเต็มรูปแบบ
    ใช้ชิปจีนกระแสหลักในระดับการผลิตจริง ไม่ใช่แค่ทดลอง
    ร่วมมือกับผู้ผลิตหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน
    ลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์

    ความเคลื่อนไหวที่เกี่ยวข้อง
    Nvidia ถูกกล่าวหาว่าละเมิดกฎการควบรวมกิจการในจีนจากดีล Mellanox
    Tencent มีชิปสำหรับการฝึกโมเดลเพียงพอ และมีหลายทางเลือกสำหรับ inference
    DeepSeek AI ประกาศว่าโมเดล V3.1 ถูกออกแบบมาเพื่อรองรับชิปจีนรุ่นใหม่
    Huawei Ascend ถูกใช้งานใน ByteDance และมีเฟรมเวิร์ก MindSpore รองรับ

    ข้อมูลเสริมจากภายนอก
    จีนตั้งเป้าให้บริษัทในประเทศใช้ชิปจีนอย่างน้อย 50% ภายในปี 2026
    กลุ่ม Model-Chips Ecosystem Innovation Alliance ก่อตั้งขึ้นเพื่อผลักดันการใช้ชิปจีนในงาน AI
    การเปลี่ยนจาก Nvidia ไปยังชิปจีนต้องใช้เวลาและต้นทุนสูงในการปรับซอฟต์แวร์
    Huawei Ascend ยังมีข้อจำกัดด้านปริมาณการผลิตและการเข้าถึง HBM

    https://www.tomshardware.com/tech-industry/semiconductors/tencent-goes-public-with-pivot-to-chinese-chips
    🇨🇳 “Tencent หันหลังให้ Nvidia — ปรับโครงสร้าง AI สู่ชิปจีนเต็มรูปแบบ ท่ามกลางแรงกดดันจากสงครามเทคโนโลยี” Tencent บริษัทเทคโนโลยียักษ์ใหญ่ของจีน ประกาศอย่างเป็นทางการในงาน Global Digital Ecosystem Summit เมื่อวันที่ 16 กันยายน 2025 ว่าได้ “ปรับโครงสร้างระบบประมวลผล AI ทั้งหมด” เพื่อรองรับชิปที่ออกแบบโดยบริษัทจีน โดยไม่พึ่งพา Nvidia อีกต่อไป ถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในยุทธศาสตร์ด้านฮาร์ดแวร์ของบริษัท และสะท้อนแนวโน้มการพึ่งพาตนเองของจีนในยุคที่การส่งออกเทคโนโลยีจากสหรัฐฯ ถูกจำกัดอย่างเข้มงวด Qiu Yuepeng ประธาน Tencent Cloud ยืนยันว่าบริษัทได้ใช้ “ชิปจีนกระแสหลัก” ในการผลิตจริง ไม่ใช่แค่ทดลอง และกำลังร่วมมือกับผู้ผลิตชิปหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน พร้อมลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อลดต้นทุนการประมวลผล การประกาศนี้เกิดขึ้นเพียงหนึ่งวันหลังจากหน่วยงานกำกับดูแลของจีนเปิดเผยว่า Nvidia ละเมิดกฎการควบรวมกิจการจากการซื้อ Mellanox ในปี 2019 ซึ่งเพิ่มแรงกดดันให้บริษัทจีนต้องเร่งพัฒนาเทคโนโลยีของตนเอง แม้ Tencent จะไม่เปิดเผยชื่อชิปที่ใช้งานจริง แต่หลายฝ่ายคาดว่าเป็น Huawei Ascend ซึ่งมีการใช้งานแล้วใน ByteDance และได้รับการสนับสนุนจากเฟรมเวิร์ก MindSpore ที่พัฒนาอย่างต่อเนื่อง อย่างไรก็ตาม ยังมีข้อสงสัยว่าชิปเหล่านี้จะสามารถรองรับการฝึกโมเดลขนาดใหญ่ได้จริงหรือไม่ เนื่องจาก Huawei ถูกคาดว่าจะผลิตได้เพียง 200,000 ชิป AI ในปีหน้า Tencent ยังระบุว่ามีชิปสำหรับการฝึกโมเดลเพียงพอในคลัง และมี “หลายทางเลือก” สำหรับ inference ซึ่งสะท้อนถึงการกระจายความเสี่ยงด้านซัพพลายเชนอย่างชัดเจน ✅ ข้อมูลสำคัญจากข่าว ➡️ Tencent ประกาศปรับโครงสร้างระบบ AI เพื่อรองรับชิปจีนเต็มรูปแบบ ➡️ ใช้ชิปจีนกระแสหลักในระดับการผลิตจริง ไม่ใช่แค่ทดลอง ➡️ ร่วมมือกับผู้ผลิตหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน ➡️ ลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ ✅ ความเคลื่อนไหวที่เกี่ยวข้อง ➡️ Nvidia ถูกกล่าวหาว่าละเมิดกฎการควบรวมกิจการในจีนจากดีล Mellanox ➡️ Tencent มีชิปสำหรับการฝึกโมเดลเพียงพอ และมีหลายทางเลือกสำหรับ inference ➡️ DeepSeek AI ประกาศว่าโมเดล V3.1 ถูกออกแบบมาเพื่อรองรับชิปจีนรุ่นใหม่ ➡️ Huawei Ascend ถูกใช้งานใน ByteDance และมีเฟรมเวิร์ก MindSpore รองรับ ✅ ข้อมูลเสริมจากภายนอก ➡️ จีนตั้งเป้าให้บริษัทในประเทศใช้ชิปจีนอย่างน้อย 50% ภายในปี 2026 ➡️ กลุ่ม Model-Chips Ecosystem Innovation Alliance ก่อตั้งขึ้นเพื่อผลักดันการใช้ชิปจีนในงาน AI ➡️ การเปลี่ยนจาก Nvidia ไปยังชิปจีนต้องใช้เวลาและต้นทุนสูงในการปรับซอฟต์แวร์ ➡️ Huawei Ascend ยังมีข้อจำกัดด้านปริมาณการผลิตและการเข้าถึง HBM https://www.tomshardware.com/tech-industry/semiconductors/tencent-goes-public-with-pivot-to-chinese-chips
    WWW.TOMSHARDWARE.COM
    Chinese giant Tencent announces domestic AI chip push — says it has fully adapted infrastructure to support homegrown silicon in blow to Nvidia
    Tencent goes public with its pivot to Chinese accelerators, highlighting a deeper break from Nvidia as domestic AI hardware matures.
    0 ความคิดเห็น 0 การแบ่งปัน 235 มุมมอง 0 รีวิว
  • “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ”

    จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ

    แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน

    แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ

    นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป

    ความคืบหน้าการผลิตชิป AI ในจีน
    Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026
    SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class
    Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B
    SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027

    ปัญหาด้านหน่วยความจำ HBM
    Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน
    คาดว่า HBM จะหมดภายในสิ้นปี 2025
    CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป
    YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM

    การลงทุนและแผนระยะยาว
    Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง
    ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน
    หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ
    เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ

    ข้อมูลเสริมจากภายนอก
    NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้
    CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน
    Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI
    จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    🇨🇳 “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ” จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป ✅ ความคืบหน้าการผลิตชิป AI ในจีน ➡️ Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026 ➡️ SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class ➡️ Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B ➡️ SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027 ✅ ปัญหาด้านหน่วยความจำ HBM ➡️ Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน ➡️ คาดว่า HBM จะหมดภายในสิ้นปี 2025 ➡️ CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป ➡️ YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM ✅ การลงทุนและแผนระยะยาว ➡️ Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง ➡️ ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน ➡️ หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ ➡️ เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้ ➡️ CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน ➡️ Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI ➡️ จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    0 ความคิดเห็น 0 การแบ่งปัน 250 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก 9-9-6 ถึง 0-0-7: เมื่อความขยันกลายเป็นเครื่องมือกดดันมากกว่าความภาคภูมิใจ

    Armin Ronacher นักพัฒนาโอเพ่นซอร์สชื่อดังเขียนบทความสะท้อนถึงวัฒนธรรม “996” หรือการทำงานตั้งแต่ 9 โมงเช้าถึง 3 ทุ่ม 6 วันต่อสัปดาห์ ซึ่งเคยถูกมองว่าเป็น “สูตรลับ” ของความสำเร็จในวงการสตาร์ทอัพ โดยเฉพาะในจีน

    เขาเล่าว่าแม้ตัวเองจะรักการทำงานดึก รักการเขียนโค้ด และเคยทำงานจนไม่ได้นอนก่อนเที่ยงคืนเลยตลอดสัปดาห์ แต่เขาก็รักครอบครัว รักการเดินเล่น และการสนทนาอย่างลึกซึ้ง—สิ่งที่ไม่มีทางเกิดขึ้นได้ในชีวิตที่ถูกกำหนดด้วย 72 ชั่วโมงต่อสัปดาห์

    Ronacher เตือนว่าแม้ผู้ก่อตั้งบริษัทจะมีแรงจูงใจสูง แต่การผลักดันให้พนักงานทำงานแบบ 996 โดยไม่มีอำนาจหรือผลตอบแทนเท่ากันนั้น “ไม่รับผิดชอบ” และไม่ควรเป็นวัฒนธรรมองค์กร

    เขาย้ำว่า “ความเข้มข้น” ในการทำงานไม่ควรวัดจากจำนวนชั่วโมง แต่จากผลลัพธ์ที่สร้างได้ และการทำงานหนักควรเป็น “ทางเลือกส่วนตัว” ไม่ใช่ “ข้อบังคับทางวัฒนธรรม”

    ในขณะเดียวกัน บทวิเคราะห์จาก Forbes และ CNBC ก็ชี้ว่า 996 กำลังถูกนำมาใช้ในสหรัฐฯ โดยบางบริษัทสตาร์ทอัพในซิลิคอนวัลเลย์เริ่มใช้เป็น “ตัวกรอง” ในการคัดเลือกพนักงาน โดยถามตรง ๆ ว่า “คุณพร้อมทำงาน 996 ไหม”

    แม้จะถูกมองว่าเป็นกลยุทธ์เร่งการเติบโต แต่ผลกระทบกลับรุนแรง ทั้งด้านสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออกที่สูงขึ้น โดยเฉพาะในทีมเล็กที่การเสียคนหนึ่งอาจทำให้ทั้งโปรเจกต์หยุดชะงัก

    ในจีนเอง แม้ 996 จะเคยถูกยกย่องโดยผู้ก่อตั้งอย่าง Jack Ma ว่าเป็น “พร” แต่ตอนนี้เริ่มมีการต่อต้านมากขึ้น โดยศาลสูงสุดของจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน และนักวิชาการบางคนถึงกับเปรียบเทียบว่าเป็น “แรงงานกึ่งบังคับ”

    ความหมายและต้นกำเนิดของวัฒนธรรม 996
    หมายถึงการทำงาน 9am–9pm, 6 วันต่อสัปดาห์ รวม 72 ชั่วโมง
    เริ่มจากวงการเทคโนโลยีในจีน เช่น Alibaba, Huawei
    ถูกมองว่าเป็นสูตรเร่งการเติบโตของสตาร์ทอัพ

    มุมมองจาก Armin Ronacher
    รักการทำงานหนัก แต่ไม่สนับสนุนการบังคับให้คนอื่นทำแบบเดียวกัน
    ชี้ว่าความเข้มข้นควรวัดจากผลลัพธ์ ไม่ใช่จำนวนชั่วโมง
    การทำงานหนักควรเป็นทางเลือก ไม่ใช่วัฒนธรรมองค์กร

    การแพร่กระจายของ 996 สู่ตะวันตก
    บางบริษัทในสหรัฐฯ ใช้ 996 เป็นเกณฑ์คัดเลือกพนักงาน
    มีการโฆษณาในประกาศรับสมัครว่า “ต้องตื่นเต้นกับการทำงาน 70+ ชั่วโมง”
    ถูกมองว่าเป็น hustle culture ที่อาจย้อนกลับมาทำลายองค์กรเอง

    การต่อต้านและผลกระทบ
    ศาลจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน
    นักวิชาการเปรียบเทียบว่าเป็นแรงงานกึ่งบังคับ
    ส่งผลต่อสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออก

    https://lucumr.pocoo.org/2025/9/4/996/
    🎙️ เรื่องเล่าจาก 9-9-6 ถึง 0-0-7: เมื่อความขยันกลายเป็นเครื่องมือกดดันมากกว่าความภาคภูมิใจ Armin Ronacher นักพัฒนาโอเพ่นซอร์สชื่อดังเขียนบทความสะท้อนถึงวัฒนธรรม “996” หรือการทำงานตั้งแต่ 9 โมงเช้าถึง 3 ทุ่ม 6 วันต่อสัปดาห์ ซึ่งเคยถูกมองว่าเป็น “สูตรลับ” ของความสำเร็จในวงการสตาร์ทอัพ โดยเฉพาะในจีน เขาเล่าว่าแม้ตัวเองจะรักการทำงานดึก รักการเขียนโค้ด และเคยทำงานจนไม่ได้นอนก่อนเที่ยงคืนเลยตลอดสัปดาห์ แต่เขาก็รักครอบครัว รักการเดินเล่น และการสนทนาอย่างลึกซึ้ง—สิ่งที่ไม่มีทางเกิดขึ้นได้ในชีวิตที่ถูกกำหนดด้วย 72 ชั่วโมงต่อสัปดาห์ Ronacher เตือนว่าแม้ผู้ก่อตั้งบริษัทจะมีแรงจูงใจสูง แต่การผลักดันให้พนักงานทำงานแบบ 996 โดยไม่มีอำนาจหรือผลตอบแทนเท่ากันนั้น “ไม่รับผิดชอบ” และไม่ควรเป็นวัฒนธรรมองค์กร เขาย้ำว่า “ความเข้มข้น” ในการทำงานไม่ควรวัดจากจำนวนชั่วโมง แต่จากผลลัพธ์ที่สร้างได้ และการทำงานหนักควรเป็น “ทางเลือกส่วนตัว” ไม่ใช่ “ข้อบังคับทางวัฒนธรรม” ในขณะเดียวกัน บทวิเคราะห์จาก Forbes และ CNBC ก็ชี้ว่า 996 กำลังถูกนำมาใช้ในสหรัฐฯ โดยบางบริษัทสตาร์ทอัพในซิลิคอนวัลเลย์เริ่มใช้เป็น “ตัวกรอง” ในการคัดเลือกพนักงาน โดยถามตรง ๆ ว่า “คุณพร้อมทำงาน 996 ไหม” แม้จะถูกมองว่าเป็นกลยุทธ์เร่งการเติบโต แต่ผลกระทบกลับรุนแรง ทั้งด้านสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออกที่สูงขึ้น โดยเฉพาะในทีมเล็กที่การเสียคนหนึ่งอาจทำให้ทั้งโปรเจกต์หยุดชะงัก ในจีนเอง แม้ 996 จะเคยถูกยกย่องโดยผู้ก่อตั้งอย่าง Jack Ma ว่าเป็น “พร” แต่ตอนนี้เริ่มมีการต่อต้านมากขึ้น โดยศาลสูงสุดของจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน และนักวิชาการบางคนถึงกับเปรียบเทียบว่าเป็น “แรงงานกึ่งบังคับ” ✅ ความหมายและต้นกำเนิดของวัฒนธรรม 996 ➡️ หมายถึงการทำงาน 9am–9pm, 6 วันต่อสัปดาห์ รวม 72 ชั่วโมง ➡️ เริ่มจากวงการเทคโนโลยีในจีน เช่น Alibaba, Huawei ➡️ ถูกมองว่าเป็นสูตรเร่งการเติบโตของสตาร์ทอัพ ✅ มุมมองจาก Armin Ronacher ➡️ รักการทำงานหนัก แต่ไม่สนับสนุนการบังคับให้คนอื่นทำแบบเดียวกัน ➡️ ชี้ว่าความเข้มข้นควรวัดจากผลลัพธ์ ไม่ใช่จำนวนชั่วโมง ➡️ การทำงานหนักควรเป็นทางเลือก ไม่ใช่วัฒนธรรมองค์กร ✅ การแพร่กระจายของ 996 สู่ตะวันตก ➡️ บางบริษัทในสหรัฐฯ ใช้ 996 เป็นเกณฑ์คัดเลือกพนักงาน ➡️ มีการโฆษณาในประกาศรับสมัครว่า “ต้องตื่นเต้นกับการทำงาน 70+ ชั่วโมง” ➡️ ถูกมองว่าเป็น hustle culture ที่อาจย้อนกลับมาทำลายองค์กรเอง ✅ การต่อต้านและผลกระทบ ➡️ ศาลจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน ➡️ นักวิชาการเปรียบเทียบว่าเป็นแรงงานกึ่งบังคับ ➡️ ส่งผลต่อสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออก https://lucumr.pocoo.org/2025/9/4/996/
    LUCUMR.POCOO.ORG
    996
    There is cost to your lifestyle.
    0 ความคิดเห็น 0 การแบ่งปัน 269 มุมมอง 0 รีวิว
  • เรื่องเล่าจากซิมการ์ดถึง eSIM: เมื่อการปลดล็อกมือถือกลายเป็นเรื่องจำเป็นมากกว่าทางเลือก

    หลายคนอาจเคยซื้อสมาร์ทโฟน Android ผ่านผู้ให้บริการเครือข่าย เช่น Verizon, AT&T หรือ T-Mobile โดยจ่ายราคาถูกลงผ่านสัญญาผ่อนรายเดือน ซึ่งสะดวกและน่าดึงดูด แต่สิ่งที่หลายคนไม่รู้คือ โทรศัพท์เหล่านี้มักจะ “ล็อกเครือข่าย” ทำให้ไม่สามารถใช้ซิมจากเครือข่ายอื่นได้ทันที

    ในทางกลับกัน โทรศัพท์ที่ “ปลดล็อก” แล้วจะสามารถใช้กับซิมใดก็ได้ทั่วโลก ซึ่งเหมาะมากสำหรับนักเดินทางหรือผู้ที่ไม่ต้องการผูกมัดกับสัญญาระยะยาว โดย FCC (คณะกรรมการการสื่อสารแห่งสหรัฐฯ) ยังออกข้อบังคับให้ผู้ให้บริการต้องช่วยปลดล็อกเครื่องเมื่อสัญญาสิ้นสุด

    วิธีเช็กว่าเครื่องของคุณปลดล็อกหรือยังนั้นง่ายมาก—ถ้ายังใช้ซิมการ์ดแบบดั้งเดิม คุณสามารถยืมซิมจากเพื่อนหรือครอบครัวแล้วใส่เข้าไปในเครื่อง หากสามารถโทรออกได้โดยไม่มี error แสดงว่าเครื่องปลดล็อกแล้ว

    อีกวิธีคือเข้าไปที่ Settings > Network > SIMs แล้วลองปิด “Automatically select network” หากเครื่องแสดงเครือข่ายมากกว่าหนึ่ง แสดงว่าเครื่องน่าจะปลดล็อกแล้ว

    ในยุคที่ eSIM กำลังกลายเป็นมาตรฐานใหม่ การปลดล็อกเครื่องยิ่งสำคัญ เพราะ eSIM สามารถเปิดใช้งานผ่านแอปหรือ QR code ได้ทันที โดยไม่ต้องเปลี่ยนซิมการ์ดจริง และในปี 2025 สมาร์ทโฟนรุ่นใหม่จาก Apple, Samsung, Google และ Huawei ต่างรองรับ eSIM อย่างแพร่หลาย

    ความหมายของการปลดล็อกเครื่อง
    โทรศัพท์ที่ปลดล็อกสามารถใช้กับซิมจากทุกเครือข่าย
    เหมาะสำหรับนักเดินทางหรือผู้ที่ไม่ต้องการผูกสัญญาระยะยาว
    FCC บังคับให้ผู้ให้บริการต้องช่วยปลดล็อกเมื่อสัญญาหมด

    วิธีเช็กสถานะการปลดล็อก
    ใส่ซิมจากเครือข่ายอื่นแล้วลองโทรออก หากใช้งานได้แสดงว่าเครื่องปลดล็อก
    เข้า Settings > Network > SIMs แล้วปิด “Automatically select network”
    หากเห็นหลายเครือข่าย แสดงว่าเครื่องน่าจะปลดล็อก

    บริบทของ eSIM ในปี 2025
    eSIM คือซิมแบบฝังในเครื่องที่เปิดใช้งานผ่านแอปหรือ QR code
    สมาร์ทโฟนรุ่นใหม่จาก Apple, Samsung, Google, Huawei รองรับ eSIM อย่างแพร่หลาย
    eSIM ช่วยให้เปลี่ยนเครือข่ายได้ง่ายขึ้นโดยไม่ต้องเปลี่ยนซิมการ์ดจริง

    เครื่องมือเสริมในการตรวจสอบ
    เว็บไซต์เช่น IMEI.info สามารถตรวจสอบสถานะการปลดล็อกได้
    ผู้ใช้สามารถติดต่อผู้ให้บริการโดยตรงพร้อม IMEI เพื่อขอข้อมูล
    IMEI สามารถดูได้จาก Settings > About Phone > IMEI

    https://www.slashgear.com/1956283/how-tell-android-phone-carrier-unlocked/
    🎙️ เรื่องเล่าจากซิมการ์ดถึง eSIM: เมื่อการปลดล็อกมือถือกลายเป็นเรื่องจำเป็นมากกว่าทางเลือก หลายคนอาจเคยซื้อสมาร์ทโฟน Android ผ่านผู้ให้บริการเครือข่าย เช่น Verizon, AT&T หรือ T-Mobile โดยจ่ายราคาถูกลงผ่านสัญญาผ่อนรายเดือน ซึ่งสะดวกและน่าดึงดูด แต่สิ่งที่หลายคนไม่รู้คือ โทรศัพท์เหล่านี้มักจะ “ล็อกเครือข่าย” ทำให้ไม่สามารถใช้ซิมจากเครือข่ายอื่นได้ทันที ในทางกลับกัน โทรศัพท์ที่ “ปลดล็อก” แล้วจะสามารถใช้กับซิมใดก็ได้ทั่วโลก ซึ่งเหมาะมากสำหรับนักเดินทางหรือผู้ที่ไม่ต้องการผูกมัดกับสัญญาระยะยาว โดย FCC (คณะกรรมการการสื่อสารแห่งสหรัฐฯ) ยังออกข้อบังคับให้ผู้ให้บริการต้องช่วยปลดล็อกเครื่องเมื่อสัญญาสิ้นสุด วิธีเช็กว่าเครื่องของคุณปลดล็อกหรือยังนั้นง่ายมาก—ถ้ายังใช้ซิมการ์ดแบบดั้งเดิม คุณสามารถยืมซิมจากเพื่อนหรือครอบครัวแล้วใส่เข้าไปในเครื่อง หากสามารถโทรออกได้โดยไม่มี error แสดงว่าเครื่องปลดล็อกแล้ว อีกวิธีคือเข้าไปที่ Settings > Network > SIMs แล้วลองปิด “Automatically select network” หากเครื่องแสดงเครือข่ายมากกว่าหนึ่ง แสดงว่าเครื่องน่าจะปลดล็อกแล้ว ในยุคที่ eSIM กำลังกลายเป็นมาตรฐานใหม่ การปลดล็อกเครื่องยิ่งสำคัญ เพราะ eSIM สามารถเปิดใช้งานผ่านแอปหรือ QR code ได้ทันที โดยไม่ต้องเปลี่ยนซิมการ์ดจริง และในปี 2025 สมาร์ทโฟนรุ่นใหม่จาก Apple, Samsung, Google และ Huawei ต่างรองรับ eSIM อย่างแพร่หลาย ✅ ความหมายของการปลดล็อกเครื่อง ➡️ โทรศัพท์ที่ปลดล็อกสามารถใช้กับซิมจากทุกเครือข่าย ➡️ เหมาะสำหรับนักเดินทางหรือผู้ที่ไม่ต้องการผูกสัญญาระยะยาว ➡️ FCC บังคับให้ผู้ให้บริการต้องช่วยปลดล็อกเมื่อสัญญาหมด ✅ วิธีเช็กสถานะการปลดล็อก ➡️ ใส่ซิมจากเครือข่ายอื่นแล้วลองโทรออก หากใช้งานได้แสดงว่าเครื่องปลดล็อก ➡️ เข้า Settings > Network > SIMs แล้วปิด “Automatically select network” ➡️ หากเห็นหลายเครือข่าย แสดงว่าเครื่องน่าจะปลดล็อก ✅ บริบทของ eSIM ในปี 2025 ➡️ eSIM คือซิมแบบฝังในเครื่องที่เปิดใช้งานผ่านแอปหรือ QR code ➡️ สมาร์ทโฟนรุ่นใหม่จาก Apple, Samsung, Google, Huawei รองรับ eSIM อย่างแพร่หลาย ➡️ eSIM ช่วยให้เปลี่ยนเครือข่ายได้ง่ายขึ้นโดยไม่ต้องเปลี่ยนซิมการ์ดจริง ✅ เครื่องมือเสริมในการตรวจสอบ ➡️ เว็บไซต์เช่น IMEI.info สามารถตรวจสอบสถานะการปลดล็อกได้ ➡️ ผู้ใช้สามารถติดต่อผู้ให้บริการโดยตรงพร้อม IMEI เพื่อขอข้อมูล ➡️ IMEI สามารถดูได้จาก Settings > About Phone > IMEI https://www.slashgear.com/1956283/how-tell-android-phone-carrier-unlocked/
    WWW.SLASHGEAR.COM
    Is Your Android Phone Carrier Unlocked? Here's How To Tell - SlashGear
    To check if your Android phone is unlocked, try swapping in another SIM card or test your network settings. If calls work, your device is unlocked.
    0 ความคิดเห็น 0 การแบ่งปัน 230 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Citigroup Conference: เมื่อ AMD มองว่า AI คือโอกาสครั้งเดียวในชีวิต ไม่ใช่แค่กระแสชั่วคราว

    ในการประชุมกับนักลงทุนที่จัดโดย Citigroup เมื่อวันที่ 3 กันยายน 2025 Jean Hu (CFO ของ AMD) และ Matthew Ramsay (VP ฝ่ายนักลงทุนสัมพันธ์) ได้ตอบคำถามเกี่ยวกับสถานการณ์ตลาด AI, ความสัมพันธ์กับจีน, และราคาชิปที่เพิ่มขึ้นอย่างต่อเนื่อง

    Hu ยืนยันว่า AMD ไม่ได้เริ่มผลิตชิปใหม่สำหรับตลาดจีน แม้จะได้รับใบอนุญาตจากรัฐบาลสหรัฐฯ โดยระบุว่าบริษัทกำลังพิจารณาว่าลูกค้าจีนจะสามารถซื้อจากสหรัฐฯ ได้หรือไม่ และยังไม่เริ่มผลิต wafer สำหรับ MI308 ซึ่งเป็น GPU รุ่นเฉพาะสำหรับจีน

    Ramsay เสริมว่า “ความต้องการชิป AI ในจีนมีมากกว่าความสามารถในการผลิต” เนื่องจากผู้ผลิตชิปในจีนถูกจำกัดจากมาตรการคว่ำบาตร และ Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้

    เมื่อถูกถามว่า AI เป็นฟองสบู่หรือไม่ Hu ตอบว่า “เรายังอยู่ในช่วงเริ่มต้นของการนำ AI ไปใช้” และชี้ไปที่การลงทุนของ hyperscaler รายใหญ่ในไตรมาสที่ผ่านมา รวมถึงการปรับปรุงประสิทธิภาพขององค์กรผ่าน AI ซึ่งสะท้อนว่า AI ไม่ใช่แค่ hype แต่เป็นการเปลี่ยนแปลงเชิงโครงสร้าง

    AMD ประเมินว่า TAM (Total Addressable Market) ของ AI จะสูงถึง 500,000 ล้านดอลลาร์ โดย Ramsay ระบุว่า inference workload, ขนาดของ dataset และการขยายไปยังอุตสาหกรรมต่าง ๆ คือปัจจัยหลักที่ผลักดันตลาดนี้ พร้อมเสริมว่า “AI คือจุดเปลี่ยนที่ใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต”

    สำหรับราคาชิปที่เพิ่มขึ้น Hu อธิบายว่าเป็นผลจากการเพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น แต่ AMD พยายามรักษาสมดุลระหว่างราคาขายกับต้นทุนรวมของการเป็นเจ้าของ (TCO) เพื่อให้ลูกค้าได้รับความคุ้มค่าในระยะยาว

    AMD ปฏิเสธว่า AI เป็นฟองสบู่
    Hu ระบุว่า AI ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้
    การลงทุนของ hyperscaler และ productivity gains เป็นหลักฐานเชิงประจักษ์
    AI ถูกมองว่าเป็นโอกาสครั้งเดียวในชีวิตสำหรับอุตสาหกรรม

    การประเมินตลาด AI มูลค่า 500,000 ล้านดอลลาร์
    TAM ของ AI ถูกประเมินโดย AMD ว่าจะสูงถึง $500B
    ปัจจัยหลักคือ inference workload, dataset ขนาดใหญ่ และการขยายสู่อุตสาหกรรม
    Ramsay ระบุว่า AI คือจุดเปลี่ยนใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต

    สถานการณ์ในจีนและการจำกัดการผลิต
    AMD ยังไม่เริ่มผลิต MI308 GPU สำหรับจีน แม้ได้รับใบอนุญาต
    ความต้องการในจีนสูงกว่าความสามารถในการผลิตเนื่องจากข้อจำกัดจากสหรัฐฯ
    Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้

    เหตุผลของราคาชิปที่เพิ่มขึ้น
    AMD เพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น
    บริษัทเน้นการปรับปรุง TCO เพื่อให้ลูกค้าได้รับความคุ้มค่า
    ราคาขายสูงขึ้นเพื่อรักษา margin และความสามารถในการแข่งขัน

    https://wccftech.com/amd-rejects-ai-bubble-defends-500-billion-ai-market-says-chip-price-hikes-are-due-to-high-costs/
    🎙️ เรื่องเล่าจาก Citigroup Conference: เมื่อ AMD มองว่า AI คือโอกาสครั้งเดียวในชีวิต ไม่ใช่แค่กระแสชั่วคราว ในการประชุมกับนักลงทุนที่จัดโดย Citigroup เมื่อวันที่ 3 กันยายน 2025 Jean Hu (CFO ของ AMD) และ Matthew Ramsay (VP ฝ่ายนักลงทุนสัมพันธ์) ได้ตอบคำถามเกี่ยวกับสถานการณ์ตลาด AI, ความสัมพันธ์กับจีน, และราคาชิปที่เพิ่มขึ้นอย่างต่อเนื่อง Hu ยืนยันว่า AMD ไม่ได้เริ่มผลิตชิปใหม่สำหรับตลาดจีน แม้จะได้รับใบอนุญาตจากรัฐบาลสหรัฐฯ โดยระบุว่าบริษัทกำลังพิจารณาว่าลูกค้าจีนจะสามารถซื้อจากสหรัฐฯ ได้หรือไม่ และยังไม่เริ่มผลิต wafer สำหรับ MI308 ซึ่งเป็น GPU รุ่นเฉพาะสำหรับจีน Ramsay เสริมว่า “ความต้องการชิป AI ในจีนมีมากกว่าความสามารถในการผลิต” เนื่องจากผู้ผลิตชิปในจีนถูกจำกัดจากมาตรการคว่ำบาตร และ Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้ เมื่อถูกถามว่า AI เป็นฟองสบู่หรือไม่ Hu ตอบว่า “เรายังอยู่ในช่วงเริ่มต้นของการนำ AI ไปใช้” และชี้ไปที่การลงทุนของ hyperscaler รายใหญ่ในไตรมาสที่ผ่านมา รวมถึงการปรับปรุงประสิทธิภาพขององค์กรผ่าน AI ซึ่งสะท้อนว่า AI ไม่ใช่แค่ hype แต่เป็นการเปลี่ยนแปลงเชิงโครงสร้าง AMD ประเมินว่า TAM (Total Addressable Market) ของ AI จะสูงถึง 500,000 ล้านดอลลาร์ โดย Ramsay ระบุว่า inference workload, ขนาดของ dataset และการขยายไปยังอุตสาหกรรมต่าง ๆ คือปัจจัยหลักที่ผลักดันตลาดนี้ พร้อมเสริมว่า “AI คือจุดเปลี่ยนที่ใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต” สำหรับราคาชิปที่เพิ่มขึ้น Hu อธิบายว่าเป็นผลจากการเพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น แต่ AMD พยายามรักษาสมดุลระหว่างราคาขายกับต้นทุนรวมของการเป็นเจ้าของ (TCO) เพื่อให้ลูกค้าได้รับความคุ้มค่าในระยะยาว ✅ AMD ปฏิเสธว่า AI เป็นฟองสบู่ ➡️ Hu ระบุว่า AI ยังอยู่ในช่วงเริ่มต้นของการนำไปใช้ ➡️ การลงทุนของ hyperscaler และ productivity gains เป็นหลักฐานเชิงประจักษ์ ➡️ AI ถูกมองว่าเป็นโอกาสครั้งเดียวในชีวิตสำหรับอุตสาหกรรม ✅ การประเมินตลาด AI มูลค่า 500,000 ล้านดอลลาร์ ➡️ TAM ของ AI ถูกประเมินโดย AMD ว่าจะสูงถึง $500B ➡️ ปัจจัยหลักคือ inference workload, dataset ขนาดใหญ่ และการขยายสู่อุตสาหกรรม ➡️ Ramsay ระบุว่า AI คือจุดเปลี่ยนใหญ่ที่สุดนับตั้งแต่การเกิดอินเทอร์เน็ต ✅ สถานการณ์ในจีนและการจำกัดการผลิต ➡️ AMD ยังไม่เริ่มผลิต MI308 GPU สำหรับจีน แม้ได้รับใบอนุญาต ➡️ ความต้องการในจีนสูงกว่าความสามารถในการผลิตเนื่องจากข้อจำกัดจากสหรัฐฯ ➡️ Huawei ไม่สามารถเข้าถึงเทคโนโลยีระดับสูงจากสหรัฐฯ ได้ ✅ เหตุผลของราคาชิปที่เพิ่มขึ้น ➡️ AMD เพิ่มฟีเจอร์ในแต่ละรุ่น ทำให้ต้นทุนวัสดุสูงขึ้น ➡️ บริษัทเน้นการปรับปรุง TCO เพื่อให้ลูกค้าได้รับความคุ้มค่า ➡️ ราคาขายสูงขึ้นเพื่อรักษา margin และความสามารถในการแข่งขัน https://wccftech.com/amd-rejects-ai-bubble-defends-500-billion-ai-market-says-chip-price-hikes-are-due-to-high-costs/
    WCCFTECH.COM
    AMD Rejects 'AI Bubble,' Defends $500 Billion AI Market & Says Chip Price Hikes Are Due To High Costs
    AMD CFO Jean Hu confirms no new China chip production despite licenses and denies an AI bubble exists while discussing $500 billion TAM.
    0 ความคิดเห็น 0 การแบ่งปัน 197 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก OceanDisk: เมื่อ SSD กลายเป็นอาวุธใหม่ในสงครามเทคโนโลยี AI

    ในงานเปิดตัวล่าสุด Huawei ได้เผยโฉม OceanDisk EX 560, SP 560 และ LC 560 ซึ่งเป็น SSD สำหรับงาน AI โดยเฉพาะ โดยมีเป้าหมายชัดเจน: ลดการพึ่งพา HBM (High Bandwidth Memory) ที่จีนถูกจำกัดการนำเข้าอย่างหนักจากสหรัฐฯ

    OceanDisk LC 560 คือไฮไลต์ของงาน ด้วยความจุ 245TB ซึ่งถือเป็น SSD ที่ใหญ่ที่สุดในโลก ณ ขณะนี้ และมี read bandwidth สูงถึง 14.7GB/s เหมาะสำหรับงานฝึกโมเดลขนาดใหญ่แบบ multimodal ที่ต้องการพื้นที่เก็บข้อมูลมหาศาล

    OceanDisk EX 560 เน้นประสิทธิภาพสูงสุด ด้วย write speed 1,500K IOPS, latency ต่ำกว่า 7µs และ endurance สูงถึง 60 DWPD เหมาะสำหรับงาน fine-tuning LLM ที่ต้องการความเร็วและความทนทาน ส่วน SP 560 เป็นรุ่นประหยัดที่เน้น inference โดยลด latency ของ token แรกได้ถึง 75% และเพิ่ม throughput เป็นสองเท่า

    แต่สิ่งที่ทำให้ OceanDisk น่าสนใจไม่ใช่แค่ฮาร์ดแวร์—Huawei ยังเปิดตัว DiskBooster ซึ่งเป็นซอฟต์แวร์ที่ช่วยรวมหน่วยความจำจาก SSD, HBM และ DDR ให้เป็น memory pool เดียวกัน เพิ่มความจุได้ถึง 20 เท่า และลด write amplification ด้วยเทคโนโลยี multi-stream

    ทั้งหมดนี้คือความพยายามของ Huawei ในการสร้างระบบ AI ที่ไม่ต้องพึ่ง HBM เพียงอย่างเดียว โดยใช้ SSD ความจุสูงและซอฟต์แวร์อัจฉริยะเป็นตัวเสริม เพื่อให้สามารถฝึกและใช้งานโมเดล AI ได้แม้จะถูกจำกัดด้านฮาร์ดแวร์จากต่างประเทศ

    การเปิดตัว OceanDisk SSD สำหรับ AI
    OceanDisk LC 560 มีความจุ 245TB และ read bandwidth 14.7GB/s
    OceanDisk EX 560 มี write speed 1,500K IOPS และ latency ต่ำกว่า 7µs
    OceanDisk SP 560 ลด latency ของ token แรกได้ 75% และเพิ่ม throughput 2 เท่า

    ความสามารถของ DiskBooster
    รวมหน่วยความจำจาก SSD, HBM และ DDR เป็น memory pool เดียว
    เพิ่มความจุได้ถึง 20 เท่าเมื่อเทียบกับระบบเดิม
    ใช้ multi-stream เพื่อลด write amplification และเพิ่มอายุการใช้งาน SSD

    บริบทของการพัฒนา
    Huawei พัฒนา OceanDisk เพื่อลดการพึ่งพา HBM ซึ่งถูกจำกัดการส่งออกจากสหรัฐฯ
    เน้นใช้ NAND flash ภายในประเทศเพื่อสร้างระบบที่พึ่งพาตัวเอง
    ตอบโจทย์ปัญหา “memory wall” และ “capacity wall” ในงาน AI ขนาดใหญ่

    ผลกระทบต่อวงการ AI
    อาจเปลี่ยนแนวทางการออกแบบระบบฝึกโมเดลจาก HBM-centric เป็น SSD-centric
    เปิดทางให้ประเทศที่เข้าถึง HBM ได้จำกัดสามารถสร้างระบบ AI ได้ด้วยต้นทุนต่ำ
    เป็นตัวอย่างของการใช้ “ระบบเสริมหลายชั้น” แทนการพึ่งพาหน่วยความจำจุดเดียว

    https://www.techradar.com/pro/huawei-released-an-ai-ssd-that-uses-a-secret-sauce-to-reduce-the-need-for-large-amounts-of-expensive-hbm
    🎙️ เรื่องเล่าจาก OceanDisk: เมื่อ SSD กลายเป็นอาวุธใหม่ในสงครามเทคโนโลยี AI ในงานเปิดตัวล่าสุด Huawei ได้เผยโฉม OceanDisk EX 560, SP 560 และ LC 560 ซึ่งเป็น SSD สำหรับงาน AI โดยเฉพาะ โดยมีเป้าหมายชัดเจน: ลดการพึ่งพา HBM (High Bandwidth Memory) ที่จีนถูกจำกัดการนำเข้าอย่างหนักจากสหรัฐฯ OceanDisk LC 560 คือไฮไลต์ของงาน ด้วยความจุ 245TB ซึ่งถือเป็น SSD ที่ใหญ่ที่สุดในโลก ณ ขณะนี้ และมี read bandwidth สูงถึง 14.7GB/s เหมาะสำหรับงานฝึกโมเดลขนาดใหญ่แบบ multimodal ที่ต้องการพื้นที่เก็บข้อมูลมหาศาล OceanDisk EX 560 เน้นประสิทธิภาพสูงสุด ด้วย write speed 1,500K IOPS, latency ต่ำกว่า 7µs และ endurance สูงถึง 60 DWPD เหมาะสำหรับงาน fine-tuning LLM ที่ต้องการความเร็วและความทนทาน ส่วน SP 560 เป็นรุ่นประหยัดที่เน้น inference โดยลด latency ของ token แรกได้ถึง 75% และเพิ่ม throughput เป็นสองเท่า แต่สิ่งที่ทำให้ OceanDisk น่าสนใจไม่ใช่แค่ฮาร์ดแวร์—Huawei ยังเปิดตัว DiskBooster ซึ่งเป็นซอฟต์แวร์ที่ช่วยรวมหน่วยความจำจาก SSD, HBM และ DDR ให้เป็น memory pool เดียวกัน เพิ่มความจุได้ถึง 20 เท่า และลด write amplification ด้วยเทคโนโลยี multi-stream ทั้งหมดนี้คือความพยายามของ Huawei ในการสร้างระบบ AI ที่ไม่ต้องพึ่ง HBM เพียงอย่างเดียว โดยใช้ SSD ความจุสูงและซอฟต์แวร์อัจฉริยะเป็นตัวเสริม เพื่อให้สามารถฝึกและใช้งานโมเดล AI ได้แม้จะถูกจำกัดด้านฮาร์ดแวร์จากต่างประเทศ ✅ การเปิดตัว OceanDisk SSD สำหรับ AI ➡️ OceanDisk LC 560 มีความจุ 245TB และ read bandwidth 14.7GB/s ➡️ OceanDisk EX 560 มี write speed 1,500K IOPS และ latency ต่ำกว่า 7µs ➡️ OceanDisk SP 560 ลด latency ของ token แรกได้ 75% และเพิ่ม throughput 2 เท่า ✅ ความสามารถของ DiskBooster ➡️ รวมหน่วยความจำจาก SSD, HBM และ DDR เป็น memory pool เดียว ➡️ เพิ่มความจุได้ถึง 20 เท่าเมื่อเทียบกับระบบเดิม ➡️ ใช้ multi-stream เพื่อลด write amplification และเพิ่มอายุการใช้งาน SSD ✅ บริบทของการพัฒนา ➡️ Huawei พัฒนา OceanDisk เพื่อลดการพึ่งพา HBM ซึ่งถูกจำกัดการส่งออกจากสหรัฐฯ ➡️ เน้นใช้ NAND flash ภายในประเทศเพื่อสร้างระบบที่พึ่งพาตัวเอง ➡️ ตอบโจทย์ปัญหา “memory wall” และ “capacity wall” ในงาน AI ขนาดใหญ่ ✅ ผลกระทบต่อวงการ AI ➡️ อาจเปลี่ยนแนวทางการออกแบบระบบฝึกโมเดลจาก HBM-centric เป็น SSD-centric ➡️ เปิดทางให้ประเทศที่เข้าถึง HBM ได้จำกัดสามารถสร้างระบบ AI ได้ด้วยต้นทุนต่ำ ➡️ เป็นตัวอย่างของการใช้ “ระบบเสริมหลายชั้น” แทนการพึ่งพาหน่วยความจำจุดเดียว https://www.techradar.com/pro/huawei-released-an-ai-ssd-that-uses-a-secret-sauce-to-reduce-the-need-for-large-amounts-of-expensive-hbm
    0 ความคิดเห็น 0 การแบ่งปัน 209 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก UB-Mesh: เมื่อการเชื่อมต่อใน data center ไม่ใช่แค่สายไฟ แต่คือ “ภาษากลางของระบบอัจฉริยะ”

    ในงาน Hot Chips 2025 Huawei ได้เปิดตัว UB-Mesh ซึ่งเป็น interconnect protocol แบบใหม่ที่ออกแบบมาเพื่อรองรับการเชื่อมต่อภายใน AI data center ขนาดใหญ่ระดับ SuperNode โดยมีเป้าหมายชัดเจน—ลดต้นทุน, เพิ่มความเสถียร, และ “เปิด source” ให้ทุกคนเข้าถึงได้

    UB-Mesh ใช้โครงสร้างแบบ hybrid topology โดยผสมผสาน CLOS backbone ระดับ data hall เข้ากับ mesh แบบหลายมิติภายในแต่ละ rack ทำให้สามารถขยายระบบได้ถึงระดับหลายหมื่น node โดยไม่ต้องเพิ่มต้นทุนแบบเชิงเส้น

    แนวคิดนี้เกิดจากปัญหาที่ interconnect แบบเดิม เช่น PCIe, NVLink, UALink หรือ Ultra Ethernet เริ่มมีต้นทุนสูงเกินไปเมื่อระบบขยายขนาด และยังต้องใช้ protocol conversion หลายชั้น ซึ่งเพิ่ม latency และความซับซ้อน

    Huawei จึงเสนอ UB-Mesh เป็น “ภาษากลาง” ที่เชื่อมต่อทุกอุปกรณ์—CPU, GPU, SSD, memory, switch—ให้ทำงานร่วมกันได้เหมือนอยู่ในเครื่องเดียว โดยมี bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ และ latency ต่ำกว่าหนึ่งไมโครวินาที

    ที่สำคัญคือ Huawei จะเปิด source โปรโตคอลนี้ในเดือนหน้า พร้อมอนุญาตให้ใช้แบบ free license เพื่อผลักดันให้กลายเป็นมาตรฐานใหม่ของอุตสาหกรรม แม้จะยังมีคำถามเรื่อง governance และความเชื่อมั่นจากผู้ผลิตรายอื่น

    โครงสร้างของ UB-Mesh
    ใช้ CLOS backbone ระดับ data hall ร่วมกับ multidimensional mesh ภายใน rack
    รองรับการขยายระบบถึงระดับหลายหมื่น node โดยไม่เพิ่มต้นทุนแบบเชิงเส้น
    ออกแบบมาเพื่อแก้ปัญหา latency และ hardware failure ในระบบ AI ขนาดใหญ่

    เป้าหมายของ UB-Mesh
    เป็น interconnect แบบ universal ที่เชื่อมทุกอุปกรณ์ใน data center
    ลดความซับซ้อนจากการใช้ protocol conversion หลายชั้น
    ทำให้ทุกพอร์ตสามารถเชื่อมต่อกันได้โดยไม่ต้องแปลงโปรโตคอล

    ประสิทธิภาพที่ Huawei เคลม
    Bandwidth มากกว่า 1TB/s ต่ออุปกรณ์
    Latency ต่ำกว่าหนึ่งไมโครวินาที
    ใช้ได้กับระบบที่มี CPU, GPU, memory, SSD และ switch ใน node เดียว

    การเปิด source และการผลักดันเป็นมาตรฐาน
    Huawei จะเปิดเผยโปรโตคอล UB-Mesh พร้อม free license ในเดือนหน้า
    หวังให้กลายเป็นมาตรฐานใหม่แทนระบบที่ fragmented ในปัจจุบัน
    ขึ้นอยู่กับการยอมรับจาก partner และผู้ผลิตรายอื่น

    การทดสอบและการใช้งานจริง
    Huawei ใช้ระบบ 8,192-node เป็นตัวอย่างว่าต้นทุนไม่จำเป็นต้องเพิ่มตามขนาด
    UB-Mesh เป็นส่วนหนึ่งของแนวคิด SuperNode ที่รวมทุกอุปกรณ์ให้ทำงานร่วมกัน
    เหมาะกับ AI training, cloud storage และ HPC ที่ต้องการ bandwidth สูง

    https://www.techradar.com/pro/could-this-be-the-next-big-step-forward-for-ai-huaweis-open-source-move-will-make-it-easier-than-ever-to-connect-together-well-pretty-much-everything
    🎙️ เรื่องเล่าจาก UB-Mesh: เมื่อการเชื่อมต่อใน data center ไม่ใช่แค่สายไฟ แต่คือ “ภาษากลางของระบบอัจฉริยะ” ในงาน Hot Chips 2025 Huawei ได้เปิดตัว UB-Mesh ซึ่งเป็น interconnect protocol แบบใหม่ที่ออกแบบมาเพื่อรองรับการเชื่อมต่อภายใน AI data center ขนาดใหญ่ระดับ SuperNode โดยมีเป้าหมายชัดเจน—ลดต้นทุน, เพิ่มความเสถียร, และ “เปิด source” ให้ทุกคนเข้าถึงได้ UB-Mesh ใช้โครงสร้างแบบ hybrid topology โดยผสมผสาน CLOS backbone ระดับ data hall เข้ากับ mesh แบบหลายมิติภายในแต่ละ rack ทำให้สามารถขยายระบบได้ถึงระดับหลายหมื่น node โดยไม่ต้องเพิ่มต้นทุนแบบเชิงเส้น แนวคิดนี้เกิดจากปัญหาที่ interconnect แบบเดิม เช่น PCIe, NVLink, UALink หรือ Ultra Ethernet เริ่มมีต้นทุนสูงเกินไปเมื่อระบบขยายขนาด และยังต้องใช้ protocol conversion หลายชั้น ซึ่งเพิ่ม latency และความซับซ้อน Huawei จึงเสนอ UB-Mesh เป็น “ภาษากลาง” ที่เชื่อมต่อทุกอุปกรณ์—CPU, GPU, SSD, memory, switch—ให้ทำงานร่วมกันได้เหมือนอยู่ในเครื่องเดียว โดยมี bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ และ latency ต่ำกว่าหนึ่งไมโครวินาที ที่สำคัญคือ Huawei จะเปิด source โปรโตคอลนี้ในเดือนหน้า พร้อมอนุญาตให้ใช้แบบ free license เพื่อผลักดันให้กลายเป็นมาตรฐานใหม่ของอุตสาหกรรม แม้จะยังมีคำถามเรื่อง governance และความเชื่อมั่นจากผู้ผลิตรายอื่น ✅ โครงสร้างของ UB-Mesh ➡️ ใช้ CLOS backbone ระดับ data hall ร่วมกับ multidimensional mesh ภายใน rack ➡️ รองรับการขยายระบบถึงระดับหลายหมื่น node โดยไม่เพิ่มต้นทุนแบบเชิงเส้น ➡️ ออกแบบมาเพื่อแก้ปัญหา latency และ hardware failure ในระบบ AI ขนาดใหญ่ ✅ เป้าหมายของ UB-Mesh ➡️ เป็น interconnect แบบ universal ที่เชื่อมทุกอุปกรณ์ใน data center ➡️ ลดความซับซ้อนจากการใช้ protocol conversion หลายชั้น ➡️ ทำให้ทุกพอร์ตสามารถเชื่อมต่อกันได้โดยไม่ต้องแปลงโปรโตคอล ✅ ประสิทธิภาพที่ Huawei เคลม ➡️ Bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ ➡️ Latency ต่ำกว่าหนึ่งไมโครวินาที ➡️ ใช้ได้กับระบบที่มี CPU, GPU, memory, SSD และ switch ใน node เดียว ✅ การเปิด source และการผลักดันเป็นมาตรฐาน ➡️ Huawei จะเปิดเผยโปรโตคอล UB-Mesh พร้อม free license ในเดือนหน้า ➡️ หวังให้กลายเป็นมาตรฐานใหม่แทนระบบที่ fragmented ในปัจจุบัน ➡️ ขึ้นอยู่กับการยอมรับจาก partner และผู้ผลิตรายอื่น ✅ การทดสอบและการใช้งานจริง ➡️ Huawei ใช้ระบบ 8,192-node เป็นตัวอย่างว่าต้นทุนไม่จำเป็นต้องเพิ่มตามขนาด ➡️ UB-Mesh เป็นส่วนหนึ่งของแนวคิด SuperNode ที่รวมทุกอุปกรณ์ให้ทำงานร่วมกัน ➡️ เหมาะกับ AI training, cloud storage และ HPC ที่ต้องการ bandwidth สูง https://www.techradar.com/pro/could-this-be-the-next-big-step-forward-for-ai-huaweis-open-source-move-will-make-it-easier-than-ever-to-connect-together-well-pretty-much-everything
    0 ความคิดเห็น 0 การแบ่งปัน 241 มุมมอง 0 รีวิว
  • Kirin 9020 – ชิปที่ไม่ใช่แค่เทคโนโลยี แต่คือสัญลักษณ์ของการยืนหยัด

    Huawei กลับมาอย่างสง่างามในเวทีสมาร์ตโฟนระดับไฮเอนด์ ด้วยการเปิดตัว Kirin 9020 ซึ่งเป็นชิป SoC ที่รวมโมเด็ม 5G และโมดูล RF front-end ที่ผลิตในประเทศจีนทั้งหมด ถือเป็นครั้งแรกที่ Huawei สามารถรวมเทคโนโลยี 5G แบบครบวงจรไว้ในชิปเดียวได้ โดยไม่ต้องพึ่งพาเทคโนโลยีจากตะวันตก

    Kirin 9020 ถูกใช้ในสมาร์ตโฟนรุ่น Mate 70 และ Pura 80 โดยมีการยืนยันอย่างเป็นทางการจาก Huawei หลังจากเก็บงำข้อมูลชิปมานานกว่า 5 ปี การเปิดเผยครั้งนี้ไม่ใช่แค่การโชว์เทคโนโลยี แต่เป็นการประกาศความมั่นใจในความสามารถด้านการออกแบบและผลิตชิปของจีน

    ชิปนี้ผลิตโดย SMIC ด้วยเทคโนโลยีระดับ 7 นาโนเมตร แม้จะไม่มีเครื่องมือลิทโธกราฟีขั้นสูงจากตะวันตก แต่ก็สามารถผลิตชิปที่มีความซับซ้อนสูงได้สำเร็จ โดยเฉพาะการรวมโมเด็ม 5G ซึ่งต้องรองรับคลื่นความถี่หลากหลาย, การจัดการสัญญาณแบบ beamforming และการเข้ารหัสขั้นสูง

    นอกจากโมเด็มแล้ว Huawei ยังสามารถผลิต RF front-end module ได้เอง ซึ่งรวมถึง power amplifier, low-noise amplifier, antenna switch และ filter ที่เคยถูกครอบครองโดยบริษัทอเมริกันอย่าง Broadcom และ Qorvo

    ทั้งหมดนี้สะท้อนถึงความพยายามของจีนในการสร้างระบบนิเวศเซมิคอนดักเตอร์ที่พึ่งพาตนเอง และ Kirin 9020 ก็กลายเป็นสัญลักษณ์ของการยืนหยัดท่ามกลางการคว่ำบาตรจากสหรัฐฯ

    สรุปเนื้อหาเป็นหัวข้อ
    Huawei เปิดตัว Kirin 9020 ซึ่งรวมโมเด็ม 5G และ RF front-end module ที่ผลิตในจีน
    ใช้ในสมาร์ตโฟน Mate 70 และ Pura 80 พร้อมการยืนยันอย่างเป็นทางการจาก Huawei
    ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm-class แม้ไม่มีเครื่องมือลิทโธกราฟีขั้นสูง
    โมเด็ม 5G รองรับคลื่น sub-6 GHz และ mmWave พร้อมเทคนิค OFDM, MU-MIMO, beamforming
    RF front-end module รวม power amplifier, low-noise amplifier, antenna switch และ filter
    Huawei เคยปิดบังข้อมูลชิปมานานกว่า 5 ปี ก่อนจะเปิดเผยอย่างมั่นใจในปี 2025
    Kirin 9020 เป็นการพัฒนาแบบ incremental จาก Kirin 9010 ไม่ใช่การออกแบบใหม่ทั้งหมด
    การรวมโมเด็ม 5G เข้ากับ SoC เป็นสิ่งที่แม้แต่ Apple ยังไม่สามารถทำได้
    ชิปนี้แสดงถึงความสามารถของจีนในการผลิตชิป RF-intensive โดยไม่พึ่งพาตะวันตก
    Kirin 9020 กลายเป็นสัญลักษณ์ของการยืนหยัดต่อการคว่ำบาตรจากสหรัฐฯ

    ข้อมูลเสริมจากภายนอก
    Huawei ยืนยันชื่อชิปผ่านภาพหน้าจอหลังอัปเดตระบบของผู้ใช้ Pura 80
    SMIC เคยผลิตชิป 7nm ให้ Huawei ตั้งแต่ Kirin 980 โดยใช้เทคโนโลยีของ TSMC
    การเปิดเผยข้อมูลชิปครั้งนี้ถือเป็นการเปลี่ยนกลยุทธ์จาก “ความลับ” สู่ “ความมั่นใจ”
    จีนมีแผนสร้างระบบนิเวศเซมิคอนดักเตอร์ที่พึ่งพาตนเองเต็มรูปแบบ
    การผลิต RF front-end module เป็นสิ่งที่ยากที่สุดในอุปกรณ์ 5G เพราะต้องใช้วัสดุเฉพาะและเทคนิคขั้นสูง

    https://www.tomshardware.com/tech-industry/semiconductors/huaweis-kirin-9020-integrates-5g-modem-china-made-5g-fem-chip-symbolizes-resilience-to-u-s-sanctions
    🎙️ Kirin 9020 – ชิปที่ไม่ใช่แค่เทคโนโลยี แต่คือสัญลักษณ์ของการยืนหยัด Huawei กลับมาอย่างสง่างามในเวทีสมาร์ตโฟนระดับไฮเอนด์ ด้วยการเปิดตัว Kirin 9020 ซึ่งเป็นชิป SoC ที่รวมโมเด็ม 5G และโมดูล RF front-end ที่ผลิตในประเทศจีนทั้งหมด ถือเป็นครั้งแรกที่ Huawei สามารถรวมเทคโนโลยี 5G แบบครบวงจรไว้ในชิปเดียวได้ โดยไม่ต้องพึ่งพาเทคโนโลยีจากตะวันตก Kirin 9020 ถูกใช้ในสมาร์ตโฟนรุ่น Mate 70 และ Pura 80 โดยมีการยืนยันอย่างเป็นทางการจาก Huawei หลังจากเก็บงำข้อมูลชิปมานานกว่า 5 ปี การเปิดเผยครั้งนี้ไม่ใช่แค่การโชว์เทคโนโลยี แต่เป็นการประกาศความมั่นใจในความสามารถด้านการออกแบบและผลิตชิปของจีน ชิปนี้ผลิตโดย SMIC ด้วยเทคโนโลยีระดับ 7 นาโนเมตร แม้จะไม่มีเครื่องมือลิทโธกราฟีขั้นสูงจากตะวันตก แต่ก็สามารถผลิตชิปที่มีความซับซ้อนสูงได้สำเร็จ โดยเฉพาะการรวมโมเด็ม 5G ซึ่งต้องรองรับคลื่นความถี่หลากหลาย, การจัดการสัญญาณแบบ beamforming และการเข้ารหัสขั้นสูง นอกจากโมเด็มแล้ว Huawei ยังสามารถผลิต RF front-end module ได้เอง ซึ่งรวมถึง power amplifier, low-noise amplifier, antenna switch และ filter ที่เคยถูกครอบครองโดยบริษัทอเมริกันอย่าง Broadcom และ Qorvo ทั้งหมดนี้สะท้อนถึงความพยายามของจีนในการสร้างระบบนิเวศเซมิคอนดักเตอร์ที่พึ่งพาตนเอง และ Kirin 9020 ก็กลายเป็นสัญลักษณ์ของการยืนหยัดท่ามกลางการคว่ำบาตรจากสหรัฐฯ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Huawei เปิดตัว Kirin 9020 ซึ่งรวมโมเด็ม 5G และ RF front-end module ที่ผลิตในจีน ➡️ ใช้ในสมาร์ตโฟน Mate 70 และ Pura 80 พร้อมการยืนยันอย่างเป็นทางการจาก Huawei ➡️ ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm-class แม้ไม่มีเครื่องมือลิทโธกราฟีขั้นสูง ➡️ โมเด็ม 5G รองรับคลื่น sub-6 GHz และ mmWave พร้อมเทคนิค OFDM, MU-MIMO, beamforming ➡️ RF front-end module รวม power amplifier, low-noise amplifier, antenna switch และ filter ➡️ Huawei เคยปิดบังข้อมูลชิปมานานกว่า 5 ปี ก่อนจะเปิดเผยอย่างมั่นใจในปี 2025 ➡️ Kirin 9020 เป็นการพัฒนาแบบ incremental จาก Kirin 9010 ไม่ใช่การออกแบบใหม่ทั้งหมด ➡️ การรวมโมเด็ม 5G เข้ากับ SoC เป็นสิ่งที่แม้แต่ Apple ยังไม่สามารถทำได้ ➡️ ชิปนี้แสดงถึงความสามารถของจีนในการผลิตชิป RF-intensive โดยไม่พึ่งพาตะวันตก ➡️ Kirin 9020 กลายเป็นสัญลักษณ์ของการยืนหยัดต่อการคว่ำบาตรจากสหรัฐฯ ✅ ข้อมูลเสริมจากภายนอก ➡️ Huawei ยืนยันชื่อชิปผ่านภาพหน้าจอหลังอัปเดตระบบของผู้ใช้ Pura 80 ➡️ SMIC เคยผลิตชิป 7nm ให้ Huawei ตั้งแต่ Kirin 980 โดยใช้เทคโนโลยีของ TSMC ➡️ การเปิดเผยข้อมูลชิปครั้งนี้ถือเป็นการเปลี่ยนกลยุทธ์จาก “ความลับ” สู่ “ความมั่นใจ” ➡️ จีนมีแผนสร้างระบบนิเวศเซมิคอนดักเตอร์ที่พึ่งพาตนเองเต็มรูปแบบ ➡️ การผลิต RF front-end module เป็นสิ่งที่ยากที่สุดในอุปกรณ์ 5G เพราะต้องใช้วัสดุเฉพาะและเทคนิคขั้นสูง https://www.tomshardware.com/tech-industry/semiconductors/huaweis-kirin-9020-integrates-5g-modem-china-made-5g-fem-chip-symbolizes-resilience-to-u-s-sanctions
    0 ความคิดเห็น 0 การแบ่งปัน 209 มุมมอง 0 รีวิว
  • Nvidia B30A – ชิป AI สำหรับจีนที่แรงกว่าเดิม แต่ยังอยู่ในกรอบควบคุมของสหรัฐฯ

    ในโลกที่เทคโนโลยี AI กลายเป็นสนามแข่งขันระดับโลก Nvidia กำลังเดินเกมใหม่เพื่อรักษาตลาดจีน ซึ่งคิดเป็น 13% ของรายได้บริษัท ด้วยการพัฒนาชิป AI รุ่นใหม่ชื่อว่า “B30A” ที่ออกแบบมาเฉพาะสำหรับตลาดจีน โดยยังคงอยู่ภายใต้ข้อจำกัดการส่งออกของรัฐบาลสหรัฐฯ

    B30A ใช้สถาปัตยกรรม Blackwell รุ่นล่าสุด และเป็นชิปแบบ “single-die” ซึ่งมีประสิทธิภาพประมาณครึ่งหนึ่งของรุ่นเรือธง B300 ที่ใช้แบบ “dual-die” แต่ยังแรงกว่า H20 ซึ่งเป็นรุ่นที่ Nvidia ได้รับอนุญาตให้ขายในจีนก่อนหน้านี้

    ชิป B30A มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์สูงถึง 4TB/s พร้อมเทคโนโลยี NVLink สำหรับเชื่อมต่อระหว่างโปรเซสเซอร์ ซึ่งช่วยให้สามารถสร้างระบบ AI ขนาดใหญ่ได้ แม้จะมีข้อจำกัดบางอย่างในจำนวน NVLink ที่อนุญาต

    นอกจากนี้ Nvidia ยังเตรียมเปิดตัว RTX 6000D สำหรับงาน inference ซึ่งเป็นรุ่นลดสเปกจาก RTX 6000 เพื่อให้ผ่านเกณฑ์ควบคุมการส่งออก โดยทั้งสองรุ่นคาดว่าจะเริ่มส่งมอบตัวอย่างให้ลูกค้าในจีนได้ภายในเดือนกันยายน 2025 หากได้รับอนุมัติจากรัฐบาลสหรัฐฯ

    แนวทางนี้เกิดขึ้นหลังจากประธานาธิบดีโดนัลด์ ทรัมป์เสนอให้ Nvidia และ AMD จ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการอนุญาตให้ขายชิปรุ่นใหม่ที่ “ลดประสิทธิภาพลง” ประมาณ 30–50%

    ข้อมูลในข่าว
    Nvidia พัฒนา B30A ชิป AI สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell
    B30A เป็นชิปแบบ single-die ที่มีประสิทธิภาพประมาณครึ่งหนึ่งของ B300
    ประสิทธิภาพของ B30A สูงกว่า H20 และใกล้เคียงกับ H100
    มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์ 4TB/s
    ใช้เทคโนโลยี NVLink สำหรับการเชื่อมต่อระหว่างโปรเซสเซอร์
    ออกแบบให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ
    Nvidia เตรียมส่งมอบตัวอย่าง B30A และ RTX 6000D ให้ลูกค้าในจีนภายในกันยายน 2025
    RTX 6000D เป็นรุ่นลดสเปกสำหรับ inference และกราฟิกระดับมืออาชีพ
    รัฐบาลสหรัฐฯ อาจอนุญาตให้ขายชิปรุ่นใหม่ในจีน หากมีการแบ่งรายได้ 15%

    ข้อมูลเสริมจากภายนอก
    H20 ถูกพัฒนาเพื่อให้ผ่านข้อจำกัดการส่งออกในปี 2023 แต่ถูกระงับการขายในเมษายน 2025
    B30A ใช้เทคโนโลยี CoWoS-S ซึ่งถูกกว่ารุ่น CoWoS-L ที่ใช้ใน B300
    การออกแบบ single-die ช่วยลดกำลังไฟและเหมาะกับอุปกรณ์ PCIe
    Nvidia ต้องรักษาฐานลูกค้าในจีนเพื่อคง ecosystem ของ CUDA
    Huawei กำลังพัฒนา GPU แข่งกับ Nvidia แม้ยังด้อยในด้านซอฟต์แวร์และแบนด์วิดท์
    การออกแบบชิปเฉพาะตลาดเป็นกลยุทธ์ที่ใช้ในหลายประเทศ เช่น อินเดียและรัสเซีย

    https://www.tomshardware.com/pc-components/gpus/nvidia-could-be-readying-b30a-accelerator-for-chinese-market-new-blackwell-chip-reportedly-beats-h20-and-even-h100-while-complying-with-u-s-export-controls
    🧠 Nvidia B30A – ชิป AI สำหรับจีนที่แรงกว่าเดิม แต่ยังอยู่ในกรอบควบคุมของสหรัฐฯ ในโลกที่เทคโนโลยี AI กลายเป็นสนามแข่งขันระดับโลก Nvidia กำลังเดินเกมใหม่เพื่อรักษาตลาดจีน ซึ่งคิดเป็น 13% ของรายได้บริษัท ด้วยการพัฒนาชิป AI รุ่นใหม่ชื่อว่า “B30A” ที่ออกแบบมาเฉพาะสำหรับตลาดจีน โดยยังคงอยู่ภายใต้ข้อจำกัดการส่งออกของรัฐบาลสหรัฐฯ B30A ใช้สถาปัตยกรรม Blackwell รุ่นล่าสุด และเป็นชิปแบบ “single-die” ซึ่งมีประสิทธิภาพประมาณครึ่งหนึ่งของรุ่นเรือธง B300 ที่ใช้แบบ “dual-die” แต่ยังแรงกว่า H20 ซึ่งเป็นรุ่นที่ Nvidia ได้รับอนุญาตให้ขายในจีนก่อนหน้านี้ ชิป B30A มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์สูงถึง 4TB/s พร้อมเทคโนโลยี NVLink สำหรับเชื่อมต่อระหว่างโปรเซสเซอร์ ซึ่งช่วยให้สามารถสร้างระบบ AI ขนาดใหญ่ได้ แม้จะมีข้อจำกัดบางอย่างในจำนวน NVLink ที่อนุญาต นอกจากนี้ Nvidia ยังเตรียมเปิดตัว RTX 6000D สำหรับงาน inference ซึ่งเป็นรุ่นลดสเปกจาก RTX 6000 เพื่อให้ผ่านเกณฑ์ควบคุมการส่งออก โดยทั้งสองรุ่นคาดว่าจะเริ่มส่งมอบตัวอย่างให้ลูกค้าในจีนได้ภายในเดือนกันยายน 2025 หากได้รับอนุมัติจากรัฐบาลสหรัฐฯ แนวทางนี้เกิดขึ้นหลังจากประธานาธิบดีโดนัลด์ ทรัมป์เสนอให้ Nvidia และ AMD จ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการอนุญาตให้ขายชิปรุ่นใหม่ที่ “ลดประสิทธิภาพลง” ประมาณ 30–50% ✅ ข้อมูลในข่าว ➡️ Nvidia พัฒนา B30A ชิป AI สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell ➡️ B30A เป็นชิปแบบ single-die ที่มีประสิทธิภาพประมาณครึ่งหนึ่งของ B300 ➡️ ประสิทธิภาพของ B30A สูงกว่า H20 และใกล้เคียงกับ H100 ➡️ มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์ 4TB/s ➡️ ใช้เทคโนโลยี NVLink สำหรับการเชื่อมต่อระหว่างโปรเซสเซอร์ ➡️ ออกแบบให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ ➡️ Nvidia เตรียมส่งมอบตัวอย่าง B30A และ RTX 6000D ให้ลูกค้าในจีนภายในกันยายน 2025 ➡️ RTX 6000D เป็นรุ่นลดสเปกสำหรับ inference และกราฟิกระดับมืออาชีพ ➡️ รัฐบาลสหรัฐฯ อาจอนุญาตให้ขายชิปรุ่นใหม่ในจีน หากมีการแบ่งรายได้ 15% ✅ ข้อมูลเสริมจากภายนอก ➡️ H20 ถูกพัฒนาเพื่อให้ผ่านข้อจำกัดการส่งออกในปี 2023 แต่ถูกระงับการขายในเมษายน 2025 ➡️ B30A ใช้เทคโนโลยี CoWoS-S ซึ่งถูกกว่ารุ่น CoWoS-L ที่ใช้ใน B300 ➡️ การออกแบบ single-die ช่วยลดกำลังไฟและเหมาะกับอุปกรณ์ PCIe ➡️ Nvidia ต้องรักษาฐานลูกค้าในจีนเพื่อคง ecosystem ของ CUDA ➡️ Huawei กำลังพัฒนา GPU แข่งกับ Nvidia แม้ยังด้อยในด้านซอฟต์แวร์และแบนด์วิดท์ ➡️ การออกแบบชิปเฉพาะตลาดเป็นกลยุทธ์ที่ใช้ในหลายประเทศ เช่น อินเดียและรัสเซีย https://www.tomshardware.com/pc-components/gpus/nvidia-could-be-readying-b30a-accelerator-for-chinese-market-new-blackwell-chip-reportedly-beats-h20-and-even-h100-while-complying-with-u-s-export-controls
    0 ความคิดเห็น 0 การแบ่งปัน 251 มุมมอง 0 รีวิว
  • เมื่อการควบคุมชิปกลายเป็นดาบสองคม: Nvidia โต้กลับว่านโยบายสหรัฐฯ ทำร้ายตัวเองมากกว่าจีน

    Nvidia ออกมาแสดงจุดยืนชัดเจนผ่านโพสต์บน X ว่าการควบคุมการส่งออกชิป H20 ไปยังจีน ไม่ได้หยุดยั้งความก้าวหน้า AI ของจีนเลยแม้แต่น้อย แต่กลับทำให้สหรัฐฯ สูญเสียความเป็นผู้นำด้านเศรษฐกิจและเทคโนโลยี

    Aaron Ginn ผู้ร่วมก่อตั้ง Hydra Host เขียนบทความใน Wall Street Journal ว่าการห้ามส่งออกชิปนั้น “ล้มเหลวในโลกจริง” เพราะจีนยังคงพัฒนา AI ต่อเนื่อง และมีการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า 1 พันล้านดอลลาร์ในช่วง 3 เดือนที่ผ่านมา

    แม้ชิป H20 จะถูกออกแบบให้สอดคล้องกับข้อจำกัดของสหรัฐฯ แต่จีนกลับมองว่าไม่ปลอดภัย และเริ่มหันไปใช้ชิปจากผู้ผลิตในประเทศ เช่น Huawei และ Hygon ซึ่งทำให้ Nvidia สูญเสียส่วนแบ่งตลาดในจีนอย่างต่อเนื่อง

    Nvidia ยืนยันว่าแพลตฟอร์ม CUDA ซึ่งเป็นชุดเครื่องมือพัฒนา AI ยังเป็นจุดแข็งที่จีนไม่สามารถลอกเลียนแบบได้ง่าย และเรียกร้องให้สหรัฐฯ ยกระดับยุทธศาสตร์ใหม่ แทนที่จะใช้การควบคุมแบบเดิม

    ข้อมูลเสริมจากวงการ AI
    แพลตฟอร์ม CUDA เป็นหัวใจของการพัฒนาโมเดล AI ระดับสูง
    ชิป AI เป็นทรัพยากรยุทธศาสตร์ที่มีผลต่อความมั่นคงของชาติ
    การควบคุมการส่งออกอาจกระทบต่อการเติบโตของนวัตกรรมในสหรัฐฯ

    https://www.tomshardware.com/pc-components/gpus/nvidia-says-h20-export-controls-didnt-stop-chinas-ai-progress-claims-they-only-stifled-u-s-economic-and-technology-leadership
    🧠 เมื่อการควบคุมชิปกลายเป็นดาบสองคม: Nvidia โต้กลับว่านโยบายสหรัฐฯ ทำร้ายตัวเองมากกว่าจีน Nvidia ออกมาแสดงจุดยืนชัดเจนผ่านโพสต์บน X ว่าการควบคุมการส่งออกชิป H20 ไปยังจีน ไม่ได้หยุดยั้งความก้าวหน้า AI ของจีนเลยแม้แต่น้อย แต่กลับทำให้สหรัฐฯ สูญเสียความเป็นผู้นำด้านเศรษฐกิจและเทคโนโลยี Aaron Ginn ผู้ร่วมก่อตั้ง Hydra Host เขียนบทความใน Wall Street Journal ว่าการห้ามส่งออกชิปนั้น “ล้มเหลวในโลกจริง” เพราะจีนยังคงพัฒนา AI ต่อเนื่อง และมีการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า 1 พันล้านดอลลาร์ในช่วง 3 เดือนที่ผ่านมา แม้ชิป H20 จะถูกออกแบบให้สอดคล้องกับข้อจำกัดของสหรัฐฯ แต่จีนกลับมองว่าไม่ปลอดภัย และเริ่มหันไปใช้ชิปจากผู้ผลิตในประเทศ เช่น Huawei และ Hygon ซึ่งทำให้ Nvidia สูญเสียส่วนแบ่งตลาดในจีนอย่างต่อเนื่อง Nvidia ยืนยันว่าแพลตฟอร์ม CUDA ซึ่งเป็นชุดเครื่องมือพัฒนา AI ยังเป็นจุดแข็งที่จีนไม่สามารถลอกเลียนแบบได้ง่าย และเรียกร้องให้สหรัฐฯ ยกระดับยุทธศาสตร์ใหม่ แทนที่จะใช้การควบคุมแบบเดิม ✅ ข้อมูลเสริมจากวงการ AI ➡️ แพลตฟอร์ม CUDA เป็นหัวใจของการพัฒนาโมเดล AI ระดับสูง ➡️ ชิป AI เป็นทรัพยากรยุทธศาสตร์ที่มีผลต่อความมั่นคงของชาติ ➡️ การควบคุมการส่งออกอาจกระทบต่อการเติบโตของนวัตกรรมในสหรัฐฯ https://www.tomshardware.com/pc-components/gpus/nvidia-says-h20-export-controls-didnt-stop-chinas-ai-progress-claims-they-only-stifled-u-s-economic-and-technology-leadership
    0 ความคิดเห็น 0 การแบ่งปัน 273 มุมมอง 0 รีวิว
  • ⚡️ เมื่อ AI กลายเป็นตัวดูดพลังงาน: จีนพร้อม แต่สหรัฐฯ ยังติดหล่ม

    ลองจินตนาการว่าโลกกำลังเข้าสู่ยุคที่ AI ไม่ใช่แค่ซอฟต์แวร์อัจฉริยะ แต่เป็นเครื่องจักรที่กินไฟมหาศาลเหมือนสัตว์ประหลาดในโรงงานไฟฟ้า และในสงครามเทคโนโลยีนี้ จีนดูเหมือนจะเตรียมตัวมาดีกว่าสหรัฐฯ หลายช่วงตัว

    จีนลงทุนมหาศาลในพลังงานสะอาด ทั้งพลังน้ำ พลังงานนิวเคลียร์ และโซลาร์ฟาร์มขนาดยักษ์ ทำให้มีพลังงานสำรองถึง 80–100% พร้อมรองรับการสร้างศูนย์ข้อมูล AI ใหม่ได้ทันที ในขณะที่สหรัฐฯ กลับต้องเผชิญกับปัญหาโครงสร้างพื้นฐานไฟฟ้าที่ไม่ทันความต้องการ จนบริษัทเทคโนโลยีต้องสร้างโรงไฟฟ้าเอง หรือหันไปพัฒนานิวเคลียร์ขนาดเล็ก

    แม้จีนจะมีข้อครหาว่าใช้โรงไฟฟ้าถ่านหิน แต่ก็มีแผนรองรับด้วยการลงทุนในพลังงานหมุนเวียน และสามารถเปิดโรงไฟฟ้าสำรองได้ทันทีหากจำเป็น ขณะที่สหรัฐฯ ยังต้องเผชิญกับความล่าช้าในการอนุมัติโครงการใหม่ และความไม่แน่นอนของระบบสายส่ง

    ที่น่าสนใจคือ แม้จีนจะมีพลังงานเหลือเฟือ แต่ศูนย์ข้อมูลหลายแห่งกลับยังไม่ได้ใช้งานเต็มที่ จึงกำลังพัฒนาเครือข่ายซื้อขายพลังงานสำรองระหว่างกัน ส่วนสหรัฐฯ หากไม่เร่งแก้ปัญหา อาจเสียเปรียบในสงคราม AI แม้จะมีฮาร์ดแวร์ที่ดีกว่า เพราะ “ไม่มีไฟ ก็ไม่มี AI”

    จีนเตรียมพร้อมด้านพลังงานเพื่อรองรับ AI
    มีพลังงานสำรอง 80–100% รองรับการสร้างศูนย์ข้อมูลใหม่
    ลงทุนในพลังงานสะอาด เช่น พลังน้ำ นิวเคลียร์ และโซลาร์
    วางแผนพลังงานล่วงหน้าเพื่อรองรับความต้องการในอนาคต
    สามารถเปิดโรงไฟฟ้าถ่านหินสำรองได้ทันทีหากจำเป็น
    พัฒนาเครือข่ายซื้อขายพลังงานสำรองระหว่างศูนย์ข้อมูล

    สหรัฐฯ เผชิญปัญหาโครงสร้างพื้นฐานไฟฟ้า
    ศูนย์ข้อมูล AI ทำให้ระบบไฟฟ้าสหรัฐฯ ตึงเครียด
    บริษัทเทคโนโลยีต้องสร้างโรงไฟฟ้าเอง เช่น Elon Musk
    ลงทุนในนิวเคลียร์ขนาดเล็กเพื่อรองรับความต้องการ
    ความล่าช้าในการอนุมัติโครงการใหม่เป็นอุปสรรคใหญ่
    ระบบสายส่งยังไม่พร้อมรองรับการขยายตัวของ AI

    ผลกระทบต่อการแข่งขันด้าน AI
    จีนสามารถใช้พลังงานมหาศาลเพื่อเร่งการประมวลผล AI
    สหรัฐฯ แม้มีฮาร์ดแวร์ที่ดีกว่า แต่ขาดพลังงานอาจเสียเปรียบ
    Huawei CloudMatrix ใช้พลังงานมหาศาลเพื่อเอาชนะ Nvidia GB200

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-experts-warn-that-china-is-miles-ahead-of-the-us-in-electricity-generation-lack-of-supply-and-infrastructure-threatens-the-uss-long-term-ai-plans
    ⚡️ เมื่อ AI กลายเป็นตัวดูดพลังงาน: จีนพร้อม แต่สหรัฐฯ ยังติดหล่ม ลองจินตนาการว่าโลกกำลังเข้าสู่ยุคที่ AI ไม่ใช่แค่ซอฟต์แวร์อัจฉริยะ แต่เป็นเครื่องจักรที่กินไฟมหาศาลเหมือนสัตว์ประหลาดในโรงงานไฟฟ้า และในสงครามเทคโนโลยีนี้ จีนดูเหมือนจะเตรียมตัวมาดีกว่าสหรัฐฯ หลายช่วงตัว จีนลงทุนมหาศาลในพลังงานสะอาด ทั้งพลังน้ำ พลังงานนิวเคลียร์ และโซลาร์ฟาร์มขนาดยักษ์ ทำให้มีพลังงานสำรองถึง 80–100% พร้อมรองรับการสร้างศูนย์ข้อมูล AI ใหม่ได้ทันที ในขณะที่สหรัฐฯ กลับต้องเผชิญกับปัญหาโครงสร้างพื้นฐานไฟฟ้าที่ไม่ทันความต้องการ จนบริษัทเทคโนโลยีต้องสร้างโรงไฟฟ้าเอง หรือหันไปพัฒนานิวเคลียร์ขนาดเล็ก แม้จีนจะมีข้อครหาว่าใช้โรงไฟฟ้าถ่านหิน แต่ก็มีแผนรองรับด้วยการลงทุนในพลังงานหมุนเวียน และสามารถเปิดโรงไฟฟ้าสำรองได้ทันทีหากจำเป็น ขณะที่สหรัฐฯ ยังต้องเผชิญกับความล่าช้าในการอนุมัติโครงการใหม่ และความไม่แน่นอนของระบบสายส่ง ที่น่าสนใจคือ แม้จีนจะมีพลังงานเหลือเฟือ แต่ศูนย์ข้อมูลหลายแห่งกลับยังไม่ได้ใช้งานเต็มที่ จึงกำลังพัฒนาเครือข่ายซื้อขายพลังงานสำรองระหว่างกัน ส่วนสหรัฐฯ หากไม่เร่งแก้ปัญหา อาจเสียเปรียบในสงคราม AI แม้จะมีฮาร์ดแวร์ที่ดีกว่า เพราะ “ไม่มีไฟ ก็ไม่มี AI” ✅ จีนเตรียมพร้อมด้านพลังงานเพื่อรองรับ AI ➡️ มีพลังงานสำรอง 80–100% รองรับการสร้างศูนย์ข้อมูลใหม่ ➡️ ลงทุนในพลังงานสะอาด เช่น พลังน้ำ นิวเคลียร์ และโซลาร์ ➡️ วางแผนพลังงานล่วงหน้าเพื่อรองรับความต้องการในอนาคต ➡️ สามารถเปิดโรงไฟฟ้าถ่านหินสำรองได้ทันทีหากจำเป็น ➡️ พัฒนาเครือข่ายซื้อขายพลังงานสำรองระหว่างศูนย์ข้อมูล ✅ สหรัฐฯ เผชิญปัญหาโครงสร้างพื้นฐานไฟฟ้า ➡️ ศูนย์ข้อมูล AI ทำให้ระบบไฟฟ้าสหรัฐฯ ตึงเครียด ➡️ บริษัทเทคโนโลยีต้องสร้างโรงไฟฟ้าเอง เช่น Elon Musk ➡️ ลงทุนในนิวเคลียร์ขนาดเล็กเพื่อรองรับความต้องการ ➡️ ความล่าช้าในการอนุมัติโครงการใหม่เป็นอุปสรรคใหญ่ ➡️ ระบบสายส่งยังไม่พร้อมรองรับการขยายตัวของ AI ✅ ผลกระทบต่อการแข่งขันด้าน AI ➡️ จีนสามารถใช้พลังงานมหาศาลเพื่อเร่งการประมวลผล AI ➡️ สหรัฐฯ แม้มีฮาร์ดแวร์ที่ดีกว่า แต่ขาดพลังงานอาจเสียเปรียบ ➡️ Huawei CloudMatrix ใช้พลังงานมหาศาลเพื่อเอาชนะ Nvidia GB200 https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-experts-warn-that-china-is-miles-ahead-of-the-us-in-electricity-generation-lack-of-supply-and-infrastructure-threatens-the-uss-long-term-ai-plans
    0 ความคิดเห็น 0 การแบ่งปัน 310 มุมมอง 0 รีวิว
  • DeepSeek R2: โมเดล AI ที่สะดุดเพราะชิป Huawei

    DeepSeek บริษัท AI สัญชาติจีนที่เคยสร้างชื่อจากโมเดล R1 กำลังเผชิญกับความท้าทายครั้งใหญ่ในการพัฒนา R2 ซึ่งเดิมทีตั้งใจจะใช้ชิป Ascend 910C ของ Huawei ในการฝึกโมเดล เพื่อสนับสนุนแนวทาง “พึ่งพาตนเอง” ของรัฐบาลจีน แต่ผลลัพธ์กลับไม่เป็นไปตามแผน

    แม้ Huawei จะส่งทีมวิศวกรไปช่วย DeepSeek โดยตรง แต่ชิป Ascend กลับมีปัญหาหลายด้าน เช่น ความร้อนสูง, การเชื่อมต่อระหว่างชิปที่ช้า, และซอฟต์แวร์ที่ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ทำให้ DeepSeek ไม่สามารถฝึกโมเดล R2 ได้สำเร็จ

    สุดท้าย DeepSeek ต้องหันกลับมาใช้ชิป NVIDIA H20 ในการฝึกโมเดล และใช้ชิป Huawei เฉพาะในขั้นตอน inference เท่านั้น ซึ่งเป็นการประนีประนอมระหว่างประสิทธิภาพและนโยบายรัฐ

    นอกจากนี้ ยังมีปัจจัยอื่นที่ทำให้ R2 ล่าช้า เช่น การติดป้ายข้อมูล (data labeling) ที่ใช้เวลานานกว่าคาด และความกังวลเรื่องความปลอดภัยของชิป NVIDIA ที่อาจมีระบบติดตามตำแหน่ง ทำให้รัฐบาลจีนลังเลที่จะอนุมัติการใช้งานในวงกว้าง

    แม้ DeepSeek จะยังไม่ประกาศวันเปิดตัวใหม่อย่างเป็นทางการ แต่คาดว่าโมเดล R2 จะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า โดยต้องแข่งกับคู่แข่งอย่าง Qwen3 จาก Alibaba ที่กำลังมาแรง

    DeepSeek ล่าช้าในการเปิดตัวโมเดล R2
    เดิมตั้งใจเปิดตัวในเดือนพฤษภาคม แต่เลื่อนออกไปไม่มีกำหนด
    ปัจจุบันยังอยู่ในขั้นตอนปรับปรุงและทดสอบประสิทธิภาพ

    ปัญหาจากการใช้ชิป Huawei Ascend 910C
    มีปัญหาความร้อนสูงและการเชื่อมต่อระหว่างชิปที่ช้า
    ซอฟต์แวร์ CANN ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA
    ไม่สามารถฝึกโมเดลขนาดใหญ่ได้สำเร็จ

    การเปลี่ยนกลับมาใช้ชิป NVIDIA
    ใช้ NVIDIA H20 ในการฝึกโมเดล R2
    ใช้ Huawei เฉพาะในขั้นตอน inference เพื่อประหยัดต้นทุน
    เป็นแนวทางแบบ hybrid ที่หลายบริษัทจีนเริ่มนำมาใช้

    ปัจจัยอื่นที่ทำให้ R2 ล่าช้า
    การติดป้ายข้อมูลใช้เวลานานกว่าคาด
    ผู้ก่อตั้งไม่พอใจกับความก้าวหน้า และต้องการคุณภาพสูงกว่าคู่แข่ง
    รัฐบาลจีนยังลังเลเรื่องการอนุมัติชิป NVIDIA เพราะข้อกังวลด้านความปลอดภัย

    https://wccftech.com/deepseek-r2-ai-model-is-reportedly-delayed-after-chinese-authorities-encouraged-the-firm-to-use-huawei-ai-chips/
    🧠 DeepSeek R2: โมเดล AI ที่สะดุดเพราะชิป Huawei DeepSeek บริษัท AI สัญชาติจีนที่เคยสร้างชื่อจากโมเดล R1 กำลังเผชิญกับความท้าทายครั้งใหญ่ในการพัฒนา R2 ซึ่งเดิมทีตั้งใจจะใช้ชิป Ascend 910C ของ Huawei ในการฝึกโมเดล เพื่อสนับสนุนแนวทาง “พึ่งพาตนเอง” ของรัฐบาลจีน แต่ผลลัพธ์กลับไม่เป็นไปตามแผน แม้ Huawei จะส่งทีมวิศวกรไปช่วย DeepSeek โดยตรง แต่ชิป Ascend กลับมีปัญหาหลายด้าน เช่น ความร้อนสูง, การเชื่อมต่อระหว่างชิปที่ช้า, และซอฟต์แวร์ที่ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ทำให้ DeepSeek ไม่สามารถฝึกโมเดล R2 ได้สำเร็จ สุดท้าย DeepSeek ต้องหันกลับมาใช้ชิป NVIDIA H20 ในการฝึกโมเดล และใช้ชิป Huawei เฉพาะในขั้นตอน inference เท่านั้น ซึ่งเป็นการประนีประนอมระหว่างประสิทธิภาพและนโยบายรัฐ นอกจากนี้ ยังมีปัจจัยอื่นที่ทำให้ R2 ล่าช้า เช่น การติดป้ายข้อมูล (data labeling) ที่ใช้เวลานานกว่าคาด และความกังวลเรื่องความปลอดภัยของชิป NVIDIA ที่อาจมีระบบติดตามตำแหน่ง ทำให้รัฐบาลจีนลังเลที่จะอนุมัติการใช้งานในวงกว้าง แม้ DeepSeek จะยังไม่ประกาศวันเปิดตัวใหม่อย่างเป็นทางการ แต่คาดว่าโมเดล R2 จะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า โดยต้องแข่งกับคู่แข่งอย่าง Qwen3 จาก Alibaba ที่กำลังมาแรง ✅ DeepSeek ล่าช้าในการเปิดตัวโมเดล R2 ➡️ เดิมตั้งใจเปิดตัวในเดือนพฤษภาคม แต่เลื่อนออกไปไม่มีกำหนด ➡️ ปัจจุบันยังอยู่ในขั้นตอนปรับปรุงและทดสอบประสิทธิภาพ ✅ ปัญหาจากการใช้ชิป Huawei Ascend 910C ➡️ มีปัญหาความร้อนสูงและการเชื่อมต่อระหว่างชิปที่ช้า ➡️ ซอฟต์แวร์ CANN ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ➡️ ไม่สามารถฝึกโมเดลขนาดใหญ่ได้สำเร็จ ✅ การเปลี่ยนกลับมาใช้ชิป NVIDIA ➡️ ใช้ NVIDIA H20 ในการฝึกโมเดล R2 ➡️ ใช้ Huawei เฉพาะในขั้นตอน inference เพื่อประหยัดต้นทุน ➡️ เป็นแนวทางแบบ hybrid ที่หลายบริษัทจีนเริ่มนำมาใช้ ✅ ปัจจัยอื่นที่ทำให้ R2 ล่าช้า ➡️ การติดป้ายข้อมูลใช้เวลานานกว่าคาด ➡️ ผู้ก่อตั้งไม่พอใจกับความก้าวหน้า และต้องการคุณภาพสูงกว่าคู่แข่ง ➡️ รัฐบาลจีนยังลังเลเรื่องการอนุมัติชิป NVIDIA เพราะข้อกังวลด้านความปลอดภัย https://wccftech.com/deepseek-r2-ai-model-is-reportedly-delayed-after-chinese-authorities-encouraged-the-firm-to-use-huawei-ai-chips/
    WCCFTECH.COM
    DeepSeek's R2 AI Model Is Reportedly Delayed After Chinese Authorities Encouraged the Firm to Use Huawei's AI Chips; Beijing Is Still in Need of NVIDIA's Alternatives
    Well, relying on Huawei's AI chips didn't go well for DeepSeek, as the AI firm has failed to train the R2 model on Chinese chips.
    0 ความคิดเห็น 0 การแบ่งปัน 365 มุมมอง 0 รีวิว
  • เมื่อชิปกลายเป็นภาษี: Nvidia และ AMD ต้องจ่าย 15% รายได้จากการขายชิป AI ให้จีน

    ในสงครามเทคโนโลยีระหว่างสหรัฐฯ กับจีน ชิป AI กลายเป็นอาวุธสำคัญ และตอนนี้สองยักษ์ใหญ่แห่งวงการ—Nvidia และ AMD—ต้องจ่าย “ค่าผ่านทาง” ให้รัฐบาลสหรัฐฯ ถึง 15% ของรายได้จากการขายชิป AI ให้จีน

    เรื่องเริ่มจากการที่สหรัฐฯ เคยจำกัดการส่งออกชิปขั้นสูงไปยังจีน ด้วยเหตุผลด้านความมั่นคง โดยเฉพาะชิปที่มีศักยภาพในการใช้งานทางทหาร แต่เมื่อ Huawei ของจีนเริ่มพัฒนาเทคโนโลยีของตัวเองอย่างรวดเร็ว รัฐบาลสหรัฐฯ จึงกลับลำ เปิดทางให้ Nvidia ส่งออกชิป H20 และ AMD ส่ง MI308 ไปยังจีนได้อีกครั้ง—แต่ต้องจ่ายภาษีพิเศษ

    ชิปเหล่านี้ถูกออกแบบให้ “ลดความสามารถ” ลงจากรุ่นเรือธง เพื่อให้ผ่านข้อจำกัดด้านการส่งออก แต่ยังคงเป็น AI accelerator ที่ทรงพลังสำหรับงานประมวลผลหนัก เช่น การฝึกโมเดล AI ขนาดใหญ่

    แม้จะได้สิทธิ์กลับมาขาย แต่ Nvidia เคยประเมินว่าแค่ข้อจำกัดเดิมก็ทำให้สูญรายได้ถึง 5.5 พันล้านดอลลาร์ ส่วน AMD ก็อาจเสียหายถึง 800 ล้านดอลลาร์

    ขณะเดียวกัน ฝ่ายนิติบัญญัติในสหรัฐฯ กำลังเสนอให้ชิป AI ที่ขายให้ต่างประเทศต้องมีระบบติดตามตำแหน่งในตัว เพื่อป้องกันการนำไปใช้ในทางทหารหรือการจารกรรม

    Nvidia และ AMD ต้องจ่าย 15% ของรายได้จากการขายชิป AI ให้จีน
    เป็นข้อตกลงใหม่กับรัฐบาลสหรัฐฯ เพื่อแลกกับสิทธิ์ในการส่งออก

    ชิปที่เกี่ยวข้องคือ Nvidia H20 และ AMD MI308
    ถูกออกแบบให้ลดความสามารถลงเพื่อผ่านข้อจำกัดด้านการส่งออก

    ชิปเหล่านี้เป็น AI accelerator สำหรับงานประมวลผลหนัก
    เช่น การฝึกโมเดล AI และการคำนวณเชิงลึก

    Nvidia เคยประเมินว่าข้อจำกัดเดิมทำให้สูญรายได้ถึง 5.5 พันล้านดอลลาร์
    ส่วน AMD อาจเสียหายถึง 800 ล้านดอลลาร์

    รัฐบาลสหรัฐฯ เคยห้ามส่งออกชิปขั้นสูงไปยังจีนด้วยเหตุผลด้านความมั่นคง
    แต่กลับลำในเดือนกรกฎาคม 2025 เพื่อรักษาความสามารถในการแข่งขัน

    Huawei ของจีนกำลังพัฒนาเทคโนโลยีชิปอย่างรวดเร็ว
    เป็นแรงกดดันให้สหรัฐฯ ต้องปรับนโยบาย

    มีข้อเสนอให้ชิป AI ที่ส่งออกต้องมีระบบติดตามตำแหน่งในตัว
    เพื่อป้องกันการนำไปใช้ในทางทหารหรือการจารกรรม

    https://www.thestar.com.my/tech/tech-news/2025/08/13/the-semiconductors-costing-nvidia-amd-dearly
    💸⚙️ เมื่อชิปกลายเป็นภาษี: Nvidia และ AMD ต้องจ่าย 15% รายได้จากการขายชิป AI ให้จีน ในสงครามเทคโนโลยีระหว่างสหรัฐฯ กับจีน ชิป AI กลายเป็นอาวุธสำคัญ และตอนนี้สองยักษ์ใหญ่แห่งวงการ—Nvidia และ AMD—ต้องจ่าย “ค่าผ่านทาง” ให้รัฐบาลสหรัฐฯ ถึง 15% ของรายได้จากการขายชิป AI ให้จีน เรื่องเริ่มจากการที่สหรัฐฯ เคยจำกัดการส่งออกชิปขั้นสูงไปยังจีน ด้วยเหตุผลด้านความมั่นคง โดยเฉพาะชิปที่มีศักยภาพในการใช้งานทางทหาร แต่เมื่อ Huawei ของจีนเริ่มพัฒนาเทคโนโลยีของตัวเองอย่างรวดเร็ว รัฐบาลสหรัฐฯ จึงกลับลำ เปิดทางให้ Nvidia ส่งออกชิป H20 และ AMD ส่ง MI308 ไปยังจีนได้อีกครั้ง—แต่ต้องจ่ายภาษีพิเศษ ชิปเหล่านี้ถูกออกแบบให้ “ลดความสามารถ” ลงจากรุ่นเรือธง เพื่อให้ผ่านข้อจำกัดด้านการส่งออก แต่ยังคงเป็น AI accelerator ที่ทรงพลังสำหรับงานประมวลผลหนัก เช่น การฝึกโมเดล AI ขนาดใหญ่ แม้จะได้สิทธิ์กลับมาขาย แต่ Nvidia เคยประเมินว่าแค่ข้อจำกัดเดิมก็ทำให้สูญรายได้ถึง 5.5 พันล้านดอลลาร์ ส่วน AMD ก็อาจเสียหายถึง 800 ล้านดอลลาร์ ขณะเดียวกัน ฝ่ายนิติบัญญัติในสหรัฐฯ กำลังเสนอให้ชิป AI ที่ขายให้ต่างประเทศต้องมีระบบติดตามตำแหน่งในตัว เพื่อป้องกันการนำไปใช้ในทางทหารหรือการจารกรรม ✅ Nvidia และ AMD ต้องจ่าย 15% ของรายได้จากการขายชิป AI ให้จีน ➡️ เป็นข้อตกลงใหม่กับรัฐบาลสหรัฐฯ เพื่อแลกกับสิทธิ์ในการส่งออก ✅ ชิปที่เกี่ยวข้องคือ Nvidia H20 และ AMD MI308 ➡️ ถูกออกแบบให้ลดความสามารถลงเพื่อผ่านข้อจำกัดด้านการส่งออก ✅ ชิปเหล่านี้เป็น AI accelerator สำหรับงานประมวลผลหนัก ➡️ เช่น การฝึกโมเดล AI และการคำนวณเชิงลึก ✅ Nvidia เคยประเมินว่าข้อจำกัดเดิมทำให้สูญรายได้ถึง 5.5 พันล้านดอลลาร์ ➡️ ส่วน AMD อาจเสียหายถึง 800 ล้านดอลลาร์ ✅ รัฐบาลสหรัฐฯ เคยห้ามส่งออกชิปขั้นสูงไปยังจีนด้วยเหตุผลด้านความมั่นคง ➡️ แต่กลับลำในเดือนกรกฎาคม 2025 เพื่อรักษาความสามารถในการแข่งขัน ✅ Huawei ของจีนกำลังพัฒนาเทคโนโลยีชิปอย่างรวดเร็ว ➡️ เป็นแรงกดดันให้สหรัฐฯ ต้องปรับนโยบาย ✅ มีข้อเสนอให้ชิป AI ที่ส่งออกต้องมีระบบติดตามตำแหน่งในตัว ➡️ เพื่อป้องกันการนำไปใช้ในทางทหารหรือการจารกรรม https://www.thestar.com.my/tech/tech-news/2025/08/13/the-semiconductors-costing-nvidia-amd-dearly
    WWW.THESTAR.COM.MY
    The semiconductors costing Nvidia, AMD dearly
    Nvidia and other US chip companies have lobbied against the tough restrictions in recent years on selling cutting-edge semiconductors to China.
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
Pages Boosts