• “NVIDIA เตรียมเปิดศักราชใหม่ของ GPU ด้วย Boot42 บนไดรเวอร์ Nova รองรับสถาปัตยกรรม Rubin”

    NVIDIA กำลังวางรากฐานสำหรับ GPU รุ่นถัดไปแล้วนะ! ล่าสุดพวกเขาเริ่มเปลี่ยนระบบระบุสถาปัตยกรรมจาก Boot0 ไปเป็น Boot42 บนไดรเวอร์ Nova ซึ่งเป็นไดรเวอร์โอเพ่นซอร์สที่เขียนด้วยภาษา Rust

    ก่อนหน้านี้ NVIDIA ใช้ register ที่ชื่อว่า NV_PMC_BOOT_0 เพื่อบอกว่า GPU ตัวนั้นใช้สถาปัตยกรรมอะไร เช่น Turing, Ampere หรือ Blackwell แต่ตอนนี้พวกเขากำลังจะเลิกใช้ Boot0 แล้วหันมาใช้ NV_PMC_BOOT_42 แทน ซึ่งจะช่วยให้โค้ดสะอาดขึ้นและรองรับ GPU รุ่นใหม่ได้ง่ายขึ้น

    การเปลี่ยนแปลงนี้ชี้ชัดว่า NVIDIA กำลังเตรียมตัวสำหรับสถาปัตยกรรมใหม่ที่ชื่อว่า “Rubin” ซึ่งจะมาแทน Blackwell และเน้นกลุ่มเซิร์ฟเวอร์เป็นหลัก โดยมีแผนเริ่มผลิตจำนวนมากในช่วงครึ่งหลังของปี 2026

    ที่น่าสนใจคือการเปลี่ยนมาใช้ Boot42 ทำให้โค้ดในไดรเวอร์ลดลงถึง 33 บรรทัด และยังช่วยให้ Nova รองรับ GPU ตั้งแต่รุ่นเก่าอย่าง NV04 ไปจนถึงรุ่นใหม่ในอนาคตได้โดยไม่ต้องแก้โค้ดเพิ่มอีก

    NVIDIA เปลี่ยนระบบระบุสถาปัตยกรรมจาก Boot0 ไปเป็น Boot42
    ใช้ในไดรเวอร์ Nova ที่เขียนด้วยภาษา Rust
    NV_PMC_BOOT_0 จะถูกยกเลิกและแทนที่ด้วย NV_PMC_BOOT_42
    ช่วยให้โค้ดสะอาดขึ้นและรองรับ GPU รุ่นใหม่ได้ง่ายขึ้น

    การเปลี่ยนแปลงนี้เกี่ยวข้องกับ GPU สถาปัตยกรรม Rubin
    Rubin เป็นสถาปัตยกรรมถัดจาก Blackwell
    เน้นกลุ่มเซิร์ฟเวอร์และ AI
    มีกำหนดเริ่มผลิตจำนวนมากในครึ่งหลังของปี 2026

    ผลลัพธ์จากการเปลี่ยนมาใช้ Boot42
    ลดโค้ดในไดรเวอร์ลง 33 บรรทัด
    Nova จะสามารถรองรับ GPU ตั้งแต่ NV04 ถึงรุ่นอนาคตได้โดยไม่ต้องแก้โค้ด
    เป็นก้าวสำคัญของ NVIDIA ในการสนับสนุนโอเพ่นซอร์สบน Linux

    https://wccftech.com/nvidia-prepares-for-next-gen-gpus-begins-nova-driver-transition-from-boot0-to-boot42/
    ⚙️ “NVIDIA เตรียมเปิดศักราชใหม่ของ GPU ด้วย Boot42 บนไดรเวอร์ Nova รองรับสถาปัตยกรรม Rubin” NVIDIA กำลังวางรากฐานสำหรับ GPU รุ่นถัดไปแล้วนะ! ล่าสุดพวกเขาเริ่มเปลี่ยนระบบระบุสถาปัตยกรรมจาก Boot0 ไปเป็น Boot42 บนไดรเวอร์ Nova ซึ่งเป็นไดรเวอร์โอเพ่นซอร์สที่เขียนด้วยภาษา Rust ก่อนหน้านี้ NVIDIA ใช้ register ที่ชื่อว่า NV_PMC_BOOT_0 เพื่อบอกว่า GPU ตัวนั้นใช้สถาปัตยกรรมอะไร เช่น Turing, Ampere หรือ Blackwell แต่ตอนนี้พวกเขากำลังจะเลิกใช้ Boot0 แล้วหันมาใช้ NV_PMC_BOOT_42 แทน ซึ่งจะช่วยให้โค้ดสะอาดขึ้นและรองรับ GPU รุ่นใหม่ได้ง่ายขึ้น การเปลี่ยนแปลงนี้ชี้ชัดว่า NVIDIA กำลังเตรียมตัวสำหรับสถาปัตยกรรมใหม่ที่ชื่อว่า “Rubin” ซึ่งจะมาแทน Blackwell และเน้นกลุ่มเซิร์ฟเวอร์เป็นหลัก โดยมีแผนเริ่มผลิตจำนวนมากในช่วงครึ่งหลังของปี 2026 ที่น่าสนใจคือการเปลี่ยนมาใช้ Boot42 ทำให้โค้ดในไดรเวอร์ลดลงถึง 33 บรรทัด และยังช่วยให้ Nova รองรับ GPU ตั้งแต่รุ่นเก่าอย่าง NV04 ไปจนถึงรุ่นใหม่ในอนาคตได้โดยไม่ต้องแก้โค้ดเพิ่มอีก ✅ NVIDIA เปลี่ยนระบบระบุสถาปัตยกรรมจาก Boot0 ไปเป็น Boot42 ➡️ ใช้ในไดรเวอร์ Nova ที่เขียนด้วยภาษา Rust ➡️ NV_PMC_BOOT_0 จะถูกยกเลิกและแทนที่ด้วย NV_PMC_BOOT_42 ➡️ ช่วยให้โค้ดสะอาดขึ้นและรองรับ GPU รุ่นใหม่ได้ง่ายขึ้น ✅ การเปลี่ยนแปลงนี้เกี่ยวข้องกับ GPU สถาปัตยกรรม Rubin ➡️ Rubin เป็นสถาปัตยกรรมถัดจาก Blackwell ➡️ เน้นกลุ่มเซิร์ฟเวอร์และ AI ➡️ มีกำหนดเริ่มผลิตจำนวนมากในครึ่งหลังของปี 2026 ✅ ผลลัพธ์จากการเปลี่ยนมาใช้ Boot42 ➡️ ลดโค้ดในไดรเวอร์ลง 33 บรรทัด ➡️ Nova จะสามารถรองรับ GPU ตั้งแต่ NV04 ถึงรุ่นอนาคตได้โดยไม่ต้องแก้โค้ด ➡️ เป็นก้าวสำคัญของ NVIDIA ในการสนับสนุนโอเพ่นซอร์สบน Linux https://wccftech.com/nvidia-prepares-for-next-gen-gpus-begins-nova-driver-transition-from-boot0-to-boot42/
    WCCFTECH.COM
    NVIDIA Prepares For Next-Gen GPUs; Begins Nova Driver Transition From Boot0 To Boot42
    NVIDIA has reportedly started preparing for "next-gen" GPUs as confirmed from its transition of Nova Driver to Boot42.
    0 ความคิดเห็น 0 การแบ่งปัน 76 มุมมอง 0 รีวิว
  • “USD.AI: สเตเบิลคอยน์ใหม่เชื่อมโลกคริปโตกับ GPU จริงของ Nvidia เพื่อสร้างรายได้จาก AI”

    ตอนนี้มีโปรเจกต์ใหม่ที่ชื่อว่า USD.AI ซึ่งเป็นสเตเบิลคอยน์ในโลก DeFi ที่ไม่ได้แค่เก็บมูลค่าไว้เฉย ๆ แต่เอาเงินของนักลงทุนไปซื้อ GPU จริง ๆ ของ Nvidia แล้วปล่อยเช่าให้กับนักพัฒนา AI เพื่อหารายได้กลับมาให้ผู้ถือเหรียญ!

    พูดง่าย ๆ คือ ถ้าคุณถือเหรียญ USD.AI ก็เหมือนคุณลงทุนในฮาร์ดแวร์ที่มีคนเช่าใช้งานจริง แล้วรายได้จากการเช่าก็จะถูกนำมาจ่ายคืนให้คุณเป็นผลตอบแทน ซึ่งตอนนี้ผลตอบแทนอยู่ที่ประมาณ 13–17% ต่อปี—สูงกว่าพันธบัตรรัฐบาลสหรัฐฯ แบบเห็น ๆ

    ระบบนี้มีโครงสร้างป้องกันความเสี่ยงแบบ 3 ชั้น ได้แก่ CALIBER, FiLO และ QEV ที่ช่วยให้การลงทุนปลอดภัยขึ้น เช่น การแปลง GPU เป็น NFT เพื่อใช้เป็นหลักประกัน, การมีผู้คัดกรองความเสี่ยงที่ลงทุนเงินของตัวเอง และระบบคิวสำหรับการถอนเงินที่ควบคุมสภาพคล่องได้ดี

    USD.AI คืออะไร
    เป็นโปรโตคอล DeFi ที่ใช้ stablecoin เพื่อซื้อ GPU จริงของ Nvidia
    GPU เหล่านี้ถูกนำไปปล่อยเช่าให้กับนักพัฒนา AI
    รายได้จากการเช่าถูกนำมาจ่ายคืนให้ผู้ถือเหรียญเป็นผลตอบแทน

    ผลตอบแทนที่น่าสนใจ
    อัตราผลตอบแทนอยู่ที่ 13–17% ต่อปี
    สูงกว่าพันธบัตรรัฐบาลสหรัฐฯ 10 ปี
    รายได้มาจากการใช้งานจริง ไม่ใช่การปั่นเหรียญหรือวงจรเลเวอเรจ

    โครงสร้างความปลอดภัยแบบ 3 ชั้น
    CALIBER: แปลง GPU เป็น NFT และใช้เป็นหลักประกัน
    FiLO: มีผู้คัดกรองความเสี่ยงที่ลงทุนเงินของตัวเองเพื่อรับผิดชอบหากเกิดความเสียหาย
    QEV: ระบบคิวสำหรับการถอนเงินที่ควบคุมสภาพคล่องและให้ผลตอบแทนแก่ผู้รอ

    ประโยชน์ต่อผู้ถือเหรียญและนักพัฒนา AI
    นักลงทุนได้ผลตอบแทนจากการปล่อยเช่า GPU
    นักพัฒนา AI เข้าถึงฮาร์ดแวร์ได้ง่ายขึ้นโดยไม่ต้องลงทุนเอง
    เป็นการเชื่อมโลกคริปโตกับการใช้งานจริงในอุตสาหกรรม AI

    https://www.tomshardware.com/tech-industry/cryptocurrency/new-stablecoin-connects-crypto-investors-to-real-world-nvidia-ai-gpus-that-earn-money-by-renting-out-compute-power-to-ai-devs-usd-ai-lets-crypto-investors-make-bank-off-ai-compute-rentals
    🪙“USD.AI: สเตเบิลคอยน์ใหม่เชื่อมโลกคริปโตกับ GPU จริงของ Nvidia เพื่อสร้างรายได้จาก AI” ตอนนี้มีโปรเจกต์ใหม่ที่ชื่อว่า USD.AI ซึ่งเป็นสเตเบิลคอยน์ในโลก DeFi ที่ไม่ได้แค่เก็บมูลค่าไว้เฉย ๆ แต่เอาเงินของนักลงทุนไปซื้อ GPU จริง ๆ ของ Nvidia แล้วปล่อยเช่าให้กับนักพัฒนา AI เพื่อหารายได้กลับมาให้ผู้ถือเหรียญ! พูดง่าย ๆ คือ ถ้าคุณถือเหรียญ USD.AI ก็เหมือนคุณลงทุนในฮาร์ดแวร์ที่มีคนเช่าใช้งานจริง แล้วรายได้จากการเช่าก็จะถูกนำมาจ่ายคืนให้คุณเป็นผลตอบแทน ซึ่งตอนนี้ผลตอบแทนอยู่ที่ประมาณ 13–17% ต่อปี—สูงกว่าพันธบัตรรัฐบาลสหรัฐฯ แบบเห็น ๆ ระบบนี้มีโครงสร้างป้องกันความเสี่ยงแบบ 3 ชั้น ได้แก่ CALIBER, FiLO และ QEV ที่ช่วยให้การลงทุนปลอดภัยขึ้น เช่น การแปลง GPU เป็น NFT เพื่อใช้เป็นหลักประกัน, การมีผู้คัดกรองความเสี่ยงที่ลงทุนเงินของตัวเอง และระบบคิวสำหรับการถอนเงินที่ควบคุมสภาพคล่องได้ดี ✅ USD.AI คืออะไร ➡️ เป็นโปรโตคอล DeFi ที่ใช้ stablecoin เพื่อซื้อ GPU จริงของ Nvidia ➡️ GPU เหล่านี้ถูกนำไปปล่อยเช่าให้กับนักพัฒนา AI ➡️ รายได้จากการเช่าถูกนำมาจ่ายคืนให้ผู้ถือเหรียญเป็นผลตอบแทน ✅ ผลตอบแทนที่น่าสนใจ ➡️ อัตราผลตอบแทนอยู่ที่ 13–17% ต่อปี ➡️ สูงกว่าพันธบัตรรัฐบาลสหรัฐฯ 10 ปี ➡️ รายได้มาจากการใช้งานจริง ไม่ใช่การปั่นเหรียญหรือวงจรเลเวอเรจ ✅ โครงสร้างความปลอดภัยแบบ 3 ชั้น ➡️ CALIBER: แปลง GPU เป็น NFT และใช้เป็นหลักประกัน ➡️ FiLO: มีผู้คัดกรองความเสี่ยงที่ลงทุนเงินของตัวเองเพื่อรับผิดชอบหากเกิดความเสียหาย ➡️ QEV: ระบบคิวสำหรับการถอนเงินที่ควบคุมสภาพคล่องและให้ผลตอบแทนแก่ผู้รอ ✅ ประโยชน์ต่อผู้ถือเหรียญและนักพัฒนา AI ➡️ นักลงทุนได้ผลตอบแทนจากการปล่อยเช่า GPU ➡️ นักพัฒนา AI เข้าถึงฮาร์ดแวร์ได้ง่ายขึ้นโดยไม่ต้องลงทุนเอง ➡️ เป็นการเชื่อมโลกคริปโตกับการใช้งานจริงในอุตสาหกรรม AI https://www.tomshardware.com/tech-industry/cryptocurrency/new-stablecoin-connects-crypto-investors-to-real-world-nvidia-ai-gpus-that-earn-money-by-renting-out-compute-power-to-ai-devs-usd-ai-lets-crypto-investors-make-bank-off-ai-compute-rentals
    0 ความคิดเห็น 0 การแบ่งปัน 75 มุมมอง 0 รีวิว
  • “Cooler Master แนะลูกค้า ‘รื้อสายไฟ’ เพื่อเสียบการ์ดจอ – แต่คำแนะนำอาจไม่ช่วย แถมเสี่ยงไฟไหม้!”

    เรื่องนี้เกิดขึ้นเมื่อผู้ใช้ Asus RTX 5070 Ti พบว่าไม่สามารถเสียบสายไฟ 12V-2x6 จาก PSU ของ Cooler Master รุ่น MWE Gold V2 1250W ได้ เพราะหัวสายแบบงอ (right-angled) ไม่พอดีกับพอร์ตบนการ์ดจอ ซึ่งมีการออกแบบตำแหน่งพอร์ตไฟเบี้ยวเล็กน้อย

    ลูกค้าจึงติดต่อฝ่ายบริการของ Cooler Master เพื่อขอสายแบบตรง แต่สิ่งที่ได้รับกลับมาคือคำแนะนำให้ “รื้อสายไฟ” โดยการถอดคลิปล็อกด้านข้างของหัวสาย เพื่อให้สามารถเสียบเข้าไปได้ — ซึ่งเท่ากับเปลี่ยนสายงอให้กลายเป็นสายตรงแบบ DIY

    โชคดีที่ลูกค้าไม่ทำตาม และเลือกซื้อสายจาก Cablemod แทน เพราะการรื้อสายแบบนั้นไม่เพียงแต่ไม่ช่วยแก้ปัญหา แต่ยังเสี่ยงต่อการเสียหายของหัวสาย และอาจเพิ่มความต้านทานไฟฟ้า จนเกิดความร้อนสะสมและไฟไหม้ได้

    Igor’s Lab ซึ่งเป็นแหล่งข่าวต้นเรื่อง ได้ทดสอบสาย Cooler Master กับการ์ดจอ MSI RTX 5090 Suprim และพบว่าแม้จะถอดคลิปล็อกแล้ว ก็ยังเสียบไม่สุด เพราะ housing ภายในของสาย Cooler Master สั้นกว่ามาตรฐานของ Nvidia ถึง 3.2 มม. ทำให้ชนกับฮีตซิงก์ของการ์ดจอ

    นอกจากนี้ยังเตือนว่า สาย 12V-2x6 เป็นสายที่เปราะบางมาก การงอหรือดัดสายอาจทำให้ขั้วภายในเคลื่อน ส่งผลให้เกิดความร้อนและไฟไหม้ได้ง่าย ซึ่งเคยเกิดขึ้นมาแล้วหลายครั้งกับสาย 16-pin ในอดีต

    ปัญหาที่พบ
    สายไฟ 12V-2x6 แบบงอของ Cooler Master เสียบไม่พอดีกับ Asus RTX 5070 Ti
    พอร์ตไฟบนการ์ดจอมีตำแหน่งเบี้ยว ทำให้สายชนกับฮีตซิงก์
    Housing ภายในของสาย Cooler Master สั้นกว่ามาตรฐาน Nvidia 3.2 มม.
    แม้ถอดคลิปล็อกแล้วก็ยังเสียบไม่สุด

    คำแนะนำจากฝ่ายบริการ
    แนะนำให้ลูกค้ารื้อสายโดยถอดคลิปล็อกด้านข้าง
    เปลี่ยนสายงอให้กลายเป็นสายตรงแบบ DIY
    ลูกค้าเลือกไม่ทำตาม และซื้อสายจาก Cablemod แทน
    Igor’s Lab ยืนยันว่าคำแนะนำนี้ไม่ช่วยแก้ปัญหา

    ความเสี่ยงจากการแก้ไขสายไฟ
    การดัดสายอาจทำให้ขั้วภายในเคลื่อน
    เพิ่มความต้านทานไฟฟ้า → ความร้อนสะสม → เสี่ยงไฟไหม้
    สาย 12V-2x6 มีประวัติเสียหายจากการใช้งานผิดวิธี
    การใช้สายที่ไม่ตรงมาตรฐานอาจทำให้การ์ดจอเสียหาย

    https://www.tomshardware.com/pc-components/gpus/cooler-master-tells-customer-to-dismantle-12v2x6-connector-to-fit-asus-rtx-5070-ti-customer-service-offers-dubious-advice-that-might-not-even-fix-issue
    ⚠️ “Cooler Master แนะลูกค้า ‘รื้อสายไฟ’ เพื่อเสียบการ์ดจอ – แต่คำแนะนำอาจไม่ช่วย แถมเสี่ยงไฟไหม้!” เรื่องนี้เกิดขึ้นเมื่อผู้ใช้ Asus RTX 5070 Ti พบว่าไม่สามารถเสียบสายไฟ 12V-2x6 จาก PSU ของ Cooler Master รุ่น MWE Gold V2 1250W ได้ เพราะหัวสายแบบงอ (right-angled) ไม่พอดีกับพอร์ตบนการ์ดจอ ซึ่งมีการออกแบบตำแหน่งพอร์ตไฟเบี้ยวเล็กน้อย ลูกค้าจึงติดต่อฝ่ายบริการของ Cooler Master เพื่อขอสายแบบตรง แต่สิ่งที่ได้รับกลับมาคือคำแนะนำให้ “รื้อสายไฟ” โดยการถอดคลิปล็อกด้านข้างของหัวสาย เพื่อให้สามารถเสียบเข้าไปได้ — ซึ่งเท่ากับเปลี่ยนสายงอให้กลายเป็นสายตรงแบบ DIY โชคดีที่ลูกค้าไม่ทำตาม และเลือกซื้อสายจาก Cablemod แทน เพราะการรื้อสายแบบนั้นไม่เพียงแต่ไม่ช่วยแก้ปัญหา แต่ยังเสี่ยงต่อการเสียหายของหัวสาย และอาจเพิ่มความต้านทานไฟฟ้า จนเกิดความร้อนสะสมและไฟไหม้ได้ Igor’s Lab ซึ่งเป็นแหล่งข่าวต้นเรื่อง ได้ทดสอบสาย Cooler Master กับการ์ดจอ MSI RTX 5090 Suprim และพบว่าแม้จะถอดคลิปล็อกแล้ว ก็ยังเสียบไม่สุด เพราะ housing ภายในของสาย Cooler Master สั้นกว่ามาตรฐานของ Nvidia ถึง 3.2 มม. ทำให้ชนกับฮีตซิงก์ของการ์ดจอ นอกจากนี้ยังเตือนว่า สาย 12V-2x6 เป็นสายที่เปราะบางมาก การงอหรือดัดสายอาจทำให้ขั้วภายในเคลื่อน ส่งผลให้เกิดความร้อนและไฟไหม้ได้ง่าย ซึ่งเคยเกิดขึ้นมาแล้วหลายครั้งกับสาย 16-pin ในอดีต ✅ ปัญหาที่พบ ➡️ สายไฟ 12V-2x6 แบบงอของ Cooler Master เสียบไม่พอดีกับ Asus RTX 5070 Ti ➡️ พอร์ตไฟบนการ์ดจอมีตำแหน่งเบี้ยว ทำให้สายชนกับฮีตซิงก์ ➡️ Housing ภายในของสาย Cooler Master สั้นกว่ามาตรฐาน Nvidia 3.2 มม. ➡️ แม้ถอดคลิปล็อกแล้วก็ยังเสียบไม่สุด ✅ คำแนะนำจากฝ่ายบริการ ➡️ แนะนำให้ลูกค้ารื้อสายโดยถอดคลิปล็อกด้านข้าง ➡️ เปลี่ยนสายงอให้กลายเป็นสายตรงแบบ DIY ➡️ ลูกค้าเลือกไม่ทำตาม และซื้อสายจาก Cablemod แทน ➡️ Igor’s Lab ยืนยันว่าคำแนะนำนี้ไม่ช่วยแก้ปัญหา ✅ ความเสี่ยงจากการแก้ไขสายไฟ ➡️ การดัดสายอาจทำให้ขั้วภายในเคลื่อน ➡️ เพิ่มความต้านทานไฟฟ้า → ความร้อนสะสม → เสี่ยงไฟไหม้ ➡️ สาย 12V-2x6 มีประวัติเสียหายจากการใช้งานผิดวิธี ➡️ การใช้สายที่ไม่ตรงมาตรฐานอาจทำให้การ์ดจอเสียหาย https://www.tomshardware.com/pc-components/gpus/cooler-master-tells-customer-to-dismantle-12v2x6-connector-to-fit-asus-rtx-5070-ti-customer-service-offers-dubious-advice-that-might-not-even-fix-issue
    0 ความคิดเห็น 0 การแบ่งปัน 152 มุมมอง 0 รีวิว
  • “Nvidia H100 เตรียมขึ้นสู่อวกาศ! Crusoe จับมือ Starcloud สร้างศูนย์ข้อมูล AI พลังแสงอาทิตย์นอกโลก”

    Crusoe บริษัทผู้ให้บริการคลาวด์ AI และ Starcloud สตาร์ทอัพจาก Redmond กำลังจะสร้างปรากฏการณ์ใหม่ในวงการเทคโนโลยี ด้วยการส่ง Nvidia H100 GPU ขึ้นสู่วงโคจรโลก เพื่อสร้าง “ศูนย์ข้อมูล AI พลังแสงอาทิตย์ในอวกาศ” เป็นครั้งแรกของโลก

    แนวคิดนี้คือการใช้พลังงานแสงอาทิตย์ที่ไม่มีสิ่งกีดขวางในอวกาศ (ไม่มีเมฆ ไม่มีเวลากลางคืน) เพื่อจ่ายไฟให้กับระบบประมวลผล AI ที่ใช้พลังงานสูงอย่าง H100 โดยไม่ต้องพึ่งพาโครงข่ายไฟฟ้าบนโลก ซึ่งมีข้อจำกัดด้านต้นทุนและสิ่งแวดล้อม

    Starcloud จะเป็นผู้สร้างดาวเทียมที่ติดตั้งศูนย์ข้อมูลขนาดเล็ก พร้อมแผงโซลาร์เซลล์ขนาดใหญ่ และระบบระบายความร้อนที่ใช้ “สูญญากาศของอวกาศ” เป็น heat sink แบบไร้ขีดจำกัด ส่วน Crusoe จะเป็นผู้ให้บริการคลาวด์ AI ที่รันบนระบบเหล่านี้

    ดาวเทียมดวงแรกของ Starcloud จะถูกปล่อยขึ้นในเดือนพฤศจิกายน 2025 และ Crusoe จะเริ่มให้บริการคลาวด์จากอวกาศในช่วงต้นปี 2027 โดยมีแผนขยายกำลังประมวลผลเป็นระดับกิกะวัตต์ในอนาคต

    ความร่วมมือระหว่าง Crusoe และ Starcloud
    ส่ง Nvidia H100 GPU ขึ้นสู่อวกาศเพื่อใช้ในศูนย์ข้อมูล AI
    ใช้พลังงานแสงอาทิตย์จากอวกาศที่ไม่มีสิ่งกีดขวาง
    ลดต้นทุนพลังงานได้ถึง 10 เท่าเมื่อเทียบกับบนโลก
    ใช้สูญญากาศในอวกาศเป็น heat sink สำหรับระบายความร้อน
    ไม่ใช้พื้นที่บนโลกและไม่รบกวนโครงข่ายไฟฟ้า

    แผนการดำเนินงาน
    ดาวเทียมดวงแรกจะปล่อยในพฤศจิกายน 2025
    Crusoe Cloud จะเริ่มให้บริการจากอวกาศต้นปี 2027
    เป้าหมายคือสร้างศูนย์ข้อมูลระดับกิกะวัตต์ในอวกาศ
    Starcloud เป็นบริษัทในโครงการ Nvidia Inception
    Crusoe มีประสบการณ์วางระบบใกล้แหล่งพลังงาน เช่น แก๊สเหลือทิ้ง

    วิสัยทัศน์และผลกระทบ
    เปิดทางให้การประมวลผล AI ขยายสู่พื้นที่นอกโลก
    ลดภาระต่อสิ่งแวดล้อมและโครงสร้างพื้นฐานบนโลก
    อาจเป็นต้นแบบของ “AI factory” ในอวกาศ
    สนับสนุนการวิจัยและนวัตกรรมที่ต้องการพลังประมวลผลสูง

    https://www.tomshardware.com/tech-industry/first-nvidia-h100-gpus-will-reach-orbit-next-month-crusoe-and-starcloud-pioneer-space-based-solar-powered-ai-compute-cloud-data-centers
    🛰️ “Nvidia H100 เตรียมขึ้นสู่อวกาศ! Crusoe จับมือ Starcloud สร้างศูนย์ข้อมูล AI พลังแสงอาทิตย์นอกโลก” Crusoe บริษัทผู้ให้บริการคลาวด์ AI และ Starcloud สตาร์ทอัพจาก Redmond กำลังจะสร้างปรากฏการณ์ใหม่ในวงการเทคโนโลยี ด้วยการส่ง Nvidia H100 GPU ขึ้นสู่วงโคจรโลก เพื่อสร้าง “ศูนย์ข้อมูล AI พลังแสงอาทิตย์ในอวกาศ” เป็นครั้งแรกของโลก แนวคิดนี้คือการใช้พลังงานแสงอาทิตย์ที่ไม่มีสิ่งกีดขวางในอวกาศ (ไม่มีเมฆ ไม่มีเวลากลางคืน) เพื่อจ่ายไฟให้กับระบบประมวลผล AI ที่ใช้พลังงานสูงอย่าง H100 โดยไม่ต้องพึ่งพาโครงข่ายไฟฟ้าบนโลก ซึ่งมีข้อจำกัดด้านต้นทุนและสิ่งแวดล้อม Starcloud จะเป็นผู้สร้างดาวเทียมที่ติดตั้งศูนย์ข้อมูลขนาดเล็ก พร้อมแผงโซลาร์เซลล์ขนาดใหญ่ และระบบระบายความร้อนที่ใช้ “สูญญากาศของอวกาศ” เป็น heat sink แบบไร้ขีดจำกัด ส่วน Crusoe จะเป็นผู้ให้บริการคลาวด์ AI ที่รันบนระบบเหล่านี้ ดาวเทียมดวงแรกของ Starcloud จะถูกปล่อยขึ้นในเดือนพฤศจิกายน 2025 และ Crusoe จะเริ่มให้บริการคลาวด์จากอวกาศในช่วงต้นปี 2027 โดยมีแผนขยายกำลังประมวลผลเป็นระดับกิกะวัตต์ในอนาคต ✅ ความร่วมมือระหว่าง Crusoe และ Starcloud ➡️ ส่ง Nvidia H100 GPU ขึ้นสู่อวกาศเพื่อใช้ในศูนย์ข้อมูล AI ➡️ ใช้พลังงานแสงอาทิตย์จากอวกาศที่ไม่มีสิ่งกีดขวาง ➡️ ลดต้นทุนพลังงานได้ถึง 10 เท่าเมื่อเทียบกับบนโลก ➡️ ใช้สูญญากาศในอวกาศเป็น heat sink สำหรับระบายความร้อน ➡️ ไม่ใช้พื้นที่บนโลกและไม่รบกวนโครงข่ายไฟฟ้า ✅ แผนการดำเนินงาน ➡️ ดาวเทียมดวงแรกจะปล่อยในพฤศจิกายน 2025 ➡️ Crusoe Cloud จะเริ่มให้บริการจากอวกาศต้นปี 2027 ➡️ เป้าหมายคือสร้างศูนย์ข้อมูลระดับกิกะวัตต์ในอวกาศ ➡️ Starcloud เป็นบริษัทในโครงการ Nvidia Inception ➡️ Crusoe มีประสบการณ์วางระบบใกล้แหล่งพลังงาน เช่น แก๊สเหลือทิ้ง ✅ วิสัยทัศน์และผลกระทบ ➡️ เปิดทางให้การประมวลผล AI ขยายสู่พื้นที่นอกโลก ➡️ ลดภาระต่อสิ่งแวดล้อมและโครงสร้างพื้นฐานบนโลก ➡️ อาจเป็นต้นแบบของ “AI factory” ในอวกาศ ➡️ สนับสนุนการวิจัยและนวัตกรรมที่ต้องการพลังประมวลผลสูง https://www.tomshardware.com/tech-industry/first-nvidia-h100-gpus-will-reach-orbit-next-month-crusoe-and-starcloud-pioneer-space-based-solar-powered-ai-compute-cloud-data-centers
    WWW.TOMSHARDWARE.COM
    Nvidia's H100 GPUs are going to space — Crusoe and Starcloud pioneer space-based solar-powered AI compute cloud data centers
    Space age partners claim the H100 delivers ‘100x more powerful GPU (AI) compute than has been in space before.’
    0 ความคิดเห็น 0 การแบ่งปัน 147 มุมมอง 0 รีวิว
  • “จีนเปิดฉากสอบสวน ‘แอนะล็อกชิป’ จากสหรัฐ – ขอข้อมูลลูกค้า กำไร และต้นทุนแบบละเอียด!”

    จีนกำลังดำเนินการสอบสวนการทุ่มตลาด (anti-dumping) ต่อชิปแอนะล็อกที่ผลิตในสหรัฐฯ โดยเฉพาะจากบริษัทอย่าง Texas Instruments และ Analog Devices ซึ่งเป็นผู้ผลิตรายใหญ่ในตลาดนี้ โดยกระทรวงพาณิชย์ของจีนได้ส่งแบบสอบถามไปยังบริษัทสหรัฐฯ เพื่อขอข้อมูลละเอียดเกี่ยวกับยอดขาย ต้นทุน กำไร และชื่อของลูกค้าในจีน

    แบบสอบถามนี้ครอบคลุมข้อมูลเชิงลึก เช่น ปริมาณการขาย ค่าขนส่ง ค่าคลังสินค้า และต้นทุนวัตถุดิบ โดยบริษัทมีเวลา 37 วันในการตอบกลับ ซึ่งถือเป็นการเคลื่อนไหวที่เกิดขึ้นในช่วงที่จีนและสหรัฐฯ กำลังเจรจาการค้าระดับสูง

    แม้จะไม่มีการระบุชื่อบริษัทอย่างเป็นทางการ แต่ลักษณะของชิปที่ถูกสอบสวน—เช่น commodity interface IC และ gate driver IC ที่ใช้เทคโนโลยี 40nm ขึ้นไป—ตรงกับผลิตภัณฑ์ของบริษัทสหรัฐฯ หลายราย

    การสอบสวนนี้เกิดขึ้นหลังจากจีนถูกสหรัฐฯ จำกัดการเข้าถึงชิป AI ระดับสูง และใช้การอนุญาตฮาร์ดแวร์ของ NVIDIA เป็นเครื่องมือในการเจรจา ทำให้จีนตอบโต้ด้วยการเปิดการสอบสวนด้านการทุ่มตลาดและการเลือกปฏิบัติ

    รายละเอียดการสอบสวนของจีน
    กระทรวงพาณิชย์จีนส่งแบบสอบถามไปยังบริษัทสหรัฐฯ
    ขอข้อมูลยอดขาย กำไร ต้นทุน และชื่อลูกค้าในจีน
    ครอบคลุมข้อมูลเช่นค่าขนส่ง ค่าคลังสินค้า และวัตถุดิบ
    บริษัทมีเวลา 37 วันในการตอบกลับ
    สอบสวนชิปแอนะล็อก เช่น interface IC และ gate driver IC

    บริบททางการค้าและการตอบโต้
    เกิดขึ้นในช่วงเจรจาการค้าระหว่างจีน-สหรัฐฯ
    สหรัฐฯ จำกัดการเข้าถึงชิป AI ระดับสูง
    จีนตอบโต้ด้วยการสอบสวนการทุ่มตลาดและการเลือกปฏิบัติ
    เป็นสัญญาณว่าจีนสามารถใช้มาตรการตอบโต้ทางการค้าได้
    การสอบสวนอาจนำไปสู่การจำกัดการนำเข้าชิปจากสหรัฐฯ

    https://www.tomshardware.com/tech-industry/china-wants-us-semiconductor-companies-to-submit-sensitive-data-as-part-of-probe-anti-dumping-investigation-requests-sales-and-profit-data
    🇨🇳 “จีนเปิดฉากสอบสวน ‘แอนะล็อกชิป’ จากสหรัฐ – ขอข้อมูลลูกค้า กำไร และต้นทุนแบบละเอียด!” จีนกำลังดำเนินการสอบสวนการทุ่มตลาด (anti-dumping) ต่อชิปแอนะล็อกที่ผลิตในสหรัฐฯ โดยเฉพาะจากบริษัทอย่าง Texas Instruments และ Analog Devices ซึ่งเป็นผู้ผลิตรายใหญ่ในตลาดนี้ โดยกระทรวงพาณิชย์ของจีนได้ส่งแบบสอบถามไปยังบริษัทสหรัฐฯ เพื่อขอข้อมูลละเอียดเกี่ยวกับยอดขาย ต้นทุน กำไร และชื่อของลูกค้าในจีน แบบสอบถามนี้ครอบคลุมข้อมูลเชิงลึก เช่น ปริมาณการขาย ค่าขนส่ง ค่าคลังสินค้า และต้นทุนวัตถุดิบ โดยบริษัทมีเวลา 37 วันในการตอบกลับ ซึ่งถือเป็นการเคลื่อนไหวที่เกิดขึ้นในช่วงที่จีนและสหรัฐฯ กำลังเจรจาการค้าระดับสูง แม้จะไม่มีการระบุชื่อบริษัทอย่างเป็นทางการ แต่ลักษณะของชิปที่ถูกสอบสวน—เช่น commodity interface IC และ gate driver IC ที่ใช้เทคโนโลยี 40nm ขึ้นไป—ตรงกับผลิตภัณฑ์ของบริษัทสหรัฐฯ หลายราย การสอบสวนนี้เกิดขึ้นหลังจากจีนถูกสหรัฐฯ จำกัดการเข้าถึงชิป AI ระดับสูง และใช้การอนุญาตฮาร์ดแวร์ของ NVIDIA เป็นเครื่องมือในการเจรจา ทำให้จีนตอบโต้ด้วยการเปิดการสอบสวนด้านการทุ่มตลาดและการเลือกปฏิบัติ ✅ รายละเอียดการสอบสวนของจีน ➡️ กระทรวงพาณิชย์จีนส่งแบบสอบถามไปยังบริษัทสหรัฐฯ ➡️ ขอข้อมูลยอดขาย กำไร ต้นทุน และชื่อลูกค้าในจีน ➡️ ครอบคลุมข้อมูลเช่นค่าขนส่ง ค่าคลังสินค้า และวัตถุดิบ ➡️ บริษัทมีเวลา 37 วันในการตอบกลับ ➡️ สอบสวนชิปแอนะล็อก เช่น interface IC และ gate driver IC ✅ บริบททางการค้าและการตอบโต้ ➡️ เกิดขึ้นในช่วงเจรจาการค้าระหว่างจีน-สหรัฐฯ ➡️ สหรัฐฯ จำกัดการเข้าถึงชิป AI ระดับสูง ➡️ จีนตอบโต้ด้วยการสอบสวนการทุ่มตลาดและการเลือกปฏิบัติ ➡️ เป็นสัญญาณว่าจีนสามารถใช้มาตรการตอบโต้ทางการค้าได้ ➡️ การสอบสวนอาจนำไปสู่การจำกัดการนำเข้าชิปจากสหรัฐฯ https://www.tomshardware.com/tech-industry/china-wants-us-semiconductor-companies-to-submit-sensitive-data-as-part-of-probe-anti-dumping-investigation-requests-sales-and-profit-data
    WWW.TOMSHARDWARE.COM
    China wants US semiconductor companies to submit sensitive data as part of probe — 'anti-dumping' investigation requests sales and profit data
    No specific businesses have been named, but the probe seems designed to target Texas Instruments and Analog Devices.
    0 ความคิดเห็น 0 การแบ่งปัน 118 มุมมอง 0 รีวิว
  • “Tiny Corp ปลดล็อก Nvidia GPU บน MacBook ARM ผ่าน USB4 – เปิดทางใหม่ให้สาย AI บน macOS!”

    ใครที่ใช้ MacBook รุ่นใหม่ที่ใช้ชิป M-series อาจเคยรู้สึกเสียดายที่ไม่สามารถใช้การ์ดจอแยกจาก Nvidia ได้ เพราะ macOS บน ARM ไม่มีไดรเวอร์รองรับแบบเป็นทางการ แต่ล่าสุด Tiny Corp สตาร์ทอัพสาย AI ได้สร้างความฮือฮา ด้วยการพัฒนาไดรเวอร์ที่ทำให้ MacBook ARM สามารถใช้งาน Nvidia GPU ได้ผ่าน USB4 หรือ Thunderbolt 4 โดยใช้ eGPU docking station!

    ก่อนหน้านี้ Tiny Corp เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3 ได้สำเร็จมาแล้ว ซึ่งถือว่าเป็นความสำเร็จครั้งแรกในโลก และครั้งนี้พวกเขาได้ต่อยอดไปยัง Nvidia โดยรองรับการ์ด RTX รุ่น 30, 40 และ 50 series ส่วน RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเพิ่มเติม ส่วน GTX series ไม่รองรับ เพราะไม่มี GPU system processor

    การใช้งาน Nvidia GPU บน MacBook นี้ไม่ได้เพื่อการแสดงผลกราฟิก แต่เน้นสำหรับงาน AI โดยเฉพาะ เช่น การรันโมเดล LLM หรืองาน inference ที่ต้องใช้พลังประมวลผลสูง ซึ่งการ์ดจอของ Apple ยังไม่สามารถเทียบได้ในด้านนี้

    Tiny Corp ได้โชว์ตัวอย่างการใช้งานผ่านแพลตฟอร์ม X โดยใช้ MacBook Pro M3 Max เชื่อมต่อกับ RTX GPU ผ่าน dock รุ่น ADT-UT3G และรัน Tinygrad ได้อย่างลื่นไหล ถือเป็นก้าวสำคัญสำหรับนักพัฒนา AI ที่ใช้ macOS

    ความสำเร็จของ Tiny Corp
    พัฒนาไดรเวอร์ให้ MacBook ARM ใช้งาน Nvidia GPU ผ่าน USB4/Thunderbolt 4
    รองรับ RTX 30, 40, 50 series สำหรับงาน AI
    RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเอง
    GTX series ไม่รองรับ เพราะไม่มี GPU system processor
    ใช้ dock รุ่น ADT-UT3G เชื่อมต่อผ่าน USB4
    รัน Tinygrad บน MacBook Pro M3 Max ได้สำเร็จ
    ไม่รองรับการแสดงผลกราฟิก แต่เน้นงาน AI เช่น LLM และ inference

    ความเป็นมาของเทคโนโลยี
    ก่อนหน้านี้เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3
    USB4/Thunderbolt 4 รองรับ PCIe โดยตรง ทำให้เชื่อมต่อ eGPU ได้ง่ายขึ้น
    Apple ไม่เคยรองรับ Nvidia GPU บน macOS ARM อย่างเป็นทางการ
    นักพัฒนาต้องสร้างไดรเวอร์เองเพื่อใช้งาน eGPU บน MacBook

    ข้อควรระวังและคำเตือน
    ใช้งานได้เฉพาะสำหรับงาน AI ไม่รองรับการแสดงผลหน้าจอ
    ต้องใช้การ์ดที่มี GPU system processor เท่านั้น
    RTX 20 series ต้องปรับแต่งเพิ่มเติม ไม่ใช่ plug-and-play
    GTX series ไม่สามารถใช้งานได้เลย
    การติดตั้งไดรเวอร์ต้องใช้ความเข้าใจเชิงเทคนิคพอสมควร

    https://www.tomshardware.com/pc-components/gpus/tiny-corp-successfully-runs-an-nvidia-gpu-on-arm-macbook-through-usb4-using-an-external-gpu-docking-station
    🔌 “Tiny Corp ปลดล็อก Nvidia GPU บน MacBook ARM ผ่าน USB4 – เปิดทางใหม่ให้สาย AI บน macOS!” ใครที่ใช้ MacBook รุ่นใหม่ที่ใช้ชิป M-series อาจเคยรู้สึกเสียดายที่ไม่สามารถใช้การ์ดจอแยกจาก Nvidia ได้ เพราะ macOS บน ARM ไม่มีไดรเวอร์รองรับแบบเป็นทางการ แต่ล่าสุด Tiny Corp สตาร์ทอัพสาย AI ได้สร้างความฮือฮา ด้วยการพัฒนาไดรเวอร์ที่ทำให้ MacBook ARM สามารถใช้งาน Nvidia GPU ได้ผ่าน USB4 หรือ Thunderbolt 4 โดยใช้ eGPU docking station! ก่อนหน้านี้ Tiny Corp เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3 ได้สำเร็จมาแล้ว ซึ่งถือว่าเป็นความสำเร็จครั้งแรกในโลก และครั้งนี้พวกเขาได้ต่อยอดไปยัง Nvidia โดยรองรับการ์ด RTX รุ่น 30, 40 และ 50 series ส่วน RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเพิ่มเติม ส่วน GTX series ไม่รองรับ เพราะไม่มี GPU system processor การใช้งาน Nvidia GPU บน MacBook นี้ไม่ได้เพื่อการแสดงผลกราฟิก แต่เน้นสำหรับงาน AI โดยเฉพาะ เช่น การรันโมเดล LLM หรืองาน inference ที่ต้องใช้พลังประมวลผลสูง ซึ่งการ์ดจอของ Apple ยังไม่สามารถเทียบได้ในด้านนี้ Tiny Corp ได้โชว์ตัวอย่างการใช้งานผ่านแพลตฟอร์ม X โดยใช้ MacBook Pro M3 Max เชื่อมต่อกับ RTX GPU ผ่าน dock รุ่น ADT-UT3G และรัน Tinygrad ได้อย่างลื่นไหล ถือเป็นก้าวสำคัญสำหรับนักพัฒนา AI ที่ใช้ macOS ✅ ความสำเร็จของ Tiny Corp ➡️ พัฒนาไดรเวอร์ให้ MacBook ARM ใช้งาน Nvidia GPU ผ่าน USB4/Thunderbolt 4 ➡️ รองรับ RTX 30, 40, 50 series สำหรับงาน AI ➡️ RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเอง ➡️ GTX series ไม่รองรับ เพราะไม่มี GPU system processor ➡️ ใช้ dock รุ่น ADT-UT3G เชื่อมต่อผ่าน USB4 ➡️ รัน Tinygrad บน MacBook Pro M3 Max ได้สำเร็จ ➡️ ไม่รองรับการแสดงผลกราฟิก แต่เน้นงาน AI เช่น LLM และ inference ✅ ความเป็นมาของเทคโนโลยี ➡️ ก่อนหน้านี้เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3 ➡️ USB4/Thunderbolt 4 รองรับ PCIe โดยตรง ทำให้เชื่อมต่อ eGPU ได้ง่ายขึ้น ➡️ Apple ไม่เคยรองรับ Nvidia GPU บน macOS ARM อย่างเป็นทางการ ➡️ นักพัฒนาต้องสร้างไดรเวอร์เองเพื่อใช้งาน eGPU บน MacBook ‼️ ข้อควรระวังและคำเตือน ⛔ ใช้งานได้เฉพาะสำหรับงาน AI ไม่รองรับการแสดงผลหน้าจอ ⛔ ต้องใช้การ์ดที่มี GPU system processor เท่านั้น ⛔ RTX 20 series ต้องปรับแต่งเพิ่มเติม ไม่ใช่ plug-and-play ⛔ GTX series ไม่สามารถใช้งานได้เลย ⛔ การติดตั้งไดรเวอร์ต้องใช้ความเข้าใจเชิงเทคนิคพอสมควร https://www.tomshardware.com/pc-components/gpus/tiny-corp-successfully-runs-an-nvidia-gpu-on-arm-macbook-through-usb4-using-an-external-gpu-docking-station
    0 ความคิดเห็น 0 การแบ่งปัน 90 มุมมอง 0 รีวิว
  • “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก”

    ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน

    แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้

    นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี

    Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์

    แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น

    กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC
    พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน
    เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ
    จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI
    เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น
    ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์
    ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง
    ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย

    คู่แข่งและสถานการณ์ในตลาด
    Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง
    Amazon มี Trainium, Google มี TPU, Meta มี MTIA
    เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล
    ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน

    ความท้าทายและคำเตือน
    ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน
    หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด
    การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ
    ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ
    การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว

    https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    ⚙️ “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก” ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้ นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น ✅ กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC ➡️ พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน ➡️ เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ ➡️ จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI ➡️ เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น ➡️ ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ ➡️ ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง ➡️ ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย ✅ คู่แข่งและสถานการณ์ในตลาด ➡️ Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง ➡️ Amazon มี Trainium, Google มี TPU, Meta มี MTIA ➡️ เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล ➡️ ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน ‼️ ความท้าทายและคำเตือน ⛔ ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน ⛔ หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด ⛔ การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ ⛔ ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ ⛔ การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    WCCFTECH.COM
    NVIDIA Has Already Geared Up to Challenge Big Tech’s Custom AI Chip Ambitions Through AI Alliances & an Unrivaled Product Roadmap
    There's always a concern about how ASICs could pose a challenge to NVIDIA's but it seems like the firm have the prepared 'right weapons'.
    0 ความคิดเห็น 0 การแบ่งปัน 101 มุมมอง 0 รีวิว
  • “Google Cloud เปิดให้ใช้งาน G4 VM แล้ว — มาพร้อม RTX PRO 6000 Blackwell GPU สำหรับงาน AI และกราฟิกระดับสูง” — เมื่อการประมวลผลแบบมัลติโหมดและฟิสิกส์จำลองกลายเป็นเรื่องง่ายบนคลาวด์

    Google Cloud ประกาศเปิดให้ใช้งาน G4 VM อย่างเป็นทางการ ซึ่งใช้ GPU รุ่นใหม่ล่าสุดจาก NVIDIA คือ RTX PRO 6000 Blackwell Server Edition โดยออกแบบมาเพื่อรองรับงาน AI ที่หลากหลาย ตั้งแต่การ inference ของโมเดลมัลติโหมด ไปจนถึงการจำลองฟิสิกส์ในหุ่นยนต์และการออกแบบผลิตภัณฑ์

    G4 VM รองรับการใช้งานร่วมกับ NVIDIA Omniverse และ Isaac Sim ผ่าน VM image บน Google Cloud Marketplace ทำให้สามารถสร้าง digital twin และฝึกหุ่นยนต์ในสภาพแวดล้อมจำลองได้ทันที

    ใช้ GPU RTX PRO 6000 Blackwell
    มี Tensor Core รุ่นที่ 5 รองรับ FP4 สำหรับ inference ที่เร็วขึ้นและใช้หน่วยความจำน้อย
    มี RT Core รุ่นที่ 4 ให้ ray tracing แบบ real-time ที่เร็วกว่าเดิม 2 เท่า

    รองรับสูงสุด 8 GPU ต่อ VM
    รวมหน่วยความจำ GDDR7 ได้ถึง 768 GB
    เหมาะกับงาน simulation, content creation และ AI agent

    เชื่อมต่อกับบริการอื่นใน Google Cloud ได้โดยตรง
    เช่น Kubernetes Engine, Vertex AI, Dataproc (Spark/Hadoop)

    รองรับซอฟต์แวร์ยอดนิยมในสายวิศวกรรมและกราฟิก
    เช่น AutoCAD, Blender, SolidWorks

    ใช้ร่วมกับ NVIDIA Omniverse ได้
    สร้าง digital twin และฝึกหุ่นยนต์ด้วย Isaac Sim
    ใช้ Cosmos foundation model และ Blueprints สำหรับการจำลอง

    รองรับการ deploy agentic AI ด้วย NVIDIA Nemotron และ NIM
    มี microservices สำหรับ inference ที่ปลอดภัยและเร็ว

    เหมาะกับงาน HPC เช่น genomics และ drug discovery
    บน Blackwell GPU มี throughput สูงกว่าเดิมถึง 6.8 เท่าในงาน alignment

    https://www.techpowerup.com/342057/google-cloud-g4-vms-with-nvidia-rtx-pro-6000-blackwell-gpu-now-generally-available
    ☁️ “Google Cloud เปิดให้ใช้งาน G4 VM แล้ว — มาพร้อม RTX PRO 6000 Blackwell GPU สำหรับงาน AI และกราฟิกระดับสูง” — เมื่อการประมวลผลแบบมัลติโหมดและฟิสิกส์จำลองกลายเป็นเรื่องง่ายบนคลาวด์ Google Cloud ประกาศเปิดให้ใช้งาน G4 VM อย่างเป็นทางการ ซึ่งใช้ GPU รุ่นใหม่ล่าสุดจาก NVIDIA คือ RTX PRO 6000 Blackwell Server Edition โดยออกแบบมาเพื่อรองรับงาน AI ที่หลากหลาย ตั้งแต่การ inference ของโมเดลมัลติโหมด ไปจนถึงการจำลองฟิสิกส์ในหุ่นยนต์และการออกแบบผลิตภัณฑ์ G4 VM รองรับการใช้งานร่วมกับ NVIDIA Omniverse และ Isaac Sim ผ่าน VM image บน Google Cloud Marketplace ทำให้สามารถสร้าง digital twin และฝึกหุ่นยนต์ในสภาพแวดล้อมจำลองได้ทันที ✅ ใช้ GPU RTX PRO 6000 Blackwell ➡️ มี Tensor Core รุ่นที่ 5 รองรับ FP4 สำหรับ inference ที่เร็วขึ้นและใช้หน่วยความจำน้อย ➡️ มี RT Core รุ่นที่ 4 ให้ ray tracing แบบ real-time ที่เร็วกว่าเดิม 2 เท่า ✅ รองรับสูงสุด 8 GPU ต่อ VM ➡️ รวมหน่วยความจำ GDDR7 ได้ถึง 768 GB ➡️ เหมาะกับงาน simulation, content creation และ AI agent ✅ เชื่อมต่อกับบริการอื่นใน Google Cloud ได้โดยตรง ➡️ เช่น Kubernetes Engine, Vertex AI, Dataproc (Spark/Hadoop) ✅ รองรับซอฟต์แวร์ยอดนิยมในสายวิศวกรรมและกราฟิก ➡️ เช่น AutoCAD, Blender, SolidWorks ✅ ใช้ร่วมกับ NVIDIA Omniverse ได้ ➡️ สร้าง digital twin และฝึกหุ่นยนต์ด้วย Isaac Sim ➡️ ใช้ Cosmos foundation model และ Blueprints สำหรับการจำลอง ✅ รองรับการ deploy agentic AI ด้วย NVIDIA Nemotron และ NIM ➡️ มี microservices สำหรับ inference ที่ปลอดภัยและเร็ว ✅ เหมาะกับงาน HPC เช่น genomics และ drug discovery ➡️ บน Blackwell GPU มี throughput สูงกว่าเดิมถึง 6.8 เท่าในงาน alignment https://www.techpowerup.com/342057/google-cloud-g4-vms-with-nvidia-rtx-pro-6000-blackwell-gpu-now-generally-available
    WWW.TECHPOWERUP.COM
    Google Cloud G4 VMs With NVIDIA RTX PRO 6000 Blackwell GPU Now Generally Available
    NVIDIA and Google Cloud are expanding access to accelerated computing to transform the full spectrum of enterprise workloads, from visual computing to agentic and physical AI. Google Cloud today announced the general availability of G4 VMs, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPU...
    0 ความคิดเห็น 0 การแบ่งปัน 102 มุมมอง 0 รีวิว
  • “APU แบบ Compute-in-Memory จาก GSI ทำงานเร็วเท่ากับ GPU แต่ใช้พลังงานน้อยกว่า 98%” — เมื่อการประมวลผลแบบใหม่อาจเปลี่ยนเกม AI ทั้งในหุ่นยนต์, IoT และอวกาศ

    GSI Technology ร่วมกับทีมวิจัยจากมหาวิทยาลัย Cornell เผยผลการทดสอบ APU (Associative Processing Unit) รุ่น Gemini-I ซึ่งใช้สถาปัตยกรรม Compute-in-Memory (CIM) ในการประมวลผล AI โดยไม่ต้องแยกหน่วยความจำออกจากหน่วยคำนวณเหมือน CPU หรือ GPU แบบเดิม

    ผลการทดสอบ Retrieval-Augmented Generation (RAG) บนชุดข้อมูลขนาด 10–200 GB พบว่า Gemini-I มีประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU แต่ใช้พลังงานน้อยกว่าถึง 98% และเร็วกว่า CPU ทั่วไปถึง 80% ในงานค้นคืนข้อมูล

    เทคโนโลยีนี้เหมาะกับงานที่ต้องการประสิทธิภาพต่อวัตต์สูง เช่น:

    หุ่นยนต์และโดรนที่ใช้ Edge AI
    อุปกรณ์ IoT ที่มีข้อจำกัดด้านพลังงาน
    ระบบป้องกันประเทศและอวกาศที่ต้องการความเย็นต่ำและความเร็วสูง

    GSI ยังเผยว่า Gemini-II ซึ่งเป็นรุ่นถัดไปจะเร็วขึ้นอีก 10 เท่า และ Plato ซึ่งอยู่ในขั้นพัฒนา จะเน้นงาน embedded edge ที่ใช้พลังงานต่ำแต่ต้องการความสามารถสูง

    Gemini-I APU จาก GSI ใช้สถาปัตยกรรม Compute-in-Memory
    รวมหน่วยความจำและประมวลผลไว้ในชิปเดียว

    ประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU ในงาน RAG
    แต่ใช้พลังงานน้อยกว่าถึง 98%

    เร็วกว่า CPU ทั่วไปถึง 80% ในงาน retrieval
    เหมาะกับงาน AI ที่ต้องการความเร็วและประหยัดพลังงาน

    Gemini-II จะเร็วขึ้นอีก 10 เท่าและลด latency
    เหมาะกับงาน memory-intensive

    Plato จะเน้น embedded edge AI ที่ใช้พลังงานต่ำ
    เช่น หุ่นยนต์, IoT, อุปกรณ์พกพา

    งานวิจัยตีพิมพ์ใน ACM และนำเสนอที่งาน Micro '25
    เป็นการประเมินเชิงลึกครั้งแรกของอุปกรณ์ CIM เชิงพาณิชย์

    https://www.techpowerup.com/342054/compute-in-memory-apu-achieves-gpu-class-ai-performance-at-a-fraction-of-the-energy-cost
    ⚡ “APU แบบ Compute-in-Memory จาก GSI ทำงานเร็วเท่ากับ GPU แต่ใช้พลังงานน้อยกว่า 98%” — เมื่อการประมวลผลแบบใหม่อาจเปลี่ยนเกม AI ทั้งในหุ่นยนต์, IoT และอวกาศ GSI Technology ร่วมกับทีมวิจัยจากมหาวิทยาลัย Cornell เผยผลการทดสอบ APU (Associative Processing Unit) รุ่น Gemini-I ซึ่งใช้สถาปัตยกรรม Compute-in-Memory (CIM) ในการประมวลผล AI โดยไม่ต้องแยกหน่วยความจำออกจากหน่วยคำนวณเหมือน CPU หรือ GPU แบบเดิม ผลการทดสอบ Retrieval-Augmented Generation (RAG) บนชุดข้อมูลขนาด 10–200 GB พบว่า Gemini-I มีประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU แต่ใช้พลังงานน้อยกว่าถึง 98% และเร็วกว่า CPU ทั่วไปถึง 80% ในงานค้นคืนข้อมูล เทคโนโลยีนี้เหมาะกับงานที่ต้องการประสิทธิภาพต่อวัตต์สูง เช่น: 🔋 หุ่นยนต์และโดรนที่ใช้ Edge AI 🔋 อุปกรณ์ IoT ที่มีข้อจำกัดด้านพลังงาน 🔋 ระบบป้องกันประเทศและอวกาศที่ต้องการความเย็นต่ำและความเร็วสูง GSI ยังเผยว่า Gemini-II ซึ่งเป็นรุ่นถัดไปจะเร็วขึ้นอีก 10 เท่า และ Plato ซึ่งอยู่ในขั้นพัฒนา จะเน้นงาน embedded edge ที่ใช้พลังงานต่ำแต่ต้องการความสามารถสูง ✅ Gemini-I APU จาก GSI ใช้สถาปัตยกรรม Compute-in-Memory ➡️ รวมหน่วยความจำและประมวลผลไว้ในชิปเดียว ✅ ประสิทธิภาพเทียบเท่า NVIDIA A6000 GPU ในงาน RAG ➡️ แต่ใช้พลังงานน้อยกว่าถึง 98% ✅ เร็วกว่า CPU ทั่วไปถึง 80% ในงาน retrieval ➡️ เหมาะกับงาน AI ที่ต้องการความเร็วและประหยัดพลังงาน ✅ Gemini-II จะเร็วขึ้นอีก 10 เท่าและลด latency ➡️ เหมาะกับงาน memory-intensive ✅ Plato จะเน้น embedded edge AI ที่ใช้พลังงานต่ำ ➡️ เช่น หุ่นยนต์, IoT, อุปกรณ์พกพา ✅ งานวิจัยตีพิมพ์ใน ACM และนำเสนอที่งาน Micro '25 ➡️ เป็นการประเมินเชิงลึกครั้งแรกของอุปกรณ์ CIM เชิงพาณิชย์ https://www.techpowerup.com/342054/compute-in-memory-apu-achieves-gpu-class-ai-performance-at-a-fraction-of-the-energy-cost
    WWW.TECHPOWERUP.COM
    Compute-In-Memory APU Achieves GPU-Class AI Performance at a Fraction of the Energy Cost
    GSI Technology, Inc. (Nasdaq: GSIT), the inventor of the Associative Processing Unit (APU), a paradigm shift in artificial intelligence (AI) and high-performance compute (HPC) processing providing true compute-in-memory technology, announced the publication of a paper led by researchers at Cornell U...
    0 ความคิดเห็น 0 การแบ่งปัน 89 มุมมอง 0 รีวิว
  • “ผู้ใช้ Reddit เจอ GTX 2080 Ti รุ่นต้นแบบใน PC มือสองราคา $500 — มี 12GB VRAM และแบนด์วิดธ์สูงกว่ารุ่นขายจริง” — เมื่อการซื้อของมือสองกลายเป็นการค้นพบฮาร์ดแวร์ลับของ Nvidia

    เล่าเรื่องให้ฟัง: ผู้ใช้ Reddit ชื่อ u/RunRepulsive9867 โพสต์ภาพและข้อมูลของ GPU ที่เขาได้มาจากการซื้อ PC มือสองผ่าน Facebook Marketplace ในราคาเพียง $500 ซึ่งภายในเครื่องมีการ์ดจอรุ่นต้นแบบของ Nvidia ที่ดูคล้ายกับ RTX 2080 Ti Founders Edition แต่มีรายละเอียดที่แตกต่างอย่างชัดเจน

    แม้ตัวการ์ดจะติดป้ายว่า “GeForce GTX” แทน “RTX” แต่เมื่อตรวจสอบด้วย GPU-Z พบว่าเป็น RTX 2080 Ti จริง ๆ — พร้อมสเปกที่เหนือกว่ารุ่นขายปลีก:

    VRAM ขนาด 12GB GDDR6 (รุ่นขายจริงมี 11GB)
    Memory bus กว้างขึ้นเป็น 384-bit
    Bandwidth สูงถึง 672 GB/s
    จำนวน ROPs และ TMUs มากขึ้น
    ไม่มีการระบุว่ามี RT cores สำหรับ ray tracing

    การ์ดนี้น่าจะเป็น “engineering sample” ที่ Nvidia ใช้ทดสอบภายในก่อนเปิดตัว RTX 2080 Ti อย่างเป็นทางการ โดยอาจเป็นต้นแบบของ Titan หรือรุ่น workstation ที่ไม่เคยวางขาย

    ก่อนหน้านี้มีผู้ใช้ Reddit อีกคนชื่อ u/Substantial-Mark-959 เคยได้การ์ดรุ่นเดียวกันแต่เสีย และสามารถซ่อมได้ด้วย BIOS ของ Founders Edition และไดรเวอร์ที่ปรับแต่ง

    การ์ดต้นแบบแบบนี้มักถูกเก็บเป็นความลับภายใต้ NDA และไม่ควรหลุดออกสู่ตลาดทั่วไป ทำให้การค้นพบครั้งนี้ถือเป็นเรื่องหายากและน่าสนใจสำหรับนักสะสมและผู้หลงใหลในฮาร์ดแวร์

    ผู้ใช้ Reddit พบ GPU รุ่นต้นแบบใน PC มือสองราคา $500
    เป็นการ์ดที่คล้าย RTX 2080 Ti แต่ติดป้าย “GTX”

    ตรวจสอบด้วย GPU-Z พบว่าเป็น RTX 2080 Ti จริง
    พร้อม VRAM 12GB และ memory bus 384-bit

    Bandwidth สูงถึง 672 GB/s และมี ROPs/TMUs มากกว่ารุ่นขายจริง
    แต่ไม่มีข้อมูลเรื่อง RT cores

    การ์ดน่าจะเป็น engineering sample สำหรับการทดสอบภายใน
    อาจเป็นต้นแบบของ Titan หรือ workstation

    เคยมีผู้ใช้ Reddit อีกคนได้การ์ดรุ่นเดียวกันแต่เสีย
    ซ่อมได้ด้วย BIOS และไดรเวอร์ที่ปรับแต่ง


    https://www.tomshardware.com/pc-components/gpus/lucky-facebook-marketplace-shopper-finds-souped-up-prototype-gtx-2080-ti-inside-a-usd500-pc-mythical-nvidia-project-features-12gb-of-vram-and-higher-memory-bandwidth
    🎮 “ผู้ใช้ Reddit เจอ GTX 2080 Ti รุ่นต้นแบบใน PC มือสองราคา $500 — มี 12GB VRAM และแบนด์วิดธ์สูงกว่ารุ่นขายจริง” — เมื่อการซื้อของมือสองกลายเป็นการค้นพบฮาร์ดแวร์ลับของ Nvidia เล่าเรื่องให้ฟัง: ผู้ใช้ Reddit ชื่อ u/RunRepulsive9867 โพสต์ภาพและข้อมูลของ GPU ที่เขาได้มาจากการซื้อ PC มือสองผ่าน Facebook Marketplace ในราคาเพียง $500 ซึ่งภายในเครื่องมีการ์ดจอรุ่นต้นแบบของ Nvidia ที่ดูคล้ายกับ RTX 2080 Ti Founders Edition แต่มีรายละเอียดที่แตกต่างอย่างชัดเจน แม้ตัวการ์ดจะติดป้ายว่า “GeForce GTX” แทน “RTX” แต่เมื่อตรวจสอบด้วย GPU-Z พบว่าเป็น RTX 2080 Ti จริง ๆ — พร้อมสเปกที่เหนือกว่ารุ่นขายปลีก: 🎗️ VRAM ขนาด 12GB GDDR6 (รุ่นขายจริงมี 11GB) 🎗️ Memory bus กว้างขึ้นเป็น 384-bit 🎗️ Bandwidth สูงถึง 672 GB/s 🎗️ จำนวน ROPs และ TMUs มากขึ้น 🎗️ ไม่มีการระบุว่ามี RT cores สำหรับ ray tracing การ์ดนี้น่าจะเป็น “engineering sample” ที่ Nvidia ใช้ทดสอบภายในก่อนเปิดตัว RTX 2080 Ti อย่างเป็นทางการ โดยอาจเป็นต้นแบบของ Titan หรือรุ่น workstation ที่ไม่เคยวางขาย ก่อนหน้านี้มีผู้ใช้ Reddit อีกคนชื่อ u/Substantial-Mark-959 เคยได้การ์ดรุ่นเดียวกันแต่เสีย และสามารถซ่อมได้ด้วย BIOS ของ Founders Edition และไดรเวอร์ที่ปรับแต่ง การ์ดต้นแบบแบบนี้มักถูกเก็บเป็นความลับภายใต้ NDA และไม่ควรหลุดออกสู่ตลาดทั่วไป ทำให้การค้นพบครั้งนี้ถือเป็นเรื่องหายากและน่าสนใจสำหรับนักสะสมและผู้หลงใหลในฮาร์ดแวร์ ✅ ผู้ใช้ Reddit พบ GPU รุ่นต้นแบบใน PC มือสองราคา $500 ➡️ เป็นการ์ดที่คล้าย RTX 2080 Ti แต่ติดป้าย “GTX” ✅ ตรวจสอบด้วย GPU-Z พบว่าเป็น RTX 2080 Ti จริง ➡️ พร้อม VRAM 12GB และ memory bus 384-bit ✅ Bandwidth สูงถึง 672 GB/s และมี ROPs/TMUs มากกว่ารุ่นขายจริง ➡️ แต่ไม่มีข้อมูลเรื่อง RT cores ✅ การ์ดน่าจะเป็น engineering sample สำหรับการทดสอบภายใน ➡️ อาจเป็นต้นแบบของ Titan หรือ workstation ✅ เคยมีผู้ใช้ Reddit อีกคนได้การ์ดรุ่นเดียวกันแต่เสีย ➡️ ซ่อมได้ด้วย BIOS และไดรเวอร์ที่ปรับแต่ง https://www.tomshardware.com/pc-components/gpus/lucky-facebook-marketplace-shopper-finds-souped-up-prototype-gtx-2080-ti-inside-a-usd500-pc-mythical-nvidia-project-features-12gb-of-vram-and-higher-memory-bandwidth
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 รีวิว
  • “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน

    Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น

    ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้

    ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe

    การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ:

    การบรรจุหลายโมเดลลงใน GPU เดียว
    การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output

    แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง

    Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon
    จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM

    Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด
    ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน

    ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า
    เมื่อเทียบกับระบบ serverless แบบเดิม

    ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด
    เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน

    ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์
    ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม

    ทดสอบในระบบ Model Studio Marketplace ของ Alibaba
    ใช้งานจริงหลายเดือน

    https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    ⚙️ “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้ ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ: 🎗️ การบรรจุหลายโมเดลลงใน GPU เดียว 🎗️ การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง ✅ Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon ➡️ จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM ✅ Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด ➡️ ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน ✅ ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า ➡️ เมื่อเทียบกับระบบ serverless แบบเดิม ✅ ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด ➡️ เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน ✅ ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์ ➡️ ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม ✅ ทดสอบในระบบ Model Studio Marketplace ของ Alibaba ➡️ ใช้งานจริงหลายเดือน https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    WWW.TOMSHARDWARE.COM
    Alibaba Cloud says it cut Nvidia AI GPU use by 82% with new pooling system— up to 9x increase in output lets 213 GPUs perform like 1,192
    A paper presented at SOSP 2025 details how token-level scheduling helped one GPU serve multiple LLMs, reducing demand from 1,192 to 213 H20s.
    0 ความคิดเห็น 0 การแบ่งปัน 103 มุมมอง 0 รีวิว
  • “ISS แนะนักลงทุนปฏิเสธดีล CoreWeave ซื้อ Core Scientific มูลค่า 9 พันล้านเหรียญ” — เมื่อบริษัท AI และโครงสร้างพื้นฐานคอมพิวเตอร์ต้องเผชิญแรงต้านจากผู้ถือหุ้น

    Institutional Shareholder Services (ISS) ซึ่งเป็นบริษัทที่ให้คำแนะนำด้านการลงคะแนนเสียงสำหรับนักลงทุน ได้ออกคำแนะนำให้ผู้ถือหุ้นของ Core Scientific ปฏิเสธข้อเสนอการเข้าซื้อกิจการโดย CoreWeave ซึ่งเป็นบริษัทให้บริการคลาวด์ด้าน AI ที่ได้รับการสนับสนุนจาก Nvidia

    ดีลนี้เป็นการซื้อแบบ all-stock ที่มีมูลค่าโดยประมาณ 9 พันล้านดอลลาร์ โดยเสนอราคาหุ้นที่ 20.40 ดอลลาร์ต่อหุ้นในช่วงประกาศเมื่อเดือนกรกฎาคม 2025 แต่ราคาหุ้นของ CoreWeave ลดลงหลังจากนั้น ทำให้มูลค่าดีลลดลงตามไปด้วย

    ISS ให้เหตุผลว่า Core Scientific มีศักยภาพในการดำเนินธุรกิจอย่างอิสระ และการเข้าซื้ออาจไม่คุ้มค่าในระยะยาว โดยเฉพาะเมื่อพิจารณาโครงสร้างดีลที่ใช้ “fixed exchange ratio” ซึ่งทำให้ผู้ถือหุ้นของ Core Scientific เสี่ยงต่อความผันผวนของราคาหุ้น CoreWeave

    ก่อนหน้านี้ Two Seas Capital ซึ่งเป็นนักลงทุนรายใหญ่ก็ออกมาคัดค้านดีลนี้ โดยชี้ว่ากระบวนการขายไม่โปร่งใส และโครงสร้างดีลไม่เป็นธรรม

    หลังจากข่าวคำแนะนำของ ISS หุ้นของ Core Scientific พุ่งขึ้นกว่า 5% ในการซื้อขายหลังตลาดปิด สะท้อนว่าตลาดอาจเห็นด้วยกับการให้บริษัทดำเนินธุรกิจต่อไปโดยไม่ควบรวม

    การลงคะแนนเสียงของผู้ถือหุ้นจะมีขึ้นในวันที่ 30 ตุลาคม 2025 ซึ่งจะเป็นตัวตัดสินอนาคตของดีลนี้

    CoreWeave เสนอซื้อ Core Scientific ด้วยดีลมูลค่า 9 พันล้านดอลลาร์
    เป็นการซื้อแบบ all-stock โดยเสนอราคาหุ้นที่ $20.40

    ISS แนะนำให้ผู้ถือหุ้นปฏิเสธดีลนี้
    เหตุผลคือ Core Scientific มีศักยภาพในการดำเนินธุรกิจอย่างอิสระ

    โครงสร้างดีลใช้ fixed exchange ratio
    ทำให้ผู้ถือหุ้น Core Scientific เสี่ยงต่อราคาหุ้น CoreWeave ที่ผันผวน

    Two Seas Capital คัดค้านดีลก่อนหน้านี้
    ชี้ว่ากระบวนการขายไม่โปร่งใสและโครงสร้างไม่เป็นธรรม

    หุ้น Core Scientific พุ่งขึ้นกว่า 5% หลังข่าวคำแนะนำของ ISS
    สะท้อนความเชื่อมั่นของตลาดต่อการดำเนินธุรกิจแบบอิสระ

    การลงคะแนนเสียงจะมีขึ้นในวันที่ 30 ตุลาคม 2025
    เป็นตัวตัดสินว่าดีลจะเดินหน้าหรือไม่

    https://www.thestar.com.my/tech/tech-news/2025/10/21/iss-recommends-investors-reject-coreweave-deal-for-core-scientific
    💼 “ISS แนะนักลงทุนปฏิเสธดีล CoreWeave ซื้อ Core Scientific มูลค่า 9 พันล้านเหรียญ” — เมื่อบริษัท AI และโครงสร้างพื้นฐานคอมพิวเตอร์ต้องเผชิญแรงต้านจากผู้ถือหุ้น Institutional Shareholder Services (ISS) ซึ่งเป็นบริษัทที่ให้คำแนะนำด้านการลงคะแนนเสียงสำหรับนักลงทุน ได้ออกคำแนะนำให้ผู้ถือหุ้นของ Core Scientific ปฏิเสธข้อเสนอการเข้าซื้อกิจการโดย CoreWeave ซึ่งเป็นบริษัทให้บริการคลาวด์ด้าน AI ที่ได้รับการสนับสนุนจาก Nvidia ดีลนี้เป็นการซื้อแบบ all-stock ที่มีมูลค่าโดยประมาณ 9 พันล้านดอลลาร์ โดยเสนอราคาหุ้นที่ 20.40 ดอลลาร์ต่อหุ้นในช่วงประกาศเมื่อเดือนกรกฎาคม 2025 แต่ราคาหุ้นของ CoreWeave ลดลงหลังจากนั้น ทำให้มูลค่าดีลลดลงตามไปด้วย ISS ให้เหตุผลว่า Core Scientific มีศักยภาพในการดำเนินธุรกิจอย่างอิสระ และการเข้าซื้ออาจไม่คุ้มค่าในระยะยาว โดยเฉพาะเมื่อพิจารณาโครงสร้างดีลที่ใช้ “fixed exchange ratio” ซึ่งทำให้ผู้ถือหุ้นของ Core Scientific เสี่ยงต่อความผันผวนของราคาหุ้น CoreWeave ก่อนหน้านี้ Two Seas Capital ซึ่งเป็นนักลงทุนรายใหญ่ก็ออกมาคัดค้านดีลนี้ โดยชี้ว่ากระบวนการขายไม่โปร่งใส และโครงสร้างดีลไม่เป็นธรรม หลังจากข่าวคำแนะนำของ ISS หุ้นของ Core Scientific พุ่งขึ้นกว่า 5% ในการซื้อขายหลังตลาดปิด สะท้อนว่าตลาดอาจเห็นด้วยกับการให้บริษัทดำเนินธุรกิจต่อไปโดยไม่ควบรวม การลงคะแนนเสียงของผู้ถือหุ้นจะมีขึ้นในวันที่ 30 ตุลาคม 2025 ซึ่งจะเป็นตัวตัดสินอนาคตของดีลนี้ ✅ CoreWeave เสนอซื้อ Core Scientific ด้วยดีลมูลค่า 9 พันล้านดอลลาร์ ➡️ เป็นการซื้อแบบ all-stock โดยเสนอราคาหุ้นที่ $20.40 ✅ ISS แนะนำให้ผู้ถือหุ้นปฏิเสธดีลนี้ ➡️ เหตุผลคือ Core Scientific มีศักยภาพในการดำเนินธุรกิจอย่างอิสระ ✅ โครงสร้างดีลใช้ fixed exchange ratio ➡️ ทำให้ผู้ถือหุ้น Core Scientific เสี่ยงต่อราคาหุ้น CoreWeave ที่ผันผวน ✅ Two Seas Capital คัดค้านดีลก่อนหน้านี้ ➡️ ชี้ว่ากระบวนการขายไม่โปร่งใสและโครงสร้างไม่เป็นธรรม ✅ หุ้น Core Scientific พุ่งขึ้นกว่า 5% หลังข่าวคำแนะนำของ ISS ➡️ สะท้อนความเชื่อมั่นของตลาดต่อการดำเนินธุรกิจแบบอิสระ ✅ การลงคะแนนเสียงจะมีขึ้นในวันที่ 30 ตุลาคม 2025 ➡️ เป็นตัวตัดสินว่าดีลจะเดินหน้าหรือไม่ https://www.thestar.com.my/tech/tech-news/2025/10/21/iss-recommends-investors-reject-coreweave-deal-for-core-scientific
    WWW.THESTAR.COM.MY
    ISS recommends investors reject CoreWeave deal for Core Scientific
    NEW YORK (Reuters) -Proxy advisory firm Institutional Shareholder Services on Monday recommended investors vote down plans for AI company CoreWeave to buy infrastructure company Core Scientific in what was billed as a $9 billion deal.
    0 ความคิดเห็น 0 การแบ่งปัน 124 มุมมอง 0 รีวิว
  • “ESUN: พันธมิตรเทคโนโลยีใหญ่เปิดตัว Ethernet มาตรฐานใหม่ ท้าชน InfiniBand สำหรับยุค AI”

    Meta, Nvidia, OpenAI และ AMD รวมพลังกับบริษัทเทคโนโลยีชั้นนำอีกหลายราย เปิดตัวโครงการ ESUN (Ethernet for Scale-Up Networking) ภายใต้การนำของ Open Compute Project (OCP) เพื่อพัฒนา Ethernet แบบเปิดสำหรับการเชื่อมต่อภายในคลัสเตอร์ AI ขนาดใหญ่ โดยมีเป้าหมายเพื่อแข่งขันกับ InfiniBand ซึ่งครองตลาดอยู่กว่า 80% ในระบบ GPU และ accelerator

    ESUN จะทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 เพื่อกำหนดมาตรฐานใหม่ที่ครอบคลุมพฤติกรรมของสวิตช์ โปรโตคอล header การจัดการ error และการส่งข้อมูลแบบ lossless พร้อมศึกษาผลกระทบต่อ load balancing และ memory ordering ในระบบที่ใช้ GPU เป็นหลัก

    จุดประสงค์ของ ESUN
    พัฒนา Ethernet แบบเปิดสำหรับคลัสเตอร์ AI ขนาดใหญ่
    ลดความซับซ้อนของระบบ interconnect ด้วยมาตรฐานที่คุ้นเคย
    ลดต้นทุนและเพิ่มความสามารถในการปรับขยายระบบ

    พันธมิตรในโครงการ ESUN
    Meta, Nvidia, OpenAI, AMD, Cisco, Microsoft, Oracle
    Arista, ARM, Broadcom, HPE, Marvell และอื่น ๆ
    ทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3

    เทคโนโลยีที่เกี่ยวข้อง
    Broadcom Tomahawk Ultra switch รองรับ 77 พันล้านแพ็กเก็ตต่อวินาที
    Nvidia Spectrum-X รวม Ethernet กับ acceleration hardware
    OCP เคยทดลอง Ethernet transport ผ่าน SUE-T (SUE-Transport)

    ข้อดีของ Ethernet สำหรับ AI
    คุ้นเคยกับวิศวกรทั่วไปมากกว่า InfiniBand
    มีความสามารถในการปรับขยายและ interoperability สูง
    ลดต้นทุนและความซับซ้อนในการจัดการระบบ

    คำเตือนและข้อจำกัด
    InfiniBand ยังเหนือกว่าในด้าน latency และ reliability สำหรับงาน AI หนัก
    ESUN ต้องพิสูจน์ตัวเองใน workload ที่ต้องการความแม่นยำสูง
    การเปลี่ยนจากระบบเดิมต้องใช้เวลาและการลงทุนมหาศาล

    https://www.techradar.com/pro/meta-joins-nvidia-openai-and-amd-to-launch-ethernet-for-scale-up-network-esun-competes-with-infiniband-but-will-work-with-ultra-ethernet-consortium
    🌐 “ESUN: พันธมิตรเทคโนโลยีใหญ่เปิดตัว Ethernet มาตรฐานใหม่ ท้าชน InfiniBand สำหรับยุค AI” Meta, Nvidia, OpenAI และ AMD รวมพลังกับบริษัทเทคโนโลยีชั้นนำอีกหลายราย เปิดตัวโครงการ ESUN (Ethernet for Scale-Up Networking) ภายใต้การนำของ Open Compute Project (OCP) เพื่อพัฒนา Ethernet แบบเปิดสำหรับการเชื่อมต่อภายในคลัสเตอร์ AI ขนาดใหญ่ โดยมีเป้าหมายเพื่อแข่งขันกับ InfiniBand ซึ่งครองตลาดอยู่กว่า 80% ในระบบ GPU และ accelerator ESUN จะทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 เพื่อกำหนดมาตรฐานใหม่ที่ครอบคลุมพฤติกรรมของสวิตช์ โปรโตคอล header การจัดการ error และการส่งข้อมูลแบบ lossless พร้อมศึกษาผลกระทบต่อ load balancing และ memory ordering ในระบบที่ใช้ GPU เป็นหลัก ✅ จุดประสงค์ของ ESUN ➡️ พัฒนา Ethernet แบบเปิดสำหรับคลัสเตอร์ AI ขนาดใหญ่ ➡️ ลดความซับซ้อนของระบบ interconnect ด้วยมาตรฐานที่คุ้นเคย ➡️ ลดต้นทุนและเพิ่มความสามารถในการปรับขยายระบบ ✅ พันธมิตรในโครงการ ESUN ➡️ Meta, Nvidia, OpenAI, AMD, Cisco, Microsoft, Oracle ➡️ Arista, ARM, Broadcom, HPE, Marvell และอื่น ๆ ➡️ ทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 ✅ เทคโนโลยีที่เกี่ยวข้อง ➡️ Broadcom Tomahawk Ultra switch รองรับ 77 พันล้านแพ็กเก็ตต่อวินาที ➡️ Nvidia Spectrum-X รวม Ethernet กับ acceleration hardware ➡️ OCP เคยทดลอง Ethernet transport ผ่าน SUE-T (SUE-Transport) ✅ ข้อดีของ Ethernet สำหรับ AI ➡️ คุ้นเคยกับวิศวกรทั่วไปมากกว่า InfiniBand ➡️ มีความสามารถในการปรับขยายและ interoperability สูง ➡️ ลดต้นทุนและความซับซ้อนในการจัดการระบบ ‼️ คำเตือนและข้อจำกัด ⛔ InfiniBand ยังเหนือกว่าในด้าน latency และ reliability สำหรับงาน AI หนัก ⛔ ESUN ต้องพิสูจน์ตัวเองใน workload ที่ต้องการความแม่นยำสูง ⛔ การเปลี่ยนจากระบบเดิมต้องใช้เวลาและการลงทุนมหาศาล https://www.techradar.com/pro/meta-joins-nvidia-openai-and-amd-to-launch-ethernet-for-scale-up-network-esun-competes-with-infiniband-but-will-work-with-ultra-ethernet-consortium
    WWW.TECHRADAR.COM
    Tech bigwigs want to rewrite the future of AI networking with open Ethernet
    Engineers hope Ethernet can simplify complex GPU interconnect systems
    0 ความคิดเห็น 0 การแบ่งปัน 154 มุมมอง 0 รีวิว
  • “Nvidia DGX Spark: เดสก์ท็อป AI ที่อาจเป็น ‘Apple Mac Moment’ ของ Nvidia”

    Nvidia เปิดตัว DGX Spark ซึ่งได้รับเสียงชื่นชมจากนักรีวิวว่าเป็น “เครื่องมือ AI ระดับวิจัยที่อยู่บนโต๊ะทำงาน” ด้วยขนาดเล็กแต่ทรงพลัง DGX Spark ใช้ชิป Grace Blackwell GB200 ที่รวม CPU และ GPU พร้อมหน่วยความจำ unified ขนาด 128GB ทำให้สามารถรันโมเดลขนาดใหญ่ได้โดยไม่ต้องพึ่งคลาวด์

    รีวิวจากหลายสำนักชี้ว่า DGX Spark มีประสิทธิภาพสูงในการรันโมเดล Llama 3.1 70B และ Gemma 3 27B โดยตรงจากหน่วยความจำภายใน พร้อมระบบระบายความร้อนที่เงียบและเสถียร แม้จะมีข้อจำกัดด้าน bandwidth จาก LPDDR5X แต่ก็ยังถือว่าเป็นเครื่องมือที่เหมาะสำหรับนักพัฒนาและนักวิจัยที่ต้องการทดลอง AI แบบ local

    สเปกและความสามารถของ DGX Spark
    ใช้ชิป Grace Blackwell GB200 รวม CPU + GPU
    หน่วยความจำ unified 128GB รองรับโมเดลขนาดใหญ่
    รัน Llama 3.1 70B และ Gemma 3 27B ได้โดยตรงจาก RAM
    มี batching efficiency และ throughput consistency สูง

    จุดเด่นด้านการใช้งาน
    ขนาดเล็ก วางบนโต๊ะทำงานได้
    เสียงเงียบและระบบระบายความร้อนมีประสิทธิภาพ
    ใช้พลังงานน้อยกว่าคอมพิวเตอร์ทั่วไปถึงครึ่งหนึ่ง
    รองรับการเชื่อมต่อผ่าน Nvidia Sync จากเครื่องอื่น

    ความเห็นจากนักรีวิว
    LMSYS: “เครื่องวิจัยที่สวยงามและทรงพลัง”
    ServeTheHome: “จะทำให้การรันโมเดลขนาดใหญ่เป็นเรื่องของทุกคน”
    HotHardware: “เหมาะเป็นเครื่องเสริมสำหรับนักพัฒนา ไม่ใช่แทนที่ workstation”
    The Register: “เหมาะกับงานทดลอง ไม่ใช่สำหรับ productivity หรือ gaming”

    คำเตือนและข้อจำกัด
    Bandwidth ของ LPDDR5X ยังเป็นคอขวดเมื่อเทียบกับ GPU แยก
    Driver และซอฟต์แวร์บางส่วนยังไม่สมบูรณ์
    ไม่เหมาะกับผู้ใช้ทั่วไปที่ต้องการเครื่องสำหรับงานทั่วไปหรือเล่นเกม
    หากต้องการประสิทธิภาพสูงสุด อาจต้องรอเวอร์ชันที่ใช้ GB200 ในเครื่อง Windows

    https://www.techradar.com/pro/so-freaking-cool-first-reviews-of-nvidia-dgx-spark-leave-absolutely-no-doubt-this-may-be-nvidias-apple-mac-moment
    🖥️ “Nvidia DGX Spark: เดสก์ท็อป AI ที่อาจเป็น ‘Apple Mac Moment’ ของ Nvidia” Nvidia เปิดตัว DGX Spark ซึ่งได้รับเสียงชื่นชมจากนักรีวิวว่าเป็น “เครื่องมือ AI ระดับวิจัยที่อยู่บนโต๊ะทำงาน” ด้วยขนาดเล็กแต่ทรงพลัง DGX Spark ใช้ชิป Grace Blackwell GB200 ที่รวม CPU และ GPU พร้อมหน่วยความจำ unified ขนาด 128GB ทำให้สามารถรันโมเดลขนาดใหญ่ได้โดยไม่ต้องพึ่งคลาวด์ รีวิวจากหลายสำนักชี้ว่า DGX Spark มีประสิทธิภาพสูงในการรันโมเดล Llama 3.1 70B และ Gemma 3 27B โดยตรงจากหน่วยความจำภายใน พร้อมระบบระบายความร้อนที่เงียบและเสถียร แม้จะมีข้อจำกัดด้าน bandwidth จาก LPDDR5X แต่ก็ยังถือว่าเป็นเครื่องมือที่เหมาะสำหรับนักพัฒนาและนักวิจัยที่ต้องการทดลอง AI แบบ local ✅ สเปกและความสามารถของ DGX Spark ➡️ ใช้ชิป Grace Blackwell GB200 รวม CPU + GPU ➡️ หน่วยความจำ unified 128GB รองรับโมเดลขนาดใหญ่ ➡️ รัน Llama 3.1 70B และ Gemma 3 27B ได้โดยตรงจาก RAM ➡️ มี batching efficiency และ throughput consistency สูง ✅ จุดเด่นด้านการใช้งาน ➡️ ขนาดเล็ก วางบนโต๊ะทำงานได้ ➡️ เสียงเงียบและระบบระบายความร้อนมีประสิทธิภาพ ➡️ ใช้พลังงานน้อยกว่าคอมพิวเตอร์ทั่วไปถึงครึ่งหนึ่ง ➡️ รองรับการเชื่อมต่อผ่าน Nvidia Sync จากเครื่องอื่น ✅ ความเห็นจากนักรีวิว ➡️ LMSYS: “เครื่องวิจัยที่สวยงามและทรงพลัง” ➡️ ServeTheHome: “จะทำให้การรันโมเดลขนาดใหญ่เป็นเรื่องของทุกคน” ➡️ HotHardware: “เหมาะเป็นเครื่องเสริมสำหรับนักพัฒนา ไม่ใช่แทนที่ workstation” ➡️ The Register: “เหมาะกับงานทดลอง ไม่ใช่สำหรับ productivity หรือ gaming” ‼️ คำเตือนและข้อจำกัด ⛔ Bandwidth ของ LPDDR5X ยังเป็นคอขวดเมื่อเทียบกับ GPU แยก ⛔ Driver และซอฟต์แวร์บางส่วนยังไม่สมบูรณ์ ⛔ ไม่เหมาะกับผู้ใช้ทั่วไปที่ต้องการเครื่องสำหรับงานทั่วไปหรือเล่นเกม ⛔ หากต้องการประสิทธิภาพสูงสุด อาจต้องรอเวอร์ชันที่ใช้ GB200 ในเครื่อง Windows https://www.techradar.com/pro/so-freaking-cool-first-reviews-of-nvidia-dgx-spark-leave-absolutely-no-doubt-this-may-be-nvidias-apple-mac-moment
    WWW.TECHRADAR.COM
    Reviews praise Nvidia DGX Spark as a compact local AI workstation
    Early hardware and software quirks do raise concerns, however
    0 ความคิดเห็น 0 การแบ่งปัน 174 มุมมอง 0 รีวิว
  • "Samsung ร่วมมือ Nvidia สร้าง CPU และ XPU แบบใหม่—ขยายอำนาจ NVLink ท่ามกลางการแข่งขัน AI"

    Nvidia กำลังขยายอิทธิพลในโลก AI ด้วยการร่วมมือกับ Samsung Foundry เพื่อออกแบบและผลิต CPU และ XPU แบบ non-x86 โดยใช้เทคโนโลยี NVLink Fusion ซึ่งเป็นระบบเชื่อมต่อความเร็วสูงระหว่าง CPU, GPU และ accelerator ที่ออกแบบมาเพื่อใช้งานในระดับ rack-scale data center

    การประกาศนี้เกิดขึ้นในงาน OCP Global Summit ปี 2025 โดยมีเป้าหมายเพื่อรับมือกับการแข่งขันจากบริษัทใหญ่อย่าง OpenAI, Google, AWS, Broadcom และ Meta ที่กำลังพัฒนาเทคโนโลยีชิปของตัวเองเพื่อลดการพึ่งพา Nvidia

    Samsung จะมีบทบาทตั้งแต่การออกแบบไปจนถึงการผลิตชิปแบบ custom โดยใช้ NVLink Fusion เป็นแกนกลาง ซึ่งช่วยให้ CPU และ XPU สามารถสื่อสารกับ GPU ของ Nvidia ได้โดยตรงแบบ high-bandwidth, low-latency

    ความร่วมมือระหว่าง Nvidia และ Samsung
    Samsung Foundry จะช่วยออกแบบและผลิต CPU/XPU แบบ non-x86
    ใช้เทคโนโลยี NVLink Fusion เพื่อเชื่อมต่อกับ GPU ของ Nvidia
    ขยาย ecosystem ของ Nvidia ในระดับ data center

    จุดเด่นของ NVLink Fusion
    เป็น IP และ chiplet solution สำหรับการเชื่อมต่อ CPU-GPU-accelerator
    รองรับการสื่อสารแบบ high-speed ในระบบ rack-scale
    ช่วยลด bottleneck ระหว่างองค์ประกอบของระบบประมวลผล

    การแข่งขันในตลาด AI
    OpenAI, Google, AWS, Meta และ Broadcom กำลังพัฒนาชิปของตัวเอง
    Nvidia ต้องสร้างความได้เปรียบผ่านการควบคุมทั้ง hardware stack
    การร่วมมือกับ Samsung ช่วยเพิ่มความสามารถในการผลิตและออกแบบ

    ข้อจำกัดของ NVLink Fusion
    ชิปที่ใช้ NVLink Fusion ต้องเชื่อมต่อกับผลิตภัณฑ์ของ Nvidia เท่านั้น
    Nvidia ควบคุม controller, PHY layer และ NVLink Switch licensing
    อาจเกิดความกังวลเรื่อง vendor lock-in และความเปิดของ ecosystem

    สาระเพิ่มเติมจากภายนอก:
    ความหมายของ XPU
    เป็นแนวคิดใหม่ที่รวม CPU, GPU และ accelerator เข้าด้วยกัน
    ออกแบบมาเพื่อรองรับงาน AI และ HPC โดยเฉพาะ

    บทบาทของ Samsung Foundry
    เป็นหนึ่งในผู้ผลิตชิประดับโลกที่มีเทคโนโลยีการผลิตขั้นสูง
    การร่วมมือครั้งนี้ช่วยให้ Nvidia มีทางเลือกนอกเหนือจาก TSMC

    https://www.techradar.com/pro/samsung-will-help-nvidia-build-custom-non-x86-cpu-and-xpu-in-a-bid-to-stave-off-competition-from-openai-google-aws-broadcom-meta-and-its-other-key-partners
    🔧 "Samsung ร่วมมือ Nvidia สร้าง CPU และ XPU แบบใหม่—ขยายอำนาจ NVLink ท่ามกลางการแข่งขัน AI" Nvidia กำลังขยายอิทธิพลในโลก AI ด้วยการร่วมมือกับ Samsung Foundry เพื่อออกแบบและผลิต CPU และ XPU แบบ non-x86 โดยใช้เทคโนโลยี NVLink Fusion ซึ่งเป็นระบบเชื่อมต่อความเร็วสูงระหว่าง CPU, GPU และ accelerator ที่ออกแบบมาเพื่อใช้งานในระดับ rack-scale data center การประกาศนี้เกิดขึ้นในงาน OCP Global Summit ปี 2025 โดยมีเป้าหมายเพื่อรับมือกับการแข่งขันจากบริษัทใหญ่อย่าง OpenAI, Google, AWS, Broadcom และ Meta ที่กำลังพัฒนาเทคโนโลยีชิปของตัวเองเพื่อลดการพึ่งพา Nvidia Samsung จะมีบทบาทตั้งแต่การออกแบบไปจนถึงการผลิตชิปแบบ custom โดยใช้ NVLink Fusion เป็นแกนกลาง ซึ่งช่วยให้ CPU และ XPU สามารถสื่อสารกับ GPU ของ Nvidia ได้โดยตรงแบบ high-bandwidth, low-latency ✅ ความร่วมมือระหว่าง Nvidia และ Samsung ➡️ Samsung Foundry จะช่วยออกแบบและผลิต CPU/XPU แบบ non-x86 ➡️ ใช้เทคโนโลยี NVLink Fusion เพื่อเชื่อมต่อกับ GPU ของ Nvidia ➡️ ขยาย ecosystem ของ Nvidia ในระดับ data center ✅ จุดเด่นของ NVLink Fusion ➡️ เป็น IP และ chiplet solution สำหรับการเชื่อมต่อ CPU-GPU-accelerator ➡️ รองรับการสื่อสารแบบ high-speed ในระบบ rack-scale ➡️ ช่วยลด bottleneck ระหว่างองค์ประกอบของระบบประมวลผล ✅ การแข่งขันในตลาด AI ➡️ OpenAI, Google, AWS, Meta และ Broadcom กำลังพัฒนาชิปของตัวเอง ➡️ Nvidia ต้องสร้างความได้เปรียบผ่านการควบคุมทั้ง hardware stack ➡️ การร่วมมือกับ Samsung ช่วยเพิ่มความสามารถในการผลิตและออกแบบ ‼️ ข้อจำกัดของ NVLink Fusion ⛔ ชิปที่ใช้ NVLink Fusion ต้องเชื่อมต่อกับผลิตภัณฑ์ของ Nvidia เท่านั้น ⛔ Nvidia ควบคุม controller, PHY layer และ NVLink Switch licensing ⛔ อาจเกิดความกังวลเรื่อง vendor lock-in และความเปิดของ ecosystem 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความหมายของ XPU ➡️ เป็นแนวคิดใหม่ที่รวม CPU, GPU และ accelerator เข้าด้วยกัน ➡️ ออกแบบมาเพื่อรองรับงาน AI และ HPC โดยเฉพาะ ✅ บทบาทของ Samsung Foundry ➡️ เป็นหนึ่งในผู้ผลิตชิประดับโลกที่มีเทคโนโลยีการผลิตขั้นสูง ➡️ การร่วมมือครั้งนี้ช่วยให้ Nvidia มีทางเลือกนอกเหนือจาก TSMC https://www.techradar.com/pro/samsung-will-help-nvidia-build-custom-non-x86-cpu-and-xpu-in-a-bid-to-stave-off-competition-from-openai-google-aws-broadcom-meta-and-its-other-key-partners
    WWW.TECHRADAR.COM
    Samsung joins Nvidia to power custom CPUs and XPUs
    Custom chips under NVLink Fusion remain tied to Nvidia products exclusively
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
  • "TSMC เปิดโรงงานในสหรัฐฯ ให้ชมผ่านวิดีโอ: เทคโนโลยีล้ำยุคใน Fab 21 ที่แอริโซนา"

    TSMC ผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน ได้เผยแพร่วิดีโอหายากที่พาผู้ชมบินผ่านโรงงาน Fab 21 ในรัฐแอริโซนา สหรัฐอเมริกา ซึ่งกำลังผลิตชิปด้วยเทคโนโลยีระดับ 4nm และ 5nm (N4/N5) สำหรับบริษัทชั้นนำอย่าง Apple, AMD และ Nvidia

    วิดีโอแสดงให้เห็นระบบ “Silver Highway” หรือระบบขนส่งวัสดุอัตโนมัติ (AMHS) ที่ใช้รางเหนือศีรษะในการเคลื่อนย้าย FOUPs (Front-Opening Unified Pods) ซึ่งบรรจุเวเฟอร์ขนาด 300 มม. ไปยังเครื่องมือผลิตต่าง ๆ อย่างแม่นยำและรวดเร็ว

    จุดเด่นของโรงงานคือเครื่อง EUV Lithography จาก ASML รุ่น Twinscan NXE ที่ใช้แสงความยาวคลื่น 13.5nm จากพลาสมาทินในการ “พิมพ์” ลวดลายบนเวเฟอร์ด้วยความละเอียดระดับ 13nm ซึ่งเป็นหัวใจของการผลิตชิปยุคใหม่

    ไฮไลต์จากวิดีโอโรงงาน Fab 21
    แสดงระบบ Silver Highway สำหรับขนส่ง FOUPs อัตโนมัติ
    ใช้แสงสีเหลืองในห้อง cleanroom เพื่อป้องกันการเปิดรับแสงของ photoresist
    เครื่อง EUV จาก ASML ใช้ plasma จากหยดทินในการสร้างลวดลายบนเวเฟอร์

    เทคโนโลยีการผลิต
    ใช้กระบวนการ N4 และ N5 (4nm และ 5nm-class)
    เครื่อง Twinscan NXE:3600D มีความแม่นยำระดับ 1.1nm
    ใช้ระบบเลเซอร์ผลิตพลาสมาและกระจกสะท้อนพิเศษแทนเลนส์ทั่วไป

    แผนการขยายโรงงาน
    Fab 21 phase 2 จะรองรับการผลิตชิประดับ N3 และ N2
    TSMC เตรียมซื้อที่ดินเพิ่มเพื่อสร้าง Gigafab cluster ในแอริโซนา
    รองรับความต้องการด้าน AI, สมาร์ทโฟน และ HPC ที่เพิ่มขึ้น

    ความท้าทายของเทคโนโลยี EUV
    ต้องควบคุมความแม่นยำของการวางลวดลายในระดับนาโนเมตร
    มีผลกระทบจาก stochastic effects ที่อาจทำให้เกิดข้อผิดพลาด
    ต้องใช้กระจกพิเศษแทนเลนส์ เพราะแสง EUV ถูกดูดกลืนโดยวัสดุทั่วไป

    สาระเพิ่มเติมจากภายนอก:
    ความหมายของ Gigafab
    โรงงานที่สามารถผลิตเวเฟอร์ได้มากกว่า 100,000 แผ่นต่อเดือน
    เป็นระดับสูงสุดของโรงงานผลิตเซมิคอนดักเตอร์

    ความสำคัญของ Fab 21 ต่อสหรัฐฯ
    เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาการผลิตจากเอเชีย
    สนับสนุนความมั่นคงด้านเทคโนโลยีและเศรษฐกิจของประเทศ

    https://www.tomshardware.com/tech-industry/semiconductors/tsmc-gives-an-ultra-rare-video-look-inside-its-fabs-silver-highway-and-fab-tools-revealed-in-flyby-video-of-companys-us-arizona-fab-21
    🏭 "TSMC เปิดโรงงานในสหรัฐฯ ให้ชมผ่านวิดีโอ: เทคโนโลยีล้ำยุคใน Fab 21 ที่แอริโซนา" TSMC ผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน ได้เผยแพร่วิดีโอหายากที่พาผู้ชมบินผ่านโรงงาน Fab 21 ในรัฐแอริโซนา สหรัฐอเมริกา ซึ่งกำลังผลิตชิปด้วยเทคโนโลยีระดับ 4nm และ 5nm (N4/N5) สำหรับบริษัทชั้นนำอย่าง Apple, AMD และ Nvidia วิดีโอแสดงให้เห็นระบบ “Silver Highway” หรือระบบขนส่งวัสดุอัตโนมัติ (AMHS) ที่ใช้รางเหนือศีรษะในการเคลื่อนย้าย FOUPs (Front-Opening Unified Pods) ซึ่งบรรจุเวเฟอร์ขนาด 300 มม. ไปยังเครื่องมือผลิตต่าง ๆ อย่างแม่นยำและรวดเร็ว จุดเด่นของโรงงานคือเครื่อง EUV Lithography จาก ASML รุ่น Twinscan NXE ที่ใช้แสงความยาวคลื่น 13.5nm จากพลาสมาทินในการ “พิมพ์” ลวดลายบนเวเฟอร์ด้วยความละเอียดระดับ 13nm ซึ่งเป็นหัวใจของการผลิตชิปยุคใหม่ ✅ ไฮไลต์จากวิดีโอโรงงาน Fab 21 ➡️ แสดงระบบ Silver Highway สำหรับขนส่ง FOUPs อัตโนมัติ ➡️ ใช้แสงสีเหลืองในห้อง cleanroom เพื่อป้องกันการเปิดรับแสงของ photoresist ➡️ เครื่อง EUV จาก ASML ใช้ plasma จากหยดทินในการสร้างลวดลายบนเวเฟอร์ ✅ เทคโนโลยีการผลิต ➡️ ใช้กระบวนการ N4 และ N5 (4nm และ 5nm-class) ➡️ เครื่อง Twinscan NXE:3600D มีความแม่นยำระดับ 1.1nm ➡️ ใช้ระบบเลเซอร์ผลิตพลาสมาและกระจกสะท้อนพิเศษแทนเลนส์ทั่วไป ✅ แผนการขยายโรงงาน ➡️ Fab 21 phase 2 จะรองรับการผลิตชิประดับ N3 และ N2 ➡️ TSMC เตรียมซื้อที่ดินเพิ่มเพื่อสร้าง Gigafab cluster ในแอริโซนา ➡️ รองรับความต้องการด้าน AI, สมาร์ทโฟน และ HPC ที่เพิ่มขึ้น ‼️ ความท้าทายของเทคโนโลยี EUV ⛔ ต้องควบคุมความแม่นยำของการวางลวดลายในระดับนาโนเมตร ⛔ มีผลกระทบจาก stochastic effects ที่อาจทำให้เกิดข้อผิดพลาด ⛔ ต้องใช้กระจกพิเศษแทนเลนส์ เพราะแสง EUV ถูกดูดกลืนโดยวัสดุทั่วไป 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความหมายของ Gigafab ➡️ โรงงานที่สามารถผลิตเวเฟอร์ได้มากกว่า 100,000 แผ่นต่อเดือน ➡️ เป็นระดับสูงสุดของโรงงานผลิตเซมิคอนดักเตอร์ ✅ ความสำคัญของ Fab 21 ต่อสหรัฐฯ ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาการผลิตจากเอเชีย ➡️ สนับสนุนความมั่นคงด้านเทคโนโลยีและเศรษฐกิจของประเทศ https://www.tomshardware.com/tech-industry/semiconductors/tsmc-gives-an-ultra-rare-video-look-inside-its-fabs-silver-highway-and-fab-tools-revealed-in-flyby-video-of-companys-us-arizona-fab-21
    0 ความคิดเห็น 0 การแบ่งปัน 194 มุมมอง 0 รีวิว
  • "Palantir vs Nvidia: เมื่อสงครามเศรษฐกิจกลายเป็นสนามความคิดเรื่องจีน"

    Shyam Sankar ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของ Palantir ได้ออกบทความแสดงความเห็นใน Wall Street Journal โดยกล่าวถึงความจำเป็นที่สหรัฐฯ ต้องยอมรับว่า “เรามีปัญหา” กับการพึ่งพาจีนในด้านเทคโนโลยีและการผลิต พร้อมวิจารณ์แนวคิดที่ต่อต้าน “China hawks” ว่าเป็นการทำตัวเป็น “useful idiots” หรือคนที่ถูกใช้โดยไม่รู้ตัว

    บทความของ Sankar ถูกมองว่าเป็นการตอบโต้ทางอ้อมต่อ Jensen Huang ซีอีโอของ Nvidia ที่เคยกล่าวว่า “China hawk” ไม่ใช่ตราแห่งเกียรติ แต่เป็น “ตราแห่งความอับอาย” และเสนอว่า “เราควรอยู่ร่วมกันได้” มากกว่าจะเลือกข้างแบบสุดโต่ง

    Sankar ชี้ว่าแนวคิดแบบ Huang เป็นการปฏิเสธความจริงที่ว่าเรากำลังอยู่ในสงครามเศรษฐกิจ และทุกการซื้อขายหรือการลงทุนคือการเลือกข้างในระบบที่แข่งขันกันอย่างเข้มข้น เขาเตือนว่า หากสหรัฐฯ ไม่เริ่มสร้างทางเลือกใหม่และลดการพึ่งพาจีน เราอาจถูกบีบให้ยอมตามข้อเรียกร้องของปักกิ่งในอนาคต

    มุมมองของ Shyam Sankar (Palantir CTO)
    สหรัฐฯ ต้องยอมรับว่าการพึ่งพาจีนเป็นปัญหา
    การปฏิเสธความจริงคือการทำตัวเป็น “useful idiots”
    ทุกการซื้อขายคือการเลือกข้างในสงครามเศรษฐกิจ

    การตอบโต้แนวคิดของ Jensen Huang (Nvidia CEO)
    Huang เคยกล่าวว่า “China hawk” เป็นตราแห่งความอับอาย
    เสนอแนวทาง “us and them” แทน “us vs them”
    สนับสนุนการขายชิปให้จีนเพื่อสร้างมาตรฐานเทคโนโลยีของสหรัฐฯ

    คำเตือนจาก Sankar
    การเชื่อใน “การขึ้นอย่างสันติ” ของจีนคือการหลอกตัวเอง
    บริษัทอเมริกันกำลังสนับสนุนการเติบโตของจีนโดยไม่รู้ตัว
    หากไม่สร้าง supply chain ทางเลือก สหรัฐฯ จะไม่มีอำนาจต่อรองในอนาคต

    ตัวอย่างบริษัทที่ลงทุนในจีน
    Apple, Tesla, Intel, GM, P&G, Coca-Cola
    การลงทุนมหาศาลทำให้จีนกลายเป็นผู้ผลิตระดับโลก
    ไม่ใช่แค่แรงงานราคาถูก แต่เป็น supply chain ที่ครบวงจร

    แนวทางที่ Sankar เสนอ
    สหรัฐฯ ต้องฟื้นฟูฐานการผลิตของตัวเอง
    ไม่จำเป็นต้องหยุดค้าขายกับจีน แต่ต้องมีทางเลือก
    ต้องยอมรับความเจ็บปวดระยะสั้นเพื่ออธิปไตยระยะยาว

    สาระเพิ่มเติมจากภายนอก:
    ความหมายของ “useful idiot” ในบริบทสงครามเย็น
    เป็นคำที่ใช้เรียกคนที่ถูกใช้โดยฝ่ายตรงข้ามโดยไม่รู้ตัว
    มักใช้ในบริบทการเมืองและอุดมการณ์

    ความท้าทายของการลดการพึ่งพาจีน
    จีนมี supply chain ที่ครบวงจรและยากจะทดแทน
    การสร้างระบบใหม่ต้องใช้เวลาและเงินมหาศาล
    ต้องอาศัยความร่วมมือระหว่างภาครัฐและเอกชน

    https://www.tomshardware.com/tech-industry/big-tech/palantir-chief-takes-a-jab-at-nvidia-ceo-jensen-huang-says-people-decrying-china-hawks-are-useful-idiots-the-first-step-to-ending-our-dependence-on-china-is-admitting-we-have-a-problem
    🥷 "Palantir vs Nvidia: เมื่อสงครามเศรษฐกิจกลายเป็นสนามความคิดเรื่องจีน" Shyam Sankar ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของ Palantir ได้ออกบทความแสดงความเห็นใน Wall Street Journal โดยกล่าวถึงความจำเป็นที่สหรัฐฯ ต้องยอมรับว่า “เรามีปัญหา” กับการพึ่งพาจีนในด้านเทคโนโลยีและการผลิต พร้อมวิจารณ์แนวคิดที่ต่อต้าน “China hawks” ว่าเป็นการทำตัวเป็น “useful idiots” หรือคนที่ถูกใช้โดยไม่รู้ตัว บทความของ Sankar ถูกมองว่าเป็นการตอบโต้ทางอ้อมต่อ Jensen Huang ซีอีโอของ Nvidia ที่เคยกล่าวว่า “China hawk” ไม่ใช่ตราแห่งเกียรติ แต่เป็น “ตราแห่งความอับอาย” และเสนอว่า “เราควรอยู่ร่วมกันได้” มากกว่าจะเลือกข้างแบบสุดโต่ง Sankar ชี้ว่าแนวคิดแบบ Huang เป็นการปฏิเสธความจริงที่ว่าเรากำลังอยู่ในสงครามเศรษฐกิจ และทุกการซื้อขายหรือการลงทุนคือการเลือกข้างในระบบที่แข่งขันกันอย่างเข้มข้น เขาเตือนว่า หากสหรัฐฯ ไม่เริ่มสร้างทางเลือกใหม่และลดการพึ่งพาจีน เราอาจถูกบีบให้ยอมตามข้อเรียกร้องของปักกิ่งในอนาคต ✅ มุมมองของ Shyam Sankar (Palantir CTO) ➡️ สหรัฐฯ ต้องยอมรับว่าการพึ่งพาจีนเป็นปัญหา ➡️ การปฏิเสธความจริงคือการทำตัวเป็น “useful idiots” ➡️ ทุกการซื้อขายคือการเลือกข้างในสงครามเศรษฐกิจ ✅ การตอบโต้แนวคิดของ Jensen Huang (Nvidia CEO) ➡️ Huang เคยกล่าวว่า “China hawk” เป็นตราแห่งความอับอาย ➡️ เสนอแนวทาง “us and them” แทน “us vs them” ➡️ สนับสนุนการขายชิปให้จีนเพื่อสร้างมาตรฐานเทคโนโลยีของสหรัฐฯ ‼️ คำเตือนจาก Sankar ⛔ การเชื่อใน “การขึ้นอย่างสันติ” ของจีนคือการหลอกตัวเอง ⛔ บริษัทอเมริกันกำลังสนับสนุนการเติบโตของจีนโดยไม่รู้ตัว ⛔ หากไม่สร้าง supply chain ทางเลือก สหรัฐฯ จะไม่มีอำนาจต่อรองในอนาคต ✅ ตัวอย่างบริษัทที่ลงทุนในจีน ➡️ Apple, Tesla, Intel, GM, P&G, Coca-Cola ➡️ การลงทุนมหาศาลทำให้จีนกลายเป็นผู้ผลิตระดับโลก ➡️ ไม่ใช่แค่แรงงานราคาถูก แต่เป็น supply chain ที่ครบวงจร ✅ แนวทางที่ Sankar เสนอ ➡️ สหรัฐฯ ต้องฟื้นฟูฐานการผลิตของตัวเอง ➡️ ไม่จำเป็นต้องหยุดค้าขายกับจีน แต่ต้องมีทางเลือก ➡️ ต้องยอมรับความเจ็บปวดระยะสั้นเพื่ออธิปไตยระยะยาว 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความหมายของ “useful idiot” ในบริบทสงครามเย็น ➡️ เป็นคำที่ใช้เรียกคนที่ถูกใช้โดยฝ่ายตรงข้ามโดยไม่รู้ตัว ➡️ มักใช้ในบริบทการเมืองและอุดมการณ์ ✅ ความท้าทายของการลดการพึ่งพาจีน ➡️ จีนมี supply chain ที่ครบวงจรและยากจะทดแทน ➡️ การสร้างระบบใหม่ต้องใช้เวลาและเงินมหาศาล ➡️ ต้องอาศัยความร่วมมือระหว่างภาครัฐและเอกชน https://www.tomshardware.com/tech-industry/big-tech/palantir-chief-takes-a-jab-at-nvidia-ceo-jensen-huang-says-people-decrying-china-hawks-are-useful-idiots-the-first-step-to-ending-our-dependence-on-china-is-admitting-we-have-a-problem
    0 ความคิดเห็น 0 การแบ่งปัน 207 มุมมอง 0 รีวิว
  • “Neural Engine คืออะไร? ต่างจาก GPU อย่างไร?” — เมื่อชิป AI กลายเป็นหัวใจของอุปกรณ์ยุคใหม่ และ NPU คือผู้เล่นตัวจริง

    บทความจาก SlashGear อธิบายว่า Neural Engine หรือ NPU (Neural Processing Unit) คือชิปเฉพาะทางที่ออกแบบมาเพื่อเร่งการประมวลผลด้าน AI และ machine learning โดยเฉพาะ ต่างจาก CPU ที่เน้นงานเชิงตรรกะ และ GPU ที่เน้นงานกราฟิกและการคำนวณแบบขนาน

    Apple เป็นหนึ่งในบริษัทแรกที่นำ Neural Engine มาใช้ใน iPhone X ปี 2017 เพื่อช่วยงาน Face ID และการเรียนรู้ของ Siri ปัจจุบัน NPU ถูกฝังอยู่ในอุปกรณ์หลากหลาย เช่น สมาร์ตโฟน, แท็บเล็ต, คอมพิวเตอร์ และแม้แต่ IoT

    NPU มีจำนวนคอร์มากกว่า CPU และออกแบบมาเพื่อการคำนวณซ้ำ ๆ เช่น matrix multiplication ซึ่งเป็นหัวใจของ neural networks นอกจากนี้ยังมีหน่วยความจำในตัว (on-chip memory) เพื่อลด latency และเพิ่มประสิทธิภาพ

    GPU ก็สามารถใช้ประมวลผล AI ได้เช่นกัน โดยเฉพาะในระดับ data center เช่นที่ OpenAI ใช้ GPU จาก NVIDIA และ AMD แต่ GPU ไม่ได้ถูกออกแบบมาเพื่อ AI โดยตรง จึงใช้พลังงานมากกว่าและมีประสิทธิภาพต่ำกว่า NPU ในงานเฉพาะทาง

    ในอุปกรณ์พกพา เช่น iPhone 16 หรือ Pixel 10 NPU ถูกใช้เพื่อรันฟีเจอร์ AI แบบ local เช่น live translation, image generation และ call transcribing โดยไม่ต้องพึ่ง cloud

    Neural Engine หรือ NPU คือชิปเฉพาะทางสำหรับงาน AI
    เช่น Face ID, Siri, live translation, image generation

    NPU มีจำนวนคอร์มากกว่า CPU และออกแบบเพื่อ matrix multiplication
    เหมาะกับงาน neural networks และ machine learning

    มีหน่วยความจำในตัวเพื่อลด latency และเพิ่มประสิทธิภาพ
    ทำให้เร็วและประหยัดพลังงานกว่า GPU

    GPU ก็สามารถใช้ประมวลผล AI ได้
    โดยเฉพาะในระดับ data center เช่น OpenAI ใช้ GPU cluster

    GPU ไม่ได้ออกแบบมาเพื่อ AI โดยตรง
    ใช้พลังงานมากกว่าและมีประสิทธิภาพต่ำกว่า NPU ในงานเฉพาะทาง

    อุปกรณ์พกพาใช้ NPU เพื่อรันฟีเจอร์ AI แบบ local
    ไม่ต้องพึ่ง cloud เช่น iPhone 16 และ Pixel 10

    https://www.slashgear.com/1997513/what-is-a-neural-engine-how-npu-different-than-gpu/
    🧠 “Neural Engine คืออะไร? ต่างจาก GPU อย่างไร?” — เมื่อชิป AI กลายเป็นหัวใจของอุปกรณ์ยุคใหม่ และ NPU คือผู้เล่นตัวจริง บทความจาก SlashGear อธิบายว่า Neural Engine หรือ NPU (Neural Processing Unit) คือชิปเฉพาะทางที่ออกแบบมาเพื่อเร่งการประมวลผลด้าน AI และ machine learning โดยเฉพาะ ต่างจาก CPU ที่เน้นงานเชิงตรรกะ และ GPU ที่เน้นงานกราฟิกและการคำนวณแบบขนาน Apple เป็นหนึ่งในบริษัทแรกที่นำ Neural Engine มาใช้ใน iPhone X ปี 2017 เพื่อช่วยงาน Face ID และการเรียนรู้ของ Siri ปัจจุบัน NPU ถูกฝังอยู่ในอุปกรณ์หลากหลาย เช่น สมาร์ตโฟน, แท็บเล็ต, คอมพิวเตอร์ และแม้แต่ IoT NPU มีจำนวนคอร์มากกว่า CPU และออกแบบมาเพื่อการคำนวณซ้ำ ๆ เช่น matrix multiplication ซึ่งเป็นหัวใจของ neural networks นอกจากนี้ยังมีหน่วยความจำในตัว (on-chip memory) เพื่อลด latency และเพิ่มประสิทธิภาพ GPU ก็สามารถใช้ประมวลผล AI ได้เช่นกัน โดยเฉพาะในระดับ data center เช่นที่ OpenAI ใช้ GPU จาก NVIDIA และ AMD แต่ GPU ไม่ได้ถูกออกแบบมาเพื่อ AI โดยตรง จึงใช้พลังงานมากกว่าและมีประสิทธิภาพต่ำกว่า NPU ในงานเฉพาะทาง ในอุปกรณ์พกพา เช่น iPhone 16 หรือ Pixel 10 NPU ถูกใช้เพื่อรันฟีเจอร์ AI แบบ local เช่น live translation, image generation และ call transcribing โดยไม่ต้องพึ่ง cloud ✅ Neural Engine หรือ NPU คือชิปเฉพาะทางสำหรับงาน AI ➡️ เช่น Face ID, Siri, live translation, image generation ✅ NPU มีจำนวนคอร์มากกว่า CPU และออกแบบเพื่อ matrix multiplication ➡️ เหมาะกับงาน neural networks และ machine learning ✅ มีหน่วยความจำในตัวเพื่อลด latency และเพิ่มประสิทธิภาพ ➡️ ทำให้เร็วและประหยัดพลังงานกว่า GPU ✅ GPU ก็สามารถใช้ประมวลผล AI ได้ ➡️ โดยเฉพาะในระดับ data center เช่น OpenAI ใช้ GPU cluster ✅ GPU ไม่ได้ออกแบบมาเพื่อ AI โดยตรง ➡️ ใช้พลังงานมากกว่าและมีประสิทธิภาพต่ำกว่า NPU ในงานเฉพาะทาง ✅ อุปกรณ์พกพาใช้ NPU เพื่อรันฟีเจอร์ AI แบบ local ➡️ ไม่ต้องพึ่ง cloud เช่น iPhone 16 และ Pixel 10 https://www.slashgear.com/1997513/what-is-a-neural-engine-how-npu-different-than-gpu/
    WWW.SLASHGEAR.COM
    What Is A Neural Engine & How Do NPUs Differ From GPUs? - SlashGear
    When it comes to tech, most don't think too much about how things like NPUs and GPUs work. But the differences between them is more important than you think.
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • “ลองใช้ Pop!_OS 24.04 LTS Beta พร้อม COSMIC — เดสก์ท็อปใหม่จาก System76 ที่เริ่มลงตัว” — เมื่อ GNOME ไม่ใช่คำตอบเดียว และ Rust กลายเป็นรากฐานของประสบการณ์ใหม่

    หลังจากรอคอยกันมาหลายปี ในที่สุด System76 ก็ปล่อย public beta ของ Pop!_OS 24.04 LTS ที่มาพร้อม COSMIC — เดสก์ท็อปใหม่ที่เขียนด้วยภาษา Rust ซึ่งเป็นผลจากการตัดสินใจในปี 2021 ที่จะสร้างระบบของตัวเองแทนการพึ่ง GNOME

    ผู้เขียนทดลองติดตั้งผ่าน ISO สำหรับ NVIDIA บน SSD ภายนอก และพบว่า COSMIC ให้ความรู้สึกสดใหม่แต่ยังคงความคุ้นเคยแบบ GNOME โดยมีฟีเจอร์ที่น่าสนใจ เช่น:

    ตัวจัดการ workspace แบบแนวตั้ง (เปลี่ยนเป็นแนวนอนได้)
    Launcher ที่เรียกด้วยปุ่ม Super พร้อม dock ด้านล่าง
    Applets ด้านขวาสำหรับจัดการระบบ เช่น ภาษา, เสียง, แบตเตอรี่ ฯลฯ
    ระบบจัดการหน้าต่างแบบ tiling ที่ “ใช้งานได้จริง” แม้ไม่ยืดหยุ่นเท่า Hyprland
    รองรับ multi-monitor ได้ดีมาก — จำ layout ได้แม้ปิด/เปิดจอใหม่

    ด้านแอป COSMIC Files ให้ความรู้สึกคล้าย Nautilus แต่ลื่นและสะอาดกว่า ส่วน Image Viewer ก็เปิดภาพจากมือถือได้ดี พร้อมแสดง metadata ครบถ้วน

    COSMIC Store รองรับทั้ง DEB และ Flatpak ผ่าน Flathub โดยไม่ต้องใช้ terminal ส่วน COSMIC Player แม้จะมีปัญหาเล่น MP4 แต่ก็ขออนุญาตติดตั้ง codec ได้ทันที ส่วน COSMIC Screenshot ยังไม่มีฟีเจอร์บันทึกวิดีโอ

    การปรับแต่งก็ทำได้หลากหลาย เช่น เปลี่ยน wallpaper, โหมดมืด/สว่าง, สี accent, dock และตำแหน่ง panel รวมถึงการจัดการ workspace

    แม้จะมีข้อบกพร่อง เช่น UI scaling ที่ใหญ่เกินไป, การถ่ายโอนไฟล์ USB ที่ต้องปลดล็อกมือถือ และ OBS Studio ที่ไม่สามารถบันทึกหน้าจอได้ แต่ผู้เขียนมองว่า COSMIC มีความตั้งใจและศักยภาพสูง

    Pop!_OS 24.04 LTS Beta มาพร้อม COSMIC DE ที่เขียนด้วย Rust
    เป็นผลจากการตัดสินใจในปี 2021 ของ System76

    COSMIC มี layout คล้าย GNOME แต่ปรับแต่งได้มากกว่า
    เช่น workspace แนวตั้ง, launcher, dock, applets

    ระบบจัดการหน้าต่างแบบ tiling ใช้งานได้ดี
    รองรับ multi-monitor และจำ layout ได้แม้ปิดจอ

    แอป COSMIC Files และ Image Viewer ใช้งานลื่นและครบ
    รองรับ metadata และไฟล์จากมือถือ

    COSMIC Store รองรับ DEB และ Flatpak ผ่าน Flathub
    ไม่ต้องใช้ terminal ในการติดตั้ง

    COSMIC Screenshot ใช้งานได้ดีแต่ยังไม่มี screen recording
    GNOME มีฟีเจอร์นี้อยู่แล้ว

    ปรับแต่งได้หลากหลายผ่าน Settings > Desktop
    เช่น wallpaper, โหมดมืด/สว่าง, dock, panel, workspace

    ปัญหาที่พบ: UI scaling ใหญ่เกิน, USB ต้องปลดล็อกมือถือ, OBS ใช้งานไม่ได้
    ใช้ Kooha แทนได้

    https://news.itsfoss.com/cosmic-beta/
    🖥️ “ลองใช้ Pop!_OS 24.04 LTS Beta พร้อม COSMIC — เดสก์ท็อปใหม่จาก System76 ที่เริ่มลงตัว” — เมื่อ GNOME ไม่ใช่คำตอบเดียว และ Rust กลายเป็นรากฐานของประสบการณ์ใหม่ หลังจากรอคอยกันมาหลายปี ในที่สุด System76 ก็ปล่อย public beta ของ Pop!_OS 24.04 LTS ที่มาพร้อม COSMIC — เดสก์ท็อปใหม่ที่เขียนด้วยภาษา Rust ซึ่งเป็นผลจากการตัดสินใจในปี 2021 ที่จะสร้างระบบของตัวเองแทนการพึ่ง GNOME ผู้เขียนทดลองติดตั้งผ่าน ISO สำหรับ NVIDIA บน SSD ภายนอก และพบว่า COSMIC ให้ความรู้สึกสดใหม่แต่ยังคงความคุ้นเคยแบบ GNOME โดยมีฟีเจอร์ที่น่าสนใจ เช่น: 💻 ตัวจัดการ workspace แบบแนวตั้ง (เปลี่ยนเป็นแนวนอนได้) 💻 Launcher ที่เรียกด้วยปุ่ม Super พร้อม dock ด้านล่าง 💻 Applets ด้านขวาสำหรับจัดการระบบ เช่น ภาษา, เสียง, แบตเตอรี่ ฯลฯ 💻 ระบบจัดการหน้าต่างแบบ tiling ที่ “ใช้งานได้จริง” แม้ไม่ยืดหยุ่นเท่า Hyprland 💻 รองรับ multi-monitor ได้ดีมาก — จำ layout ได้แม้ปิด/เปิดจอใหม่ ด้านแอป COSMIC Files ให้ความรู้สึกคล้าย Nautilus แต่ลื่นและสะอาดกว่า ส่วน Image Viewer ก็เปิดภาพจากมือถือได้ดี พร้อมแสดง metadata ครบถ้วน COSMIC Store รองรับทั้ง DEB และ Flatpak ผ่าน Flathub โดยไม่ต้องใช้ terminal ส่วน COSMIC Player แม้จะมีปัญหาเล่น MP4 แต่ก็ขออนุญาตติดตั้ง codec ได้ทันที ส่วน COSMIC Screenshot ยังไม่มีฟีเจอร์บันทึกวิดีโอ การปรับแต่งก็ทำได้หลากหลาย เช่น เปลี่ยน wallpaper, โหมดมืด/สว่าง, สี accent, dock และตำแหน่ง panel รวมถึงการจัดการ workspace แม้จะมีข้อบกพร่อง เช่น UI scaling ที่ใหญ่เกินไป, การถ่ายโอนไฟล์ USB ที่ต้องปลดล็อกมือถือ และ OBS Studio ที่ไม่สามารถบันทึกหน้าจอได้ แต่ผู้เขียนมองว่า COSMIC มีความตั้งใจและศักยภาพสูง ✅ Pop!_OS 24.04 LTS Beta มาพร้อม COSMIC DE ที่เขียนด้วย Rust ➡️ เป็นผลจากการตัดสินใจในปี 2021 ของ System76 ✅ COSMIC มี layout คล้าย GNOME แต่ปรับแต่งได้มากกว่า ➡️ เช่น workspace แนวตั้ง, launcher, dock, applets ✅ ระบบจัดการหน้าต่างแบบ tiling ใช้งานได้ดี ➡️ รองรับ multi-monitor และจำ layout ได้แม้ปิดจอ ✅ แอป COSMIC Files และ Image Viewer ใช้งานลื่นและครบ ➡️ รองรับ metadata และไฟล์จากมือถือ ✅ COSMIC Store รองรับ DEB และ Flatpak ผ่าน Flathub ➡️ ไม่ต้องใช้ terminal ในการติดตั้ง ✅ COSMIC Screenshot ใช้งานได้ดีแต่ยังไม่มี screen recording ➡️ GNOME มีฟีเจอร์นี้อยู่แล้ว ✅ ปรับแต่งได้หลากหลายผ่าน Settings > Desktop ➡️ เช่น wallpaper, โหมดมืด/สว่าง, dock, panel, workspace ✅ ปัญหาที่พบ: UI scaling ใหญ่เกิน, USB ต้องปลดล็อกมือถือ, OBS ใช้งานไม่ได้ ➡️ ใช้ Kooha แทนได้ https://news.itsfoss.com/cosmic-beta/
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • “DeepMind จับมือ CFS ใช้ AI เพิ่มประสิทธิภาพเตาปฏิกรณ์ฟิวชัน SPARC” — เมื่อ AI ไม่ได้แค่เล่นหมากรุก แต่ช่วยเร่งอนาคตพลังงานสะอาดให้ใกล้ขึ้น

    Google DeepMind ประกาศความร่วมมือกับบริษัทฟิวชันพลังงานจากสหรัฐฯ อย่าง Commonwealth Fusion Systems (CFS) เพื่อใช้ AI เพิ่มประสิทธิภาพการทำงานของเตาปฏิกรณ์ฟิวชัน SPARC ซึ่งเป็นหนึ่งในโครงการที่มีเป้าหมายเพื่อผลิตพลังงานสะอาดแบบ “เกินดุล” (net energy gain) ให้ได้ภายในปี 2027

    CFS เพิ่งระดมทุนได้ถึง 863 ล้านดอลลาร์จากนักลงทุนรายใหญ่ เช่น NVIDIA, Google, Breakthrough Energy Ventures (ของ Bill Gates), Morgan Stanley, และบริษัทญี่ปุ่นอย่าง Mitsui & Co. และ Mitsubishi Corporation สะท้อนถึงความเชื่อมั่นระดับโลกในพลังงานฟิวชัน

    DeepMind จะนำเทคโนโลยี AI ที่เคยใช้ควบคุมพลาสมาใน tokamak (เตาปฏิกรณ์ฟิวชันแบบแม่เหล็ก) มาพัฒนา 3 ระบบหลักให้กับ SPARC ได้แก่:

    1️⃣ TORAX — ซอฟต์แวร์จำลองพลาสมาแบบ open-source ที่สามารถรันการทดลองจำลองนับล้านครั้งเพื่อปรับแต่งพารามิเตอร์ของเตาปฏิกรณ์

    2️⃣ AlphaEvolve — ระบบ AI ที่ใช้ reinforcement learning เพื่อค้นหาวิธีการควบคุมพลาสมาให้ได้พลังงานสูงสุด

    3️⃣ AI Navigator — ระบบควบคุมพลาสมาแบบเรียลไทม์ ที่สามารถปรับสมดุลความร้อนและแรงดันในเตาได้อย่างแม่นยำ

    เป้าหมายสูงสุดคือการสร้างระบบควบคุมอัตโนมัติที่ “ฉลาดกว่าวิศวกรมนุษย์” ในการจัดการเตาปฏิกรณ์ฟิวชัน ซึ่งจะเป็นรากฐานของโรงไฟฟ้าฟิวชันในอนาคต

    DeepMind ร่วมมือกับ CFS เพื่อเพิ่มประสิทธิภาพเตาฟิวชัน SPARC
    ใช้ AI ควบคุมพลาสมาและจำลองการทำงานของเตา

    CFS ได้รับเงินลงทุน 863 ล้านดอลลาร์จากบริษัทชั้นนำ
    เช่น Google, NVIDIA, Breakthrough Energy, Morgan Stanley ฯลฯ

    เป้าหมายคือการผลิตพลังงานฟิวชันแบบ net energy gain ภายในปี 2027
    หมายถึงผลิตพลังงานได้มากกว่าที่ใช้ในการจุดพลาสมา

    DeepMind พัฒนา 3 ระบบ AI ได้แก่ TORAX, AlphaEvolve และ AI Navigator
    ครอบคลุมทั้งการจำลอง, การเรียนรู้, และการควบคุมแบบเรียลไทม์

    ระบบ AI จะช่วยควบคุมความร้อนและแรงดันในเตา
    ป้องกันความเสียหายและเพิ่มประสิทธิภาพการผลิตพลังงาน

    https://securityonline.info/google-deepmind-partners-with-cfs-to-use-ai-for-optimizing-sparc-fusion-reactor-efficiency/
    ⚛️ “DeepMind จับมือ CFS ใช้ AI เพิ่มประสิทธิภาพเตาปฏิกรณ์ฟิวชัน SPARC” — เมื่อ AI ไม่ได้แค่เล่นหมากรุก แต่ช่วยเร่งอนาคตพลังงานสะอาดให้ใกล้ขึ้น Google DeepMind ประกาศความร่วมมือกับบริษัทฟิวชันพลังงานจากสหรัฐฯ อย่าง Commonwealth Fusion Systems (CFS) เพื่อใช้ AI เพิ่มประสิทธิภาพการทำงานของเตาปฏิกรณ์ฟิวชัน SPARC ซึ่งเป็นหนึ่งในโครงการที่มีเป้าหมายเพื่อผลิตพลังงานสะอาดแบบ “เกินดุล” (net energy gain) ให้ได้ภายในปี 2027 CFS เพิ่งระดมทุนได้ถึง 863 ล้านดอลลาร์จากนักลงทุนรายใหญ่ เช่น NVIDIA, Google, Breakthrough Energy Ventures (ของ Bill Gates), Morgan Stanley, และบริษัทญี่ปุ่นอย่าง Mitsui & Co. และ Mitsubishi Corporation สะท้อนถึงความเชื่อมั่นระดับโลกในพลังงานฟิวชัน DeepMind จะนำเทคโนโลยี AI ที่เคยใช้ควบคุมพลาสมาใน tokamak (เตาปฏิกรณ์ฟิวชันแบบแม่เหล็ก) มาพัฒนา 3 ระบบหลักให้กับ SPARC ได้แก่: 1️⃣ TORAX — ซอฟต์แวร์จำลองพลาสมาแบบ open-source ที่สามารถรันการทดลองจำลองนับล้านครั้งเพื่อปรับแต่งพารามิเตอร์ของเตาปฏิกรณ์ 2️⃣ AlphaEvolve — ระบบ AI ที่ใช้ reinforcement learning เพื่อค้นหาวิธีการควบคุมพลาสมาให้ได้พลังงานสูงสุด 3️⃣ AI Navigator — ระบบควบคุมพลาสมาแบบเรียลไทม์ ที่สามารถปรับสมดุลความร้อนและแรงดันในเตาได้อย่างแม่นยำ เป้าหมายสูงสุดคือการสร้างระบบควบคุมอัตโนมัติที่ “ฉลาดกว่าวิศวกรมนุษย์” ในการจัดการเตาปฏิกรณ์ฟิวชัน ซึ่งจะเป็นรากฐานของโรงไฟฟ้าฟิวชันในอนาคต ✅ DeepMind ร่วมมือกับ CFS เพื่อเพิ่มประสิทธิภาพเตาฟิวชัน SPARC ➡️ ใช้ AI ควบคุมพลาสมาและจำลองการทำงานของเตา ✅ CFS ได้รับเงินลงทุน 863 ล้านดอลลาร์จากบริษัทชั้นนำ ➡️ เช่น Google, NVIDIA, Breakthrough Energy, Morgan Stanley ฯลฯ ✅ เป้าหมายคือการผลิตพลังงานฟิวชันแบบ net energy gain ภายในปี 2027 ➡️ หมายถึงผลิตพลังงานได้มากกว่าที่ใช้ในการจุดพลาสมา ✅ DeepMind พัฒนา 3 ระบบ AI ได้แก่ TORAX, AlphaEvolve และ AI Navigator ➡️ ครอบคลุมทั้งการจำลอง, การเรียนรู้, และการควบคุมแบบเรียลไทม์ ✅ ระบบ AI จะช่วยควบคุมความร้อนและแรงดันในเตา ➡️ ป้องกันความเสียหายและเพิ่มประสิทธิภาพการผลิตพลังงาน https://securityonline.info/google-deepmind-partners-with-cfs-to-use-ai-for-optimizing-sparc-fusion-reactor-efficiency/
    SECURITYONLINE.INFO
    Google DeepMind Partners with CFS to Use AI for Optimizing SPARC Fusion Reactor Efficiency
    DeepMind is partnering with CFS to optimize its SPARC fusion reactor for net energy gain (Q>1) by 2027. The AI uses TORAX simulations and AlphaEvolve agents to control extreme plasma heat.
    0 ความคิดเห็น 0 การแบ่งปัน 187 มุมมอง 0 รีวิว
  • “NVIDIA และ TSMC ผลิตแผ่นเวเฟอร์ Blackwell ครั้งแรกในสหรัฐฯ — แต่ยังต้องส่งกลับไต้หวันเพื่อประกอบขั้นสุดท้าย”

    NVIDIA และ TSMC ประกาศความสำเร็จในการผลิตเวเฟอร์ Blackwell รุ่นแรกที่โรงงาน Fab 21 ในรัฐแอริโซนา สหรัฐอเมริกา โดยใช้กระบวนการผลิตแบบ 4N ซึ่งเป็นเทคโนโลยีระดับ 4 นาโนเมตรที่ปรับแต่งเฉพาะสำหรับ NVIDIA

    Jensen Huang ซีอีโอของ NVIDIA กล่าวว่านี่คือ “ช่วงเวลาประวัติศาสตร์” เพราะเป็นครั้งแรกในรอบหลายสิบปีที่ชิปสำคัญระดับโลกถูกผลิตในสหรัฐฯ ซึ่งสะท้อนถึงวิสัยทัศน์ของรัฐบาลสหรัฐฯ ในการนำอุตสาหกรรมกลับคืนสู่ประเทศผ่านนโยบาย reindustrialization และ CHIPS Act

    อย่างไรก็ตาม แม้เวเฟอร์จะผลิตในสหรัฐฯ แต่ขั้นตอนการประกอบขั้นสูง (advanced packaging) ยังต้องดำเนินการที่โรงงาน TSMC ในไต้หวัน โดยใช้เทคโนโลยี CoWoS-L เพื่อเชื่อมต่อกับหน่วยความจำ HBM3E ซึ่งทำให้ชิป Blackwell B300 ที่เสร็จสมบูรณ์ยังต้องพึ่งพาการผลิตนอกประเทศ

    การผลิตในสหรัฐฯ มีความสำคัญเชิงยุทธศาสตร์ เพราะช่วยลดความเสี่ยงจากความตึงเครียดทางภูมิรัฐศาสตร์ และอาจหลีกเลี่ยงภาษีนำเข้าหากมีการบังคับใช้ในอนาคต

    TSMC และ Amkor กำลังสร้างโรงงานประกอบขั้นสูงในสหรัฐฯ ซึ่งคาดว่าจะเปิดใช้งานได้ภายในสิ้นทศวรรษนี้ เช่นเดียวกับ Micron และ SK hynix ที่กำลังลงทุนในการผลิต DRAM และ HBM packaging ในสหรัฐฯ เพื่อเสริมความมั่นคงของ supply chain

    NVIDIA และ TSMC ผลิตเวเฟอร์ Blackwell รุ่นแรกในสหรัฐฯ ที่โรงงาน Fab 21
    ใช้กระบวนการผลิต 4N ที่ปรับแต่งเฉพาะสำหรับ NVIDIA

    Jensen Huang ระบุว่าเป็น “ช่วงเวลาประวัติศาสตร์” สำหรับอุตสาหกรรมสหรัฐฯ
    สะท้อนนโยบาย reindustrialization และ CHIPS Act

    เวเฟอร์ต้องส่งกลับไต้หวันเพื่อประกอบขั้นสูงด้วย CoWoS-L และ HBM3E
    ทำให้ชิปที่เสร็จสมบูรณ์ยังต้องพึ่งพาการผลิตนอกประเทศ

    การผลิตในสหรัฐฯ ช่วยลดความเสี่ยงทางภูมิรัฐศาสตร์
    และอาจหลีกเลี่ยงภาษีนำเข้าหากมีการบังคับใช้

    TSMC และ Amkor กำลังสร้างโรงงานประกอบขั้นสูงในสหรัฐฯ
    คาดว่าจะเปิดใช้งานได้ภายในสิ้นทศวรรษ

    Micron และ SK hynix ลงทุนใน DRAM และ HBM packaging ในสหรัฐฯ
    เสริมความมั่นคงของ supply chain ด้านหน่วยความจำ

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-and-tsmc-produce-the-first-blackwell-wafer-made-in-the-u-s-chips-still-need-to-be-shipped-back-to-taiwan-to-complete-the-final-product
    🇺🇸 “NVIDIA และ TSMC ผลิตแผ่นเวเฟอร์ Blackwell ครั้งแรกในสหรัฐฯ — แต่ยังต้องส่งกลับไต้หวันเพื่อประกอบขั้นสุดท้าย” NVIDIA และ TSMC ประกาศความสำเร็จในการผลิตเวเฟอร์ Blackwell รุ่นแรกที่โรงงาน Fab 21 ในรัฐแอริโซนา สหรัฐอเมริกา โดยใช้กระบวนการผลิตแบบ 4N ซึ่งเป็นเทคโนโลยีระดับ 4 นาโนเมตรที่ปรับแต่งเฉพาะสำหรับ NVIDIA Jensen Huang ซีอีโอของ NVIDIA กล่าวว่านี่คือ “ช่วงเวลาประวัติศาสตร์” เพราะเป็นครั้งแรกในรอบหลายสิบปีที่ชิปสำคัญระดับโลกถูกผลิตในสหรัฐฯ ซึ่งสะท้อนถึงวิสัยทัศน์ของรัฐบาลสหรัฐฯ ในการนำอุตสาหกรรมกลับคืนสู่ประเทศผ่านนโยบาย reindustrialization และ CHIPS Act อย่างไรก็ตาม แม้เวเฟอร์จะผลิตในสหรัฐฯ แต่ขั้นตอนการประกอบขั้นสูง (advanced packaging) ยังต้องดำเนินการที่โรงงาน TSMC ในไต้หวัน โดยใช้เทคโนโลยี CoWoS-L เพื่อเชื่อมต่อกับหน่วยความจำ HBM3E ซึ่งทำให้ชิป Blackwell B300 ที่เสร็จสมบูรณ์ยังต้องพึ่งพาการผลิตนอกประเทศ การผลิตในสหรัฐฯ มีความสำคัญเชิงยุทธศาสตร์ เพราะช่วยลดความเสี่ยงจากความตึงเครียดทางภูมิรัฐศาสตร์ และอาจหลีกเลี่ยงภาษีนำเข้าหากมีการบังคับใช้ในอนาคต TSMC และ Amkor กำลังสร้างโรงงานประกอบขั้นสูงในสหรัฐฯ ซึ่งคาดว่าจะเปิดใช้งานได้ภายในสิ้นทศวรรษนี้ เช่นเดียวกับ Micron และ SK hynix ที่กำลังลงทุนในการผลิต DRAM และ HBM packaging ในสหรัฐฯ เพื่อเสริมความมั่นคงของ supply chain ✅ NVIDIA และ TSMC ผลิตเวเฟอร์ Blackwell รุ่นแรกในสหรัฐฯ ที่โรงงาน Fab 21 ➡️ ใช้กระบวนการผลิต 4N ที่ปรับแต่งเฉพาะสำหรับ NVIDIA ✅ Jensen Huang ระบุว่าเป็น “ช่วงเวลาประวัติศาสตร์” สำหรับอุตสาหกรรมสหรัฐฯ ➡️ สะท้อนนโยบาย reindustrialization และ CHIPS Act ✅ เวเฟอร์ต้องส่งกลับไต้หวันเพื่อประกอบขั้นสูงด้วย CoWoS-L และ HBM3E ➡️ ทำให้ชิปที่เสร็จสมบูรณ์ยังต้องพึ่งพาการผลิตนอกประเทศ ✅ การผลิตในสหรัฐฯ ช่วยลดความเสี่ยงทางภูมิรัฐศาสตร์ ➡️ และอาจหลีกเลี่ยงภาษีนำเข้าหากมีการบังคับใช้ ✅ TSMC และ Amkor กำลังสร้างโรงงานประกอบขั้นสูงในสหรัฐฯ ➡️ คาดว่าจะเปิดใช้งานได้ภายในสิ้นทศวรรษ ✅ Micron และ SK hynix ลงทุนใน DRAM และ HBM packaging ในสหรัฐฯ ➡️ เสริมความมั่นคงของ supply chain ด้านหน่วยความจำ https://www.tomshardware.com/tech-industry/semiconductors/nvidia-and-tsmc-produce-the-first-blackwell-wafer-made-in-the-u-s-chips-still-need-to-be-shipped-back-to-taiwan-to-complete-the-final-product
    0 ความคิดเห็น 0 การแบ่งปัน 202 มุมมอง 0 รีวิว
  • “Jensen Huang ส่ง DGX Spark ด้วยตัวเองให้ Elon Musk และ Sam Altman — สะท้อนความแตกแยกในวงการ AI”

    Jensen Huang ซีอีโอของ NVIDIA กลับมาสวมบทบาท “พนักงานส่งของ” อีกครั้ง โดยนำ DGX Spark — ซูเปอร์คอมพิวเตอร์ขนาดเล็กที่ใช้ชิป Grace Blackwell GB200 — ไปส่งให้ Elon Musk และ Sam Altman ด้วยตัวเอง แต่ที่น่าสนใจคือเขาส่งให้ “แยกกัน” เพราะทั้งสองเคยเป็นผู้ร่วมก่อตั้ง OpenAI แต่ปัจจุบันกลายเป็นคู่แข่งที่ขับเคี่ยวกันอย่างดุเดือด

    DGX Spark มีพลังประมวลผลถึง 1 petaflop และหน่วยความจำ unified 128GB รองรับโมเดลขนาด 200B parameters ได้แบบ local โดยไม่ต้องพึ่งคลาวด์ ซึ่งเหมาะกับการใช้งานในระดับนักวิจัยหรือผู้พัฒนา AI ชั้นนำ

    Huang ส่งเครื่องให้ Musk ที่ฐาน Starbase ของ SpaceX พร้อมแซวว่า “ส่งซูเปอร์คอมพิวเตอร์ที่เล็กที่สุดให้กับจรวดที่ใหญ่ที่สุด” ส่วนฝั่ง Altman เขาไปส่งถึง OpenAI และถ่ายภาพร่วมกับ Greg Brockman และ Altman เหมือนย้อนกลับไปเมื่อ 9 ปีก่อนที่เขาเคยส่ง DGX-1 ให้ Musk ในฐานะผู้ร่วมก่อตั้ง OpenAI

    นอกจาก Musk และ Altman แล้ว DGX Spark ยังถูกส่งให้กับนักวิจัยจากบริษัทชั้นนำ เช่น Google, Meta, Microsoft, Hugging Face, JetBrains, Docker, Anaconda, LM Studio และ ComfyUI

    DGX Spark วางจำหน่ายในราคา $3,999 ผ่าน NVIDIA, Micro Center และพาร์ตเนอร์อื่น ๆ โดยมีผู้ผลิตหลายราย เช่น Acer, Asus, Dell, Gigabyte, Lenovo, MSI และ HPI เตรียมออกเวอร์ชันของตัวเอง แต่ไม่มี “บริการส่งโดย Jensen” แน่นอน

    Jensen Huang ส่ง DGX Spark ให้ Elon Musk และ Sam Altman ด้วยตัวเอง
    สะท้อนความสัมพันธ์ที่เปลี่ยนไปจากผู้ร่วมก่อตั้งสู่คู่แข่ง

    DGX Spark ใช้ชิป Grace Blackwell GB200
    มีพลัง 1 petaflop และหน่วยความจำ unified 128GB

    รองรับโมเดลขนาด 200B parameters แบบ local
    ไม่ต้องพึ่งคลาวด์ในการรันโมเดลใหญ่

    ส่งให้บริษัทชั้นนำหลายแห่ง เช่น Google, Meta, Microsoft ฯลฯ
    รวมถึง Hugging Face, JetBrains, Docker และ ComfyUI

    วางจำหน่ายในราคา $3,999
    ผ่าน NVIDIA, Micro Center และพาร์ตเนอร์อื่น ๆ

    ผู้ผลิตหลายรายเตรียมออกเวอร์ชันของตัวเอง
    เช่น Acer, Asus, Dell, Gigabyte, Lenovo, MSI และ HPI

    https://www.tomshardware.com/tech-industry/artificial-intelligence/jensen-huang-personally-delivers-dgx-spark-mini-pcs-to-elon-musk-and-sam-altman-separately
    🚚 “Jensen Huang ส่ง DGX Spark ด้วยตัวเองให้ Elon Musk และ Sam Altman — สะท้อนความแตกแยกในวงการ AI” Jensen Huang ซีอีโอของ NVIDIA กลับมาสวมบทบาท “พนักงานส่งของ” อีกครั้ง โดยนำ DGX Spark — ซูเปอร์คอมพิวเตอร์ขนาดเล็กที่ใช้ชิป Grace Blackwell GB200 — ไปส่งให้ Elon Musk และ Sam Altman ด้วยตัวเอง แต่ที่น่าสนใจคือเขาส่งให้ “แยกกัน” เพราะทั้งสองเคยเป็นผู้ร่วมก่อตั้ง OpenAI แต่ปัจจุบันกลายเป็นคู่แข่งที่ขับเคี่ยวกันอย่างดุเดือด DGX Spark มีพลังประมวลผลถึง 1 petaflop และหน่วยความจำ unified 128GB รองรับโมเดลขนาด 200B parameters ได้แบบ local โดยไม่ต้องพึ่งคลาวด์ ซึ่งเหมาะกับการใช้งานในระดับนักวิจัยหรือผู้พัฒนา AI ชั้นนำ Huang ส่งเครื่องให้ Musk ที่ฐาน Starbase ของ SpaceX พร้อมแซวว่า “ส่งซูเปอร์คอมพิวเตอร์ที่เล็กที่สุดให้กับจรวดที่ใหญ่ที่สุด” ส่วนฝั่ง Altman เขาไปส่งถึง OpenAI และถ่ายภาพร่วมกับ Greg Brockman และ Altman เหมือนย้อนกลับไปเมื่อ 9 ปีก่อนที่เขาเคยส่ง DGX-1 ให้ Musk ในฐานะผู้ร่วมก่อตั้ง OpenAI นอกจาก Musk และ Altman แล้ว DGX Spark ยังถูกส่งให้กับนักวิจัยจากบริษัทชั้นนำ เช่น Google, Meta, Microsoft, Hugging Face, JetBrains, Docker, Anaconda, LM Studio และ ComfyUI DGX Spark วางจำหน่ายในราคา $3,999 ผ่าน NVIDIA, Micro Center และพาร์ตเนอร์อื่น ๆ โดยมีผู้ผลิตหลายราย เช่น Acer, Asus, Dell, Gigabyte, Lenovo, MSI และ HPI เตรียมออกเวอร์ชันของตัวเอง แต่ไม่มี “บริการส่งโดย Jensen” แน่นอน ✅ Jensen Huang ส่ง DGX Spark ให้ Elon Musk และ Sam Altman ด้วยตัวเอง ➡️ สะท้อนความสัมพันธ์ที่เปลี่ยนไปจากผู้ร่วมก่อตั้งสู่คู่แข่ง ✅ DGX Spark ใช้ชิป Grace Blackwell GB200 ➡️ มีพลัง 1 petaflop และหน่วยความจำ unified 128GB ✅ รองรับโมเดลขนาด 200B parameters แบบ local ➡️ ไม่ต้องพึ่งคลาวด์ในการรันโมเดลใหญ่ ✅ ส่งให้บริษัทชั้นนำหลายแห่ง เช่น Google, Meta, Microsoft ฯลฯ ➡️ รวมถึง Hugging Face, JetBrains, Docker และ ComfyUI ✅ วางจำหน่ายในราคา $3,999 ➡️ ผ่าน NVIDIA, Micro Center และพาร์ตเนอร์อื่น ๆ ✅ ผู้ผลิตหลายรายเตรียมออกเวอร์ชันของตัวเอง ➡️ เช่น Acer, Asus, Dell, Gigabyte, Lenovo, MSI และ HPI https://www.tomshardware.com/tech-industry/artificial-intelligence/jensen-huang-personally-delivers-dgx-spark-mini-pcs-to-elon-musk-and-sam-altman-separately
    WWW.TOMSHARDWARE.COM
    Jensen Huang personally delivers DGX Spark Mini PCs to Elon Musk and Sam Altman — separately
    Huang also ensured some of the first batch of DGX Spark systems got to top researchers at Cadence, Google, Meta, Microsoft, and others.
    0 ความคิดเห็น 0 การแบ่งปัน 166 มุมมอง 0 รีวิว
  • “NVIDIA สูญตลาดจีน 100% — Jensen Huang เผย ‘จาก 95% เหลือ 0%’”

    Jensen Huang ซีอีโอของ NVIDIA กล่าวในงาน Citadel Securities Future Of Global Markets 2025 ว่าบริษัทของเขา “ไม่มีส่วนแบ่งตลาดในจีนอีกต่อไป” โดยระบุว่า NVIDIA เคยครองตลาด AI ของจีนถึง 95% แต่ตอนนี้เหลือ 0% และ “ในทุกการคาดการณ์ของเรา เราตั้งค่าจีนเป็นศูนย์”

    เหตุผลหลักคือจีนกำลังเปลี่ยนไปใช้เทคโนโลยี AI ที่พัฒนาเองภายในประเทศ โดยไม่พึ่งพา NVIDIA อีกต่อไป ซึ่งเป็นผลจากข้อจำกัดด้านการส่งออกของสหรัฐฯ ที่ไม่อนุญาตให้ขายชิป AI ระดับสูงให้กับจีน โดยเฉพาะรุ่นใหม่อย่าง Blackwell B100 หรือ B200

    แม้ NVIDIA จะพยายามเสนอชิปรุ่นลดสเปก เช่น Hopper หรือ Blackwell B40 แต่ก็ยังไม่สามารถตอบโจทย์ความต้องการของบริษัทเทคโนโลยีจีนได้ โดยเฉพาะเมื่อคู่แข่งอย่าง Huawei และ Cambricon กำลังเร่งพัฒนา AI chip ของตัวเองอย่างจริงจัง

    Jensen ยอมรับว่า “หากมีอะไรเกิดขึ้นในจีน ก็ถือเป็นโบนัส” และมองว่าการกลับเข้าสู่ตลาดจีนจะเป็นเรื่องยากมากในอนาคต เพราะต้องผ่านการอนุมัติจากทั้งสองประเทศ และเผชิญกับการแข่งขันภายในที่รุนแรงขึ้นเรื่อย ๆ

    Jensen Huang ระบุว่า NVIDIA สูญเสียตลาดจีนทั้งหมด
    จาก 95% เหลือ 0% ในการคาดการณ์ของบริษัท

    เหตุผลหลักคือจีนหันไปใช้เทคโนโลยี AI ที่พัฒนาเอง
    เช่น Huawei และ Cambricon ที่มี roadmap ชิป AI ของตัวเอง

    สหรัฐฯ จำกัดการส่งออกชิป AI ระดับสูงไปยังจีน
    เช่น Blackwell B100/B200 ไม่สามารถขายให้ได้

    NVIDIA เสนอชิปรุ่นลดสเปก เช่น Hopper และ B40
    แต่ยังไม่ตอบโจทย์การแข่งขันในจีน

    การกลับเข้าสู่ตลาดจีนต้องผ่านการอนุมัติจากทั้งสองประเทศ
    และเผชิญกับการแข่งขันภายในที่รุนแรง

    https://wccftech.com/our-market-share-dropped-from-95-to-0-in-china-says-nvidia-ceo/
    🇨🇳 “NVIDIA สูญตลาดจีน 100% — Jensen Huang เผย ‘จาก 95% เหลือ 0%’” Jensen Huang ซีอีโอของ NVIDIA กล่าวในงาน Citadel Securities Future Of Global Markets 2025 ว่าบริษัทของเขา “ไม่มีส่วนแบ่งตลาดในจีนอีกต่อไป” โดยระบุว่า NVIDIA เคยครองตลาด AI ของจีนถึง 95% แต่ตอนนี้เหลือ 0% และ “ในทุกการคาดการณ์ของเรา เราตั้งค่าจีนเป็นศูนย์” เหตุผลหลักคือจีนกำลังเปลี่ยนไปใช้เทคโนโลยี AI ที่พัฒนาเองภายในประเทศ โดยไม่พึ่งพา NVIDIA อีกต่อไป ซึ่งเป็นผลจากข้อจำกัดด้านการส่งออกของสหรัฐฯ ที่ไม่อนุญาตให้ขายชิป AI ระดับสูงให้กับจีน โดยเฉพาะรุ่นใหม่อย่าง Blackwell B100 หรือ B200 แม้ NVIDIA จะพยายามเสนอชิปรุ่นลดสเปก เช่น Hopper หรือ Blackwell B40 แต่ก็ยังไม่สามารถตอบโจทย์ความต้องการของบริษัทเทคโนโลยีจีนได้ โดยเฉพาะเมื่อคู่แข่งอย่าง Huawei และ Cambricon กำลังเร่งพัฒนา AI chip ของตัวเองอย่างจริงจัง Jensen ยอมรับว่า “หากมีอะไรเกิดขึ้นในจีน ก็ถือเป็นโบนัส” และมองว่าการกลับเข้าสู่ตลาดจีนจะเป็นเรื่องยากมากในอนาคต เพราะต้องผ่านการอนุมัติจากทั้งสองประเทศ และเผชิญกับการแข่งขันภายในที่รุนแรงขึ้นเรื่อย ๆ ✅ Jensen Huang ระบุว่า NVIDIA สูญเสียตลาดจีนทั้งหมด ➡️ จาก 95% เหลือ 0% ในการคาดการณ์ของบริษัท ✅ เหตุผลหลักคือจีนหันไปใช้เทคโนโลยี AI ที่พัฒนาเอง ➡️ เช่น Huawei และ Cambricon ที่มี roadmap ชิป AI ของตัวเอง ✅ สหรัฐฯ จำกัดการส่งออกชิป AI ระดับสูงไปยังจีน ➡️ เช่น Blackwell B100/B200 ไม่สามารถขายให้ได้ ✅ NVIDIA เสนอชิปรุ่นลดสเปก เช่น Hopper และ B40 ➡️ แต่ยังไม่ตอบโจทย์การแข่งขันในจีน ✅ การกลับเข้าสู่ตลาดจีนต้องผ่านการอนุมัติจากทั้งสองประเทศ ➡️ และเผชิญกับการแข่งขันภายในที่รุนแรง https://wccftech.com/our-market-share-dropped-from-95-to-0-in-china-says-nvidia-ceo/
    WCCFTECH.COM
    “Our Market Share Dropped From 95% to 0%,” Says NVIDIA CEO Jensen Huang in a ‘Temporary Goodbye’ to China’s AI Market
    NVIDIA's CEO has once again commented on the firm's 'desperate' position in China, claiming that its market share has now plunged to 0%.
    0 ความคิดเห็น 0 การแบ่งปัน 166 มุมมอง 0 รีวิว
  • “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ

    ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน

    Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7

    Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด

    Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10
    วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน

    ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน
    ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4)

    มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB
    รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก.
    พกพาสะดวกแต่ทรงพลัง

    พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet
    รองรับการใช้งานระดับมืออาชีพ

    รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7
    ขยายการประมวลผลแบบ local ได้

    https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    🖥️ “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด ✅ Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10 ➡️ วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน ✅ ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน ➡️ ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4) ✅ มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB ➡️ รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ ✅ ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก. ➡️ พกพาสะดวกแต่ทรงพลัง ✅ พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet ➡️ รองรับการใช้งานระดับมืออาชีพ ✅ รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 ➡️ ขยายการประมวลผลแบบ local ได้ https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    0 ความคิดเห็น 0 การแบ่งปัน 191 มุมมอง 0 รีวิว
  • “Intel Foundry คว้าดีลผลิตชิป AI Maia 2 ให้ Microsoft บนเทคโนโลยี 18A” — ก้าวสำคัญสู่ความร่วมมือระยะยาวในยุค AI

    Intel Foundry ได้รับสัญญาผลิตชิป AI รุ่นใหม่ของ Microsoft ในตระกูล Maia 2 โดยใช้เทคโนโลยีการผลิตระดับ 18A และ 18A-P ซึ่งถือเป็นหนึ่งในกระบวนการผลิตที่ล้ำหน้าที่สุดของ Intel ในปัจจุบัน โดยรายงานจาก SemiAccurate ระบุว่า Microsoft จะใช้ Intel Foundry เป็นฐานการผลิตหลักสำหรับชิป AI รุ่นถัดไป ซึ่งอาจเป็นจุดเริ่มต้นของความร่วมมือระยะยาวระหว่างสองยักษ์ใหญ่

    Maia 2 เป็นชิป AI ขนาดใหญ่ระดับใกล้ reticle size (ประมาณ 820 mm²) ที่ออกแบบมาเพื่อใช้งานในศูนย์ข้อมูล Azure โดยมีเป้าหมายเพื่อเพิ่มประสิทธิภาพและลดต้นทุนการเป็นเจ้าของ (TCO) เมื่อเทียบกับการใช้ GPU จาก Nvidia ซึ่ง Microsoft ยังใช้อยู่เป็นหลักในปัจจุบัน

    การเลือก Intel Foundry แทน TSMC มีความหมายเชิงยุทธศาสตร์ เพราะช่วยลดความเสี่ยงจากข้อจำกัดด้านกำลังการผลิตและการบรรจุชิปขั้นสูงที่ TSMC เผชิญอยู่ อีกทั้งยังสอดคล้องกับนโยบายของรัฐบาลสหรัฐฯ ที่สนับสนุนการผลิตชิปภายในประเทศ

    Intel คาดว่าเทคโนโลยี 18A จะมี yield สูงพอสำหรับการผลิตชิปขนาดใหญ่แบบนี้ โดยอาจใช้เทคนิค partitioning เป็น chiplet หลายตัวเชื่อมด้วย EMIB หรือ Foveros แต่ Microsoft น่าจะเลือกใช้ดีไซน์แบบ monolithic เพื่อประสิทธิภาพสูงสุด

    Intel Foundry ได้รับสัญญาผลิตชิป AI Maia 2 ให้ Microsoft
    ใช้เทคโนโลยีการผลิตระดับ 18A และ 18A-P

    Maia 2 เป็นชิปขนาดใหญ่ระดับใกล้ reticle size (820 mm²)
    มีทรานซิสเตอร์มากกว่า 105 พันล้านตัว

    Microsoft ใช้ชิปนี้ในศูนย์ข้อมูล Azure เพื่อเพิ่มประสิทธิภาพและลด TCO
    เปรียบเทียบกับ GPU จาก Nvidia ที่ใช้อยู่ในปัจจุบัน

    การเลือก Intel Foundry ช่วยลดความเสี่ยงจากข้อจำกัดของ TSMC
    ทั้งด้านกำลังการผลิตและการบรรจุชิปขั้นสูง

    สอดคล้องกับนโยบายของรัฐบาลสหรัฐฯ ที่สนับสนุนการผลิตในประเทศ
    เพิ่มความมั่นคงของห่วงโซ่อุปทาน

    Intel คาดว่า yield ของ 18A จะสูงพอสำหรับชิปขนาดใหญ่
    อาจใช้ EMIB หรือ Foveros หากต้องแบ่งเป็น chiplet

    https://www.tomshardware.com/tech-industry/semiconductors/intel-foundry-secures-contract-to-build-microsofts-maia-2-next-gen-ai-processor-on-18a-18a-p-node-claims-report-could-be-first-step-in-ongoing-partnership
    🤝 “Intel Foundry คว้าดีลผลิตชิป AI Maia 2 ให้ Microsoft บนเทคโนโลยี 18A” — ก้าวสำคัญสู่ความร่วมมือระยะยาวในยุค AI Intel Foundry ได้รับสัญญาผลิตชิป AI รุ่นใหม่ของ Microsoft ในตระกูล Maia 2 โดยใช้เทคโนโลยีการผลิตระดับ 18A และ 18A-P ซึ่งถือเป็นหนึ่งในกระบวนการผลิตที่ล้ำหน้าที่สุดของ Intel ในปัจจุบัน โดยรายงานจาก SemiAccurate ระบุว่า Microsoft จะใช้ Intel Foundry เป็นฐานการผลิตหลักสำหรับชิป AI รุ่นถัดไป ซึ่งอาจเป็นจุดเริ่มต้นของความร่วมมือระยะยาวระหว่างสองยักษ์ใหญ่ Maia 2 เป็นชิป AI ขนาดใหญ่ระดับใกล้ reticle size (ประมาณ 820 mm²) ที่ออกแบบมาเพื่อใช้งานในศูนย์ข้อมูล Azure โดยมีเป้าหมายเพื่อเพิ่มประสิทธิภาพและลดต้นทุนการเป็นเจ้าของ (TCO) เมื่อเทียบกับการใช้ GPU จาก Nvidia ซึ่ง Microsoft ยังใช้อยู่เป็นหลักในปัจจุบัน การเลือก Intel Foundry แทน TSMC มีความหมายเชิงยุทธศาสตร์ เพราะช่วยลดความเสี่ยงจากข้อจำกัดด้านกำลังการผลิตและการบรรจุชิปขั้นสูงที่ TSMC เผชิญอยู่ อีกทั้งยังสอดคล้องกับนโยบายของรัฐบาลสหรัฐฯ ที่สนับสนุนการผลิตชิปภายในประเทศ Intel คาดว่าเทคโนโลยี 18A จะมี yield สูงพอสำหรับการผลิตชิปขนาดใหญ่แบบนี้ โดยอาจใช้เทคนิค partitioning เป็น chiplet หลายตัวเชื่อมด้วย EMIB หรือ Foveros แต่ Microsoft น่าจะเลือกใช้ดีไซน์แบบ monolithic เพื่อประสิทธิภาพสูงสุด ✅ Intel Foundry ได้รับสัญญาผลิตชิป AI Maia 2 ให้ Microsoft ➡️ ใช้เทคโนโลยีการผลิตระดับ 18A และ 18A-P ✅ Maia 2 เป็นชิปขนาดใหญ่ระดับใกล้ reticle size (820 mm²) ➡️ มีทรานซิสเตอร์มากกว่า 105 พันล้านตัว ✅ Microsoft ใช้ชิปนี้ในศูนย์ข้อมูล Azure เพื่อเพิ่มประสิทธิภาพและลด TCO ➡️ เปรียบเทียบกับ GPU จาก Nvidia ที่ใช้อยู่ในปัจจุบัน ✅ การเลือก Intel Foundry ช่วยลดความเสี่ยงจากข้อจำกัดของ TSMC ➡️ ทั้งด้านกำลังการผลิตและการบรรจุชิปขั้นสูง ✅ สอดคล้องกับนโยบายของรัฐบาลสหรัฐฯ ที่สนับสนุนการผลิตในประเทศ ➡️ เพิ่มความมั่นคงของห่วงโซ่อุปทาน ✅ Intel คาดว่า yield ของ 18A จะสูงพอสำหรับชิปขนาดใหญ่ ➡️ อาจใช้ EMIB หรือ Foveros หากต้องแบ่งเป็น chiplet https://www.tomshardware.com/tech-industry/semiconductors/intel-foundry-secures-contract-to-build-microsofts-maia-2-next-gen-ai-processor-on-18a-18a-p-node-claims-report-could-be-first-step-in-ongoing-partnership
    0 ความคิดเห็น 0 การแบ่งปัน 180 มุมมอง 0 รีวิว
Pages Boosts