• TSMC เคยประกาศลงทุนกว่า $100,000 ล้านในสหรัฐฯ และล่าสุดตามรายงานของ Wall Street Journal ดูเหมือนว่าพวกเขา “ไม่เพียงแค่ลงทุน” แต่ถึงขั้น “ปรับลำดับความสำคัญทั่วโลก” → โรงงานใหม่ในญี่ปุ่นถูกชะลอแบบไม่มีกำหนด → โครงการในเยอรมนีและที่อื่นก็ถูกเบรก → ทั้งหมดเพื่อเทงบ–ทรัพยากร–ทีมงานลงที่โรงงานในแอริโซนา ที่ตอนนี้ผลิตชิปรุ่นล่าสุด และจ่อขยายไปถึงระดับ 1.4nm ภายในปี 2030

    เหตุผลสำคัญไม่ใช่แค่การตามลูกค้าอย่าง Apple, Nvidia หรือ Microsoft เท่านั้น แต่คือ แรงกดดันจากฝ่ายการเมืองอเมริกัน โดยเฉพาะแผนของอดีตประธานาธิบดีโดนัลด์ ทรัมป์ ที่อาจตั้งภาษีชิปนำเข้าสูงถึง 100% หากผลิตนอกสหรัฐฯ

    TSMC ปรับลำดับความสำคัญระดับโลก → เทน้ำหนักไปที่โรงงานในรัฐแอริโซนา สหรัฐอเมริกา  
    • ชะลอโครงการโรงงานแห่งที่ 2 ในญี่ปุ่นแบบไม่มีกำหนด  
    • ชะลอแผนในเยอรมนีด้วย  
    • โรงงานในแอริโซนาเป็นแห่งเดียวในต่างประเทศที่ผลิตชิปขั้นสูงนอกไต้หวัน

    แหล่งข่าวเผยว่าแรงผลักดันหลักคือความกลัว “ภาษีทรัมป์” ที่อาจตั้งขึ้นมาใหม่หาก Trump กลับมาเป็นประธานาธิบดี  
    • มีรายงานว่าเตรียมใช้มาตรการขึ้นภาษีชิปนำเข้าสูงสุดถึง 100%  
    • ผลักดันยุทธศาสตร์ “Made in USA” ของฝ่ายอนุรักษนิยม

    TSMC Arizona Fab ได้รับความสนใจจากลูกค้าใหญ่ ๆ เช่น Nvidia, Apple, Microsoft  
    • โรงงานจ่อขยายไปถึงระดับ 1.4nm ภายในทศวรรษนี้  
    • สั่งผลิตเต็มทุกไลน์แล้วในปัจจุบัน

    บริษัทร่วมในห่วงโซ่ เช่น Foxconn และ Quanta ก็กำลังย้ายฐานการผลิตมายังอเมริกาเพื่อลดความเสี่ยง

    https://wccftech.com/tsmc-has-reportedly-prioritized-setting-up-plants-in-the-us-over-other-region/
    TSMC เคยประกาศลงทุนกว่า $100,000 ล้านในสหรัฐฯ และล่าสุดตามรายงานของ Wall Street Journal ดูเหมือนว่าพวกเขา “ไม่เพียงแค่ลงทุน” แต่ถึงขั้น “ปรับลำดับความสำคัญทั่วโลก” → โรงงานใหม่ในญี่ปุ่นถูกชะลอแบบไม่มีกำหนด → โครงการในเยอรมนีและที่อื่นก็ถูกเบรก → ทั้งหมดเพื่อเทงบ–ทรัพยากร–ทีมงานลงที่โรงงานในแอริโซนา ที่ตอนนี้ผลิตชิปรุ่นล่าสุด และจ่อขยายไปถึงระดับ 1.4nm ภายในปี 2030 เหตุผลสำคัญไม่ใช่แค่การตามลูกค้าอย่าง Apple, Nvidia หรือ Microsoft เท่านั้น แต่คือ แรงกดดันจากฝ่ายการเมืองอเมริกัน โดยเฉพาะแผนของอดีตประธานาธิบดีโดนัลด์ ทรัมป์ ที่อาจตั้งภาษีชิปนำเข้าสูงถึง 100% หากผลิตนอกสหรัฐฯ ✅ TSMC ปรับลำดับความสำคัญระดับโลก → เทน้ำหนักไปที่โรงงานในรัฐแอริโซนา สหรัฐอเมริกา   • ชะลอโครงการโรงงานแห่งที่ 2 ในญี่ปุ่นแบบไม่มีกำหนด   • ชะลอแผนในเยอรมนีด้วย   • โรงงานในแอริโซนาเป็นแห่งเดียวในต่างประเทศที่ผลิตชิปขั้นสูงนอกไต้หวัน ✅ แหล่งข่าวเผยว่าแรงผลักดันหลักคือความกลัว “ภาษีทรัมป์” ที่อาจตั้งขึ้นมาใหม่หาก Trump กลับมาเป็นประธานาธิบดี   • มีรายงานว่าเตรียมใช้มาตรการขึ้นภาษีชิปนำเข้าสูงสุดถึง 100%   • ผลักดันยุทธศาสตร์ “Made in USA” ของฝ่ายอนุรักษนิยม ✅ TSMC Arizona Fab ได้รับความสนใจจากลูกค้าใหญ่ ๆ เช่น Nvidia, Apple, Microsoft   • โรงงานจ่อขยายไปถึงระดับ 1.4nm ภายในทศวรรษนี้   • สั่งผลิตเต็มทุกไลน์แล้วในปัจจุบัน ✅ บริษัทร่วมในห่วงโซ่ เช่น Foxconn และ Quanta ก็กำลังย้ายฐานการผลิตมายังอเมริกาเพื่อลดความเสี่ยง https://wccftech.com/tsmc-has-reportedly-prioritized-setting-up-plants-in-the-us-over-other-region/
    WCCFTECH.COM
    TSMC Has Reportedly Prioritized Setting Up Plants in the U.S. Over Other Regions Due to Fears of "Trump Tariffs"
    TSMC has decided to prioritize America over all other nations where it is building facilities, as it is pouring massive funds into it.
    0 Comments 0 Shares 69 Views 0 Reviews
  • ลองนึกภาพว่าเมื่อไม่กี่ปีก่อน Nvidia ยังเป็นบริษัททำการ์ดจอเกมเป็นหลัก มูลค่าราว $500 พันล้าน → แต่ตอนนี้ (กลางปี 2025) Nvidia กำลังแตะมูลค่า $4 ล้านล้านดอลลาร์ โดย  
    • เคยแตะ $3.92T ระหว่างวัน (intraday)  
    • ปิดที่ $3.89T  
    • แซงสถิติเดิมของ Apple ที่เคยปิดที่ $3.915T เมื่อปลายปี 2024

    สาเหตุหลักมาจากความ “บูม” ของตลาด AI — โดย Nvidia ควบคุม ฮาร์ดแวร์ AI ระดับสูง ที่ใช้เทรนและรัน LLM แทบทั้งหมด
    → ทำให้กลายเป็น “หัวใจกลางของยุค AI Infrastructure” ที่ทั้ง Microsoft, Amazon, Meta, Tesla และ Alphabet ต้องพึ่งพา
    → ในไตรมาสล่าสุด Nvidia ทำรายได้ $44.1B (+69%)  
    • เฉพาะส่วน Data Center ก็ทำถึง $39.1B  
    • วางเป้า $170B รายได้รวมในปีงบประมาณ 2026 (ขึ้นจาก $130B ในปี 2025)

    และที่น่าสนใจคือ…
    → มูลค่าตลาดของ Nvidia สูงกว่ารวมกันของบริษัทจดทะเบียนทั้งประเทศอังกฤษ
    → นักลงทุนที่ถือดัชนีแบบ S&P 500 ตอนนี้มีสัดส่วน Nvidia เพิ่มขึ้นอย่างมากโดยไม่รู้ตัว

    https://www.techspot.com/news/108558-nvidia-closes-4-trillion-valuation-surpasses-apple-record.html
    ลองนึกภาพว่าเมื่อไม่กี่ปีก่อน Nvidia ยังเป็นบริษัททำการ์ดจอเกมเป็นหลัก มูลค่าราว $500 พันล้าน → แต่ตอนนี้ (กลางปี 2025) Nvidia กำลังแตะมูลค่า $4 ล้านล้านดอลลาร์ โดย   • เคยแตะ $3.92T ระหว่างวัน (intraday)   • ปิดที่ $3.89T   • แซงสถิติเดิมของ Apple ที่เคยปิดที่ $3.915T เมื่อปลายปี 2024 สาเหตุหลักมาจากความ “บูม” ของตลาด AI — โดย Nvidia ควบคุม ฮาร์ดแวร์ AI ระดับสูง ที่ใช้เทรนและรัน LLM แทบทั้งหมด → ทำให้กลายเป็น “หัวใจกลางของยุค AI Infrastructure” ที่ทั้ง Microsoft, Amazon, Meta, Tesla และ Alphabet ต้องพึ่งพา → ในไตรมาสล่าสุด Nvidia ทำรายได้ $44.1B (+69%)   • เฉพาะส่วน Data Center ก็ทำถึง $39.1B   • วางเป้า $170B รายได้รวมในปีงบประมาณ 2026 (ขึ้นจาก $130B ในปี 2025) และที่น่าสนใจคือ… → มูลค่าตลาดของ Nvidia สูงกว่ารวมกันของบริษัทจดทะเบียนทั้งประเทศอังกฤษ 🇬🇧 → นักลงทุนที่ถือดัชนีแบบ S&P 500 ตอนนี้มีสัดส่วน Nvidia เพิ่มขึ้นอย่างมากโดยไม่รู้ตัว https://www.techspot.com/news/108558-nvidia-closes-4-trillion-valuation-surpasses-apple-record.html
    WWW.TECHSPOT.COM
    Nvidia closes in on $4 trillion valuation, surpasses Apple's record
    "When the first company crossed a trillion dollars, it was amazing. And now you're talking four trillion, which is just incredible. It tells you that there's this...
    0 Comments 0 Shares 48 Views 0 Reviews
  • สหรัฐฯ มีแผนจะจำกัดการส่งออกชิป AI จากบริษัทต่างๆ เช่น Nvidia ไปยังมาเลเซียและไทย หวั่นถูกใช้เป็นเส้นทางลักลอบเข้าจีน
    สหรัฐฯ มีแผนจะจำกัดการส่งออกชิป AI จากบริษัทต่างๆ เช่น Nvidia ไปยังมาเลเซียและไทย หวั่นถูกใช้เป็นเส้นทางลักลอบเข้าจีน
    0 Comments 0 Shares 100 Views 0 Reviews
  • ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว
    → ติดตั้งที่ศูนย์ข้อมูลของ Switch
    → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี
     • 72 GPU (Blackwell Ultra)
     • 36 CPU (Grace 72-core)
      • 36 DPU (BlueField)
    → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB
    → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8)
    → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU

    ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก

    สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว → ติดตั้งที่ศูนย์ข้อมูลของ Switch → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี  • 72 GPU (Blackwell Ultra)  • 36 CPU (Grace 72-core)   • 36 DPU (BlueField) → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB 🔥 → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8) → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU 😮💧 ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    0 Comments 0 Shares 78 Views 0 Reviews
  • ย้อนกลับไปปี 2022 Samsung เริ่มลงทุนสร้างโรงงานผลิตชิปแห่งใหม่ที่เมือง Taylor, Texas ด้วยความหวังจะยึดหัวหาดในตลาดอเมริกา

    → เดิมวางแผนใช้สายการผลิตระดับ 4nm และต่อมาอัปเกรดไปเป็น 2nm เพื่อแข่งขันกับ TSMC/Intel → ทุ่มงบจากเดิม $17B เพิ่มเป็น $44B → รับเงินสนับสนุนจาก CHIPS Act กว่า $6.6B

    แต่ถึงตอนนี้...อุปกรณ์เครื่องจักรยังไม่ได้ติดตั้ง และแหล่งข่าวบอกว่า เหตุผลสำคัญคือ “ยังไม่มีลูกค้า” และ “ความต้องการชิประดับนี้ในสหรัฐฯ ยังน้อย”

    ตรงกันข้ามกับ TSMC ที่โรงงานในแอริโซนาแม้ผลิตชิปราคาแพงกว่าจากต่างประเทศ แต่ มีลูกค้าเต็มล่วงหน้าถึงปี 2027 แล้ว เช่น Apple, AMD, Nvidia, Qualcomm

    สรุปคือ: Samsung อาจสร้างโรงงานทัน แต่ถ้าไม่มีลูกค้ามารอใช้สายการผลิต — ก็ยังเดินหน้าต่อไม่ได้

    Samsung ชะลอการเปิดโรงงานผลิตชิปที่ Taylor, Texas มูลค่า $44,000 ล้าน  
    • แม้โครงสร้างก่อสร้างจะเสร็จแล้ว 92% ณ มีนาคม 2024  
    • เดิมมีกำหนดแล้วเสร็จเมษายน 2024 แต่ถูกเลื่อนไปตุลาคม

    เหตุหลักของความล่าช้า: “ยังไม่มีลูกค้า และ node 4nm ที่วางแผนไว้ไม่ตรงกับตลาดปัจจุบัน”  
    • บริษัทวางแผนอัปเกรดเป็น 2nm แต่ต้องใช้เวลา–เงิน–คน–เทคโนโลยีจำนวนมาก

    เปรียบเทียบกับ TSMC ที่ Fab 21 ในรัฐแอริโซนา
    • ผลิตชิประดับ 4nm  
    • ลูกค้าหลัก: Apple, AMD, Nvidia, Broadcom  
    • ปริมาณการสั่งผลิตถูกจองหมดถึงปี 2027 แม้ราคาสูง

    Samsung มีตลาดโรงหล่อ (foundry market share) เพียง 7.7% เทียบกับ TSMC ที่ถือ 68%

    แม้เทคโนโลยีพร้อม แต่ยังต้องสร้างทีมงาน ทดสอบอุปกรณ์ และรับมือกับต้นทุนติดตั้งที่สูง (เฉพาะ EUV เครื่องพิมพ์ลายวงจร ก็ใช้เวลาติดตั้งนานมาก)

    Samsung ยืนยันว่าจะเดินหน้าเปิดโรงงานให้ทันปี 2026 เพื่อไม่ให้เสียสิทธิ์เงินสนับสนุนจาก CHIPS Act

    https://www.tomshardware.com/tech-industry/semiconductors/samsung-delays-usd44-billion-texas-chip-fab-sources-say-completion-halted-because-there-are-no-customers
    ย้อนกลับไปปี 2022 Samsung เริ่มลงทุนสร้างโรงงานผลิตชิปแห่งใหม่ที่เมือง Taylor, Texas ด้วยความหวังจะยึดหัวหาดในตลาดอเมริกา → เดิมวางแผนใช้สายการผลิตระดับ 4nm และต่อมาอัปเกรดไปเป็น 2nm เพื่อแข่งขันกับ TSMC/Intel → ทุ่มงบจากเดิม $17B เพิ่มเป็น $44B → รับเงินสนับสนุนจาก CHIPS Act กว่า $6.6B แต่ถึงตอนนี้...อุปกรณ์เครื่องจักรยังไม่ได้ติดตั้ง และแหล่งข่าวบอกว่า เหตุผลสำคัญคือ “ยังไม่มีลูกค้า” และ “ความต้องการชิประดับนี้ในสหรัฐฯ ยังน้อย” ตรงกันข้ามกับ TSMC ที่โรงงานในแอริโซนาแม้ผลิตชิปราคาแพงกว่าจากต่างประเทศ แต่ มีลูกค้าเต็มล่วงหน้าถึงปี 2027 แล้ว เช่น Apple, AMD, Nvidia, Qualcomm สรุปคือ: Samsung อาจสร้างโรงงานทัน แต่ถ้าไม่มีลูกค้ามารอใช้สายการผลิต — ก็ยังเดินหน้าต่อไม่ได้ ✅ Samsung ชะลอการเปิดโรงงานผลิตชิปที่ Taylor, Texas มูลค่า $44,000 ล้าน   • แม้โครงสร้างก่อสร้างจะเสร็จแล้ว 92% ณ มีนาคม 2024   • เดิมมีกำหนดแล้วเสร็จเมษายน 2024 แต่ถูกเลื่อนไปตุลาคม ✅ เหตุหลักของความล่าช้า: “ยังไม่มีลูกค้า และ node 4nm ที่วางแผนไว้ไม่ตรงกับตลาดปัจจุบัน”   • บริษัทวางแผนอัปเกรดเป็น 2nm แต่ต้องใช้เวลา–เงิน–คน–เทคโนโลยีจำนวนมาก ✅ เปรียบเทียบกับ TSMC ที่ Fab 21 ในรัฐแอริโซนา • ผลิตชิประดับ 4nm   • ลูกค้าหลัก: Apple, AMD, Nvidia, Broadcom   • ปริมาณการสั่งผลิตถูกจองหมดถึงปี 2027 แม้ราคาสูง ✅ Samsung มีตลาดโรงหล่อ (foundry market share) เพียง 7.7% เทียบกับ TSMC ที่ถือ 68% ✅ แม้เทคโนโลยีพร้อม แต่ยังต้องสร้างทีมงาน ทดสอบอุปกรณ์ และรับมือกับต้นทุนติดตั้งที่สูง (เฉพาะ EUV เครื่องพิมพ์ลายวงจร ก็ใช้เวลาติดตั้งนานมาก) ✅ Samsung ยืนยันว่าจะเดินหน้าเปิดโรงงานให้ทันปี 2026 เพื่อไม่ให้เสียสิทธิ์เงินสนับสนุนจาก CHIPS Act https://www.tomshardware.com/tech-industry/semiconductors/samsung-delays-usd44-billion-texas-chip-fab-sources-say-completion-halted-because-there-are-no-customers
    0 Comments 0 Shares 78 Views 0 Reviews
  • Jim Farley ซีอีโอของ Ford กล่าวในงาน Aspen Ideas Festival ว่า “ในอีกไม่กี่ปี AI อาจแทนที่งานของพนักงานสาย white-collar ได้ถึงครึ่งหนึ่งทั่วสหรัฐฯ” — โดยเฉพาะงานที่เกี่ยวข้องกับเอกสาร, การวิเคราะห์, การเขียนรายงาน, งานธุรการ หรือแม้แต่งานด้านกฎหมายและการเงิน

    เขาไม่ได้พูดคนเดียวครับ — บิ๊กเทคอย่าง Amazon, Spotify, Fiverr, Moderna, Anthropic และแม้แต่ JPMorgan Chase ต่างก็เตือนในทางเดียวกัน:
    - CEO ของ Amazon บอกว่า “หลายตำแหน่งจะหายไป” แต่จะมีโอกาสใหม่เกิดในสายงาน STEM และ Robotics
    - CEO ของ Anthropic ถึงขั้นคาดว่า "AI จะลบงานระดับเริ่มต้น (entry-level white-collar) ไปครึ่งหนึ่งใน 5 ปี" และอาจเพิ่มอัตราการว่างงาน 10-20%
    - CPO ของ Anthropic ยังบอกว่า “ลังเลที่จะจ้างเด็กจบใหม่” เพราะไม่แน่ใจว่างานที่พวกเขาทำจะยังอยู่ไหม
    - CEO ของ Fiverr, Spotify, Moderna ต่างก็พูดในทำนองเดียวกันว่า “แม้แต่งานสายเทคที่ดูรอด ก็ไม่รอด”

    ฝั่งคนทำงานเองก็เริ่มหวั่น — รายงานจาก PYMNTs (พฤษภาคม 2025) พบว่า คนอเมริกัน 54% มองว่า AI กำลังคุกคามงานของพวกเขา และยิ่งเรียนสูง–เก่งเทค ยิ่งกลัวหนัก

    ในขณะที่ฝั่งตรงข้ามอย่าง Jensen Huang (CEO ของ Nvidia) กลับบอกว่า “การมองว่า AI จะลบงานเป็นเรื่องเว่อร์เกินจริง” และสนับสนุนให้พัฒนาร่วมกันอย่างโปร่งใส

    Ford CEO เตือนว่า AI อาจแทนงาน white-collar ครึ่งหนึ่งในสหรัฐอเมริกาในไม่กี่ปี  
    • โดยเฉพาะสายงานวิเคราะห์, เอกสาร, บริหาร ฯลฯ

    Amazon, Anthropic, Fiverr, Spotify, JPMorgan, และ Moderna แสดงความกังวลเช่นกัน  
    • Anthropic คาดการว่างงานอาจเพิ่ม 10-20% ภายใน 5 ปี  
    • CEO ของบางบริษัทเริ่ม “หยุดจ้างเด็กจบใหม่” เพราะไม่แน่ใจอนาคตตำแหน่งงาน

    งานที่ AI อาจแทนที่ได้ รวมถึง:  
    • โปรแกรมเมอร์, นักออกแบบ, ผู้จัดการผลิตภัณฑ์  
    • นักวิทยาศาสตร์ข้อมูล, ทนายความ, ฝ่ายซัพพอร์ต, ฝ่ายขาย, นักวิเคราะห์การเงิน

    Moderna ตั้งเป้า “ไม่ต้องการพนักงานมากกว่าหลักพันคน” เพราะใช้ AI  
    • จากเดิมที่บริษัทในระดับเดียวกันอาจมีคนเป็นหมื่น

    ผลสำรวจในสหรัฐฯ พ.ค. 2025 พบว่า 54% ของพนักงานเชื่อว่า AI กำลังคุกคามงานของตน  
    • โดยกลุ่มที่เรียนสูงและทำงานสายเทคมีความกังวลมากที่สุด

    มีเพียง Jensen Huang (CEO ของ Nvidia) ที่ออกมาบอกว่า “มองโลกในแง่ร้ายเกินไป”

    https://www.techspot.com/news/108552-ford-ceo-warns-generative-ai-could-eliminate-half.html
    Jim Farley ซีอีโอของ Ford กล่าวในงาน Aspen Ideas Festival ว่า “ในอีกไม่กี่ปี AI อาจแทนที่งานของพนักงานสาย white-collar ได้ถึงครึ่งหนึ่งทั่วสหรัฐฯ” — โดยเฉพาะงานที่เกี่ยวข้องกับเอกสาร, การวิเคราะห์, การเขียนรายงาน, งานธุรการ หรือแม้แต่งานด้านกฎหมายและการเงิน เขาไม่ได้พูดคนเดียวครับ — บิ๊กเทคอย่าง Amazon, Spotify, Fiverr, Moderna, Anthropic และแม้แต่ JPMorgan Chase ต่างก็เตือนในทางเดียวกัน: - CEO ของ Amazon บอกว่า “หลายตำแหน่งจะหายไป” แต่จะมีโอกาสใหม่เกิดในสายงาน STEM และ Robotics - CEO ของ Anthropic ถึงขั้นคาดว่า "AI จะลบงานระดับเริ่มต้น (entry-level white-collar) ไปครึ่งหนึ่งใน 5 ปี" และอาจเพิ่มอัตราการว่างงาน 10-20% - CPO ของ Anthropic ยังบอกว่า “ลังเลที่จะจ้างเด็กจบใหม่” เพราะไม่แน่ใจว่างานที่พวกเขาทำจะยังอยู่ไหม - CEO ของ Fiverr, Spotify, Moderna ต่างก็พูดในทำนองเดียวกันว่า “แม้แต่งานสายเทคที่ดูรอด ก็ไม่รอด” ฝั่งคนทำงานเองก็เริ่มหวั่น — รายงานจาก PYMNTs (พฤษภาคม 2025) พบว่า คนอเมริกัน 54% มองว่า AI กำลังคุกคามงานของพวกเขา และยิ่งเรียนสูง–เก่งเทค ยิ่งกลัวหนัก ในขณะที่ฝั่งตรงข้ามอย่าง Jensen Huang (CEO ของ Nvidia) กลับบอกว่า “การมองว่า AI จะลบงานเป็นเรื่องเว่อร์เกินจริง” และสนับสนุนให้พัฒนาร่วมกันอย่างโปร่งใส ✅ Ford CEO เตือนว่า AI อาจแทนงาน white-collar ครึ่งหนึ่งในสหรัฐอเมริกาในไม่กี่ปี   • โดยเฉพาะสายงานวิเคราะห์, เอกสาร, บริหาร ฯลฯ ✅ Amazon, Anthropic, Fiverr, Spotify, JPMorgan, และ Moderna แสดงความกังวลเช่นกัน   • Anthropic คาดการว่างงานอาจเพิ่ม 10-20% ภายใน 5 ปี   • CEO ของบางบริษัทเริ่ม “หยุดจ้างเด็กจบใหม่” เพราะไม่แน่ใจอนาคตตำแหน่งงาน ✅ งานที่ AI อาจแทนที่ได้ รวมถึง:   • โปรแกรมเมอร์, นักออกแบบ, ผู้จัดการผลิตภัณฑ์   • นักวิทยาศาสตร์ข้อมูล, ทนายความ, ฝ่ายซัพพอร์ต, ฝ่ายขาย, นักวิเคราะห์การเงิน ✅ Moderna ตั้งเป้า “ไม่ต้องการพนักงานมากกว่าหลักพันคน” เพราะใช้ AI   • จากเดิมที่บริษัทในระดับเดียวกันอาจมีคนเป็นหมื่น ✅ ผลสำรวจในสหรัฐฯ พ.ค. 2025 พบว่า 54% ของพนักงานเชื่อว่า AI กำลังคุกคามงานของตน   • โดยกลุ่มที่เรียนสูงและทำงานสายเทคมีความกังวลมากที่สุด ✅ มีเพียง Jensen Huang (CEO ของ Nvidia) ที่ออกมาบอกว่า “มองโลกในแง่ร้ายเกินไป” https://www.techspot.com/news/108552-ford-ceo-warns-generative-ai-could-eliminate-half.html
    WWW.TECHSPOT.COM
    Ford CEO joins list of execs warning AI could eliminate millions of white-collar jobs
    Farley did not elaborate on his views, but he is hardly the only Fortune 500 CEO who believes AI could spell trouble for educated white-collar workers. Leaders...
    0 Comments 0 Shares 71 Views 0 Reviews
  • รู้ไหมครับว่า CUDA คืออะไร? มันคือแพลตฟอร์มสำหรับพัฒนา AI และการประมวลผลหนัก ๆ ที่ NVIDIA ผูกขาดไว้ — คนเขียนโปรแกรมด้วย CUDA จะใช้ได้แค่บนการ์ดจอของ NVIDIA เท่านั้น → ทำให้เกิดล็อกอิน (vendor lock-in) ขนาดใหญ่ในโลก AI

    แต่ ZLUDA ซึ่งเป็นโปรเจกต์โอเพ่นซอร์ส เคยมีความหวังว่าจะ "เป็นสะพานเชื่อม" ให้คนที่เขียนโค้ดด้วย CUDA อยู่แล้ว สามารถรันบน GPU ของ Intel หรือ AMD ได้เลยโดยไม่ต้องเปลี่ยนโค้ด → ตอนแรก Intel สนับสนุน แต่ก็มือหลุด → AMD รับช่วงต่อได้ไม่นาน...ก็ถอนตัวเพราะ "ประเด็นทางกฎหมาย" → สุดท้าย ZLUDA ถูกหยุดพัฒนาไปชั่วคราว

    ล่าสุด! ZLUDA กลับมาอีกครั้ง พร้อมนักพัฒนา 2 คนที่กำลัง ผลักดันให้มันกลายเป็นระบบ multi-vendor เต็มตัว → ทำให้รันโค้ด CUDA ได้แม่นยำระดับ “bit-accurate” บน GPU แบรนด์อื่น → และเริ่มทดลองเพิ่มการรองรับ PhysX (ระบบฟิสิกส์ของ NVIDIA ด้วย)

    ZLUDA คือไลบรารีโอเพ่นซอร์สที่ช่วยให้รันโค้ด CUDA ได้บน GPU ที่ไม่ใช่ของ NVIDIA  
    • เดิมรองรับ Intel, AMD พยายามใช้แต่ถอนตัวไป  
    • ล่าสุดกลับมาอีกครั้งในเวอร์ชัน “multi-vendor”

    ตอนนี้มีนักพัฒนา 2 คนประจำ กำลังเร่งพัฒนาให้เสถียรขึ้นอย่างต่อเนื่อง  
    • ทำให้การพัฒนาเร็วขึ้น  
    • รองรับฟีเจอร์ใหม่ เช่น bit-accurate CUDA execution, การทดลองรองรับ PhysX

    เป้าหมายคือการ “ลดอำนาจผูกขาดของ CUDA” และทำให้ AI–HPC ยืดหยุ่นมากขึ้น

    ไม่มี timeline ชัดเจนว่าจะเปิดใช้งานจริงเมื่อไหร่  
    • แต่ชุมชนโอเพ่นซอร์สให้ความสนใจสูง

    https://wccftech.com/zluda-sees-major-progress-in-bringing-nvidia-cuda-code-to-other-gpus/
    รู้ไหมครับว่า CUDA คืออะไร? มันคือแพลตฟอร์มสำหรับพัฒนา AI และการประมวลผลหนัก ๆ ที่ NVIDIA ผูกขาดไว้ — คนเขียนโปรแกรมด้วย CUDA จะใช้ได้แค่บนการ์ดจอของ NVIDIA เท่านั้น → ทำให้เกิดล็อกอิน (vendor lock-in) ขนาดใหญ่ในโลก AI แต่ ZLUDA ซึ่งเป็นโปรเจกต์โอเพ่นซอร์ส เคยมีความหวังว่าจะ "เป็นสะพานเชื่อม" ให้คนที่เขียนโค้ดด้วย CUDA อยู่แล้ว สามารถรันบน GPU ของ Intel หรือ AMD ได้เลยโดยไม่ต้องเปลี่ยนโค้ด → ตอนแรก Intel สนับสนุน แต่ก็มือหลุด → AMD รับช่วงต่อได้ไม่นาน...ก็ถอนตัวเพราะ "ประเด็นทางกฎหมาย" → สุดท้าย ZLUDA ถูกหยุดพัฒนาไปชั่วคราว ล่าสุด! ZLUDA กลับมาอีกครั้ง พร้อมนักพัฒนา 2 คนที่กำลัง ผลักดันให้มันกลายเป็นระบบ multi-vendor เต็มตัว → ทำให้รันโค้ด CUDA ได้แม่นยำระดับ “bit-accurate” บน GPU แบรนด์อื่น → และเริ่มทดลองเพิ่มการรองรับ PhysX (ระบบฟิสิกส์ของ NVIDIA ด้วย) ✅ ZLUDA คือไลบรารีโอเพ่นซอร์สที่ช่วยให้รันโค้ด CUDA ได้บน GPU ที่ไม่ใช่ของ NVIDIA   • เดิมรองรับ Intel, AMD พยายามใช้แต่ถอนตัวไป   • ล่าสุดกลับมาอีกครั้งในเวอร์ชัน “multi-vendor” ✅ ตอนนี้มีนักพัฒนา 2 คนประจำ กำลังเร่งพัฒนาให้เสถียรขึ้นอย่างต่อเนื่อง   • ทำให้การพัฒนาเร็วขึ้น   • รองรับฟีเจอร์ใหม่ เช่น bit-accurate CUDA execution, การทดลองรองรับ PhysX ✅ เป้าหมายคือการ “ลดอำนาจผูกขาดของ CUDA” และทำให้ AI–HPC ยืดหยุ่นมากขึ้น ✅ ไม่มี timeline ชัดเจนว่าจะเปิดใช้งานจริงเมื่อไหร่   • แต่ชุมชนโอเพ่นซอร์สให้ความสนใจสูง https://wccftech.com/zluda-sees-major-progress-in-bringing-nvidia-cuda-code-to-other-gpus/
    WCCFTECH.COM
    Open-Source Library ZLUDA Sees Major Progress in Bringing NVIDIA's CUDA Code to Other GPUs; Doubles Developer Count
    ZLUDA has made massive headlines in the past with their "code porting" library, and it looks like the developers are geared up once again.
    0 Comments 0 Shares 113 Views 0 Reviews
  • ลองนึกภาพว่าในอดีต ตลาดเซิร์ฟเวอร์เต็มไปด้วย CPU x86 จาก Intel หรือ AMD เป็นหลัก แต่วันนี้เรากำลังเห็นการเปลี่ยนแปลงครั้งใหญ่ — เพราะ AI ต้องการ "พลังประมวลผลแบบเฉพาะทาง" มากขึ้นเรื่อย ๆ → ทำให้เซิร์ฟเวอร์ที่ใช้ AI GPU + ชิป Arm พุ่งแรง โดยเฉพาะ Nvidia Grace + Blackwell (GB200) ที่อัด GPU ถึง 8 ตัวต่อเครื่อง!

    แค่เซิร์ฟเวอร์ตระกูลนี้เพียงกลุ่มเดียวก็กลายเป็น “ตัวจุดพลุ” ให้ยอดขายเซิร์ฟเวอร์ Arm โตขึ้น 70% เทียบปีต่อปี → แม้จะยังมีส่วนแบ่งแค่ 21.1% ของยอดส่งมอบเครื่องรวม แต่ก็เป็นก้าวกระโดดที่ใหญ่ที่สุดของ Arm ในตลาดเซิร์ฟเวอร์

    และมันยังไม่หยุดแค่นี้ — เพราะ IDC คาดว่า:
    - ตลาดเซิร์ฟเวอร์รวมจะโตจาก $249B (2024) → $588B (2029)
    - โดยเซิร์ฟเวอร์ AI แบบ Accelerated จะกินส่วนแบ่งครึ่งหนึ่ง
    - และเซิร์ฟเวอร์ Arm จะโตจาก $32B → $103B ใน 5 ปี!
    - ในอนาคตยังมีโอกาสเห็นซีพียูจาก Qualcomm, Marvell, MediaTek หรือ Fujitsu ร่วมวงด้วย

    ส่วนผู้นำตลาดคืออเมริกา คิดเป็น 62% ของมูลค่าตลาดเซิร์ฟเวอร์ปี 2025 — เพราะเป็นศูนย์กลางการสร้าง AI Infrastructure พร้อมเทเงินลงในโครงการระดับ Stargate หรือ AGI อย่างต่อเนื่อง

    ตลาดเซิร์ฟเวอร์ไตรมาสแรกปี 2025 พุ่งถึง $95.2B — โตขึ้น 134% จากปีก่อนหน้า  
    • การเติบโตเร็วที่สุดที่เคยบันทึกมา  
    • ขับเคลื่อนโดยเซิร์ฟเวอร์ AI ที่มี GPU แบบเร่งความเร็ว (Accelerated Servers)

    ยอดจัดส่งเซิร์ฟเวอร์ Arm โตขึ้น 70% YoY — ส่วนใหญ่เป็นของ Nvidia GB200 NVL72  
    • ใช้ซีพียู Grace + GPU Blackwell (B200)  
    • มี GPU 8 ตัวต่อเครื่อง

    ปี 2025 คาดการณ์ตลาดเซิร์ฟเวอร์รวม $366B แบ่งเป็น:  
    • x86: $283.9B (โต 39.9%)  
    • Non-x86 (รวม Arm): $82B (โต 63.7%)

    Arm คาดจะกิน 21.1% ของยอดเครื่องเซิร์ฟเวอร์ทั่วโลกภายในสิ้นปี 2025  
    • แม้ยังห่างเป้าหมาย 50% แต่ถือเป็นการเติบโตที่มั่นคง

    ตลาด Arm-accelerated servers จะโตจาก $32B → $103B ในปี 2029  
    • ขับเคลื่อนด้วย AI แบบ reasoning model, LLM, AGI

    ตลาดใหญ่สุดคือสหรัฐฯ (โต 59.7%) > จีน (โต 39.5%) > ญี่ปุ่น (33.9%)

    https://www.tomshardware.com/desktops/servers/nvidias-arm-chips-rapidly-gain-share-in-server-market-as-ai-booms-nvidias-arm-powered-gb200-servers-surge-as-market-reaches-a-record-usd95-billion-in-the-first-quarter
    ลองนึกภาพว่าในอดีต ตลาดเซิร์ฟเวอร์เต็มไปด้วย CPU x86 จาก Intel หรือ AMD เป็นหลัก แต่วันนี้เรากำลังเห็นการเปลี่ยนแปลงครั้งใหญ่ — เพราะ AI ต้องการ "พลังประมวลผลแบบเฉพาะทาง" มากขึ้นเรื่อย ๆ → ทำให้เซิร์ฟเวอร์ที่ใช้ AI GPU + ชิป Arm พุ่งแรง โดยเฉพาะ Nvidia Grace + Blackwell (GB200) ที่อัด GPU ถึง 8 ตัวต่อเครื่อง! แค่เซิร์ฟเวอร์ตระกูลนี้เพียงกลุ่มเดียวก็กลายเป็น “ตัวจุดพลุ” ให้ยอดขายเซิร์ฟเวอร์ Arm โตขึ้น 70% เทียบปีต่อปี → แม้จะยังมีส่วนแบ่งแค่ 21.1% ของยอดส่งมอบเครื่องรวม แต่ก็เป็นก้าวกระโดดที่ใหญ่ที่สุดของ Arm ในตลาดเซิร์ฟเวอร์ และมันยังไม่หยุดแค่นี้ — เพราะ IDC คาดว่า: - ตลาดเซิร์ฟเวอร์รวมจะโตจาก $249B (2024) → $588B (2029) - โดยเซิร์ฟเวอร์ AI แบบ Accelerated จะกินส่วนแบ่งครึ่งหนึ่ง - และเซิร์ฟเวอร์ Arm จะโตจาก $32B → $103B ใน 5 ปี! - ในอนาคตยังมีโอกาสเห็นซีพียูจาก Qualcomm, Marvell, MediaTek หรือ Fujitsu ร่วมวงด้วย ส่วนผู้นำตลาดคืออเมริกา คิดเป็น 62% ของมูลค่าตลาดเซิร์ฟเวอร์ปี 2025 — เพราะเป็นศูนย์กลางการสร้าง AI Infrastructure พร้อมเทเงินลงในโครงการระดับ Stargate หรือ AGI อย่างต่อเนื่อง ✅ ตลาดเซิร์ฟเวอร์ไตรมาสแรกปี 2025 พุ่งถึง $95.2B — โตขึ้น 134% จากปีก่อนหน้า   • การเติบโตเร็วที่สุดที่เคยบันทึกมา   • ขับเคลื่อนโดยเซิร์ฟเวอร์ AI ที่มี GPU แบบเร่งความเร็ว (Accelerated Servers) ✅ ยอดจัดส่งเซิร์ฟเวอร์ Arm โตขึ้น 70% YoY — ส่วนใหญ่เป็นของ Nvidia GB200 NVL72   • ใช้ซีพียู Grace + GPU Blackwell (B200)   • มี GPU 8 ตัวต่อเครื่อง ✅ ปี 2025 คาดการณ์ตลาดเซิร์ฟเวอร์รวม $366B แบ่งเป็น:   • x86: $283.9B (โต 39.9%)   • Non-x86 (รวม Arm): $82B (โต 63.7%) ✅ Arm คาดจะกิน 21.1% ของยอดเครื่องเซิร์ฟเวอร์ทั่วโลกภายในสิ้นปี 2025   • แม้ยังห่างเป้าหมาย 50% แต่ถือเป็นการเติบโตที่มั่นคง ✅ ตลาด Arm-accelerated servers จะโตจาก $32B → $103B ในปี 2029   • ขับเคลื่อนด้วย AI แบบ reasoning model, LLM, AGI ✅ ตลาดใหญ่สุดคือสหรัฐฯ (โต 59.7%) > จีน (โต 39.5%) > ญี่ปุ่น (33.9%) https://www.tomshardware.com/desktops/servers/nvidias-arm-chips-rapidly-gain-share-in-server-market-as-ai-booms-nvidias-arm-powered-gb200-servers-surge-as-market-reaches-a-record-usd95-billion-in-the-first-quarter
    0 Comments 0 Shares 134 Views 0 Reviews
  • “บทเรียนฮาแบบเจ็บจริง” ของคนเล่น Virtual Machine (VM) — เมื่อผู้ใช้รายหนึ่งเผลอกด “Eject” การ์ดจอออกจากระบบผ่าน Windows แบบไม่ตั้งใจ ทำให้ GPU หายไปจาก VM แถมใช้เวลาตั้งชั่วโมงกว่าจะกู้กลับมาได้!

    เรื่องมันเริ่มจากคุณ YnosNava บน Reddit ซึ่งกำลังทดลองใช้ PCIe passthrough บน VM ใน Proxmox เพื่อให้ VM (เช่น Windows) เข้าถึงการ์ดจอโดยตรง — เทคนิคนี้จะทำให้การรันเกมหรือแอปกราฟิกใน VM เร็วและลื่นขึ้นมาก

    แต่...เขาดันไปเห็นการ์ดจอแสดงอยู่ใน System Tray ของ Windows พร้อมปุ่ม “Eject NVIDIA GeForce…” แล้วด้วยความอยากรู้อยากลอง เขาก็กดเลยครับ! → ผลคือล็อก VM ไม่พอ การ์ดจอหาย! → Windows มองไม่เห็นแล้ว → ต้องลบ–เพิ่มอุปกรณ์ใหม่–รีบูตหลายรอบ–ลงไดรเวอร์ใหม่กว่าจะกลับมาได้

    เคสนี้เกิดจากระบบ PCIe passthrough ที่ให้ Windows มองเห็นอุปกรณ์แบบ “hot-pluggable” (ถอดออกได้ทันที) เหมือนแฟลชไดรฟ์ — แต่แน่นอนว่าการ์ดจอไม่ใช่อะไรที่จะถอดแล้วเสียบกลับได้ในพริบตา

    เหตุเกิดจาก Windows VM ที่ใช้ PCIe passthrough บน Proxmox  
    • การ์ดจอถูก passthrough ไปให้ Windows ใช้โดยตรง  
    • Windows แสดงอุปกรณ์ว่า “ถอดออกได้” ผ่าน System Tray

    ผู้ใช้กด “Eject GPU” ด้วยความอยากรู้ → การ์ดจอหายไปจาก VM  
    • Windows ไม่สามารถตรวจเจอ GPU ได้อีก  
    • ต้องใช้เวลา 1 ชั่วโมงแก้ไข โดย:   
    – ลบอุปกรณ์ GPU ออกจากการตั้งค่า VM   
    – รีสตาร์ต VM   
    – เพิ่ม GPU กลับเข้า VM   
    – รีสตาร์ตใหม่   
    – ลงไดรเวอร์ใหม่

    นี่เป็นพฤติกรรมปกติของ passthrough แบบ PCIe ที่อนุญาตให้ Windows ถอด GPU ได้  
    • ขึ้นอยู่กับการตั้งค่า firmware/VM ว่าอนุญาตให้ hot-unplug หรือไม่

    https://www.tomshardware.com/software/windows/hilariously-unfortunate-windows-user-ejects-graphics-card-immediately-regrets-it-curiosity-killed-the-vm-acceleration
    “บทเรียนฮาแบบเจ็บจริง” ของคนเล่น Virtual Machine (VM) — เมื่อผู้ใช้รายหนึ่งเผลอกด “Eject” การ์ดจอออกจากระบบผ่าน Windows แบบไม่ตั้งใจ ทำให้ GPU หายไปจาก VM แถมใช้เวลาตั้งชั่วโมงกว่าจะกู้กลับมาได้! 😅💻💥 เรื่องมันเริ่มจากคุณ YnosNava บน Reddit ซึ่งกำลังทดลองใช้ PCIe passthrough บน VM ใน Proxmox เพื่อให้ VM (เช่น Windows) เข้าถึงการ์ดจอโดยตรง — เทคนิคนี้จะทำให้การรันเกมหรือแอปกราฟิกใน VM เร็วและลื่นขึ้นมาก แต่...เขาดันไปเห็นการ์ดจอแสดงอยู่ใน System Tray ของ Windows พร้อมปุ่ม “Eject NVIDIA GeForce…” แล้วด้วยความอยากรู้อยากลอง เขาก็กดเลยครับ! → ผลคือล็อก VM ไม่พอ การ์ดจอหาย! → Windows มองไม่เห็นแล้ว → ต้องลบ–เพิ่มอุปกรณ์ใหม่–รีบูตหลายรอบ–ลงไดรเวอร์ใหม่กว่าจะกลับมาได้ เคสนี้เกิดจากระบบ PCIe passthrough ที่ให้ Windows มองเห็นอุปกรณ์แบบ “hot-pluggable” (ถอดออกได้ทันที) เหมือนแฟลชไดรฟ์ — แต่แน่นอนว่าการ์ดจอไม่ใช่อะไรที่จะถอดแล้วเสียบกลับได้ในพริบตา 😓 ✅ เหตุเกิดจาก Windows VM ที่ใช้ PCIe passthrough บน Proxmox   • การ์ดจอถูก passthrough ไปให้ Windows ใช้โดยตรง   • Windows แสดงอุปกรณ์ว่า “ถอดออกได้” ผ่าน System Tray ✅ ผู้ใช้กด “Eject GPU” ด้วยความอยากรู้ → การ์ดจอหายไปจาก VM   • Windows ไม่สามารถตรวจเจอ GPU ได้อีก   • ต้องใช้เวลา 1 ชั่วโมงแก้ไข โดย:    – ลบอุปกรณ์ GPU ออกจากการตั้งค่า VM    – รีสตาร์ต VM    – เพิ่ม GPU กลับเข้า VM    – รีสตาร์ตใหม่    – ลงไดรเวอร์ใหม่ ✅ นี่เป็นพฤติกรรมปกติของ passthrough แบบ PCIe ที่อนุญาตให้ Windows ถอด GPU ได้   • ขึ้นอยู่กับการตั้งค่า firmware/VM ว่าอนุญาตให้ hot-unplug หรือไม่ https://www.tomshardware.com/software/windows/hilariously-unfortunate-windows-user-ejects-graphics-card-immediately-regrets-it-curiosity-killed-the-vm-acceleration
    0 Comments 0 Shares 126 Views 0 Reviews
  • ในงาน Intel AI Summit ที่เกาหลีใต้ Intel เผยของใหม่สองกลุ่มใหญ่:

    1️⃣ Jaguar Shores: คือชื่อรหัสของ AI Accelerator รุ่นต่อไปภายใต้แบรนด์ “Gaudi” ที่จะมาแทน Falcon Shores ซึ่งถูกยกเลิกไปแล้ว  → ความพิเศษอยู่ที่มันจะใช้ HBM4 รุ่นล่าสุดจาก SK hynix  → HBM4 มีแบนด์วิดท์มหาศาล เหมาะสำหรับ AI รุ่นใหญ่ เช่น LLM / LRM  → เป็นครั้งแรกที่ Intel ยืนยันว่าจะใช้ HBM4 จริงในผลิตภัณฑ์

    2️⃣ Diamond Rapids: คือ Xeon Gen ถัดไป (สำหรับ data center) ที่จะใช้ MRDIMM รุ่นที่ 2 — เป็นหน่วยความจำ DDR5 ที่เร็วและฉลาด  → เชื่อมต่อแบบ “multiplexed” ทำให้มี latency ต่ำและเร็วกว่า RDIMM  → ความเร็วคาดว่าจะไปถึง 12,800 MT/s (จากเดิม 8,800 MT/s)

    แม้ยังไม่มีรายละเอียดเรื่องจำนวน stack ของ HBM4 หรือสเปกเต็มของ Jaguar Shores แต่ก็ถือเป็นสัญญาณชัดว่า Intel ไม่ยอมให้นวัตกรรม AI–Server ตกขบวนอีกแล้วครับ

    Jaguar Shores เป็น Gaudi Accelerator รุ่นใหม่ของ Intel ที่จะเปิดตัวในปี 2026  
    • ใช้ HBM4 จาก SK hynix  
    • มาแทน Falcon Shores ที่ถูกยกเลิก  
    • ออกแบบสำหรับ AI workloads ขนาดใหญ่

    HBM4 คือหน่วยความจำความเร็วสูงแบบใหม่ที่ JEDEC เพิ่งรับรองมาตรฐานในปี 2024  
    • มีแบนด์วิดท์สูงกว่า HBM3E  
    • Micron, SK hynix และ Samsung เริ่มผลิตทดสอบแล้ว  
    • ใช้ในระบบ AI, HPC และเซิร์ฟเวอร์ขนาดใหญ่

    Diamond Rapids จะใช้ MRDIMM เจเนอเรชันที่ 2  
    • มีขนาด 64GB (ใช้ชิป 16GB) และ 128GB (ใช้ชิป 32GB)  
    • Multiplexed Rank DIMM → มี MRCD chip และ MDB chip ในตัว  
    • ลด latency ลงกว่า DDR5-6400 RDIMM ได้มากถึง 40%  
    • รองรับความเร็ว bus สูงสุด 12,800 MT/s

    แนวคิด MRDIMM คือให้ internal DRAM ทำงานที่ความเร็วครึ่งนึงของภายนอก เพื่อลดความร้อนและเพิ่มประสิทธิภาพ

    Intel ยังไม่เปิดเผยจำนวน stack ของ HBM4 บน Jaguar Shores → อาจกระทบกับ performance vs NVIDIA / AMD หากใช้ stack น้อยเกินไป

    การแข่งขันด้านหน่วยความจำ AI ร้อนแรงมาก — หาก Intel ปรับช้ากว่า Micron/SK hynix/Samsung อาจเสียส่วนแบ่งในตลาด hyperscaler

    https://www.tomshardware.com/tech-industry/artificial-intelligence/intel-jumps-to-hbm4-with-jaguar-shores-2nd-gen-mrdimms-with-diamond-rapids-sk-hynix
    ในงาน Intel AI Summit ที่เกาหลีใต้ Intel เผยของใหม่สองกลุ่มใหญ่: 1️⃣ Jaguar Shores: คือชื่อรหัสของ AI Accelerator รุ่นต่อไปภายใต้แบรนด์ “Gaudi” ที่จะมาแทน Falcon Shores ซึ่งถูกยกเลิกไปแล้ว  → ความพิเศษอยู่ที่มันจะใช้ HBM4 รุ่นล่าสุดจาก SK hynix  → HBM4 มีแบนด์วิดท์มหาศาล เหมาะสำหรับ AI รุ่นใหญ่ เช่น LLM / LRM  → เป็นครั้งแรกที่ Intel ยืนยันว่าจะใช้ HBM4 จริงในผลิตภัณฑ์ 2️⃣ Diamond Rapids: คือ Xeon Gen ถัดไป (สำหรับ data center) ที่จะใช้ MRDIMM รุ่นที่ 2 — เป็นหน่วยความจำ DDR5 ที่เร็วและฉลาด  → เชื่อมต่อแบบ “multiplexed” ทำให้มี latency ต่ำและเร็วกว่า RDIMM  → ความเร็วคาดว่าจะไปถึง 12,800 MT/s (จากเดิม 8,800 MT/s) แม้ยังไม่มีรายละเอียดเรื่องจำนวน stack ของ HBM4 หรือสเปกเต็มของ Jaguar Shores แต่ก็ถือเป็นสัญญาณชัดว่า Intel ไม่ยอมให้นวัตกรรม AI–Server ตกขบวนอีกแล้วครับ ✅ Jaguar Shores เป็น Gaudi Accelerator รุ่นใหม่ของ Intel ที่จะเปิดตัวในปี 2026   • ใช้ HBM4 จาก SK hynix   • มาแทน Falcon Shores ที่ถูกยกเลิก   • ออกแบบสำหรับ AI workloads ขนาดใหญ่ ✅ HBM4 คือหน่วยความจำความเร็วสูงแบบใหม่ที่ JEDEC เพิ่งรับรองมาตรฐานในปี 2024   • มีแบนด์วิดท์สูงกว่า HBM3E   • Micron, SK hynix และ Samsung เริ่มผลิตทดสอบแล้ว   • ใช้ในระบบ AI, HPC และเซิร์ฟเวอร์ขนาดใหญ่ ✅ Diamond Rapids จะใช้ MRDIMM เจเนอเรชันที่ 2   • มีขนาด 64GB (ใช้ชิป 16GB) และ 128GB (ใช้ชิป 32GB)   • Multiplexed Rank DIMM → มี MRCD chip และ MDB chip ในตัว   • ลด latency ลงกว่า DDR5-6400 RDIMM ได้มากถึง 40%   • รองรับความเร็ว bus สูงสุด 12,800 MT/s ✅ แนวคิด MRDIMM คือให้ internal DRAM ทำงานที่ความเร็วครึ่งนึงของภายนอก เพื่อลดความร้อนและเพิ่มประสิทธิภาพ ‼️ Intel ยังไม่เปิดเผยจำนวน stack ของ HBM4 บน Jaguar Shores → อาจกระทบกับ performance vs NVIDIA / AMD หากใช้ stack น้อยเกินไป ‼️ การแข่งขันด้านหน่วยความจำ AI ร้อนแรงมาก — หาก Intel ปรับช้ากว่า Micron/SK hynix/Samsung อาจเสียส่วนแบ่งในตลาด hyperscaler https://www.tomshardware.com/tech-industry/artificial-intelligence/intel-jumps-to-hbm4-with-jaguar-shores-2nd-gen-mrdimms-with-diamond-rapids-sk-hynix
    0 Comments 0 Shares 126 Views 0 Reviews
  • ก่อนอื่นต้องเข้าใจก่อนว่า ASML คือบริษัทผลิต เครื่อง EUV (Extreme Ultraviolet Lithography) ที่เป็นหัวใจของการผลิตชิปสมัยใหม่ทุกวันนี้ ยิ่งเทคโนโลยีเล็กลง (เช่น 5nm, 3nm), ความละเอียดของเครื่องก็ยิ่งสำคัญ

    แต่ช่วงหลัง Intel กลับออกมาบอกว่า “เครื่อง High NA EUV รุ่นล่าสุดของ ASML อาจไม่จำเป็นเท่าที่คิดในเทคโนโลยีชิปยุคใหม่” เพราะแนวโน้มตอนนี้คือ “เปลี่ยนจากการลดขนาดทรานซิสเตอร์แนวนอน → ไปเพิ่มชั้นแนวตั้ง (3D stacking)” แทน → ทำให้ความคมชัดของเลนส์ไม่ใช่พระเอกอีกต่อไป

    BofA จึงลดความคาดหวังต่ออุปสงค์ของเครื่อง High NA EUV แม้จะยังแนะนำ “ซื้อ” หุ้น ASML อยู่ (เพราะยังเชื่อในกระแส AI) แต่ก็มองว่า:
    - ตลาด High NA ยังไม่เติบโตเท่าที่หวัง
    - Intel ยังมีปัญหาผลิต 18A
    - Samsung เองยังไม่สามารถส่งชิปหน่วยความจำให้ NVIDIA ผ่านได้
    - และยังมีความเสี่ยงการคว่ำบาตรจากสหรัฐฯ ต่ออุปกรณ์ที่ส่งไปจีน

    BofA ลดเป้าราคาหุ้น ASML จาก €795 → €759  
    • ลดคาดการณ์ EPS ปี 2026–2027 ลง ~5%  
    • แต่ยังคงคำแนะนำ “Buy” อยู่

    เหตุผลที่ลดประมาณการคือการชะลอความต้องการเครื่อง High NA EUV ของ ASML  
    • โดยเฉพาะจาก Intel, Samsung  
    • และการปรับทิศทางดีไซน์ชิปไปสู่แนวตั้งแบบ 3D มากขึ้น

    BofA คาดว่า ASML จะขายเครื่อง High NA ได้แค่ 4 เครื่องในปี 2026  
    • ลดลง ~50% จากที่เคยคาดไว้

    แม้จะเผชิญแรงกดดัน แต่ BofA ยังเชื่อในการเติบโตระยะยาวจากกระแส AI  
    • คาดว่าตลาด AI chip จะโตแตะ $795B ภายในปี 2030  
    • ซึ่งยังต้องพึ่งพาเทคโนโลยีลิทโธกราฟีรุ่นล่าสุดอยู่

    อัตราส่วน EV/Operating Income ของ ASML ยังอยู่ที่ 19.6x  
    • ต่ำกว่าค่าเฉลี่ย 22x แต่ถือว่า “ยังน่าสนใจสำหรับนักลงทุนระยะยาว”

    https://wccftech.com/asmls-price-target-cut-by-bofa-due-to-lower-high-na-machine-demand/
    ก่อนอื่นต้องเข้าใจก่อนว่า ASML คือบริษัทผลิต เครื่อง EUV (Extreme Ultraviolet Lithography) ที่เป็นหัวใจของการผลิตชิปสมัยใหม่ทุกวันนี้ ยิ่งเทคโนโลยีเล็กลง (เช่น 5nm, 3nm), ความละเอียดของเครื่องก็ยิ่งสำคัญ แต่ช่วงหลัง Intel กลับออกมาบอกว่า “เครื่อง High NA EUV รุ่นล่าสุดของ ASML อาจไม่จำเป็นเท่าที่คิดในเทคโนโลยีชิปยุคใหม่” เพราะแนวโน้มตอนนี้คือ “เปลี่ยนจากการลดขนาดทรานซิสเตอร์แนวนอน → ไปเพิ่มชั้นแนวตั้ง (3D stacking)” แทน → ทำให้ความคมชัดของเลนส์ไม่ใช่พระเอกอีกต่อไป BofA จึงลดความคาดหวังต่ออุปสงค์ของเครื่อง High NA EUV แม้จะยังแนะนำ “ซื้อ” หุ้น ASML อยู่ (เพราะยังเชื่อในกระแส AI) แต่ก็มองว่า: - ตลาด High NA ยังไม่เติบโตเท่าที่หวัง - Intel ยังมีปัญหาผลิต 18A - Samsung เองยังไม่สามารถส่งชิปหน่วยความจำให้ NVIDIA ผ่านได้ - และยังมีความเสี่ยงการคว่ำบาตรจากสหรัฐฯ ต่ออุปกรณ์ที่ส่งไปจีน ✅ BofA ลดเป้าราคาหุ้น ASML จาก €795 → €759   • ลดคาดการณ์ EPS ปี 2026–2027 ลง ~5%   • แต่ยังคงคำแนะนำ “Buy” อยู่ ✅ เหตุผลที่ลดประมาณการคือการชะลอความต้องการเครื่อง High NA EUV ของ ASML   • โดยเฉพาะจาก Intel, Samsung   • และการปรับทิศทางดีไซน์ชิปไปสู่แนวตั้งแบบ 3D มากขึ้น ✅ BofA คาดว่า ASML จะขายเครื่อง High NA ได้แค่ 4 เครื่องในปี 2026   • ลดลง ~50% จากที่เคยคาดไว้ ✅ แม้จะเผชิญแรงกดดัน แต่ BofA ยังเชื่อในการเติบโตระยะยาวจากกระแส AI   • คาดว่าตลาด AI chip จะโตแตะ $795B ภายในปี 2030   • ซึ่งยังต้องพึ่งพาเทคโนโลยีลิทโธกราฟีรุ่นล่าสุดอยู่ ✅ อัตราส่วน EV/Operating Income ของ ASML ยังอยู่ที่ 19.6x   • ต่ำกว่าค่าเฉลี่ย 22x แต่ถือว่า “ยังน่าสนใจสำหรับนักลงทุนระยะยาว” https://wccftech.com/asmls-price-target-cut-by-bofa-due-to-lower-high-na-machine-demand/
    WCCFTECH.COM
    ASML's Price Target Cut By BofA Due To Lower High NA Machine Demand
    Bank of America cuts ASML share price target on back of lower demand for high NA EUV scanners and Intel's production woes.
    0 Comments 0 Shares 142 Views 0 Reviews
  • ลองนึกภาพว่าเราใช้ GTX 1080 อยู่ ซึ่งยังเล่นเกมหรือทำงานเบา ๆ ได้ดี… แต่ข่าวนี้บอกว่า “อัปเดตล่าสุดที่จะออกใน Driver 580 จะเป็นการอัปเดตสุดท้ายสำหรับการ์ดรุ่นนี้” — หลังจากนั้นจะ ไม่มีแพตช์ความปลอดภัย ไม่มีฟีเจอร์ใหม่ ไม่มี bug fix เพิ่มแล้ว

    NVIDIA เคยหยุดซัพพอร์ต GTX 500–600 (Fermi, Kepler) ไปก่อนแล้ว คราวนี้ถึงคิวของ Maxwell (GTX 700/900), Pascal (GTX 1000), และแม้แต่ Volta ที่อยู่ใน Tesla/Quadro บางรุ่น

    Driver 580 ยังไม่ออก ณ ตอนนี้ (กรกฎาคม 2025) แต่ใกล้มากแล้ว — และหลังจากนั้นจะยังออกแพตช์ย่อยในสาขา 580 ได้อีกไม่กี่เดือนก่อนหยุดทั้งหมด

    ผู้ใช้ Windows และ Linux ได้รับผลกระทบพร้อมกัน ไม่มีเว้นฝั่งไหนทั้งสิ้น

    NVIDIA จะหยุดอัปเดตไดรเวอร์สำหรับการ์ดจอ:  
    • GTX 700 Series (Maxwell)  
    • GTX 900 Series (Maxwell)  
    • GTX 1000 Series (Pascal)  
    • และบางรุ่นในกลุ่ม Volta เช่น Tesla/Quadro

    Driver รุ่นสุดท้ายที่จะรองรับคือ NVIDIA Driver Series 580  
    • ยังไม่ออก แต่ใกล้เปิดตัวภายในปี 2025  
    • หลังจากนั้นจะไม่มีไดรเวอร์ใหม่อีก

    ผู้ใช้ Linux และ Windows ได้รับผลกระทบพร้อมกัน  
    • ไม่ว่าจะใช้ระบบปฏิบัติการใดก็จะไม่สามารถอัปเดตไดรเวอร์ใหม่ได้แล้ว

    พฤติกรรมนี้เป็นมาตรฐานของ NVIDIA ที่จะหยุดซัพพอร์ตรุ่นเก่าทุก ~8–11 ปี  
    • เช่น Fermi/Kepler ถูกหยุดไปก่อนหน้านี้เช่นกัน

    https://wccftech.com/nvidia-is-cutting-off-driver-support-for-gtx-700-900-and-1000-gpus-after-driver-series-580-on-linux/
    ลองนึกภาพว่าเราใช้ GTX 1080 อยู่ ซึ่งยังเล่นเกมหรือทำงานเบา ๆ ได้ดี… แต่ข่าวนี้บอกว่า “อัปเดตล่าสุดที่จะออกใน Driver 580 จะเป็นการอัปเดตสุดท้ายสำหรับการ์ดรุ่นนี้” — หลังจากนั้นจะ ไม่มีแพตช์ความปลอดภัย ไม่มีฟีเจอร์ใหม่ ไม่มี bug fix เพิ่มแล้ว NVIDIA เคยหยุดซัพพอร์ต GTX 500–600 (Fermi, Kepler) ไปก่อนแล้ว คราวนี้ถึงคิวของ Maxwell (GTX 700/900), Pascal (GTX 1000), และแม้แต่ Volta ที่อยู่ใน Tesla/Quadro บางรุ่น Driver 580 ยังไม่ออก ณ ตอนนี้ (กรกฎาคม 2025) แต่ใกล้มากแล้ว — และหลังจากนั้นจะยังออกแพตช์ย่อยในสาขา 580 ได้อีกไม่กี่เดือนก่อนหยุดทั้งหมด ผู้ใช้ Windows และ Linux ได้รับผลกระทบพร้อมกัน ไม่มีเว้นฝั่งไหนทั้งสิ้น ✅ NVIDIA จะหยุดอัปเดตไดรเวอร์สำหรับการ์ดจอ:   • GTX 700 Series (Maxwell)   • GTX 900 Series (Maxwell)   • GTX 1000 Series (Pascal)   • และบางรุ่นในกลุ่ม Volta เช่น Tesla/Quadro ✅ Driver รุ่นสุดท้ายที่จะรองรับคือ NVIDIA Driver Series 580   • ยังไม่ออก แต่ใกล้เปิดตัวภายในปี 2025   • หลังจากนั้นจะไม่มีไดรเวอร์ใหม่อีก ✅ ผู้ใช้ Linux และ Windows ได้รับผลกระทบพร้อมกัน   • ไม่ว่าจะใช้ระบบปฏิบัติการใดก็จะไม่สามารถอัปเดตไดรเวอร์ใหม่ได้แล้ว ✅ พฤติกรรมนี้เป็นมาตรฐานของ NVIDIA ที่จะหยุดซัพพอร์ตรุ่นเก่าทุก ~8–11 ปี   • เช่น Fermi/Kepler ถูกหยุดไปก่อนหน้านี้เช่นกัน https://wccftech.com/nvidia-is-cutting-off-driver-support-for-gtx-700-900-and-1000-gpus-after-driver-series-580-on-linux/
    WCCFTECH.COM
    NVIDIA Is Cutting Off Driver Support For GTX 700, 900, and 1000 GPUs After Driver Series 580
    NVIDIA has announced that it will officially cut support for the GTX 700, 900, and 1000 series GPUs, starting with the driver branch 580.
    0 Comments 0 Shares 98 Views 0 Reviews
  • ในโลก AI ทุกวันนี้ “หน่วยความจำ” กลายเป็นหัวใจสำคัญที่แทบจะสำคัญกว่าชิปประมวลผล เพราะถ้าหน่วยความจำช้า → AI ก็ทำงานช้า นั่นคือเหตุผลที่ผู้ผลิตรายใหญ่เร่งแข่งกันพัฒนา HBM (High Bandwidth Memory) ซึ่งเอา DRAM มาต่อซ้อนกันหลายชั้น + ทำให้เชื่อมต่อกับชิปหลักได้เร็วแบบบ้าพลัง

    ข่าวใหม่นี้บอกว่า Samsung ได้รับอนุมัติให้เข้าสู่ขั้นตอนผลิตจริง (production readiness) สำหรับ DRAM เจเนอเรชัน 6 (รหัส “1c” หรือ 10nm-class) ซึ่งเป็นจิ๊กซอว์สำคัญในการผลิต HBM4 ที่ Samsung วางแผนจะเริ่มผลิตในครึ่งหลังของปี 2025

    นอกจากนี้ Samsung ยังใช้เทคนิค hybrid bonding สำหรับ HBM4 ซึ่งช่วยให้ต่อแผ่น DRAM ซ้อนกันได้แน่นกว่าเดิม แถมลดความร้อนในระหว่างทำงาน — สุดเหมาะกับการประมวลผล AI แบบรุ่นใหญ่

    ถึงแม้ SK hynix จะเริ่มส่ง HBM4 ตัวอย่างให้ลูกค้าอย่าง NVIDIA ไปตั้งแต่มีนาคม แต่ Samsung ก็ยังมีแต้มต่อด้านเทคโนโลยีบางอย่าง — ตอนนี้อยู่ระหว่างการส่งมอบตัวอย่าง HBM4 และ รอการทดสอบคุณภาพจาก NVIDIA เช่นเดียวกับ HBM3E แบบ 12 ชั้นที่ใช้กับ AMD อยู่ก่อนหน้า

    https://www.techpowerup.com/338525/samsung-6th-gen-dram-receives-production-readiness-approval
    ในโลก AI ทุกวันนี้ “หน่วยความจำ” กลายเป็นหัวใจสำคัญที่แทบจะสำคัญกว่าชิปประมวลผล เพราะถ้าหน่วยความจำช้า → AI ก็ทำงานช้า นั่นคือเหตุผลที่ผู้ผลิตรายใหญ่เร่งแข่งกันพัฒนา HBM (High Bandwidth Memory) ซึ่งเอา DRAM มาต่อซ้อนกันหลายชั้น + ทำให้เชื่อมต่อกับชิปหลักได้เร็วแบบบ้าพลัง ข่าวใหม่นี้บอกว่า Samsung ได้รับอนุมัติให้เข้าสู่ขั้นตอนผลิตจริง (production readiness) สำหรับ DRAM เจเนอเรชัน 6 (รหัส “1c” หรือ 10nm-class) ซึ่งเป็นจิ๊กซอว์สำคัญในการผลิต HBM4 ที่ Samsung วางแผนจะเริ่มผลิตในครึ่งหลังของปี 2025 นอกจากนี้ Samsung ยังใช้เทคนิค hybrid bonding สำหรับ HBM4 ซึ่งช่วยให้ต่อแผ่น DRAM ซ้อนกันได้แน่นกว่าเดิม แถมลดความร้อนในระหว่างทำงาน — สุดเหมาะกับการประมวลผล AI แบบรุ่นใหญ่ ถึงแม้ SK hynix จะเริ่มส่ง HBM4 ตัวอย่างให้ลูกค้าอย่าง NVIDIA ไปตั้งแต่มีนาคม แต่ Samsung ก็ยังมีแต้มต่อด้านเทคโนโลยีบางอย่าง — ตอนนี้อยู่ระหว่างการส่งมอบตัวอย่าง HBM4 และ รอการทดสอบคุณภาพจาก NVIDIA เช่นเดียวกับ HBM3E แบบ 12 ชั้นที่ใช้กับ AMD อยู่ก่อนหน้า https://www.techpowerup.com/338525/samsung-6th-gen-dram-receives-production-readiness-approval
    WWW.TECHPOWERUP.COM
    Samsung 6th-Gen DRAM Receives Production Readiness Approval
    Samsung Electronics achieved a significant technological milestone by securing production readiness approval for its sixth-generation DRAM technology. Industry sources, as Korea Herald reports, confirmed on Tuesday that the company received internal authorization for mass production, marking complet...
    0 Comments 0 Shares 119 Views 0 Reviews
  • ตอนแรกไม่มีใครเอะใจว่าทำไม ยอดขายของ NVIDIA ในสิงคโปร์ปี 2024 พุ่งถึง 28% ทั้งที่จัดส่งจริงในประเทศมีแค่ 1% — จนกระทั่ง DeepSeek เปิดตัวโมเดล LLM ระดับเทพในจีน… แล้วคำถามเริ่มตามมาว่า “GPU ที่ใช้เทรนได้มายังไง?”

    คำตอบอาจอยู่ที่คน 3 คนที่โดนจับในสิงคโปร์:
    - Woon Guo Jie (สิงคโปร์, 41 ปี)
    - Alan Wei Zhaolun (สิงคโปร์, 49 ปี)
    - Li Ming (จีน, 51 ปี)

    พวกเขาถูกกล่าวหาว่า แสดงข้อมูลปลอมเกี่ยวกับปลายทางของเซิร์ฟเวอร์ที่ซื้อจากสหรัฐฯ แล้วส่งต่อเข้าแดนจีน — ข้ามข้อกำหนดการส่งออกของสหรัฐฯ ที่ห้ามส่งอุปกรณ์ AI ขั้นสูงเข้าจีนโดยตรง

    การสืบสวนถูกเร่งด่วนขึ้นหลัง DeepSeek เปิดตัว และพบว่า บริษัทใช้ GPU ระดับสูงที่ถูกควบคุมการส่งออก แต่ด้าน NVIDIA ปฏิเสธว่า “ไม่เคยขายให้ผู้ต้องห้าม” และ CEO Jensen Huang ก็ออกมาบอกชัดว่า “ไม่มีหลักฐานชิปหลุดไปถึงมือผิด”

    ปัญหาคือ ช่องทางผ่าน “บริษัทบิลจากสิงคโปร์” แต่จัดส่งสินค้ากลับไปยังจีนหรือมาเลเซีย เป็นสิ่งที่พบได้ทั่วไปในอุตสาหกรรมการค้า → ทำให้สหรัฐฯ เตรียมร่างกฎหมายใหม่ที่บังคับให้ GPU ชั้นสูงต้องมี “ระบบติดตาม GPS” ตลอดการขนส่ง

    สามผู้ต้องหาในสิงคโปร์ถูกตั้งข้อหาฉ้อโกงในปี 2023–2024  
    • แสดงข้อมูลเท็จเกี่ยวกับปลายทางจริงของเซิร์ฟเวอร์ที่ซื้อ  
    • เชื่อมโยงกับการส่งมอบชิปให้บริษัทจีน DeepSeek ซึ่งอยู่ระหว่างจับตามอง

    DeepSeek เป็นบริษัท AI สัญชาติจีนที่เปิดตัวโมเดลขนาดใหญ่ปลายปี 2024  
    • เทียบระดับ GPT-4 และ Claude  
    • สหรัฐสงสัยว่า GPU ที่ใช้มาจากแหล่งผิดกฎหมายผ่านชาติที่ 3

    NVIDIA รายงานว่าสิงคโปร์คิดเป็น 28% ของรายได้ในช่วงเวลาดังกล่าว แต่จัดส่งจริงแค่ 1%  
    • จุดชนวนให้เริ่มสืบสวนช่องทางการส่งต่อ

    NVIDIA ปฏิเสธว่าไม่ได้ขายให้รายชื่อที่ถูกแบน และไม่รู้เห็นการลักลอบ  
    • CEO ยืนยัน “ไม่มีหลักฐาน GPU หลุดไปถึง DeepSeek”

    สหรัฐฯ เตรียมออกกฎหมายให้ติดระบบติดตาม (tracking tech) กับ GPU ขั้นสูงที่ส่งออก  
    • เพื่อป้องกันการถูก “เบี่ยงปลายทาง” (diversion) ไปยังประเทศต้องห้าม

    สิงคโปร์ถือเป็นศูนย์กลางการค้าในภูมิภาค → การใช้ billing address จากที่นี่แต่จัดส่งที่อื่นเป็นเรื่องปกติ

    https://www.tomshardware.com/tech-industry/singapore-ai-chip-court-case-adjourned-until-august-trio-accused-of-illegally-smuggling-nvidia-chips-to-china-for-use-by-ai-firm-deepseek
    ตอนแรกไม่มีใครเอะใจว่าทำไม ยอดขายของ NVIDIA ในสิงคโปร์ปี 2024 พุ่งถึง 28% ทั้งที่จัดส่งจริงในประเทศมีแค่ 1% — จนกระทั่ง DeepSeek เปิดตัวโมเดล LLM ระดับเทพในจีน… แล้วคำถามเริ่มตามมาว่า “GPU ที่ใช้เทรนได้มายังไง?” คำตอบอาจอยู่ที่คน 3 คนที่โดนจับในสิงคโปร์: - Woon Guo Jie (สิงคโปร์, 41 ปี) - Alan Wei Zhaolun (สิงคโปร์, 49 ปี) - Li Ming (จีน, 51 ปี) พวกเขาถูกกล่าวหาว่า แสดงข้อมูลปลอมเกี่ยวกับปลายทางของเซิร์ฟเวอร์ที่ซื้อจากสหรัฐฯ แล้วส่งต่อเข้าแดนจีน — ข้ามข้อกำหนดการส่งออกของสหรัฐฯ ที่ห้ามส่งอุปกรณ์ AI ขั้นสูงเข้าจีนโดยตรง การสืบสวนถูกเร่งด่วนขึ้นหลัง DeepSeek เปิดตัว และพบว่า บริษัทใช้ GPU ระดับสูงที่ถูกควบคุมการส่งออก แต่ด้าน NVIDIA ปฏิเสธว่า “ไม่เคยขายให้ผู้ต้องห้าม” และ CEO Jensen Huang ก็ออกมาบอกชัดว่า “ไม่มีหลักฐานชิปหลุดไปถึงมือผิด” ปัญหาคือ ช่องทางผ่าน “บริษัทบิลจากสิงคโปร์” แต่จัดส่งสินค้ากลับไปยังจีนหรือมาเลเซีย เป็นสิ่งที่พบได้ทั่วไปในอุตสาหกรรมการค้า → ทำให้สหรัฐฯ เตรียมร่างกฎหมายใหม่ที่บังคับให้ GPU ชั้นสูงต้องมี “ระบบติดตาม GPS” ตลอดการขนส่ง ✅ สามผู้ต้องหาในสิงคโปร์ถูกตั้งข้อหาฉ้อโกงในปี 2023–2024   • แสดงข้อมูลเท็จเกี่ยวกับปลายทางจริงของเซิร์ฟเวอร์ที่ซื้อ   • เชื่อมโยงกับการส่งมอบชิปให้บริษัทจีน DeepSeek ซึ่งอยู่ระหว่างจับตามอง ✅ DeepSeek เป็นบริษัท AI สัญชาติจีนที่เปิดตัวโมเดลขนาดใหญ่ปลายปี 2024   • เทียบระดับ GPT-4 และ Claude   • สหรัฐสงสัยว่า GPU ที่ใช้มาจากแหล่งผิดกฎหมายผ่านชาติที่ 3 ✅ NVIDIA รายงานว่าสิงคโปร์คิดเป็น 28% ของรายได้ในช่วงเวลาดังกล่าว แต่จัดส่งจริงแค่ 1%   • จุดชนวนให้เริ่มสืบสวนช่องทางการส่งต่อ ✅ NVIDIA ปฏิเสธว่าไม่ได้ขายให้รายชื่อที่ถูกแบน และไม่รู้เห็นการลักลอบ   • CEO ยืนยัน “ไม่มีหลักฐาน GPU หลุดไปถึง DeepSeek” ✅ สหรัฐฯ เตรียมออกกฎหมายให้ติดระบบติดตาม (tracking tech) กับ GPU ขั้นสูงที่ส่งออก   • เพื่อป้องกันการถูก “เบี่ยงปลายทาง” (diversion) ไปยังประเทศต้องห้าม ✅ สิงคโปร์ถือเป็นศูนย์กลางการค้าในภูมิภาค → การใช้ billing address จากที่นี่แต่จัดส่งที่อื่นเป็นเรื่องปกติ https://www.tomshardware.com/tech-industry/singapore-ai-chip-court-case-adjourned-until-august-trio-accused-of-illegally-smuggling-nvidia-chips-to-china-for-use-by-ai-firm-deepseek
    0 Comments 0 Shares 134 Views 0 Reviews
  • ในขณะที่หลายคนเพิ่งเริ่มได้ยินชื่อ DeepSeek (อีกหนึ่งสตาร์ทอัพจีนที่โตเร็วมาก) — แต่เบื้องหลังกลับมีผู้เล่นที่น่ากลัวกว่าคือ Zhipu AI

    Zhipu ไม่ได้เน้นทำโมเดลมาโชว์เหมือน OpenAI หรือ Baidu แต่ “ลงลึกกับรัฐบาล” โดยร่วมมือกับประเทศอย่างซาอุฯ, สหรัฐอาหรับเอมิเรตส์, มาเลเซีย และสิงคโปร์ เพื่อ:
    - สร้าง ระบบโครงสร้างพื้นฐาน AI ที่เป็นของรัฐ (sovereign LLM infrastructure)
    - วางขายโมเดลที่รันในคลาวด์ปิด ใช้ได้เฉพาะในประเทศ
    - ใช้ฮาร์ดแวร์จาก Huawei เป็นเบื้องหลัง

    หนึ่งในผลงานเด่นคือ AutoGLM Rumination Agent ซึ่งเก่งเรื่องการวิเคราะห์บริบทซับซ้อนและควบคุมเบราว์เซอร์จากคำสั่งได้

    นอกจากนี้ Zhipu ยังได้รับเงินสนับสนุนจากภาครัฐจีนกว่า $1.4 พันล้าน และทุนเอกชนจากซาอุฯ อีกราว $400 ล้าน → สะท้อนว่าโมเดลธุรกิจของเขาไม่ได้แค่ขายโมเดล แต่ขาย “เอกราชทางดิจิทัล” ให้ประเทศพันธมิตรเลยทีเดียว

    Zhipu AI คือสตาร์ทอัพจากจีนที่เน้นพัฒนา ‘sovereign AI infrastructure’ สำหรับรัฐบาลต่างประเทศ  
    • สร้างคลาวด์และโมเดล LLM ที่รันภายในประเทศลูกค้าโดยเฉพาะ  
    • แตกต่างจาก DeepSeek ที่เน้นแข่งขันเชิงโมเดล LLM โดยตรง

    ได้รับเงินลงทุนกว่า $1.8 พันล้าน จากทั้งรัฐจีนและนักลงทุนในตะวันออกกลาง (เช่น Prosperity7 จากซาอุฯ)  
    • สะท้อนความเชื่อมั่นในโมเดลธุรกิจลึกเชิงโครงสร้างมากกว่าบริการแอปพลิเคชันทั่วไป

    มีพันธมิตรร่วมพัฒนาโครงสร้างพื้นฐานกับ Huawei  
    • นำเสนอทางเลือกใหม่สำหรับประเทศที่ไม่ต้องการพึ่งพา OpenAI หรือ Nvidia

    โมเดล AutoGLM มีความสามารถเทียบเท่ากับโมเดลระดับบนในเรื่องการสั่งงานอัตโนมัติและ long-context reasoning

    กลุ่มเป้าหมายหลักของ Zhipu ได้แก่ประเทศในตะวันออกกลางและเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซียและสิงคโปร์  
    • ชี้ว่าจีนพยายามขยายอิทธิพลทางดิจิทัลนอกประเทศอย่างชัดเจน

    https://wccftech.com/chinese-startup-zhipu-ai-seen-as-a-much-greater-threat-than-deepseek-to-us-ai-dominance/
    ในขณะที่หลายคนเพิ่งเริ่มได้ยินชื่อ DeepSeek (อีกหนึ่งสตาร์ทอัพจีนที่โตเร็วมาก) — แต่เบื้องหลังกลับมีผู้เล่นที่น่ากลัวกว่าคือ Zhipu AI Zhipu ไม่ได้เน้นทำโมเดลมาโชว์เหมือน OpenAI หรือ Baidu แต่ “ลงลึกกับรัฐบาล” โดยร่วมมือกับประเทศอย่างซาอุฯ, สหรัฐอาหรับเอมิเรตส์, มาเลเซีย และสิงคโปร์ เพื่อ: - สร้าง ระบบโครงสร้างพื้นฐาน AI ที่เป็นของรัฐ (sovereign LLM infrastructure) - วางขายโมเดลที่รันในคลาวด์ปิด ใช้ได้เฉพาะในประเทศ - ใช้ฮาร์ดแวร์จาก Huawei เป็นเบื้องหลัง หนึ่งในผลงานเด่นคือ AutoGLM Rumination Agent ซึ่งเก่งเรื่องการวิเคราะห์บริบทซับซ้อนและควบคุมเบราว์เซอร์จากคำสั่งได้ นอกจากนี้ Zhipu ยังได้รับเงินสนับสนุนจากภาครัฐจีนกว่า $1.4 พันล้าน และทุนเอกชนจากซาอุฯ อีกราว $400 ล้าน → สะท้อนว่าโมเดลธุรกิจของเขาไม่ได้แค่ขายโมเดล แต่ขาย “เอกราชทางดิจิทัล” ให้ประเทศพันธมิตรเลยทีเดียว ✅ Zhipu AI คือสตาร์ทอัพจากจีนที่เน้นพัฒนา ‘sovereign AI infrastructure’ สำหรับรัฐบาลต่างประเทศ   • สร้างคลาวด์และโมเดล LLM ที่รันภายในประเทศลูกค้าโดยเฉพาะ   • แตกต่างจาก DeepSeek ที่เน้นแข่งขันเชิงโมเดล LLM โดยตรง ✅ ได้รับเงินลงทุนกว่า $1.8 พันล้าน จากทั้งรัฐจีนและนักลงทุนในตะวันออกกลาง (เช่น Prosperity7 จากซาอุฯ)   • สะท้อนความเชื่อมั่นในโมเดลธุรกิจลึกเชิงโครงสร้างมากกว่าบริการแอปพลิเคชันทั่วไป ✅ มีพันธมิตรร่วมพัฒนาโครงสร้างพื้นฐานกับ Huawei   • นำเสนอทางเลือกใหม่สำหรับประเทศที่ไม่ต้องการพึ่งพา OpenAI หรือ Nvidia ✅ โมเดล AutoGLM มีความสามารถเทียบเท่ากับโมเดลระดับบนในเรื่องการสั่งงานอัตโนมัติและ long-context reasoning ✅ กลุ่มเป้าหมายหลักของ Zhipu ได้แก่ประเทศในตะวันออกกลางและเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซียและสิงคโปร์   • ชี้ว่าจีนพยายามขยายอิทธิพลทางดิจิทัลนอกประเทศอย่างชัดเจน https://wccftech.com/chinese-startup-zhipu-ai-seen-as-a-much-greater-threat-than-deepseek-to-us-ai-dominance/
    WCCFTECH.COM
    Chinese Startup Zhipu AI Seen as a Much Greater Threat Than DeepSeek to U.S. AI Dominance, Making Massive Moves in the Realm of Sovereign AI
    DeepSeek has just got a new competitor, and the Chinese startup Zhipu AI is on a broader and impactful mission.
    0 Comments 0 Shares 127 Views 0 Reviews
  • Microsoft พยายามเลิกพึ่ง GPU ของ Nvidia (อย่าง H100 และ Blackwell) โดยพัฒนาชิปของตัวเองที่ชื่อว่า “Maia” โดยรุ่นถัดไปที่ชื่อเล่นว่า “Braga” มุ่งเน้นงาน inference บน Copilot และโมเดล OpenAI ในระบบ Azure

    แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่

    ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด

    Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure  
    • วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง  
    • ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training)

    Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว  
    • ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน  
    • น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง

    ปัจจัยที่ทำให้ล่าช้า:  
    • ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI  
    • พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง  
    • แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ

    Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก  
    • ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ  
    • สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom

    Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น  
    • มี transistor เกิน 200 พันล้าน  
    • ใช้สำหรับทั้ง training และ inference ระดับ hyperscale  
    • ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย

    คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน  
    • เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon

    https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
    Microsoft พยายามเลิกพึ่ง GPU ของ Nvidia (อย่าง H100 และ Blackwell) โดยพัฒนาชิปของตัวเองที่ชื่อว่า “Maia” โดยรุ่นถัดไปที่ชื่อเล่นว่า “Braga” มุ่งเน้นงาน inference บน Copilot และโมเดล OpenAI ในระบบ Azure แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่ ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด ✅ Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure   • วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง   • ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training) ✅ Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว   • ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน   • น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง ✅ ปัจจัยที่ทำให้ล่าช้า:   • ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI   • พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง   • แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ ✅ Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก   • ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ   • สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom ✅ Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น   • มี transistor เกิน 200 พันล้าน   • ใช้สำหรับทั้ง training และ inference ระดับ hyperscale   • ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย ✅ คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน   • เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
    WWW.TECHSPOT.COM
    Microsoft's custom AI chip hits delays, giving Nvidia more runway
    Microsoft's push into custom artificial intelligence hardware has hit a serious snag. Its next-generation Maia chip, code-named Braga, won't enter mass production until 2026 – at least...
    0 Comments 0 Shares 139 Views 0 Reviews
  • DeepSeek เป็นบริษัท AI สัญชาติจีนที่สร้างชื่อจากโมเดลภาษาขั้นสูง “R1” ซึ่งเคยเทรนด้วย GPU มากถึง 50,000 ตัว (รวม H20, H800, H100) ที่ได้มาจากกองทุน High-Flyer Capital

    แต่ตอนนี้ปัญหาคือ H20 กลายเป็นชิปต้องห้าม จากมาตรการคุมส่งออกของรัฐบาลสหรัฐฯ — ซึ่งเกิดขึ้นตั้งแต่กลางเดือนเมษายนที่ผ่านมา ทำให้ DeepSeek ไม่สามารถหา GPU ใหม่มาใช้งานได้อีก

    สิ่งที่น่าห่วงคือ:
    - ผู้ใช้งานของ R1 จำนวนมากรันอยู่บน H20 → ตอนนี้เริ่มใช้งานติดขัด
    - R2 ยังไม่เสร็จดี ซีอีโอของ DeepSeek ก็ยังไม่พอใจผลลัพธ์เท่าที่ควร
    - ถ้า R2 เปิดตัวได้ไม่แรงพอ อาจเสียจังหวะให้คู่แข่งคนอื่นแซงในตลาด LLM จีน

    นี่สะท้อนว่าบริษัท AI จีนยังพึ่งพา ฮาร์ดแวร์ + ซอฟต์แวร์จากสหรัฐฯ อย่างลึกซึ้งมาก โดยเฉพาะ CUDA stack ของ Nvidia ที่ยังไม่มีทางออกที่เทียบเท่าได้ง่าย ๆ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-disruptor-deepseeks-next-gen-model-delayed-by-nvidia-h20-restrictions-short-supply-of-accelerators-hinders-development
    DeepSeek เป็นบริษัท AI สัญชาติจีนที่สร้างชื่อจากโมเดลภาษาขั้นสูง “R1” ซึ่งเคยเทรนด้วย GPU มากถึง 50,000 ตัว (รวม H20, H800, H100) ที่ได้มาจากกองทุน High-Flyer Capital แต่ตอนนี้ปัญหาคือ H20 กลายเป็นชิปต้องห้าม จากมาตรการคุมส่งออกของรัฐบาลสหรัฐฯ — ซึ่งเกิดขึ้นตั้งแต่กลางเดือนเมษายนที่ผ่านมา ทำให้ DeepSeek ไม่สามารถหา GPU ใหม่มาใช้งานได้อีก สิ่งที่น่าห่วงคือ: - ผู้ใช้งานของ R1 จำนวนมากรันอยู่บน H20 → ตอนนี้เริ่มใช้งานติดขัด - R2 ยังไม่เสร็จดี ซีอีโอของ DeepSeek ก็ยังไม่พอใจผลลัพธ์เท่าที่ควร - ถ้า R2 เปิดตัวได้ไม่แรงพอ อาจเสียจังหวะให้คู่แข่งคนอื่นแซงในตลาด LLM จีน นี่สะท้อนว่าบริษัท AI จีนยังพึ่งพา ฮาร์ดแวร์ + ซอฟต์แวร์จากสหรัฐฯ อย่างลึกซึ้งมาก โดยเฉพาะ CUDA stack ของ Nvidia ที่ยังไม่มีทางออกที่เทียบเท่าได้ง่าย ๆ https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-disruptor-deepseeks-next-gen-model-delayed-by-nvidia-h20-restrictions-short-supply-of-accelerators-hinders-development
    0 Comments 0 Shares 144 Views 0 Reviews
  • ปัญหาหนึ่งของเกมยุคนี้คือกราฟิกมันสวยมากจน “VRAM ไม่พอ” โดยเฉพาะกับ GPU กลาง ๆ ที่มีแค่ 8–12GB — เกมใหม่บางเกมอาจกินไปเกือบ 20–24GB เลย

    AMD เลยเสนอไอเดียใหม่: แทนที่จะโหลดโมเดลสามมิติอย่างต้นไม้ทั้งหมดใส่ในหน่วยความจำ…ทำไมไม่ให้ GPU “สร้าง” มันสด ๆ ด้วยอัลกอริธึมไปเลย?

    พวกเขาใช้สิ่งที่เรียกว่า work graphs ซึ่งเป็นเทคนิคใหม่ใน DirectX 12 Ultimate เพื่อให้ GPU สร้างป่าเต็มฉากขึ้นมาแบบ procedural ได้ในขณะรันจริง! เดโมนี้รันบน Radeon RX 7900 XTX แบบลื่น ๆ ที่ 1080p โดยใช้แค่ 51KB VRAM แทน 34.8GB — ต่างกันระดับ “เรือบรรทุกกับเรือกระป๋อง” เลยทีเดียว

    ไม่ใช่แค่เบา — ต้นไม้ยังดูดี มีใบไหวตามลม เปลี่ยนตามฤดูกาล และจัดการ LOD แบบไม่มี pop-in ให้เสียอารมณ์ด้วย

    AMD พัฒนาเทคนิคใช้ work graphs (mesh nodes) เพื่อให้ GPU สร้างต้นไม้/พืชพรรณแบบ procedural ในขณะเล่นเกม  
    • ลด VRAM ที่ต้องใช้จาก 34.8GB เหลือแค่ 51KB ได้จริง  
    • ไม่มีการเก็บโมเดลไว้ในวิดีโอเมโมรีหรือระบบไฟล์เลย

    เดโมรันบน Radeon RX 7900 XTX ที่ 1080p ได้อย่างลื่นไหล  
    • แม้จะเกินขนาด VRAM สูงสุดของการ์ด (24GB) ไปมาก แต่ไม่สะดุดเพราะประมวลผลสด

    ต้นไม้ในฉากสามารถเปลี่ยนฤดูกาล เคลื่อนไหวตามลม และจัดการ LOD โดยไม่เกิดอาการกระตุกหรือ pop-in

    เทคนิคนี้คล้ายแนวคิด “Neural Texture Compression” ของ Nvidia  
    • Nvidia ใช้ AI สร้าง texture แบบสดใน GPU เพื่อลดขนาด texture file 90–95%  
    • ต่างกันตรงที่ AMD สร้าง geometry (3D) ส่วน Nvidia สร้างภาพผิวสัมผัส (texture)

    หากถูกนำไปใช้อย่างแพร่หลาย จะช่วยลดต้นทุน VRAM และเปิดทางให้ GPU ระดับกลางเล่นเกมคุณภาพสูงได้มากขึ้น

    https://www.techspot.com/news/108461-amd-demo-shows-procedural-generation-cutting-vram-usage.html
    ปัญหาหนึ่งของเกมยุคนี้คือกราฟิกมันสวยมากจน “VRAM ไม่พอ” โดยเฉพาะกับ GPU กลาง ๆ ที่มีแค่ 8–12GB — เกมใหม่บางเกมอาจกินไปเกือบ 20–24GB เลย AMD เลยเสนอไอเดียใหม่: แทนที่จะโหลดโมเดลสามมิติอย่างต้นไม้ทั้งหมดใส่ในหน่วยความจำ…ทำไมไม่ให้ GPU “สร้าง” มันสด ๆ ด้วยอัลกอริธึมไปเลย? พวกเขาใช้สิ่งที่เรียกว่า work graphs ซึ่งเป็นเทคนิคใหม่ใน DirectX 12 Ultimate เพื่อให้ GPU สร้างป่าเต็มฉากขึ้นมาแบบ procedural ได้ในขณะรันจริง! เดโมนี้รันบน Radeon RX 7900 XTX แบบลื่น ๆ ที่ 1080p โดยใช้แค่ 51KB VRAM แทน 34.8GB — ต่างกันระดับ “เรือบรรทุกกับเรือกระป๋อง” เลยทีเดียว ไม่ใช่แค่เบา — ต้นไม้ยังดูดี มีใบไหวตามลม เปลี่ยนตามฤดูกาล และจัดการ LOD แบบไม่มี pop-in ให้เสียอารมณ์ด้วย ✅ AMD พัฒนาเทคนิคใช้ work graphs (mesh nodes) เพื่อให้ GPU สร้างต้นไม้/พืชพรรณแบบ procedural ในขณะเล่นเกม   • ลด VRAM ที่ต้องใช้จาก 34.8GB เหลือแค่ 51KB ได้จริง   • ไม่มีการเก็บโมเดลไว้ในวิดีโอเมโมรีหรือระบบไฟล์เลย ✅ เดโมรันบน Radeon RX 7900 XTX ที่ 1080p ได้อย่างลื่นไหล   • แม้จะเกินขนาด VRAM สูงสุดของการ์ด (24GB) ไปมาก แต่ไม่สะดุดเพราะประมวลผลสด ✅ ต้นไม้ในฉากสามารถเปลี่ยนฤดูกาล เคลื่อนไหวตามลม และจัดการ LOD โดยไม่เกิดอาการกระตุกหรือ pop-in ✅ เทคนิคนี้คล้ายแนวคิด “Neural Texture Compression” ของ Nvidia   • Nvidia ใช้ AI สร้าง texture แบบสดใน GPU เพื่อลดขนาด texture file 90–95%   • ต่างกันตรงที่ AMD สร้าง geometry (3D) ส่วน Nvidia สร้างภาพผิวสัมผัส (texture) ✅ หากถูกนำไปใช้อย่างแพร่หลาย จะช่วยลดต้นทุน VRAM และเปิดทางให้ GPU ระดับกลางเล่นเกมคุณภาพสูงได้มากขึ้น https://www.techspot.com/news/108461-amd-demo-shows-procedural-generation-cutting-vram-usage.html
    WWW.TECHSPOT.COM
    AMD demo shows procedural generation slashing VRAM use from 35 GB to just 51 KB
    A new research paper from AMD explains how procedurally generating certain 3D objects in real-time-rendered scenes, like trees and other vegetation, can reduce VRAM usage by orders...
    0 Comments 0 Shares 153 Views 0 Reviews
  • ปกติ AI จะกินพลัง GPU อยู่แล้วใช่ไหมครับ แต่ตอนนี้แม้ GPU จะเร็วระดับหลายเทราไบต์ต่อวินาที (TB/s) แต่การโหลดข้อมูลจาก SSD กลายเป็นตัวถ่วงรุ่นใหม่แบบเต็ม ๆ โดยเฉพาะข้อมูลขนาดเล็ก ๆ ที่อ่านแบบสุ่ม (เช่น 512 ไบต์) ซึ่งโมเดล AI อย่าง LLM ชอบใช้มาก

    Nvidia เลยเสนอแนวคิด “AI SSD” ที่จะต้องอ่านข้อมูลได้เร็วถึง 100 ล้าน IOPS! แต่ Wallace Kuo ซีอีโอของ Silicon Motion ซึ่งเป็นผู้ผลิตคอนโทรลเลอร์ SSD รายใหญ่บอกว่า “ตอนนี้ยังไม่มี media (วัสดุจัดเก็บ) ที่ทำได้จริง” และต่อให้ tweak NAND เดิมก็อาจไม่เพียงพอ ต้อง “เปลี่ยนชนิดหน่วยความจำทั้งระบบเลย”

    ปัจจุบัน SSD PCIe 5.0 ระดับท็อปก็ทำได้แค่ประมาณ 2–3 ล้าน IOPS เท่านั้น — เทียบกับเป้าหมายของ Nvidia คือห่างกันถึงเกือบ 50 เท่า!

    Nvidia ตั้งเป้า SSD ที่รองรับได้ 100 ล้าน IOPS เพื่อ AI workloads ในอนาคต  
    • เน้นเฉพาะการอ่านข้อมูลสุ่มขนาดเล็ก (512B random read) ซึ่งเป็นจุดอ่อนสำคัญในระบบ AI

    Wallace Kuo จาก Silicon Motion กล่าวว่าเทคโนโลยี NAND flash ปัจจุบันยังทำไม่ได้  
    • แม้จะปรับคอนโทรลเลอร์หรือโครงสร้าง SSD ก็ยังชนเพดาน

    Kioxia กำลังพัฒนา AI SSD ด้วย XL-Flash ที่ตั้งเป้าเกิน 10 ล้าน IOPS  
    • คาดว่าเปิดตัวพร้อมกับแพลตฟอร์ม Vera Rubin ของ Nvidia ปีหน้า

    แนวคิดทางเลือก เช่น Optane ของ Intel เคยถูกคาดหวังไว้สูง แต่เลิกผลิตไปแล้ว  
    • SanDisk พัฒนา High Bandwidth Flash, แต่หลายฝ่ายยังไม่มั่นใจประสิทธิภาพ

    Micron และบริษัทอื่นกำลังเร่งวิจัย media แบบใหม่ เช่น  
    • Non-volatile memory รุ่นใหม่, HBM storage-integrated, หรือ phase-change memory

    https://www.techradar.com/pro/security/towards-the-giga-iops-pipedream-how-nvidia-wants-to-reach-100-million-iops-even-if-it-means-inventing-totally-new-types-of-memory
    ปกติ AI จะกินพลัง GPU อยู่แล้วใช่ไหมครับ แต่ตอนนี้แม้ GPU จะเร็วระดับหลายเทราไบต์ต่อวินาที (TB/s) แต่การโหลดข้อมูลจาก SSD กลายเป็นตัวถ่วงรุ่นใหม่แบบเต็ม ๆ โดยเฉพาะข้อมูลขนาดเล็ก ๆ ที่อ่านแบบสุ่ม (เช่น 512 ไบต์) ซึ่งโมเดล AI อย่าง LLM ชอบใช้มาก Nvidia เลยเสนอแนวคิด “AI SSD” ที่จะต้องอ่านข้อมูลได้เร็วถึง 100 ล้าน IOPS! แต่ Wallace Kuo ซีอีโอของ Silicon Motion ซึ่งเป็นผู้ผลิตคอนโทรลเลอร์ SSD รายใหญ่บอกว่า “ตอนนี้ยังไม่มี media (วัสดุจัดเก็บ) ที่ทำได้จริง” และต่อให้ tweak NAND เดิมก็อาจไม่เพียงพอ ต้อง “เปลี่ยนชนิดหน่วยความจำทั้งระบบเลย” ปัจจุบัน SSD PCIe 5.0 ระดับท็อปก็ทำได้แค่ประมาณ 2–3 ล้าน IOPS เท่านั้น — เทียบกับเป้าหมายของ Nvidia คือห่างกันถึงเกือบ 50 เท่า! ✅ Nvidia ตั้งเป้า SSD ที่รองรับได้ 100 ล้าน IOPS เพื่อ AI workloads ในอนาคต   • เน้นเฉพาะการอ่านข้อมูลสุ่มขนาดเล็ก (512B random read) ซึ่งเป็นจุดอ่อนสำคัญในระบบ AI ✅ Wallace Kuo จาก Silicon Motion กล่าวว่าเทคโนโลยี NAND flash ปัจจุบันยังทำไม่ได้   • แม้จะปรับคอนโทรลเลอร์หรือโครงสร้าง SSD ก็ยังชนเพดาน ✅ Kioxia กำลังพัฒนา AI SSD ด้วย XL-Flash ที่ตั้งเป้าเกิน 10 ล้าน IOPS   • คาดว่าเปิดตัวพร้อมกับแพลตฟอร์ม Vera Rubin ของ Nvidia ปีหน้า ✅ แนวคิดทางเลือก เช่น Optane ของ Intel เคยถูกคาดหวังไว้สูง แต่เลิกผลิตไปแล้ว   • SanDisk พัฒนา High Bandwidth Flash, แต่หลายฝ่ายยังไม่มั่นใจประสิทธิภาพ ✅ Micron และบริษัทอื่นกำลังเร่งวิจัย media แบบใหม่ เช่น   • Non-volatile memory รุ่นใหม่, HBM storage-integrated, หรือ phase-change memory https://www.techradar.com/pro/security/towards-the-giga-iops-pipedream-how-nvidia-wants-to-reach-100-million-iops-even-if-it-means-inventing-totally-new-types-of-memory
    0 Comments 0 Shares 175 Views 0 Reviews
  • แม้จะถูกสหรัฐสั่งห้ามซื้อชิป AI รุ่นใหม่จากค่ายใหญ่ (เช่น NVIDIA H100/H20) แต่จีนไม่ยอมแพ้ครับ — บริษัท GPU ระดับแถวหน้าอย่าง Biren Technology, Moore Threads, MetaX, และ Zhaoxin ต่างเดินหน้าขึ้นตลาดหุ้นในประเทศตัวเอง ไม่ว่าจะเป็นตลาด STAR Market ของเซี่ยงไฮ้หรือฮ่องกง เพื่อหาทุนไปพัฒนาเทคโนโลยี AI, GPU สำหรับเกม, หรือระบบซูเปอร์คอมพิวเตอร์

    ขณะเดียวกัน บริษัทอย่าง Innosilicon, Illuvatar CoreX, และ DenglinAI เลือก “อยู่แบบเงียบ ๆ” ยังไม่รีบเปิดตัวสู่สาธารณะ เพราะต้องการความยืดหยุ่นจากการไม่ต้องรายงานงบการเงินหรือถูกจับตามองจากภายนอก

    เรื่องนี้สะท้อนให้เห็นว่าหลังจากถูกกดดันจากสหรัฐ จีนเลือกที่จะ “ต่อสู้ด้วยการสร้าง ecosystem ของตัวเอง” ที่ใช้ได้แม้ไม่มีเทคโนโลยีตะวันตก ทั้งยังเสริมบทบาทของตลาดหุ้นจีนให้กลายเป็นจุดเริ่มต้นของการเติบโตในอุตสาหกรรม AI แบบพึ่งพาตัวเองมากขึ้น

    บริษัท GPU จีนจำนวนมากกำลังเตรียมเข้าตลาดหุ้นท้องถิ่นท่ามกลางแรงกดดันจากสหรัฐฯ  
    • เช่น Biren, Moore Threads, MetaX, Zhaoxin  
    • เพื่อต้องการระดมทุนสำหรับ R&D, ปรับขนาดการผลิต และขยายทีมงาน

    Biren Technology เดินเรื่อง IPO มาตั้งแต่หลายปีก่อน  
    • ยังไม่ประกาศว่าจะเข้าตลาดไหน (Shanghai STAR Market หรือฮ่องกง)

    Moore Threads จัดโครงสร้างใหม่เป็นบริษัทจำกัด-หุ้น เพื่อเตรียมเข้าตลาดหลักทรัพย์จีน  
    • เน้นธุรกิจ GPU สำหรับเกมและบางส่วนของงาน AI

    MetaX ผ่านกระบวนการ “tutoring” เพื่อเตรียม IPO แล้ว  
    • ระดมทุนไปแล้วกว่า 8 รอบ มูลค่าประเมินราว ¥10,000 ล้าน (≈ $1.38 พันล้าน)

    Zhaoxin ซึ่งพัฒนา CPU สถาปัตยกรรม x86 แบบมี GPU ฝังในตัว  
    • กำลังยื่นจดทะเบียนเข้าตลาด STAR Market ภายในกลางปี 2025

    เหตุผลหลักของการ IPO คือ:  • ต้องการเงินลงทุนมหาศาลเพื่อแข่งขันกับ NVIDIA, AMD  
    • ต้องการสร้างความโปร่งใส-เชื่อมั่น และกลายเป็นผู้เล่น “ระดับชาติ” ที่ซัพพอร์ตนโยบายจีน

    https://www.tomshardware.com/pc-components/gpus/blacklisted-chinese-gpu-makers-line-up-to-file-for-ipos-as-us-sanctions-and-trade-war-take-toll-on-ai-hardware-market
    แม้จะถูกสหรัฐสั่งห้ามซื้อชิป AI รุ่นใหม่จากค่ายใหญ่ (เช่น NVIDIA H100/H20) แต่จีนไม่ยอมแพ้ครับ — บริษัท GPU ระดับแถวหน้าอย่าง Biren Technology, Moore Threads, MetaX, และ Zhaoxin ต่างเดินหน้าขึ้นตลาดหุ้นในประเทศตัวเอง ไม่ว่าจะเป็นตลาด STAR Market ของเซี่ยงไฮ้หรือฮ่องกง เพื่อหาทุนไปพัฒนาเทคโนโลยี AI, GPU สำหรับเกม, หรือระบบซูเปอร์คอมพิวเตอร์ ขณะเดียวกัน บริษัทอย่าง Innosilicon, Illuvatar CoreX, และ DenglinAI เลือก “อยู่แบบเงียบ ๆ” ยังไม่รีบเปิดตัวสู่สาธารณะ เพราะต้องการความยืดหยุ่นจากการไม่ต้องรายงานงบการเงินหรือถูกจับตามองจากภายนอก เรื่องนี้สะท้อนให้เห็นว่าหลังจากถูกกดดันจากสหรัฐ จีนเลือกที่จะ “ต่อสู้ด้วยการสร้าง ecosystem ของตัวเอง” ที่ใช้ได้แม้ไม่มีเทคโนโลยีตะวันตก ทั้งยังเสริมบทบาทของตลาดหุ้นจีนให้กลายเป็นจุดเริ่มต้นของการเติบโตในอุตสาหกรรม AI แบบพึ่งพาตัวเองมากขึ้น ✅ บริษัท GPU จีนจำนวนมากกำลังเตรียมเข้าตลาดหุ้นท้องถิ่นท่ามกลางแรงกดดันจากสหรัฐฯ   • เช่น Biren, Moore Threads, MetaX, Zhaoxin   • เพื่อต้องการระดมทุนสำหรับ R&D, ปรับขนาดการผลิต และขยายทีมงาน ✅ Biren Technology เดินเรื่อง IPO มาตั้งแต่หลายปีก่อน   • ยังไม่ประกาศว่าจะเข้าตลาดไหน (Shanghai STAR Market หรือฮ่องกง) ✅ Moore Threads จัดโครงสร้างใหม่เป็นบริษัทจำกัด-หุ้น เพื่อเตรียมเข้าตลาดหลักทรัพย์จีน   • เน้นธุรกิจ GPU สำหรับเกมและบางส่วนของงาน AI ✅ MetaX ผ่านกระบวนการ “tutoring” เพื่อเตรียม IPO แล้ว   • ระดมทุนไปแล้วกว่า 8 รอบ มูลค่าประเมินราว ¥10,000 ล้าน (≈ $1.38 พันล้าน) ✅ Zhaoxin ซึ่งพัฒนา CPU สถาปัตยกรรม x86 แบบมี GPU ฝังในตัว   • กำลังยื่นจดทะเบียนเข้าตลาด STAR Market ภายในกลางปี 2025 ✅ เหตุผลหลักของการ IPO คือ:  • ต้องการเงินลงทุนมหาศาลเพื่อแข่งขันกับ NVIDIA, AMD   • ต้องการสร้างความโปร่งใส-เชื่อมั่น และกลายเป็นผู้เล่น “ระดับชาติ” ที่ซัพพอร์ตนโยบายจีน https://www.tomshardware.com/pc-components/gpus/blacklisted-chinese-gpu-makers-line-up-to-file-for-ipos-as-us-sanctions-and-trade-war-take-toll-on-ai-hardware-market
    0 Comments 0 Shares 158 Views 0 Reviews
  • หลายคนอาจเคยได้ยินชื่อ DLSS ว่าคือระบบ “ขยายภาพความละเอียดต่ำให้ดูเหมือน 4K” ได้แบบเนียน ๆ ด้วย AI — ที่ผ่านมา DLSS 2 กับ 3 ใช้ neural network แบบเก่า (convolutional) ซึ่งแม้จะดีมาก แต่ก็มีข้อเสีย เช่น ภาพเบลอ, ghosting, หรือเส้นขอบภาพสั่น ๆ เวลาเคลื่อนไหว

    DLSS 4 แก้ปัญหานั้นด้วยการใช้ “Transformer” แบบเดียวกับที่ใช้ในโมเดลภาษาอย่าง GPT — ทำให้ AI เข้าใจภาพทั้งเฟรมแบบลึกขึ้น ผลลัพธ์คือ ภาพที่ขึ้นคมชัดกว่าเดิม แม้จะอัปจากเฟรมต่ำ ๆ เช่น 540p

    สิ่งสำคัญคือ DLSS 4 นี้ ไม่จำกัดเฉพาะ RTX 50 แต่ รองรับตั้งแต่ RTX 20 ขึ้นไปด้วย! แค่ไม่สามารถใช้ฟีเจอร์ frame generation ที่ผูกกับฮาร์ดแวร์ใหม่ได้เท่านั้น

    DLSS 4 เวอร์ชันใหม่ที่ใช้ Transformer model ออกจากสถานะเบต้าแล้ว  
    • อยู่ในชุด SDK หลักของ Nvidia DLSS Super Resolution + Ray Reconstruction  
    • พร้อมให้ผู้พัฒนาเกมใช้ได้อย่างเป็นทางการ

    Transformer model เข้ามาแทน CNN ที่ใช้มาตั้งแต่ DLSS 2 (ปี 2020)  
    • ลดปัญหาภาพเบลอ, ghosting, เส้นขอบสั่น  
    • ทำให้การอัปภาพจากครึ่งความละเอียด (performance mode) ดูดีขึ้นชัดเจน

    ไม่ต้องมี RTX 50 ก็ใช้ได้ — รองรับตั้งแต่ RTX 20 Series ขึ้นไป  
    • ฟีเจอร์ frame generation (multi-frame) ยังคง exclusive สำหรับ RTX 50 เท่านั้น

    สามารถบังคับใช้ DLSS 4 Transformer กับเกมเก่าได้ผ่าน Nvidia App  
    • ไปที่ Graphics > DLSS Override > เลือก Latest  
    • หรือใช้แอป 3rd party เช่น DLSS Swapper, DLSS Updater

    Diablo IV เตรียมเป็นเกมใหญ่เกมถัดไปที่อัปเดต DLSS 4 อย่างเป็นทางการในซีซัน 9 (1 ก.ค.)  
    • เกมอื่นที่ใช้เบต้าอยู่แล้ว เช่น Doom: The Dark Ages, Dune: Awakening, Stellar Blade

    รีวิวชี้ว่า DLSS 4 Transformer คุณภาพดีกว่า FSR 4 (ของ AMD)  
    • โดยเฉพาะในโหมด 4K upscaling

    https://www.techspot.com/news/108452-nvidia-dlss-4-transformer-model-exits-beta-set.html
    หลายคนอาจเคยได้ยินชื่อ DLSS ว่าคือระบบ “ขยายภาพความละเอียดต่ำให้ดูเหมือน 4K” ได้แบบเนียน ๆ ด้วย AI — ที่ผ่านมา DLSS 2 กับ 3 ใช้ neural network แบบเก่า (convolutional) ซึ่งแม้จะดีมาก แต่ก็มีข้อเสีย เช่น ภาพเบลอ, ghosting, หรือเส้นขอบภาพสั่น ๆ เวลาเคลื่อนไหว DLSS 4 แก้ปัญหานั้นด้วยการใช้ “Transformer” แบบเดียวกับที่ใช้ในโมเดลภาษาอย่าง GPT — ทำให้ AI เข้าใจภาพทั้งเฟรมแบบลึกขึ้น ผลลัพธ์คือ ภาพที่ขึ้นคมชัดกว่าเดิม แม้จะอัปจากเฟรมต่ำ ๆ เช่น 540p สิ่งสำคัญคือ DLSS 4 นี้ ไม่จำกัดเฉพาะ RTX 50 แต่ รองรับตั้งแต่ RTX 20 ขึ้นไปด้วย! แค่ไม่สามารถใช้ฟีเจอร์ frame generation ที่ผูกกับฮาร์ดแวร์ใหม่ได้เท่านั้น ✅ DLSS 4 เวอร์ชันใหม่ที่ใช้ Transformer model ออกจากสถานะเบต้าแล้ว   • อยู่ในชุด SDK หลักของ Nvidia DLSS Super Resolution + Ray Reconstruction   • พร้อมให้ผู้พัฒนาเกมใช้ได้อย่างเป็นทางการ ✅ Transformer model เข้ามาแทน CNN ที่ใช้มาตั้งแต่ DLSS 2 (ปี 2020)   • ลดปัญหาภาพเบลอ, ghosting, เส้นขอบสั่น   • ทำให้การอัปภาพจากครึ่งความละเอียด (performance mode) ดูดีขึ้นชัดเจน ✅ ไม่ต้องมี RTX 50 ก็ใช้ได้ — รองรับตั้งแต่ RTX 20 Series ขึ้นไป   • ฟีเจอร์ frame generation (multi-frame) ยังคง exclusive สำหรับ RTX 50 เท่านั้น ✅ สามารถบังคับใช้ DLSS 4 Transformer กับเกมเก่าได้ผ่าน Nvidia App   • ไปที่ Graphics > DLSS Override > เลือก Latest   • หรือใช้แอป 3rd party เช่น DLSS Swapper, DLSS Updater ✅ Diablo IV เตรียมเป็นเกมใหญ่เกมถัดไปที่อัปเดต DLSS 4 อย่างเป็นทางการในซีซัน 9 (1 ก.ค.)   • เกมอื่นที่ใช้เบต้าอยู่แล้ว เช่น Doom: The Dark Ages, Dune: Awakening, Stellar Blade ✅ รีวิวชี้ว่า DLSS 4 Transformer คุณภาพดีกว่า FSR 4 (ของ AMD)   • โดยเฉพาะในโหมด 4K upscaling https://www.techspot.com/news/108452-nvidia-dlss-4-transformer-model-exits-beta-set.html
    WWW.TECHSPOT.COM
    Nvidia DLSS 4 transformer model exits beta, set to bring improved graphics to more games
    The latest version of Nvidia's DLSS Super Resolution and Ray Reconstruction SDK, released on Wednesday, brings the transformer model out of beta. Promoting the upscaling technology into...
    0 Comments 0 Shares 177 Views 0 Reviews
  • ลองนึกภาพดูว่าในศูนย์ข้อมูลหนึ่ง มีงานมากมายที่ IT ต้องจัดการทุกวัน เช่น แก้ไข network, config storage, เช็ก log, ปรับโหลด cloud — ทั้งหมดนี้ใช้เวลาและต้องการผู้เชี่ยวชาญหลายคน

    แต่ HPE กำลังจะเปลี่ยนสิ่งเหล่านั้นให้กลายเป็น “การสนทนากับ agent” — คุณแค่ถามในสไตล์แชต แล้ว AI จะประมวลผลข้อมูล, หา insight, เสนอทางแก้ หรือ บางทียังทำแทนให้เองเลยด้วยซ้ำ (แต่ยังให้คุณกดยืนยันก่อนเสมอ)

    หัวใจอยู่ที่ GreenLake Intelligence ซึ่งมี multi-agent system ที่ทำหน้าที่เฉพาะ เช่น จัดการ storage, monitor network, สร้าง dashboard, หรือคุยกับระบบ cloud อื่นได้ — และมี “GreenLake Copilot” เป็นอินเทอร์เฟซแบบแชต ช่วยให้คนไอทีใช้งานง่ายแบบไม่ต้องพิมพ์โค้ด

    นอกจากนี้ HPE ยังพัฒนา hardware และ software เสริมชุดใหญ่ เช่น AI Factory รุ่นใหม่ที่ใช้ Nvidia Blackwell GPU, ระบบ CloudOps, และหน่วยเก็บข้อมูล Alletra X10000 ที่รองรับการวิเคราะห์ context ระดับระบบ (ผ่านโปรโตคอล MCP)

    HPE เปิดตัว GreenLake Intelligence พร้อมแนวคิด AgenticOps  
    • ใช้ AI agents ทำงานซ้ำซ้อนในระบบ IT แทนคนได้ (แต่มี human-in-the-loop)  
    • ครอบคลุมงาน config, observability, storage, network และ more

    GreenLake Copilot คืออินเทอร์เฟซแบบแชตที่ให้คุยกับ AI ได้ทันที  
    • ใช้ภาษาธรรมดาถามเรื่อง log, ปัญหา network, ความเสถียรระบบ ฯลฯ  
    • ทำงานร่วมกับ LLM และ ML ที่เทรนจากข้อมูลองค์กร

    ตัวอย่างการใช้งานที่น่าสนใจ:  
    • Aruba Central ใช้ GreenLake Copilot ในการจัดการเครือข่ายแบบ real-time  
    • สร้าง visual dashboard จาก log อัตโนมัติ  
    • เสนอวิธีแก้ปัญหาแบบทีละขั้น หรือลงมือทำแทนได้

    HPE เสริมด้วย CloudOps (รวม OpsRamp, Morpheus, Zerto)  
    • ใช้ GenAI ช่วยจัดการ observability, virtualization, และความปลอดภัยของ data

    เปิดตัว AI Factory Gen 2 ที่ใช้ Nvidia Blackwell RTX Pro 6000  
    • รองรับการประมวลผล AI model สำหรับองค์กรโดยเฉพาะ  
    • ใช้งานร่วมกับระบบของคู่แข่งได้ (เช่น OpsRamp ใช้กับ AI Factory ทุกแบรนด์)

    ระบบเก็บข้อมูล Alletra X10000 รองรับ MCP (Media Context Protocol)  
    • เชื่อมโยงกับ AI/LLM ได้โดยตรง  
    • ส่งข้อมูลระหว่าง server, storage, observability tools ได้รวดเร็ว

    ลุงจะตกงานแล้วววววว !!!

    https://www.techspot.com/news/108437-hpe-greenlake-intelligence-brings-agentic-ai-operations.html
    ลองนึกภาพดูว่าในศูนย์ข้อมูลหนึ่ง มีงานมากมายที่ IT ต้องจัดการทุกวัน เช่น แก้ไข network, config storage, เช็ก log, ปรับโหลด cloud — ทั้งหมดนี้ใช้เวลาและต้องการผู้เชี่ยวชาญหลายคน แต่ HPE กำลังจะเปลี่ยนสิ่งเหล่านั้นให้กลายเป็น “การสนทนากับ agent” — คุณแค่ถามในสไตล์แชต แล้ว AI จะประมวลผลข้อมูล, หา insight, เสนอทางแก้ หรือ บางทียังทำแทนให้เองเลยด้วยซ้ำ (แต่ยังให้คุณกดยืนยันก่อนเสมอ) หัวใจอยู่ที่ GreenLake Intelligence ซึ่งมี multi-agent system ที่ทำหน้าที่เฉพาะ เช่น จัดการ storage, monitor network, สร้าง dashboard, หรือคุยกับระบบ cloud อื่นได้ — และมี “GreenLake Copilot” เป็นอินเทอร์เฟซแบบแชต ช่วยให้คนไอทีใช้งานง่ายแบบไม่ต้องพิมพ์โค้ด นอกจากนี้ HPE ยังพัฒนา hardware และ software เสริมชุดใหญ่ เช่น AI Factory รุ่นใหม่ที่ใช้ Nvidia Blackwell GPU, ระบบ CloudOps, และหน่วยเก็บข้อมูล Alletra X10000 ที่รองรับการวิเคราะห์ context ระดับระบบ (ผ่านโปรโตคอล MCP) ✅ HPE เปิดตัว GreenLake Intelligence พร้อมแนวคิด AgenticOps   • ใช้ AI agents ทำงานซ้ำซ้อนในระบบ IT แทนคนได้ (แต่มี human-in-the-loop)   • ครอบคลุมงาน config, observability, storage, network และ more ✅ GreenLake Copilot คืออินเทอร์เฟซแบบแชตที่ให้คุยกับ AI ได้ทันที   • ใช้ภาษาธรรมดาถามเรื่อง log, ปัญหา network, ความเสถียรระบบ ฯลฯ   • ทำงานร่วมกับ LLM และ ML ที่เทรนจากข้อมูลองค์กร ✅ ตัวอย่างการใช้งานที่น่าสนใจ:   • Aruba Central ใช้ GreenLake Copilot ในการจัดการเครือข่ายแบบ real-time   • สร้าง visual dashboard จาก log อัตโนมัติ   • เสนอวิธีแก้ปัญหาแบบทีละขั้น หรือลงมือทำแทนได้ ✅ HPE เสริมด้วย CloudOps (รวม OpsRamp, Morpheus, Zerto)   • ใช้ GenAI ช่วยจัดการ observability, virtualization, และความปลอดภัยของ data ✅ เปิดตัว AI Factory Gen 2 ที่ใช้ Nvidia Blackwell RTX Pro 6000   • รองรับการประมวลผล AI model สำหรับองค์กรโดยเฉพาะ   • ใช้งานร่วมกับระบบของคู่แข่งได้ (เช่น OpsRamp ใช้กับ AI Factory ทุกแบรนด์) ✅ ระบบเก็บข้อมูล Alletra X10000 รองรับ MCP (Media Context Protocol)   • เชื่อมโยงกับ AI/LLM ได้โดยตรง   • ส่งข้อมูลระหว่าง server, storage, observability tools ได้รวดเร็ว ลุงจะตกงานแล้วววววว !!! 😭😭 https://www.techspot.com/news/108437-hpe-greenlake-intelligence-brings-agentic-ai-operations.html
    WWW.TECHSPOT.COM
    HPE's GreenLake intelligence brings agentic AI to IT operations
    In case you haven't heard, GenAI is old news. Now, it's all about agentic AI. At least, that certainly seems to be the theme based on the...
    0 Comments 0 Shares 214 Views 0 Reviews
  • หลังหายไปจากตลาดตั้งแต่ RTX 3050 รุ่น desktop ในปี 2022 (เพราะ RTX 40 ซีรีส์ไม่มีตัว 4050 แบบ desktop) Nvidia ก็ประกาศกลับมาทำ GPU รุ่นราคาถูกอย่างเป็นทางการอีกครั้ง กับการเปิดตัว RTX 5050 ในเดือนกรกฎาคม 2025

    จุดน่าสนใจคือ แม้จะราคาแค่ $249 แต่ RTX 5050:
    - ใช้ CUDA core 2,560 หน่วย (เท่ากับ RTX 3050 เดิม)
    - มี VRAM ขนาด 8GB GDDR6 แบบ 128-bit
    - แต่ได้ core เทคโนโลยีใหม่ทั้ง DLSS 4 multi-frame gen, 9th-gen NVENC, 6th-gen NVDEC, และรองรับ PCIe Gen5

    แม้จะใช้ GDDR6 (ไม่ใช่ GDDR7 แบบรุ่นใหญ่ใน RTX 50 ซีรีส์) แต่ได้ Tensor cores ที่รองรับ AI TOPS ระดับสูง (421 TOPS) และ RT core แรงระดับ 40 TFLOPS — มากพอจะใช้ฟีเจอร์ยุคใหม่บนความละเอียด 1080p ได้อย่างลื่น ๆ

    พลังงานอยู่ที่ 130W ใช้แค่ 8-pin ปกติ และแนะนำ PSU 550W เท่านั้น — ประหยัด ไซซ์เล็ก ใส่เคสได้ง่าย

    คาดว่า Nvidia เปิดตัวรุ่นนี้มาเพื่อตอบโต้งานหนักจาก AMD ที่เปิดตัวซีรีส์ RX 9000 XT ในช่วงเดียวกัน

    RTX 5050 เปิดตัวด้วยราคา $249 พร้อมวางจำหน่ายกรกฎาคม 2025  
    • ถูกกว่า RTX 5060 อยู่ $50

    ใช้สถาปัตยกรรม Blackwell พร้อมฟีเจอร์ใหม่ระดับเดียวกับรุ่นท็อป  
    • DLSS 4 Multi-frame Generation  
    • NVENC Gen9, NVDEC Gen6  
    • PCIe Gen5 รองรับการ์ด/เมนบอร์ดรุ่นใหม่

    สเปก RTX 5050  
    • CUDA: 2,560 cores (เท่ากับ RTX 3050)  
    • VRAM: 8GB GDDR6 (128-bit)  
    • Clock: 2.57GHz  
    • TGP: 130W / PSU 550W / 1x 8-pin

    ยังคงพอร์ตแสดงผลคลาสสิก  
    • 3x DisplayPort, 1x HDMI

    สามารถใช้ DLSS4 ได้ แม้จะเป็นรุ่น GDDR6 ไม่ใช่ GDDR7

    ถือเป็นรุ่นซีรีส์ "50" ตัวแรกตั้งแต่ RTX 3050 เมื่อ 3 ปีก่อน

    https://www.neowin.net/news/nvidia-announces-rtx-5050-desktop-graphics-card-for-more-affordable-next-gen-gaming/
    หลังหายไปจากตลาดตั้งแต่ RTX 3050 รุ่น desktop ในปี 2022 (เพราะ RTX 40 ซีรีส์ไม่มีตัว 4050 แบบ desktop) Nvidia ก็ประกาศกลับมาทำ GPU รุ่นราคาถูกอย่างเป็นทางการอีกครั้ง กับการเปิดตัว RTX 5050 ในเดือนกรกฎาคม 2025 จุดน่าสนใจคือ แม้จะราคาแค่ $249 แต่ RTX 5050: - ใช้ CUDA core 2,560 หน่วย (เท่ากับ RTX 3050 เดิม) - มี VRAM ขนาด 8GB GDDR6 แบบ 128-bit - แต่ได้ core เทคโนโลยีใหม่ทั้ง DLSS 4 multi-frame gen, 9th-gen NVENC, 6th-gen NVDEC, และรองรับ PCIe Gen5 แม้จะใช้ GDDR6 (ไม่ใช่ GDDR7 แบบรุ่นใหญ่ใน RTX 50 ซีรีส์) แต่ได้ Tensor cores ที่รองรับ AI TOPS ระดับสูง (421 TOPS) และ RT core แรงระดับ 40 TFLOPS — มากพอจะใช้ฟีเจอร์ยุคใหม่บนความละเอียด 1080p ได้อย่างลื่น ๆ พลังงานอยู่ที่ 130W ใช้แค่ 8-pin ปกติ และแนะนำ PSU 550W เท่านั้น — ประหยัด ไซซ์เล็ก ใส่เคสได้ง่าย คาดว่า Nvidia เปิดตัวรุ่นนี้มาเพื่อตอบโต้งานหนักจาก AMD ที่เปิดตัวซีรีส์ RX 9000 XT ในช่วงเดียวกัน ✅ RTX 5050 เปิดตัวด้วยราคา $249 พร้อมวางจำหน่ายกรกฎาคม 2025   • ถูกกว่า RTX 5060 อยู่ $50 ✅ ใช้สถาปัตยกรรม Blackwell พร้อมฟีเจอร์ใหม่ระดับเดียวกับรุ่นท็อป   • DLSS 4 Multi-frame Generation   • NVENC Gen9, NVDEC Gen6   • PCIe Gen5 รองรับการ์ด/เมนบอร์ดรุ่นใหม่ ✅ สเปก RTX 5050   • CUDA: 2,560 cores (เท่ากับ RTX 3050)   • VRAM: 8GB GDDR6 (128-bit)   • Clock: 2.57GHz   • TGP: 130W / PSU 550W / 1x 8-pin ✅ ยังคงพอร์ตแสดงผลคลาสสิก   • 3x DisplayPort, 1x HDMI ✅ สามารถใช้ DLSS4 ได้ แม้จะเป็นรุ่น GDDR6 ไม่ใช่ GDDR7 ✅ ถือเป็นรุ่นซีรีส์ "50" ตัวแรกตั้งแต่ RTX 3050 เมื่อ 3 ปีก่อน https://www.neowin.net/news/nvidia-announces-rtx-5050-desktop-graphics-card-for-more-affordable-next-gen-gaming/
    WWW.NEOWIN.NET
    Nvidia announces RTX 5050 desktop graphics card for more affordable next-gen gaming
    Nvidia has a new budget-friendly graphics card for those who cannot afford an expensive GPU but still want to taste those sweet next-gen frames that the RTX 50 series offers.
    0 Comments 0 Shares 112 Views 0 Reviews
  • เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์

    แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ”

    สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64)

    ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง

    https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์ แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ” สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64) ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    0 Comments 0 Shares 161 Views 0 Reviews
  • หากคุณเคยตามวงการไอทีมาตั้งแต่ยุค 2000 คงเคยได้ยินว่า “ไมโครซอฟท์เคยเกลียดลินุกซ์เข้าไส้” ถึงขั้นที่อดีตซีอีโอ Steve Ballmer เคยเปรียบลินุกซ์ว่าเป็น "cancer" ด้านลิขสิทธิ์ (intellectual property) เพราะมันเป็นซอฟต์แวร์โอเพนซอร์สที่เติบโตเร็วและขัดแย้งกับโมเดลของ Windows อย่างชัดเจน

    จนกระทั่งเมื่อเร็ว ๆ นี้ ทั้ง Gates และ Torvalds ได้พบกันในงานดินเนอร์ร่วมกับ Dave Cutler (ผู้สร้าง Windows NT) และ Mark Russinovich (CTO ของ Microsoft) ที่โพสต์ภาพลง LinkedIn แบบติดตลกว่า “มื้อนี้ยังไม่ได้ตัดสินใจอะไรเรื่อง kernel แต่ไว้มื้อต่อไปก็ยังทัน”

    เป็นการพบกันที่ไม่มีใครเคยคิดว่าจะเกิดขึ้น เพราะ Gates คือผู้นำฝั่ง proprietary software ส่วน Torvalds คือตำนานฝั่ง open source ที่เคยพูดแรงใส่บริษัทต่าง ๆ (เขาเคยแจกนิ้วกลางให้ NVIDIA และด่า Intel แบบไม่ไว้หน้า) แต่หลังจากปี 2014 ที่ Satya Nadella เข้ารับตำแหน่ง CEO ไมโครซอฟท์ก็เริ่มเปิดใจมากขึ้น — สนับสนุนโอเพนซอร์ส, เข้าร่วม Linux Foundation, และเปิดซอร์ส .NET

    มื้อนี้จึงถือเป็นสัญลักษณ์ของ “การปรับมุมมองจากคู่แข่งสู่การร่วมโต๊ะ” ได้อย่างแท้จริง

    https://www.techspot.com/news/108415-bill-gates-finally-meets-linus-torvalds-dinner-tech.html
    หากคุณเคยตามวงการไอทีมาตั้งแต่ยุค 2000 คงเคยได้ยินว่า “ไมโครซอฟท์เคยเกลียดลินุกซ์เข้าไส้” ถึงขั้นที่อดีตซีอีโอ Steve Ballmer เคยเปรียบลินุกซ์ว่าเป็น "cancer" ด้านลิขสิทธิ์ (intellectual property) เพราะมันเป็นซอฟต์แวร์โอเพนซอร์สที่เติบโตเร็วและขัดแย้งกับโมเดลของ Windows อย่างชัดเจน จนกระทั่งเมื่อเร็ว ๆ นี้ ทั้ง Gates และ Torvalds ได้พบกันในงานดินเนอร์ร่วมกับ Dave Cutler (ผู้สร้าง Windows NT) และ Mark Russinovich (CTO ของ Microsoft) ที่โพสต์ภาพลง LinkedIn แบบติดตลกว่า “มื้อนี้ยังไม่ได้ตัดสินใจอะไรเรื่อง kernel แต่ไว้มื้อต่อไปก็ยังทัน” เป็นการพบกันที่ไม่มีใครเคยคิดว่าจะเกิดขึ้น เพราะ Gates คือผู้นำฝั่ง proprietary software ส่วน Torvalds คือตำนานฝั่ง open source ที่เคยพูดแรงใส่บริษัทต่าง ๆ (เขาเคยแจกนิ้วกลางให้ NVIDIA และด่า Intel แบบไม่ไว้หน้า) แต่หลังจากปี 2014 ที่ Satya Nadella เข้ารับตำแหน่ง CEO ไมโครซอฟท์ก็เริ่มเปิดใจมากขึ้น — สนับสนุนโอเพนซอร์ส, เข้าร่วม Linux Foundation, และเปิดซอร์ส .NET มื้อนี้จึงถือเป็นสัญลักษณ์ของ “การปรับมุมมองจากคู่แข่งสู่การร่วมโต๊ะ” ได้อย่างแท้จริง https://www.techspot.com/news/108415-bill-gates-finally-meets-linus-torvalds-dinner-tech.html
    WWW.TECHSPOT.COM
    Bill Gates and Linus Torvalds meet for the first time at tech titans' dinner
    Microsoft chief technical officer Mark Russinovich posted evidence of the historic dinner in a LinkedIn post. Dave Cutler, the legendary programmer and lead architect of the Windows...
    0 Comments 0 Shares 118 Views 0 Reviews
More Results