• AMD เตรียมเปิดตัว GPU แบบ multi-chiplet – เร็วขึ้น ฉลาดขึ้น และอาจเปลี่ยนเกมทั้งวงการ

    AMD กำลังเตรียมเปิดตัว GPU สำหรับเกมที่ใช้สถาปัตยกรรมแบบ multi-chiplet ซึ่งเคยใช้กับชิป AI อย่าง Instinct MI200 และ MI350 โดยนำแนวคิดการแบ่งชิปเป็นส่วนย่อย (chiplets) มาใช้กับกราฟิกการ์ด เพื่อเพิ่มประสิทธิภาพและลดข้อจำกัดของการออกแบบแบบ monolithic

    ปัญหาใหญ่ของการใช้ chiplet กับ GPU คือ “latency” หรือความล่าช้าในการส่งข้อมูลระหว่างชิป ซึ่งส่งผลต่อการแสดงผลภาพแบบ real-time ที่ต้องการความเร็วสูงมาก

    AMD จึงคิดค้น “smart switch” ซึ่งเป็นวงจร data fabric ที่ช่วยตัดสินใจในระดับนาโนวินาทีว่าควรย้ายงานหรือคัดลอกข้อมูลระหว่าง chiplets เพื่อให้การเข้าถึงหน่วยความจำเร็วขึ้น โดยมีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets คล้ายกับเทคโนโลยี 3D V-Cache ที่ใช้ใน CPU

    นอกจากนี้ AMD ยังเตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันภายใต้ชื่อ “UDNA” ซึ่งจะช่วยให้สามารถใช้ซอฟต์แวร์ร่วมกัน เช่น driver และ compiler ได้อย่างมีประสิทธิภาพ

    แม้จะยังไม่มีการเปิดตัวผลิตภัณฑ์จริง แต่การจดสิทธิบัตรและการเตรียม ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ ทำให้หลายฝ่ายเชื่อว่า GPU แบบ multi-chiplet ของ AMD อาจเปิดตัวเร็ว ๆ นี้

    ข้อมูลจากข่าว
    - AMD เตรียมเปิดตัว GPU แบบ multi-chiplet สำหรับเกม โดยอาจใช้ชื่อสถาปัตยกรรมว่า UDNA
    - ใช้แนวคิดจากชิป AI เช่น Instinct MI200 และ MI350 ที่แบ่งชิปเป็นหลายส่วน
    - ปัญหา latency ถูกแก้ด้วย “smart switch” ที่ตัดสินใจการเข้าถึงข้อมูลในระดับนาโนวินาที
    - มีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets
    - ใช้เทคโนโลยีจาก TSMC เช่น InFO-RDL bridges และ Infinity Fabric เวอร์ชันใหม่
    - AMD เตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันเพื่อประหยัดทรัพยากรด้านซอฟต์แวร์
    - การออกแบบนี้อาจช่วยให้ AMD แข่งขันกับ NVIDIA ได้ดีขึ้นในอนาคต

    คำเตือนและข้อควรระวัง
    - การใช้ chiplet กับ GPU ยังมีความเสี่ยงด้าน latency ที่อาจส่งผลต่อประสบการณ์เล่นเกม
    - การออกแบบแบบใหม่ต้องใช้เวลาในการพัฒนา ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์
    - หาก smart switch ไม่สามารถจัดการข้อมูลได้เร็วพอ อาจทำให้ประสิทธิภาพลดลง
    - การรวมสถาปัตยกรรมเกมและ AI อาจทำให้เกิดความซับซ้อนในการพัฒนา driver และ compiler
    - ผู้ใช้ทั่วไปอาจต้องรออีกระยะก่อนจะได้เห็นผลิตภัณฑ์จริงในตลาด

    https://wccftech.com/amd-chiplet-based-gaming-gpus-are-much-closer-than-you-think/
    AMD เตรียมเปิดตัว GPU แบบ multi-chiplet – เร็วขึ้น ฉลาดขึ้น และอาจเปลี่ยนเกมทั้งวงการ AMD กำลังเตรียมเปิดตัว GPU สำหรับเกมที่ใช้สถาปัตยกรรมแบบ multi-chiplet ซึ่งเคยใช้กับชิป AI อย่าง Instinct MI200 และ MI350 โดยนำแนวคิดการแบ่งชิปเป็นส่วนย่อย (chiplets) มาใช้กับกราฟิกการ์ด เพื่อเพิ่มประสิทธิภาพและลดข้อจำกัดของการออกแบบแบบ monolithic ปัญหาใหญ่ของการใช้ chiplet กับ GPU คือ “latency” หรือความล่าช้าในการส่งข้อมูลระหว่างชิป ซึ่งส่งผลต่อการแสดงผลภาพแบบ real-time ที่ต้องการความเร็วสูงมาก AMD จึงคิดค้น “smart switch” ซึ่งเป็นวงจร data fabric ที่ช่วยตัดสินใจในระดับนาโนวินาทีว่าควรย้ายงานหรือคัดลอกข้อมูลระหว่าง chiplets เพื่อให้การเข้าถึงหน่วยความจำเร็วขึ้น โดยมีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets คล้ายกับเทคโนโลยี 3D V-Cache ที่ใช้ใน CPU นอกจากนี้ AMD ยังเตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันภายใต้ชื่อ “UDNA” ซึ่งจะช่วยให้สามารถใช้ซอฟต์แวร์ร่วมกัน เช่น driver และ compiler ได้อย่างมีประสิทธิภาพ แม้จะยังไม่มีการเปิดตัวผลิตภัณฑ์จริง แต่การจดสิทธิบัตรและการเตรียม ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ ทำให้หลายฝ่ายเชื่อว่า GPU แบบ multi-chiplet ของ AMD อาจเปิดตัวเร็ว ๆ นี้ ✅ ข้อมูลจากข่าว - AMD เตรียมเปิดตัว GPU แบบ multi-chiplet สำหรับเกม โดยอาจใช้ชื่อสถาปัตยกรรมว่า UDNA - ใช้แนวคิดจากชิป AI เช่น Instinct MI200 และ MI350 ที่แบ่งชิปเป็นหลายส่วน - ปัญหา latency ถูกแก้ด้วย “smart switch” ที่ตัดสินใจการเข้าถึงข้อมูลในระดับนาโนวินาที - มีการใช้แคช L1, L2 และ L3 แบบแชร์ร่วมกันระหว่าง chiplets - ใช้เทคโนโลยีจาก TSMC เช่น InFO-RDL bridges และ Infinity Fabric เวอร์ชันใหม่ - AMD เตรียมรวมสถาปัตยกรรมเกมและ AI เข้าด้วยกันเพื่อประหยัดทรัพยากรด้านซอฟต์แวร์ - การออกแบบนี้อาจช่วยให้ AMD แข่งขันกับ NVIDIA ได้ดีขึ้นในอนาคต ‼️ คำเตือนและข้อควรระวัง - การใช้ chiplet กับ GPU ยังมีความเสี่ยงด้าน latency ที่อาจส่งผลต่อประสบการณ์เล่นเกม - การออกแบบแบบใหม่ต้องใช้เวลาในการพัฒนา ecosystem ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ - หาก smart switch ไม่สามารถจัดการข้อมูลได้เร็วพอ อาจทำให้ประสิทธิภาพลดลง - การรวมสถาปัตยกรรมเกมและ AI อาจทำให้เกิดความซับซ้อนในการพัฒนา driver และ compiler - ผู้ใช้ทั่วไปอาจต้องรออีกระยะก่อนจะได้เห็นผลิตภัณฑ์จริงในตลาด https://wccftech.com/amd-chiplet-based-gaming-gpus-are-much-closer-than-you-think/
    WCCFTECH.COM
    AMD's "Multi-Chiplet" Gaming GPUs Are Much Closer Than You Think; Might Debut With The Next UDNA Architecture
    AMD has big plans for the future of the consumer GPU segment, and they aren't ordinary ones, since based on rumors and new patents.
    0 ความคิดเห็น 0 การแบ่งปัน 46 มุมมอง 0 รีวิว
  • Huawei เปลี่ยนกลยุทธ์ชิป AI – หวังแซง NVIDIA ด้วยแนวทางใหม่

    แม้สหรัฐฯ จะออกมาตรการแบนไม่ให้ NVIDIA ขายชิป AI รุ่นใหม่ในจีน แต่ความต้องการในตลาดยังสูงมาก จนรัฐบาลสหรัฐฯ พิจารณาแบนประเทศอื่นอย่างมาเลเซียและไทยที่อาจเป็นช่องทางลัดให้จีนเข้าถึงชิปเหล่านี้

    Huawei จึงตัดสินใจเปลี่ยนกลยุทธ์ครั้งใหญ่ โดยจะเลิกเน้นการผลิตชิปแบบ ASIC ที่ออกแบบมาเฉพาะงาน และหันไปพัฒนาชิปแบบ general-purpose ที่สามารถใช้งานได้หลากหลายเหมือนกับ GPU ของ NVIDIA และ AMD

    จุดเปลี่ยนสำคัญคือการพัฒนา “ซอฟต์แวร์ตัวกลาง” ที่สามารถแปลงคำสั่งจากภาษา Cuda (ที่ใช้กับ NVIDIA) ให้ทำงานกับชิปของ Huawei ได้ ซึ่งจะช่วยให้ผู้พัฒนาสามารถย้ายงานจาก NVIDIA มาสู่ Huawei ได้ง่ายขึ้น

    อย่างไรก็ตาม Huawei ยังต้องพึ่งโรงงานผลิตชิปของจีนอย่าง SMIC ซึ่งถูกแบนจากการเข้าถึงเครื่องจักรขั้นสูง ทำให้ยังผลิตได้แค่ระดับ 7 นาโนเมตร ขณะที่ NVIDIA ใช้เทคโนโลยีระดับ 4 นาโนเมตรหรือดีกว่า

    แม้จะมีข้อจำกัดด้านการผลิต แต่บริษัทเทคโนโลยีจีนอย่าง Alibaba และ Tencent อาจไม่มีทางเลือกในอนาคต หาก Huawei สามารถพัฒนาชิปให้ใกล้เคียงกับ NVIDIA ได้จริง

    ข้อมูลจากข่าว
    - Huawei เตรียมเปลี่ยนแนวทางการออกแบบชิป AI จาก ASIC ไปสู่ general-purpose GPU
    - พัฒนาซอฟต์แวร์ตัวกลางเพื่อให้รองรับภาษา Cuda ของ NVIDIA
    - หวังเพิ่มส่วนแบ่งตลาดในจีนที่ยังต้องการชิป AI อย่างมาก
    - SMIC เป็นโรงงานผลิตหลัก แต่ยังจำกัดที่เทคโนโลยี 7 นาโนเมตร
    - Alibaba และ Tencent อาจต้องหันมาใช้ชิปของ Huawei หากไม่มีทางเลือกอื่น
    - การเปลี่ยนแนวทางนี้อาจช่วยให้ Huawei แข่งขันกับ NVIDIA และ AMD ได้ดีขึ้นในระยะยาว

    คำเตือนและข้อควรระวัง
    - SMIC ยังไม่สามารถผลิตชิประดับสูงได้เทียบเท่ากับ TSMC หรือ Samsung ซึ่งเป็นข้อจำกัดสำคัญ
    - การพึ่งพาซอฟต์แวร์ตัวกลางอาจทำให้ประสิทธิภาพไม่เทียบเท่าการใช้ Cuda โดยตรง
    - การเปลี่ยนจาก ASIC ไปสู่ general-purpose ต้องใช้เวลาและทรัพยากรจำนวนมาก
    - หากซอฟต์แวร์ของ Huawei ไม่ได้รับการยอมรับจากนักพัฒนา อาจทำให้ชิปไม่ถูกใช้งานจริง
    - การแข่งขันกับ NVIDIA ต้องอาศัยทั้ง ecosystem, tooling และการสนับสนุนจากนักพัฒนา ซึ่ง Huawei ยังขาดอยู่

    https://wccftech.com/huawei-looks-to-shake-up-ai-chip-design-to-compete-with-nvidia-says-report/
    Huawei เปลี่ยนกลยุทธ์ชิป AI – หวังแซง NVIDIA ด้วยแนวทางใหม่ แม้สหรัฐฯ จะออกมาตรการแบนไม่ให้ NVIDIA ขายชิป AI รุ่นใหม่ในจีน แต่ความต้องการในตลาดยังสูงมาก จนรัฐบาลสหรัฐฯ พิจารณาแบนประเทศอื่นอย่างมาเลเซียและไทยที่อาจเป็นช่องทางลัดให้จีนเข้าถึงชิปเหล่านี้ Huawei จึงตัดสินใจเปลี่ยนกลยุทธ์ครั้งใหญ่ โดยจะเลิกเน้นการผลิตชิปแบบ ASIC ที่ออกแบบมาเฉพาะงาน และหันไปพัฒนาชิปแบบ general-purpose ที่สามารถใช้งานได้หลากหลายเหมือนกับ GPU ของ NVIDIA และ AMD จุดเปลี่ยนสำคัญคือการพัฒนา “ซอฟต์แวร์ตัวกลาง” ที่สามารถแปลงคำสั่งจากภาษา Cuda (ที่ใช้กับ NVIDIA) ให้ทำงานกับชิปของ Huawei ได้ ซึ่งจะช่วยให้ผู้พัฒนาสามารถย้ายงานจาก NVIDIA มาสู่ Huawei ได้ง่ายขึ้น อย่างไรก็ตาม Huawei ยังต้องพึ่งโรงงานผลิตชิปของจีนอย่าง SMIC ซึ่งถูกแบนจากการเข้าถึงเครื่องจักรขั้นสูง ทำให้ยังผลิตได้แค่ระดับ 7 นาโนเมตร ขณะที่ NVIDIA ใช้เทคโนโลยีระดับ 4 นาโนเมตรหรือดีกว่า แม้จะมีข้อจำกัดด้านการผลิต แต่บริษัทเทคโนโลยีจีนอย่าง Alibaba และ Tencent อาจไม่มีทางเลือกในอนาคต หาก Huawei สามารถพัฒนาชิปให้ใกล้เคียงกับ NVIDIA ได้จริง ✅ ข้อมูลจากข่าว - Huawei เตรียมเปลี่ยนแนวทางการออกแบบชิป AI จาก ASIC ไปสู่ general-purpose GPU - พัฒนาซอฟต์แวร์ตัวกลางเพื่อให้รองรับภาษา Cuda ของ NVIDIA - หวังเพิ่มส่วนแบ่งตลาดในจีนที่ยังต้องการชิป AI อย่างมาก - SMIC เป็นโรงงานผลิตหลัก แต่ยังจำกัดที่เทคโนโลยี 7 นาโนเมตร - Alibaba และ Tencent อาจต้องหันมาใช้ชิปของ Huawei หากไม่มีทางเลือกอื่น - การเปลี่ยนแนวทางนี้อาจช่วยให้ Huawei แข่งขันกับ NVIDIA และ AMD ได้ดีขึ้นในระยะยาว ‼️ คำเตือนและข้อควรระวัง - SMIC ยังไม่สามารถผลิตชิประดับสูงได้เทียบเท่ากับ TSMC หรือ Samsung ซึ่งเป็นข้อจำกัดสำคัญ - การพึ่งพาซอฟต์แวร์ตัวกลางอาจทำให้ประสิทธิภาพไม่เทียบเท่าการใช้ Cuda โดยตรง - การเปลี่ยนจาก ASIC ไปสู่ general-purpose ต้องใช้เวลาและทรัพยากรจำนวนมาก - หากซอฟต์แวร์ของ Huawei ไม่ได้รับการยอมรับจากนักพัฒนา อาจทำให้ชิปไม่ถูกใช้งานจริง - การแข่งขันกับ NVIDIA ต้องอาศัยทั้ง ecosystem, tooling และการสนับสนุนจากนักพัฒนา ซึ่ง Huawei ยังขาดอยู่ https://wccftech.com/huawei-looks-to-shake-up-ai-chip-design-to-compete-with-nvidia-says-report/
    WCCFTECH.COM
    Huawei Looks To Shake Up AI Chip Design To Compete With NVIDIA, Says Report
    Huawei aims to shift chip design strategy to compete with NVIDIA, focusing on general-purpose computing and new chip software.
    0 ความคิดเห็น 0 การแบ่งปัน 47 มุมมอง 0 รีวิว
  • จัดสเป็คคอมพ์วันนี้ ลองจัดชุด Intel + Nvidia RTX5050 ตัวใหม่ที่เพิ่งออกเลยครับ
    ครบชุดเหมือนเดิม รวมจอ รวม Windows 11 Home ของแท้

    ขอขอบคุณร้าน Advice สำหรับข้อมูลราคา
    #spec #computer #advice #สเป็คลุง
    จัดสเป็คคอมพ์วันนี้ ลองจัดชุด Intel + Nvidia RTX5050 ตัวใหม่ที่เพิ่งออกเลยครับ ครบชุดเหมือนเดิม รวมจอ รวม Windows 11 Home ของแท้ ขอขอบคุณร้าน Advice สำหรับข้อมูลราคา #spec #computer #advice #สเป็คลุง
    0 ความคิดเห็น 0 การแบ่งปัน 38 มุมมอง 0 รีวิว
  • Intel ยอมรับ “สายเกินไป” ที่จะไล่ทัน AI – จากผู้นำกลายเป็นผู้ตาม

    Lip-Bu Tan CEO คนใหม่ของ Intel กล่าวในวงประชุมพนักงานทั่วโลกว่า “เมื่อ 20–30 ปีก่อน เราคือผู้นำ แต่ตอนนี้โลกเปลี่ยนไป เราไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกแล้ว” คำพูดนี้สะท้อนถึงความเปลี่ยนแปลงครั้งใหญ่ของบริษัทที่เคยครองตลาด CPU อย่างเบ็ดเสร็จ

    Intel พยายามปรับตัวหลายด้าน เช่น:
    - สร้างสถาปัตยกรรม hybrid แบบ big.LITTLE เหมือน ARM แต่ไม่สามารถแย่งส่วนแบ่งตลาดจาก AMD ได้
    - เปิดตัว GPU ที่ล่าช้าและไม่สามารถแข่งขันกับ Nvidia ได้
    - Outsource การผลิตชิปบางส่วนไปยัง TSMC ตั้งแต่ปี 2023 โดยล่าสุดในปี 2025 มีถึง 30% ของการผลิตที่ทำโดย TSMC

    แม้จะลงทุนมหาศาลใน R&D แต่ Intel ก็ยังขาดความเร็วและความเฉียบคมในการแข่งขัน โดยเฉพาะในตลาด AI ที่ Nvidia ครองอยู่เกือบเบ็ดเสร็จ

    Intel จึงวางแผนเปลี่ยนกลยุทธ์:
    - หันไปเน้น edge AI และ agentic AI (AI ที่ทำงานอัตโนมัติโดยไม่ต้องมีมนุษย์ควบคุม)
    - ลดขนาดองค์กรและปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน
    - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยน Intel เป็นบริษัท fabless แบบ AMD และ Apple

    Tan ยอมรับว่า “การฝึกโมเดล AI สำหรับ training ใน data center เรามาช้าเกินไป” แต่ยังมีความหวังใน edge AI และการเปลี่ยนวัฒนธรรมองค์กรให้ “ถ่อมตัวและฟังตลาดมากขึ้น”

    ข้อมูลจากข่าว
    - CEO Intel ยอมรับว่าไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกต่อไป
    - Intel พยายามปรับตัวด้วย hybrid architecture และ GPU แต่ไม่ประสบความสำเร็จ
    - มีการ outsource การผลิตชิปไปยัง TSMC มากขึ้น โดยเฉพาะใน Meteor Lake และ Lunar Lake
    - Intel ขาดความสามารถในการแข่งขันในตลาด AI โดยเฉพาะด้าน training
    - บริษัทปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน
    - วางแผนเน้น edge AI และ agentic AI เป็นกลยุทธ์ใหม่
    - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยนเป็น fabless company

    คำเตือนและข้อควรระวัง
    - การยอมรับว่า “สายเกินไป” ในตลาด AI อาจส่งผลต่อความเชื่อมั่นของนักลงทุนและพันธมิตร
    - การปลดพนักงานจำนวนมากอาจกระทบต่อขวัญกำลังใจและนวัตกรรมภายในองค์กร
    - การพึ่งพา TSMC ในการผลิตชิปอาจทำให้ Intel เสียความได้เปรียบด้าน vertical integration
    - การเปลี่ยนเป็นบริษัท fabless ต้องใช้เวลาและอาจมีความเสี่ยงด้าน supply chain
    - Edge AI ยังเป็นตลาดที่ไม่แน่นอน และต้องแข่งขันกับผู้เล่นรายใหม่ที่คล่องตัวกว่า

    https://www.tomshardware.com/tech-industry/intel-ceo-says-its-too-late-for-them-to-catch-up-with-ai-competition-claims-intel-has-fallen-out-of-the-top-10-semiconductor-companies-as-the-firm-lays-off-thousands-across-the-world
    Intel ยอมรับ “สายเกินไป” ที่จะไล่ทัน AI – จากผู้นำกลายเป็นผู้ตาม Lip-Bu Tan CEO คนใหม่ของ Intel กล่าวในวงประชุมพนักงานทั่วโลกว่า “เมื่อ 20–30 ปีก่อน เราคือผู้นำ แต่ตอนนี้โลกเปลี่ยนไป เราไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกแล้ว” คำพูดนี้สะท้อนถึงความเปลี่ยนแปลงครั้งใหญ่ของบริษัทที่เคยครองตลาด CPU อย่างเบ็ดเสร็จ Intel พยายามปรับตัวหลายด้าน เช่น: - สร้างสถาปัตยกรรม hybrid แบบ big.LITTLE เหมือน ARM แต่ไม่สามารถแย่งส่วนแบ่งตลาดจาก AMD ได้ - เปิดตัว GPU ที่ล่าช้าและไม่สามารถแข่งขันกับ Nvidia ได้ - Outsource การผลิตชิปบางส่วนไปยัง TSMC ตั้งแต่ปี 2023 โดยล่าสุดในปี 2025 มีถึง 30% ของการผลิตที่ทำโดย TSMC แม้จะลงทุนมหาศาลใน R&D แต่ Intel ก็ยังขาดความเร็วและความเฉียบคมในการแข่งขัน โดยเฉพาะในตลาด AI ที่ Nvidia ครองอยู่เกือบเบ็ดเสร็จ Intel จึงวางแผนเปลี่ยนกลยุทธ์: - หันไปเน้น edge AI และ agentic AI (AI ที่ทำงานอัตโนมัติโดยไม่ต้องมีมนุษย์ควบคุม) - ลดขนาดองค์กรและปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยน Intel เป็นบริษัท fabless แบบ AMD และ Apple Tan ยอมรับว่า “การฝึกโมเดล AI สำหรับ training ใน data center เรามาช้าเกินไป” แต่ยังมีความหวังใน edge AI และการเปลี่ยนวัฒนธรรมองค์กรให้ “ถ่อมตัวและฟังตลาดมากขึ้น” ✅ ข้อมูลจากข่าว - CEO Intel ยอมรับว่าไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกต่อไป - Intel พยายามปรับตัวด้วย hybrid architecture และ GPU แต่ไม่ประสบความสำเร็จ - มีการ outsource การผลิตชิปไปยัง TSMC มากขึ้น โดยเฉพาะใน Meteor Lake และ Lunar Lake - Intel ขาดความสามารถในการแข่งขันในตลาด AI โดยเฉพาะด้าน training - บริษัทปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน - วางแผนเน้น edge AI และ agentic AI เป็นกลยุทธ์ใหม่ - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยนเป็น fabless company ‼️ คำเตือนและข้อควรระวัง - การยอมรับว่า “สายเกินไป” ในตลาด AI อาจส่งผลต่อความเชื่อมั่นของนักลงทุนและพันธมิตร - การปลดพนักงานจำนวนมากอาจกระทบต่อขวัญกำลังใจและนวัตกรรมภายในองค์กร - การพึ่งพา TSMC ในการผลิตชิปอาจทำให้ Intel เสียความได้เปรียบด้าน vertical integration - การเปลี่ยนเป็นบริษัท fabless ต้องใช้เวลาและอาจมีความเสี่ยงด้าน supply chain - Edge AI ยังเป็นตลาดที่ไม่แน่นอน และต้องแข่งขันกับผู้เล่นรายใหม่ที่คล่องตัวกว่า https://www.tomshardware.com/tech-industry/intel-ceo-says-its-too-late-for-them-to-catch-up-with-ai-competition-claims-intel-has-fallen-out-of-the-top-10-semiconductor-companies-as-the-firm-lays-off-thousands-across-the-world
    0 ความคิดเห็น 0 การแบ่งปัน 79 มุมมอง 0 รีวิว
  • จีนกำลังสร้างเมืองแห่ง AI กลางทะเลทรายตะวันตก — โครงการนี้ถูกพัฒนาในเมืองอี้อู (Yiwu) โดยมีแผนจะวางระบบดาต้าเซ็นเตอร์ 36 แห่ง เชื่อมต่อกันผ่านโครงข่ายความเร็วสูง → ที่เด็ดคือจำนวนชิป H100/H200 ที่จะใช้งานรวมกันเกิน 115,000 ตัว! → เทียบเท่ากับกริดของบริษัทคลาวด์ขนาดใหญ่ระดับโลกในบางประเทศเลยทีเดียว

    แต่ปัญหาใหญ่อยู่ที่ข้อจำกัดของสหรัฐฯ ที่ห้ามส่งออก NVIDIA รุ่นสูง (H100/H200) ไปยังจีน → แล้ว “จีนจะหาชิปจากไหน?” Bloomberg รายงานว่ามีช่องทางหลายรูปแบบ ทั้ง:
    - การขนย้ายผ่านประเทศในเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซีย–สิงคโปร์
    - การใช้ชิป H20 ที่ยังไม่ถูกควบคุมแบบเข้มข้น
    - และการใช้ loophole ด้านเทรดเพื่อเข้าสู่ระบบภายใน → แสดงให้เห็นว่า มาตรการคุมส่งออกยังไม่สามารถปิดทุกช่องทางได้ 100%

    บริษัทคลื่นลูกใหม่เช่น Zhipu AI และ DeepSeek เริ่มใช้คลัสเตอร์ระดับ Sovereign AI — ที่รัฐบาลสนับสนุนให้สร้าง AI ด้วยทรัพยากรภายในประเทศ → ซึ่งถ้าโครงการนี้เดินหน้าได้จริง = จีนจะมี compute power ที่ใกล้เคียงกับสหรัฐฯ โดยไม่ต้องพึ่งบริษัทตะวันตกเลย

    จีนกำลังสร้างโครงสร้างพื้นฐาน AI ขนาด hyperscale ที่ Yiwu → ครอบคลุม 36 ดาต้าเซ็นเตอร์
    • มีแผนใช้ NVIDIA H100 / H200 รวมกว่า 115,000 ตัว  
    • เป็นหนึ่งในโครงการใหญ่ที่สุดที่เคยสร้างในจีนด้าน AI

    แม้ถูกสหรัฐฯ จำกัดการเข้าถึง H-series → ยังมีการขนย้ายผ่านช่องทางระดับ SEA (เช่น สิงคโปร์–มาเลเซีย)

    จีนยังมีคลัง H20 ที่บริษัท Big Tech ภายในประเทศใช้งานอยู่แล้ว → อาจใช้ทดแทนการขาด H100 ได้ระดับหนึ่ง

    ดาต้าเซ็นเตอร์จีนเติบโตอย่างรวดเร็ว → คาดว่ามูลค่าตลาดจะอยู่ที่ 300 พันล้านหยวนภายในปีนี้

    โครงการยังไม่ได้รับการยืนยันจากฝ่ายสหรัฐฯ → อาจอยู่ในระยะลับหรือวางแผนต้นแบบ

    จีนยังไม่หันไปใช้ชิป Huawei หรือทางเลือกในประเทศสำหรับระบบ hyperscale → แสดงถึงการพึ่ง NVIDIA เป็นหลัก

    https://wccftech.com/chinese-ai-firms-plans-massive-domestic-data-center-with-100000-nvidia-ai-chips/
    จีนกำลังสร้างเมืองแห่ง AI กลางทะเลทรายตะวันตก — โครงการนี้ถูกพัฒนาในเมืองอี้อู (Yiwu) โดยมีแผนจะวางระบบดาต้าเซ็นเตอร์ 36 แห่ง เชื่อมต่อกันผ่านโครงข่ายความเร็วสูง → ที่เด็ดคือจำนวนชิป H100/H200 ที่จะใช้งานรวมกันเกิน 115,000 ตัว! → เทียบเท่ากับกริดของบริษัทคลาวด์ขนาดใหญ่ระดับโลกในบางประเทศเลยทีเดียว แต่ปัญหาใหญ่อยู่ที่ข้อจำกัดของสหรัฐฯ ที่ห้ามส่งออก NVIDIA รุ่นสูง (H100/H200) ไปยังจีน → แล้ว “จีนจะหาชิปจากไหน?” Bloomberg รายงานว่ามีช่องทางหลายรูปแบบ ทั้ง: - การขนย้ายผ่านประเทศในเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซีย–สิงคโปร์ - การใช้ชิป H20 ที่ยังไม่ถูกควบคุมแบบเข้มข้น - และการใช้ loophole ด้านเทรดเพื่อเข้าสู่ระบบภายใน → แสดงให้เห็นว่า มาตรการคุมส่งออกยังไม่สามารถปิดทุกช่องทางได้ 100% บริษัทคลื่นลูกใหม่เช่น Zhipu AI และ DeepSeek เริ่มใช้คลัสเตอร์ระดับ Sovereign AI — ที่รัฐบาลสนับสนุนให้สร้าง AI ด้วยทรัพยากรภายในประเทศ → ซึ่งถ้าโครงการนี้เดินหน้าได้จริง = จีนจะมี compute power ที่ใกล้เคียงกับสหรัฐฯ โดยไม่ต้องพึ่งบริษัทตะวันตกเลย ✅ จีนกำลังสร้างโครงสร้างพื้นฐาน AI ขนาด hyperscale ที่ Yiwu → ครอบคลุม 36 ดาต้าเซ็นเตอร์ • มีแผนใช้ NVIDIA H100 / H200 รวมกว่า 115,000 ตัว   • เป็นหนึ่งในโครงการใหญ่ที่สุดที่เคยสร้างในจีนด้าน AI ✅ แม้ถูกสหรัฐฯ จำกัดการเข้าถึง H-series → ยังมีการขนย้ายผ่านช่องทางระดับ SEA (เช่น สิงคโปร์–มาเลเซีย) ✅ จีนยังมีคลัง H20 ที่บริษัท Big Tech ภายในประเทศใช้งานอยู่แล้ว → อาจใช้ทดแทนการขาด H100 ได้ระดับหนึ่ง ✅ ดาต้าเซ็นเตอร์จีนเติบโตอย่างรวดเร็ว → คาดว่ามูลค่าตลาดจะอยู่ที่ 300 พันล้านหยวนภายในปีนี้ ✅ โครงการยังไม่ได้รับการยืนยันจากฝ่ายสหรัฐฯ → อาจอยู่ในระยะลับหรือวางแผนต้นแบบ ✅ จีนยังไม่หันไปใช้ชิป Huawei หรือทางเลือกในประเทศสำหรับระบบ hyperscale → แสดงถึงการพึ่ง NVIDIA เป็นหลัก https://wccftech.com/chinese-ai-firms-plans-massive-domestic-data-center-with-100000-nvidia-ai-chips/
    WCCFTECH.COM
    Chinese AI Firms Plan Massive Domestic Data Centers With 100,000+ NVIDIA AI Chips — But Where Will the Chips Come From?
    It is reported that China's AI companies have put up a big ambition of installing a "hyperscale" level facility in the nation.
    0 ความคิดเห็น 0 การแบ่งปัน 82 มุมมอง 0 รีวิว
  • หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก!

    ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5

    แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU

    จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ

    OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5  
    • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series  
    • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M  
    • เน้น balance ระหว่างประสิทธิภาพ & portability

    Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว  
    • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)  
    • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator

    AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว

    Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU

    แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU

    https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก! ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5 แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ ✅ OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5   • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series   • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M   • เน้น balance ระหว่างประสิทธิภาพ & portability ✅ Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว   • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)   • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator ✅ AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว ✅ Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU ✅ แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    0 ความคิดเห็น 0 การแบ่งปัน 81 มุมมอง 0 รีวิว
  • ลองนึกภาพการ์ดจอที่มีหน่วยความจำแค่ 4MB SGRAM จากปี 1996…วันนี้กลับกลายเป็น ROG รุ่นล่าสุดที่ใช้ dual-GPU และระบบระบายความร้อนแบบไฮบริด!

    ASUS เริ่มสร้างชื่อในตลาด GPU จากรุ่น Asus 375 (S3 ViRGE/DX) ที่เน้นกลุ่มผู้ใช้เชิงธุรกิจ → ก่อนจะจับมือกับ Nvidia ในปี 1997 เพื่อเปิดตัว AGP-V3000 (ใช้ชิป Riva 128) รองรับ Direct3D เต็มรูปแบบ → จุดเปลี่ยนสำคัญคือ การตั้งแบรนด์ Republic of Gamers (ROG) ในปี 2006 ที่ผลักดันให้เกิดการ์ดจอสายเกมระดับตำนาน เช่น  • ROG Mars GTX 295 (dual-GPU บน PCB เดียว!)  • ROG Poseidon (ระบบระบายความร้อนไฮบริด)  • และล่าสุดคือ ROG Astral RTX 5080 Doom Edition ที่ราคาแรงทะลุ RTX 5090

    งานนี้ ASUS ไม่ได้แจกแค่ของสะสม → แต่จัดแคมเปญแจกของ “ใหญ่” ตั้งแต่ ProArt RTX 5080 ไปจนถึง ROG Strix RTX 5070 Ti → พร้อมเล่นมินิเกมออนไลน์อย่างนั่งชิงช้าเฟอร์ริส–โรลเลอร์โคสเตอร์ชมวิวของตำนานการ์ดแต่ละรุ่น!

    ASUS ฉลองครบรอบ 30 ปีในวงการ GPU ตั้งแต่ปี 1996 → 2025  
    • เริ่มจาก Asus 375 (S3 ViRGE/DX)  
    • จุดเปลี่ยนในปี 1997: AGP-V3000 (Riva 128) รองรับ Direct3D  
    • ก่อตั้งแบรนด์ ROG ในปี 2006 → นำไปสู่ Mars GTX 295, Poseidon, และซีรีส์ ROG Astral

    แคมเปญแจกของใหญ่จาก ASUS เริ่มตั้งแต่วันนี้จนถึง 7 ต.ค. 2025  
    • ของรางวัลรวมถึง ProArt RTX 5080, ROG Strix RTX 5070 Ti และ TUF Gaming RTX 5070  
    • พร้อมพาวเวอร์ซัพพลาย ASUS รุ่นใหม่  
    • กิจกรรมรวมทั้งมินิเกม, คลิปวิดีโอจากอินฟลูเอนเซอร์ และการโพสต์ประสบการณ์ของผู้ใช้งาน

    วิดีโอจาก Justin (J Custom) เล่าย้อนความหลังสมัยรอซื้อ ROG Mars GTX 295 หน้าร้านด้วยความคลั่งเกม

    มีการจัดภาพ–ธีมครบชุดแบบ Evangelion Build ที่จับทุกชิ้นส่วนของพีซีให้เป็น aesthetic เดียวกัน

    https://www.tomshardware.com/pc-components/gpus/asus-celebrates-30-years-in-the-graphics-card-business-with-epic-rtx-50-prizes-and-a-retrospective-video
    ลองนึกภาพการ์ดจอที่มีหน่วยความจำแค่ 4MB SGRAM จากปี 1996…วันนี้กลับกลายเป็น ROG รุ่นล่าสุดที่ใช้ dual-GPU และระบบระบายความร้อนแบบไฮบริด! ASUS เริ่มสร้างชื่อในตลาด GPU จากรุ่น Asus 375 (S3 ViRGE/DX) ที่เน้นกลุ่มผู้ใช้เชิงธุรกิจ → ก่อนจะจับมือกับ Nvidia ในปี 1997 เพื่อเปิดตัว AGP-V3000 (ใช้ชิป Riva 128) รองรับ Direct3D เต็มรูปแบบ → จุดเปลี่ยนสำคัญคือ การตั้งแบรนด์ Republic of Gamers (ROG) ในปี 2006 ที่ผลักดันให้เกิดการ์ดจอสายเกมระดับตำนาน เช่น  • ROG Mars GTX 295 (dual-GPU บน PCB เดียว!)  • ROG Poseidon (ระบบระบายความร้อนไฮบริด)  • และล่าสุดคือ ROG Astral RTX 5080 Doom Edition ที่ราคาแรงทะลุ RTX 5090 งานนี้ ASUS ไม่ได้แจกแค่ของสะสม → แต่จัดแคมเปญแจกของ “ใหญ่” ตั้งแต่ ProArt RTX 5080 ไปจนถึง ROG Strix RTX 5070 Ti → พร้อมเล่นมินิเกมออนไลน์อย่างนั่งชิงช้าเฟอร์ริส–โรลเลอร์โคสเตอร์ชมวิวของตำนานการ์ดแต่ละรุ่น! ✅ ASUS ฉลองครบรอบ 30 ปีในวงการ GPU ตั้งแต่ปี 1996 → 2025   • เริ่มจาก Asus 375 (S3 ViRGE/DX)   • จุดเปลี่ยนในปี 1997: AGP-V3000 (Riva 128) รองรับ Direct3D   • ก่อตั้งแบรนด์ ROG ในปี 2006 → นำไปสู่ Mars GTX 295, Poseidon, และซีรีส์ ROG Astral ✅ แคมเปญแจกของใหญ่จาก ASUS เริ่มตั้งแต่วันนี้จนถึง 7 ต.ค. 2025   • ของรางวัลรวมถึง ProArt RTX 5080, ROG Strix RTX 5070 Ti และ TUF Gaming RTX 5070   • พร้อมพาวเวอร์ซัพพลาย ASUS รุ่นใหม่   • กิจกรรมรวมทั้งมินิเกม, คลิปวิดีโอจากอินฟลูเอนเซอร์ และการโพสต์ประสบการณ์ของผู้ใช้งาน ✅ วิดีโอจาก Justin (J Custom) เล่าย้อนความหลังสมัยรอซื้อ ROG Mars GTX 295 หน้าร้านด้วยความคลั่งเกม ✅ มีการจัดภาพ–ธีมครบชุดแบบ Evangelion Build ที่จับทุกชิ้นส่วนของพีซีให้เป็น aesthetic เดียวกัน https://www.tomshardware.com/pc-components/gpus/asus-celebrates-30-years-in-the-graphics-card-business-with-epic-rtx-50-prizes-and-a-retrospective-video
    0 ความคิดเห็น 0 การแบ่งปัน 67 มุมมอง 0 รีวิว
  • Samsung เคยเป็นผู้ผลิตหน่วยความจำรายใหญ่ที่สุดของโลก และมีความหวังว่าจะตีตื้นกลับเข้าสู่ตลาดชิป AI ด้วยการส่งมอบ HBM3E ตัวใหม่ให้กับลูกค้า → แต่ Nvidia ยังไม่อนุมัติให้ใช้งานกับเซิร์ฟเวอร์ AI ได้ → ส่งผลให้ SK Hynix กลายเป็นตัวเลือกหลักแทน และ Micron ก็แซงขึ้นมาคว้าดีลรอบล่าสุด

    สถานการณ์ยิ่งแย่ลง เมื่อ Samsung เจอกำแพงจากสหรัฐฯ → นโยบาย “จำกัดการส่งออกชิป AI ไปยังจีน” ทำให้ Samsung ต้องปรับมูลค่าสินค้าคงคลังแบบขาดทุน → และตั้งแต่ 1 ส.ค. เป็นต้นไป รัฐบาลสหรัฐจะเก็บภาษีนำเข้าสินค้าจากเกาหลีใต้ 25% ซึ่งกระทบโดยตรงต่อยอดขายเครื่องใช้ไฟฟ้า เช่น ทีวี–ตู้เย็น

    แม้ Samsung จะยังมีโอกาสฟื้นตัวในไตรมาสถัดไป แต่ท่ามกลางการถูกตีจากทุกทิศแบบนี้ — แค่ “ทำได้เท่าเดิม” ก็ถือว่าแกร่งแล้ว

    Samsung คาดว่ากำไรไตรมาส 2 ปี 2025 จะลดลง 56% → อยู่ที่ 4.6 ล้านล้านวอน (~3.3 พันล้านเหรียญสหรัฐ)
    • ต่ำสุดในรอบ 18 เดือน  
    • สาเหตุจากยอดขายชิปและผลกระทบจากการเมืองการค้า

    ธุรกิจ semiconductor ของ Samsung ถูกกระทบหนักจาก:  
    • การจำกัดการส่งออกชิป AI ไปจีน  
    • การปรับมูลค่าสินค้าคงคลังลง  
    • การที่ Nvidia ยังไม่อนุมัติชิป HBM3E

    SK Hynix ได้รับความไว้วางใจจาก Nvidia และกำลังจะมีกำไรสูงสุดในรอบไตรมาส  
    • Micron ก็รายงานรายได้ที่สูงกว่าคาดจากการส่งมอบ HBM

    Samsung ขาดทุนจากการดำเนินงานในสาย foundry กว่า 4 ล้านล้านวอนช่วงครึ่งปีแรก  
    • เกิดจาก yield ต่ำและการตามไม่ทัน TSMC ด้านเทคโนโลยี

    Samsung ระบุว่าปัญหาหลักคือ “low utilization rate” และ “impact จาก policy สหรัฐฯ”

    บริษัทเตรียมรายงานผลประกอบการเต็มวันที่ 31 กรกฎาคม 2025

    https://www.techspot.com/news/108595-samsung-profit-plunges-ai-chip-woes-us-tariffs.html
    Samsung เคยเป็นผู้ผลิตหน่วยความจำรายใหญ่ที่สุดของโลก และมีความหวังว่าจะตีตื้นกลับเข้าสู่ตลาดชิป AI ด้วยการส่งมอบ HBM3E ตัวใหม่ให้กับลูกค้า → แต่ Nvidia ยังไม่อนุมัติให้ใช้งานกับเซิร์ฟเวอร์ AI ได้ → ส่งผลให้ SK Hynix กลายเป็นตัวเลือกหลักแทน และ Micron ก็แซงขึ้นมาคว้าดีลรอบล่าสุด สถานการณ์ยิ่งแย่ลง เมื่อ Samsung เจอกำแพงจากสหรัฐฯ → นโยบาย “จำกัดการส่งออกชิป AI ไปยังจีน” ทำให้ Samsung ต้องปรับมูลค่าสินค้าคงคลังแบบขาดทุน → และตั้งแต่ 1 ส.ค. เป็นต้นไป รัฐบาลสหรัฐจะเก็บภาษีนำเข้าสินค้าจากเกาหลีใต้ 25% ซึ่งกระทบโดยตรงต่อยอดขายเครื่องใช้ไฟฟ้า เช่น ทีวี–ตู้เย็น แม้ Samsung จะยังมีโอกาสฟื้นตัวในไตรมาสถัดไป แต่ท่ามกลางการถูกตีจากทุกทิศแบบนี้ — แค่ “ทำได้เท่าเดิม” ก็ถือว่าแกร่งแล้ว ✅ Samsung คาดว่ากำไรไตรมาส 2 ปี 2025 จะลดลง 56% → อยู่ที่ 4.6 ล้านล้านวอน (~3.3 พันล้านเหรียญสหรัฐ) • ต่ำสุดในรอบ 18 เดือน   • สาเหตุจากยอดขายชิปและผลกระทบจากการเมืองการค้า ✅ ธุรกิจ semiconductor ของ Samsung ถูกกระทบหนักจาก:   • การจำกัดการส่งออกชิป AI ไปจีน   • การปรับมูลค่าสินค้าคงคลังลง   • การที่ Nvidia ยังไม่อนุมัติชิป HBM3E ✅ SK Hynix ได้รับความไว้วางใจจาก Nvidia และกำลังจะมีกำไรสูงสุดในรอบไตรมาส   • Micron ก็รายงานรายได้ที่สูงกว่าคาดจากการส่งมอบ HBM ✅ Samsung ขาดทุนจากการดำเนินงานในสาย foundry กว่า 4 ล้านล้านวอนช่วงครึ่งปีแรก   • เกิดจาก yield ต่ำและการตามไม่ทัน TSMC ด้านเทคโนโลยี ✅ Samsung ระบุว่าปัญหาหลักคือ “low utilization rate” และ “impact จาก policy สหรัฐฯ” ✅ บริษัทเตรียมรายงานผลประกอบการเต็มวันที่ 31 กรกฎาคม 2025 https://www.techspot.com/news/108595-samsung-profit-plunges-ai-chip-woes-us-tariffs.html
    WWW.TECHSPOT.COM
    Samsung's profit plunges as AI chip woes and US tariffs bite
    The South Korean tech giant attributed its disappointing results to a combination of US export restrictions on advanced artificial intelligence chips bound for China and ongoing challenges...
    0 ความคิดเห็น 0 การแบ่งปัน 68 มุมมอง 0 รีวิว
  • Sparkle เปิดตัวการ์ดจอตระกูล Arc Pro B60 สามรุ่นรวด → รุ่นแรกเป็นแบบพัดลมเป่า (blower) ขนาด 24GB → รุ่นที่สองเป็นแบบระบายความร้อนแบบพาสซีฟ (ไม่มีพัดลม) ขนาด 24GB เหมาะกับ server → รุ่นสุดท้ายคือ “ไพ่ตาย” — การ์ด dual-GPU ขนาด 48GB ที่แรงกว่าและกินไฟน้อยกว่ารุ่นของ MaxSun ที่เคยออกมาก่อนหน้านี้

    จุดเด่นของแต่ละ GPU คือมี 20 Xe-core + 160 XMX engine (หน่วยเร่ง AI) → ทำให้สามารถประมวลผล AI แบบ INT8 ได้สูงสุด 394 TOPS → รองรับ ray tracing และการเข้ารหัส AV1 ด้วย Xe media engine

    ถึงจะดูคล้ายการ์ดเกม แต่ Arc Pro B60 ถูกออกแบบมาสำหรับ AI inference, media workstation, และ data lab โดยเฉพาะ → ไม่ใช้ multi-GPU แบบ SLI หรือแบ่งงาน render แบบการ์ดเกม → แต่ใช้โครงสร้างที่แชร์ PCIe x16 ด้วยกัน โดยแต่ละชิปใช้ 8 เลนเท่า ๆ กัน

    การมีรุ่นพาสซีฟแสดงให้เห็นว่า Sparkle จับกลุ่ม server/data center ชัดเจน → พร้อมทั้งใช้ไดรเวอร์ Pro ที่เน้นเสถียรภาพสำหรับซอฟต์แวร์เวิร์กสเตชัน → และยังรองรับ consumer driver เผื่อบางงานที่เบาลง หรือใช้ใน mini-AI desktop

    Sparkle เปิดตัว Arc Pro B60 Series แบบมืออาชีพ 3 รุ่น:  
    • Blower 24GB  • Passive cooling 24GB (เงียบและเหมาะกับ rack/server)  
    • Dual-GPU 48GB พร้อมระบายความร้อนแบบ blower

    ทุกรุ่นใช้สถาปัตยกรรม Intel Battlemage พร้อม 20 Xe-core + 160 XMX engine ต่อชิป  
    • INT8 AI throughput สูงถึง 394 TOPS (รวม 2 GPU)  
    • รองรับ ray tracing + AV1 encode

    การ์ด dual-GPU ใช้พลังงาน 300W → แรงแต่ยังควบคุมความร้อนได้ดี  
    • แบ่งเลน PCIe 5.0 x16 แบบ 8+8  
    • ไม่แชร์ RAM ระหว่าง 2 GPU

    รองรับ Linux multi-GPU และ OneAPI → เหมาะกับงาน HPC, วิจัย, AI inferencing ขนาดใหญ่

    เปิดตัวปลายปี 2025 → มาทันช่วงตลาด AI desktop–workstation กำลังโต

    https://www.techradar.com/pro/another-dual-intel-gpu-card-with-48gb-vram-launched-as-arc-pro-emerges-as-cheap-nvidia-and-amd-alternative-for-ai-crowd
    Sparkle เปิดตัวการ์ดจอตระกูล Arc Pro B60 สามรุ่นรวด → รุ่นแรกเป็นแบบพัดลมเป่า (blower) ขนาด 24GB → รุ่นที่สองเป็นแบบระบายความร้อนแบบพาสซีฟ (ไม่มีพัดลม) ขนาด 24GB เหมาะกับ server → รุ่นสุดท้ายคือ “ไพ่ตาย” — การ์ด dual-GPU ขนาด 48GB ที่แรงกว่าและกินไฟน้อยกว่ารุ่นของ MaxSun ที่เคยออกมาก่อนหน้านี้ จุดเด่นของแต่ละ GPU คือมี 20 Xe-core + 160 XMX engine (หน่วยเร่ง AI) → ทำให้สามารถประมวลผล AI แบบ INT8 ได้สูงสุด 394 TOPS → รองรับ ray tracing และการเข้ารหัส AV1 ด้วย Xe media engine ถึงจะดูคล้ายการ์ดเกม แต่ Arc Pro B60 ถูกออกแบบมาสำหรับ AI inference, media workstation, และ data lab โดยเฉพาะ → ไม่ใช้ multi-GPU แบบ SLI หรือแบ่งงาน render แบบการ์ดเกม → แต่ใช้โครงสร้างที่แชร์ PCIe x16 ด้วยกัน โดยแต่ละชิปใช้ 8 เลนเท่า ๆ กัน การมีรุ่นพาสซีฟแสดงให้เห็นว่า Sparkle จับกลุ่ม server/data center ชัดเจน → พร้อมทั้งใช้ไดรเวอร์ Pro ที่เน้นเสถียรภาพสำหรับซอฟต์แวร์เวิร์กสเตชัน → และยังรองรับ consumer driver เผื่อบางงานที่เบาลง หรือใช้ใน mini-AI desktop ✅ Sparkle เปิดตัว Arc Pro B60 Series แบบมืออาชีพ 3 รุ่น:   • Blower 24GB  • Passive cooling 24GB (เงียบและเหมาะกับ rack/server)   • Dual-GPU 48GB พร้อมระบายความร้อนแบบ blower ✅ ทุกรุ่นใช้สถาปัตยกรรม Intel Battlemage พร้อม 20 Xe-core + 160 XMX engine ต่อชิป   • INT8 AI throughput สูงถึง 394 TOPS (รวม 2 GPU)   • รองรับ ray tracing + AV1 encode ✅ การ์ด dual-GPU ใช้พลังงาน 300W → แรงแต่ยังควบคุมความร้อนได้ดี   • แบ่งเลน PCIe 5.0 x16 แบบ 8+8   • ไม่แชร์ RAM ระหว่าง 2 GPU ✅ รองรับ Linux multi-GPU และ OneAPI → เหมาะกับงาน HPC, วิจัย, AI inferencing ขนาดใหญ่ ✅ เปิดตัวปลายปี 2025 → มาทันช่วงตลาด AI desktop–workstation กำลังโต https://www.techradar.com/pro/another-dual-intel-gpu-card-with-48gb-vram-launched-as-arc-pro-emerges-as-cheap-nvidia-and-amd-alternative-for-ai-crowd
    WWW.TECHRADAR.COM
    Sparkle confirms three Arc Pro B60 GPUs for professional workloads
    Sparkle offers three B60 models with blower or passive cooling
    0 ความคิดเห็น 0 การแบ่งปัน 102 มุมมอง 0 รีวิว
  • ในขณะที่หลายประเทศเดินหน้าพัฒนาโดรนที่ “ฉลาดขึ้น” เพื่อลดการสูญเสียจากการใช้งานคนจริงในสนามรบ รัสเซียก็ไม่แพ้ใคร ล่าสุดทดสอบภาคสนามกับโดรน AI รุ่น MS001 ที่ → สามารถ “มอง, วิเคราะห์, ตัดสินใจ และโจมตี” ได้เอง → ไม่ต้องพึ่งคำสั่งจากศูนย์ควบคุม → พร้อมระบบ telemetry–ความร้อน–GPS ต่อต้านการสวมรอย

    สมองกลในโดรนตัวนี้คือ Nvidia Jetson Orin — คอมพิวเตอร์ AI ขนาดเล็กเพียงฝ่ามือ ราคาประมาณ $249 แต่แรงระดับ 67 TOPS (เทียบเท่าหลายล้านล้านคำสั่งต่อวินาที) → ใช้ GPU จากสถาปัตยกรรม Ampere + ซีพียู ARM 6 คอร์ → เทียบได้กับการเอาพลังของ AI ระดับรถยนต์อัจฉริยะมาย่อส่วน

    แต่อย่าลืมว่า Nvidia ถูกห้ามส่งชิประดับนี้ให้รัสเซียตั้งแต่ปี 2022 แล้วนะครับ → สุดท้ายพบว่ามีการลักลอบผ่านเส้นทางค้าสีเทา เช่น “ปลอมเป็นอุปกรณ์ใช้ส่วนตัว–ส่งผ่านบริษัทบังหน้าในจีน–สิงคโปร์–ตุรกี” → สืบพบว่าในปี 2023 มีชิป Nvidia หลุดรอดเข้าสู่รัสเซียราว $17 ล้านเลยทีเดียว

    สิ่งนี้ทำให้เกิดคำถามว่า “เราจะควบคุมเทคโนโลยี AI อย่างไร เมื่อแม้แต่ซูเปอร์คอมพิวเตอร์ก็หดตัวมาอยู่ในฝ่ามือ และหาทางเข้าสู่สนามรบได้แม้ถูกแบน?”

    รัสเซียทดสอบโดรน AI รุ่น MS001 ที่ควบคุมตัวเองได้เต็มรูปแบบ  
    • เห็นวัตถุ–วิเคราะห์–เล็ง–ตัดสินใจ–ยิง โดยไม่ต้องมีคำสั่งจากศูนย์  
    • ใช้งานร่วมกับ swarm (ฝูงโดรน) และทนต่อสภาพแวดล้อมที่ลำบาก

    สมองกลหลักคือ Nvidia Jetson Orin (เปิดตัวปลายปี 2024)  
    • 67 TOPS, หน่วยความจำ 102GB/s  
    • ใช้ GPU Ampere + ARM 6 คอร์  
    • ขนาดเล็กพกพาได้

    พบ MS001 ที่ถูกยิงตกมีเทคโนโลยีครบชุด:  
    • กล้องความร้อนสำหรับปฏิบัติการกลางคืน  
    • ระบบ GPS ป้องกันการ spoof (CRPA antenna)  
    • ชิป FPGA สำหรับ logic แบบปรับแต่งเอง  
    • โมเด็มวิทยุสำหรับส่งข้อมูลและประสานการโจมตีแบบฝูง

    มีการใช้งาน Jetson Orin ในโดรนรุ่น V2U เช่นกัน (โจมตีแบบพลีชีพ)  
    • ใช้บอร์ด Leetop A603 จากจีนในการติดตั้ง Jetson

    คาดว่า Nvidia hardware หลุดเข้ารัสเซียผ่านตลาดสีเทามูลค่ากว่า $17 ล้านในปี 2023  
    • ลักลอบผ่านบริษัทบังหน้าในฮ่องกง–จีน–ตุรกี–สิงคโปร์  
    • มีการปลอมเอกสารว่าเป็นอุปกรณ์อิเล็กทรอนิกส์ทั่วไป เช่น กล้อง, router ฯลฯ

    https://www.techspot.com/news/108579-russia-field-testing-new-ai-drone-powered-nvidia.html
    ในขณะที่หลายประเทศเดินหน้าพัฒนาโดรนที่ “ฉลาดขึ้น” เพื่อลดการสูญเสียจากการใช้งานคนจริงในสนามรบ รัสเซียก็ไม่แพ้ใคร ล่าสุดทดสอบภาคสนามกับโดรน AI รุ่น MS001 ที่ → สามารถ “มอง, วิเคราะห์, ตัดสินใจ และโจมตี” ได้เอง → ไม่ต้องพึ่งคำสั่งจากศูนย์ควบคุม → พร้อมระบบ telemetry–ความร้อน–GPS ต่อต้านการสวมรอย สมองกลในโดรนตัวนี้คือ Nvidia Jetson Orin — คอมพิวเตอร์ AI ขนาดเล็กเพียงฝ่ามือ ราคาประมาณ $249 แต่แรงระดับ 67 TOPS (เทียบเท่าหลายล้านล้านคำสั่งต่อวินาที) → ใช้ GPU จากสถาปัตยกรรม Ampere + ซีพียู ARM 6 คอร์ → เทียบได้กับการเอาพลังของ AI ระดับรถยนต์อัจฉริยะมาย่อส่วน แต่อย่าลืมว่า Nvidia ถูกห้ามส่งชิประดับนี้ให้รัสเซียตั้งแต่ปี 2022 แล้วนะครับ → สุดท้ายพบว่ามีการลักลอบผ่านเส้นทางค้าสีเทา เช่น “ปลอมเป็นอุปกรณ์ใช้ส่วนตัว–ส่งผ่านบริษัทบังหน้าในจีน–สิงคโปร์–ตุรกี” → สืบพบว่าในปี 2023 มีชิป Nvidia หลุดรอดเข้าสู่รัสเซียราว $17 ล้านเลยทีเดียว สิ่งนี้ทำให้เกิดคำถามว่า “เราจะควบคุมเทคโนโลยี AI อย่างไร เมื่อแม้แต่ซูเปอร์คอมพิวเตอร์ก็หดตัวมาอยู่ในฝ่ามือ และหาทางเข้าสู่สนามรบได้แม้ถูกแบน?” ✅ รัสเซียทดสอบโดรน AI รุ่น MS001 ที่ควบคุมตัวเองได้เต็มรูปแบบ   • เห็นวัตถุ–วิเคราะห์–เล็ง–ตัดสินใจ–ยิง โดยไม่ต้องมีคำสั่งจากศูนย์   • ใช้งานร่วมกับ swarm (ฝูงโดรน) และทนต่อสภาพแวดล้อมที่ลำบาก ✅ สมองกลหลักคือ Nvidia Jetson Orin (เปิดตัวปลายปี 2024)   • 67 TOPS, หน่วยความจำ 102GB/s   • ใช้ GPU Ampere + ARM 6 คอร์   • ขนาดเล็กพกพาได้ ✅ พบ MS001 ที่ถูกยิงตกมีเทคโนโลยีครบชุด:   • กล้องความร้อนสำหรับปฏิบัติการกลางคืน   • ระบบ GPS ป้องกันการ spoof (CRPA antenna)   • ชิป FPGA สำหรับ logic แบบปรับแต่งเอง   • โมเด็มวิทยุสำหรับส่งข้อมูลและประสานการโจมตีแบบฝูง ✅ มีการใช้งาน Jetson Orin ในโดรนรุ่น V2U เช่นกัน (โจมตีแบบพลีชีพ)   • ใช้บอร์ด Leetop A603 จากจีนในการติดตั้ง Jetson ✅ คาดว่า Nvidia hardware หลุดเข้ารัสเซียผ่านตลาดสีเทามูลค่ากว่า $17 ล้านในปี 2023   • ลักลอบผ่านบริษัทบังหน้าในฮ่องกง–จีน–ตุรกี–สิงคโปร์   • มีการปลอมเอกสารว่าเป็นอุปกรณ์อิเล็กทรอนิกส์ทั่วไป เช่น กล้อง, router ฯลฯ https://www.techspot.com/news/108579-russia-field-testing-new-ai-drone-powered-nvidia.html
    WWW.TECHSPOT.COM
    Russia field-testing new AI drone powered by Nvidia's Jetson Orin supercomputer
    Russia is using the self-piloting abilities of AI in its new MS001 drone that is currently being field-tested. Ukrainian Major General Vladyslav Klochkov wrote in a LinkedIn...
    0 ความคิดเห็น 0 การแบ่งปัน 114 มุมมอง 0 รีวิว
  • Nvidia เปิดตัว RTX 5050 แบบเงียบ ๆ และไม่มีใครได้การ์ดมาทดสอบก่อน วันเปิดขายก็ไม่มีรีวิวให้ดู → ส่อแววแปลก ๆ ตั้งแต่ต้น → จนทีม TechSpot ต้อง “ซื้อเอง” มาราว 500 ดอลลาร์ออสเตรเลียเพื่อรีวิว

    ผลคือ…มันคือการ์ดระดับเริ่มต้นที่ใช้แรม 8GB GDDR6 บัส 128 บิต → สถาปัตยกรรม Blackwell เหมือน RTX 5090 แต่ถูกตัดสเปกลงหนัก → ความแรงโดยเฉลี่ยในเกม 18 เกมอยู่ที่ 66 fps ที่ 1080p → ต่ำกว่า Radeon RX 7600 เสียอีก

    ที่น่าผิดหวังคือ ราคาประมาณ $250 นี้ เทียบแล้วแพงกว่า RX 9060 XT (8GB) ที่แรงกว่า 44% → และถ้าไปเล่นรุ่น 9060 XT แบบ 16GB ที่ราคาประมาณ $370 ก็แรงกว่า 80% เลย!

    GeForce RTX 5050 เปิดขาย 1 ก.ค. 2025 ด้วยราคา $250  
    • ไม่มีรีวิวล่วงหน้า  
    • ไม่มีเครื่องเทสต์ให้สื่อ

    สเปกหลักของ RTX 5050:  
    • 8GB GDDR6 @ 20Gbps  
    • บัส 128 บิต, 320 GB/s  
    • ใช้สถาปัตยกรรม Blackwell (GB207)  
    • 130W TDP, PCIe 5.0 x8  
    • รองรับ DLSS 4

    ค่าเฉลี่ย 1080p เล่นเกม 18 เกม = 66 fps → ต่ำกว่า RX 7600 (~3%)  
    • RX 9060 XT 8GB แรงกว่า 44% ในราคาแพงกว่าเพียง ~20%  
    • RX 9060 XT 16GB แรงกว่า 80% ที่ $370

    ข้อดี:  
    • ประหยัดพลังงาน  
    • รองรับ DLSS4  
    • เย็นพอใช้ (73°C ที่โหลดเต็ม)

    #ลุงฟันธง
    1️⃣ ใครคิดจะ upgrade จาก RTX 3050 อย่าเลยครับ รอซื้อเครื่องใหม่เลย
    2️⃣ ใครคิดจะซื้อเครื่องใหม่เล็งไปที่ APU ของ AMD เช่น 8700G น่าจะโอเคกว่า
    3️⃣ ใครเป็นสาวก CPU Intel ซื้อเลยครับ

    https://www.techspot.com/review/3011-nvidia-geforce-rtx-5050/
    Nvidia เปิดตัว RTX 5050 แบบเงียบ ๆ และไม่มีใครได้การ์ดมาทดสอบก่อน วันเปิดขายก็ไม่มีรีวิวให้ดู → ส่อแววแปลก ๆ ตั้งแต่ต้น → จนทีม TechSpot ต้อง “ซื้อเอง” มาราว 500 ดอลลาร์ออสเตรเลียเพื่อรีวิว ผลคือ…มันคือการ์ดระดับเริ่มต้นที่ใช้แรม 8GB GDDR6 บัส 128 บิต → สถาปัตยกรรม Blackwell เหมือน RTX 5090 แต่ถูกตัดสเปกลงหนัก → ความแรงโดยเฉลี่ยในเกม 18 เกมอยู่ที่ 66 fps ที่ 1080p → ต่ำกว่า Radeon RX 7600 เสียอีก ที่น่าผิดหวังคือ ราคาประมาณ $250 นี้ เทียบแล้วแพงกว่า RX 9060 XT (8GB) ที่แรงกว่า 44% → และถ้าไปเล่นรุ่น 9060 XT แบบ 16GB ที่ราคาประมาณ $370 ก็แรงกว่า 80% เลย! ✅ GeForce RTX 5050 เปิดขาย 1 ก.ค. 2025 ด้วยราคา $250   • ไม่มีรีวิวล่วงหน้า   • ไม่มีเครื่องเทสต์ให้สื่อ ✅ สเปกหลักของ RTX 5050:   • 8GB GDDR6 @ 20Gbps   • บัส 128 บิต, 320 GB/s   • ใช้สถาปัตยกรรม Blackwell (GB207)   • 130W TDP, PCIe 5.0 x8   • รองรับ DLSS 4 ✅ ค่าเฉลี่ย 1080p เล่นเกม 18 เกม = 66 fps → ต่ำกว่า RX 7600 (~3%)   • RX 9060 XT 8GB แรงกว่า 44% ในราคาแพงกว่าเพียง ~20%   • RX 9060 XT 16GB แรงกว่า 80% ที่ $370 ✅ ข้อดี:   • ประหยัดพลังงาน   • รองรับ DLSS4   • เย็นพอใช้ (73°C ที่โหลดเต็ม) #ลุงฟันธง 1️⃣ ใครคิดจะ upgrade จาก RTX 3050 อย่าเลยครับ รอซื้อเครื่องใหม่เลย 2️⃣ ใครคิดจะซื้อเครื่องใหม่เล็งไปที่ APU ของ AMD เช่น 8700G น่าจะโอเคกว่า 3️⃣ ใครเป็นสาวก CPU Intel ซื้อเลยครับ https://www.techspot.com/review/3011-nvidia-geforce-rtx-5050/
    WWW.TECHSPOT.COM
    Nvidia GeForce RTX 5050 Review
    Nvidia's RTX 5050 launched with no reviews, no benchmarks, and barely any availability. It's their latest GPU release–and once again, you're expected to buy blind. But we've...
    0 ความคิดเห็น 0 การแบ่งปัน 92 มุมมอง 0 รีวิว
  • ลองนึกภาพว่าในแร็กเซิร์ฟเวอร์เดียว เราสามารถวางชิป Xeon รุ่นใหม่ถึง 4 ซ็อกเก็ตได้ → รวมเป็น 768 คอร์เต็ม ๆ → ใช้พลังงานรวม 2,000W → พร้อมรัน LLM หรือ inference workload ได้เลย โดยไม่ต้องพึ่ง GPU

    นี่ยังไม่รวมระบบแรมที่รองรับได้ถึง 16 แชนแนล DDR5 ความเร็ว 12,800 MT/s ต่อ DIMM ด้วยมาตรฐาน MRDIMM Gen 2 → ช่วยระบายข้อมูลเข้า-ออกจากคอร์ระดับ “Panther Cove” ได้แบบไม่ติดขัด

    Intel ยังเพิ่มความสามารถด้าน AI แบบเนทีฟในซีพียูนี้ เช่น
    - รองรับ TF32 แบบของ NVIDIA
    - เพิ่ม support สำหรับ FP8
    - เพิ่มความสามารถของ APX และ AMX → เพื่อเร่ง inference ขนาดเล็กให้รันบนซีพียูได้เลย

    และนี่จะเป็นผลิตภัณฑ์ 18A node ตัวแรกของ Intel ในระดับ mass production → เชื่อมโยงกับการเปิดตัว AI accelerator ของค่าย Jaguar Shores ได้อย่างสมบูรณ์ในระบบเดียว

    Intel Diamond Rapids Xeon 7 จะมีสูงสุด 192 P-Core แท้ใน SKU รุ่นท็อป  
    • แบ่งเป็น 4 tile, tile ละ 48 คอร์  
    • ไม่มี E-Core แบบ Xeon 6

    TDP สูงสุดต่อซ็อกเก็ต = 500W  
    • รองรับระบบระบายความร้อนระดับองค์กร

    รองรับแรม DDR5 แบบ 8 หรือ 16 แชนแนล  
    • ใช้ MRDIMM Gen 2 → Bandwidth ระดับ 12,800 MT/s ต่อ DIMM  
    • ทำงานร่วมกับคอร์ Panther Cove ได้เต็มประสิทธิภาพ

    รองรับเทคโนโลยีใหม่ด้าน AI และคณิตศาสตร์ความละเอียดต่ำ  
    • TF32 (ของ NVIDIA)  
    • FP8 → ลด latency inference model  
    • AMX และ APX รุ่นใหม่

    รองรับ PCIe Gen 6 สำหรับเชื่อมต่อ accelerator ภายนอก

    วางจำหน่ายปี 2026 ควบคู่กับ AI accelerator รุ่น Jaguar Shores

    ระบบ 4 ซ็อกเก็ตสามารถรวมได้ถึง 768 คอร์ และใช้ไฟ 2,000W

    การผลักดันสู่ TDP 500W ต่อซ็อกเก็ตอาจสร้างความท้าทายให้กับระบบระบายความร้อนและพลังงานในดาต้าเซ็นเตอร์  
    • ต้องใช้ระบบระบายระดับของเหลว (liquid cooling) หรือ sub-ambient

    Intel จะต้องพิสูจน์ว่าประสิทธิภาพต่อวัตต์จะ “คุ้มพลังงาน” กว่า AMD EPYC รุ่น Zen 6/7 ที่กำลังจะเปิดตัว  
    • เพราะ AMD นำหน้าไปก่อนในประสิทธิภาพและ efficiency ตลาดเซิร์ฟเวอร์ช่วงหลัง

    https://www.techpowerup.com/338664/intel-diamond-rapids-xeon-cpu-to-feature-up-to-192-p-cores-and-500-w-tdp
    ลองนึกภาพว่าในแร็กเซิร์ฟเวอร์เดียว เราสามารถวางชิป Xeon รุ่นใหม่ถึง 4 ซ็อกเก็ตได้ → รวมเป็น 768 คอร์เต็ม ๆ → ใช้พลังงานรวม 2,000W → พร้อมรัน LLM หรือ inference workload ได้เลย โดยไม่ต้องพึ่ง GPU นี่ยังไม่รวมระบบแรมที่รองรับได้ถึง 16 แชนแนล DDR5 ความเร็ว 12,800 MT/s ต่อ DIMM ด้วยมาตรฐาน MRDIMM Gen 2 → ช่วยระบายข้อมูลเข้า-ออกจากคอร์ระดับ “Panther Cove” ได้แบบไม่ติดขัด Intel ยังเพิ่มความสามารถด้าน AI แบบเนทีฟในซีพียูนี้ เช่น - รองรับ TF32 แบบของ NVIDIA - เพิ่ม support สำหรับ FP8 - เพิ่มความสามารถของ APX และ AMX → เพื่อเร่ง inference ขนาดเล็กให้รันบนซีพียูได้เลย และนี่จะเป็นผลิตภัณฑ์ 18A node ตัวแรกของ Intel ในระดับ mass production → เชื่อมโยงกับการเปิดตัว AI accelerator ของค่าย Jaguar Shores ได้อย่างสมบูรณ์ในระบบเดียว ✅ Intel Diamond Rapids Xeon 7 จะมีสูงสุด 192 P-Core แท้ใน SKU รุ่นท็อป   • แบ่งเป็น 4 tile, tile ละ 48 คอร์   • ไม่มี E-Core แบบ Xeon 6 ✅ TDP สูงสุดต่อซ็อกเก็ต = 500W   • รองรับระบบระบายความร้อนระดับองค์กร ✅ รองรับแรม DDR5 แบบ 8 หรือ 16 แชนแนล   • ใช้ MRDIMM Gen 2 → Bandwidth ระดับ 12,800 MT/s ต่อ DIMM   • ทำงานร่วมกับคอร์ Panther Cove ได้เต็มประสิทธิภาพ ✅ รองรับเทคโนโลยีใหม่ด้าน AI และคณิตศาสตร์ความละเอียดต่ำ   • TF32 (ของ NVIDIA)   • FP8 → ลด latency inference model   • AMX และ APX รุ่นใหม่ ✅ รองรับ PCIe Gen 6 สำหรับเชื่อมต่อ accelerator ภายนอก ✅ วางจำหน่ายปี 2026 ควบคู่กับ AI accelerator รุ่น Jaguar Shores ✅ ระบบ 4 ซ็อกเก็ตสามารถรวมได้ถึง 768 คอร์ และใช้ไฟ 2,000W ‼️ การผลักดันสู่ TDP 500W ต่อซ็อกเก็ตอาจสร้างความท้าทายให้กับระบบระบายความร้อนและพลังงานในดาต้าเซ็นเตอร์   • ต้องใช้ระบบระบายระดับของเหลว (liquid cooling) หรือ sub-ambient ‼️ Intel จะต้องพิสูจน์ว่าประสิทธิภาพต่อวัตต์จะ “คุ้มพลังงาน” กว่า AMD EPYC รุ่น Zen 6/7 ที่กำลังจะเปิดตัว   • เพราะ AMD นำหน้าไปก่อนในประสิทธิภาพและ efficiency ตลาดเซิร์ฟเวอร์ช่วงหลัง https://www.techpowerup.com/338664/intel-diamond-rapids-xeon-cpu-to-feature-up-to-192-p-cores-and-500-w-tdp
    WWW.TECHPOWERUP.COM
    Intel "Diamond Rapids" Xeon CPU to Feature up to 192 P-Cores and 500 W TDP
    Intel's next-generation "Oak Stream" platform is preparing to accommodate the upcoming "Diamond Rapids" Xeon CPU generation, and we are receiving more interesting details about the top-end configurations Intel will offer. According to the HEPiX TechWatch working group, the Diamond Rapids Intel Xeon ...
    0 ความคิดเห็น 0 การแบ่งปัน 101 มุมมอง 0 รีวิว
  • ตอนที่พูดถึง “งานเงินดีในวงการเซมิคอนดักเตอร์” ส่วนใหญ่คนมักจะนึกถึง TSMC — เจ้าพ่อโรงงานผลิตชิปของโลกที่รับผลิตให้ Apple, Nvidia ฯลฯ แต่ข้อมูลล่าสุดจากรายงานของ ITHome กลับเผยสิ่งตรงกันข้ามเล็กน้อย: → พนักงานทั่วไป (non-executive, full-time) ที่ MediaTek ได้เงินเดือนเฉลี่ยสูงสุดในไต้หวัน คือ NT$4.31 ล้าน/ปี (~$149,000) → ขณะที่ TSMC อยู่อันดับ 7 เท่านั้น ด้วยค่าเฉลี่ย NT$3.391 ล้าน/ปี (~$117,000) → Realtek ตามมาในอันดับ 2 ด้วย NT$3.915 ล้าน/ปี (~$135,000)

    นั่นหมายความว่า MediaTek เป็นบริษัทเดียวที่จ่ายเกิน 4 ล้านไต้หวันดอลลาร์/ปี ให้พนักงานทั่วไป และที่น่าทึ่งยิ่งกว่าคือ… ตัวเลขนี้เพิ่มขึ้นถึง 14.81% จากปี 2023 สวนทางกับหลายบริษัทที่กำลังรัดเข็มขัด

    เหตุผลอาจมาจากหลายด้าน เช่น
    - MediaTek มีพนักงานเพียง ~22,000 คน เทียบกับ TSMC ที่มีมากถึง ~83,000 คน
    - แปลว่าอาจบริหารสัดส่วนค่าตอบแทน–ประสิทธิภาพเฉลี่ยได้เข้มข้นกว่า
    - และที่สำคัญ — MediaTek ยังได้รับเลือกเป็นหนึ่งใน “บริษัทน่าทำงานด้วยที่สุด” ของไต้หวันด้วย

    https://wccftech.com/mediatek-only-taiwan-listed-company-whose-employees-are-paid-nt4-million-annually/
    ตอนที่พูดถึง “งานเงินดีในวงการเซมิคอนดักเตอร์” ส่วนใหญ่คนมักจะนึกถึง TSMC — เจ้าพ่อโรงงานผลิตชิปของโลกที่รับผลิตให้ Apple, Nvidia ฯลฯ แต่ข้อมูลล่าสุดจากรายงานของ ITHome กลับเผยสิ่งตรงกันข้ามเล็กน้อย: → พนักงานทั่วไป (non-executive, full-time) ที่ MediaTek ได้เงินเดือนเฉลี่ยสูงสุดในไต้หวัน คือ NT$4.31 ล้าน/ปี (~$149,000) → ขณะที่ TSMC อยู่อันดับ 7 เท่านั้น ด้วยค่าเฉลี่ย NT$3.391 ล้าน/ปี (~$117,000) → Realtek ตามมาในอันดับ 2 ด้วย NT$3.915 ล้าน/ปี (~$135,000) นั่นหมายความว่า MediaTek เป็นบริษัทเดียวที่จ่ายเกิน 4 ล้านไต้หวันดอลลาร์/ปี ให้พนักงานทั่วไป และที่น่าทึ่งยิ่งกว่าคือ… ตัวเลขนี้เพิ่มขึ้นถึง 14.81% จากปี 2023 สวนทางกับหลายบริษัทที่กำลังรัดเข็มขัด เหตุผลอาจมาจากหลายด้าน เช่น - MediaTek มีพนักงานเพียง ~22,000 คน เทียบกับ TSMC ที่มีมากถึง ~83,000 คน - แปลว่าอาจบริหารสัดส่วนค่าตอบแทน–ประสิทธิภาพเฉลี่ยได้เข้มข้นกว่า - และที่สำคัญ — MediaTek ยังได้รับเลือกเป็นหนึ่งใน “บริษัทน่าทำงานด้วยที่สุด” ของไต้หวันด้วย https://wccftech.com/mediatek-only-taiwan-listed-company-whose-employees-are-paid-nt4-million-annually/
    0 ความคิดเห็น 0 การแบ่งปัน 104 มุมมอง 0 รีวิว
  • ลืมภาพเดิมของเครื่องพิมพ์ 3 มิติที่เป็นกล่องใหญ่ ๆ ไปได้เลยครับ — เพราะทีมนักวิจัยจาก MIT ได้รวมเทคโนโลยี “ซิลิคอนโฟโตนิกส์” (Silicon Photonics) เข้ากับ “เรซินแข็งตัวด้วยแสง” จนสามารถสร้างเครื่องพิมพ์ 3 มิติที่:
    - เล็กเท่าเหรียญ 1 เหรียญ
    - ไม่มีชิ้นส่วนเคลื่อนไหว
    - ใช้เสาแสงนาโน (nano-antennas) ที่ควบคุมทิศแสงจากเลเซอร์
    - ยิงลำแสงเข้าไปในอ่างเรซิน → แข็งตัวกลายเป็นแบบ 2 มิติภายในไม่กี่วินาที

    ทีมงานเตรียมพัฒนาต่อให้สามารถ “พิมพ์แบบ 3 มิติแบบโวลูม” (Volumetric 3D Printing) ได้ในอนาคต → เป้าหมายคือ “สร้างโฮโลแกรมแสงในเรซิน” และให้ชิปทำหน้าที่เสมือนเครื่องพิมพ์ 3 มิติเพียงแค่ใช้แสงขั้นเดียว → ถ้าทำสำเร็จ จะปฏิวัติโลกของเครื่องพิมพ์ 3 มิติแบบพกพาอย่างแท้จริง

    ทีม MIT พัฒนาเครื่องพิมพ์ 3 มิติที่อยู่บนชิปซิลิคอนขนาดเท่าเหรียญ  
    • ใช้เทคโนโลยี Silicon Photonics  
    • ไม่มีชิ้นส่วนเคลื่อนไหว

    เสาแสงนาโนควบคุมเลเซอร์ให้ยิงเข้าสู่อ่างเรซิน  
    • แข็งตัวเป็นลวดลายแบบ 2D ภายในไม่กี่วินาที  
    • ใช้ฟิล์มเรซินพิเศษที่คิดค้นร่วมกับมหาวิทยาลัย UT Austin

    แผนต่อไป: สร้างชิปที่สามารถ “ยิงแสงเป็นโฮโลแกรม” ลงในเรซินเพื่อพิมพ์วัตถุแบบ 3D โวลูมในขั้นตอนเดียว  
    • แนวคิดนี้ถูกตีพิมพ์ในวารสาร Nature แล้ว  
    • เป้าหมายสุดท้าย: 3D printer แบบใส่กระเป๋าได้เลย

    ชิปโฟโตนิกส์ใช้งานคล้ายอุปกรณ์ส่งข้อมูลด้วยแสงของ Nvidia และ AMD  
    • ช่วยยืนยันว่าเทคโนโลยีนี้ไม่ใช่เรื่องเพ้อฝัน

    https://www.tomshardware.com/3d-printing/mit-team-creates-chip-based-3d-printer-the-size-of-a-coin-cures-resin-using-only-light-handheld-3d-printing-tech-enabled-by-silicon-photonics
    ลืมภาพเดิมของเครื่องพิมพ์ 3 มิติที่เป็นกล่องใหญ่ ๆ ไปได้เลยครับ — เพราะทีมนักวิจัยจาก MIT ได้รวมเทคโนโลยี “ซิลิคอนโฟโตนิกส์” (Silicon Photonics) เข้ากับ “เรซินแข็งตัวด้วยแสง” จนสามารถสร้างเครื่องพิมพ์ 3 มิติที่: - เล็กเท่าเหรียญ 1 เหรียญ - ไม่มีชิ้นส่วนเคลื่อนไหว - ใช้เสาแสงนาโน (nano-antennas) ที่ควบคุมทิศแสงจากเลเซอร์ - ยิงลำแสงเข้าไปในอ่างเรซิน → แข็งตัวกลายเป็นแบบ 2 มิติภายในไม่กี่วินาที ทีมงานเตรียมพัฒนาต่อให้สามารถ “พิมพ์แบบ 3 มิติแบบโวลูม” (Volumetric 3D Printing) ได้ในอนาคต → เป้าหมายคือ “สร้างโฮโลแกรมแสงในเรซิน” และให้ชิปทำหน้าที่เสมือนเครื่องพิมพ์ 3 มิติเพียงแค่ใช้แสงขั้นเดียว → ถ้าทำสำเร็จ จะปฏิวัติโลกของเครื่องพิมพ์ 3 มิติแบบพกพาอย่างแท้จริง ✅ ทีม MIT พัฒนาเครื่องพิมพ์ 3 มิติที่อยู่บนชิปซิลิคอนขนาดเท่าเหรียญ   • ใช้เทคโนโลยี Silicon Photonics   • ไม่มีชิ้นส่วนเคลื่อนไหว ✅ เสาแสงนาโนควบคุมเลเซอร์ให้ยิงเข้าสู่อ่างเรซิน   • แข็งตัวเป็นลวดลายแบบ 2D ภายในไม่กี่วินาที   • ใช้ฟิล์มเรซินพิเศษที่คิดค้นร่วมกับมหาวิทยาลัย UT Austin ✅ แผนต่อไป: สร้างชิปที่สามารถ “ยิงแสงเป็นโฮโลแกรม” ลงในเรซินเพื่อพิมพ์วัตถุแบบ 3D โวลูมในขั้นตอนเดียว   • แนวคิดนี้ถูกตีพิมพ์ในวารสาร Nature แล้ว   • เป้าหมายสุดท้าย: 3D printer แบบใส่กระเป๋าได้เลย ✅ ชิปโฟโตนิกส์ใช้งานคล้ายอุปกรณ์ส่งข้อมูลด้วยแสงของ Nvidia และ AMD   • ช่วยยืนยันว่าเทคโนโลยีนี้ไม่ใช่เรื่องเพ้อฝัน https://www.tomshardware.com/3d-printing/mit-team-creates-chip-based-3d-printer-the-size-of-a-coin-cures-resin-using-only-light-handheld-3d-printing-tech-enabled-by-silicon-photonics
    0 ความคิดเห็น 0 การแบ่งปัน 133 มุมมอง 0 รีวิว
  • TSMC เคยประกาศลงทุนกว่า $100,000 ล้านในสหรัฐฯ และล่าสุดตามรายงานของ Wall Street Journal ดูเหมือนว่าพวกเขา “ไม่เพียงแค่ลงทุน” แต่ถึงขั้น “ปรับลำดับความสำคัญทั่วโลก” → โรงงานใหม่ในญี่ปุ่นถูกชะลอแบบไม่มีกำหนด → โครงการในเยอรมนีและที่อื่นก็ถูกเบรก → ทั้งหมดเพื่อเทงบ–ทรัพยากร–ทีมงานลงที่โรงงานในแอริโซนา ที่ตอนนี้ผลิตชิปรุ่นล่าสุด และจ่อขยายไปถึงระดับ 1.4nm ภายในปี 2030

    เหตุผลสำคัญไม่ใช่แค่การตามลูกค้าอย่าง Apple, Nvidia หรือ Microsoft เท่านั้น แต่คือ แรงกดดันจากฝ่ายการเมืองอเมริกัน โดยเฉพาะแผนของอดีตประธานาธิบดีโดนัลด์ ทรัมป์ ที่อาจตั้งภาษีชิปนำเข้าสูงถึง 100% หากผลิตนอกสหรัฐฯ

    TSMC ปรับลำดับความสำคัญระดับโลก → เทน้ำหนักไปที่โรงงานในรัฐแอริโซนา สหรัฐอเมริกา  
    • ชะลอโครงการโรงงานแห่งที่ 2 ในญี่ปุ่นแบบไม่มีกำหนด  
    • ชะลอแผนในเยอรมนีด้วย  
    • โรงงานในแอริโซนาเป็นแห่งเดียวในต่างประเทศที่ผลิตชิปขั้นสูงนอกไต้หวัน

    แหล่งข่าวเผยว่าแรงผลักดันหลักคือความกลัว “ภาษีทรัมป์” ที่อาจตั้งขึ้นมาใหม่หาก Trump กลับมาเป็นประธานาธิบดี  
    • มีรายงานว่าเตรียมใช้มาตรการขึ้นภาษีชิปนำเข้าสูงสุดถึง 100%  
    • ผลักดันยุทธศาสตร์ “Made in USA” ของฝ่ายอนุรักษนิยม

    TSMC Arizona Fab ได้รับความสนใจจากลูกค้าใหญ่ ๆ เช่น Nvidia, Apple, Microsoft  
    • โรงงานจ่อขยายไปถึงระดับ 1.4nm ภายในทศวรรษนี้  
    • สั่งผลิตเต็มทุกไลน์แล้วในปัจจุบัน

    บริษัทร่วมในห่วงโซ่ เช่น Foxconn และ Quanta ก็กำลังย้ายฐานการผลิตมายังอเมริกาเพื่อลดความเสี่ยง

    https://wccftech.com/tsmc-has-reportedly-prioritized-setting-up-plants-in-the-us-over-other-region/
    TSMC เคยประกาศลงทุนกว่า $100,000 ล้านในสหรัฐฯ และล่าสุดตามรายงานของ Wall Street Journal ดูเหมือนว่าพวกเขา “ไม่เพียงแค่ลงทุน” แต่ถึงขั้น “ปรับลำดับความสำคัญทั่วโลก” → โรงงานใหม่ในญี่ปุ่นถูกชะลอแบบไม่มีกำหนด → โครงการในเยอรมนีและที่อื่นก็ถูกเบรก → ทั้งหมดเพื่อเทงบ–ทรัพยากร–ทีมงานลงที่โรงงานในแอริโซนา ที่ตอนนี้ผลิตชิปรุ่นล่าสุด และจ่อขยายไปถึงระดับ 1.4nm ภายในปี 2030 เหตุผลสำคัญไม่ใช่แค่การตามลูกค้าอย่าง Apple, Nvidia หรือ Microsoft เท่านั้น แต่คือ แรงกดดันจากฝ่ายการเมืองอเมริกัน โดยเฉพาะแผนของอดีตประธานาธิบดีโดนัลด์ ทรัมป์ ที่อาจตั้งภาษีชิปนำเข้าสูงถึง 100% หากผลิตนอกสหรัฐฯ ✅ TSMC ปรับลำดับความสำคัญระดับโลก → เทน้ำหนักไปที่โรงงานในรัฐแอริโซนา สหรัฐอเมริกา   • ชะลอโครงการโรงงานแห่งที่ 2 ในญี่ปุ่นแบบไม่มีกำหนด   • ชะลอแผนในเยอรมนีด้วย   • โรงงานในแอริโซนาเป็นแห่งเดียวในต่างประเทศที่ผลิตชิปขั้นสูงนอกไต้หวัน ✅ แหล่งข่าวเผยว่าแรงผลักดันหลักคือความกลัว “ภาษีทรัมป์” ที่อาจตั้งขึ้นมาใหม่หาก Trump กลับมาเป็นประธานาธิบดี   • มีรายงานว่าเตรียมใช้มาตรการขึ้นภาษีชิปนำเข้าสูงสุดถึง 100%   • ผลักดันยุทธศาสตร์ “Made in USA” ของฝ่ายอนุรักษนิยม ✅ TSMC Arizona Fab ได้รับความสนใจจากลูกค้าใหญ่ ๆ เช่น Nvidia, Apple, Microsoft   • โรงงานจ่อขยายไปถึงระดับ 1.4nm ภายในทศวรรษนี้   • สั่งผลิตเต็มทุกไลน์แล้วในปัจจุบัน ✅ บริษัทร่วมในห่วงโซ่ เช่น Foxconn และ Quanta ก็กำลังย้ายฐานการผลิตมายังอเมริกาเพื่อลดความเสี่ยง https://wccftech.com/tsmc-has-reportedly-prioritized-setting-up-plants-in-the-us-over-other-region/
    WCCFTECH.COM
    TSMC Has Reportedly Prioritized Setting Up Plants in the U.S. Over Other Regions Due to Fears of "Trump Tariffs"
    TSMC has decided to prioritize America over all other nations where it is building facilities, as it is pouring massive funds into it.
    0 ความคิดเห็น 0 การแบ่งปัน 182 มุมมอง 0 รีวิว
  • ลองนึกภาพว่าเมื่อไม่กี่ปีก่อน Nvidia ยังเป็นบริษัททำการ์ดจอเกมเป็นหลัก มูลค่าราว $500 พันล้าน → แต่ตอนนี้ (กลางปี 2025) Nvidia กำลังแตะมูลค่า $4 ล้านล้านดอลลาร์ โดย  
    • เคยแตะ $3.92T ระหว่างวัน (intraday)  
    • ปิดที่ $3.89T  
    • แซงสถิติเดิมของ Apple ที่เคยปิดที่ $3.915T เมื่อปลายปี 2024

    สาเหตุหลักมาจากความ “บูม” ของตลาด AI — โดย Nvidia ควบคุม ฮาร์ดแวร์ AI ระดับสูง ที่ใช้เทรนและรัน LLM แทบทั้งหมด
    → ทำให้กลายเป็น “หัวใจกลางของยุค AI Infrastructure” ที่ทั้ง Microsoft, Amazon, Meta, Tesla และ Alphabet ต้องพึ่งพา
    → ในไตรมาสล่าสุด Nvidia ทำรายได้ $44.1B (+69%)  
    • เฉพาะส่วน Data Center ก็ทำถึง $39.1B  
    • วางเป้า $170B รายได้รวมในปีงบประมาณ 2026 (ขึ้นจาก $130B ในปี 2025)

    และที่น่าสนใจคือ…
    → มูลค่าตลาดของ Nvidia สูงกว่ารวมกันของบริษัทจดทะเบียนทั้งประเทศอังกฤษ
    → นักลงทุนที่ถือดัชนีแบบ S&P 500 ตอนนี้มีสัดส่วน Nvidia เพิ่มขึ้นอย่างมากโดยไม่รู้ตัว

    https://www.techspot.com/news/108558-nvidia-closes-4-trillion-valuation-surpasses-apple-record.html
    ลองนึกภาพว่าเมื่อไม่กี่ปีก่อน Nvidia ยังเป็นบริษัททำการ์ดจอเกมเป็นหลัก มูลค่าราว $500 พันล้าน → แต่ตอนนี้ (กลางปี 2025) Nvidia กำลังแตะมูลค่า $4 ล้านล้านดอลลาร์ โดย   • เคยแตะ $3.92T ระหว่างวัน (intraday)   • ปิดที่ $3.89T   • แซงสถิติเดิมของ Apple ที่เคยปิดที่ $3.915T เมื่อปลายปี 2024 สาเหตุหลักมาจากความ “บูม” ของตลาด AI — โดย Nvidia ควบคุม ฮาร์ดแวร์ AI ระดับสูง ที่ใช้เทรนและรัน LLM แทบทั้งหมด → ทำให้กลายเป็น “หัวใจกลางของยุค AI Infrastructure” ที่ทั้ง Microsoft, Amazon, Meta, Tesla และ Alphabet ต้องพึ่งพา → ในไตรมาสล่าสุด Nvidia ทำรายได้ $44.1B (+69%)   • เฉพาะส่วน Data Center ก็ทำถึง $39.1B   • วางเป้า $170B รายได้รวมในปีงบประมาณ 2026 (ขึ้นจาก $130B ในปี 2025) และที่น่าสนใจคือ… → มูลค่าตลาดของ Nvidia สูงกว่ารวมกันของบริษัทจดทะเบียนทั้งประเทศอังกฤษ 🇬🇧 → นักลงทุนที่ถือดัชนีแบบ S&P 500 ตอนนี้มีสัดส่วน Nvidia เพิ่มขึ้นอย่างมากโดยไม่รู้ตัว https://www.techspot.com/news/108558-nvidia-closes-4-trillion-valuation-surpasses-apple-record.html
    WWW.TECHSPOT.COM
    Nvidia closes in on $4 trillion valuation, surpasses Apple's record
    "When the first company crossed a trillion dollars, it was amazing. And now you're talking four trillion, which is just incredible. It tells you that there's this...
    0 ความคิดเห็น 0 การแบ่งปัน 144 มุมมอง 0 รีวิว
  • สหรัฐฯ มีแผนจะจำกัดการส่งออกชิป AI จากบริษัทต่างๆ เช่น Nvidia ไปยังมาเลเซียและไทย หวั่นถูกใช้เป็นเส้นทางลักลอบเข้าจีน
    สหรัฐฯ มีแผนจะจำกัดการส่งออกชิป AI จากบริษัทต่างๆ เช่น Nvidia ไปยังมาเลเซียและไทย หวั่นถูกใช้เป็นเส้นทางลักลอบเข้าจีน
    0 ความคิดเห็น 0 การแบ่งปัน 150 มุมมอง 0 รีวิว
  • ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว
    → ติดตั้งที่ศูนย์ข้อมูลของ Switch
    → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี
     • 72 GPU (Blackwell Ultra)
     • 36 CPU (Grace 72-core)
      • 36 DPU (BlueField)
    → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB
    → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8)
    → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU

    ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก

    สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว → ติดตั้งที่ศูนย์ข้อมูลของ Switch → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี  • 72 GPU (Blackwell Ultra)  • 36 CPU (Grace 72-core)   • 36 DPU (BlueField) → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB 🔥 → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8) → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU 😮💧 ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    0 ความคิดเห็น 0 การแบ่งปัน 139 มุมมอง 0 รีวิว
  • ย้อนกลับไปปี 2022 Samsung เริ่มลงทุนสร้างโรงงานผลิตชิปแห่งใหม่ที่เมือง Taylor, Texas ด้วยความหวังจะยึดหัวหาดในตลาดอเมริกา

    → เดิมวางแผนใช้สายการผลิตระดับ 4nm และต่อมาอัปเกรดไปเป็น 2nm เพื่อแข่งขันกับ TSMC/Intel → ทุ่มงบจากเดิม $17B เพิ่มเป็น $44B → รับเงินสนับสนุนจาก CHIPS Act กว่า $6.6B

    แต่ถึงตอนนี้...อุปกรณ์เครื่องจักรยังไม่ได้ติดตั้ง และแหล่งข่าวบอกว่า เหตุผลสำคัญคือ “ยังไม่มีลูกค้า” และ “ความต้องการชิประดับนี้ในสหรัฐฯ ยังน้อย”

    ตรงกันข้ามกับ TSMC ที่โรงงานในแอริโซนาแม้ผลิตชิปราคาแพงกว่าจากต่างประเทศ แต่ มีลูกค้าเต็มล่วงหน้าถึงปี 2027 แล้ว เช่น Apple, AMD, Nvidia, Qualcomm

    สรุปคือ: Samsung อาจสร้างโรงงานทัน แต่ถ้าไม่มีลูกค้ามารอใช้สายการผลิต — ก็ยังเดินหน้าต่อไม่ได้

    Samsung ชะลอการเปิดโรงงานผลิตชิปที่ Taylor, Texas มูลค่า $44,000 ล้าน  
    • แม้โครงสร้างก่อสร้างจะเสร็จแล้ว 92% ณ มีนาคม 2024  
    • เดิมมีกำหนดแล้วเสร็จเมษายน 2024 แต่ถูกเลื่อนไปตุลาคม

    เหตุหลักของความล่าช้า: “ยังไม่มีลูกค้า และ node 4nm ที่วางแผนไว้ไม่ตรงกับตลาดปัจจุบัน”  
    • บริษัทวางแผนอัปเกรดเป็น 2nm แต่ต้องใช้เวลา–เงิน–คน–เทคโนโลยีจำนวนมาก

    เปรียบเทียบกับ TSMC ที่ Fab 21 ในรัฐแอริโซนา
    • ผลิตชิประดับ 4nm  
    • ลูกค้าหลัก: Apple, AMD, Nvidia, Broadcom  
    • ปริมาณการสั่งผลิตถูกจองหมดถึงปี 2027 แม้ราคาสูง

    Samsung มีตลาดโรงหล่อ (foundry market share) เพียง 7.7% เทียบกับ TSMC ที่ถือ 68%

    แม้เทคโนโลยีพร้อม แต่ยังต้องสร้างทีมงาน ทดสอบอุปกรณ์ และรับมือกับต้นทุนติดตั้งที่สูง (เฉพาะ EUV เครื่องพิมพ์ลายวงจร ก็ใช้เวลาติดตั้งนานมาก)

    Samsung ยืนยันว่าจะเดินหน้าเปิดโรงงานให้ทันปี 2026 เพื่อไม่ให้เสียสิทธิ์เงินสนับสนุนจาก CHIPS Act

    https://www.tomshardware.com/tech-industry/semiconductors/samsung-delays-usd44-billion-texas-chip-fab-sources-say-completion-halted-because-there-are-no-customers
    ย้อนกลับไปปี 2022 Samsung เริ่มลงทุนสร้างโรงงานผลิตชิปแห่งใหม่ที่เมือง Taylor, Texas ด้วยความหวังจะยึดหัวหาดในตลาดอเมริกา → เดิมวางแผนใช้สายการผลิตระดับ 4nm และต่อมาอัปเกรดไปเป็น 2nm เพื่อแข่งขันกับ TSMC/Intel → ทุ่มงบจากเดิม $17B เพิ่มเป็น $44B → รับเงินสนับสนุนจาก CHIPS Act กว่า $6.6B แต่ถึงตอนนี้...อุปกรณ์เครื่องจักรยังไม่ได้ติดตั้ง และแหล่งข่าวบอกว่า เหตุผลสำคัญคือ “ยังไม่มีลูกค้า” และ “ความต้องการชิประดับนี้ในสหรัฐฯ ยังน้อย” ตรงกันข้ามกับ TSMC ที่โรงงานในแอริโซนาแม้ผลิตชิปราคาแพงกว่าจากต่างประเทศ แต่ มีลูกค้าเต็มล่วงหน้าถึงปี 2027 แล้ว เช่น Apple, AMD, Nvidia, Qualcomm สรุปคือ: Samsung อาจสร้างโรงงานทัน แต่ถ้าไม่มีลูกค้ามารอใช้สายการผลิต — ก็ยังเดินหน้าต่อไม่ได้ ✅ Samsung ชะลอการเปิดโรงงานผลิตชิปที่ Taylor, Texas มูลค่า $44,000 ล้าน   • แม้โครงสร้างก่อสร้างจะเสร็จแล้ว 92% ณ มีนาคม 2024   • เดิมมีกำหนดแล้วเสร็จเมษายน 2024 แต่ถูกเลื่อนไปตุลาคม ✅ เหตุหลักของความล่าช้า: “ยังไม่มีลูกค้า และ node 4nm ที่วางแผนไว้ไม่ตรงกับตลาดปัจจุบัน”   • บริษัทวางแผนอัปเกรดเป็น 2nm แต่ต้องใช้เวลา–เงิน–คน–เทคโนโลยีจำนวนมาก ✅ เปรียบเทียบกับ TSMC ที่ Fab 21 ในรัฐแอริโซนา • ผลิตชิประดับ 4nm   • ลูกค้าหลัก: Apple, AMD, Nvidia, Broadcom   • ปริมาณการสั่งผลิตถูกจองหมดถึงปี 2027 แม้ราคาสูง ✅ Samsung มีตลาดโรงหล่อ (foundry market share) เพียง 7.7% เทียบกับ TSMC ที่ถือ 68% ✅ แม้เทคโนโลยีพร้อม แต่ยังต้องสร้างทีมงาน ทดสอบอุปกรณ์ และรับมือกับต้นทุนติดตั้งที่สูง (เฉพาะ EUV เครื่องพิมพ์ลายวงจร ก็ใช้เวลาติดตั้งนานมาก) ✅ Samsung ยืนยันว่าจะเดินหน้าเปิดโรงงานให้ทันปี 2026 เพื่อไม่ให้เสียสิทธิ์เงินสนับสนุนจาก CHIPS Act https://www.tomshardware.com/tech-industry/semiconductors/samsung-delays-usd44-billion-texas-chip-fab-sources-say-completion-halted-because-there-are-no-customers
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • Jim Farley ซีอีโอของ Ford กล่าวในงาน Aspen Ideas Festival ว่า “ในอีกไม่กี่ปี AI อาจแทนที่งานของพนักงานสาย white-collar ได้ถึงครึ่งหนึ่งทั่วสหรัฐฯ” — โดยเฉพาะงานที่เกี่ยวข้องกับเอกสาร, การวิเคราะห์, การเขียนรายงาน, งานธุรการ หรือแม้แต่งานด้านกฎหมายและการเงิน

    เขาไม่ได้พูดคนเดียวครับ — บิ๊กเทคอย่าง Amazon, Spotify, Fiverr, Moderna, Anthropic และแม้แต่ JPMorgan Chase ต่างก็เตือนในทางเดียวกัน:
    - CEO ของ Amazon บอกว่า “หลายตำแหน่งจะหายไป” แต่จะมีโอกาสใหม่เกิดในสายงาน STEM และ Robotics
    - CEO ของ Anthropic ถึงขั้นคาดว่า "AI จะลบงานระดับเริ่มต้น (entry-level white-collar) ไปครึ่งหนึ่งใน 5 ปี" และอาจเพิ่มอัตราการว่างงาน 10-20%
    - CPO ของ Anthropic ยังบอกว่า “ลังเลที่จะจ้างเด็กจบใหม่” เพราะไม่แน่ใจว่างานที่พวกเขาทำจะยังอยู่ไหม
    - CEO ของ Fiverr, Spotify, Moderna ต่างก็พูดในทำนองเดียวกันว่า “แม้แต่งานสายเทคที่ดูรอด ก็ไม่รอด”

    ฝั่งคนทำงานเองก็เริ่มหวั่น — รายงานจาก PYMNTs (พฤษภาคม 2025) พบว่า คนอเมริกัน 54% มองว่า AI กำลังคุกคามงานของพวกเขา และยิ่งเรียนสูง–เก่งเทค ยิ่งกลัวหนัก

    ในขณะที่ฝั่งตรงข้ามอย่าง Jensen Huang (CEO ของ Nvidia) กลับบอกว่า “การมองว่า AI จะลบงานเป็นเรื่องเว่อร์เกินจริง” และสนับสนุนให้พัฒนาร่วมกันอย่างโปร่งใส

    Ford CEO เตือนว่า AI อาจแทนงาน white-collar ครึ่งหนึ่งในสหรัฐอเมริกาในไม่กี่ปี  
    • โดยเฉพาะสายงานวิเคราะห์, เอกสาร, บริหาร ฯลฯ

    Amazon, Anthropic, Fiverr, Spotify, JPMorgan, และ Moderna แสดงความกังวลเช่นกัน  
    • Anthropic คาดการว่างงานอาจเพิ่ม 10-20% ภายใน 5 ปี  
    • CEO ของบางบริษัทเริ่ม “หยุดจ้างเด็กจบใหม่” เพราะไม่แน่ใจอนาคตตำแหน่งงาน

    งานที่ AI อาจแทนที่ได้ รวมถึง:  
    • โปรแกรมเมอร์, นักออกแบบ, ผู้จัดการผลิตภัณฑ์  
    • นักวิทยาศาสตร์ข้อมูล, ทนายความ, ฝ่ายซัพพอร์ต, ฝ่ายขาย, นักวิเคราะห์การเงิน

    Moderna ตั้งเป้า “ไม่ต้องการพนักงานมากกว่าหลักพันคน” เพราะใช้ AI  
    • จากเดิมที่บริษัทในระดับเดียวกันอาจมีคนเป็นหมื่น

    ผลสำรวจในสหรัฐฯ พ.ค. 2025 พบว่า 54% ของพนักงานเชื่อว่า AI กำลังคุกคามงานของตน  
    • โดยกลุ่มที่เรียนสูงและทำงานสายเทคมีความกังวลมากที่สุด

    มีเพียง Jensen Huang (CEO ของ Nvidia) ที่ออกมาบอกว่า “มองโลกในแง่ร้ายเกินไป”

    https://www.techspot.com/news/108552-ford-ceo-warns-generative-ai-could-eliminate-half.html
    Jim Farley ซีอีโอของ Ford กล่าวในงาน Aspen Ideas Festival ว่า “ในอีกไม่กี่ปี AI อาจแทนที่งานของพนักงานสาย white-collar ได้ถึงครึ่งหนึ่งทั่วสหรัฐฯ” — โดยเฉพาะงานที่เกี่ยวข้องกับเอกสาร, การวิเคราะห์, การเขียนรายงาน, งานธุรการ หรือแม้แต่งานด้านกฎหมายและการเงิน เขาไม่ได้พูดคนเดียวครับ — บิ๊กเทคอย่าง Amazon, Spotify, Fiverr, Moderna, Anthropic และแม้แต่ JPMorgan Chase ต่างก็เตือนในทางเดียวกัน: - CEO ของ Amazon บอกว่า “หลายตำแหน่งจะหายไป” แต่จะมีโอกาสใหม่เกิดในสายงาน STEM และ Robotics - CEO ของ Anthropic ถึงขั้นคาดว่า "AI จะลบงานระดับเริ่มต้น (entry-level white-collar) ไปครึ่งหนึ่งใน 5 ปี" และอาจเพิ่มอัตราการว่างงาน 10-20% - CPO ของ Anthropic ยังบอกว่า “ลังเลที่จะจ้างเด็กจบใหม่” เพราะไม่แน่ใจว่างานที่พวกเขาทำจะยังอยู่ไหม - CEO ของ Fiverr, Spotify, Moderna ต่างก็พูดในทำนองเดียวกันว่า “แม้แต่งานสายเทคที่ดูรอด ก็ไม่รอด” ฝั่งคนทำงานเองก็เริ่มหวั่น — รายงานจาก PYMNTs (พฤษภาคม 2025) พบว่า คนอเมริกัน 54% มองว่า AI กำลังคุกคามงานของพวกเขา และยิ่งเรียนสูง–เก่งเทค ยิ่งกลัวหนัก ในขณะที่ฝั่งตรงข้ามอย่าง Jensen Huang (CEO ของ Nvidia) กลับบอกว่า “การมองว่า AI จะลบงานเป็นเรื่องเว่อร์เกินจริง” และสนับสนุนให้พัฒนาร่วมกันอย่างโปร่งใส ✅ Ford CEO เตือนว่า AI อาจแทนงาน white-collar ครึ่งหนึ่งในสหรัฐอเมริกาในไม่กี่ปี   • โดยเฉพาะสายงานวิเคราะห์, เอกสาร, บริหาร ฯลฯ ✅ Amazon, Anthropic, Fiverr, Spotify, JPMorgan, และ Moderna แสดงความกังวลเช่นกัน   • Anthropic คาดการว่างงานอาจเพิ่ม 10-20% ภายใน 5 ปี   • CEO ของบางบริษัทเริ่ม “หยุดจ้างเด็กจบใหม่” เพราะไม่แน่ใจอนาคตตำแหน่งงาน ✅ งานที่ AI อาจแทนที่ได้ รวมถึง:   • โปรแกรมเมอร์, นักออกแบบ, ผู้จัดการผลิตภัณฑ์   • นักวิทยาศาสตร์ข้อมูล, ทนายความ, ฝ่ายซัพพอร์ต, ฝ่ายขาย, นักวิเคราะห์การเงิน ✅ Moderna ตั้งเป้า “ไม่ต้องการพนักงานมากกว่าหลักพันคน” เพราะใช้ AI   • จากเดิมที่บริษัทในระดับเดียวกันอาจมีคนเป็นหมื่น ✅ ผลสำรวจในสหรัฐฯ พ.ค. 2025 พบว่า 54% ของพนักงานเชื่อว่า AI กำลังคุกคามงานของตน   • โดยกลุ่มที่เรียนสูงและทำงานสายเทคมีความกังวลมากที่สุด ✅ มีเพียง Jensen Huang (CEO ของ Nvidia) ที่ออกมาบอกว่า “มองโลกในแง่ร้ายเกินไป” https://www.techspot.com/news/108552-ford-ceo-warns-generative-ai-could-eliminate-half.html
    WWW.TECHSPOT.COM
    Ford CEO joins list of execs warning AI could eliminate millions of white-collar jobs
    Farley did not elaborate on his views, but he is hardly the only Fortune 500 CEO who believes AI could spell trouble for educated white-collar workers. Leaders...
    0 ความคิดเห็น 0 การแบ่งปัน 140 มุมมอง 0 รีวิว
  • รู้ไหมครับว่า CUDA คืออะไร? มันคือแพลตฟอร์มสำหรับพัฒนา AI และการประมวลผลหนัก ๆ ที่ NVIDIA ผูกขาดไว้ — คนเขียนโปรแกรมด้วย CUDA จะใช้ได้แค่บนการ์ดจอของ NVIDIA เท่านั้น → ทำให้เกิดล็อกอิน (vendor lock-in) ขนาดใหญ่ในโลก AI

    แต่ ZLUDA ซึ่งเป็นโปรเจกต์โอเพ่นซอร์ส เคยมีความหวังว่าจะ "เป็นสะพานเชื่อม" ให้คนที่เขียนโค้ดด้วย CUDA อยู่แล้ว สามารถรันบน GPU ของ Intel หรือ AMD ได้เลยโดยไม่ต้องเปลี่ยนโค้ด → ตอนแรก Intel สนับสนุน แต่ก็มือหลุด → AMD รับช่วงต่อได้ไม่นาน...ก็ถอนตัวเพราะ "ประเด็นทางกฎหมาย" → สุดท้าย ZLUDA ถูกหยุดพัฒนาไปชั่วคราว

    ล่าสุด! ZLUDA กลับมาอีกครั้ง พร้อมนักพัฒนา 2 คนที่กำลัง ผลักดันให้มันกลายเป็นระบบ multi-vendor เต็มตัว → ทำให้รันโค้ด CUDA ได้แม่นยำระดับ “bit-accurate” บน GPU แบรนด์อื่น → และเริ่มทดลองเพิ่มการรองรับ PhysX (ระบบฟิสิกส์ของ NVIDIA ด้วย)

    ZLUDA คือไลบรารีโอเพ่นซอร์สที่ช่วยให้รันโค้ด CUDA ได้บน GPU ที่ไม่ใช่ของ NVIDIA  
    • เดิมรองรับ Intel, AMD พยายามใช้แต่ถอนตัวไป  
    • ล่าสุดกลับมาอีกครั้งในเวอร์ชัน “multi-vendor”

    ตอนนี้มีนักพัฒนา 2 คนประจำ กำลังเร่งพัฒนาให้เสถียรขึ้นอย่างต่อเนื่อง  
    • ทำให้การพัฒนาเร็วขึ้น  
    • รองรับฟีเจอร์ใหม่ เช่น bit-accurate CUDA execution, การทดลองรองรับ PhysX

    เป้าหมายคือการ “ลดอำนาจผูกขาดของ CUDA” และทำให้ AI–HPC ยืดหยุ่นมากขึ้น

    ไม่มี timeline ชัดเจนว่าจะเปิดใช้งานจริงเมื่อไหร่  
    • แต่ชุมชนโอเพ่นซอร์สให้ความสนใจสูง

    https://wccftech.com/zluda-sees-major-progress-in-bringing-nvidia-cuda-code-to-other-gpus/
    รู้ไหมครับว่า CUDA คืออะไร? มันคือแพลตฟอร์มสำหรับพัฒนา AI และการประมวลผลหนัก ๆ ที่ NVIDIA ผูกขาดไว้ — คนเขียนโปรแกรมด้วย CUDA จะใช้ได้แค่บนการ์ดจอของ NVIDIA เท่านั้น → ทำให้เกิดล็อกอิน (vendor lock-in) ขนาดใหญ่ในโลก AI แต่ ZLUDA ซึ่งเป็นโปรเจกต์โอเพ่นซอร์ส เคยมีความหวังว่าจะ "เป็นสะพานเชื่อม" ให้คนที่เขียนโค้ดด้วย CUDA อยู่แล้ว สามารถรันบน GPU ของ Intel หรือ AMD ได้เลยโดยไม่ต้องเปลี่ยนโค้ด → ตอนแรก Intel สนับสนุน แต่ก็มือหลุด → AMD รับช่วงต่อได้ไม่นาน...ก็ถอนตัวเพราะ "ประเด็นทางกฎหมาย" → สุดท้าย ZLUDA ถูกหยุดพัฒนาไปชั่วคราว ล่าสุด! ZLUDA กลับมาอีกครั้ง พร้อมนักพัฒนา 2 คนที่กำลัง ผลักดันให้มันกลายเป็นระบบ multi-vendor เต็มตัว → ทำให้รันโค้ด CUDA ได้แม่นยำระดับ “bit-accurate” บน GPU แบรนด์อื่น → และเริ่มทดลองเพิ่มการรองรับ PhysX (ระบบฟิสิกส์ของ NVIDIA ด้วย) ✅ ZLUDA คือไลบรารีโอเพ่นซอร์สที่ช่วยให้รันโค้ด CUDA ได้บน GPU ที่ไม่ใช่ของ NVIDIA   • เดิมรองรับ Intel, AMD พยายามใช้แต่ถอนตัวไป   • ล่าสุดกลับมาอีกครั้งในเวอร์ชัน “multi-vendor” ✅ ตอนนี้มีนักพัฒนา 2 คนประจำ กำลังเร่งพัฒนาให้เสถียรขึ้นอย่างต่อเนื่อง   • ทำให้การพัฒนาเร็วขึ้น   • รองรับฟีเจอร์ใหม่ เช่น bit-accurate CUDA execution, การทดลองรองรับ PhysX ✅ เป้าหมายคือการ “ลดอำนาจผูกขาดของ CUDA” และทำให้ AI–HPC ยืดหยุ่นมากขึ้น ✅ ไม่มี timeline ชัดเจนว่าจะเปิดใช้งานจริงเมื่อไหร่   • แต่ชุมชนโอเพ่นซอร์สให้ความสนใจสูง https://wccftech.com/zluda-sees-major-progress-in-bringing-nvidia-cuda-code-to-other-gpus/
    WCCFTECH.COM
    Open-Source Library ZLUDA Sees Major Progress in Bringing NVIDIA's CUDA Code to Other GPUs; Doubles Developer Count
    ZLUDA has made massive headlines in the past with their "code porting" library, and it looks like the developers are geared up once again.
    0 ความคิดเห็น 0 การแบ่งปัน 159 มุมมอง 0 รีวิว
  • ลองนึกภาพว่าในอดีต ตลาดเซิร์ฟเวอร์เต็มไปด้วย CPU x86 จาก Intel หรือ AMD เป็นหลัก แต่วันนี้เรากำลังเห็นการเปลี่ยนแปลงครั้งใหญ่ — เพราะ AI ต้องการ "พลังประมวลผลแบบเฉพาะทาง" มากขึ้นเรื่อย ๆ → ทำให้เซิร์ฟเวอร์ที่ใช้ AI GPU + ชิป Arm พุ่งแรง โดยเฉพาะ Nvidia Grace + Blackwell (GB200) ที่อัด GPU ถึง 8 ตัวต่อเครื่อง!

    แค่เซิร์ฟเวอร์ตระกูลนี้เพียงกลุ่มเดียวก็กลายเป็น “ตัวจุดพลุ” ให้ยอดขายเซิร์ฟเวอร์ Arm โตขึ้น 70% เทียบปีต่อปี → แม้จะยังมีส่วนแบ่งแค่ 21.1% ของยอดส่งมอบเครื่องรวม แต่ก็เป็นก้าวกระโดดที่ใหญ่ที่สุดของ Arm ในตลาดเซิร์ฟเวอร์

    และมันยังไม่หยุดแค่นี้ — เพราะ IDC คาดว่า:
    - ตลาดเซิร์ฟเวอร์รวมจะโตจาก $249B (2024) → $588B (2029)
    - โดยเซิร์ฟเวอร์ AI แบบ Accelerated จะกินส่วนแบ่งครึ่งหนึ่ง
    - และเซิร์ฟเวอร์ Arm จะโตจาก $32B → $103B ใน 5 ปี!
    - ในอนาคตยังมีโอกาสเห็นซีพียูจาก Qualcomm, Marvell, MediaTek หรือ Fujitsu ร่วมวงด้วย

    ส่วนผู้นำตลาดคืออเมริกา คิดเป็น 62% ของมูลค่าตลาดเซิร์ฟเวอร์ปี 2025 — เพราะเป็นศูนย์กลางการสร้าง AI Infrastructure พร้อมเทเงินลงในโครงการระดับ Stargate หรือ AGI อย่างต่อเนื่อง

    ตลาดเซิร์ฟเวอร์ไตรมาสแรกปี 2025 พุ่งถึง $95.2B — โตขึ้น 134% จากปีก่อนหน้า  
    • การเติบโตเร็วที่สุดที่เคยบันทึกมา  
    • ขับเคลื่อนโดยเซิร์ฟเวอร์ AI ที่มี GPU แบบเร่งความเร็ว (Accelerated Servers)

    ยอดจัดส่งเซิร์ฟเวอร์ Arm โตขึ้น 70% YoY — ส่วนใหญ่เป็นของ Nvidia GB200 NVL72  
    • ใช้ซีพียู Grace + GPU Blackwell (B200)  
    • มี GPU 8 ตัวต่อเครื่อง

    ปี 2025 คาดการณ์ตลาดเซิร์ฟเวอร์รวม $366B แบ่งเป็น:  
    • x86: $283.9B (โต 39.9%)  
    • Non-x86 (รวม Arm): $82B (โต 63.7%)

    Arm คาดจะกิน 21.1% ของยอดเครื่องเซิร์ฟเวอร์ทั่วโลกภายในสิ้นปี 2025  
    • แม้ยังห่างเป้าหมาย 50% แต่ถือเป็นการเติบโตที่มั่นคง

    ตลาด Arm-accelerated servers จะโตจาก $32B → $103B ในปี 2029  
    • ขับเคลื่อนด้วย AI แบบ reasoning model, LLM, AGI

    ตลาดใหญ่สุดคือสหรัฐฯ (โต 59.7%) > จีน (โต 39.5%) > ญี่ปุ่น (33.9%)

    https://www.tomshardware.com/desktops/servers/nvidias-arm-chips-rapidly-gain-share-in-server-market-as-ai-booms-nvidias-arm-powered-gb200-servers-surge-as-market-reaches-a-record-usd95-billion-in-the-first-quarter
    ลองนึกภาพว่าในอดีต ตลาดเซิร์ฟเวอร์เต็มไปด้วย CPU x86 จาก Intel หรือ AMD เป็นหลัก แต่วันนี้เรากำลังเห็นการเปลี่ยนแปลงครั้งใหญ่ — เพราะ AI ต้องการ "พลังประมวลผลแบบเฉพาะทาง" มากขึ้นเรื่อย ๆ → ทำให้เซิร์ฟเวอร์ที่ใช้ AI GPU + ชิป Arm พุ่งแรง โดยเฉพาะ Nvidia Grace + Blackwell (GB200) ที่อัด GPU ถึง 8 ตัวต่อเครื่อง! แค่เซิร์ฟเวอร์ตระกูลนี้เพียงกลุ่มเดียวก็กลายเป็น “ตัวจุดพลุ” ให้ยอดขายเซิร์ฟเวอร์ Arm โตขึ้น 70% เทียบปีต่อปี → แม้จะยังมีส่วนแบ่งแค่ 21.1% ของยอดส่งมอบเครื่องรวม แต่ก็เป็นก้าวกระโดดที่ใหญ่ที่สุดของ Arm ในตลาดเซิร์ฟเวอร์ และมันยังไม่หยุดแค่นี้ — เพราะ IDC คาดว่า: - ตลาดเซิร์ฟเวอร์รวมจะโตจาก $249B (2024) → $588B (2029) - โดยเซิร์ฟเวอร์ AI แบบ Accelerated จะกินส่วนแบ่งครึ่งหนึ่ง - และเซิร์ฟเวอร์ Arm จะโตจาก $32B → $103B ใน 5 ปี! - ในอนาคตยังมีโอกาสเห็นซีพียูจาก Qualcomm, Marvell, MediaTek หรือ Fujitsu ร่วมวงด้วย ส่วนผู้นำตลาดคืออเมริกา คิดเป็น 62% ของมูลค่าตลาดเซิร์ฟเวอร์ปี 2025 — เพราะเป็นศูนย์กลางการสร้าง AI Infrastructure พร้อมเทเงินลงในโครงการระดับ Stargate หรือ AGI อย่างต่อเนื่อง ✅ ตลาดเซิร์ฟเวอร์ไตรมาสแรกปี 2025 พุ่งถึง $95.2B — โตขึ้น 134% จากปีก่อนหน้า   • การเติบโตเร็วที่สุดที่เคยบันทึกมา   • ขับเคลื่อนโดยเซิร์ฟเวอร์ AI ที่มี GPU แบบเร่งความเร็ว (Accelerated Servers) ✅ ยอดจัดส่งเซิร์ฟเวอร์ Arm โตขึ้น 70% YoY — ส่วนใหญ่เป็นของ Nvidia GB200 NVL72   • ใช้ซีพียู Grace + GPU Blackwell (B200)   • มี GPU 8 ตัวต่อเครื่อง ✅ ปี 2025 คาดการณ์ตลาดเซิร์ฟเวอร์รวม $366B แบ่งเป็น:   • x86: $283.9B (โต 39.9%)   • Non-x86 (รวม Arm): $82B (โต 63.7%) ✅ Arm คาดจะกิน 21.1% ของยอดเครื่องเซิร์ฟเวอร์ทั่วโลกภายในสิ้นปี 2025   • แม้ยังห่างเป้าหมาย 50% แต่ถือเป็นการเติบโตที่มั่นคง ✅ ตลาด Arm-accelerated servers จะโตจาก $32B → $103B ในปี 2029   • ขับเคลื่อนด้วย AI แบบ reasoning model, LLM, AGI ✅ ตลาดใหญ่สุดคือสหรัฐฯ (โต 59.7%) > จีน (โต 39.5%) > ญี่ปุ่น (33.9%) https://www.tomshardware.com/desktops/servers/nvidias-arm-chips-rapidly-gain-share-in-server-market-as-ai-booms-nvidias-arm-powered-gb200-servers-surge-as-market-reaches-a-record-usd95-billion-in-the-first-quarter
    0 ความคิดเห็น 0 การแบ่งปัน 208 มุมมอง 0 รีวิว
  • “บทเรียนฮาแบบเจ็บจริง” ของคนเล่น Virtual Machine (VM) — เมื่อผู้ใช้รายหนึ่งเผลอกด “Eject” การ์ดจอออกจากระบบผ่าน Windows แบบไม่ตั้งใจ ทำให้ GPU หายไปจาก VM แถมใช้เวลาตั้งชั่วโมงกว่าจะกู้กลับมาได้!

    เรื่องมันเริ่มจากคุณ YnosNava บน Reddit ซึ่งกำลังทดลองใช้ PCIe passthrough บน VM ใน Proxmox เพื่อให้ VM (เช่น Windows) เข้าถึงการ์ดจอโดยตรง — เทคนิคนี้จะทำให้การรันเกมหรือแอปกราฟิกใน VM เร็วและลื่นขึ้นมาก

    แต่...เขาดันไปเห็นการ์ดจอแสดงอยู่ใน System Tray ของ Windows พร้อมปุ่ม “Eject NVIDIA GeForce…” แล้วด้วยความอยากรู้อยากลอง เขาก็กดเลยครับ! → ผลคือล็อก VM ไม่พอ การ์ดจอหาย! → Windows มองไม่เห็นแล้ว → ต้องลบ–เพิ่มอุปกรณ์ใหม่–รีบูตหลายรอบ–ลงไดรเวอร์ใหม่กว่าจะกลับมาได้

    เคสนี้เกิดจากระบบ PCIe passthrough ที่ให้ Windows มองเห็นอุปกรณ์แบบ “hot-pluggable” (ถอดออกได้ทันที) เหมือนแฟลชไดรฟ์ — แต่แน่นอนว่าการ์ดจอไม่ใช่อะไรที่จะถอดแล้วเสียบกลับได้ในพริบตา

    เหตุเกิดจาก Windows VM ที่ใช้ PCIe passthrough บน Proxmox  
    • การ์ดจอถูก passthrough ไปให้ Windows ใช้โดยตรง  
    • Windows แสดงอุปกรณ์ว่า “ถอดออกได้” ผ่าน System Tray

    ผู้ใช้กด “Eject GPU” ด้วยความอยากรู้ → การ์ดจอหายไปจาก VM  
    • Windows ไม่สามารถตรวจเจอ GPU ได้อีก  
    • ต้องใช้เวลา 1 ชั่วโมงแก้ไข โดย:   
    – ลบอุปกรณ์ GPU ออกจากการตั้งค่า VM   
    – รีสตาร์ต VM   
    – เพิ่ม GPU กลับเข้า VM   
    – รีสตาร์ตใหม่   
    – ลงไดรเวอร์ใหม่

    นี่เป็นพฤติกรรมปกติของ passthrough แบบ PCIe ที่อนุญาตให้ Windows ถอด GPU ได้  
    • ขึ้นอยู่กับการตั้งค่า firmware/VM ว่าอนุญาตให้ hot-unplug หรือไม่

    https://www.tomshardware.com/software/windows/hilariously-unfortunate-windows-user-ejects-graphics-card-immediately-regrets-it-curiosity-killed-the-vm-acceleration
    “บทเรียนฮาแบบเจ็บจริง” ของคนเล่น Virtual Machine (VM) — เมื่อผู้ใช้รายหนึ่งเผลอกด “Eject” การ์ดจอออกจากระบบผ่าน Windows แบบไม่ตั้งใจ ทำให้ GPU หายไปจาก VM แถมใช้เวลาตั้งชั่วโมงกว่าจะกู้กลับมาได้! 😅💻💥 เรื่องมันเริ่มจากคุณ YnosNava บน Reddit ซึ่งกำลังทดลองใช้ PCIe passthrough บน VM ใน Proxmox เพื่อให้ VM (เช่น Windows) เข้าถึงการ์ดจอโดยตรง — เทคนิคนี้จะทำให้การรันเกมหรือแอปกราฟิกใน VM เร็วและลื่นขึ้นมาก แต่...เขาดันไปเห็นการ์ดจอแสดงอยู่ใน System Tray ของ Windows พร้อมปุ่ม “Eject NVIDIA GeForce…” แล้วด้วยความอยากรู้อยากลอง เขาก็กดเลยครับ! → ผลคือล็อก VM ไม่พอ การ์ดจอหาย! → Windows มองไม่เห็นแล้ว → ต้องลบ–เพิ่มอุปกรณ์ใหม่–รีบูตหลายรอบ–ลงไดรเวอร์ใหม่กว่าจะกลับมาได้ เคสนี้เกิดจากระบบ PCIe passthrough ที่ให้ Windows มองเห็นอุปกรณ์แบบ “hot-pluggable” (ถอดออกได้ทันที) เหมือนแฟลชไดรฟ์ — แต่แน่นอนว่าการ์ดจอไม่ใช่อะไรที่จะถอดแล้วเสียบกลับได้ในพริบตา 😓 ✅ เหตุเกิดจาก Windows VM ที่ใช้ PCIe passthrough บน Proxmox   • การ์ดจอถูก passthrough ไปให้ Windows ใช้โดยตรง   • Windows แสดงอุปกรณ์ว่า “ถอดออกได้” ผ่าน System Tray ✅ ผู้ใช้กด “Eject GPU” ด้วยความอยากรู้ → การ์ดจอหายไปจาก VM   • Windows ไม่สามารถตรวจเจอ GPU ได้อีก   • ต้องใช้เวลา 1 ชั่วโมงแก้ไข โดย:    – ลบอุปกรณ์ GPU ออกจากการตั้งค่า VM    – รีสตาร์ต VM    – เพิ่ม GPU กลับเข้า VM    – รีสตาร์ตใหม่    – ลงไดรเวอร์ใหม่ ✅ นี่เป็นพฤติกรรมปกติของ passthrough แบบ PCIe ที่อนุญาตให้ Windows ถอด GPU ได้   • ขึ้นอยู่กับการตั้งค่า firmware/VM ว่าอนุญาตให้ hot-unplug หรือไม่ https://www.tomshardware.com/software/windows/hilariously-unfortunate-windows-user-ejects-graphics-card-immediately-regrets-it-curiosity-killed-the-vm-acceleration
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • ในงาน Intel AI Summit ที่เกาหลีใต้ Intel เผยของใหม่สองกลุ่มใหญ่:

    1️⃣ Jaguar Shores: คือชื่อรหัสของ AI Accelerator รุ่นต่อไปภายใต้แบรนด์ “Gaudi” ที่จะมาแทน Falcon Shores ซึ่งถูกยกเลิกไปแล้ว  → ความพิเศษอยู่ที่มันจะใช้ HBM4 รุ่นล่าสุดจาก SK hynix  → HBM4 มีแบนด์วิดท์มหาศาล เหมาะสำหรับ AI รุ่นใหญ่ เช่น LLM / LRM  → เป็นครั้งแรกที่ Intel ยืนยันว่าจะใช้ HBM4 จริงในผลิตภัณฑ์

    2️⃣ Diamond Rapids: คือ Xeon Gen ถัดไป (สำหรับ data center) ที่จะใช้ MRDIMM รุ่นที่ 2 — เป็นหน่วยความจำ DDR5 ที่เร็วและฉลาด  → เชื่อมต่อแบบ “multiplexed” ทำให้มี latency ต่ำและเร็วกว่า RDIMM  → ความเร็วคาดว่าจะไปถึง 12,800 MT/s (จากเดิม 8,800 MT/s)

    แม้ยังไม่มีรายละเอียดเรื่องจำนวน stack ของ HBM4 หรือสเปกเต็มของ Jaguar Shores แต่ก็ถือเป็นสัญญาณชัดว่า Intel ไม่ยอมให้นวัตกรรม AI–Server ตกขบวนอีกแล้วครับ

    Jaguar Shores เป็น Gaudi Accelerator รุ่นใหม่ของ Intel ที่จะเปิดตัวในปี 2026  
    • ใช้ HBM4 จาก SK hynix  
    • มาแทน Falcon Shores ที่ถูกยกเลิก  
    • ออกแบบสำหรับ AI workloads ขนาดใหญ่

    HBM4 คือหน่วยความจำความเร็วสูงแบบใหม่ที่ JEDEC เพิ่งรับรองมาตรฐานในปี 2024  
    • มีแบนด์วิดท์สูงกว่า HBM3E  
    • Micron, SK hynix และ Samsung เริ่มผลิตทดสอบแล้ว  
    • ใช้ในระบบ AI, HPC และเซิร์ฟเวอร์ขนาดใหญ่

    Diamond Rapids จะใช้ MRDIMM เจเนอเรชันที่ 2  
    • มีขนาด 64GB (ใช้ชิป 16GB) และ 128GB (ใช้ชิป 32GB)  
    • Multiplexed Rank DIMM → มี MRCD chip และ MDB chip ในตัว  
    • ลด latency ลงกว่า DDR5-6400 RDIMM ได้มากถึง 40%  
    • รองรับความเร็ว bus สูงสุด 12,800 MT/s

    แนวคิด MRDIMM คือให้ internal DRAM ทำงานที่ความเร็วครึ่งนึงของภายนอก เพื่อลดความร้อนและเพิ่มประสิทธิภาพ

    Intel ยังไม่เปิดเผยจำนวน stack ของ HBM4 บน Jaguar Shores → อาจกระทบกับ performance vs NVIDIA / AMD หากใช้ stack น้อยเกินไป

    การแข่งขันด้านหน่วยความจำ AI ร้อนแรงมาก — หาก Intel ปรับช้ากว่า Micron/SK hynix/Samsung อาจเสียส่วนแบ่งในตลาด hyperscaler

    https://www.tomshardware.com/tech-industry/artificial-intelligence/intel-jumps-to-hbm4-with-jaguar-shores-2nd-gen-mrdimms-with-diamond-rapids-sk-hynix
    ในงาน Intel AI Summit ที่เกาหลีใต้ Intel เผยของใหม่สองกลุ่มใหญ่: 1️⃣ Jaguar Shores: คือชื่อรหัสของ AI Accelerator รุ่นต่อไปภายใต้แบรนด์ “Gaudi” ที่จะมาแทน Falcon Shores ซึ่งถูกยกเลิกไปแล้ว  → ความพิเศษอยู่ที่มันจะใช้ HBM4 รุ่นล่าสุดจาก SK hynix  → HBM4 มีแบนด์วิดท์มหาศาล เหมาะสำหรับ AI รุ่นใหญ่ เช่น LLM / LRM  → เป็นครั้งแรกที่ Intel ยืนยันว่าจะใช้ HBM4 จริงในผลิตภัณฑ์ 2️⃣ Diamond Rapids: คือ Xeon Gen ถัดไป (สำหรับ data center) ที่จะใช้ MRDIMM รุ่นที่ 2 — เป็นหน่วยความจำ DDR5 ที่เร็วและฉลาด  → เชื่อมต่อแบบ “multiplexed” ทำให้มี latency ต่ำและเร็วกว่า RDIMM  → ความเร็วคาดว่าจะไปถึง 12,800 MT/s (จากเดิม 8,800 MT/s) แม้ยังไม่มีรายละเอียดเรื่องจำนวน stack ของ HBM4 หรือสเปกเต็มของ Jaguar Shores แต่ก็ถือเป็นสัญญาณชัดว่า Intel ไม่ยอมให้นวัตกรรม AI–Server ตกขบวนอีกแล้วครับ ✅ Jaguar Shores เป็น Gaudi Accelerator รุ่นใหม่ของ Intel ที่จะเปิดตัวในปี 2026   • ใช้ HBM4 จาก SK hynix   • มาแทน Falcon Shores ที่ถูกยกเลิก   • ออกแบบสำหรับ AI workloads ขนาดใหญ่ ✅ HBM4 คือหน่วยความจำความเร็วสูงแบบใหม่ที่ JEDEC เพิ่งรับรองมาตรฐานในปี 2024   • มีแบนด์วิดท์สูงกว่า HBM3E   • Micron, SK hynix และ Samsung เริ่มผลิตทดสอบแล้ว   • ใช้ในระบบ AI, HPC และเซิร์ฟเวอร์ขนาดใหญ่ ✅ Diamond Rapids จะใช้ MRDIMM เจเนอเรชันที่ 2   • มีขนาด 64GB (ใช้ชิป 16GB) และ 128GB (ใช้ชิป 32GB)   • Multiplexed Rank DIMM → มี MRCD chip และ MDB chip ในตัว   • ลด latency ลงกว่า DDR5-6400 RDIMM ได้มากถึง 40%   • รองรับความเร็ว bus สูงสุด 12,800 MT/s ✅ แนวคิด MRDIMM คือให้ internal DRAM ทำงานที่ความเร็วครึ่งนึงของภายนอก เพื่อลดความร้อนและเพิ่มประสิทธิภาพ ‼️ Intel ยังไม่เปิดเผยจำนวน stack ของ HBM4 บน Jaguar Shores → อาจกระทบกับ performance vs NVIDIA / AMD หากใช้ stack น้อยเกินไป ‼️ การแข่งขันด้านหน่วยความจำ AI ร้อนแรงมาก — หาก Intel ปรับช้ากว่า Micron/SK hynix/Samsung อาจเสียส่วนแบ่งในตลาด hyperscaler https://www.tomshardware.com/tech-industry/artificial-intelligence/intel-jumps-to-hbm4-with-jaguar-shores-2nd-gen-mrdimms-with-diamond-rapids-sk-hynix
    0 ความคิดเห็น 0 การแบ่งปัน 219 มุมมอง 0 รีวิว
  • ก่อนอื่นต้องเข้าใจก่อนว่า ASML คือบริษัทผลิต เครื่อง EUV (Extreme Ultraviolet Lithography) ที่เป็นหัวใจของการผลิตชิปสมัยใหม่ทุกวันนี้ ยิ่งเทคโนโลยีเล็กลง (เช่น 5nm, 3nm), ความละเอียดของเครื่องก็ยิ่งสำคัญ

    แต่ช่วงหลัง Intel กลับออกมาบอกว่า “เครื่อง High NA EUV รุ่นล่าสุดของ ASML อาจไม่จำเป็นเท่าที่คิดในเทคโนโลยีชิปยุคใหม่” เพราะแนวโน้มตอนนี้คือ “เปลี่ยนจากการลดขนาดทรานซิสเตอร์แนวนอน → ไปเพิ่มชั้นแนวตั้ง (3D stacking)” แทน → ทำให้ความคมชัดของเลนส์ไม่ใช่พระเอกอีกต่อไป

    BofA จึงลดความคาดหวังต่ออุปสงค์ของเครื่อง High NA EUV แม้จะยังแนะนำ “ซื้อ” หุ้น ASML อยู่ (เพราะยังเชื่อในกระแส AI) แต่ก็มองว่า:
    - ตลาด High NA ยังไม่เติบโตเท่าที่หวัง
    - Intel ยังมีปัญหาผลิต 18A
    - Samsung เองยังไม่สามารถส่งชิปหน่วยความจำให้ NVIDIA ผ่านได้
    - และยังมีความเสี่ยงการคว่ำบาตรจากสหรัฐฯ ต่ออุปกรณ์ที่ส่งไปจีน

    BofA ลดเป้าราคาหุ้น ASML จาก €795 → €759  
    • ลดคาดการณ์ EPS ปี 2026–2027 ลง ~5%  
    • แต่ยังคงคำแนะนำ “Buy” อยู่

    เหตุผลที่ลดประมาณการคือการชะลอความต้องการเครื่อง High NA EUV ของ ASML  
    • โดยเฉพาะจาก Intel, Samsung  
    • และการปรับทิศทางดีไซน์ชิปไปสู่แนวตั้งแบบ 3D มากขึ้น

    BofA คาดว่า ASML จะขายเครื่อง High NA ได้แค่ 4 เครื่องในปี 2026  
    • ลดลง ~50% จากที่เคยคาดไว้

    แม้จะเผชิญแรงกดดัน แต่ BofA ยังเชื่อในการเติบโตระยะยาวจากกระแส AI  
    • คาดว่าตลาด AI chip จะโตแตะ $795B ภายในปี 2030  
    • ซึ่งยังต้องพึ่งพาเทคโนโลยีลิทโธกราฟีรุ่นล่าสุดอยู่

    อัตราส่วน EV/Operating Income ของ ASML ยังอยู่ที่ 19.6x  
    • ต่ำกว่าค่าเฉลี่ย 22x แต่ถือว่า “ยังน่าสนใจสำหรับนักลงทุนระยะยาว”

    https://wccftech.com/asmls-price-target-cut-by-bofa-due-to-lower-high-na-machine-demand/
    ก่อนอื่นต้องเข้าใจก่อนว่า ASML คือบริษัทผลิต เครื่อง EUV (Extreme Ultraviolet Lithography) ที่เป็นหัวใจของการผลิตชิปสมัยใหม่ทุกวันนี้ ยิ่งเทคโนโลยีเล็กลง (เช่น 5nm, 3nm), ความละเอียดของเครื่องก็ยิ่งสำคัญ แต่ช่วงหลัง Intel กลับออกมาบอกว่า “เครื่อง High NA EUV รุ่นล่าสุดของ ASML อาจไม่จำเป็นเท่าที่คิดในเทคโนโลยีชิปยุคใหม่” เพราะแนวโน้มตอนนี้คือ “เปลี่ยนจากการลดขนาดทรานซิสเตอร์แนวนอน → ไปเพิ่มชั้นแนวตั้ง (3D stacking)” แทน → ทำให้ความคมชัดของเลนส์ไม่ใช่พระเอกอีกต่อไป BofA จึงลดความคาดหวังต่ออุปสงค์ของเครื่อง High NA EUV แม้จะยังแนะนำ “ซื้อ” หุ้น ASML อยู่ (เพราะยังเชื่อในกระแส AI) แต่ก็มองว่า: - ตลาด High NA ยังไม่เติบโตเท่าที่หวัง - Intel ยังมีปัญหาผลิต 18A - Samsung เองยังไม่สามารถส่งชิปหน่วยความจำให้ NVIDIA ผ่านได้ - และยังมีความเสี่ยงการคว่ำบาตรจากสหรัฐฯ ต่ออุปกรณ์ที่ส่งไปจีน ✅ BofA ลดเป้าราคาหุ้น ASML จาก €795 → €759   • ลดคาดการณ์ EPS ปี 2026–2027 ลง ~5%   • แต่ยังคงคำแนะนำ “Buy” อยู่ ✅ เหตุผลที่ลดประมาณการคือการชะลอความต้องการเครื่อง High NA EUV ของ ASML   • โดยเฉพาะจาก Intel, Samsung   • และการปรับทิศทางดีไซน์ชิปไปสู่แนวตั้งแบบ 3D มากขึ้น ✅ BofA คาดว่า ASML จะขายเครื่อง High NA ได้แค่ 4 เครื่องในปี 2026   • ลดลง ~50% จากที่เคยคาดไว้ ✅ แม้จะเผชิญแรงกดดัน แต่ BofA ยังเชื่อในการเติบโตระยะยาวจากกระแส AI   • คาดว่าตลาด AI chip จะโตแตะ $795B ภายในปี 2030   • ซึ่งยังต้องพึ่งพาเทคโนโลยีลิทโธกราฟีรุ่นล่าสุดอยู่ ✅ อัตราส่วน EV/Operating Income ของ ASML ยังอยู่ที่ 19.6x   • ต่ำกว่าค่าเฉลี่ย 22x แต่ถือว่า “ยังน่าสนใจสำหรับนักลงทุนระยะยาว” https://wccftech.com/asmls-price-target-cut-by-bofa-due-to-lower-high-na-machine-demand/
    WCCFTECH.COM
    ASML's Price Target Cut By BofA Due To Lower High NA Machine Demand
    Bank of America cuts ASML share price target on back of lower demand for high NA EUV scanners and Intel's production woes.
    0 ความคิดเห็น 0 การแบ่งปัน 199 มุมมอง 0 รีวิว
Pages Boosts