• 🚀 Micron ผนึกกำลัง AMD พัฒนา HBM3E สำหรับ AI และ HPC
    Micron ประกาศการบูรณาการ HBM3E 36 GB 12-high เข้ากับ AMD Instinct MI350 Series ซึ่งเป็น แพลตฟอร์ม AI และ HPC รุ่นใหม่ โดยเน้น ประสิทธิภาพสูงและการใช้พลังงานอย่างมีประสิทธิภาพ

    🔍 รายละเอียดของความร่วมมือ
    ✅ HBM3E 36 GB 12-high ช่วยเพิ่มประสิทธิภาพของ AMD Instinct MI350
    - AMD Instinct MI350 Series ใช้สถาปัตยกรรม CDNA 4 พร้อม หน่วยความจำ HBM3E ขนาด 288 GB
    - ให้แบนด์วิดท์สูงสุด 8 TB/s รองรับ AI models ขนาด 520 พันล้านพารามิเตอร์

    ✅ การออกแบบที่เน้นประสิทธิภาพและการประหยัดพลังงาน
    - HBM3E ช่วยลดการใช้พลังงาน และ เพิ่ม throughput สำหรับงาน AI และ HPC
    - แพลตฟอร์มเต็มรูปแบบมีหน่วยความจำ HBM3E สูงสุด 2.3 TB และ ประสิทธิภาพสูงสุด 161 PFLOPS ที่ FP4 precision

    ✅ Micron และ AMD เร่งพัฒนา AI solutions ให้เข้าสู่ตลาดเร็วขึ้น
    - Micron ทำงานร่วมกับ AMD เพื่อปรับแต่ง HBM3E ให้เข้ากับ Instinct MI350 Series
    - ช่วยให้ศูนย์ข้อมูลสามารถขยายขนาดได้อย่างมีประสิทธิภาพ

    🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC
    ‼️ ต้องติดตามว่า HBM3E จะสามารถแข่งขันกับ HBM4 ได้หรือไม่
    - Micron เพิ่งเริ่มจัดส่งตัวอย่าง HBM4 ซึ่งมีแบนด์วิดท์สูงกว่า

    ‼️ การใช้พลังงานของ Instinct MI350 อาจเป็นปัจจัยสำคัญในการนำไปใช้งาน
    - ต้องดูว่าแพลตฟอร์มนี้จะสามารถรักษาสมดุลระหว่างประสิทธิภาพและการใช้พลังงานได้ดีแค่ไหน

    ‼️ การแข่งขันระหว่าง AMD และ Nvidia ในตลาด AI accelerators ยังคงเข้มข้น
    - Nvidia อาจเปิดตัวผลิตภัณฑ์ใหม่เพื่อตอบโต้ Instinct MI350 Series

    🚀 อนาคตของ HBM และ AI accelerators
    ✅ Micron อาจขยายการพัฒนา HBM4 เพื่อรองรับ AI workloads ที่ใหญ่ขึ้น ✅ AMD อาจเปิดตัว Instinct MI355X และ MI400 Series ในอนาคต

    https://www.techpowerup.com/337991/micron-hbm-designed-into-leading-amd-ai-platform
    🚀 Micron ผนึกกำลัง AMD พัฒนา HBM3E สำหรับ AI และ HPC Micron ประกาศการบูรณาการ HBM3E 36 GB 12-high เข้ากับ AMD Instinct MI350 Series ซึ่งเป็น แพลตฟอร์ม AI และ HPC รุ่นใหม่ โดยเน้น ประสิทธิภาพสูงและการใช้พลังงานอย่างมีประสิทธิภาพ 🔍 รายละเอียดของความร่วมมือ ✅ HBM3E 36 GB 12-high ช่วยเพิ่มประสิทธิภาพของ AMD Instinct MI350 - AMD Instinct MI350 Series ใช้สถาปัตยกรรม CDNA 4 พร้อม หน่วยความจำ HBM3E ขนาด 288 GB - ให้แบนด์วิดท์สูงสุด 8 TB/s รองรับ AI models ขนาด 520 พันล้านพารามิเตอร์ ✅ การออกแบบที่เน้นประสิทธิภาพและการประหยัดพลังงาน - HBM3E ช่วยลดการใช้พลังงาน และ เพิ่ม throughput สำหรับงาน AI และ HPC - แพลตฟอร์มเต็มรูปแบบมีหน่วยความจำ HBM3E สูงสุด 2.3 TB และ ประสิทธิภาพสูงสุด 161 PFLOPS ที่ FP4 precision ✅ Micron และ AMD เร่งพัฒนา AI solutions ให้เข้าสู่ตลาดเร็วขึ้น - Micron ทำงานร่วมกับ AMD เพื่อปรับแต่ง HBM3E ให้เข้ากับ Instinct MI350 Series - ช่วยให้ศูนย์ข้อมูลสามารถขยายขนาดได้อย่างมีประสิทธิภาพ 🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC ‼️ ต้องติดตามว่า HBM3E จะสามารถแข่งขันกับ HBM4 ได้หรือไม่ - Micron เพิ่งเริ่มจัดส่งตัวอย่าง HBM4 ซึ่งมีแบนด์วิดท์สูงกว่า ‼️ การใช้พลังงานของ Instinct MI350 อาจเป็นปัจจัยสำคัญในการนำไปใช้งาน - ต้องดูว่าแพลตฟอร์มนี้จะสามารถรักษาสมดุลระหว่างประสิทธิภาพและการใช้พลังงานได้ดีแค่ไหน ‼️ การแข่งขันระหว่าง AMD และ Nvidia ในตลาด AI accelerators ยังคงเข้มข้น - Nvidia อาจเปิดตัวผลิตภัณฑ์ใหม่เพื่อตอบโต้ Instinct MI350 Series 🚀 อนาคตของ HBM และ AI accelerators ✅ Micron อาจขยายการพัฒนา HBM4 เพื่อรองรับ AI workloads ที่ใหญ่ขึ้น ✅ AMD อาจเปิดตัว Instinct MI355X และ MI400 Series ในอนาคต https://www.techpowerup.com/337991/micron-hbm-designed-into-leading-amd-ai-platform
    WWW.TECHPOWERUP.COM
    Micron HBM Designed into Leading AMD AI Platform
    Micron Technology, Inc. today announced the integration of its HBM3E 36 GB 12-high offering into the upcoming AMD Instinct MI350 Series solutions. This collaboration highlights the critical role of power efficiency and performance in training large AI models, delivering high-throughput inference and...
    0 Comments 0 Shares 66 Views 0 Reviews
  • 🚀 AMD เปิดตัว Pensando Pollara 400GbE NIC พร้อมรองรับ Ultra Ethernet
    AMD เปิดตัวการ์ดเครือข่าย Pensando Pollara 400GbE ซึ่งเป็น NIC ตัวแรกที่รองรับมาตรฐาน Ultra Ethernet โดยออกแบบมาเพื่อ ศูนย์ข้อมูล AI และ HPC ขนาดใหญ่

    🔍 รายละเอียดของ Pensando Pollara 400GbE
    ✅ รองรับ Ultra Ethernet และเพิ่มประสิทธิภาพ RDMA
    - Ultra Ethernet Consortium เพิ่งเผยแพร่สเปค 1.0 ซึ่งออกแบบมาเพื่อ ศูนย์ข้อมูล AI ขนาดใหญ่
    - Pollara 400GbE มีประสิทธิภาพ RDMA สูงกว่า Nvidia CX7 ถึง 10% และสูงกว่า Broadcom Thor2 ถึง 20%

    ✅ ช่วยให้สามารถสร้าง AI cluster ขนาดใหญ่
    - Oracle Cloud Infrastructure จะเป็นผู้ใช้รายแรก โดยวางแผนสร้าง AI cluster ขนาด zettascale
    - Cluster นี้จะใช้ AMD Instinct MI355X GPUs จำนวน 131,072 ตัว

    ✅ ออกแบบมาเพื่อหลีกเลี่ยงปัญหาคอขวดของเครือข่าย
    - NIC สามารถแบ่งข้อมูลออกเป็นหลายเส้นทางเพื่อหลีกเลี่ยงการติดขัด
    - มีระบบ failover ที่ช่วยรักษาการเชื่อมต่อ GPU-to-GPU

    🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC
    ‼️ ต้องติดตามว่า Ultra Ethernet จะได้รับการยอมรับในวงกว้างหรือไม่
    - มาตรฐานนี้ยังใหม่ และต้องแข่งขันกับเทคโนโลยีที่มีอยู่ เช่น NVLink และ RoCEv2

    ‼️ การ์ดเครือข่ายต้องมีการปรับแต่งเพื่อให้ทำงานร่วมกับระบบที่มีอยู่
    - องค์กรที่ใช้ RDMA อาจต้องปรับแต่งซอฟต์แวร์เพื่อรองรับ Ultra Ethernet

    ‼️ ต้องรอดูว่า Nvidia และ Broadcom จะตอบสนองต่อการแข่งขันนี้อย่างไร
    - หาก Ultra Ethernet ได้รับความนิยม อาจส่งผลต่อกลยุทธ์ของผู้ผลิตเครือข่ายรายอื่น

    🚀 อนาคตของ Ultra Ethernet และเครือข่าย AI
    ✅ Ultra Ethernet อาจช่วยให้สามารถสร้าง AI cluster ที่มีประสิทธิภาพสูงขึ้น ✅ AMD อาจขยายการพัฒนา NIC รุ่นใหม่เพื่อรองรับการเติบโตของ AI และ HPC

    https://www.tomshardware.com/networking/amd-deploys-its-first-ultra-ethernet-ready-network-card-pensando-pollara-provides-up-to-400-gbps-performance
    🚀 AMD เปิดตัว Pensando Pollara 400GbE NIC พร้อมรองรับ Ultra Ethernet AMD เปิดตัวการ์ดเครือข่าย Pensando Pollara 400GbE ซึ่งเป็น NIC ตัวแรกที่รองรับมาตรฐาน Ultra Ethernet โดยออกแบบมาเพื่อ ศูนย์ข้อมูล AI และ HPC ขนาดใหญ่ 🔍 รายละเอียดของ Pensando Pollara 400GbE ✅ รองรับ Ultra Ethernet และเพิ่มประสิทธิภาพ RDMA - Ultra Ethernet Consortium เพิ่งเผยแพร่สเปค 1.0 ซึ่งออกแบบมาเพื่อ ศูนย์ข้อมูล AI ขนาดใหญ่ - Pollara 400GbE มีประสิทธิภาพ RDMA สูงกว่า Nvidia CX7 ถึง 10% และสูงกว่า Broadcom Thor2 ถึง 20% ✅ ช่วยให้สามารถสร้าง AI cluster ขนาดใหญ่ - Oracle Cloud Infrastructure จะเป็นผู้ใช้รายแรก โดยวางแผนสร้าง AI cluster ขนาด zettascale - Cluster นี้จะใช้ AMD Instinct MI355X GPUs จำนวน 131,072 ตัว ✅ ออกแบบมาเพื่อหลีกเลี่ยงปัญหาคอขวดของเครือข่าย - NIC สามารถแบ่งข้อมูลออกเป็นหลายเส้นทางเพื่อหลีกเลี่ยงการติดขัด - มีระบบ failover ที่ช่วยรักษาการเชื่อมต่อ GPU-to-GPU 🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC ‼️ ต้องติดตามว่า Ultra Ethernet จะได้รับการยอมรับในวงกว้างหรือไม่ - มาตรฐานนี้ยังใหม่ และต้องแข่งขันกับเทคโนโลยีที่มีอยู่ เช่น NVLink และ RoCEv2 ‼️ การ์ดเครือข่ายต้องมีการปรับแต่งเพื่อให้ทำงานร่วมกับระบบที่มีอยู่ - องค์กรที่ใช้ RDMA อาจต้องปรับแต่งซอฟต์แวร์เพื่อรองรับ Ultra Ethernet ‼️ ต้องรอดูว่า Nvidia และ Broadcom จะตอบสนองต่อการแข่งขันนี้อย่างไร - หาก Ultra Ethernet ได้รับความนิยม อาจส่งผลต่อกลยุทธ์ของผู้ผลิตเครือข่ายรายอื่น 🚀 อนาคตของ Ultra Ethernet และเครือข่าย AI ✅ Ultra Ethernet อาจช่วยให้สามารถสร้าง AI cluster ที่มีประสิทธิภาพสูงขึ้น ✅ AMD อาจขยายการพัฒนา NIC รุ่นใหม่เพื่อรองรับการเติบโตของ AI และ HPC https://www.tomshardware.com/networking/amd-deploys-its-first-ultra-ethernet-ready-network-card-pensando-pollara-provides-up-to-400-gbps-performance
    0 Comments 0 Shares 63 Views 0 Reviews
  • 🏭 TSMC เปิดตัว CoPoS: เทคโนโลยีแพ็กเกจชิปขนาดใหญ่ 310 × 310 มม.
    TSMC ได้เปิดตัว CoPoS (Chips on Panel on Substrate) ซึ่งเป็น เทคโนโลยีแพ็กเกจชิปที่ขยายขนาดได้ถึง 310 × 310 มม. โดยใช้ แผงสี่เหลี่ยมแทนเวเฟอร์กลม เพื่อเพิ่มพื้นที่ใช้งานและลดต้นทุนการผลิต

    CoPoS ช่วยให้สามารถรวมชิปหลายตัวและหน่วยความจำ HBM4 ได้มากขึ้น ซึ่งเป็น ก้าวสำคัญสำหรับการพัฒนา AI accelerators และเซิร์ฟเวอร์ประสิทธิภาพสูง

    ✅ ข้อมูลจากข่าว
    - CoPoS ใช้แผงสี่เหลี่ยมแทนเวเฟอร์กลม ทำให้มีพื้นที่ใช้งานมากขึ้นถึง 5 เท่า
    - สามารถรวมหน่วยความจำ HBM4 ได้สูงสุด 12 ชิป พร้อม GPU chiplets หลายตัว
    - เทคโนโลยีนี้ช่วยลดต้นทุนต่อหน่วยและเพิ่มประสิทธิภาพการผลิต
    - TSMC จะเริ่มทดสอบ CoPoS ในปี 2026 และผลิตจำนวนมากในปี 2028-2029
    - Nvidia เป็นพันธมิตรรายแรกที่ใช้ CoPoS สำหรับ AI accelerators รุ่นใหม่

    🔥 ผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์
    CoPoS อาจช่วยให้การพัฒนา AI accelerators มีประสิทธิภาพมากขึ้น และ ลดข้อจำกัดด้านพื้นที่ของแพ็กเกจชิปแบบเดิม

    ‼️ คำเตือนที่ควรพิจารณา
    - การเปลี่ยนจากเวเฟอร์กลมเป็นแผงสี่เหลี่ยมอาจต้องใช้กระบวนการผลิตใหม่
    - ต้องติดตามว่า CoPoS จะสามารถเข้าสู่ตลาดได้ตามแผนในปี 2028-2029 หรือไม่
    - AMD และ Broadcom ยังคงใช้ CoWoS-L และ CoWoS-R ซึ่งอาจแข่งขันกับ CoPoS
    - เทคโนโลยีนี้อาจต้องใช้วัสดุใหม่ เช่น glass substrates และ silicon photonics

    🚀 อนาคตของ CoPoS และการพัฒนาแพ็กเกจชิป
    TSMC กำลังผลักดันให้ CoPoS กลายเป็นมาตรฐานใหม่สำหรับ AI accelerators โดย อาจช่วยให้สามารถรวมชิปหลายตัวในแพ็กเกจเดียวได้อย่างมีประสิทธิภาพมากขึ้น

    https://www.techpowerup.com/337960/tsmc-prepares-copos-next-gen-310-x-310-mm-packages
    🏭 TSMC เปิดตัว CoPoS: เทคโนโลยีแพ็กเกจชิปขนาดใหญ่ 310 × 310 มม. TSMC ได้เปิดตัว CoPoS (Chips on Panel on Substrate) ซึ่งเป็น เทคโนโลยีแพ็กเกจชิปที่ขยายขนาดได้ถึง 310 × 310 มม. โดยใช้ แผงสี่เหลี่ยมแทนเวเฟอร์กลม เพื่อเพิ่มพื้นที่ใช้งานและลดต้นทุนการผลิต CoPoS ช่วยให้สามารถรวมชิปหลายตัวและหน่วยความจำ HBM4 ได้มากขึ้น ซึ่งเป็น ก้าวสำคัญสำหรับการพัฒนา AI accelerators และเซิร์ฟเวอร์ประสิทธิภาพสูง ✅ ข้อมูลจากข่าว - CoPoS ใช้แผงสี่เหลี่ยมแทนเวเฟอร์กลม ทำให้มีพื้นที่ใช้งานมากขึ้นถึง 5 เท่า - สามารถรวมหน่วยความจำ HBM4 ได้สูงสุด 12 ชิป พร้อม GPU chiplets หลายตัว - เทคโนโลยีนี้ช่วยลดต้นทุนต่อหน่วยและเพิ่มประสิทธิภาพการผลิต - TSMC จะเริ่มทดสอบ CoPoS ในปี 2026 และผลิตจำนวนมากในปี 2028-2029 - Nvidia เป็นพันธมิตรรายแรกที่ใช้ CoPoS สำหรับ AI accelerators รุ่นใหม่ 🔥 ผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์ CoPoS อาจช่วยให้การพัฒนา AI accelerators มีประสิทธิภาพมากขึ้น และ ลดข้อจำกัดด้านพื้นที่ของแพ็กเกจชิปแบบเดิม ‼️ คำเตือนที่ควรพิจารณา - การเปลี่ยนจากเวเฟอร์กลมเป็นแผงสี่เหลี่ยมอาจต้องใช้กระบวนการผลิตใหม่ - ต้องติดตามว่า CoPoS จะสามารถเข้าสู่ตลาดได้ตามแผนในปี 2028-2029 หรือไม่ - AMD และ Broadcom ยังคงใช้ CoWoS-L และ CoWoS-R ซึ่งอาจแข่งขันกับ CoPoS - เทคโนโลยีนี้อาจต้องใช้วัสดุใหม่ เช่น glass substrates และ silicon photonics 🚀 อนาคตของ CoPoS และการพัฒนาแพ็กเกจชิป TSMC กำลังผลักดันให้ CoPoS กลายเป็นมาตรฐานใหม่สำหรับ AI accelerators โดย อาจช่วยให้สามารถรวมชิปหลายตัวในแพ็กเกจเดียวได้อย่างมีประสิทธิภาพมากขึ้น https://www.techpowerup.com/337960/tsmc-prepares-copos-next-gen-310-x-310-mm-packages
    WWW.TECHPOWERUP.COM
    TSMC Prepares "CoPoS": Next-Gen 310 × 310 mm Packages
    As demand for ever-growing AI compute power continues to rise and manufacturing advanced nodes becomes more difficult, packaging is undergoing its golden era of development. Today's advanced accelerators often rely on TSMC's CoWoS modules, which are built on wafer cuts measuring no more than 120 × 1...
    0 Comments 0 Shares 72 Views 0 Reviews
  • 🚀 AMD เปิดตัวแผนพัฒนา AI ครอบคลุม GPU, เครือข่าย, ซอฟต์แวร์ และสถาปัตยกรรม Rack
    AMD ได้เปิดตัว แผนพัฒนา AI ที่ครอบคลุมทุกด้านของโครงสร้างพื้นฐาน AI ตั้งแต่ GPU ไปจนถึงเครือข่ายและซอฟต์แวร์ โดยเน้น การเพิ่มประสิทธิภาพการประมวลผลและลดต้นทุนต่อโทเค็น

    AMD เปิดตัว Instinct MI350 และ MI355X ซึ่งเป็น GPU รุ่นใหม่ที่ใช้กระบวนการผลิต 3nm และมีหน่วยความจำ HBM3E สูงสุด 288MB

    ✅ ข้อมูลจากข่าว
    - Instinct MI350 และ MI355X มีประสิทธิภาพ inferencing เร็วขึ้นกว่าเดิม 3 เท่า
    - ต้นทุนต่อโทเค็นถูกลงถึง 40% เมื่อเทียบกับ Nvidia B200
    - AMD เตรียมเปิดตัว MI400 ในปี 2026 และ MI500 ในปี 2027
    - MI400 จะมีหน่วยความจำ HBM4 สูงสุด 432GB และแบนด์วิดท์ 19.6TB/s
    - AMD เปิดตัวเครือข่าย AI NIC รุ่นใหม่ Pollara 400 ที่ใช้มาตรฐาน Ultra Ethernet

    🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC
    AMD กำลังแข่งขันกับ Nvidia ในทุกด้านของโครงสร้างพื้นฐาน AI โดย พัฒนาเทคโนโลยีที่ช่วยลดต้นทุนและเพิ่มประสิทธิภาพการประมวลผล

    ‼️ คำเตือนที่ควรพิจารณา
    - AMD ต้องพิสูจน์ว่า GPU รุ่นใหม่สามารถแข่งขันกับ Nvidia Blackwell ได้จริง
    - Ultra Accelerator Link (UAL) อาจต้องใช้เวลาสักระยะก่อนที่อุตสาหกรรมจะนำไปใช้แทน NVLink
    - ต้องติดตามว่า AMD จะสามารถดึงดูดนักพัฒนาให้ใช้ ROCm แทน CUDA ได้หรือไม่
    - การแข่งขันระหว่าง AMD และ Nvidia อาจส่งผลต่อราคาของโครงสร้างพื้นฐาน AI ในอนาคต

    🚀 อนาคตของ AI และโครงสร้างพื้นฐาน
    AMD กำลังขยายขอบเขตของเทคโนโลยี AI โดยเน้น การพัฒนา GPU, เครือข่าย, ซอฟต์แวร์ และสถาปัตยกรรม Rack เพื่อให้สามารถแข่งขันกับ Nvidia ได้อย่างเต็มที่

    https://www.techspot.com/news/108297-amd-new-ai-roadmap-spans-gpus-networking-software.html
    🚀 AMD เปิดตัวแผนพัฒนา AI ครอบคลุม GPU, เครือข่าย, ซอฟต์แวร์ และสถาปัตยกรรม Rack AMD ได้เปิดตัว แผนพัฒนา AI ที่ครอบคลุมทุกด้านของโครงสร้างพื้นฐาน AI ตั้งแต่ GPU ไปจนถึงเครือข่ายและซอฟต์แวร์ โดยเน้น การเพิ่มประสิทธิภาพการประมวลผลและลดต้นทุนต่อโทเค็น AMD เปิดตัว Instinct MI350 และ MI355X ซึ่งเป็น GPU รุ่นใหม่ที่ใช้กระบวนการผลิต 3nm และมีหน่วยความจำ HBM3E สูงสุด 288MB ✅ ข้อมูลจากข่าว - Instinct MI350 และ MI355X มีประสิทธิภาพ inferencing เร็วขึ้นกว่าเดิม 3 เท่า - ต้นทุนต่อโทเค็นถูกลงถึง 40% เมื่อเทียบกับ Nvidia B200 - AMD เตรียมเปิดตัว MI400 ในปี 2026 และ MI500 ในปี 2027 - MI400 จะมีหน่วยความจำ HBM4 สูงสุด 432GB และแบนด์วิดท์ 19.6TB/s - AMD เปิดตัวเครือข่าย AI NIC รุ่นใหม่ Pollara 400 ที่ใช้มาตรฐาน Ultra Ethernet 🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC AMD กำลังแข่งขันกับ Nvidia ในทุกด้านของโครงสร้างพื้นฐาน AI โดย พัฒนาเทคโนโลยีที่ช่วยลดต้นทุนและเพิ่มประสิทธิภาพการประมวลผล ‼️ คำเตือนที่ควรพิจารณา - AMD ต้องพิสูจน์ว่า GPU รุ่นใหม่สามารถแข่งขันกับ Nvidia Blackwell ได้จริง - Ultra Accelerator Link (UAL) อาจต้องใช้เวลาสักระยะก่อนที่อุตสาหกรรมจะนำไปใช้แทน NVLink - ต้องติดตามว่า AMD จะสามารถดึงดูดนักพัฒนาให้ใช้ ROCm แทน CUDA ได้หรือไม่ - การแข่งขันระหว่าง AMD และ Nvidia อาจส่งผลต่อราคาของโครงสร้างพื้นฐาน AI ในอนาคต 🚀 อนาคตของ AI และโครงสร้างพื้นฐาน AMD กำลังขยายขอบเขตของเทคโนโลยี AI โดยเน้น การพัฒนา GPU, เครือข่าย, ซอฟต์แวร์ และสถาปัตยกรรม Rack เพื่อให้สามารถแข่งขันกับ Nvidia ได้อย่างเต็มที่ https://www.techspot.com/news/108297-amd-new-ai-roadmap-spans-gpus-networking-software.html
    WWW.TECHSPOT.COM
    AMD's new AI roadmap spans GPUs, networking, software, and rack architectures
    That's the situation AMD found itself in as it entered its latest Advancing AI event. But rather than letting these potential roadblocks deter them, AMD made it...
    0 Comments 0 Shares 57 Views 0 Reviews
  • ⚡ อนาคตของซูเปอร์คอมพิวเตอร์: พลังงานจะเป็นปัจจัยสำคัญกว่าประสิทธิภาพ
    Mark Papermaster, CTO ของ AMD เน้นย้ำว่าซูเปอร์คอมพิวเตอร์ในอนาคตจะต้องให้ความสำคัญกับประสิทธิภาพด้านพลังงานมากกว่าความเร็วในการประมวลผล โดยอุตสาหกรรมกำลังเผชิญกับ ความท้าทายด้านการใช้พลังงานและระบบระบายความร้อน

    Papermaster ชี้ให้เห็นว่าความต้องการด้าน AI และการคำนวณประสิทธิภาพสูง (HPC) กำลังเพิ่มขึ้นอย่างรวดเร็ว แต่ ข้อจำกัดด้านพลังงานและแบนด์วิดท์หน่วยความจำกำลังกลายเป็นอุปสรรคสำคัญ

    ✅ ข้อมูลจากข่าว
    - AMD CTO ระบุว่าซูเปอร์คอมพิวเตอร์ต้องให้ความสำคัญกับประสิทธิภาพด้านพลังงานมากกว่าความเร็ว
    - การใช้พลังงานของ AI data centers อาจสูงถึงหลายร้อยเมกะวัตต์
    - หน่วยความจำต้องเพิ่มแบนด์วิดท์เป็นสองเท่าทุกสองปีเพื่อรองรับความต้องการของ AI
    - AMD กำลังพัฒนา Instinct MI355X ซึ่งให้ประสิทธิภาพ inference สูงกว่ารุ่นก่อนถึง 35 เท่า
    - เทคโนโลยี Ultra Ethernet อาจช่วยลดต้นทุนโครงสร้างพื้นฐานของศูนย์ข้อมูล

    🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC
    Papermaster เตือนว่าการใช้พลังงานของ accelerators อาจสูงถึง 1,600W ภายในปี 2026 และอาจแตะ 2,000W ในอนาคต ทำให้ อุตสาหกรรมต้องพัฒนาโซลูชันที่มีประสิทธิภาพด้านพลังงานมากขึ้น

    ‼️ คำเตือนที่ควรพิจารณา
    - การใช้พลังงานของ AI data centers อาจเพิ่มขึ้นจนต้องใช้พลังงานระดับโรงไฟฟ้านิวเคลียร์
    - AMD ยอมรับว่าการพัฒนา 2nm chip มีต้นทุนสูงมาก และต้องใช้เครื่องมือที่เป็นกรรมสิทธิ์
    - Nvidia กำลังเปิด NVLink ให้ผู้ผลิตรายอื่นเพื่อแข่งขันกับ Ultra Ethernet
    - ต้องติดตามว่า RISC-V จะสามารถพัฒนาไปถึงระดับซูเปอร์คอมพิวเตอร์ได้หรือไม่

    🚀 อนาคตของซูเปอร์คอมพิวเตอร์
    Papermaster มองว่าซูเปอร์คอมพิวเตอร์ในอนาคตจะต้องมีความยืดหยุ่นและสามารถรองรับงานที่หลากหลาย โดย โมเดลการสร้างแบบโมดูลาร์ เช่น Jupiter อาจเป็นแนวทางที่ช่วยให้สามารถปรับแต่งระบบได้ดีขึ้น

    https://www.techspot.com/news/108283-amd-cto-foresees-smarter-greener-more-flexible-era.html
    ⚡ อนาคตของซูเปอร์คอมพิวเตอร์: พลังงานจะเป็นปัจจัยสำคัญกว่าประสิทธิภาพ Mark Papermaster, CTO ของ AMD เน้นย้ำว่าซูเปอร์คอมพิวเตอร์ในอนาคตจะต้องให้ความสำคัญกับประสิทธิภาพด้านพลังงานมากกว่าความเร็วในการประมวลผล โดยอุตสาหกรรมกำลังเผชิญกับ ความท้าทายด้านการใช้พลังงานและระบบระบายความร้อน Papermaster ชี้ให้เห็นว่าความต้องการด้าน AI และการคำนวณประสิทธิภาพสูง (HPC) กำลังเพิ่มขึ้นอย่างรวดเร็ว แต่ ข้อจำกัดด้านพลังงานและแบนด์วิดท์หน่วยความจำกำลังกลายเป็นอุปสรรคสำคัญ ✅ ข้อมูลจากข่าว - AMD CTO ระบุว่าซูเปอร์คอมพิวเตอร์ต้องให้ความสำคัญกับประสิทธิภาพด้านพลังงานมากกว่าความเร็ว - การใช้พลังงานของ AI data centers อาจสูงถึงหลายร้อยเมกะวัตต์ - หน่วยความจำต้องเพิ่มแบนด์วิดท์เป็นสองเท่าทุกสองปีเพื่อรองรับความต้องการของ AI - AMD กำลังพัฒนา Instinct MI355X ซึ่งให้ประสิทธิภาพ inference สูงกว่ารุ่นก่อนถึง 35 เท่า - เทคโนโลยี Ultra Ethernet อาจช่วยลดต้นทุนโครงสร้างพื้นฐานของศูนย์ข้อมูล 🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC Papermaster เตือนว่าการใช้พลังงานของ accelerators อาจสูงถึง 1,600W ภายในปี 2026 และอาจแตะ 2,000W ในอนาคต ทำให้ อุตสาหกรรมต้องพัฒนาโซลูชันที่มีประสิทธิภาพด้านพลังงานมากขึ้น ‼️ คำเตือนที่ควรพิจารณา - การใช้พลังงานของ AI data centers อาจเพิ่มขึ้นจนต้องใช้พลังงานระดับโรงไฟฟ้านิวเคลียร์ - AMD ยอมรับว่าการพัฒนา 2nm chip มีต้นทุนสูงมาก และต้องใช้เครื่องมือที่เป็นกรรมสิทธิ์ - Nvidia กำลังเปิด NVLink ให้ผู้ผลิตรายอื่นเพื่อแข่งขันกับ Ultra Ethernet - ต้องติดตามว่า RISC-V จะสามารถพัฒนาไปถึงระดับซูเปอร์คอมพิวเตอร์ได้หรือไม่ 🚀 อนาคตของซูเปอร์คอมพิวเตอร์ Papermaster มองว่าซูเปอร์คอมพิวเตอร์ในอนาคตจะต้องมีความยืดหยุ่นและสามารถรองรับงานที่หลากหลาย โดย โมเดลการสร้างแบบโมดูลาร์ เช่น Jupiter อาจเป็นแนวทางที่ช่วยให้สามารถปรับแต่งระบบได้ดีขึ้น https://www.techspot.com/news/108283-amd-cto-foresees-smarter-greener-more-flexible-era.html
    WWW.TECHSPOT.COM
    AMD CTO: power constraints, not compute, will shape tomorrow's supercomputers
    Papermaster began by highlighting the continued surge in demand for high-performance computing, driven primarily by artificial intelligence. He pointed to the emergence of new systems in Germany...
    0 Comments 0 Shares 64 Views 0 Reviews
  • 🚀 อดีตวิศวกร Intel ก่อตั้ง AheadComputing เพื่อพัฒนา CPU RISC-V ประสิทธิภาพสูง
    กลุ่มอดีตวิศวกรจาก Intel ได้ก่อตั้ง AheadComputing ซึ่งเป็นสตาร์ทอัพที่มุ่งเน้น การออกแบบ CPU RISC-V ตั้งแต่ต้น โดยมีเป้าหมาย แก้ไขปัญหาคอขวดด้านประสิทธิภาพของ CPU ในงาน AI และ Cloud Computing

    AheadComputing ได้รับเงินทุนตั้งต้น 21.5 ล้านดอลลาร์ และ ขยายทีมจาก 4 คนเป็น 40 คนภายใน 5 เดือน โดยเน้น การพัฒนา CPU ที่มีประสิทธิภาพสูงและใช้พลังงานน้อย

    ✅ ข้อมูลจากข่าว
    - AheadComputing ก่อตั้งโดยอดีตวิศวกร Intel ที่มีประสบการณ์รวมกันเกือบ 100 ปี
    - เลือกใช้สถาปัตยกรรม RISC-V แทน x86 เพื่อรองรับงาน AI และ Cloud Computing
    - CPU RISC-V ของบริษัทออกแบบมาเพื่อเพิ่มประสิทธิภาพ single-thread และ multi-core
    - เน้นการใช้พลังงานอย่างมีประสิทธิภาพและรองรับระบบ multi-processor
    - ได้รับเงินทุนตั้งต้น 21.5 ล้านดอลลาร์ และขยายทีมจาก 4 คนเป็น 40 คนภายใน 5 เดือน

    🔥 ผลกระทบต่ออุตสาหกรรม CPU และ AI
    AheadComputing เชื่อว่า CPU RISC-V จะช่วยแก้ปัญหาคอขวดด้านประสิทธิภาพ และ สามารถแข่งขันกับ Intel และ AMD ในตลาดเซิร์ฟเวอร์และ Edge Computing

    ‼️ คำเตือนที่ควรพิจารณา
    - CPU RISC-V ยังอยู่ในช่วงพัฒนา และต้องพิสูจน์ว่ามีประสิทธิภาพเหนือกว่าชิป x86
    - ต้องติดตามว่า AheadComputing จะสามารถดึงดูดพันธมิตรทางธุรกิจเพื่อขยายตลาดได้หรือไม่
    - การแข่งขันในตลาด CPU กำลังรุนแรงขึ้น โดย Nvidia และ Qualcomm กำลังพัฒนา Arm-based CPUs
    - ต้องรอดูว่า RISC-V จะสามารถกลายเป็นมาตรฐานใหม่ในอุตสาหกรรมได้หรือไม่

    https://www.techspot.com/news/108281-former-intel-engineers-form-aheadcomputing-break-cpu-performance.html
    🚀 อดีตวิศวกร Intel ก่อตั้ง AheadComputing เพื่อพัฒนา CPU RISC-V ประสิทธิภาพสูง กลุ่มอดีตวิศวกรจาก Intel ได้ก่อตั้ง AheadComputing ซึ่งเป็นสตาร์ทอัพที่มุ่งเน้น การออกแบบ CPU RISC-V ตั้งแต่ต้น โดยมีเป้าหมาย แก้ไขปัญหาคอขวดด้านประสิทธิภาพของ CPU ในงาน AI และ Cloud Computing AheadComputing ได้รับเงินทุนตั้งต้น 21.5 ล้านดอลลาร์ และ ขยายทีมจาก 4 คนเป็น 40 คนภายใน 5 เดือน โดยเน้น การพัฒนา CPU ที่มีประสิทธิภาพสูงและใช้พลังงานน้อย ✅ ข้อมูลจากข่าว - AheadComputing ก่อตั้งโดยอดีตวิศวกร Intel ที่มีประสบการณ์รวมกันเกือบ 100 ปี - เลือกใช้สถาปัตยกรรม RISC-V แทน x86 เพื่อรองรับงาน AI และ Cloud Computing - CPU RISC-V ของบริษัทออกแบบมาเพื่อเพิ่มประสิทธิภาพ single-thread และ multi-core - เน้นการใช้พลังงานอย่างมีประสิทธิภาพและรองรับระบบ multi-processor - ได้รับเงินทุนตั้งต้น 21.5 ล้านดอลลาร์ และขยายทีมจาก 4 คนเป็น 40 คนภายใน 5 เดือน 🔥 ผลกระทบต่ออุตสาหกรรม CPU และ AI AheadComputing เชื่อว่า CPU RISC-V จะช่วยแก้ปัญหาคอขวดด้านประสิทธิภาพ และ สามารถแข่งขันกับ Intel และ AMD ในตลาดเซิร์ฟเวอร์และ Edge Computing ‼️ คำเตือนที่ควรพิจารณา - CPU RISC-V ยังอยู่ในช่วงพัฒนา และต้องพิสูจน์ว่ามีประสิทธิภาพเหนือกว่าชิป x86 - ต้องติดตามว่า AheadComputing จะสามารถดึงดูดพันธมิตรทางธุรกิจเพื่อขยายตลาดได้หรือไม่ - การแข่งขันในตลาด CPU กำลังรุนแรงขึ้น โดย Nvidia และ Qualcomm กำลังพัฒนา Arm-based CPUs - ต้องรอดูว่า RISC-V จะสามารถกลายเป็นมาตรฐานใหม่ในอุตสาหกรรมได้หรือไม่ https://www.techspot.com/news/108281-former-intel-engineers-form-aheadcomputing-break-cpu-performance.html
    WWW.TECHSPOT.COM
    Former Intel engineers form AheadComputing to break CPU performance limits with RISC-V design
    Rather than building on the legacy of x86, the team is betting on RISC-V, which they believe is better suited to the demands of modern workloads, particularly...
    0 Comments 0 Shares 56 Views 0 Reviews
  • ⚡ AMD เปิดตัว Instinct MI355X: GPU สำหรับ AI และ HPC ที่ใช้พลังงานสูงถึง 1,400W
    AMD ได้เปิดตัว Instinct MI355X ซึ่งเป็น GPU สำหรับ AI และ HPC ที่ใช้สถาปัตยกรรม CDNA 4 โดยมี ประสิทธิภาพสูงขึ้นอย่างมาก แต่ใช้พลังงานสูงถึง 1,400W ซึ่งเป็น เกือบสองเท่าของรุ่นก่อนหน้า MI325X

    GPU รุ่นนี้ รองรับ FP4 และ FP6 precision formats ซึ่งช่วยให้ สามารถประมวลผล AI inference ได้เร็วขึ้น และมี หน่วยความจำ HBM3E ขนาด 288GB พร้อมแบนด์วิดท์สูงถึง 8 TB/s

    ✅ ข้อมูลจากข่าว
    - Instinct MI355X ใช้สถาปัตยกรรม CDNA 4 และรองรับ FP4/FP6 precision formats
    - มีหน่วยความจำ HBM3E ขนาด 288GB พร้อมแบนด์วิดท์ 8 TB/s
    - ประสิทธิภาพ FP4/FP6 สูงถึง 20.1 PFLOPS ซึ่งสูงกว่ารุ่นก่อนหน้า MI325X อย่างมาก
    - ออกแบบมาสำหรับระบบระบายความร้อนด้วยของเหลว แต่บางองค์กรอาจใช้ระบบระบายความร้อนด้วยอากาศ
    - เปรียบเทียบกับ Nvidia B300 (Blackwell Ultra) ซึ่งมี FP4 performance สูงสุดที่ 15 PFLOPS

    🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC
    AMD เชื่อว่า การพัฒนา AI accelerators จะช่วยให้สามารถสร้างซูเปอร์คอมพิวเตอร์ระดับ Zettascale ได้ภายในทศวรรษหน้า แต่ต้องแลกมาด้วย การใช้พลังงานที่สูงขึ้นอย่างมาก

    ‼️ คำเตือนที่ควรพิจารณา
    - Instinct MI355X ใช้พลังงานสูงถึง 1,400W ซึ่งอาจเป็นปัญหาสำหรับศูนย์ข้อมูลที่ต้องการลดการใช้พลังงาน
    - AMD คาดการณ์ว่า GPU รุ่นต่อไปอาจใช้พลังงานสูงถึง 1,600W ในปี 2026 และ 2,000W ในปี 2030
    - Nvidia กำลังพัฒนา Rubin Ultra GPUs ที่อาจใช้พลังงานสูงถึง 3,600W
    - ต้องติดตามว่าอุตสาหกรรมจะสามารถพัฒนาโซลูชันที่ช่วยลดการใช้พลังงานของ AI accelerators ได้หรือไม่

    🚀 อนาคตของ AI accelerators
    แม้ว่าการใช้พลังงานจะเพิ่มขึ้น แต่การพัฒนา AI accelerators และระบบระบายความร้อนที่มีประสิทธิภาพสูงขึ้น อาจช่วยให้ ซูเปอร์คอมพิวเตอร์สามารถทำงานได้โดยใช้พลังงานน้อยลงในอนาคต

    https://www.tomshardware.com/pc-components/gpus/amds-instinct-mi355x-accelerator-will-consume-1-400-watts
    ⚡ AMD เปิดตัว Instinct MI355X: GPU สำหรับ AI และ HPC ที่ใช้พลังงานสูงถึง 1,400W AMD ได้เปิดตัว Instinct MI355X ซึ่งเป็น GPU สำหรับ AI และ HPC ที่ใช้สถาปัตยกรรม CDNA 4 โดยมี ประสิทธิภาพสูงขึ้นอย่างมาก แต่ใช้พลังงานสูงถึง 1,400W ซึ่งเป็น เกือบสองเท่าของรุ่นก่อนหน้า MI325X GPU รุ่นนี้ รองรับ FP4 และ FP6 precision formats ซึ่งช่วยให้ สามารถประมวลผล AI inference ได้เร็วขึ้น และมี หน่วยความจำ HBM3E ขนาด 288GB พร้อมแบนด์วิดท์สูงถึง 8 TB/s ✅ ข้อมูลจากข่าว - Instinct MI355X ใช้สถาปัตยกรรม CDNA 4 และรองรับ FP4/FP6 precision formats - มีหน่วยความจำ HBM3E ขนาด 288GB พร้อมแบนด์วิดท์ 8 TB/s - ประสิทธิภาพ FP4/FP6 สูงถึง 20.1 PFLOPS ซึ่งสูงกว่ารุ่นก่อนหน้า MI325X อย่างมาก - ออกแบบมาสำหรับระบบระบายความร้อนด้วยของเหลว แต่บางองค์กรอาจใช้ระบบระบายความร้อนด้วยอากาศ - เปรียบเทียบกับ Nvidia B300 (Blackwell Ultra) ซึ่งมี FP4 performance สูงสุดที่ 15 PFLOPS 🔥 ผลกระทบต่ออุตสาหกรรม AI และ HPC AMD เชื่อว่า การพัฒนา AI accelerators จะช่วยให้สามารถสร้างซูเปอร์คอมพิวเตอร์ระดับ Zettascale ได้ภายในทศวรรษหน้า แต่ต้องแลกมาด้วย การใช้พลังงานที่สูงขึ้นอย่างมาก ‼️ คำเตือนที่ควรพิจารณา - Instinct MI355X ใช้พลังงานสูงถึง 1,400W ซึ่งอาจเป็นปัญหาสำหรับศูนย์ข้อมูลที่ต้องการลดการใช้พลังงาน - AMD คาดการณ์ว่า GPU รุ่นต่อไปอาจใช้พลังงานสูงถึง 1,600W ในปี 2026 และ 2,000W ในปี 2030 - Nvidia กำลังพัฒนา Rubin Ultra GPUs ที่อาจใช้พลังงานสูงถึง 3,600W - ต้องติดตามว่าอุตสาหกรรมจะสามารถพัฒนาโซลูชันที่ช่วยลดการใช้พลังงานของ AI accelerators ได้หรือไม่ 🚀 อนาคตของ AI accelerators แม้ว่าการใช้พลังงานจะเพิ่มขึ้น แต่การพัฒนา AI accelerators และระบบระบายความร้อนที่มีประสิทธิภาพสูงขึ้น อาจช่วยให้ ซูเปอร์คอมพิวเตอร์สามารถทำงานได้โดยใช้พลังงานน้อยลงในอนาคต https://www.tomshardware.com/pc-components/gpus/amds-instinct-mi355x-accelerator-will-consume-1-400-watts
    0 Comments 0 Shares 51 Views 0 Reviews
  • ⚡ ซูเปอร์คอมพิวเตอร์ระดับ Zettascale อาจต้องใช้พลังงานเทียบเท่าโรงไฟฟ้านิวเคลียร์
    AMD ได้เปิดเผยข้อมูลเกี่ยวกับ แนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ในอนาคต โดยคาดการณ์ว่า ซูเปอร์คอมพิวเตอร์ระดับ Zettascale จะต้องใช้พลังงานถึง 500 เมกะวัตต์ ซึ่งเทียบเท่ากับ การใช้ไฟฟ้าของบ้าน 375,000 หลัง

    AMD ระบุว่า หน่วยความจำและระบบระบายความร้อนเป็นปัจจัยหลักที่ทำให้การใช้พลังงานเพิ่มขึ้น เนื่องจาก AI accelerators ต้องการแบนด์วิดท์ที่สูงขึ้นและระบบระบายความร้อนที่มีประสิทธิภาพมากขึ้น

    ✅ ข้อมูลจากข่าว
    - AMD คาดการณ์ว่า Zettascale supercomputers จะต้องใช้พลังงานถึง 500 เมกะวัตต์
    - กราฟแสดงแนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ตั้งแต่ปี 2010 ถึง 2035
    - การพัฒนา AI accelerators มีประสิทธิภาพเพิ่มขึ้น 2 เท่าทุก 2.2 ปี
    - FP128 และ FP64 ให้ความแม่นยำสูง แต่ FP16 และ FP8 มีประโยชน์สำหรับบางงาน
    - Nvidia B200 มี TDP 1,000W และ AMD MI355X มี TDP 1,400W

    🔥 ผลกระทบต่ออุตสาหกรรม AI และพลังงาน
    รัฐบาลสหรัฐฯ และบริษัทเทคโนโลยี กำลังลงทุนในพลังงานนิวเคลียร์และฟิวชัน เพื่อรองรับ ความต้องการพลังงานที่เพิ่มขึ้นของศูนย์ข้อมูล AI

    ‼️ คำเตือนที่ควรพิจารณา
    - การใช้พลังงานของซูเปอร์คอมพิวเตอร์อาจเพิ่มขึ้นอย่างต่อเนื่องจนถึงปี 2035
    - ต้องติดตามว่าการลงทุนในพลังงานนิวเคลียร์จะสามารถรองรับความต้องการของศูนย์ข้อมูล AI ได้หรือไม่
    - บริษัทเทคโนโลยีต้องพัฒนาโซลูชันที่ช่วยลดการใช้พลังงานของ AI accelerators
    - ต้องรอดูว่า Nvidia และ AMD จะสามารถเพิ่มประสิทธิภาพของ AI accelerators โดยไม่เพิ่มการใช้พลังงานมากเกินไป

    แม้ว่าการใช้พลังงานจะเพิ่มขึ้น แต่การพัฒนา AI accelerators และระบบระบายความร้อนที่มีประสิทธิภาพสูงขึ้น อาจช่วยให้ ซูเปอร์คอมพิวเตอร์สามารถทำงานได้โดยใช้พลังงานน้อยลงในอนาคต

    https://www.tomshardware.com/pc-components/gpus/amd-says-zettascale-supercomputers-will-need-half-a-gigawatt-to-operate-enough-for-375-000-homes
    ⚡ ซูเปอร์คอมพิวเตอร์ระดับ Zettascale อาจต้องใช้พลังงานเทียบเท่าโรงไฟฟ้านิวเคลียร์ AMD ได้เปิดเผยข้อมูลเกี่ยวกับ แนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ในอนาคต โดยคาดการณ์ว่า ซูเปอร์คอมพิวเตอร์ระดับ Zettascale จะต้องใช้พลังงานถึง 500 เมกะวัตต์ ซึ่งเทียบเท่ากับ การใช้ไฟฟ้าของบ้าน 375,000 หลัง AMD ระบุว่า หน่วยความจำและระบบระบายความร้อนเป็นปัจจัยหลักที่ทำให้การใช้พลังงานเพิ่มขึ้น เนื่องจาก AI accelerators ต้องการแบนด์วิดท์ที่สูงขึ้นและระบบระบายความร้อนที่มีประสิทธิภาพมากขึ้น ✅ ข้อมูลจากข่าว - AMD คาดการณ์ว่า Zettascale supercomputers จะต้องใช้พลังงานถึง 500 เมกะวัตต์ - กราฟแสดงแนวโน้มการใช้พลังงานของซูเปอร์คอมพิวเตอร์ตั้งแต่ปี 2010 ถึง 2035 - การพัฒนา AI accelerators มีประสิทธิภาพเพิ่มขึ้น 2 เท่าทุก 2.2 ปี - FP128 และ FP64 ให้ความแม่นยำสูง แต่ FP16 และ FP8 มีประโยชน์สำหรับบางงาน - Nvidia B200 มี TDP 1,000W และ AMD MI355X มี TDP 1,400W 🔥 ผลกระทบต่ออุตสาหกรรม AI และพลังงาน รัฐบาลสหรัฐฯ และบริษัทเทคโนโลยี กำลังลงทุนในพลังงานนิวเคลียร์และฟิวชัน เพื่อรองรับ ความต้องการพลังงานที่เพิ่มขึ้นของศูนย์ข้อมูล AI ‼️ คำเตือนที่ควรพิจารณา - การใช้พลังงานของซูเปอร์คอมพิวเตอร์อาจเพิ่มขึ้นอย่างต่อเนื่องจนถึงปี 2035 - ต้องติดตามว่าการลงทุนในพลังงานนิวเคลียร์จะสามารถรองรับความต้องการของศูนย์ข้อมูล AI ได้หรือไม่ - บริษัทเทคโนโลยีต้องพัฒนาโซลูชันที่ช่วยลดการใช้พลังงานของ AI accelerators - ต้องรอดูว่า Nvidia และ AMD จะสามารถเพิ่มประสิทธิภาพของ AI accelerators โดยไม่เพิ่มการใช้พลังงานมากเกินไป แม้ว่าการใช้พลังงานจะเพิ่มขึ้น แต่การพัฒนา AI accelerators และระบบระบายความร้อนที่มีประสิทธิภาพสูงขึ้น อาจช่วยให้ ซูเปอร์คอมพิวเตอร์สามารถทำงานได้โดยใช้พลังงานน้อยลงในอนาคต https://www.tomshardware.com/pc-components/gpus/amd-says-zettascale-supercomputers-will-need-half-a-gigawatt-to-operate-enough-for-375-000-homes
    0 Comments 0 Shares 85 Views 0 Reviews
  • ‼️สิ่งที่ลุงรอกำลังจะมาแล้วววววว.....

    🚀 Nvidia เปิดตัวชิป N1X ที่อาจท้าทาย Intel และ AMD ในตลาดแล็ปท็อป
    Nvidia กำลังเข้าสู่ตลาด Windows-on-Arm ด้วย N1X SoC ซึ่งมี 20 คอร์ และทำคะแนน 3,096 คะแนนใน Geekbench (single-core) โดยมี ประสิทธิภาพใกล้เคียงกับ Intel Arrow Lake-HX และ AMD Ryzen AI MAX

    Nvidia ได้ร่วมมือกับ MediaTek เพื่อพัฒนา CPU ที่ใช้ Arm Cortex cores โดยชิปนี้ ถูกทดสอบบน HP development board ที่ใช้ Ubuntu 24.04.1

    ✅ ข้อมูลจากข่าว
    - Nvidia N1X มี 20 คอร์ (10x Cortex-X925 + 10x Cortex-A725)
    - ทำคะแนน 3,096 (single-core) และ 18,837 (multi-core) ใน Geekbench
    - ใช้สถาปัตยกรรม Blackwell GPU ที่มี 6,144 CUDA cores
    - ทดสอบบน HP development board พร้อม RAM 128GB (8GB สำหรับ GPU)
    - ประสิทธิภาพใกล้เคียงกับ Intel Arrow Lake-HX และ AMD Ryzen AI MAX

    🔥 การแข่งขันในตลาดชิปแล็ปท็อป
    แม้ว่า N1X จะมีประสิทธิภาพสูง แต่ยังตามหลัง Apple M4 Max ที่ทำคะแนน 4,054 (single-core) และ 25,913 (multi-core)

    ‼️ คำเตือนที่ควรพิจารณา
    - Nvidia ยังไม่ได้ประกาศอย่างเป็นทางการเกี่ยวกับ N1X SoC
    - Apple M4 Max ยังคงเป็นผู้นำด้านประสิทธิภาพใน Geekbench
    - ต้องติดตามว่า Nvidia จะเปิดตัวชิปนี้ในปี 2026 หรือไม่
    - AMD และ Qualcomm กำลังพัฒนา SoC ใหม่ เช่น Sound Wave APUs และ Snapdragon X2

    https://www.tomshardware.com/pc-components/cpus/nvidias-20-core-n1x-leaks-with-3000-single-core-geekbench-score-arm-chip-could-rival-intel-and-amds-laptop-offerings
    ‼️สิ่งที่ลุงรอกำลังจะมาแล้วววววว..... 🚀 Nvidia เปิดตัวชิป N1X ที่อาจท้าทาย Intel และ AMD ในตลาดแล็ปท็อป Nvidia กำลังเข้าสู่ตลาด Windows-on-Arm ด้วย N1X SoC ซึ่งมี 20 คอร์ และทำคะแนน 3,096 คะแนนใน Geekbench (single-core) โดยมี ประสิทธิภาพใกล้เคียงกับ Intel Arrow Lake-HX และ AMD Ryzen AI MAX Nvidia ได้ร่วมมือกับ MediaTek เพื่อพัฒนา CPU ที่ใช้ Arm Cortex cores โดยชิปนี้ ถูกทดสอบบน HP development board ที่ใช้ Ubuntu 24.04.1 ✅ ข้อมูลจากข่าว - Nvidia N1X มี 20 คอร์ (10x Cortex-X925 + 10x Cortex-A725) - ทำคะแนน 3,096 (single-core) และ 18,837 (multi-core) ใน Geekbench - ใช้สถาปัตยกรรม Blackwell GPU ที่มี 6,144 CUDA cores - ทดสอบบน HP development board พร้อม RAM 128GB (8GB สำหรับ GPU) - ประสิทธิภาพใกล้เคียงกับ Intel Arrow Lake-HX และ AMD Ryzen AI MAX 🔥 การแข่งขันในตลาดชิปแล็ปท็อป แม้ว่า N1X จะมีประสิทธิภาพสูง แต่ยังตามหลัง Apple M4 Max ที่ทำคะแนน 4,054 (single-core) และ 25,913 (multi-core) ‼️ คำเตือนที่ควรพิจารณา - Nvidia ยังไม่ได้ประกาศอย่างเป็นทางการเกี่ยวกับ N1X SoC - Apple M4 Max ยังคงเป็นผู้นำด้านประสิทธิภาพใน Geekbench - ต้องติดตามว่า Nvidia จะเปิดตัวชิปนี้ในปี 2026 หรือไม่ - AMD และ Qualcomm กำลังพัฒนา SoC ใหม่ เช่น Sound Wave APUs และ Snapdragon X2 https://www.tomshardware.com/pc-components/cpus/nvidias-20-core-n1x-leaks-with-3000-single-core-geekbench-score-arm-chip-could-rival-intel-and-amds-laptop-offerings
    0 Comments 0 Shares 84 Views 0 Reviews
  • 💰 Qualcomm เข้าซื้อ Alphawave มูลค่า 2.4 พันล้านดอลลาร์ เพื่อขยายตลาด AI
    Qualcomm ได้ประกาศเข้าซื้อ Alphawave ซึ่งเป็นบริษัทออกแบบเซมิคอนดักเตอร์สำหรับศูนย์ข้อมูล ด้วยมูลค่า 2.4 พันล้านดอลลาร์ เพื่อขยายธุรกิจเข้าสู่ตลาด AI data center

    🔍 เหตุผลที่ Qualcomm เข้าซื้อ Alphawave
    Qualcomm ซึ่งเป็นผู้ผลิตชิปสำหรับสมาร์ทโฟนรายใหญ่ ต้องการลดการพึ่งพาตลาดมือถือ และขยายไปสู่ ศูนย์ข้อมูลและคอมพิวเตอร์ส่วนบุคคล เนื่องจาก Apple หันไปใช้ชิปที่พัฒนาเอง ทำให้ Qualcomm ต้องหาตลาดใหม่เพื่อรักษาการเติบโต

    ✅ ข้อมูลจากข่าว
    - Qualcomm เข้าซื้อ Alphawave มูลค่า 2.4 พันล้านดอลลาร์
    - Alphawave เป็นบริษัทออกแบบเซมิคอนดักเตอร์สำหรับศูนย์ข้อมูล
    - Qualcomm ต้องการลดการพึ่งพาตลาดสมาร์ทโฟนและขยายไปสู่ศูนย์ข้อมูล
    - Alphawave มีเทคโนโลยีการเชื่อมต่อความเร็วสูงที่ช่วยเสริมศักยภาพของ Qualcomm
    - การเข้าซื้อกิจการคาดว่าจะเสร็จสิ้นในไตรมาสแรกของปี 2026

    🔥 ผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์
    Qualcomm ไม่ใช่บริษัทเดียวที่สนใจ Alphawave ก่อนหน้านี้ SoftBank (เจ้าของ Arm) เคยพิจารณาซื้อ Alphawave แต่ตัดสินใจไม่ดำเนินการต่อ ทำให้ Qualcomm สามารถเข้าซื้อได้โดยไม่มีคู่แข่ง

    ‼️ คำเตือนที่ควรพิจารณา
    - Qualcomm อาจเผชิญกับความท้าทายด้านกฎระเบียบ แม้ว่านักวิเคราะห์จะมองว่าไม่น่ามีอุปสรรคใหญ่
    - Alphawave เพิ่งถอนตัวจากบริษัทร่วมทุนในจีน อาจช่วยลดความเสี่ยงด้านกฎระเบียบ
    - ต้องติดตามว่าการเข้าซื้อ Alphawave จะช่วยให้ Qualcomm แข่งขันกับ Nvidia และ AMD ในตลาด AI ได้หรือไม่
    - ตลาดเซมิคอนดักเตอร์ในอังกฤษกำลังเผชิญกับปัญหาการประเมินมูลค่าต่ำ ทำให้บริษัทอังกฤษถูกซื้อโดยบริษัทสหรัฐฯ มากขึ้น

    Qualcomm กำลัง เร่งขยายธุรกิจเข้าสู่ตลาด AI และศูนย์ข้อมูล โดยการเข้าซื้อ Alphawave อาจช่วยให้บริษัทสามารถแข่งขันกับ Nvidia และ AMD ได้ดีขึ้น อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงนี้จะส่งผลต่อกลยุทธ์ของ Qualcomm ในระยะยาวอย่างไร

    https://www.thestar.com.my/tech/tech-news/2025/06/09/qualcomm-strengthens-ai-portfolio-with-24-billion-alphawave-deal
    💰 Qualcomm เข้าซื้อ Alphawave มูลค่า 2.4 พันล้านดอลลาร์ เพื่อขยายตลาด AI Qualcomm ได้ประกาศเข้าซื้อ Alphawave ซึ่งเป็นบริษัทออกแบบเซมิคอนดักเตอร์สำหรับศูนย์ข้อมูล ด้วยมูลค่า 2.4 พันล้านดอลลาร์ เพื่อขยายธุรกิจเข้าสู่ตลาด AI data center 🔍 เหตุผลที่ Qualcomm เข้าซื้อ Alphawave Qualcomm ซึ่งเป็นผู้ผลิตชิปสำหรับสมาร์ทโฟนรายใหญ่ ต้องการลดการพึ่งพาตลาดมือถือ และขยายไปสู่ ศูนย์ข้อมูลและคอมพิวเตอร์ส่วนบุคคล เนื่องจาก Apple หันไปใช้ชิปที่พัฒนาเอง ทำให้ Qualcomm ต้องหาตลาดใหม่เพื่อรักษาการเติบโต ✅ ข้อมูลจากข่าว - Qualcomm เข้าซื้อ Alphawave มูลค่า 2.4 พันล้านดอลลาร์ - Alphawave เป็นบริษัทออกแบบเซมิคอนดักเตอร์สำหรับศูนย์ข้อมูล - Qualcomm ต้องการลดการพึ่งพาตลาดสมาร์ทโฟนและขยายไปสู่ศูนย์ข้อมูล - Alphawave มีเทคโนโลยีการเชื่อมต่อความเร็วสูงที่ช่วยเสริมศักยภาพของ Qualcomm - การเข้าซื้อกิจการคาดว่าจะเสร็จสิ้นในไตรมาสแรกของปี 2026 🔥 ผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์ Qualcomm ไม่ใช่บริษัทเดียวที่สนใจ Alphawave ก่อนหน้านี้ SoftBank (เจ้าของ Arm) เคยพิจารณาซื้อ Alphawave แต่ตัดสินใจไม่ดำเนินการต่อ ทำให้ Qualcomm สามารถเข้าซื้อได้โดยไม่มีคู่แข่ง ‼️ คำเตือนที่ควรพิจารณา - Qualcomm อาจเผชิญกับความท้าทายด้านกฎระเบียบ แม้ว่านักวิเคราะห์จะมองว่าไม่น่ามีอุปสรรคใหญ่ - Alphawave เพิ่งถอนตัวจากบริษัทร่วมทุนในจีน อาจช่วยลดความเสี่ยงด้านกฎระเบียบ - ต้องติดตามว่าการเข้าซื้อ Alphawave จะช่วยให้ Qualcomm แข่งขันกับ Nvidia และ AMD ในตลาด AI ได้หรือไม่ - ตลาดเซมิคอนดักเตอร์ในอังกฤษกำลังเผชิญกับปัญหาการประเมินมูลค่าต่ำ ทำให้บริษัทอังกฤษถูกซื้อโดยบริษัทสหรัฐฯ มากขึ้น Qualcomm กำลัง เร่งขยายธุรกิจเข้าสู่ตลาด AI และศูนย์ข้อมูล โดยการเข้าซื้อ Alphawave อาจช่วยให้บริษัทสามารถแข่งขันกับ Nvidia และ AMD ได้ดีขึ้น อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงนี้จะส่งผลต่อกลยุทธ์ของ Qualcomm ในระยะยาวอย่างไร https://www.thestar.com.my/tech/tech-news/2025/06/09/qualcomm-strengthens-ai-portfolio-with-24-billion-alphawave-deal
    WWW.THESTAR.COM.MY
    Qualcomm strengthens AI portfolio with $2.4 billion Alphawave deal
    (Reuters) -U.S. chipmaker Qualcomm agreed to acquire Alphawave for about $2.4 billion on Monday, as it expands into the booming AI data center market, sending shares of the British semiconductor company surging more than 22%.
    0 Comments 0 Shares 106 Views 0 Reviews
  • 🚀 Intel Panther Lake: ก้าวสำคัญสู่ยุค AI และประสิทธิภาพสูง
    Intel กำลังเตรียมเปิดตัว Panther Lake ซึ่งเป็น ซีพียูรุ่นใหม่ที่ใช้กระบวนการผลิต 18A (1.8nm-class) โดยเน้นไปที่ การเพิ่มประสิทธิภาพและการประมวลผล AI

    Panther Lake จะเปิดตัวใน ครึ่งหลังของปี 2025 และจะถูกใช้ใน แล็ปท็อปและอุปกรณ์พกพา โดยใช้ RibbonFET และ PowerVia ซึ่งช่วยให้ ประสิทธิภาพสูงขึ้นและใช้พลังงานน้อยลง

    ✅ ข้อมูลจากข่าว
    - Intel Panther Lake จะเปิดตัวในครึ่งหลังของปี 2025 และวางจำหน่ายในต้นปี 2026
    - ใช้กระบวนการผลิต 18A (1.8nm-class) พร้อมเทคโนโลยี RibbonFET และ PowerVia
    - ใช้สถาปัตยกรรม Multi-Chip Module (MCM) แบบ 5 Tile
    - มี Cougar Cove P-cores และ Darkmont E-cores เพื่อเพิ่มประสิทธิภาพ
    - กราฟิก Xe3 Celestial iGPU อาจเทียบเท่ากับ GPU แยกระดับเริ่มต้น
    - รองรับ LPDDR5X และ DDR5 เพื่อเพิ่มแบนด์วิดท์หน่วยความจำ

    🔥 การแข่งขันในตลาด AI และอุปกรณ์พกพา
    Intel ตั้งเป้าให้ Panther Lake แข่งขันกับ Apple Silicon, Snapdragon X Elite และ AMD Strix Point โดยเน้นไปที่ การประมวลผล AI และประสิทธิภาพสูงในอุปกรณ์พกพา

    ‼️ คำเตือนที่ควรพิจารณา
    - Panther Lake จะไม่มีรุ่นสำหรับเดสก์ท็อปในช่วงเปิดตัว
    - ต้องติดตามว่าประสิทธิภาพของ Xe3 Celestial iGPU จะสามารถแข่งขันกับ GPU แยกได้จริงหรือไม่
    - การใช้กระบวนการผลิต 18A อาจมีความท้าทายด้านต้นทุนและการผลิต
    - ต้องรอดูว่า Intel จะสามารถแข่งขันกับ Apple และ Qualcomm ในตลาด AI ได้หรือไม่

    https://computercity.com/hardware/processors/intel-panther-lake-coming-in-2025-latest-news
    🚀 Intel Panther Lake: ก้าวสำคัญสู่ยุค AI และประสิทธิภาพสูง Intel กำลังเตรียมเปิดตัว Panther Lake ซึ่งเป็น ซีพียูรุ่นใหม่ที่ใช้กระบวนการผลิต 18A (1.8nm-class) โดยเน้นไปที่ การเพิ่มประสิทธิภาพและการประมวลผล AI Panther Lake จะเปิดตัวใน ครึ่งหลังของปี 2025 และจะถูกใช้ใน แล็ปท็อปและอุปกรณ์พกพา โดยใช้ RibbonFET และ PowerVia ซึ่งช่วยให้ ประสิทธิภาพสูงขึ้นและใช้พลังงานน้อยลง ✅ ข้อมูลจากข่าว - Intel Panther Lake จะเปิดตัวในครึ่งหลังของปี 2025 และวางจำหน่ายในต้นปี 2026 - ใช้กระบวนการผลิต 18A (1.8nm-class) พร้อมเทคโนโลยี RibbonFET และ PowerVia - ใช้สถาปัตยกรรม Multi-Chip Module (MCM) แบบ 5 Tile - มี Cougar Cove P-cores และ Darkmont E-cores เพื่อเพิ่มประสิทธิภาพ - กราฟิก Xe3 Celestial iGPU อาจเทียบเท่ากับ GPU แยกระดับเริ่มต้น - รองรับ LPDDR5X และ DDR5 เพื่อเพิ่มแบนด์วิดท์หน่วยความจำ 🔥 การแข่งขันในตลาด AI และอุปกรณ์พกพา Intel ตั้งเป้าให้ Panther Lake แข่งขันกับ Apple Silicon, Snapdragon X Elite และ AMD Strix Point โดยเน้นไปที่ การประมวลผล AI และประสิทธิภาพสูงในอุปกรณ์พกพา ‼️ คำเตือนที่ควรพิจารณา - Panther Lake จะไม่มีรุ่นสำหรับเดสก์ท็อปในช่วงเปิดตัว - ต้องติดตามว่าประสิทธิภาพของ Xe3 Celestial iGPU จะสามารถแข่งขันกับ GPU แยกได้จริงหรือไม่ - การใช้กระบวนการผลิต 18A อาจมีความท้าทายด้านต้นทุนและการผลิต - ต้องรอดูว่า Intel จะสามารถแข่งขันกับ Apple และ Qualcomm ในตลาด AI ได้หรือไม่ https://computercity.com/hardware/processors/intel-panther-lake-coming-in-2025-latest-news
    COMPUTERCITY.COM
    Intel Panther Lake Coming In 2025: Latest News
    Intel’s Panther Lake processors are shaping up to be one of the company’s most ambitious generational shifts in years—bringing together bleeding-edge
    0 Comments 0 Shares 98 Views 0 Reviews
  • 🚀 AMD เปิดตัว Ryzen AI Z2 Extreme พร้อม NPU สำหรับ AI Processing
    AMD ได้เปิดตัว Ryzen AI Z2 Extreme ซึ่งเป็น ซีพียูสำหรับเครื่องเล่นเกมพกพา ที่มาพร้อมกับ Neural Processing Unit (NPU) เพื่อเพิ่มประสิทธิภาพในการประมวลผล AI

    นอกจากนี้ AMD ยังเปิดตัว Ryzen Z2 A ซึ่งเป็น รุ่นเริ่มต้นของซีรีส์ Z2 โดยมี จำนวนคอร์และกราฟิกที่ลดลง เพื่อให้เหมาะกับอุปกรณ์ที่ต้องการประหยัดพลังงาน

    Ryzen AI Z2 Extreme มี 8 คอร์ / 16 เธรด พร้อม 16 RDNA 3.5 GPU cores และ 24MB cache รองรับ LPDDR5X-8000 memory และมี TDP ที่ปรับได้ระหว่าง 15-35W

    ✅ ข้อมูลจากข่าว
    - AMD เปิดตัว Ryzen AI Z2 Extreme พร้อม NPU สำหรับ AI Processing
    - Ryzen AI Z2 Extreme มี 8 คอร์ / 16 เธรด และ 16 RDNA 3.5 GPU cores
    - รองรับ LPDDR5X-8000 memory และมี TDP ที่ปรับได้ระหว่าง 15-35W
    - NPU สามารถประมวลผล AI ได้สูงสุด 50 TOPS และรองรับ Microsoft Copilot+
    - AMD ยังเปิดตัว Ryzen Z2 A ซึ่งเป็นรุ่นเริ่มต้นของซีรีส์ Z2

    🔥 การแข่งขันในตลาดเครื่องเล่นเกมพกพา
    AMD คาดว่า จะมีเครื่องเล่นเกมพกพาหลายรุ่นเปิดตัวในปีนี้ โดย Lenovo Legion Go S และ Legion Go 2 Prototype เป็นสองรุ่นที่ยืนยันว่าจะใช้ซีพียู Z2 series

    ‼️ คำเตือนที่ควรพิจารณา
    - AMD ยังไม่ได้เปิดเผยข้อมูลเกี่ยวกับประสิทธิภาพของซีพียูใหม่
    - ต้องติดตามว่า NPU จะช่วยเพิ่มประสิทธิภาพของเกมและการทำงาน AI ได้มากแค่ไหน
    - Ryzen Z2 A ใช้สถาปัตยกรรม Zen 2 ซึ่งเก่ากว่า Ryzen Z2 Go
    = ต้องรอดูว่า Asus จะเปิดตัวเครื่องเล่นเกมพกพารุ่นใหม่ที่ใช้ Ryzen Z2 หรือไม่

    การเพิ่ม NPU ใน Ryzen AI Z2 Extreme อาจช่วยให้เครื่องเล่นเกมพกพามีประสิทธิภาพสูงขึ้น และ รองรับฟีเจอร์ AI ที่ซับซ้อนมากขึ้น อย่างไรก็ตาม ต้องติดตามว่าผู้ผลิตจะนำซีพียูเหล่านี้ไปใช้ในอุปกรณ์ใหม่อย่างไร

    https://www.tomshardware.com/pc-components/cpus/amd-unveils-ryzen-ai-z2-extreme-with-ai-processing-npu-expands-family-with-two-new-chips-for-handheld-gaming-consoles
    🚀 AMD เปิดตัว Ryzen AI Z2 Extreme พร้อม NPU สำหรับ AI Processing AMD ได้เปิดตัว Ryzen AI Z2 Extreme ซึ่งเป็น ซีพียูสำหรับเครื่องเล่นเกมพกพา ที่มาพร้อมกับ Neural Processing Unit (NPU) เพื่อเพิ่มประสิทธิภาพในการประมวลผล AI นอกจากนี้ AMD ยังเปิดตัว Ryzen Z2 A ซึ่งเป็น รุ่นเริ่มต้นของซีรีส์ Z2 โดยมี จำนวนคอร์และกราฟิกที่ลดลง เพื่อให้เหมาะกับอุปกรณ์ที่ต้องการประหยัดพลังงาน Ryzen AI Z2 Extreme มี 8 คอร์ / 16 เธรด พร้อม 16 RDNA 3.5 GPU cores และ 24MB cache รองรับ LPDDR5X-8000 memory และมี TDP ที่ปรับได้ระหว่าง 15-35W ✅ ข้อมูลจากข่าว - AMD เปิดตัว Ryzen AI Z2 Extreme พร้อม NPU สำหรับ AI Processing - Ryzen AI Z2 Extreme มี 8 คอร์ / 16 เธรด และ 16 RDNA 3.5 GPU cores - รองรับ LPDDR5X-8000 memory และมี TDP ที่ปรับได้ระหว่าง 15-35W - NPU สามารถประมวลผล AI ได้สูงสุด 50 TOPS และรองรับ Microsoft Copilot+ - AMD ยังเปิดตัว Ryzen Z2 A ซึ่งเป็นรุ่นเริ่มต้นของซีรีส์ Z2 🔥 การแข่งขันในตลาดเครื่องเล่นเกมพกพา AMD คาดว่า จะมีเครื่องเล่นเกมพกพาหลายรุ่นเปิดตัวในปีนี้ โดย Lenovo Legion Go S และ Legion Go 2 Prototype เป็นสองรุ่นที่ยืนยันว่าจะใช้ซีพียู Z2 series ‼️ คำเตือนที่ควรพิจารณา - AMD ยังไม่ได้เปิดเผยข้อมูลเกี่ยวกับประสิทธิภาพของซีพียูใหม่ - ต้องติดตามว่า NPU จะช่วยเพิ่มประสิทธิภาพของเกมและการทำงาน AI ได้มากแค่ไหน - Ryzen Z2 A ใช้สถาปัตยกรรม Zen 2 ซึ่งเก่ากว่า Ryzen Z2 Go = ต้องรอดูว่า Asus จะเปิดตัวเครื่องเล่นเกมพกพารุ่นใหม่ที่ใช้ Ryzen Z2 หรือไม่ การเพิ่ม NPU ใน Ryzen AI Z2 Extreme อาจช่วยให้เครื่องเล่นเกมพกพามีประสิทธิภาพสูงขึ้น และ รองรับฟีเจอร์ AI ที่ซับซ้อนมากขึ้น อย่างไรก็ตาม ต้องติดตามว่าผู้ผลิตจะนำซีพียูเหล่านี้ไปใช้ในอุปกรณ์ใหม่อย่างไร https://www.tomshardware.com/pc-components/cpus/amd-unveils-ryzen-ai-z2-extreme-with-ai-processing-npu-expands-family-with-two-new-chips-for-handheld-gaming-consoles
    0 Comments 0 Shares 117 Views 0 Reviews
  • 🚀 Intel เตรียมกลับมาทวงบัลลังก์ในตลาด Data Center ด้วย Xeon รุ่นใหม่
    Intel ได้ยืนยันว่า ซีพียู Xeon รุ่นใหม่ Diamond Rapids และ Clearwater Forest จะเปิดตัวในปี 2026 โดยมุ่งเน้นไปที่ การเพิ่มประสิทธิภาพและแข่งขันกับ AMD EPYC Venice ซึ่งใช้กระบวนการผลิต 2nm ของ TSMC

    🔍 รายละเอียดของ Diamond Rapids และ Clearwater Forest
    Diamond Rapids จะใช้ ซ็อกเก็ต LGA 9324 ซึ่งมีขนาดใหญ่กว่าซ็อกเก็ต LGA 1700 ถึง 5 เท่า และใช้ Panther Cove-X P-Cores ทำให้เป็นหนึ่งใน Xeon ที่เร็วที่สุดของ Intel

    Clearwater Forest จะใช้ Darkmont Core architecture และรองรับ สูงสุด 288 E-Cores พร้อมเทคโนโลยี Foveros Direct hybrid bonding ซึ่งช่วยให้ ประสิทธิภาพสูงขึ้นและใช้พลังงานน้อยลง

    ✅ ข้อมูลจากข่าว
    - Intel ยืนยันว่า Diamond Rapids และ Clearwater Forest จะเปิดตัวในปี 2026
    - Diamond Rapids ใช้ซ็อกเก็ต LGA 9324 และ Panther Cove-X P-Cores
    - Clearwater Forest ใช้ Darkmont Core architecture และรองรับสูงสุด 288 E-Cores
    - Clearwater Forest ใช้เทคโนโลยี Foveros Direct hybrid bonding และกระบวนการผลิต 18A
    - Intel ตั้งเป้าแข่งขันกับ AMD EPYC Venice ซึ่งใช้กระบวนการผลิต 2nm ของ TSMC

    ‼️ คำเตือนที่ควรพิจารณา
    - รายละเอียดเกี่ยวกับจำนวนคอร์และสเปคของ Diamond Rapids ยังไม่ชัดเจน
    - ต้องติดตามว่า Intel จะสามารถผลิตชิป 18A ได้ในปริมาณมากหรือไม่
    - การแข่งขันกับ AMD EPYC Venice อาจทำให้ตลาด Data Center มีการเปลี่ยนแปลงครั้งใหญ่
    - ต้องรอดูว่า Intel จะสามารถกลับมาครองส่วนแบ่งตลาดได้หรือไม่

    หาก Intel สามารถทำให้ Diamond Rapids และ Clearwater Forest มีประสิทธิภาพสูงและแข่งขันกับ AMD ได้ อาจช่วยให้ Intel กลับมาครองตลาด Data Center อีกครั้ง อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงนี้จะส่งผลต่อผู้ให้บริการคลาวด์และศูนย์ข้อมูลอย่างไร

    https://wccftech.com/intel-confirms-next-gen-diamond-rapids-clearwater-forest-releasing-next-year/
    🚀 Intel เตรียมกลับมาทวงบัลลังก์ในตลาด Data Center ด้วย Xeon รุ่นใหม่ Intel ได้ยืนยันว่า ซีพียู Xeon รุ่นใหม่ Diamond Rapids และ Clearwater Forest จะเปิดตัวในปี 2026 โดยมุ่งเน้นไปที่ การเพิ่มประสิทธิภาพและแข่งขันกับ AMD EPYC Venice ซึ่งใช้กระบวนการผลิต 2nm ของ TSMC 🔍 รายละเอียดของ Diamond Rapids และ Clearwater Forest Diamond Rapids จะใช้ ซ็อกเก็ต LGA 9324 ซึ่งมีขนาดใหญ่กว่าซ็อกเก็ต LGA 1700 ถึง 5 เท่า และใช้ Panther Cove-X P-Cores ทำให้เป็นหนึ่งใน Xeon ที่เร็วที่สุดของ Intel Clearwater Forest จะใช้ Darkmont Core architecture และรองรับ สูงสุด 288 E-Cores พร้อมเทคโนโลยี Foveros Direct hybrid bonding ซึ่งช่วยให้ ประสิทธิภาพสูงขึ้นและใช้พลังงานน้อยลง ✅ ข้อมูลจากข่าว - Intel ยืนยันว่า Diamond Rapids และ Clearwater Forest จะเปิดตัวในปี 2026 - Diamond Rapids ใช้ซ็อกเก็ต LGA 9324 และ Panther Cove-X P-Cores - Clearwater Forest ใช้ Darkmont Core architecture และรองรับสูงสุด 288 E-Cores - Clearwater Forest ใช้เทคโนโลยี Foveros Direct hybrid bonding และกระบวนการผลิต 18A - Intel ตั้งเป้าแข่งขันกับ AMD EPYC Venice ซึ่งใช้กระบวนการผลิต 2nm ของ TSMC ‼️ คำเตือนที่ควรพิจารณา - รายละเอียดเกี่ยวกับจำนวนคอร์และสเปคของ Diamond Rapids ยังไม่ชัดเจน - ต้องติดตามว่า Intel จะสามารถผลิตชิป 18A ได้ในปริมาณมากหรือไม่ - การแข่งขันกับ AMD EPYC Venice อาจทำให้ตลาด Data Center มีการเปลี่ยนแปลงครั้งใหญ่ - ต้องรอดูว่า Intel จะสามารถกลับมาครองส่วนแบ่งตลาดได้หรือไม่ หาก Intel สามารถทำให้ Diamond Rapids และ Clearwater Forest มีประสิทธิภาพสูงและแข่งขันกับ AMD ได้ อาจช่วยให้ Intel กลับมาครองตลาด Data Center อีกครั้ง อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงนี้จะส่งผลต่อผู้ให้บริการคลาวด์และศูนย์ข้อมูลอย่างไร https://wccftech.com/intel-confirms-next-gen-diamond-rapids-clearwater-forest-releasing-next-year/
    WCCFTECH.COM
    Intel Confirms Next-Gen Diamond Rapids & Clearwater Forest Xeon CPUs Are Releasing Next Year; Team Blue Ready For a Comeback In The Data Center Market
    Intel has plans to aggressively expand its data center offerings with next-gen Xeon CPUs, with Diamond Rapids and Clearwater Forest.
    0 Comments 0 Shares 123 Views 0 Reviews
  • 🚀 ASE เปลี่ยนมาใช้ AMD CPUs และเริ่มทดสอบ Instinct MI300-series GPUs สำหรับ AI
    ASE Technology ซึ่งเป็น บริษัทบรรจุและทดสอบชิปที่ใหญ่ที่สุดในโลก ได้เปลี่ยนมาใช้ AMD EPYC และ Ryzen processors ในศูนย์ข้อมูลและระบบไคลเอนต์ของบริษัท ส่งผลให้ ประสิทธิภาพเพิ่มขึ้น 50% และลดการใช้พลังงานลง 6.5%

    นอกจากนี้ ASE ยังเริ่ม ทดสอบ AMD Instinct MI300-series GPUs สำหรับงาน AI ซึ่งอาจเป็นสัญญาณว่า บริษัทกำลังพิจารณานำ GPU เหล่านี้มาใช้ในระบบภายใน

    🔍 รายละเอียดของการเปลี่ยนแปลง
    ASE ใช้ EPYC processors สำหรับเซิร์ฟเวอร์ และ Ryzen CPUs สำหรับเดสก์ท็อปและแล็ปท็อป ซึ่งช่วยให้บริษัท ลดต้นทุนการเป็นเจ้าของลง 30% และ เพิ่มเสถียรภาพของระบบ

    ✅ ข้อมูลจากข่าว
    - ASE เปลี่ยนมาใช้ AMD EPYC และ Ryzen processors ในศูนย์ข้อมูลและระบบไคลเอนต์
    - ประสิทธิภาพเพิ่มขึ้น 50% และลดการใช้พลังงานลง 6.5%
    - ลดต้นทุนการเป็นเจ้าของลง 30%
    - เริ่มทดสอบ AMD Instinct MI300-series GPUs สำหรับงาน AI
    - ASE เป็นบริษัทแรกในระดับนี้ที่ยืนยันการทดสอบ Instinct MI300-series GPUs

    ‼️ คำเตือนที่ควรพิจารณา
    - AMD ไม่ได้เปิดเผยว่าก่อนหน้านี้ ASE ใช้ CPU จากผู้ผลิตรายใด
    - ยังไม่มีการยืนยันว่า ASE จะนำ Instinct MI300-series GPUs มาใช้จริงหรือไม่
    - ต้องติดตามว่าการเปลี่ยนมาใช้ AMD จะส่งผลต่อการดำเนินงานของ ASE ในระยะยาวอย่างไร
    - การแข่งขันในตลาด AI GPUs ยังคงรุนแรง โดย Nvidia ยังคงเป็นผู้นำ

    การเปลี่ยนมาใช้ AMD CPUs และการทดสอบ Instinct MI300-series GPUs อาจช่วยให้ AMD ขยายตลาดในกลุ่มเซมิคอนดักเตอร์และ AI อย่างไรก็ตาม ต้องติดตามว่าการแข่งขันกับ Nvidia จะส่งผลต่อการตัดสินใจของ ASE ในอนาคตหรือไม่

    https://www.tomshardware.com/pc-components/cpus/ase-adopts-amd-cpus-begins-evaluating-instinct-mi300-series-gpus-for-ai
    🚀 ASE เปลี่ยนมาใช้ AMD CPUs และเริ่มทดสอบ Instinct MI300-series GPUs สำหรับ AI ASE Technology ซึ่งเป็น บริษัทบรรจุและทดสอบชิปที่ใหญ่ที่สุดในโลก ได้เปลี่ยนมาใช้ AMD EPYC และ Ryzen processors ในศูนย์ข้อมูลและระบบไคลเอนต์ของบริษัท ส่งผลให้ ประสิทธิภาพเพิ่มขึ้น 50% และลดการใช้พลังงานลง 6.5% นอกจากนี้ ASE ยังเริ่ม ทดสอบ AMD Instinct MI300-series GPUs สำหรับงาน AI ซึ่งอาจเป็นสัญญาณว่า บริษัทกำลังพิจารณานำ GPU เหล่านี้มาใช้ในระบบภายใน 🔍 รายละเอียดของการเปลี่ยนแปลง ASE ใช้ EPYC processors สำหรับเซิร์ฟเวอร์ และ Ryzen CPUs สำหรับเดสก์ท็อปและแล็ปท็อป ซึ่งช่วยให้บริษัท ลดต้นทุนการเป็นเจ้าของลง 30% และ เพิ่มเสถียรภาพของระบบ ✅ ข้อมูลจากข่าว - ASE เปลี่ยนมาใช้ AMD EPYC และ Ryzen processors ในศูนย์ข้อมูลและระบบไคลเอนต์ - ประสิทธิภาพเพิ่มขึ้น 50% และลดการใช้พลังงานลง 6.5% - ลดต้นทุนการเป็นเจ้าของลง 30% - เริ่มทดสอบ AMD Instinct MI300-series GPUs สำหรับงาน AI - ASE เป็นบริษัทแรกในระดับนี้ที่ยืนยันการทดสอบ Instinct MI300-series GPUs ‼️ คำเตือนที่ควรพิจารณา - AMD ไม่ได้เปิดเผยว่าก่อนหน้านี้ ASE ใช้ CPU จากผู้ผลิตรายใด - ยังไม่มีการยืนยันว่า ASE จะนำ Instinct MI300-series GPUs มาใช้จริงหรือไม่ - ต้องติดตามว่าการเปลี่ยนมาใช้ AMD จะส่งผลต่อการดำเนินงานของ ASE ในระยะยาวอย่างไร - การแข่งขันในตลาด AI GPUs ยังคงรุนแรง โดย Nvidia ยังคงเป็นผู้นำ การเปลี่ยนมาใช้ AMD CPUs และการทดสอบ Instinct MI300-series GPUs อาจช่วยให้ AMD ขยายตลาดในกลุ่มเซมิคอนดักเตอร์และ AI อย่างไรก็ตาม ต้องติดตามว่าการแข่งขันกับ Nvidia จะส่งผลต่อการตัดสินใจของ ASE ในอนาคตหรือไม่ https://www.tomshardware.com/pc-components/cpus/ase-adopts-amd-cpus-begins-evaluating-instinct-mi300-series-gpus-for-ai
    0 Comments 0 Shares 88 Views 0 Reviews
  • 🏢 AMD ดึงทีมวิศวกรจาก Untether AI เพื่อเสริมศักยภาพด้าน AI Inference
    AMD ได้ประกาศว่า บริษัทได้ว่าจ้างทีมวิศวกรทั้งหมดจาก Untether AI ซึ่งเป็นบริษัทพัฒนา ชิป AI inference จากแคนาดา โดยการเข้าซื้อครั้งนี้ ไม่ได้รวมถึงทรัพย์สินของ Untether AI ทำให้ผลิตภัณฑ์ของบริษัท เช่น speedAI และ imAIgine SDK จะ หยุดการสนับสนุนและการจัดจำหน่าย

    AMD ระบุว่า ทีมวิศวกรจาก Untether AI จะช่วยเสริมศักยภาพด้าน AI compiler และ kernel development รวมถึง การออกแบบ SoC และการตรวจสอบผลิตภัณฑ์

    Untether AI เป็นบริษัทที่ พัฒนา AI inference chips ที่มีประสิทธิภาพสูงกว่าการใช้ GPU โดย วางโปรเซสเซอร์ไว้ใกล้กับหน่วยความจำ เพื่อลด latency และการใช้พลังงาน ซึ่งแตกต่างจาก GPU ที่ใช้พลังงานสูงในการฝึกโมเดล AI

    นอกจากนี้ AMD ยังได้เข้าซื้อ Brium ซึ่งเป็นสตาร์ทอัพที่เน้น การเพิ่มประสิทธิภาพ AI inference ซึ่งบ่งชี้ว่า AMD กำลังมุ่งเน้นไปที่การพัฒนา AI inference chips เพื่อลดการใช้พลังงานและเพิ่มประสิทธิภาพ

    ✅ ข้อมูลจากข่าว
    - AMD ดึงทีมวิศวกรจาก Untether AI เพื่อเสริมศักยภาพด้าน AI inference
    - ผลิตภัณฑ์ของ Untether AI เช่น speedAI และ imAIgine SDK จะหยุดการสนับสนุน
    - ทีมวิศวกรจะช่วยพัฒนา AI compiler, kernel development และ SoC design
    - Untether AI พัฒนา AI inference chips ที่มีประสิทธิภาพสูงกว่าการใช้ GPU
    - AMD ยังเข้าซื้อ Brium ซึ่งเน้นการเพิ่มประสิทธิภาพ AI inference

    ‼️ คำเตือนที่ควรพิจารณา
    - ลูกค้าของ Untether AI อาจได้รับผลกระทบ เนื่องจาก AMD ไม่ได้ซื้อทรัพย์สินของบริษัท
    - ต้องติดตามว่า AMD จะพัฒนา AI inference chips ที่สามารถแข่งขันกับ Nvidia ได้หรือไม่
    - การเปลี่ยนแปลงนี้อาจส่งผลต่ออุตสาหกรรม AI inference และการใช้พลังงานของศูนย์ข้อมูล
    - ต้องรอดูว่า AMD จะเปิดตัวผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยีของ Untether AI เมื่อใด

    การเข้าซื้อทีมวิศวกรจาก Untether AI อาจช่วยให้ AMD สามารถพัฒนา AI inference chips ที่มีประสิทธิภาพสูงขึ้น และ ลดการใช้พลังงานของศูนย์ข้อมูล อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงนี้จะส่งผลต่อการแข่งขันกับ Nvidia และตลาด AI inference อย่างไร

    https://www.tomshardware.com/tech-industry/amd-scoops-entire-untether-ai-chip-team-canada-ai-inference-outfit-will-cease-product-support
    🏢 AMD ดึงทีมวิศวกรจาก Untether AI เพื่อเสริมศักยภาพด้าน AI Inference AMD ได้ประกาศว่า บริษัทได้ว่าจ้างทีมวิศวกรทั้งหมดจาก Untether AI ซึ่งเป็นบริษัทพัฒนา ชิป AI inference จากแคนาดา โดยการเข้าซื้อครั้งนี้ ไม่ได้รวมถึงทรัพย์สินของ Untether AI ทำให้ผลิตภัณฑ์ของบริษัท เช่น speedAI และ imAIgine SDK จะ หยุดการสนับสนุนและการจัดจำหน่าย AMD ระบุว่า ทีมวิศวกรจาก Untether AI จะช่วยเสริมศักยภาพด้าน AI compiler และ kernel development รวมถึง การออกแบบ SoC และการตรวจสอบผลิตภัณฑ์ Untether AI เป็นบริษัทที่ พัฒนา AI inference chips ที่มีประสิทธิภาพสูงกว่าการใช้ GPU โดย วางโปรเซสเซอร์ไว้ใกล้กับหน่วยความจำ เพื่อลด latency และการใช้พลังงาน ซึ่งแตกต่างจาก GPU ที่ใช้พลังงานสูงในการฝึกโมเดล AI นอกจากนี้ AMD ยังได้เข้าซื้อ Brium ซึ่งเป็นสตาร์ทอัพที่เน้น การเพิ่มประสิทธิภาพ AI inference ซึ่งบ่งชี้ว่า AMD กำลังมุ่งเน้นไปที่การพัฒนา AI inference chips เพื่อลดการใช้พลังงานและเพิ่มประสิทธิภาพ ✅ ข้อมูลจากข่าว - AMD ดึงทีมวิศวกรจาก Untether AI เพื่อเสริมศักยภาพด้าน AI inference - ผลิตภัณฑ์ของ Untether AI เช่น speedAI และ imAIgine SDK จะหยุดการสนับสนุน - ทีมวิศวกรจะช่วยพัฒนา AI compiler, kernel development และ SoC design - Untether AI พัฒนา AI inference chips ที่มีประสิทธิภาพสูงกว่าการใช้ GPU - AMD ยังเข้าซื้อ Brium ซึ่งเน้นการเพิ่มประสิทธิภาพ AI inference ‼️ คำเตือนที่ควรพิจารณา - ลูกค้าของ Untether AI อาจได้รับผลกระทบ เนื่องจาก AMD ไม่ได้ซื้อทรัพย์สินของบริษัท - ต้องติดตามว่า AMD จะพัฒนา AI inference chips ที่สามารถแข่งขันกับ Nvidia ได้หรือไม่ - การเปลี่ยนแปลงนี้อาจส่งผลต่ออุตสาหกรรม AI inference และการใช้พลังงานของศูนย์ข้อมูล - ต้องรอดูว่า AMD จะเปิดตัวผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยีของ Untether AI เมื่อใด การเข้าซื้อทีมวิศวกรจาก Untether AI อาจช่วยให้ AMD สามารถพัฒนา AI inference chips ที่มีประสิทธิภาพสูงขึ้น และ ลดการใช้พลังงานของศูนย์ข้อมูล อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงนี้จะส่งผลต่อการแข่งขันกับ Nvidia และตลาด AI inference อย่างไร https://www.tomshardware.com/tech-industry/amd-scoops-entire-untether-ai-chip-team-canada-ai-inference-outfit-will-cease-product-support
    0 Comments 0 Shares 132 Views 0 Reviews
  • 🔥 แผ่นระบายความร้อนกราฟีนสำหรับ CPU AMD: ประสิทธิภาพเหนือกว่าซิลิโคนถึง 17 เท่า
    บริษัท Coracer จากจีนได้เปิดตัว GPE-01 graphene thermal pad สำหรับ โปรเซสเซอร์ AMD AM5 ซึ่งให้ ค่าการนำความร้อนสูงถึง 130 W/m·K และมี อายุการใช้งานยาวนานถึง 10 ปี

    ก่อนหน้านี้ GPE-01 รองรับเฉพาะ Intel LGA1851 และ LGA1700 แต่ล่าสุดได้มีรุ่นสำหรับ AMD AM5 ซึ่งมีขนาด 32 x 32 มม. และออกแบบให้ ครอบคลุม IHS ของ CPU ได้อย่างสมบูรณ์แบบ

    วัสดุของแผ่นนี้เป็น กราฟีนผสมซิลิโคน ซึ่งช่วยให้ การนำความร้อนสูงกว่าซิลิโคนทั่วไปถึง 17 เท่า และ สูงกว่าของ Thermal Grizzly Conductonaut ถึง 2 เท่า

    นอกจากนี้ GPE-01 ยังถูกห่อหุ้มด้วยวัสดุฉนวน เพื่อป้องกัน การลัดวงจรระหว่างกราฟีนกับตัวโปรเซสเซอร์

    ✅ ข้อมูลจากข่าว
    - GPE-01 graphene thermal pad รองรับ AMD AM5 และมีค่าการนำความร้อนสูงถึง 130 W/m·K
    - มีอายุการใช้งานยาวนานถึง 10 ปี
    - ออกแบบให้ครอบคลุม IHS ของ CPU ได้อย่างสมบูรณ์แบบ
    - วัสดุเป็นกราฟีนผสมซิลิโคน ช่วยให้การนำความร้อนสูงกว่าซิลิโคนทั่วไปถึง 17 เท่า
    - สูงกว่าของ Thermal Grizzly Conductonaut ถึง 2 เท่า

    ‼️ คำเตือนที่ควรพิจารณา
    - แม้ว่าค่าการนำความร้อนจะสูง แต่ต้องติดตามผลการทดสอบจริงว่ามีประสิทธิภาพตามที่ระบุหรือไม่
    - Coracer ยังไม่ได้เปิดเผยราคาหรือวันวางจำหน่ายของ GPE-01 รุ่น AMD AM5
    - ต้องตรวจสอบว่าการใช้แผ่นกราฟีนนี้จะมีผลกระทบต่ออุณหภูมิของ CPU ในระยะยาวหรือไม่
    - การติดตั้งต้องระมัดระวัง เนื่องจากกราฟีนเป็นวัสดุที่นำไฟฟ้าได้

    หาก GPE-01 สามารถทำงานได้ตามที่ระบุ อาจเป็นตัวเลือกใหม่ที่มีประสิทธิภาพสูงกว่าซิลิโคนและโลหะเหลว อย่างไรก็ตาม ต้องติดตามผลการทดสอบจริงและการตอบรับจากผู้ใช้

    https://www.tomshardware.com/pc-components/thermal-paste/graphene-thermal-pad-for-amd-cpus-promises-17x-better-conductivity-than-thermal-paste-2x-improvement-over-thermal-grizzly
    🔥 แผ่นระบายความร้อนกราฟีนสำหรับ CPU AMD: ประสิทธิภาพเหนือกว่าซิลิโคนถึง 17 เท่า บริษัท Coracer จากจีนได้เปิดตัว GPE-01 graphene thermal pad สำหรับ โปรเซสเซอร์ AMD AM5 ซึ่งให้ ค่าการนำความร้อนสูงถึง 130 W/m·K และมี อายุการใช้งานยาวนานถึง 10 ปี ก่อนหน้านี้ GPE-01 รองรับเฉพาะ Intel LGA1851 และ LGA1700 แต่ล่าสุดได้มีรุ่นสำหรับ AMD AM5 ซึ่งมีขนาด 32 x 32 มม. และออกแบบให้ ครอบคลุม IHS ของ CPU ได้อย่างสมบูรณ์แบบ วัสดุของแผ่นนี้เป็น กราฟีนผสมซิลิโคน ซึ่งช่วยให้ การนำความร้อนสูงกว่าซิลิโคนทั่วไปถึง 17 เท่า และ สูงกว่าของ Thermal Grizzly Conductonaut ถึง 2 เท่า นอกจากนี้ GPE-01 ยังถูกห่อหุ้มด้วยวัสดุฉนวน เพื่อป้องกัน การลัดวงจรระหว่างกราฟีนกับตัวโปรเซสเซอร์ ✅ ข้อมูลจากข่าว - GPE-01 graphene thermal pad รองรับ AMD AM5 และมีค่าการนำความร้อนสูงถึง 130 W/m·K - มีอายุการใช้งานยาวนานถึง 10 ปี - ออกแบบให้ครอบคลุม IHS ของ CPU ได้อย่างสมบูรณ์แบบ - วัสดุเป็นกราฟีนผสมซิลิโคน ช่วยให้การนำความร้อนสูงกว่าซิลิโคนทั่วไปถึง 17 เท่า - สูงกว่าของ Thermal Grizzly Conductonaut ถึง 2 เท่า ‼️ คำเตือนที่ควรพิจารณา - แม้ว่าค่าการนำความร้อนจะสูง แต่ต้องติดตามผลการทดสอบจริงว่ามีประสิทธิภาพตามที่ระบุหรือไม่ - Coracer ยังไม่ได้เปิดเผยราคาหรือวันวางจำหน่ายของ GPE-01 รุ่น AMD AM5 - ต้องตรวจสอบว่าการใช้แผ่นกราฟีนนี้จะมีผลกระทบต่ออุณหภูมิของ CPU ในระยะยาวหรือไม่ - การติดตั้งต้องระมัดระวัง เนื่องจากกราฟีนเป็นวัสดุที่นำไฟฟ้าได้ หาก GPE-01 สามารถทำงานได้ตามที่ระบุ อาจเป็นตัวเลือกใหม่ที่มีประสิทธิภาพสูงกว่าซิลิโคนและโลหะเหลว อย่างไรก็ตาม ต้องติดตามผลการทดสอบจริงและการตอบรับจากผู้ใช้ https://www.tomshardware.com/pc-components/thermal-paste/graphene-thermal-pad-for-amd-cpus-promises-17x-better-conductivity-than-thermal-paste-2x-improvement-over-thermal-grizzly
    0 Comments 0 Shares 103 Views 0 Reviews
  • 🖥️ Microsoft โปรโมต Intel vPro สำหรับ Windows 11 Pro แต่ไม่มีการกล่าวถึง AMD Ryzen PRO
    Microsoft ได้เผยแพร่ โฆษณาใหม่เกี่ยวกับ Windows 11 Pro โดยเน้นไปที่ Intel vPro แต่ไม่มีการกล่าวถึง AMD Ryzen PRO ซึ่งทำให้เกิดข้อสงสัยว่าบริษัทอาจมีแนวโน้มสนับสนุน Intel มากกว่า AMD

    Microsoft ได้เผยแพร่โฆษณาในช่อง YouTube อย่างเป็นทางการของ Windows โดยใช้ชื่อ "Right side of risk | Windows 11 Pro and Intel" ซึ่งเน้นไปที่ การอัปเกรดจาก Windows 10 เป็น Windows 11 Pro พร้อมกับ โปรโมต Intel vPro เป็นตัวเลือกที่ดีที่สุดสำหรับองค์กร

    ในคำอธิบายวิดีโอ Microsoft ระบุว่า "Windows 10 support ends October 14. Stay on the right side of risk—upgrade now to the power of Windows 11 Pro PCs with Intel vPro®." ซึ่งเป็นการเน้นย้ำถึง การสิ้นสุดการสนับสนุน Windows 10 และ แนะนำให้ผู้ใช้เลือก Intel vPro สำหรับการอัปเกรด

    ✅ ข้อมูลจากข่าว
    - Microsoft เผยแพร่โฆษณาใหม่เกี่ยวกับ Windows 11 Pro โดยเน้น Intel vPro
    - ไม่มีการกล่าวถึง AMD Ryzen PRO ในโฆษณา
    - โฆษณาใช้ชื่อ "Right side of risk | Windows 11 Pro and Intel"
    - Microsoft เน้นให้ผู้ใช้ธุรกิจอัปเกรดจาก Windows 10 เป็น Windows 11 Pro
    - Windows 10 จะสิ้นสุดการสนับสนุนในวันที่ 14 ตุลาคม 2025

    ‼️ คำเตือนที่ควรพิจารณา
    - Microsoft อาจมีโฆษณาสำหรับ AMD Ryzen PRO ในอนาคต แต่ยังไม่มีการเปิดเผยข้อมูล
    - การโปรโมต Intel vPro อาจทำให้ผู้ใช้มองว่า Microsoft มีแนวโน้มสนับสนุน Intel มากกว่า AMD
    - ต้องติดตามว่าการโปรโมตนี้จะส่งผลต่อการตัดสินใจขององค์กรที่ใช้ AMD Ryzen PRO หรือไม่
    - AMD มีบทความสนับสนุนเกี่ยวกับ Windows 11 และ Ryzen PRO แต่ไม่ได้รับการกล่าวถึงในโฆษณาของ Microsoft

    การโปรโมต Intel vPro ในโฆษณาของ Microsoft อาจส่งผลต่อการตัดสินใจขององค์กรที่กำลังพิจารณาอัปเกรดเป็น Windows 11 Pro อย่างไรก็ตาม ต้องติดตามว่า Microsoft จะมีโฆษณาสำหรับ AMD Ryzen PRO ในอนาคตหรือไม่

    https://www.neowin.net/news/intel-vs-amd-microsoft-seemingly-has-a-clear-recommendation-for-windows-11-pro-pc-upgrade/
    🖥️ Microsoft โปรโมต Intel vPro สำหรับ Windows 11 Pro แต่ไม่มีการกล่าวถึง AMD Ryzen PRO Microsoft ได้เผยแพร่ โฆษณาใหม่เกี่ยวกับ Windows 11 Pro โดยเน้นไปที่ Intel vPro แต่ไม่มีการกล่าวถึง AMD Ryzen PRO ซึ่งทำให้เกิดข้อสงสัยว่าบริษัทอาจมีแนวโน้มสนับสนุน Intel มากกว่า AMD Microsoft ได้เผยแพร่โฆษณาในช่อง YouTube อย่างเป็นทางการของ Windows โดยใช้ชื่อ "Right side of risk | Windows 11 Pro and Intel" ซึ่งเน้นไปที่ การอัปเกรดจาก Windows 10 เป็น Windows 11 Pro พร้อมกับ โปรโมต Intel vPro เป็นตัวเลือกที่ดีที่สุดสำหรับองค์กร ในคำอธิบายวิดีโอ Microsoft ระบุว่า "Windows 10 support ends October 14. Stay on the right side of risk—upgrade now to the power of Windows 11 Pro PCs with Intel vPro®." ซึ่งเป็นการเน้นย้ำถึง การสิ้นสุดการสนับสนุน Windows 10 และ แนะนำให้ผู้ใช้เลือก Intel vPro สำหรับการอัปเกรด ✅ ข้อมูลจากข่าว - Microsoft เผยแพร่โฆษณาใหม่เกี่ยวกับ Windows 11 Pro โดยเน้น Intel vPro - ไม่มีการกล่าวถึง AMD Ryzen PRO ในโฆษณา - โฆษณาใช้ชื่อ "Right side of risk | Windows 11 Pro and Intel" - Microsoft เน้นให้ผู้ใช้ธุรกิจอัปเกรดจาก Windows 10 เป็น Windows 11 Pro - Windows 10 จะสิ้นสุดการสนับสนุนในวันที่ 14 ตุลาคม 2025 ‼️ คำเตือนที่ควรพิจารณา - Microsoft อาจมีโฆษณาสำหรับ AMD Ryzen PRO ในอนาคต แต่ยังไม่มีการเปิดเผยข้อมูล - การโปรโมต Intel vPro อาจทำให้ผู้ใช้มองว่า Microsoft มีแนวโน้มสนับสนุน Intel มากกว่า AMD - ต้องติดตามว่าการโปรโมตนี้จะส่งผลต่อการตัดสินใจขององค์กรที่ใช้ AMD Ryzen PRO หรือไม่ - AMD มีบทความสนับสนุนเกี่ยวกับ Windows 11 และ Ryzen PRO แต่ไม่ได้รับการกล่าวถึงในโฆษณาของ Microsoft การโปรโมต Intel vPro ในโฆษณาของ Microsoft อาจส่งผลต่อการตัดสินใจขององค์กรที่กำลังพิจารณาอัปเกรดเป็น Windows 11 Pro อย่างไรก็ตาม ต้องติดตามว่า Microsoft จะมีโฆษณาสำหรับ AMD Ryzen PRO ในอนาคตหรือไม่ https://www.neowin.net/news/intel-vs-amd-microsoft-seemingly-has-a-clear-recommendation-for-windows-11-pro-pc-upgrade/
    WWW.NEOWIN.NET
    Intel vs AMD? Microsoft seemingly has a clear recommendation for Windows 11 Pro PC upgrade
    Microsoft has published a new ad about upgrading Windows 10 PCs to Windows 11 Pro. However, in it, the tech giant seems to have a clear recommendation for one over the other between AMD and Intel.
    0 Comments 0 Shares 94 Views 0 Reviews
  • 🚀 Intel เผยแผนพัฒนา CPU รุ่นใหม่: Nova Lake, Wildcat Lake และ Bartlett Lake
    Intel ได้เปิดเผย แผนพัฒนา CPU รุ่นใหม่ ผ่านเอกสารที่หลุดออกมา ซึ่งรวมถึง Nova Lake-S สำหรับเดสก์ท็อป, Nova Lake-U สำหรับแล็ปท็อป และ Wildcat Lake ซึ่งเป็นแพลตฟอร์มพลังงานต่ำ

    Nova Lake-S คาดว่าจะเป็น สถาปัตยกรรมเดสก์ท็อปที่มีสูงสุด 52 คอร์แบบไฮบริด และใช้ ซ็อกเก็ต LGA 1954 ซึ่งหมายความว่า ผู้ใช้ที่ต้องการอัปเกรดจาก LGA 1851 จะต้องเปลี่ยนเมนบอร์ดใหม่

    Wildcat Lake ถูกคาดการณ์ว่า จะเป็นแพลตฟอร์มพลังงานต่ำสำหรับอุปกรณ์พกพา และอาจเป็น ผู้สืบทอดของ Twin Lake

    Bartlett Lake-S จะมี รุ่นใหม่ที่มีเพียง 12 คอร์ประสิทธิภาพสูง ซึ่งแตกต่างจากรุ่นก่อนที่มีสูงสุด 24 คอร์ โดยคาดว่า จะรองรับเมนบอร์ด LGA 1700 ในซีรีส์ 600 และ 700

    ✅ ข้อมูลจากข่าว
    - Nova Lake-S จะมีสูงสุด 52 คอร์แบบไฮบริด และใช้ซ็อกเก็ต LGA 1954
    - Nova Lake-U เป็นรุ่นพลังงานต่ำสำหรับแล็ปท็อป
    - Wildcat Lake อาจเป็นแพลตฟอร์มพลังงานต่ำที่สืบทอดจาก Twin Lake
    - Bartlett Lake-S รุ่นใหม่จะมีเพียง 12 คอร์ประสิทธิภาพสูง
    - Bartlett Lake-S จะรองรับเมนบอร์ด LGA 1700 ในซีรีส์ 600 และ 700

    ‼️ คำเตือนที่ควรพิจารณา
    - ผู้ใช้ที่ต้องการอัปเกรดเป็น Nova Lake-S จะต้องเปลี่ยนเมนบอร์ดใหม่
    - ยังไม่มีข้อมูลเกี่ยวกับประสิทธิภาพของ Wildcat Lake และ Nova Lake-U
    - Bartlett Lake-S รุ่น 12 คอร์อาจมีข้อจำกัดด้านพลังงานและการใช้งานในตลาดอุตสาหกรรม
    - ต้องติดตามว่า Intel จะเปิดตัว CPU เหล่านี้อย่างเป็นทางการเมื่อใด

    การเปิดตัว CPU รุ่นใหม่ของ Intel อาจช่วยให้บริษัทสามารถแข่งขันกับ AMD และ Apple ได้ดีขึ้น โดยเฉพาะในตลาดเดสก์ท็อปและแล็ปท็อป อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงของซ็อกเก็ตจะส่งผลต่อการอัปเกรดของผู้ใช้มากน้อยเพียงใด

    https://www.techspot.com/news/108184-intel-roadmap-reveals-nova-lake-su-wildcat-lake.html
    🚀 Intel เผยแผนพัฒนา CPU รุ่นใหม่: Nova Lake, Wildcat Lake และ Bartlett Lake Intel ได้เปิดเผย แผนพัฒนา CPU รุ่นใหม่ ผ่านเอกสารที่หลุดออกมา ซึ่งรวมถึง Nova Lake-S สำหรับเดสก์ท็อป, Nova Lake-U สำหรับแล็ปท็อป และ Wildcat Lake ซึ่งเป็นแพลตฟอร์มพลังงานต่ำ Nova Lake-S คาดว่าจะเป็น สถาปัตยกรรมเดสก์ท็อปที่มีสูงสุด 52 คอร์แบบไฮบริด และใช้ ซ็อกเก็ต LGA 1954 ซึ่งหมายความว่า ผู้ใช้ที่ต้องการอัปเกรดจาก LGA 1851 จะต้องเปลี่ยนเมนบอร์ดใหม่ Wildcat Lake ถูกคาดการณ์ว่า จะเป็นแพลตฟอร์มพลังงานต่ำสำหรับอุปกรณ์พกพา และอาจเป็น ผู้สืบทอดของ Twin Lake Bartlett Lake-S จะมี รุ่นใหม่ที่มีเพียง 12 คอร์ประสิทธิภาพสูง ซึ่งแตกต่างจากรุ่นก่อนที่มีสูงสุด 24 คอร์ โดยคาดว่า จะรองรับเมนบอร์ด LGA 1700 ในซีรีส์ 600 และ 700 ✅ ข้อมูลจากข่าว - Nova Lake-S จะมีสูงสุด 52 คอร์แบบไฮบริด และใช้ซ็อกเก็ต LGA 1954 - Nova Lake-U เป็นรุ่นพลังงานต่ำสำหรับแล็ปท็อป - Wildcat Lake อาจเป็นแพลตฟอร์มพลังงานต่ำที่สืบทอดจาก Twin Lake - Bartlett Lake-S รุ่นใหม่จะมีเพียง 12 คอร์ประสิทธิภาพสูง - Bartlett Lake-S จะรองรับเมนบอร์ด LGA 1700 ในซีรีส์ 600 และ 700 ‼️ คำเตือนที่ควรพิจารณา - ผู้ใช้ที่ต้องการอัปเกรดเป็น Nova Lake-S จะต้องเปลี่ยนเมนบอร์ดใหม่ - ยังไม่มีข้อมูลเกี่ยวกับประสิทธิภาพของ Wildcat Lake และ Nova Lake-U - Bartlett Lake-S รุ่น 12 คอร์อาจมีข้อจำกัดด้านพลังงานและการใช้งานในตลาดอุตสาหกรรม - ต้องติดตามว่า Intel จะเปิดตัว CPU เหล่านี้อย่างเป็นทางการเมื่อใด การเปิดตัว CPU รุ่นใหม่ของ Intel อาจช่วยให้บริษัทสามารถแข่งขันกับ AMD และ Apple ได้ดีขึ้น โดยเฉพาะในตลาดเดสก์ท็อปและแล็ปท็อป อย่างไรก็ตาม ต้องติดตามว่าการเปลี่ยนแปลงของซ็อกเก็ตจะส่งผลต่อการอัปเกรดของผู้ใช้มากน้อยเพียงใด https://www.techspot.com/news/108184-intel-roadmap-reveals-nova-lake-su-wildcat-lake.html
    WWW.TECHSPOT.COM
    Intel roadmap reveals Nova Lake CPUs, Wildcat Lake, and new 12-core Bartlett Lake SKUs
    The leak originates from an Intel support document about the Time Coordinated Computing (TCC) platform, which outlines how the technology can be used for real-time applications at...
    0 Comments 0 Shares 122 Views 0 Reviews
  • 🎮 รีวิว AMD Radeon RX 9060 XT 16GB: พลัง 1440p ในราคาต่ำกว่า $400
    AMD ได้เปิดตัว Radeon RX 9060 XT 16GB ซึ่งเป็น GPU รุ่นใหม่ที่ออกแบบมาเพื่อเกมเมอร์ที่ต้องการประสิทธิภาพสูงในราคาประหยัด โดยมี VRAM มากกว่าคู่แข่งในระดับเดียวกัน และ ราคาถูกกว่า RTX 5060 Ti ถึง 20%

    RX 9060 XT ใช้ สถาปัตยกรรม RDNA 4 และมี คล็อกสูงขึ้น 14% เมื่อเทียบกับ RX 7600 XT พร้อมกับ หน่วยความจำ GDDR6 ความเร็ว 20 Gbps ซึ่งช่วยเพิ่ม แบนด์วิดท์เป็น 320 GB/s

    แม้ว่าจะมี ประสิทธิภาพใกล้เคียงกับ RTX 5060 Ti แต่ RX 9060 XT มี VRAM มากกว่า และ รองรับ PCIe 5.0 เต็มรูปแบบ ซึ่งช่วยให้มี ความยืดหยุ่นในการใช้งานระยะยาว

    ✅ ข้อมูลจากข่าว
    - RX 9060 XT 16GB มีราคาถูกกว่า RTX 5060 Ti ถึง 20%
    - ใช้สถาปัตยกรรม RDNA 4 และมีคล็อกสูงขึ้น 14% เมื่อเทียบกับ RX 7600 XT
    - หน่วยความจำ GDDR6 ความเร็ว 20 Gbps เพิ่มแบนด์วิดท์เป็น 320 GB/s
    - รองรับ PCIe 5.0 เต็มรูปแบบ
    - มี VRAM มากกว่าคู่แข่งในระดับเดียวกัน

    ‼️ คำเตือนที่ควรพิจารณา
    - RX 9060 XT 8GB มีประสิทธิภาพต่ำกว่ารุ่น 16GB อย่างมาก
    - Ray tracing ยังไม่สามารถแข่งขันกับ Nvidia ได้ในบางเกม
    - ต้องติดตามว่าราคาจะคงอยู่ที่ $350 หรือจะเพิ่มขึ้นหลังเปิดตัว
    - AMD ควรตั้งชื่อรุ่นให้ชัดเจนขึ้นเพื่อหลีกเลี่ยงความสับสนระหว่างรุ่น 8GB และ 16GB

    RX 9060 XT 16GB อาจเป็น ตัวเลือกที่ดีที่สุดสำหรับเกมเมอร์ที่ต้องการ GPU ราคาประหยัด โดยมี VRAM มากกว่าและราคาถูกกว่า RTX 5060 Ti อย่างไรก็ตาม ต้องติดตามว่าราคาจะคงอยู่ที่ระดับที่แข่งขันได้หรือไม่

    ส่วนลุงนั้นฟันธงว่า
    1) คนที่ใช้ RTX 3060 หรือต่ำกว่าอยู่ แล้วอยากย้ายค่าย นี่คือช่วงเวลาที่ดีครับ
    2) คนที่ใช้ RX 5xxx อยู่ ถ้าอยากจะ Upgrade ควรจะย้ายมารุ่นนี้ครับ
    3) ถ้าคิดว่าจะใช้จอ 1080 ต่อไปยาวๆ หรือไม่เน้นเกม ก็พิจารณารอ รุ่น RX 9060 RAM 8GB ได้ครับ

    #ลุงฟันธง

    https://www.techspot.com/review/2996-amd-radeon-9060-xt/
    🎮 รีวิว AMD Radeon RX 9060 XT 16GB: พลัง 1440p ในราคาต่ำกว่า $400 AMD ได้เปิดตัว Radeon RX 9060 XT 16GB ซึ่งเป็น GPU รุ่นใหม่ที่ออกแบบมาเพื่อเกมเมอร์ที่ต้องการประสิทธิภาพสูงในราคาประหยัด โดยมี VRAM มากกว่าคู่แข่งในระดับเดียวกัน และ ราคาถูกกว่า RTX 5060 Ti ถึง 20% RX 9060 XT ใช้ สถาปัตยกรรม RDNA 4 และมี คล็อกสูงขึ้น 14% เมื่อเทียบกับ RX 7600 XT พร้อมกับ หน่วยความจำ GDDR6 ความเร็ว 20 Gbps ซึ่งช่วยเพิ่ม แบนด์วิดท์เป็น 320 GB/s แม้ว่าจะมี ประสิทธิภาพใกล้เคียงกับ RTX 5060 Ti แต่ RX 9060 XT มี VRAM มากกว่า และ รองรับ PCIe 5.0 เต็มรูปแบบ ซึ่งช่วยให้มี ความยืดหยุ่นในการใช้งานระยะยาว ✅ ข้อมูลจากข่าว - RX 9060 XT 16GB มีราคาถูกกว่า RTX 5060 Ti ถึง 20% - ใช้สถาปัตยกรรม RDNA 4 และมีคล็อกสูงขึ้น 14% เมื่อเทียบกับ RX 7600 XT - หน่วยความจำ GDDR6 ความเร็ว 20 Gbps เพิ่มแบนด์วิดท์เป็น 320 GB/s - รองรับ PCIe 5.0 เต็มรูปแบบ - มี VRAM มากกว่าคู่แข่งในระดับเดียวกัน ‼️ คำเตือนที่ควรพิจารณา - RX 9060 XT 8GB มีประสิทธิภาพต่ำกว่ารุ่น 16GB อย่างมาก - Ray tracing ยังไม่สามารถแข่งขันกับ Nvidia ได้ในบางเกม - ต้องติดตามว่าราคาจะคงอยู่ที่ $350 หรือจะเพิ่มขึ้นหลังเปิดตัว - AMD ควรตั้งชื่อรุ่นให้ชัดเจนขึ้นเพื่อหลีกเลี่ยงความสับสนระหว่างรุ่น 8GB และ 16GB RX 9060 XT 16GB อาจเป็น ตัวเลือกที่ดีที่สุดสำหรับเกมเมอร์ที่ต้องการ GPU ราคาประหยัด โดยมี VRAM มากกว่าและราคาถูกกว่า RTX 5060 Ti อย่างไรก็ตาม ต้องติดตามว่าราคาจะคงอยู่ที่ระดับที่แข่งขันได้หรือไม่ ส่วนลุงนั้นฟันธงว่า 1) คนที่ใช้ RTX 3060 หรือต่ำกว่าอยู่ แล้วอยากย้ายค่าย นี่คือช่วงเวลาที่ดีครับ 2) คนที่ใช้ RX 5xxx อยู่ ถ้าอยากจะ Upgrade ควรจะย้ายมารุ่นนี้ครับ 3) ถ้าคิดว่าจะใช้จอ 1080 ต่อไปยาวๆ หรือไม่เน้นเกม ก็พิจารณารอ รุ่น RX 9060 RAM 8GB ได้ครับ #ลุงฟันธง https://www.techspot.com/review/2996-amd-radeon-9060-xt/
    WWW.TECHSPOT.COM
    AMD Radeon RX 9060 XT 16GB Review
    AMD's Radeon RX 9060 XT comes in two flavors–only one's worth your money. The 16GB model undercuts Nvidia on price, matches performance, and may be the new...
    0 Comments 0 Shares 134 Views 0 Reviews
  • 🏭 การควบรวมกิจการของ Hygon และ Sugon: ความท้าทายใหม่ต่ออุตสาหกรรมชิป
    สองบริษัทออกแบบชิปชั้นนำของจีน Hygon และ Sugon ได้ประกาศควบรวมกิจการ เพื่อเสริมความแข็งแกร่งในการแข่งขันกับ Intel, AMD และ Nvidia โดยมีเป้าหมายเพื่อพัฒนา ชิปประสิทธิภาพสูงสำหรับตลาดจีน

    Hygon มีรากฐานจาก ข้อตกลงการอนุญาตเทคโนโลยี Zen 1 กับ AMD ในปี 2016 ซึ่งช่วยให้บริษัทสามารถพัฒนา Dhyana CPU ที่ใช้สถาปัตยกรรม x86-64 และได้รับการสนับสนุนจาก นักพัฒนา Linux และ Tencent

    Sugon เคยใช้ Dhyana processors ในระบบต่าง ๆ รวมถึง ซูเปอร์คอมพิวเตอร์ที่เคยติดอันดับ 38 ของ TOP500 อย่างไรก็ตาม ทั้งสองบริษัท อยู่ในรายชื่อ Entity List ของสหรัฐฯ ซึ่งจำกัดการเข้าถึงเทคโนโลยีอเมริกัน

    ✅ ข้อมูลจากข่าว
    - Hygon และ Sugon ควบรวมกิจการเพื่อแข่งขันกับ Intel, AMD และ Nvidia
    - Hygon เคยได้รับสิทธิ์ใช้สถาปัตยกรรม Zen 1 จาก AMD ในปี 2016
    - Sugon ใช้ Dhyana processors ในซูเปอร์คอมพิวเตอร์ที่เคยติดอันดับ 38 ของ TOP500
    - ทั้งสองบริษัทอยู่ในรายชื่อ Entity List ของสหรัฐฯ ซึ่งจำกัดการเข้าถึงเทคโนโลยีอเมริกัน
    - Hygon อาจพัฒนา SMT4 (Simultaneous Multithreading 4 threads per core) ซึ่งเคยใช้ใน IBM POWER7

    ‼️ คำเตือนที่ควรพิจารณา
    - แม้จะมีการควบรวม แต่ยังไม่มีหลักฐานว่าชิปใหม่จะสามารถแข่งขันกับ AMD Threadripper หรือ Intel Xeon ได้
    - การอยู่ใน Entity List อาจทำให้บริษัทต้องพัฒนาเทคโนโลยีโดยไม่มีการสนับสนุนจากสหรัฐฯ
    - ต้องติดตามว่าการพัฒนา SMT4 จะสามารถทำให้ Hygon ก้าวเข้าสู่ตลาด CPU ระดับสูงได้หรือไม่
    - การควบรวมอาจช่วยให้จีนมีทางเลือกด้านเซมิคอนดักเตอร์มากขึ้น แต่ยังต้องใช้เวลาในการพัฒนา

    การควบรวมของ Hygon และ Sugon อาจช่วยให้ จีนมีความสามารถในการพัฒนา CPU ที่แข่งขันกับแบรนด์ระดับโลก อย่างไรก็ตาม ต้องติดตามว่าการพัฒนาเทคโนโลยีใหม่จะสามารถลดช่องว่างกับ Intel และ AMD ได้หรือไม่

    https://www.techradar.com/pro/two-of-chinas-biggest-chip-designers-just-merged-to-compete-better-against-intel-amd-and-nvidia
    🏭 การควบรวมกิจการของ Hygon และ Sugon: ความท้าทายใหม่ต่ออุตสาหกรรมชิป สองบริษัทออกแบบชิปชั้นนำของจีน Hygon และ Sugon ได้ประกาศควบรวมกิจการ เพื่อเสริมความแข็งแกร่งในการแข่งขันกับ Intel, AMD และ Nvidia โดยมีเป้าหมายเพื่อพัฒนา ชิปประสิทธิภาพสูงสำหรับตลาดจีน Hygon มีรากฐานจาก ข้อตกลงการอนุญาตเทคโนโลยี Zen 1 กับ AMD ในปี 2016 ซึ่งช่วยให้บริษัทสามารถพัฒนา Dhyana CPU ที่ใช้สถาปัตยกรรม x86-64 และได้รับการสนับสนุนจาก นักพัฒนา Linux และ Tencent Sugon เคยใช้ Dhyana processors ในระบบต่าง ๆ รวมถึง ซูเปอร์คอมพิวเตอร์ที่เคยติดอันดับ 38 ของ TOP500 อย่างไรก็ตาม ทั้งสองบริษัท อยู่ในรายชื่อ Entity List ของสหรัฐฯ ซึ่งจำกัดการเข้าถึงเทคโนโลยีอเมริกัน ✅ ข้อมูลจากข่าว - Hygon และ Sugon ควบรวมกิจการเพื่อแข่งขันกับ Intel, AMD และ Nvidia - Hygon เคยได้รับสิทธิ์ใช้สถาปัตยกรรม Zen 1 จาก AMD ในปี 2016 - Sugon ใช้ Dhyana processors ในซูเปอร์คอมพิวเตอร์ที่เคยติดอันดับ 38 ของ TOP500 - ทั้งสองบริษัทอยู่ในรายชื่อ Entity List ของสหรัฐฯ ซึ่งจำกัดการเข้าถึงเทคโนโลยีอเมริกัน - Hygon อาจพัฒนา SMT4 (Simultaneous Multithreading 4 threads per core) ซึ่งเคยใช้ใน IBM POWER7 ‼️ คำเตือนที่ควรพิจารณา - แม้จะมีการควบรวม แต่ยังไม่มีหลักฐานว่าชิปใหม่จะสามารถแข่งขันกับ AMD Threadripper หรือ Intel Xeon ได้ - การอยู่ใน Entity List อาจทำให้บริษัทต้องพัฒนาเทคโนโลยีโดยไม่มีการสนับสนุนจากสหรัฐฯ - ต้องติดตามว่าการพัฒนา SMT4 จะสามารถทำให้ Hygon ก้าวเข้าสู่ตลาด CPU ระดับสูงได้หรือไม่ - การควบรวมอาจช่วยให้จีนมีทางเลือกด้านเซมิคอนดักเตอร์มากขึ้น แต่ยังต้องใช้เวลาในการพัฒนา การควบรวมของ Hygon และ Sugon อาจช่วยให้ จีนมีความสามารถในการพัฒนา CPU ที่แข่งขันกับแบรนด์ระดับโลก อย่างไรก็ตาม ต้องติดตามว่าการพัฒนาเทคโนโลยีใหม่จะสามารถลดช่องว่างกับ Intel และ AMD ได้หรือไม่ https://www.techradar.com/pro/two-of-chinas-biggest-chip-designers-just-merged-to-compete-better-against-intel-amd-and-nvidia
    0 Comments 0 Shares 189 Views 0 Reviews
  • 🚀 Nvidia พัฒนา AI Chip รุ่นใหม่สำหรับตลาดจีน
    หลังจากที่สหรัฐฯ สั่งห้ามส่งออกชิป H20 ไปยังจีน Nvidia กำลังพัฒนา B30 ซึ่งเป็น ชิป AI รุ่นใหม่ที่ออกแบบให้สอดคล้องกับข้อจำกัดด้านการส่งออก โดยใช้ สถาปัตยกรรม Blackwell และอาจรองรับ NVLink เพื่อสร้าง คลัสเตอร์ประสิทธิภาพสูง

    B30 เป็น หนึ่งในหลายรุ่นของตระกูล BXX ซึ่งมีการเปลี่ยนชื่อจาก RTX Pro 6000D เป็น B40 และล่าสุดเป็น B30 โดยคาดว่า จะมีหลายเวอร์ชันสำหรับตลาดจีน

    แม้ว่าหลายฝ่ายคาดว่า B30 จะรองรับ NVLink แต่ Nvidia ไม่ได้รวม NVLink ในชิปสำหรับผู้บริโภคตั้งแต่รุ่นก่อนหน้า อย่างไรก็ตาม บริษัทอาจใช้ ConnectX-8 SuperNICs ที่มี PCIe 6.0 switches เพื่อให้สามารถเชื่อมต่อ GPU หลายตัวได้

    ✅ ข้อมูลจากข่าว
    - Nvidia พัฒนา B30 เพื่อให้สอดคล้องกับข้อจำกัดด้านการส่งออกของสหรัฐฯ
    - B30 ใช้สถาปัตยกรรม Blackwell และอาจรองรับ NVLink หรือ ConnectX-8 SuperNICs
    - ชิปนี้ใช้ GDDR7 และ GB20X silicon ซึ่งเป็นเทคโนโลยีเดียวกับ RTX 50 GPUs
    - Nvidia เปิดตัว RTX Pro Blackwell servers ที่ใช้ ConnectX-8 SuperNICs สำหรับการเชื่อมต่อ GPU
    - Jensen Huang ระบุว่า Nvidia จะไม่พัฒนา Hopper-based alternatives สำหรับตลาดจีนอีกต่อไป

    ‼️ คำเตือนที่ควรพิจารณา
    - NVLink อาจไม่ถูกนำมาใช้ใน B30 เนื่องจาก Nvidia ไม่ได้รวมไว้ในชิปสำหรับผู้บริโภค
    - สหรัฐฯ กำหนดข้อจำกัดด้าน memory bandwidth และ interconnect bandwidth เพื่อป้องกันการใช้ชิป AI ในการสร้างซูเปอร์คอมพิวเตอร์ทางทหาร
    - AMD รายงานว่าการแบนชิป MI308 อาจทำให้สูญเสียรายได้สูงถึง $800 ล้าน
    - Jensen Huang เตือนว่าสหรัฐฯ อาจสูญเสียความสามารถในการแข่งขัน หากจีนพัฒนาเทคโนโลยีที่สามารถแข่งขันกับ Nvidia ได้

    B30 อาจช่วยให้ Nvidia สามารถรักษาตลาดจีนไว้ได้ แม้จะมีข้อจำกัดด้านการส่งออก อย่างไรก็ตาม ต้องติดตามว่าจีนจะพัฒนาเทคโนโลยีของตนเองเพื่อแข่งขันกับ Nvidia หรือไม่

    https://www.tomshardware.com/pc-components/gpus/nvidia-reportedly-developing-new-ai-chip-for-china-that-meets-export-controls-b30-could-include-nvlink-for-creation-of-high-performance-clusters
    🚀 Nvidia พัฒนา AI Chip รุ่นใหม่สำหรับตลาดจีน หลังจากที่สหรัฐฯ สั่งห้ามส่งออกชิป H20 ไปยังจีน Nvidia กำลังพัฒนา B30 ซึ่งเป็น ชิป AI รุ่นใหม่ที่ออกแบบให้สอดคล้องกับข้อจำกัดด้านการส่งออก โดยใช้ สถาปัตยกรรม Blackwell และอาจรองรับ NVLink เพื่อสร้าง คลัสเตอร์ประสิทธิภาพสูง B30 เป็น หนึ่งในหลายรุ่นของตระกูล BXX ซึ่งมีการเปลี่ยนชื่อจาก RTX Pro 6000D เป็น B40 และล่าสุดเป็น B30 โดยคาดว่า จะมีหลายเวอร์ชันสำหรับตลาดจีน แม้ว่าหลายฝ่ายคาดว่า B30 จะรองรับ NVLink แต่ Nvidia ไม่ได้รวม NVLink ในชิปสำหรับผู้บริโภคตั้งแต่รุ่นก่อนหน้า อย่างไรก็ตาม บริษัทอาจใช้ ConnectX-8 SuperNICs ที่มี PCIe 6.0 switches เพื่อให้สามารถเชื่อมต่อ GPU หลายตัวได้ ✅ ข้อมูลจากข่าว - Nvidia พัฒนา B30 เพื่อให้สอดคล้องกับข้อจำกัดด้านการส่งออกของสหรัฐฯ - B30 ใช้สถาปัตยกรรม Blackwell และอาจรองรับ NVLink หรือ ConnectX-8 SuperNICs - ชิปนี้ใช้ GDDR7 และ GB20X silicon ซึ่งเป็นเทคโนโลยีเดียวกับ RTX 50 GPUs - Nvidia เปิดตัว RTX Pro Blackwell servers ที่ใช้ ConnectX-8 SuperNICs สำหรับการเชื่อมต่อ GPU - Jensen Huang ระบุว่า Nvidia จะไม่พัฒนา Hopper-based alternatives สำหรับตลาดจีนอีกต่อไป ‼️ คำเตือนที่ควรพิจารณา - NVLink อาจไม่ถูกนำมาใช้ใน B30 เนื่องจาก Nvidia ไม่ได้รวมไว้ในชิปสำหรับผู้บริโภค - สหรัฐฯ กำหนดข้อจำกัดด้าน memory bandwidth และ interconnect bandwidth เพื่อป้องกันการใช้ชิป AI ในการสร้างซูเปอร์คอมพิวเตอร์ทางทหาร - AMD รายงานว่าการแบนชิป MI308 อาจทำให้สูญเสียรายได้สูงถึง $800 ล้าน - Jensen Huang เตือนว่าสหรัฐฯ อาจสูญเสียความสามารถในการแข่งขัน หากจีนพัฒนาเทคโนโลยีที่สามารถแข่งขันกับ Nvidia ได้ B30 อาจช่วยให้ Nvidia สามารถรักษาตลาดจีนไว้ได้ แม้จะมีข้อจำกัดด้านการส่งออก อย่างไรก็ตาม ต้องติดตามว่าจีนจะพัฒนาเทคโนโลยีของตนเองเพื่อแข่งขันกับ Nvidia หรือไม่ https://www.tomshardware.com/pc-components/gpus/nvidia-reportedly-developing-new-ai-chip-for-china-that-meets-export-controls-b30-could-include-nvlink-for-creation-of-high-performance-clusters
    0 Comments 0 Shares 217 Views 0 Reviews
  • 🚀 Qualcomm Snapdragon X2 Elite: ชิปใหม่ที่เพิ่มจำนวนคอร์ 50%
    Qualcomm กำลังพัฒนา Snapdragon X2 Elite ซึ่งเป็นรุ่นอัปเกรดจาก Snapdragon X Elite โดยมีจำนวนคอร์เพิ่มขึ้น 50% และรองรับ RAM สูงสุด 64GB

    Snapdragon X2 Elite ใช้ สถาปัตยกรรม Oryon V3 และมี 18 คอร์ ซึ่งมากกว่ารุ่นก่อนที่มี 12 คอร์ โดยคาดว่า จะมีประสิทธิภาพสูงขึ้นอย่างมีนัยสำคัญ

    นอกจากนี้ Qualcomm กำลัง ทดสอบชิปนี้ในอุปกรณ์ที่มีระบบระบายความร้อนขั้นสูง เช่น หม้อน้ำ 120mm AiO ซึ่งอาจบ่งบอกว่า Snapdragon X2 Elite อาจถูกนำไปใช้ในเดสก์ท็อปหรือเซิร์ฟเวอร์

    ✅ ข้อมูลจากข่าว
    - Snapdragon X2 Elite มี 18 คอร์ เพิ่มขึ้น 50% จากรุ่นก่อน
    - ใช้สถาปัตยกรรม Oryon V3 และรองรับ RAM สูงสุด 64GB
    - Qualcomm กำลังทดสอบชิปนี้ในอุปกรณ์ที่มีระบบระบายความร้อนขั้นสูง
    - อาจมีการเปิดตัวอย่างเป็นทางการใน Snapdragon Summit 2025 เดือนกันยายน
    - Qualcomm อาจพยายามขยายตลาดไปยังเดสก์ท็อปและเซิร์ฟเวอร์

    ‼️ คำเตือนที่ควรพิจารณา
    - ยังไม่มีข้อมูลทางการจาก Qualcomm เกี่ยวกับประสิทธิภาพที่แท้จริงของชิปนี้
    - ต้องติดตามว่าการเพิ่มจำนวนคอร์จะส่งผลต่อการใช้พลังงานและความร้อนอย่างไร
    - AMD และ Intel อาจตอบโต้ด้วยชิปที่มี AI/NPU-enhanced เพื่อแข่งขันในตลาด
    - ต้องรอดูว่าผู้ผลิตอุปกรณ์จะนำ Snapdragon X2 Elite ไปใช้ในผลิตภัณฑ์ของตนหรือไม่

    Snapdragon X2 Elite อาจช่วยให้ Qualcomm แข่งขันกับ AMD และ Intel ได้ดีขึ้น โดยเฉพาะในตลาด Windows-on-Arm อย่างไรก็ตาม ต้องติดตามว่าชิปนี้จะสามารถสร้างความแตกต่างได้มากน้อยเพียงใด

    https://www.tomshardware.com/pc-components/cpus/qualcomm-snapdragon-x2-elite-variant-rumors-surface-new-chip-with-18-cores-and-64gb-ram-is-reportedly-already-in-testing
    🚀 Qualcomm Snapdragon X2 Elite: ชิปใหม่ที่เพิ่มจำนวนคอร์ 50% Qualcomm กำลังพัฒนา Snapdragon X2 Elite ซึ่งเป็นรุ่นอัปเกรดจาก Snapdragon X Elite โดยมีจำนวนคอร์เพิ่มขึ้น 50% และรองรับ RAM สูงสุด 64GB Snapdragon X2 Elite ใช้ สถาปัตยกรรม Oryon V3 และมี 18 คอร์ ซึ่งมากกว่ารุ่นก่อนที่มี 12 คอร์ โดยคาดว่า จะมีประสิทธิภาพสูงขึ้นอย่างมีนัยสำคัญ นอกจากนี้ Qualcomm กำลัง ทดสอบชิปนี้ในอุปกรณ์ที่มีระบบระบายความร้อนขั้นสูง เช่น หม้อน้ำ 120mm AiO ซึ่งอาจบ่งบอกว่า Snapdragon X2 Elite อาจถูกนำไปใช้ในเดสก์ท็อปหรือเซิร์ฟเวอร์ ✅ ข้อมูลจากข่าว - Snapdragon X2 Elite มี 18 คอร์ เพิ่มขึ้น 50% จากรุ่นก่อน - ใช้สถาปัตยกรรม Oryon V3 และรองรับ RAM สูงสุด 64GB - Qualcomm กำลังทดสอบชิปนี้ในอุปกรณ์ที่มีระบบระบายความร้อนขั้นสูง - อาจมีการเปิดตัวอย่างเป็นทางการใน Snapdragon Summit 2025 เดือนกันยายน - Qualcomm อาจพยายามขยายตลาดไปยังเดสก์ท็อปและเซิร์ฟเวอร์ ‼️ คำเตือนที่ควรพิจารณา - ยังไม่มีข้อมูลทางการจาก Qualcomm เกี่ยวกับประสิทธิภาพที่แท้จริงของชิปนี้ - ต้องติดตามว่าการเพิ่มจำนวนคอร์จะส่งผลต่อการใช้พลังงานและความร้อนอย่างไร - AMD และ Intel อาจตอบโต้ด้วยชิปที่มี AI/NPU-enhanced เพื่อแข่งขันในตลาด - ต้องรอดูว่าผู้ผลิตอุปกรณ์จะนำ Snapdragon X2 Elite ไปใช้ในผลิตภัณฑ์ของตนหรือไม่ Snapdragon X2 Elite อาจช่วยให้ Qualcomm แข่งขันกับ AMD และ Intel ได้ดีขึ้น โดยเฉพาะในตลาด Windows-on-Arm อย่างไรก็ตาม ต้องติดตามว่าชิปนี้จะสามารถสร้างความแตกต่างได้มากน้อยเพียงใด https://www.tomshardware.com/pc-components/cpus/qualcomm-snapdragon-x2-elite-variant-rumors-surface-new-chip-with-18-cores-and-64gb-ram-is-reportedly-already-in-testing
    0 Comments 0 Shares 140 Views 0 Reviews
  • 🏭 TSMC กับยุคใหม่ของเซมิคอนดักเตอร์: ราคาชิป 2nm พุ่งสูงถึง $30,000
    TSMC กำลังเข้าสู่ยุคใหม่ของการผลิตเซมิคอนดักเตอร์ โดย ชิป 2nm รุ่นล่าสุดมีราคาสูงถึง $30,000 ต่อเวเฟอร์ ซึ่งเพิ่มขึ้น 66% จากชิป 3nm และอาจเป็นสัญญาณว่า Moore's Law กำลังถึงจุดสิ้นสุด

    TSMC ได้พัฒนา กระบวนการผลิต N2 ซึ่งใช้ Gate-All-Around (GAA) transistor architectures เพื่อช่วยลด การรั่วไหลของพลังงาน และเพิ่มประสิทธิภาพของชิป

    แม้ว่า ต้นทุนการผลิตจะสูงขึ้น แต่บริษัทเทคโนโลยีรายใหญ่ เช่น Apple, Intel, Nvidia, AMD และ Qualcomm ยังคงวางแผนสั่งซื้อชิป 2nm ก่อนสิ้นปีนี้

    นอกจากนี้ TSMC กำลังพัฒนา N2P และ N2X ซึ่งจะเปิดตัวในปี 2026 และ 2027 ตามลำดับ โดย N2P จะเพิ่มประสิทธิภาพ 18% และลดการใช้พลังงานลง 36% ส่วน N2X จะเพิ่มความเร็วสัญญาณนาฬิกาอีก 10%

    ✅ ข้อมูลจากข่าว
    - TSMC ตั้งราคาชิป 2nm ที่ $30,000 ต่อเวเฟอร์ เพิ่มขึ้น 66% จากชิป 3nm
    - กระบวนการผลิต N2 ใช้ Gate-All-Around (GAA) transistor architectures เพื่อลดการรั่วไหลของพลังงาน
    - Apple, Intel, Nvidia, AMD และ Qualcomm เตรียมสั่งซื้อชิป 2nm ก่อนสิ้นปีนี้
    - TSMC กำลังพัฒนา N2P และ N2X ซึ่งจะเปิดตัวในปี 2026 และ 2027
    - N2P จะเพิ่มประสิทธิภาพ 18% และลดการใช้พลังงานลง 36% ส่วน N2X จะเพิ่มความเร็วสัญญาณนาฬิกาอีก 10%

    ‼️ คำเตือนที่ควรพิจารณา
    - ราคาชิปที่สูงขึ้นอาจทำให้เฉพาะบริษัทใหญ่เท่านั้นที่สามารถเข้าถึงเทคโนโลยีนี้
    - Moore's Law อาจถึงจุดสิ้นสุด เนื่องจากต้นทุนการผลิตต่อทรานซิสเตอร์ไม่ได้ลดลงอีกต่อไป
    - TSMC ต้องลงทุนมหาศาลในการสร้างโรงงาน 2nm ซึ่งมีต้นทุนสูงถึง $725 ล้าน
    - Intel กำลังพัฒนา A18 node ซึ่งอาจแข่งขันกับ TSMC ในอนาคต

    การพัฒนาเทคโนโลยี 2nm อาจช่วยให้ ชิปมีประสิทธิภาพสูงขึ้นและใช้พลังงานน้อยลง แต่ราคาที่สูงขึ้นอาจทำให้ เฉพาะบริษัทใหญ่เท่านั้นที่สามารถเข้าถึงเทคโนโลยีนี้ อย่างไรก็ตาม ต้องติดตามว่า Intel และผู้ผลิตรายอื่นจะสามารถแข่งขันกับ TSMC ได้หรือไม่

    https://www.techspot.com/news/108158-tsmc-2nm-wafer-prices-hit-30000-sram-yields.html
    🏭 TSMC กับยุคใหม่ของเซมิคอนดักเตอร์: ราคาชิป 2nm พุ่งสูงถึง $30,000 TSMC กำลังเข้าสู่ยุคใหม่ของการผลิตเซมิคอนดักเตอร์ โดย ชิป 2nm รุ่นล่าสุดมีราคาสูงถึง $30,000 ต่อเวเฟอร์ ซึ่งเพิ่มขึ้น 66% จากชิป 3nm และอาจเป็นสัญญาณว่า Moore's Law กำลังถึงจุดสิ้นสุด TSMC ได้พัฒนา กระบวนการผลิต N2 ซึ่งใช้ Gate-All-Around (GAA) transistor architectures เพื่อช่วยลด การรั่วไหลของพลังงาน และเพิ่มประสิทธิภาพของชิป แม้ว่า ต้นทุนการผลิตจะสูงขึ้น แต่บริษัทเทคโนโลยีรายใหญ่ เช่น Apple, Intel, Nvidia, AMD และ Qualcomm ยังคงวางแผนสั่งซื้อชิป 2nm ก่อนสิ้นปีนี้ นอกจากนี้ TSMC กำลังพัฒนา N2P และ N2X ซึ่งจะเปิดตัวในปี 2026 และ 2027 ตามลำดับ โดย N2P จะเพิ่มประสิทธิภาพ 18% และลดการใช้พลังงานลง 36% ส่วน N2X จะเพิ่มความเร็วสัญญาณนาฬิกาอีก 10% ✅ ข้อมูลจากข่าว - TSMC ตั้งราคาชิป 2nm ที่ $30,000 ต่อเวเฟอร์ เพิ่มขึ้น 66% จากชิป 3nm - กระบวนการผลิต N2 ใช้ Gate-All-Around (GAA) transistor architectures เพื่อลดการรั่วไหลของพลังงาน - Apple, Intel, Nvidia, AMD และ Qualcomm เตรียมสั่งซื้อชิป 2nm ก่อนสิ้นปีนี้ - TSMC กำลังพัฒนา N2P และ N2X ซึ่งจะเปิดตัวในปี 2026 และ 2027 - N2P จะเพิ่มประสิทธิภาพ 18% และลดการใช้พลังงานลง 36% ส่วน N2X จะเพิ่มความเร็วสัญญาณนาฬิกาอีก 10% ‼️ คำเตือนที่ควรพิจารณา - ราคาชิปที่สูงขึ้นอาจทำให้เฉพาะบริษัทใหญ่เท่านั้นที่สามารถเข้าถึงเทคโนโลยีนี้ - Moore's Law อาจถึงจุดสิ้นสุด เนื่องจากต้นทุนการผลิตต่อทรานซิสเตอร์ไม่ได้ลดลงอีกต่อไป - TSMC ต้องลงทุนมหาศาลในการสร้างโรงงาน 2nm ซึ่งมีต้นทุนสูงถึง $725 ล้าน - Intel กำลังพัฒนา A18 node ซึ่งอาจแข่งขันกับ TSMC ในอนาคต การพัฒนาเทคโนโลยี 2nm อาจช่วยให้ ชิปมีประสิทธิภาพสูงขึ้นและใช้พลังงานน้อยลง แต่ราคาที่สูงขึ้นอาจทำให้ เฉพาะบริษัทใหญ่เท่านั้นที่สามารถเข้าถึงเทคโนโลยีนี้ อย่างไรก็ตาม ต้องติดตามว่า Intel และผู้ผลิตรายอื่นจะสามารถแข่งขันกับ TSMC ได้หรือไม่ https://www.techspot.com/news/108158-tsmc-2nm-wafer-prices-hit-30000-sram-yields.html
    WWW.TECHSPOT.COM
    TSMC's 2nm wafer prices hit $30,000 as SRAM yields reportedly hit 90%
    The Commercial Times reports that TSMC's upcoming N2 2nm semiconductors will cost $30,000 per wafer, a roughly 66% increase over the company's 3nm chips. Future nodes are...
    0 Comments 0 Shares 171 Views 0 Reviews
  • 🎮 Microsoft Agility SDK DirectX: การอัปเดตครั้งใหญ่สำหรับ Ray Tracing
    Microsoft ได้เปิดตัว Agility SDK DirectX รุ่นใหม่ ซึ่งมาพร้อมกับ Shader Execution Reordering (SER) และ Opacity Micromaps (OMM) ที่ช่วยเพิ่มประสิทธิภาพของ Ray Tracing บนฮาร์ดแวร์ของ NVIDIA

    Agility SDK DirectX มี สองเวอร์ชันหลัก ได้แก่ 1.717-preview และ 1.616-retail โดยแต่ละเวอร์ชันมีฟีเจอร์ที่ช่วยให้ นักพัฒนาสามารถเพิ่มประสิทธิภาพของเกมที่ใช้ Ray Tracing ได้อย่างมีนัยสำคัญ

    Shader Execution Reordering (SER) ช่วยให้ GPU สามารถจัดเรียงเธรดใหม่ เพื่อให้การประมวลผลมีความต่อเนื่องมากขึ้น ลดความแตกต่างของการทำงาน และเพิ่มประสิทธิภาพได้สูงสุด 2 เท่า

    Opacity Micromaps (OMM) ช่วยให้ ฮาร์ดแวร์สามารถจัดการกับวัตถุที่มีความโปร่งใสได้ดีขึ้น ลดการเรียกใช้ AnyHit shader และเพิ่มประสิทธิภาพได้สูงสุด 2.3 เท่า

    นอกจากนี้ยังมี Direct3D Video Encoding Updates ที่เพิ่มฟีเจอร์ใหม่ เช่น HEVC Reference List extension และ การเข้ารหัสแบบสองรอบ เพื่อปรับปรุงคุณภาพของวิดีโอ

    ✅ ข้อมูลจากข่าว
    - Microsoft เปิดตัว Agility SDK DirectX รุ่นใหม่ที่รองรับ SER และ OMM
    - SER ช่วยให้ GPU สามารถจัดเรียงเธรดใหม่ เพิ่มประสิทธิภาพได้สูงสุด 2 เท่า
    - OMM ช่วยให้ฮาร์ดแวร์จัดการวัตถุโปร่งใสได้ดีขึ้น เพิ่มประสิทธิภาพได้สูงสุด 2.3 เท่า
    - Direct3D Video Encoding Updates เพิ่มฟีเจอร์ HEVC Reference List extension และการเข้ารหัสแบบสองรอบ
    - NVIDIA เป็นผู้ผลิตรายแรกที่รองรับ OMM บน RTX GPUs

    ‼️ คำเตือนที่ควรพิจารณา
    - SER และ OMM ต้องใช้ฮาร์ดแวร์ที่รองรับ ซึ่งอาจไม่สามารถใช้งานได้บน GPU รุ่นเก่า
    - ต้องติดตามว่าผู้ผลิตรายอื่น เช่น AMD และ Intel จะเพิ่มการรองรับ OMM หรือไม่
    - การเปลี่ยนแปลงนี้อาจทำให้เกมที่ใช้ Ray Tracing ต้องปรับปรุงโค้ดเพื่อใช้ฟีเจอร์ใหม่
    - ต้องรอดูว่าการอัปเดตนี้จะส่งผลต่อประสิทธิภาพของเกมในระยะยาวอย่างไร

    Agility SDK DirectX รุ่นใหม่ช่วยให้ Ray Tracing มีประสิทธิภาพมากขึ้น และอาจทำให้ เกมที่ใช้เทคโนโลยีนี้สามารถรันได้เร็วขึ้นบนฮาร์ดแวร์ที่รองรับ อย่างไรก็ตาม ต้องติดตามว่าผู้พัฒนาเกมจะนำฟีเจอร์เหล่านี้ไปใช้มากน้อยเพียงใด

    https://wccftech.com/microsoft-agility-sdk-directx-shader-execution-reordering-opacity-micromaps-support-huge-ray-tracing-improvements-on-nvidia/
    🎮 Microsoft Agility SDK DirectX: การอัปเดตครั้งใหญ่สำหรับ Ray Tracing Microsoft ได้เปิดตัว Agility SDK DirectX รุ่นใหม่ ซึ่งมาพร้อมกับ Shader Execution Reordering (SER) และ Opacity Micromaps (OMM) ที่ช่วยเพิ่มประสิทธิภาพของ Ray Tracing บนฮาร์ดแวร์ของ NVIDIA Agility SDK DirectX มี สองเวอร์ชันหลัก ได้แก่ 1.717-preview และ 1.616-retail โดยแต่ละเวอร์ชันมีฟีเจอร์ที่ช่วยให้ นักพัฒนาสามารถเพิ่มประสิทธิภาพของเกมที่ใช้ Ray Tracing ได้อย่างมีนัยสำคัญ Shader Execution Reordering (SER) ช่วยให้ GPU สามารถจัดเรียงเธรดใหม่ เพื่อให้การประมวลผลมีความต่อเนื่องมากขึ้น ลดความแตกต่างของการทำงาน และเพิ่มประสิทธิภาพได้สูงสุด 2 เท่า Opacity Micromaps (OMM) ช่วยให้ ฮาร์ดแวร์สามารถจัดการกับวัตถุที่มีความโปร่งใสได้ดีขึ้น ลดการเรียกใช้ AnyHit shader และเพิ่มประสิทธิภาพได้สูงสุด 2.3 เท่า นอกจากนี้ยังมี Direct3D Video Encoding Updates ที่เพิ่มฟีเจอร์ใหม่ เช่น HEVC Reference List extension และ การเข้ารหัสแบบสองรอบ เพื่อปรับปรุงคุณภาพของวิดีโอ ✅ ข้อมูลจากข่าว - Microsoft เปิดตัว Agility SDK DirectX รุ่นใหม่ที่รองรับ SER และ OMM - SER ช่วยให้ GPU สามารถจัดเรียงเธรดใหม่ เพิ่มประสิทธิภาพได้สูงสุด 2 เท่า - OMM ช่วยให้ฮาร์ดแวร์จัดการวัตถุโปร่งใสได้ดีขึ้น เพิ่มประสิทธิภาพได้สูงสุด 2.3 เท่า - Direct3D Video Encoding Updates เพิ่มฟีเจอร์ HEVC Reference List extension และการเข้ารหัสแบบสองรอบ - NVIDIA เป็นผู้ผลิตรายแรกที่รองรับ OMM บน RTX GPUs ‼️ คำเตือนที่ควรพิจารณา - SER และ OMM ต้องใช้ฮาร์ดแวร์ที่รองรับ ซึ่งอาจไม่สามารถใช้งานได้บน GPU รุ่นเก่า - ต้องติดตามว่าผู้ผลิตรายอื่น เช่น AMD และ Intel จะเพิ่มการรองรับ OMM หรือไม่ - การเปลี่ยนแปลงนี้อาจทำให้เกมที่ใช้ Ray Tracing ต้องปรับปรุงโค้ดเพื่อใช้ฟีเจอร์ใหม่ - ต้องรอดูว่าการอัปเดตนี้จะส่งผลต่อประสิทธิภาพของเกมในระยะยาวอย่างไร Agility SDK DirectX รุ่นใหม่ช่วยให้ Ray Tracing มีประสิทธิภาพมากขึ้น และอาจทำให้ เกมที่ใช้เทคโนโลยีนี้สามารถรันได้เร็วขึ้นบนฮาร์ดแวร์ที่รองรับ อย่างไรก็ตาม ต้องติดตามว่าผู้พัฒนาเกมจะนำฟีเจอร์เหล่านี้ไปใช้มากน้อยเพียงใด https://wccftech.com/microsoft-agility-sdk-directx-shader-execution-reordering-opacity-micromaps-support-huge-ray-tracing-improvements-on-nvidia/
    WCCFTECH.COM
    Microsoft Agility SDK DirectX Now Adds Shader Execution Reordering & Opacity Micromaps Support, Huge Ray Tracing Improvements On NVIDIA Hardware
    Microsoft has released its latest Agility SDK, DirectX, which brings major ray tracing improvements with SER & OMM support.
    0 Comments 0 Shares 212 Views 0 Reviews
  • 🚀 AMD เปิดตัว Ryzen AI Max 385: ตัวเลือกที่เข้าถึงได้มากขึ้นในตระกูล Strix Halo
    AMD กำลังขยายไลน์ผลิตภัณฑ์ Ryzen AI Max 385 ซึ่งเป็นรุ่นที่มี 8 คอร์ และ 16 เธรด ในตระกูล Strix Halo โดยมุ่งเน้นไปที่ตลาด แล็ปท็อปและมินิพีซี ที่ต้องการประสิทธิภาพสูงในราคาที่เข้าถึงได้มากขึ้น

    Ryzen AI Max 385 ใช้ สถาปัตยกรรม Zen 5 พร้อม 32 Compute Units ใน Radeon 8050S GPU และ NPU ที่รองรับ 50 TOPS ซึ่งช่วยให้สามารถประมวลผล AI ได้อย่างมีประสิทธิภาพ

    แม้ว่าจะมี ความเร็วสูงสุด 5 GHz ซึ่งใกล้เคียงกับรุ่นเรือธง Ryzen AI Max+ 395 แต่ผลการทดสอบ Geekbench กลับแสดงให้เห็นว่าประสิทธิภาพ ต่ำกว่าที่คาดไว้ โดยทำคะแนน 2,489 (single-core) และ 14,136 (multi-core) ซึ่งต่ำกว่ารุ่น 395 ที่ทำได้ 2,900-3,000 คะแนน

    ✅ ข้อมูลจากข่าว
    - Ryzen AI Max 385 มี 8 คอร์ และ 16 เธรด ใช้สถาปัตยกรรม Zen 5
    - มาพร้อมกับ Radeon 8050S GPU ที่มี 32 Compute Units และ NPU 50 TOPS
    - ความเร็วสูงสุด 5 GHz ใกล้เคียงกับ Ryzen AI Max+ 395
    - ผลทดสอบ Geekbench แสดงคะแนน 2,489 (single-core) และ 14,136 (multi-core)
    - HP ZBook Ultra G1a เป็นหนึ่งในแล็ปท็อปที่ใช้ Ryzen AI Max 385 และมีราคาเริ่มต้นที่ $2,599

    ‼️ คำเตือนที่ควรพิจารณา
    - ผลทดสอบ Geekbench อาจไม่สะท้อนประสิทธิภาพจริง เนื่องจากขึ้นอยู่กับการตั้งค่าพลังงานของแล็ปท็อป
    - Ryzen AI Max 385 อาจไม่สามารถแข่งขันกับรุ่นเรือธงในด้านประสิทธิภาพ AI ได้
    - ต้องติดตามว่าผู้ผลิตรายอื่นจะนำ Ryzen AI Max 385 ไปใช้ในผลิตภัณฑ์ของตนหรือไม่
    - ราคาของแล็ปท็อปที่ใช้ชิปนี้ยังค่อนข้างสูงเมื่อเทียบกับตัวเลือกอื่นในตลาด

    Ryzen AI Max 385 อาจช่วยให้ ผู้ใช้สามารถเข้าถึงเทคโนโลยี AI ได้ง่ายขึ้น โดยไม่ต้องซื้อรุ่นเรือธง อย่างไรก็ตาม ต้องติดตามว่าประสิทธิภาพจริงจะสามารถตอบโจทย์ตลาดได้หรือไม่

    https://www.tomshardware.com/pc-components/cpus/more-affordable-strix-halo-model-emerges-early-ryzen-ai-max-385-geekbench-result-reveals-an-eight-core-option
    🚀 AMD เปิดตัว Ryzen AI Max 385: ตัวเลือกที่เข้าถึงได้มากขึ้นในตระกูล Strix Halo AMD กำลังขยายไลน์ผลิตภัณฑ์ Ryzen AI Max 385 ซึ่งเป็นรุ่นที่มี 8 คอร์ และ 16 เธรด ในตระกูล Strix Halo โดยมุ่งเน้นไปที่ตลาด แล็ปท็อปและมินิพีซี ที่ต้องการประสิทธิภาพสูงในราคาที่เข้าถึงได้มากขึ้น Ryzen AI Max 385 ใช้ สถาปัตยกรรม Zen 5 พร้อม 32 Compute Units ใน Radeon 8050S GPU และ NPU ที่รองรับ 50 TOPS ซึ่งช่วยให้สามารถประมวลผล AI ได้อย่างมีประสิทธิภาพ แม้ว่าจะมี ความเร็วสูงสุด 5 GHz ซึ่งใกล้เคียงกับรุ่นเรือธง Ryzen AI Max+ 395 แต่ผลการทดสอบ Geekbench กลับแสดงให้เห็นว่าประสิทธิภาพ ต่ำกว่าที่คาดไว้ โดยทำคะแนน 2,489 (single-core) และ 14,136 (multi-core) ซึ่งต่ำกว่ารุ่น 395 ที่ทำได้ 2,900-3,000 คะแนน ✅ ข้อมูลจากข่าว - Ryzen AI Max 385 มี 8 คอร์ และ 16 เธรด ใช้สถาปัตยกรรม Zen 5 - มาพร้อมกับ Radeon 8050S GPU ที่มี 32 Compute Units และ NPU 50 TOPS - ความเร็วสูงสุด 5 GHz ใกล้เคียงกับ Ryzen AI Max+ 395 - ผลทดสอบ Geekbench แสดงคะแนน 2,489 (single-core) และ 14,136 (multi-core) - HP ZBook Ultra G1a เป็นหนึ่งในแล็ปท็อปที่ใช้ Ryzen AI Max 385 และมีราคาเริ่มต้นที่ $2,599 ‼️ คำเตือนที่ควรพิจารณา - ผลทดสอบ Geekbench อาจไม่สะท้อนประสิทธิภาพจริง เนื่องจากขึ้นอยู่กับการตั้งค่าพลังงานของแล็ปท็อป - Ryzen AI Max 385 อาจไม่สามารถแข่งขันกับรุ่นเรือธงในด้านประสิทธิภาพ AI ได้ - ต้องติดตามว่าผู้ผลิตรายอื่นจะนำ Ryzen AI Max 385 ไปใช้ในผลิตภัณฑ์ของตนหรือไม่ - ราคาของแล็ปท็อปที่ใช้ชิปนี้ยังค่อนข้างสูงเมื่อเทียบกับตัวเลือกอื่นในตลาด Ryzen AI Max 385 อาจช่วยให้ ผู้ใช้สามารถเข้าถึงเทคโนโลยี AI ได้ง่ายขึ้น โดยไม่ต้องซื้อรุ่นเรือธง อย่างไรก็ตาม ต้องติดตามว่าประสิทธิภาพจริงจะสามารถตอบโจทย์ตลาดได้หรือไม่ https://www.tomshardware.com/pc-components/cpus/more-affordable-strix-halo-model-emerges-early-ryzen-ai-max-385-geekbench-result-reveals-an-eight-core-option
    0 Comments 0 Shares 133 Views 0 Reviews
More Results