• Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้

    Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น

    Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A

    Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake

    การเปิดตัวสถาปัตยกรรม Nova Lake
    เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake
    ออกแบบใหม่ทั้ง CPU และ GPU
    รองรับการประมวลผล AI และ edge computing
    ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm)

    การเปิดตัวชิป Panther Lake
    เป็นชิปรุ่นแรกในไลน์ Nova Lake
    เตรียมเปิดตัวภายในปีนี้
    ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel

    การอัปเกรดซอฟต์แวร์
    Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake
    เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing
    ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ

    ข้อควรระวังและความท้าทาย
    การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem
    ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake
    การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก
    การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel

    https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    ⚙️ Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้ Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake ✅ การเปิดตัวสถาปัตยกรรม Nova Lake ➡️ เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake ➡️ ออกแบบใหม่ทั้ง CPU และ GPU ➡️ รองรับการประมวลผล AI และ edge computing ➡️ ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm) ✅ การเปิดตัวชิป Panther Lake ➡️ เป็นชิปรุ่นแรกในไลน์ Nova Lake ➡️ เตรียมเปิดตัวภายในปีนี้ ➡️ ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel ✅ การอัปเกรดซอฟต์แวร์ ➡️ Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake ➡️ เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing ➡️ ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ ‼️ ข้อควรระวังและความท้าทาย ⛔ การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem ⛔ ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake ⛔ การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก ⛔ การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    WCCFTECH.COM
    Intel Nova Lake CPUs Bring New Architecture & Software Upgrades, First Panther Lake SKUs This Year, 18A To Cover At least Next-Three Client & Server Products
    Intel talked about its upcoming Panther Lake, Nova Lake, Coral Rapids CPUs, and its Foundry plans involving 18A & 14A during its Q3 call.
    0 ความคิดเห็น 0 การแบ่งปัน 52 มุมมอง 0 รีวิว
  • จีนเปิดตัวมาตรฐานใหม่ “UBIOS” แทน BIOS และ UEFI เดิม – ก้าวสำคัญสู่การพึ่งพาตนเองด้านเทคโนโลยี

    จีนเดินหน้าสู่การพึ่งพาตนเองด้านเทคโนโลยีอย่างจริงจัง ล่าสุดได้เปิดตัวมาตรฐานเฟิร์มแวร์ใหม่ชื่อว่า “UBIOS” (Unified Basic Input/Output System) เพื่อแทนที่ BIOS และ UEFI ที่ใช้กันมายาวนานในคอมพิวเตอร์ทั่วโลก โดยมาตรฐานนี้ถูกพัฒนาโดยกลุ่มบริษัทเทคโนโลยีจีน 13 แห่ง รวมถึง Huawei และ CESI โดยมีเป้าหมายหลักคือการลดการพึ่งพามาตรฐานจากสหรัฐฯ และสนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86 เช่น ARM, RISC-V และ LoongArch

    UBIOS ถูกสร้างขึ้นใหม่ทั้งหมด ไม่ได้พัฒนาต่อจาก UEFI ซึ่งจีนมองว่ามีความซับซ้อนเกินไปและถูกควบคุมโดยบริษัทอเมริกันอย่าง Intel และ AMD การพัฒนาใหม่นี้ยังรองรับการใช้งานแบบ heterogeneous computing เช่น เมนบอร์ดที่มี CPU ต่างรุ่นกัน และระบบที่ใช้ชิปแบบ chiplet ซึ่งกำลังเป็นเทรนด์ใหม่ในวงการคอมพิวเตอร์

    การเปิดตัว UBIOS ถือเป็นหนึ่งในความพยายามของจีนตามแผน “Document 79” ที่มีเป้าหมายให้ประเทศเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027 ซึ่งแม้จะเป็นเป้าหมายที่ท้าทาย แต่การมีมาตรฐานเฟิร์มแวร์ของตัวเองก็เป็นก้าวสำคัญที่อาจเปลี่ยนเกมในอนาคต

    การเปิดตัวมาตรฐาน UBIOS
    เป็นเฟิร์มแวร์ใหม่ที่ใช้แทน BIOS และ UEFI
    พัฒนาโดยกลุ่มบริษัทจีน 13 แห่ง เช่น Huawei, CESI
    ไม่พัฒนาต่อจาก UEFI แต่สร้างใหม่ทั้งหมดจาก BIOS เดิม
    รองรับการใช้งานกับ CPU ที่หลากหลาย เช่น ARM, RISC-V, LoongArch
    รองรับการใช้งานแบบ heterogeneous computing และ chiplet
    เตรียมเปิดเผยรายละเอียดเพิ่มเติมในงาน Global Computing Conference ปี 2025 ที่เซินเจิ้น

    เป้าหมายของจีนในการพึ่งพาตนเองด้านเทคโนโลยี
    ลดการพึ่งพามาตรฐานจากสหรัฐฯ เช่น UEFI ที่ควบคุมโดย Intel และ AMD
    สนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86
    เป็นส่วนหนึ่งของแผน “Document 79” ที่จะเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027

    ความท้าทายและข้อควรระวัง
    ยังไม่แน่ชัดว่า UBIOS จะได้รับการยอมรับในระดับสากลหรือไม่
    อาจเผชิญกับปัญหาความเข้ากันได้กับระบบปฏิบัติการและฮาร์ดแวร์ที่มีอยู่
    การเปลี่ยนมาตรฐานเฟิร์มแวร์อาจส่งผลต่อความมั่นคงของระบบในระยะเริ่มต้น
    หากไม่สามารถสร้าง ecosystem ที่แข็งแรงได้ อาจมีชะตากรรมแบบเดียวกับ LoongArch ที่ไม่เป็นที่นิยม

    https://www.tomshardware.com/software/china-releases-ubios-standard-to-replace-uefi-huawei-backed-bios-firmware-replacement-charges-chinas-domestic-computing-goals
    🇨🇳 จีนเปิดตัวมาตรฐานใหม่ “UBIOS” แทน BIOS และ UEFI เดิม – ก้าวสำคัญสู่การพึ่งพาตนเองด้านเทคโนโลยี จีนเดินหน้าสู่การพึ่งพาตนเองด้านเทคโนโลยีอย่างจริงจัง ล่าสุดได้เปิดตัวมาตรฐานเฟิร์มแวร์ใหม่ชื่อว่า “UBIOS” (Unified Basic Input/Output System) เพื่อแทนที่ BIOS และ UEFI ที่ใช้กันมายาวนานในคอมพิวเตอร์ทั่วโลก โดยมาตรฐานนี้ถูกพัฒนาโดยกลุ่มบริษัทเทคโนโลยีจีน 13 แห่ง รวมถึง Huawei และ CESI โดยมีเป้าหมายหลักคือการลดการพึ่งพามาตรฐานจากสหรัฐฯ และสนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86 เช่น ARM, RISC-V และ LoongArch UBIOS ถูกสร้างขึ้นใหม่ทั้งหมด ไม่ได้พัฒนาต่อจาก UEFI ซึ่งจีนมองว่ามีความซับซ้อนเกินไปและถูกควบคุมโดยบริษัทอเมริกันอย่าง Intel และ AMD การพัฒนาใหม่นี้ยังรองรับการใช้งานแบบ heterogeneous computing เช่น เมนบอร์ดที่มี CPU ต่างรุ่นกัน และระบบที่ใช้ชิปแบบ chiplet ซึ่งกำลังเป็นเทรนด์ใหม่ในวงการคอมพิวเตอร์ การเปิดตัว UBIOS ถือเป็นหนึ่งในความพยายามของจีนตามแผน “Document 79” ที่มีเป้าหมายให้ประเทศเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027 ซึ่งแม้จะเป็นเป้าหมายที่ท้าทาย แต่การมีมาตรฐานเฟิร์มแวร์ของตัวเองก็เป็นก้าวสำคัญที่อาจเปลี่ยนเกมในอนาคต ✅ การเปิดตัวมาตรฐาน UBIOS ➡️ เป็นเฟิร์มแวร์ใหม่ที่ใช้แทน BIOS และ UEFI ➡️ พัฒนาโดยกลุ่มบริษัทจีน 13 แห่ง เช่น Huawei, CESI ➡️ ไม่พัฒนาต่อจาก UEFI แต่สร้างใหม่ทั้งหมดจาก BIOS เดิม ➡️ รองรับการใช้งานกับ CPU ที่หลากหลาย เช่น ARM, RISC-V, LoongArch ➡️ รองรับการใช้งานแบบ heterogeneous computing และ chiplet ➡️ เตรียมเปิดเผยรายละเอียดเพิ่มเติมในงาน Global Computing Conference ปี 2025 ที่เซินเจิ้น ✅ เป้าหมายของจีนในการพึ่งพาตนเองด้านเทคโนโลยี ➡️ ลดการพึ่งพามาตรฐานจากสหรัฐฯ เช่น UEFI ที่ควบคุมโดย Intel และ AMD ➡️ สนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86 ➡️ เป็นส่วนหนึ่งของแผน “Document 79” ที่จะเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027 ‼️ ความท้าทายและข้อควรระวัง ⛔ ยังไม่แน่ชัดว่า UBIOS จะได้รับการยอมรับในระดับสากลหรือไม่ ⛔ อาจเผชิญกับปัญหาความเข้ากันได้กับระบบปฏิบัติการและฮาร์ดแวร์ที่มีอยู่ ⛔ การเปลี่ยนมาตรฐานเฟิร์มแวร์อาจส่งผลต่อความมั่นคงของระบบในระยะเริ่มต้น ⛔ หากไม่สามารถสร้าง ecosystem ที่แข็งแรงได้ อาจมีชะตากรรมแบบเดียวกับ LoongArch ที่ไม่เป็นที่นิยม https://www.tomshardware.com/software/china-releases-ubios-standard-to-replace-uefi-huawei-backed-bios-firmware-replacement-charges-chinas-domestic-computing-goals
    WWW.TOMSHARDWARE.COM
    China releases 'UBIOS' standard to replace UEFI — Huawei-backed BIOS firmware replacement charges China's domestic computing goals
    Support for chiplets, heterogeneous computing, and a step away from U.S.-based standards are key features of China's BIOS replacement.
    0 ความคิดเห็น 0 การแบ่งปัน 55 มุมมอง 0 รีวิว
  • “Tiny Corp ปลดล็อก Nvidia GPU บน MacBook ARM ผ่าน USB4 – เปิดทางใหม่ให้สาย AI บน macOS!”

    ใครที่ใช้ MacBook รุ่นใหม่ที่ใช้ชิป M-series อาจเคยรู้สึกเสียดายที่ไม่สามารถใช้การ์ดจอแยกจาก Nvidia ได้ เพราะ macOS บน ARM ไม่มีไดรเวอร์รองรับแบบเป็นทางการ แต่ล่าสุด Tiny Corp สตาร์ทอัพสาย AI ได้สร้างความฮือฮา ด้วยการพัฒนาไดรเวอร์ที่ทำให้ MacBook ARM สามารถใช้งาน Nvidia GPU ได้ผ่าน USB4 หรือ Thunderbolt 4 โดยใช้ eGPU docking station!

    ก่อนหน้านี้ Tiny Corp เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3 ได้สำเร็จมาแล้ว ซึ่งถือว่าเป็นความสำเร็จครั้งแรกในโลก และครั้งนี้พวกเขาได้ต่อยอดไปยัง Nvidia โดยรองรับการ์ด RTX รุ่น 30, 40 และ 50 series ส่วน RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเพิ่มเติม ส่วน GTX series ไม่รองรับ เพราะไม่มี GPU system processor

    การใช้งาน Nvidia GPU บน MacBook นี้ไม่ได้เพื่อการแสดงผลกราฟิก แต่เน้นสำหรับงาน AI โดยเฉพาะ เช่น การรันโมเดล LLM หรืองาน inference ที่ต้องใช้พลังประมวลผลสูง ซึ่งการ์ดจอของ Apple ยังไม่สามารถเทียบได้ในด้านนี้

    Tiny Corp ได้โชว์ตัวอย่างการใช้งานผ่านแพลตฟอร์ม X โดยใช้ MacBook Pro M3 Max เชื่อมต่อกับ RTX GPU ผ่าน dock รุ่น ADT-UT3G และรัน Tinygrad ได้อย่างลื่นไหล ถือเป็นก้าวสำคัญสำหรับนักพัฒนา AI ที่ใช้ macOS

    ความสำเร็จของ Tiny Corp
    พัฒนาไดรเวอร์ให้ MacBook ARM ใช้งาน Nvidia GPU ผ่าน USB4/Thunderbolt 4
    รองรับ RTX 30, 40, 50 series สำหรับงาน AI
    RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเอง
    GTX series ไม่รองรับ เพราะไม่มี GPU system processor
    ใช้ dock รุ่น ADT-UT3G เชื่อมต่อผ่าน USB4
    รัน Tinygrad บน MacBook Pro M3 Max ได้สำเร็จ
    ไม่รองรับการแสดงผลกราฟิก แต่เน้นงาน AI เช่น LLM และ inference

    ความเป็นมาของเทคโนโลยี
    ก่อนหน้านี้เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3
    USB4/Thunderbolt 4 รองรับ PCIe โดยตรง ทำให้เชื่อมต่อ eGPU ได้ง่ายขึ้น
    Apple ไม่เคยรองรับ Nvidia GPU บน macOS ARM อย่างเป็นทางการ
    นักพัฒนาต้องสร้างไดรเวอร์เองเพื่อใช้งาน eGPU บน MacBook

    ข้อควรระวังและคำเตือน
    ใช้งานได้เฉพาะสำหรับงาน AI ไม่รองรับการแสดงผลหน้าจอ
    ต้องใช้การ์ดที่มี GPU system processor เท่านั้น
    RTX 20 series ต้องปรับแต่งเพิ่มเติม ไม่ใช่ plug-and-play
    GTX series ไม่สามารถใช้งานได้เลย
    การติดตั้งไดรเวอร์ต้องใช้ความเข้าใจเชิงเทคนิคพอสมควร

    https://www.tomshardware.com/pc-components/gpus/tiny-corp-successfully-runs-an-nvidia-gpu-on-arm-macbook-through-usb4-using-an-external-gpu-docking-station
    🔌 “Tiny Corp ปลดล็อก Nvidia GPU บน MacBook ARM ผ่าน USB4 – เปิดทางใหม่ให้สาย AI บน macOS!” ใครที่ใช้ MacBook รุ่นใหม่ที่ใช้ชิป M-series อาจเคยรู้สึกเสียดายที่ไม่สามารถใช้การ์ดจอแยกจาก Nvidia ได้ เพราะ macOS บน ARM ไม่มีไดรเวอร์รองรับแบบเป็นทางการ แต่ล่าสุด Tiny Corp สตาร์ทอัพสาย AI ได้สร้างความฮือฮา ด้วยการพัฒนาไดรเวอร์ที่ทำให้ MacBook ARM สามารถใช้งาน Nvidia GPU ได้ผ่าน USB4 หรือ Thunderbolt 4 โดยใช้ eGPU docking station! ก่อนหน้านี้ Tiny Corp เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3 ได้สำเร็จมาแล้ว ซึ่งถือว่าเป็นความสำเร็จครั้งแรกในโลก และครั้งนี้พวกเขาได้ต่อยอดไปยัง Nvidia โดยรองรับการ์ด RTX รุ่น 30, 40 และ 50 series ส่วน RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเพิ่มเติม ส่วน GTX series ไม่รองรับ เพราะไม่มี GPU system processor การใช้งาน Nvidia GPU บน MacBook นี้ไม่ได้เพื่อการแสดงผลกราฟิก แต่เน้นสำหรับงาน AI โดยเฉพาะ เช่น การรันโมเดล LLM หรืองาน inference ที่ต้องใช้พลังประมวลผลสูง ซึ่งการ์ดจอของ Apple ยังไม่สามารถเทียบได้ในด้านนี้ Tiny Corp ได้โชว์ตัวอย่างการใช้งานผ่านแพลตฟอร์ม X โดยใช้ MacBook Pro M3 Max เชื่อมต่อกับ RTX GPU ผ่าน dock รุ่น ADT-UT3G และรัน Tinygrad ได้อย่างลื่นไหล ถือเป็นก้าวสำคัญสำหรับนักพัฒนา AI ที่ใช้ macOS ✅ ความสำเร็จของ Tiny Corp ➡️ พัฒนาไดรเวอร์ให้ MacBook ARM ใช้งาน Nvidia GPU ผ่าน USB4/Thunderbolt 4 ➡️ รองรับ RTX 30, 40, 50 series สำหรับงาน AI ➡️ RTX 20 series อาจใช้ได้ แต่ต้องปรับแต่งเอง ➡️ GTX series ไม่รองรับ เพราะไม่มี GPU system processor ➡️ ใช้ dock รุ่น ADT-UT3G เชื่อมต่อผ่าน USB4 ➡️ รัน Tinygrad บน MacBook Pro M3 Max ได้สำเร็จ ➡️ ไม่รองรับการแสดงผลกราฟิก แต่เน้นงาน AI เช่น LLM และ inference ✅ ความเป็นมาของเทคโนโลยี ➡️ ก่อนหน้านี้เคยทำให้ AMD GPU ทำงานบน MacBook ARM ผ่าน USB3 ➡️ USB4/Thunderbolt 4 รองรับ PCIe โดยตรง ทำให้เชื่อมต่อ eGPU ได้ง่ายขึ้น ➡️ Apple ไม่เคยรองรับ Nvidia GPU บน macOS ARM อย่างเป็นทางการ ➡️ นักพัฒนาต้องสร้างไดรเวอร์เองเพื่อใช้งาน eGPU บน MacBook ‼️ ข้อควรระวังและคำเตือน ⛔ ใช้งานได้เฉพาะสำหรับงาน AI ไม่รองรับการแสดงผลหน้าจอ ⛔ ต้องใช้การ์ดที่มี GPU system processor เท่านั้น ⛔ RTX 20 series ต้องปรับแต่งเพิ่มเติม ไม่ใช่ plug-and-play ⛔ GTX series ไม่สามารถใช้งานได้เลย ⛔ การติดตั้งไดรเวอร์ต้องใช้ความเข้าใจเชิงเทคนิคพอสมควร https://www.tomshardware.com/pc-components/gpus/tiny-corp-successfully-runs-an-nvidia-gpu-on-arm-macbook-through-usb4-using-an-external-gpu-docking-station
    0 ความคิดเห็น 0 การแบ่งปัน 76 มุมมอง 0 รีวิว
  • “ByteDance จับมือ AMD, Intel, Arm และ Google สร้างมาตรฐานใหม่ให้เฟิร์มแวร์ – เปิดตัวโครงการ openSFI”

    ใครจะคิดว่าเจ้าของ TikTok อย่าง ByteDance จะมาร่วมวงกับยักษ์ใหญ่สายฮาร์ดแวร์อย่าง AMD, Intel, Arm และ Google ในการพัฒนาเฟิร์มแวร์ระดับล่างของระบบคอมพิวเตอร์ ล่าสุดพวกเขาร่วมกันเปิดตัวโครงการชื่อว่า “openSFI” (Open Silicon Firmware Interface) ซึ่งเป็นความพยายามครั้งใหญ่ในการสร้างมาตรฐานกลางสำหรับการสื่อสารระหว่างเฟิร์มแวร์กับชิป CPU

    openSFI มีเป้าหมายเพื่อให้เฟิร์มแวร์สามารถทำงานร่วมกับชิปจากผู้ผลิตต่าง ๆ ได้อย่างไร้รอยต่อ โดยไม่ต้องเขียนโค้ดใหม่ทุกครั้งที่เปลี่ยนแพลตฟอร์ม ซึ่งจะช่วยลดต้นทุน ลดเวลาในการพัฒนา และเพิ่มความยั่งยืนให้กับอุตสาหกรรม

    โครงการนี้ต่อยอดจากความพยายามของ AMD ที่ชื่อว่า openSIL ซึ่งเป็นเฟิร์มแวร์แบบโอเพ่นซอร์สที่มาแทน AGESA และของ Intel ที่ชื่อว่า FSP (Firmware Support Package) โดย openSFI จะเป็นเลเยอร์กลางที่นั่งอยู่เหนือ openSIL และ FSP เพื่อให้เฟิร์มแวร์เรียกใช้ฟังก์ชันต่าง ๆ ได้แบบมาตรฐานเดียว

    ที่น่าสนใจคือ ByteDance เป็นบริษัทจีนเพียงรายเดียวที่เข้าร่วมโครงการนี้ ท่ามกลางบริษัทตะวันตกยักษ์ใหญ่มากมาย เช่น Microsoft, HPE, MiTAC และ Google ซึ่งถือเป็นความร่วมมือข้ามชาติที่หาได้ยากในยุคที่เทคโนโลยีกลายเป็นเรื่องภูมิรัฐศาสตร์

    โครงการ openSFI คืออะไร
    เป็นมาตรฐานกลางสำหรับการเชื่อมต่อระหว่างเฟิร์มแวร์กับชิป CPU
    ช่วยให้เฟิร์มแวร์ทำงานร่วมกับชิปจากหลายค่ายได้ง่ายขึ้น
    ลดต้นทุนและเวลาในการพัฒนาเฟิร์มแวร์
    เพิ่มความสามารถในการนำกลับมาใช้ซ้ำ (reusability)
    ส่งเสริมความยั่งยืนในอุตสาหกรรมฮาร์ดแวร์

    ความร่วมมือระดับโลก
    นำโดย AMD, Intel, Arm, Google และ ByteDance
    ByteDance เป็นบริษัทจีนเพียงรายเดียวในโครงการ
    มีบริษัทอื่นร่วมด้วย เช่น Microsoft, HPE, MiTAC
    โครงการต่อยอดจาก AMD openSIL และ Intel FSP
    openSFI จะเป็นเลเยอร์กลางที่เชื่อมทั้งสองระบบเข้าด้วยกัน

    เป้าหมายของ openSFI
    สร้าง API ที่เสถียรและเป็นมาตรฐาน
    ให้ host firmware เรียกใช้ฟังก์ชันของชิปได้แบบไม่ขึ้นกับผู้ผลิต
    ลดความซ้ำซ้อนในการพัฒนาและการตรวจสอบระบบ
    สนับสนุนการพัฒนาเฟิร์มแวร์แบบโมดูลาร์และขยายได้

    https://www.techradar.com/pro/tiktok-owner-is-collaborating-with-amd-arm-and-intel-on-making-firmware-solutions-better-bytedance-is-the-only-chinese-company-participating-in-this-major-project
    🤝 “ByteDance จับมือ AMD, Intel, Arm และ Google สร้างมาตรฐานใหม่ให้เฟิร์มแวร์ – เปิดตัวโครงการ openSFI” ใครจะคิดว่าเจ้าของ TikTok อย่าง ByteDance จะมาร่วมวงกับยักษ์ใหญ่สายฮาร์ดแวร์อย่าง AMD, Intel, Arm และ Google ในการพัฒนาเฟิร์มแวร์ระดับล่างของระบบคอมพิวเตอร์ ล่าสุดพวกเขาร่วมกันเปิดตัวโครงการชื่อว่า “openSFI” (Open Silicon Firmware Interface) ซึ่งเป็นความพยายามครั้งใหญ่ในการสร้างมาตรฐานกลางสำหรับการสื่อสารระหว่างเฟิร์มแวร์กับชิป CPU openSFI มีเป้าหมายเพื่อให้เฟิร์มแวร์สามารถทำงานร่วมกับชิปจากผู้ผลิตต่าง ๆ ได้อย่างไร้รอยต่อ โดยไม่ต้องเขียนโค้ดใหม่ทุกครั้งที่เปลี่ยนแพลตฟอร์ม ซึ่งจะช่วยลดต้นทุน ลดเวลาในการพัฒนา และเพิ่มความยั่งยืนให้กับอุตสาหกรรม โครงการนี้ต่อยอดจากความพยายามของ AMD ที่ชื่อว่า openSIL ซึ่งเป็นเฟิร์มแวร์แบบโอเพ่นซอร์สที่มาแทน AGESA และของ Intel ที่ชื่อว่า FSP (Firmware Support Package) โดย openSFI จะเป็นเลเยอร์กลางที่นั่งอยู่เหนือ openSIL และ FSP เพื่อให้เฟิร์มแวร์เรียกใช้ฟังก์ชันต่าง ๆ ได้แบบมาตรฐานเดียว ที่น่าสนใจคือ ByteDance เป็นบริษัทจีนเพียงรายเดียวที่เข้าร่วมโครงการนี้ ท่ามกลางบริษัทตะวันตกยักษ์ใหญ่มากมาย เช่น Microsoft, HPE, MiTAC และ Google ซึ่งถือเป็นความร่วมมือข้ามชาติที่หาได้ยากในยุคที่เทคโนโลยีกลายเป็นเรื่องภูมิรัฐศาสตร์ ✅ โครงการ openSFI คืออะไร ➡️ เป็นมาตรฐานกลางสำหรับการเชื่อมต่อระหว่างเฟิร์มแวร์กับชิป CPU ➡️ ช่วยให้เฟิร์มแวร์ทำงานร่วมกับชิปจากหลายค่ายได้ง่ายขึ้น ➡️ ลดต้นทุนและเวลาในการพัฒนาเฟิร์มแวร์ ➡️ เพิ่มความสามารถในการนำกลับมาใช้ซ้ำ (reusability) ➡️ ส่งเสริมความยั่งยืนในอุตสาหกรรมฮาร์ดแวร์ ✅ ความร่วมมือระดับโลก ➡️ นำโดย AMD, Intel, Arm, Google และ ByteDance ➡️ ByteDance เป็นบริษัทจีนเพียงรายเดียวในโครงการ ➡️ มีบริษัทอื่นร่วมด้วย เช่น Microsoft, HPE, MiTAC ➡️ โครงการต่อยอดจาก AMD openSIL และ Intel FSP ➡️ openSFI จะเป็นเลเยอร์กลางที่เชื่อมทั้งสองระบบเข้าด้วยกัน ✅ เป้าหมายของ openSFI ➡️ สร้าง API ที่เสถียรและเป็นมาตรฐาน ➡️ ให้ host firmware เรียกใช้ฟังก์ชันของชิปได้แบบไม่ขึ้นกับผู้ผลิต ➡️ ลดความซ้ำซ้อนในการพัฒนาและการตรวจสอบระบบ ➡️ สนับสนุนการพัฒนาเฟิร์มแวร์แบบโมดูลาร์และขยายได้ https://www.techradar.com/pro/tiktok-owner-is-collaborating-with-amd-arm-and-intel-on-making-firmware-solutions-better-bytedance-is-the-only-chinese-company-participating-in-this-major-project
    WWW.TECHRADAR.COM
    Firmware wars take a new turn as openSFI promises to break vendor barriers
    OpenSFI layers above AMD’s openSIL and Intel’s FSP for unified function calls
    0 ความคิดเห็น 0 การแบ่งปัน 81 มุมมอง 0 รีวิว
  • “Intel Core Ultra 200S Plus หลุดสเปก! Arrow Lake Refresh แรงทะลุชาร์ต – พร้อมชน Ryzen Zen 5”

    Intel เตรียมเปิดตัวซีพียูรุ่นใหม่ในตระกูล Core Ultra 200S Plus ที่ใช้ชื่อว่า “Arrow Lake Refresh” ซึ่งจะเปิดตัวต้นปี 2026 โดยมีสองรุ่นที่หลุดข้อมูลออกมาแล้ว คือ Core Ultra 9 290K Plus และ Core Ultra 7 270K Plus

    จุดเด่นของซีรีส์นี้คือการเพิ่มจำนวนคอร์ในบางรุ่น และเพิ่มความเร็วสัญญาณนาฬิกาในรุ่นอื่น ๆ โดยยังใช้ซ็อกเก็ต LGA 1851 เหมือนเดิม พร้อมฟีเจอร์ใหม่ที่เรียกว่า “200S Plus Boost” เพื่อเพิ่มประสิทธิภาพให้สูสีกับ Ryzen Zen 5 จาก AMD

    Core Ultra 7 270K Plus มี 24 คอร์ (8 Performance + 16 Efficient) มากกว่ารุ่นก่อนหน้า 265K ที่มีแค่ 20 คอร์ พร้อมแคช L3 ขนาด 36MB และความเร็วบูสต์ที่ 5.50GHz เท่ากับรุ่นเดิม แต่ประสิทธิภาพโดยรวมดีขึ้น โดยทำคะแนน Geekbench 6 ได้ 3205 คะแนนแบบ single-core และ 22,206 คะแนนแบบ multi-core ซึ่งใกล้เคียงกับรุ่นท็อปอย่าง Core Ultra 9 285K

    ส่วน Core Ultra 9 290K Plus ยังไม่มีข้อมูลเต็ม แต่คาดว่าจะใช้คอนฟิก 24 คอร์เหมือนเดิม เพิ่มความเร็วและ TDP เพื่อดันประสิทธิภาพให้สูงขึ้นอีก

    ทั้งสองรุ่นถูกทดสอบในระบบ OEM ของ Lenovo ที่ใช้แรม DDR5 48GB ความเร็ว 7200MT/s และการ์ดจอ RTX 5090D ซึ่งเป็นสเปกระดับสูงที่ช่วยให้ซีพียูแสดงศักยภาพได้เต็มที่

    Intel ยังมีแผนเปิดตัว Nova Lake-S ในปีหน้า ซึ่งจะใช้ซ็อกเก็ตใหม่ LGA 1954 และเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายเดสก์ท็อป

    สเปกและประสิทธิภาพของ Arrow Lake Refresh
    Core Ultra 7 270K Plus มี 24 คอร์ (8P + 16E)
    เพิ่มจากรุ่นก่อนหน้า 265K ที่มี 20 คอร์
    แคช L3 ขนาด 36MB มากกว่ารุ่นเดิม
    ความเร็วบูสต์ 5.50GHz เท่ากับรุ่นก่อน
    คะแนน Geekbench 6: 3205 (ST) และ 22,206 (MT)
    ทดสอบในระบบ Lenovo OEM พร้อมแรม DDR5 7200MT/s
    ใช้ซ็อกเก็ต LGA 1851 เหมือนรุ่นก่อน
    มีฟีเจอร์ใหม่ “200S Plus Boost” เพิ่มประสิทธิภาพ
    Core Ultra 9 290K Plus คาดว่าจะเพิ่มความเร็วและ TDP
    เตรียมเปิดตัวต้นปี 2026

    แผนอนาคตของ Intel
    เตรียมเปิดตัว Nova Lake-S ในปีหน้า
    ใช้ซ็อกเก็ตใหม่ LGA 1954
    เป็นการเปลี่ยนแปลงครั้งใหญ่ในสายเดสก์ท็อป
    Arrow Lake Refresh อาจเป็นรุ่นสุดท้ายของ LGA 1851

    https://wccftech.com/intel-core-ultra-200s-plus-arrow-lake-refresh-cpus-leak-9-290k-plus-7-270k-plus-benchmark/
    🚀 “Intel Core Ultra 200S Plus หลุดสเปก! Arrow Lake Refresh แรงทะลุชาร์ต – พร้อมชน Ryzen Zen 5” Intel เตรียมเปิดตัวซีพียูรุ่นใหม่ในตระกูล Core Ultra 200S Plus ที่ใช้ชื่อว่า “Arrow Lake Refresh” ซึ่งจะเปิดตัวต้นปี 2026 โดยมีสองรุ่นที่หลุดข้อมูลออกมาแล้ว คือ Core Ultra 9 290K Plus และ Core Ultra 7 270K Plus จุดเด่นของซีรีส์นี้คือการเพิ่มจำนวนคอร์ในบางรุ่น และเพิ่มความเร็วสัญญาณนาฬิกาในรุ่นอื่น ๆ โดยยังใช้ซ็อกเก็ต LGA 1851 เหมือนเดิม พร้อมฟีเจอร์ใหม่ที่เรียกว่า “200S Plus Boost” เพื่อเพิ่มประสิทธิภาพให้สูสีกับ Ryzen Zen 5 จาก AMD Core Ultra 7 270K Plus มี 24 คอร์ (8 Performance + 16 Efficient) มากกว่ารุ่นก่อนหน้า 265K ที่มีแค่ 20 คอร์ พร้อมแคช L3 ขนาด 36MB และความเร็วบูสต์ที่ 5.50GHz เท่ากับรุ่นเดิม แต่ประสิทธิภาพโดยรวมดีขึ้น โดยทำคะแนน Geekbench 6 ได้ 3205 คะแนนแบบ single-core และ 22,206 คะแนนแบบ multi-core ซึ่งใกล้เคียงกับรุ่นท็อปอย่าง Core Ultra 9 285K ส่วน Core Ultra 9 290K Plus ยังไม่มีข้อมูลเต็ม แต่คาดว่าจะใช้คอนฟิก 24 คอร์เหมือนเดิม เพิ่มความเร็วและ TDP เพื่อดันประสิทธิภาพให้สูงขึ้นอีก ทั้งสองรุ่นถูกทดสอบในระบบ OEM ของ Lenovo ที่ใช้แรม DDR5 48GB ความเร็ว 7200MT/s และการ์ดจอ RTX 5090D ซึ่งเป็นสเปกระดับสูงที่ช่วยให้ซีพียูแสดงศักยภาพได้เต็มที่ Intel ยังมีแผนเปิดตัว Nova Lake-S ในปีหน้า ซึ่งจะใช้ซ็อกเก็ตใหม่ LGA 1954 และเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายเดสก์ท็อป ✅ สเปกและประสิทธิภาพของ Arrow Lake Refresh ➡️ Core Ultra 7 270K Plus มี 24 คอร์ (8P + 16E) ➡️ เพิ่มจากรุ่นก่อนหน้า 265K ที่มี 20 คอร์ ➡️ แคช L3 ขนาด 36MB มากกว่ารุ่นเดิม ➡️ ความเร็วบูสต์ 5.50GHz เท่ากับรุ่นก่อน ➡️ คะแนน Geekbench 6: 3205 (ST) และ 22,206 (MT) ➡️ ทดสอบในระบบ Lenovo OEM พร้อมแรม DDR5 7200MT/s ➡️ ใช้ซ็อกเก็ต LGA 1851 เหมือนรุ่นก่อน ➡️ มีฟีเจอร์ใหม่ “200S Plus Boost” เพิ่มประสิทธิภาพ ➡️ Core Ultra 9 290K Plus คาดว่าจะเพิ่มความเร็วและ TDP ➡️ เตรียมเปิดตัวต้นปี 2026 ✅ แผนอนาคตของ Intel ➡️ เตรียมเปิดตัว Nova Lake-S ในปีหน้า ➡️ ใช้ซ็อกเก็ตใหม่ LGA 1954 ➡️ เป็นการเปลี่ยนแปลงครั้งใหญ่ในสายเดสก์ท็อป ➡️ Arrow Lake Refresh อาจเป็นรุ่นสุดท้ายของ LGA 1851 https://wccftech.com/intel-core-ultra-200s-plus-arrow-lake-refresh-cpus-leak-9-290k-plus-7-270k-plus-benchmark/
    WCCFTECH.COM
    Intel Core Ultra 200S Plus "Arrow Lake Refresh" CPUs Leak: Flagship Is Ultra 9 290K Plus, Ultra 7 270K Plus Benchmarked
    Intel's upcoming Core Ultra 200S Plus "Arrow Lake Refresh" CPUs, such as the Ultra 9 290K Plus & Ultra 7 270K Plus, have leaked.
    0 ความคิดเห็น 0 การแบ่งปัน 59 มุมมอง 0 รีวิว
  • “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก”

    ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน

    แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้

    นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี

    Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์

    แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น

    กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC
    พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน
    เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ
    จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI
    เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น
    ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์
    ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง
    ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย

    คู่แข่งและสถานการณ์ในตลาด
    Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง
    Amazon มี Trainium, Google มี TPU, Meta มี MTIA
    เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล
    ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน

    ความท้าทายและคำเตือน
    ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน
    หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด
    การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ
    ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ
    การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว

    https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    ⚙️ “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก” ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้ นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น ✅ กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC ➡️ พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน ➡️ เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ ➡️ จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI ➡️ เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น ➡️ ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ ➡️ ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง ➡️ ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย ✅ คู่แข่งและสถานการณ์ในตลาด ➡️ Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง ➡️ Amazon มี Trainium, Google มี TPU, Meta มี MTIA ➡️ เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล ➡️ ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน ‼️ ความท้าทายและคำเตือน ⛔ ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน ⛔ หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด ⛔ การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ ⛔ ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ ⛔ การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    WCCFTECH.COM
    NVIDIA Has Already Geared Up to Challenge Big Tech’s Custom AI Chip Ambitions Through AI Alliances & an Unrivaled Product Roadmap
    There's always a concern about how ASICs could pose a challenge to NVIDIA's but it seems like the firm have the prepared 'right weapons'.
    0 ความคิดเห็น 0 การแบ่งปัน 72 มุมมอง 0 รีวิว
  • “AMD เตรียมนำ Krackan Point APU ลงแพลตฟอร์ม AM5 — BIOS ใหม่ AGESA 1.2.7.0 เพิ่มการรองรับ Zen 5” — เมื่อ APU ที่เคยอยู่แค่ในโน้ตบุ๊กอาจกลายเป็นขุมพลังใหม่ของเดสก์ท็อป

    รายงานจาก Wccftech เผยว่า AMD อาจนำ APU ตระกูล Krackan Point ซึ่งใช้สถาปัตยกรรม Zen 5 มาสู่แพลตฟอร์มเดสก์ท็อป AM5 ในเร็ว ๆ นี้ โดยมีเบาะแสจากไฟล์สเปรดชีตที่แสดงว่า BIOS เวอร์ชันใหม่ AGESA 1.2.7.0 ได้เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ซึ่งตรงกับ Krackan Point ทั้งรุ่น 1 และ 2

    Krackan Point เป็น APU ที่เปิดตัวในไตรมาสแรกของปี 2025 สำหรับโน้ตบุ๊กระดับกลาง โดยอยู่ในซีรีส์ Ryzen AI 300 และใช้กราฟิก RDNA 3.5 พร้อม NPU XDNA 2 สำหรับงาน AI inference

    หากนำมาลง AM5 จริง จะเป็นครั้งแรกที่ Zen 5 APU ปรากฏบนเดสก์ท็อป เพราะปัจจุบัน Ryzen 8000G ยังใช้ Zen 4 และไม่สามารถเทียบกับ APU มือถือรุ่นใหม่อย่าง Strix Point หรือ Strix Halo ได้เลย

    มีข่าวลือว่า AMD จะเปิดตัว Ryzen 9000G หรือ 10000G ในไตรมาสสุดท้ายของปี 2025 โดยใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ซึ่งจะให้ประสิทธิภาพใกล้เคียงกับ Krackan Point มือถือ แต่มีพลังงานสูงกว่า ทำให้ประสิทธิภาพโดยรวมดีกว่า

    AGESA BIOS 1.2.7.0 เพิ่มการรองรับไมโครโค้ด “00B60Fxx”
    ซึ่งตรงกับ Krackan Point APU ทั้งรุ่น 1 และ 2

    Krackan Point เป็น APU Zen 5 ที่เปิดตัวใน Q1 2025 สำหรับโน้ตบุ๊ก
    อยู่ในซีรีส์ Ryzen AI 300 พร้อมกราฟิก RDNA 3.5 และ NPU XDNA 2

    ปัจจุบัน Ryzen 8000G บนเดสก์ท็อปยังใช้ Zen 4
    ไม่สามารถเทียบกับ APU มือถือรุ่นใหม่ได้

    มีข่าวลือว่า Ryzen 9000G หรือ 10000G จะเปิดตัวใน Q4 2025
    ใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5

    หาก Krackan Point มาลง AM5 จะเป็น Zen 5 APU รุ่นแรกบนเดสก์ท็อป
    เพิ่มทางเลือกให้ผู้ใช้ที่ต้องการประสิทธิภาพแบบ APU

    https://wccftech.com/amd-krackan-point-is-reportedly-coming-to-am5-new-agesa-bios-adds-support-for-zen-5-apus/
    🧠 “AMD เตรียมนำ Krackan Point APU ลงแพลตฟอร์ม AM5 — BIOS ใหม่ AGESA 1.2.7.0 เพิ่มการรองรับ Zen 5” — เมื่อ APU ที่เคยอยู่แค่ในโน้ตบุ๊กอาจกลายเป็นขุมพลังใหม่ของเดสก์ท็อป รายงานจาก Wccftech เผยว่า AMD อาจนำ APU ตระกูล Krackan Point ซึ่งใช้สถาปัตยกรรม Zen 5 มาสู่แพลตฟอร์มเดสก์ท็อป AM5 ในเร็ว ๆ นี้ โดยมีเบาะแสจากไฟล์สเปรดชีตที่แสดงว่า BIOS เวอร์ชันใหม่ AGESA 1.2.7.0 ได้เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ซึ่งตรงกับ Krackan Point ทั้งรุ่น 1 และ 2 Krackan Point เป็น APU ที่เปิดตัวในไตรมาสแรกของปี 2025 สำหรับโน้ตบุ๊กระดับกลาง โดยอยู่ในซีรีส์ Ryzen AI 300 และใช้กราฟิก RDNA 3.5 พร้อม NPU XDNA 2 สำหรับงาน AI inference หากนำมาลง AM5 จริง จะเป็นครั้งแรกที่ Zen 5 APU ปรากฏบนเดสก์ท็อป เพราะปัจจุบัน Ryzen 8000G ยังใช้ Zen 4 และไม่สามารถเทียบกับ APU มือถือรุ่นใหม่อย่าง Strix Point หรือ Strix Halo ได้เลย มีข่าวลือว่า AMD จะเปิดตัว Ryzen 9000G หรือ 10000G ในไตรมาสสุดท้ายของปี 2025 โดยใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ซึ่งจะให้ประสิทธิภาพใกล้เคียงกับ Krackan Point มือถือ แต่มีพลังงานสูงกว่า ทำให้ประสิทธิภาพโดยรวมดีกว่า ✅ AGESA BIOS 1.2.7.0 เพิ่มการรองรับไมโครโค้ด “00B60Fxx” ➡️ ซึ่งตรงกับ Krackan Point APU ทั้งรุ่น 1 และ 2 ✅ Krackan Point เป็น APU Zen 5 ที่เปิดตัวใน Q1 2025 สำหรับโน้ตบุ๊ก ➡️ อยู่ในซีรีส์ Ryzen AI 300 พร้อมกราฟิก RDNA 3.5 และ NPU XDNA 2 ✅ ปัจจุบัน Ryzen 8000G บนเดสก์ท็อปยังใช้ Zen 4 ➡️ ไม่สามารถเทียบกับ APU มือถือรุ่นใหม่ได้ ✅ มีข่าวลือว่า Ryzen 9000G หรือ 10000G จะเปิดตัวใน Q4 2025 ➡️ ใช้ Zen 5 แบบ 8 คอร์ 16 เธรด และกราฟิก RDNA 3.5 ✅ หาก Krackan Point มาลง AM5 จะเป็น Zen 5 APU รุ่นแรกบนเดสก์ท็อป ➡️ เพิ่มทางเลือกให้ผู้ใช้ที่ต้องการประสิทธิภาพแบบ APU https://wccftech.com/amd-krackan-point-is-reportedly-coming-to-am5-new-agesa-bios-adds-support-for-zen-5-apus/
    WCCFTECH.COM
    AMD Krackan Point Is Reportedly Coming To AM5; New AGESA BIOS Adds Support For Zen 5 APUs
    A new document leak has shown that AMD's Krackan Point APUs might come to the desktop AM5 platform as well.
    0 ความคิดเห็น 0 การแบ่งปัน 69 มุมมอง 0 รีวิว
  • “Microsoft ปล่อยให้ Asus กำหนดราคาของ Xbox ROG Ally — พร้อมเผยกำลังพัฒนาเครื่องเกมรุ่นใหม่ร่วมกับ AMD”

    Xbox ROG Ally ซึ่งเป็นเครื่องเกมพกพารุ่นใหม่จากความร่วมมือระหว่าง Microsoft และ Asus ได้เปิดตัวพร้อมเสียงตอบรับหลากหลาย โดยเฉพาะเรื่อง “ราคา” ที่สูงเกินคาด — $599 สำหรับรุ่นพื้นฐาน และ $999 สำหรับรุ่น Ally X

    ล่าสุด Sarah Bond ประธาน Xbox ออกมาเปิดเผยว่า Microsoft ให้สิทธิ์ Asus กำหนดราคาทั้งหมดเอง โดยอิงจากความเข้าใจตลาดและฟีเจอร์ที่ผู้ใช้ต้องการ ซึ่งทำให้ราคาสุดท้ายสูงกว่าที่หลายคนคาดไว้ (จากข่าวลือเดิมที่ $549 และ $899)

    แม้ราคาจะสูง แต่ Microsoft ยืนยันว่า “ความต้องการล้นหลาม” และ Ally X ขายหมดทันทีที่เปิดพรีออเดอร์บน Microsoft Store

    อย่างไรก็ตาม หลายคนยังตั้งคำถามว่าเครื่องนี้ “เป็น Xbox จริงหรือไม่” เพราะแม้จะใช้ระบบ Windows และมี Xbox branding แต่ประสิทธิภาพของรุ่นพื้นฐานกลับใกล้เคียงกับ Steam Deck มากกว่าที่ควรจะเป็นเมื่อเทียบกับราคา

    https://www.tomshardware.com/video-games/handheld-gaming/microsoft-let-asus-set-the-prices-for-xbox-rog-ally-confirms-xbox-president-work-on-next-gen-console-hardware-is-already-underway-with-amd
    🎮 “Microsoft ปล่อยให้ Asus กำหนดราคาของ Xbox ROG Ally — พร้อมเผยกำลังพัฒนาเครื่องเกมรุ่นใหม่ร่วมกับ AMD” Xbox ROG Ally ซึ่งเป็นเครื่องเกมพกพารุ่นใหม่จากความร่วมมือระหว่าง Microsoft และ Asus ได้เปิดตัวพร้อมเสียงตอบรับหลากหลาย โดยเฉพาะเรื่อง “ราคา” ที่สูงเกินคาด — $599 สำหรับรุ่นพื้นฐาน และ $999 สำหรับรุ่น Ally X ล่าสุด Sarah Bond ประธาน Xbox ออกมาเปิดเผยว่า Microsoft ให้สิทธิ์ Asus กำหนดราคาทั้งหมดเอง โดยอิงจากความเข้าใจตลาดและฟีเจอร์ที่ผู้ใช้ต้องการ ซึ่งทำให้ราคาสุดท้ายสูงกว่าที่หลายคนคาดไว้ (จากข่าวลือเดิมที่ $549 และ $899) แม้ราคาจะสูง แต่ Microsoft ยืนยันว่า “ความต้องการล้นหลาม” และ Ally X ขายหมดทันทีที่เปิดพรีออเดอร์บน Microsoft Store อย่างไรก็ตาม หลายคนยังตั้งคำถามว่าเครื่องนี้ “เป็น Xbox จริงหรือไม่” เพราะแม้จะใช้ระบบ Windows และมี Xbox branding แต่ประสิทธิภาพของรุ่นพื้นฐานกลับใกล้เคียงกับ Steam Deck มากกว่าที่ควรจะเป็นเมื่อเทียบกับราคา https://www.tomshardware.com/video-games/handheld-gaming/microsoft-let-asus-set-the-prices-for-xbox-rog-ally-confirms-xbox-president-work-on-next-gen-console-hardware-is-already-underway-with-amd
    0 ความคิดเห็น 0 การแบ่งปัน 72 มุมมอง 0 รีวิว
  • “ESUN: พันธมิตรเทคโนโลยีใหญ่เปิดตัว Ethernet มาตรฐานใหม่ ท้าชน InfiniBand สำหรับยุค AI”

    Meta, Nvidia, OpenAI และ AMD รวมพลังกับบริษัทเทคโนโลยีชั้นนำอีกหลายราย เปิดตัวโครงการ ESUN (Ethernet for Scale-Up Networking) ภายใต้การนำของ Open Compute Project (OCP) เพื่อพัฒนา Ethernet แบบเปิดสำหรับการเชื่อมต่อภายในคลัสเตอร์ AI ขนาดใหญ่ โดยมีเป้าหมายเพื่อแข่งขันกับ InfiniBand ซึ่งครองตลาดอยู่กว่า 80% ในระบบ GPU และ accelerator

    ESUN จะทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 เพื่อกำหนดมาตรฐานใหม่ที่ครอบคลุมพฤติกรรมของสวิตช์ โปรโตคอล header การจัดการ error และการส่งข้อมูลแบบ lossless พร้อมศึกษาผลกระทบต่อ load balancing และ memory ordering ในระบบที่ใช้ GPU เป็นหลัก

    จุดประสงค์ของ ESUN
    พัฒนา Ethernet แบบเปิดสำหรับคลัสเตอร์ AI ขนาดใหญ่
    ลดความซับซ้อนของระบบ interconnect ด้วยมาตรฐานที่คุ้นเคย
    ลดต้นทุนและเพิ่มความสามารถในการปรับขยายระบบ

    พันธมิตรในโครงการ ESUN
    Meta, Nvidia, OpenAI, AMD, Cisco, Microsoft, Oracle
    Arista, ARM, Broadcom, HPE, Marvell และอื่น ๆ
    ทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3

    เทคโนโลยีที่เกี่ยวข้อง
    Broadcom Tomahawk Ultra switch รองรับ 77 พันล้านแพ็กเก็ตต่อวินาที
    Nvidia Spectrum-X รวม Ethernet กับ acceleration hardware
    OCP เคยทดลอง Ethernet transport ผ่าน SUE-T (SUE-Transport)

    ข้อดีของ Ethernet สำหรับ AI
    คุ้นเคยกับวิศวกรทั่วไปมากกว่า InfiniBand
    มีความสามารถในการปรับขยายและ interoperability สูง
    ลดต้นทุนและความซับซ้อนในการจัดการระบบ

    คำเตือนและข้อจำกัด
    InfiniBand ยังเหนือกว่าในด้าน latency และ reliability สำหรับงาน AI หนัก
    ESUN ต้องพิสูจน์ตัวเองใน workload ที่ต้องการความแม่นยำสูง
    การเปลี่ยนจากระบบเดิมต้องใช้เวลาและการลงทุนมหาศาล

    https://www.techradar.com/pro/meta-joins-nvidia-openai-and-amd-to-launch-ethernet-for-scale-up-network-esun-competes-with-infiniband-but-will-work-with-ultra-ethernet-consortium
    🌐 “ESUN: พันธมิตรเทคโนโลยีใหญ่เปิดตัว Ethernet มาตรฐานใหม่ ท้าชน InfiniBand สำหรับยุค AI” Meta, Nvidia, OpenAI และ AMD รวมพลังกับบริษัทเทคโนโลยีชั้นนำอีกหลายราย เปิดตัวโครงการ ESUN (Ethernet for Scale-Up Networking) ภายใต้การนำของ Open Compute Project (OCP) เพื่อพัฒนา Ethernet แบบเปิดสำหรับการเชื่อมต่อภายในคลัสเตอร์ AI ขนาดใหญ่ โดยมีเป้าหมายเพื่อแข่งขันกับ InfiniBand ซึ่งครองตลาดอยู่กว่า 80% ในระบบ GPU และ accelerator ESUN จะทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 เพื่อกำหนดมาตรฐานใหม่ที่ครอบคลุมพฤติกรรมของสวิตช์ โปรโตคอล header การจัดการ error และการส่งข้อมูลแบบ lossless พร้อมศึกษาผลกระทบต่อ load balancing และ memory ordering ในระบบที่ใช้ GPU เป็นหลัก ✅ จุดประสงค์ของ ESUN ➡️ พัฒนา Ethernet แบบเปิดสำหรับคลัสเตอร์ AI ขนาดใหญ่ ➡️ ลดความซับซ้อนของระบบ interconnect ด้วยมาตรฐานที่คุ้นเคย ➡️ ลดต้นทุนและเพิ่มความสามารถในการปรับขยายระบบ ✅ พันธมิตรในโครงการ ESUN ➡️ Meta, Nvidia, OpenAI, AMD, Cisco, Microsoft, Oracle ➡️ Arista, ARM, Broadcom, HPE, Marvell และอื่น ๆ ➡️ ทำงานร่วมกับ Ultra Ethernet Consortium และ IEEE 802.3 ✅ เทคโนโลยีที่เกี่ยวข้อง ➡️ Broadcom Tomahawk Ultra switch รองรับ 77 พันล้านแพ็กเก็ตต่อวินาที ➡️ Nvidia Spectrum-X รวม Ethernet กับ acceleration hardware ➡️ OCP เคยทดลอง Ethernet transport ผ่าน SUE-T (SUE-Transport) ✅ ข้อดีของ Ethernet สำหรับ AI ➡️ คุ้นเคยกับวิศวกรทั่วไปมากกว่า InfiniBand ➡️ มีความสามารถในการปรับขยายและ interoperability สูง ➡️ ลดต้นทุนและความซับซ้อนในการจัดการระบบ ‼️ คำเตือนและข้อจำกัด ⛔ InfiniBand ยังเหนือกว่าในด้าน latency และ reliability สำหรับงาน AI หนัก ⛔ ESUN ต้องพิสูจน์ตัวเองใน workload ที่ต้องการความแม่นยำสูง ⛔ การเปลี่ยนจากระบบเดิมต้องใช้เวลาและการลงทุนมหาศาล https://www.techradar.com/pro/meta-joins-nvidia-openai-and-amd-to-launch-ethernet-for-scale-up-network-esun-competes-with-infiniband-but-will-work-with-ultra-ethernet-consortium
    WWW.TECHRADAR.COM
    Tech bigwigs want to rewrite the future of AI networking with open Ethernet
    Engineers hope Ethernet can simplify complex GPU interconnect systems
    0 ความคิดเห็น 0 การแบ่งปัน 130 มุมมอง 0 รีวิว
  • "TSMC เปิดโรงงานในสหรัฐฯ ให้ชมผ่านวิดีโอ: เทคโนโลยีล้ำยุคใน Fab 21 ที่แอริโซนา"

    TSMC ผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน ได้เผยแพร่วิดีโอหายากที่พาผู้ชมบินผ่านโรงงาน Fab 21 ในรัฐแอริโซนา สหรัฐอเมริกา ซึ่งกำลังผลิตชิปด้วยเทคโนโลยีระดับ 4nm และ 5nm (N4/N5) สำหรับบริษัทชั้นนำอย่าง Apple, AMD และ Nvidia

    วิดีโอแสดงให้เห็นระบบ “Silver Highway” หรือระบบขนส่งวัสดุอัตโนมัติ (AMHS) ที่ใช้รางเหนือศีรษะในการเคลื่อนย้าย FOUPs (Front-Opening Unified Pods) ซึ่งบรรจุเวเฟอร์ขนาด 300 มม. ไปยังเครื่องมือผลิตต่าง ๆ อย่างแม่นยำและรวดเร็ว

    จุดเด่นของโรงงานคือเครื่อง EUV Lithography จาก ASML รุ่น Twinscan NXE ที่ใช้แสงความยาวคลื่น 13.5nm จากพลาสมาทินในการ “พิมพ์” ลวดลายบนเวเฟอร์ด้วยความละเอียดระดับ 13nm ซึ่งเป็นหัวใจของการผลิตชิปยุคใหม่

    ไฮไลต์จากวิดีโอโรงงาน Fab 21
    แสดงระบบ Silver Highway สำหรับขนส่ง FOUPs อัตโนมัติ
    ใช้แสงสีเหลืองในห้อง cleanroom เพื่อป้องกันการเปิดรับแสงของ photoresist
    เครื่อง EUV จาก ASML ใช้ plasma จากหยดทินในการสร้างลวดลายบนเวเฟอร์

    เทคโนโลยีการผลิต
    ใช้กระบวนการ N4 และ N5 (4nm และ 5nm-class)
    เครื่อง Twinscan NXE:3600D มีความแม่นยำระดับ 1.1nm
    ใช้ระบบเลเซอร์ผลิตพลาสมาและกระจกสะท้อนพิเศษแทนเลนส์ทั่วไป

    แผนการขยายโรงงาน
    Fab 21 phase 2 จะรองรับการผลิตชิประดับ N3 และ N2
    TSMC เตรียมซื้อที่ดินเพิ่มเพื่อสร้าง Gigafab cluster ในแอริโซนา
    รองรับความต้องการด้าน AI, สมาร์ทโฟน และ HPC ที่เพิ่มขึ้น

    ความท้าทายของเทคโนโลยี EUV
    ต้องควบคุมความแม่นยำของการวางลวดลายในระดับนาโนเมตร
    มีผลกระทบจาก stochastic effects ที่อาจทำให้เกิดข้อผิดพลาด
    ต้องใช้กระจกพิเศษแทนเลนส์ เพราะแสง EUV ถูกดูดกลืนโดยวัสดุทั่วไป

    สาระเพิ่มเติมจากภายนอก:
    ความหมายของ Gigafab
    โรงงานที่สามารถผลิตเวเฟอร์ได้มากกว่า 100,000 แผ่นต่อเดือน
    เป็นระดับสูงสุดของโรงงานผลิตเซมิคอนดักเตอร์

    ความสำคัญของ Fab 21 ต่อสหรัฐฯ
    เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาการผลิตจากเอเชีย
    สนับสนุนความมั่นคงด้านเทคโนโลยีและเศรษฐกิจของประเทศ

    https://www.tomshardware.com/tech-industry/semiconductors/tsmc-gives-an-ultra-rare-video-look-inside-its-fabs-silver-highway-and-fab-tools-revealed-in-flyby-video-of-companys-us-arizona-fab-21
    🏭 "TSMC เปิดโรงงานในสหรัฐฯ ให้ชมผ่านวิดีโอ: เทคโนโลยีล้ำยุคใน Fab 21 ที่แอริโซนา" TSMC ผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน ได้เผยแพร่วิดีโอหายากที่พาผู้ชมบินผ่านโรงงาน Fab 21 ในรัฐแอริโซนา สหรัฐอเมริกา ซึ่งกำลังผลิตชิปด้วยเทคโนโลยีระดับ 4nm และ 5nm (N4/N5) สำหรับบริษัทชั้นนำอย่าง Apple, AMD และ Nvidia วิดีโอแสดงให้เห็นระบบ “Silver Highway” หรือระบบขนส่งวัสดุอัตโนมัติ (AMHS) ที่ใช้รางเหนือศีรษะในการเคลื่อนย้าย FOUPs (Front-Opening Unified Pods) ซึ่งบรรจุเวเฟอร์ขนาด 300 มม. ไปยังเครื่องมือผลิตต่าง ๆ อย่างแม่นยำและรวดเร็ว จุดเด่นของโรงงานคือเครื่อง EUV Lithography จาก ASML รุ่น Twinscan NXE ที่ใช้แสงความยาวคลื่น 13.5nm จากพลาสมาทินในการ “พิมพ์” ลวดลายบนเวเฟอร์ด้วยความละเอียดระดับ 13nm ซึ่งเป็นหัวใจของการผลิตชิปยุคใหม่ ✅ ไฮไลต์จากวิดีโอโรงงาน Fab 21 ➡️ แสดงระบบ Silver Highway สำหรับขนส่ง FOUPs อัตโนมัติ ➡️ ใช้แสงสีเหลืองในห้อง cleanroom เพื่อป้องกันการเปิดรับแสงของ photoresist ➡️ เครื่อง EUV จาก ASML ใช้ plasma จากหยดทินในการสร้างลวดลายบนเวเฟอร์ ✅ เทคโนโลยีการผลิต ➡️ ใช้กระบวนการ N4 และ N5 (4nm และ 5nm-class) ➡️ เครื่อง Twinscan NXE:3600D มีความแม่นยำระดับ 1.1nm ➡️ ใช้ระบบเลเซอร์ผลิตพลาสมาและกระจกสะท้อนพิเศษแทนเลนส์ทั่วไป ✅ แผนการขยายโรงงาน ➡️ Fab 21 phase 2 จะรองรับการผลิตชิประดับ N3 และ N2 ➡️ TSMC เตรียมซื้อที่ดินเพิ่มเพื่อสร้าง Gigafab cluster ในแอริโซนา ➡️ รองรับความต้องการด้าน AI, สมาร์ทโฟน และ HPC ที่เพิ่มขึ้น ‼️ ความท้าทายของเทคโนโลยี EUV ⛔ ต้องควบคุมความแม่นยำของการวางลวดลายในระดับนาโนเมตร ⛔ มีผลกระทบจาก stochastic effects ที่อาจทำให้เกิดข้อผิดพลาด ⛔ ต้องใช้กระจกพิเศษแทนเลนส์ เพราะแสง EUV ถูกดูดกลืนโดยวัสดุทั่วไป 📎 สาระเพิ่มเติมจากภายนอก: ✅ ความหมายของ Gigafab ➡️ โรงงานที่สามารถผลิตเวเฟอร์ได้มากกว่า 100,000 แผ่นต่อเดือน ➡️ เป็นระดับสูงสุดของโรงงานผลิตเซมิคอนดักเตอร์ ✅ ความสำคัญของ Fab 21 ต่อสหรัฐฯ ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาการผลิตจากเอเชีย ➡️ สนับสนุนความมั่นคงด้านเทคโนโลยีและเศรษฐกิจของประเทศ https://www.tomshardware.com/tech-industry/semiconductors/tsmc-gives-an-ultra-rare-video-look-inside-its-fabs-silver-highway-and-fab-tools-revealed-in-flyby-video-of-companys-us-arizona-fab-21
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • “Neural Engine คืออะไร? ต่างจาก GPU อย่างไร?” — เมื่อชิป AI กลายเป็นหัวใจของอุปกรณ์ยุคใหม่ และ NPU คือผู้เล่นตัวจริง

    บทความจาก SlashGear อธิบายว่า Neural Engine หรือ NPU (Neural Processing Unit) คือชิปเฉพาะทางที่ออกแบบมาเพื่อเร่งการประมวลผลด้าน AI และ machine learning โดยเฉพาะ ต่างจาก CPU ที่เน้นงานเชิงตรรกะ และ GPU ที่เน้นงานกราฟิกและการคำนวณแบบขนาน

    Apple เป็นหนึ่งในบริษัทแรกที่นำ Neural Engine มาใช้ใน iPhone X ปี 2017 เพื่อช่วยงาน Face ID และการเรียนรู้ของ Siri ปัจจุบัน NPU ถูกฝังอยู่ในอุปกรณ์หลากหลาย เช่น สมาร์ตโฟน, แท็บเล็ต, คอมพิวเตอร์ และแม้แต่ IoT

    NPU มีจำนวนคอร์มากกว่า CPU และออกแบบมาเพื่อการคำนวณซ้ำ ๆ เช่น matrix multiplication ซึ่งเป็นหัวใจของ neural networks นอกจากนี้ยังมีหน่วยความจำในตัว (on-chip memory) เพื่อลด latency และเพิ่มประสิทธิภาพ

    GPU ก็สามารถใช้ประมวลผล AI ได้เช่นกัน โดยเฉพาะในระดับ data center เช่นที่ OpenAI ใช้ GPU จาก NVIDIA และ AMD แต่ GPU ไม่ได้ถูกออกแบบมาเพื่อ AI โดยตรง จึงใช้พลังงานมากกว่าและมีประสิทธิภาพต่ำกว่า NPU ในงานเฉพาะทาง

    ในอุปกรณ์พกพา เช่น iPhone 16 หรือ Pixel 10 NPU ถูกใช้เพื่อรันฟีเจอร์ AI แบบ local เช่น live translation, image generation และ call transcribing โดยไม่ต้องพึ่ง cloud

    Neural Engine หรือ NPU คือชิปเฉพาะทางสำหรับงาน AI
    เช่น Face ID, Siri, live translation, image generation

    NPU มีจำนวนคอร์มากกว่า CPU และออกแบบเพื่อ matrix multiplication
    เหมาะกับงาน neural networks และ machine learning

    มีหน่วยความจำในตัวเพื่อลด latency และเพิ่มประสิทธิภาพ
    ทำให้เร็วและประหยัดพลังงานกว่า GPU

    GPU ก็สามารถใช้ประมวลผล AI ได้
    โดยเฉพาะในระดับ data center เช่น OpenAI ใช้ GPU cluster

    GPU ไม่ได้ออกแบบมาเพื่อ AI โดยตรง
    ใช้พลังงานมากกว่าและมีประสิทธิภาพต่ำกว่า NPU ในงานเฉพาะทาง

    อุปกรณ์พกพาใช้ NPU เพื่อรันฟีเจอร์ AI แบบ local
    ไม่ต้องพึ่ง cloud เช่น iPhone 16 และ Pixel 10

    https://www.slashgear.com/1997513/what-is-a-neural-engine-how-npu-different-than-gpu/
    🧠 “Neural Engine คืออะไร? ต่างจาก GPU อย่างไร?” — เมื่อชิป AI กลายเป็นหัวใจของอุปกรณ์ยุคใหม่ และ NPU คือผู้เล่นตัวจริง บทความจาก SlashGear อธิบายว่า Neural Engine หรือ NPU (Neural Processing Unit) คือชิปเฉพาะทางที่ออกแบบมาเพื่อเร่งการประมวลผลด้าน AI และ machine learning โดยเฉพาะ ต่างจาก CPU ที่เน้นงานเชิงตรรกะ และ GPU ที่เน้นงานกราฟิกและการคำนวณแบบขนาน Apple เป็นหนึ่งในบริษัทแรกที่นำ Neural Engine มาใช้ใน iPhone X ปี 2017 เพื่อช่วยงาน Face ID และการเรียนรู้ของ Siri ปัจจุบัน NPU ถูกฝังอยู่ในอุปกรณ์หลากหลาย เช่น สมาร์ตโฟน, แท็บเล็ต, คอมพิวเตอร์ และแม้แต่ IoT NPU มีจำนวนคอร์มากกว่า CPU และออกแบบมาเพื่อการคำนวณซ้ำ ๆ เช่น matrix multiplication ซึ่งเป็นหัวใจของ neural networks นอกจากนี้ยังมีหน่วยความจำในตัว (on-chip memory) เพื่อลด latency และเพิ่มประสิทธิภาพ GPU ก็สามารถใช้ประมวลผล AI ได้เช่นกัน โดยเฉพาะในระดับ data center เช่นที่ OpenAI ใช้ GPU จาก NVIDIA และ AMD แต่ GPU ไม่ได้ถูกออกแบบมาเพื่อ AI โดยตรง จึงใช้พลังงานมากกว่าและมีประสิทธิภาพต่ำกว่า NPU ในงานเฉพาะทาง ในอุปกรณ์พกพา เช่น iPhone 16 หรือ Pixel 10 NPU ถูกใช้เพื่อรันฟีเจอร์ AI แบบ local เช่น live translation, image generation และ call transcribing โดยไม่ต้องพึ่ง cloud ✅ Neural Engine หรือ NPU คือชิปเฉพาะทางสำหรับงาน AI ➡️ เช่น Face ID, Siri, live translation, image generation ✅ NPU มีจำนวนคอร์มากกว่า CPU และออกแบบเพื่อ matrix multiplication ➡️ เหมาะกับงาน neural networks และ machine learning ✅ มีหน่วยความจำในตัวเพื่อลด latency และเพิ่มประสิทธิภาพ ➡️ ทำให้เร็วและประหยัดพลังงานกว่า GPU ✅ GPU ก็สามารถใช้ประมวลผล AI ได้ ➡️ โดยเฉพาะในระดับ data center เช่น OpenAI ใช้ GPU cluster ✅ GPU ไม่ได้ออกแบบมาเพื่อ AI โดยตรง ➡️ ใช้พลังงานมากกว่าและมีประสิทธิภาพต่ำกว่า NPU ในงานเฉพาะทาง ✅ อุปกรณ์พกพาใช้ NPU เพื่อรันฟีเจอร์ AI แบบ local ➡️ ไม่ต้องพึ่ง cloud เช่น iPhone 16 และ Pixel 10 https://www.slashgear.com/1997513/what-is-a-neural-engine-how-npu-different-than-gpu/
    WWW.SLASHGEAR.COM
    What Is A Neural Engine & How Do NPUs Differ From GPUs? - SlashGear
    When it comes to tech, most don't think too much about how things like NPUs and GPUs work. But the differences between them is more important than you think.
    0 ความคิดเห็น 0 การแบ่งปัน 188 มุมมอง 0 รีวิว
  • “OpenAI สร้างเครือข่ายพันธมิตรระดับโลก มูลค่ากว่า 1 ล้านล้านดอลลาร์” — เมื่อ AI กลายเป็นโครงสร้างพื้นฐานของเศรษฐกิจโลก

    OpenAI ได้ขยายเครือข่ายพันธมิตรด้านชิปและคลาวด์อย่างต่อเนื่อง โดยล่าสุดจับมือกับ Broadcom เพื่อพัฒนาชิปเร่งความเร็วแบบเฉพาะกิจ ซึ่งจะใช้พลังงานถึง 10 กิกะวัตต์ในช่วงครึ่งหลังของปีหน้า ความร่วมมือครั้งนี้เสริมทัพให้กับพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft ที่เป็นแกนหลักของโครงสร้างพื้นฐาน AI ระดับโลก

    ภาพรวมของเครือข่ายนี้ถูกเรียกว่า “เครือข่ายโครงสร้างพื้นฐาน AI ที่แพงที่สุดในประวัติศาสตร์” โดยมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์ ครอบคลุมตั้งแต่การออกแบบชิป การจัดหาพลังงาน ไปจนถึงการสร้างศูนย์ข้อมูลทั่วโลก

    ตัวอย่างดีลสำคัญ ได้แก่:

    Stargate: โครงการมูลค่า 500 พันล้านดอลลาร์ร่วมกับรัฐบาลสหรัฐฯ, Oracle และ SoftBank
    Nvidia: ข้อตกลงมูลค่า 100 พันล้านดอลลาร์สำหรับ GPU
    Microsoft: ความร่วมมือ Azure มูลค่า 13 พันล้านดอลลาร์
    AMD: อาจมีดีลสูงถึง 100 พันล้านดอลลาร์สำหรับชิป 6 กิกะวัตต์

    OpenAI ยังร่วมมือกับ G42 ในการสร้าง Stargate UAE ซึ่งเป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกในโครงการนี้ โดย Sam Altman ซีอีโอของ OpenAI เน้นว่า “ไม่มีบริษัทใดทำสิ่งนี้ได้คนเดียว” และ Broadcom ก็ยืนยันว่า “นี่คือก้าวสำคัญสู่การสร้างปัญญาประดิษฐ์ทั่วไป (AGI)”

    รายงานยังชี้ว่า OpenAI ใช้กลยุทธ์ “circular financing” คือ GPU vendors ให้เงินทุนแก่ OpenAI → OpenAI สร้างความต้องการ → vendors ได้กำไรกลับคืน ซึ่งทำให้ OpenAI ควบคุมทุกชั้นของห่วงโซ่อุปทาน ตั้งแต่ชิป คลาวด์ ไปจนถึงพลังงาน

    OpenAI จับมือ Broadcom เพื่อพัฒนาชิปเร่งความเร็วเฉพาะกิจ
    ใช้พลังงานถึง 10 กิกะวัตต์ในครึ่งหลังของปีหน้า
    เสริมทัพพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft

    เครือข่ายพันธมิตรมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์
    ครอบคลุมชิป คลาวด์ พลังงาน และศูนย์ข้อมูล

    ดีลสำคัญในเครือข่าย:
    Stargate กับรัฐบาลสหรัฐฯ, Oracle และ SoftBank มูลค่า 500 พันล้านดอลลาร์
    Nvidia GPU มูลค่า 100 พันล้านดอลลาร์
    Microsoft Azure มูลค่า 13 พันล้านดอลลาร์
    AMD ชิป 6 กิกะวัตต์ มูลค่าอาจถึง 100 พันล้านดอลลาร์

    Stargate UAE เป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกของ OpenAI
    ร่วมมือกับ G42 ในดูไบ

    กลยุทธ์ “circular financing” ทำให้ OpenAI ควบคุมห่วงโซ่อุปทาน
    Vendors ให้ทุน → OpenAI สร้างดีมานด์ → Vendors ได้กำไร

    https://www.techradar.com/pro/as-broadcom-becomes-its-latest-ally-this-graph-shows-how-openai-made-itself-too-big-to-fail-by-securing-hundreds-of-billions-from-the-worlds-largest-tech-companies
    🌐 “OpenAI สร้างเครือข่ายพันธมิตรระดับโลก มูลค่ากว่า 1 ล้านล้านดอลลาร์” — เมื่อ AI กลายเป็นโครงสร้างพื้นฐานของเศรษฐกิจโลก OpenAI ได้ขยายเครือข่ายพันธมิตรด้านชิปและคลาวด์อย่างต่อเนื่อง โดยล่าสุดจับมือกับ Broadcom เพื่อพัฒนาชิปเร่งความเร็วแบบเฉพาะกิจ ซึ่งจะใช้พลังงานถึง 10 กิกะวัตต์ในช่วงครึ่งหลังของปีหน้า ความร่วมมือครั้งนี้เสริมทัพให้กับพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft ที่เป็นแกนหลักของโครงสร้างพื้นฐาน AI ระดับโลก ภาพรวมของเครือข่ายนี้ถูกเรียกว่า “เครือข่ายโครงสร้างพื้นฐาน AI ที่แพงที่สุดในประวัติศาสตร์” โดยมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์ ครอบคลุมตั้งแต่การออกแบบชิป การจัดหาพลังงาน ไปจนถึงการสร้างศูนย์ข้อมูลทั่วโลก ตัวอย่างดีลสำคัญ ได้แก่: 💸 Stargate: โครงการมูลค่า 500 พันล้านดอลลาร์ร่วมกับรัฐบาลสหรัฐฯ, Oracle และ SoftBank 💸 Nvidia: ข้อตกลงมูลค่า 100 พันล้านดอลลาร์สำหรับ GPU 💸 Microsoft: ความร่วมมือ Azure มูลค่า 13 พันล้านดอลลาร์ 💸 AMD: อาจมีดีลสูงถึง 100 พันล้านดอลลาร์สำหรับชิป 6 กิกะวัตต์ OpenAI ยังร่วมมือกับ G42 ในการสร้าง Stargate UAE ซึ่งเป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกในโครงการนี้ โดย Sam Altman ซีอีโอของ OpenAI เน้นว่า “ไม่มีบริษัทใดทำสิ่งนี้ได้คนเดียว” และ Broadcom ก็ยืนยันว่า “นี่คือก้าวสำคัญสู่การสร้างปัญญาประดิษฐ์ทั่วไป (AGI)” รายงานยังชี้ว่า OpenAI ใช้กลยุทธ์ “circular financing” คือ GPU vendors ให้เงินทุนแก่ OpenAI → OpenAI สร้างความต้องการ → vendors ได้กำไรกลับคืน ซึ่งทำให้ OpenAI ควบคุมทุกชั้นของห่วงโซ่อุปทาน ตั้งแต่ชิป คลาวด์ ไปจนถึงพลังงาน ✅ OpenAI จับมือ Broadcom เพื่อพัฒนาชิปเร่งความเร็วเฉพาะกิจ ➡️ ใช้พลังงานถึง 10 กิกะวัตต์ในครึ่งหลังของปีหน้า ➡️ เสริมทัพพันธมิตรเดิมอย่าง Nvidia, AMD และ Microsoft ✅ เครือข่ายพันธมิตรมีมูลค่ารวมกว่า 1 ล้านล้านดอลลาร์ ➡️ ครอบคลุมชิป คลาวด์ พลังงาน และศูนย์ข้อมูล ✅ ดีลสำคัญในเครือข่าย: ➡️ Stargate กับรัฐบาลสหรัฐฯ, Oracle และ SoftBank มูลค่า 500 พันล้านดอลลาร์ ➡️ Nvidia GPU มูลค่า 100 พันล้านดอลลาร์ ➡️ Microsoft Azure มูลค่า 13 พันล้านดอลลาร์ ➡️ AMD ชิป 6 กิกะวัตต์ มูลค่าอาจถึง 100 พันล้านดอลลาร์ ✅ Stargate UAE เป็นศูนย์ข้อมูลระดับนานาชาติแห่งแรกของ OpenAI ➡️ ร่วมมือกับ G42 ในดูไบ ✅ กลยุทธ์ “circular financing” ทำให้ OpenAI ควบคุมห่วงโซ่อุปทาน ➡️ Vendors ให้ทุน → OpenAI สร้างดีมานด์ → Vendors ได้กำไร https://www.techradar.com/pro/as-broadcom-becomes-its-latest-ally-this-graph-shows-how-openai-made-itself-too-big-to-fail-by-securing-hundreds-of-billions-from-the-worlds-largest-tech-companies
    0 ความคิดเห็น 0 การแบ่งปัน 196 มุมมอง 0 รีวิว
  • “Samsung เปิดตัว HBM4E ความเร็วทะลุ 3.25 TB/s” — ก้าวกระโดดครั้งใหญ่ของหน่วยความจำเพื่อ AI ยุคใหม่

    Samsung ประกาศความก้าวหน้าครั้งสำคัญในงาน Open Compute Project (OCP) Global Summit โดยเปิดตัวหน่วยความจำ HBM4E ที่สามารถทำความเร็วได้ถึง 13 Gbps ต่อ stack และให้แบนด์วิดธ์รวมสูงสุด 3.25 TB/s ซึ่งเร็วกว่า HBM3E ถึง 2.5 เท่า

    HBM4E ไม่เพียงแค่เร็วขึ้น แต่ยังมีประสิทธิภาพด้านพลังงานที่ดีกว่าเดิมถึงสองเท่า และใช้เทคโนโลยีการผลิตระดับ 4nm ที่ Samsung สามารถควบคุมได้เองผ่านแผนก foundry ทำให้สามารถกำหนดราคาที่แข่งขันได้เพื่อดึงดูดลูกค้าอย่าง NVIDIA และ AMD

    นอกจากนี้ Samsung ยังพัฒนา HBM4 ที่มีความเร็ว pin speed สูงถึง 11 Gbps ซึ่งเหนือกว่ามาตรฐาน JEDEC และตอบสนองต่อความต้องการของ NVIDIA ที่ต้องการหน่วยความจำความเร็วสูงสำหรับสถาปัตยกรรม Rubin

    Samsung วางแผนเริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ซึ่งจะเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรม AI และการประมวลผลประสิทธิภาพสูง โดยเฉพาะเมื่อคู่แข่งอย่าง SK hynix และ Micron กำลังเผชิญการแข่งขันที่รุนแรงขึ้นเรื่อย ๆ

    ข้อมูลในข่าว
    Samsung เปิดตัว HBM4E ที่มีแบนด์วิดธ์สูงสุด 3.25 TB/s
    ความเร็ว pin speed สูงสุด 13 Gbps ต่อ stack
    เร็วกว่า HBM3E ถึง 2.5 เท่า
    ประสิทธิภาพด้านพลังงานดีกว่าเดิมถึงสองเท่า
    ใช้เทคโนโลยีการผลิต 4nm ที่ Samsung ควบคุมเอง
    ตอบสนองต่อความต้องการของ NVIDIA สำหรับสถาปัตยกรรม Rubin
    HBM4 มีความเร็ว pin speed สูงถึง 11 Gbps
    เริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026
    Samsung ตั้งเป้าเป็นผู้นำตลาด HBM โดยใช้กลยุทธ์ด้านราคาและเทคโนโลยี
    คู่แข่งอย่าง SK hynix และ Micron เผชิญการแข่งขันที่รุนแรง

    https://wccftech.com/samsung-hbm4e-set-to-deliver-a-significant-bandwidth/
    🚀 “Samsung เปิดตัว HBM4E ความเร็วทะลุ 3.25 TB/s” — ก้าวกระโดดครั้งใหญ่ของหน่วยความจำเพื่อ AI ยุคใหม่ Samsung ประกาศความก้าวหน้าครั้งสำคัญในงาน Open Compute Project (OCP) Global Summit โดยเปิดตัวหน่วยความจำ HBM4E ที่สามารถทำความเร็วได้ถึง 13 Gbps ต่อ stack และให้แบนด์วิดธ์รวมสูงสุด 3.25 TB/s ซึ่งเร็วกว่า HBM3E ถึง 2.5 เท่า HBM4E ไม่เพียงแค่เร็วขึ้น แต่ยังมีประสิทธิภาพด้านพลังงานที่ดีกว่าเดิมถึงสองเท่า และใช้เทคโนโลยีการผลิตระดับ 4nm ที่ Samsung สามารถควบคุมได้เองผ่านแผนก foundry ทำให้สามารถกำหนดราคาที่แข่งขันได้เพื่อดึงดูดลูกค้าอย่าง NVIDIA และ AMD นอกจากนี้ Samsung ยังพัฒนา HBM4 ที่มีความเร็ว pin speed สูงถึง 11 Gbps ซึ่งเหนือกว่ามาตรฐาน JEDEC และตอบสนองต่อความต้องการของ NVIDIA ที่ต้องการหน่วยความจำความเร็วสูงสำหรับสถาปัตยกรรม Rubin Samsung วางแผนเริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ซึ่งจะเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรม AI และการประมวลผลประสิทธิภาพสูง โดยเฉพาะเมื่อคู่แข่งอย่าง SK hynix และ Micron กำลังเผชิญการแข่งขันที่รุนแรงขึ้นเรื่อย ๆ ✅ ข้อมูลในข่าว ➡️ Samsung เปิดตัว HBM4E ที่มีแบนด์วิดธ์สูงสุด 3.25 TB/s ➡️ ความเร็ว pin speed สูงสุด 13 Gbps ต่อ stack ➡️ เร็วกว่า HBM3E ถึง 2.5 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีกว่าเดิมถึงสองเท่า ➡️ ใช้เทคโนโลยีการผลิต 4nm ที่ Samsung ควบคุมเอง ➡️ ตอบสนองต่อความต้องการของ NVIDIA สำหรับสถาปัตยกรรม Rubin ➡️ HBM4 มีความเร็ว pin speed สูงถึง 11 Gbps ➡️ เริ่มผลิต HBM4 และ HBM4E ในช่วงต้นปี 2026 ➡️ Samsung ตั้งเป้าเป็นผู้นำตลาด HBM โดยใช้กลยุทธ์ด้านราคาและเทคโนโลยี ➡️ คู่แข่งอย่าง SK hynix และ Micron เผชิญการแข่งขันที่รุนแรง https://wccftech.com/samsung-hbm4e-set-to-deliver-a-significant-bandwidth/
    WCCFTECH.COM
    Samsung’s HBM4E Set to Deliver 3.25 TB/s Bandwidth; Nearly 2.5× Faster Than HBM3E, Driving AI Computing to New Levels
    Samsung has become one of the first HBM manufacturers to announce progress on HBM4E at the OCP, showcasing significant upgrades.
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • สหรัฐหัวหอกเปิดปฏิบัติการล็อกเป้าScamdodia : คนเคาะข่าว 16-10-68

    https://www.youtube.com/watch?v=twONWEXxpIk
    สหรัฐหัวหอกเปิดปฏิบัติการล็อกเป้าScamdodia : คนเคาะข่าว 16-10-68 • https://www.youtube.com/watch?v=twONWEXxpIk
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 118 มุมมอง 0 รีวิว
  • “Lenovo เปิดตัว LEGION Radeon RX 9070 XT รุ่นปรับแต่งพิเศษ” — การ์ดจอ OEM ที่ออกแบบเพื่อเกมเมอร์สาย MoDT โดยเฉพาะ

    Lenovo สร้างความฮือฮาในวงการฮาร์ดแวร์ด้วยการเปิดตัวการ์ดจอรุ่นปรับแต่งพิเศษ LEGION Radeon RX 9070 XT ซึ่งเป็นส่วนหนึ่งของพีซีเกมมิ่งรุ่น Blade 7000P ที่ใช้แนวคิด Mobile on Desktop (MoDT) โดยนำชิ้นส่วนจากโน้ตบุ๊กประสิทธิภาพสูงมาใช้ในเครื่องตั้งโต๊ะ

    แม้ Lenovo จะไม่ใช่แบรนด์ที่มีชื่อเสียงด้านการ์ดจอแบบ custom แต่การ์ดรุ่นนี้ถูกออกแบบมาเพื่อใช้งานเฉพาะในระบบของ Lenovo เท่านั้น ไม่วางจำหน่ายแยก ทำให้กลุ่มนักสะสมและผู้ใช้ระดับสูงให้ความสนใจ

    การ์ดใช้สเปกมาตรฐานของ AMD Radeon RX 9070 XT:
    4,096 stream processors
    16 GB GDDR6 memory
    64 MB L3 cache
    ความเร็ว base clock 1,660 MHz, game clock 2,400 MHz, boost clock 2,970 MHz

    ดีไซน์ภายนอกเน้นความเรียบง่ายแบบอุตสาหกรรม:
    ฮีตซิงก์ขนาดใหญ่แบบ 3-slot
    ฝาครอบสีเทาเข้มและ backplate ลาย LEGION สีดำ
    มีไฟ RGB ด้านบนที่ปรับสีได้ตามธีมของผู้ใช้

    แม้จะมีเสียงวิจารณ์เรื่องความสวยงาม แต่หลายคนชื่นชมเรื่องการระบายความร้อนและความเงียบในการทำงาน โดยเฉพาะเมื่อเทียบกับการ์ด OEM รุ่นอื่น ๆ

    คำเตือนจากข้อมูลข่าว
    การ์ดรุ่นนี้เป็น OEM ไม่สามารถซื้อแยกได้
    หากต้องการอัปเกรดซีพียูในอนาคต อาจต้องเปลี่ยนทั้งระบบ
    ดีไซน์เรียบแบบอุตสาหกรรม อาจไม่ถูกใจผู้ใช้ที่ชอบความสวยงาม
    การ์ดมีขนาดใหญ่ อาจไม่เหมาะกับเคสขนาดเล็ก การเปลี่ยนหรือซ่อมพัดลมต้องใช้ชิ้นส่วนเฉพาะจาก Lenovo

    https://www.techpowerup.com/341941/lenovo-designs-custom-legion-radeon-rx-9070-xt-gpu
    🎮 “Lenovo เปิดตัว LEGION Radeon RX 9070 XT รุ่นปรับแต่งพิเศษ” — การ์ดจอ OEM ที่ออกแบบเพื่อเกมเมอร์สาย MoDT โดยเฉพาะ Lenovo สร้างความฮือฮาในวงการฮาร์ดแวร์ด้วยการเปิดตัวการ์ดจอรุ่นปรับแต่งพิเศษ LEGION Radeon RX 9070 XT ซึ่งเป็นส่วนหนึ่งของพีซีเกมมิ่งรุ่น Blade 7000P ที่ใช้แนวคิด Mobile on Desktop (MoDT) โดยนำชิ้นส่วนจากโน้ตบุ๊กประสิทธิภาพสูงมาใช้ในเครื่องตั้งโต๊ะ แม้ Lenovo จะไม่ใช่แบรนด์ที่มีชื่อเสียงด้านการ์ดจอแบบ custom แต่การ์ดรุ่นนี้ถูกออกแบบมาเพื่อใช้งานเฉพาะในระบบของ Lenovo เท่านั้น ไม่วางจำหน่ายแยก ทำให้กลุ่มนักสะสมและผู้ใช้ระดับสูงให้ความสนใจ การ์ดใช้สเปกมาตรฐานของ AMD Radeon RX 9070 XT: 🎗️ 4,096 stream processors 🎗️ 16 GB GDDR6 memory 🎗️ 64 MB L3 cache 🎗️ ความเร็ว base clock 1,660 MHz, game clock 2,400 MHz, boost clock 2,970 MHz ดีไซน์ภายนอกเน้นความเรียบง่ายแบบอุตสาหกรรม: 🎗️ ฮีตซิงก์ขนาดใหญ่แบบ 3-slot 🎗️ ฝาครอบสีเทาเข้มและ backplate ลาย LEGION สีดำ 🎗️ มีไฟ RGB ด้านบนที่ปรับสีได้ตามธีมของผู้ใช้ แม้จะมีเสียงวิจารณ์เรื่องความสวยงาม แต่หลายคนชื่นชมเรื่องการระบายความร้อนและความเงียบในการทำงาน โดยเฉพาะเมื่อเทียบกับการ์ด OEM รุ่นอื่น ๆ ‼️ คำเตือนจากข้อมูลข่าว ⛔ การ์ดรุ่นนี้เป็น OEM ไม่สามารถซื้อแยกได้ ⛔ หากต้องการอัปเกรดซีพียูในอนาคต อาจต้องเปลี่ยนทั้งระบบ ⛔ ดีไซน์เรียบแบบอุตสาหกรรม อาจไม่ถูกใจผู้ใช้ที่ชอบความสวยงาม ⛔ การ์ดมีขนาดใหญ่ อาจไม่เหมาะกับเคสขนาดเล็ก ⛔ การเปลี่ยนหรือซ่อมพัดลมต้องใช้ชิ้นส่วนเฉพาะจาก Lenovo https://www.techpowerup.com/341941/lenovo-designs-custom-legion-radeon-rx-9070-xt-gpu
    WWW.TECHPOWERUP.COM
    Lenovo Designs Custom LEGION Radeon RX 9070 XT GPU
    While Lenovo isn't typically known for its custom GPUs, the company is developing customized designs for its desktops, which are shipped in large quantities. Today, we have learned that Lenovo has created a LEGION Radeon RX 9070 XT GPU with a unique cooler. This GPU is part of the 2025 Blade 7000P, ...
    0 ความคิดเห็น 0 การแบ่งปัน 137 มุมมอง 0 รีวิว
  • “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB และสถาปัตยกรรม Xe3P

    Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยใช้สถาปัตยกรรมกราฟิก Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งจะถูกนำไปใช้ในซีรีส์ Arc C สำหรับลูกค้าทั่วไป และ Arc Pro B สำหรับงานมืออาชีพ

    Crescent Island ถูกออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ โดยเน้นประสิทธิภาพต่อวัตต์และต้นทุนที่เหมาะสม พร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งช่วยเพิ่มแบนด์วิดธ์และรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น โดยเฉพาะสำหรับผู้ให้บริการ “tokens-as-a-service” ที่ต้องการประมวลผลโมเดลขนาดใหญ่

    Intel ยังพัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ซึ่งกำลังทดสอบอยู่บน Arc Pro B-Series เพื่อให้สามารถนำไปใช้กับ Crescent Island ได้ทันทีเมื่อเปิดตัว

    การส่งมอบตัวอย่าง GPU รุ่นนี้ให้ลูกค้าเริ่มต้นในช่วงครึ่งหลังของปี 2026 ซึ่งถือเป็นการกลับมาแข่งขันในตลาดศูนย์ข้อมูล AI ที่กำลังเติบโตอย่างรวดเร็ว โดยเน้นความคุ้มค่าและการใช้งานที่ยืดหยุ่นมากกว่าการใช้หน่วยความจำ HBM ที่มีต้นทุนสูงและหายาก

    ข้อมูลในข่าว
    Intel เปิดตัว GPU “Crescent Island” สำหรับงาน AI inference โดยเฉพาะ
    ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 และจะใช้ใน Arc C-Series และ Arc Pro B-Series
    มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB
    ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ
    รองรับข้อมูลหลากหลายประเภท เหมาะกับผู้ให้บริการ tokens-as-a-service
    พัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous
    เริ่มส่งตัวอย่างให้ลูกค้าในครึ่งหลังของปี 2026

    คำเตือนจากข้อมูลข่าว
    การใช้ LPDDR5X แทน HBM อาจมีข้อจำกัดด้าน latency และ bandwidth ในบางกรณี
    หาก software stack ไม่พร้อมใช้งานเมื่อเปิดตัว อาจกระทบต่อการนำไปใช้งานจริง
    การแข่งขันในตลาด inference GPU ยังมีผู้เล่นรายใหญ่อย่าง NVIDIA และ AMD
    การออกแบบสำหรับเซิร์ฟเวอร์แบบ air-cooled อาจไม่เหมาะกับงานที่ใช้พลังงานสูงมาก

    https://wccftech.com/intel-crescent-island-gpu-next-gen-xe3p-graphics-160-gb-lpddr5x-ai-inference/
    🧠 “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB และสถาปัตยกรรม Xe3P Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน AI inference โดยเฉพาะ โดยใช้สถาปัตยกรรมกราฟิก Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งจะถูกนำไปใช้ในซีรีส์ Arc C สำหรับลูกค้าทั่วไป และ Arc Pro B สำหรับงานมืออาชีพ Crescent Island ถูกออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ โดยเน้นประสิทธิภาพต่อวัตต์และต้นทุนที่เหมาะสม พร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งช่วยเพิ่มแบนด์วิดธ์และรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น โดยเฉพาะสำหรับผู้ให้บริการ “tokens-as-a-service” ที่ต้องการประมวลผลโมเดลขนาดใหญ่ Intel ยังพัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ซึ่งกำลังทดสอบอยู่บน Arc Pro B-Series เพื่อให้สามารถนำไปใช้กับ Crescent Island ได้ทันทีเมื่อเปิดตัว การส่งมอบตัวอย่าง GPU รุ่นนี้ให้ลูกค้าเริ่มต้นในช่วงครึ่งหลังของปี 2026 ซึ่งถือเป็นการกลับมาแข่งขันในตลาดศูนย์ข้อมูล AI ที่กำลังเติบโตอย่างรวดเร็ว โดยเน้นความคุ้มค่าและการใช้งานที่ยืดหยุ่นมากกว่าการใช้หน่วยความจำ HBM ที่มีต้นทุนสูงและหายาก ✅ ข้อมูลในข่าว ➡️ Intel เปิดตัว GPU “Crescent Island” สำหรับงาน AI inference โดยเฉพาะ ➡️ ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 และจะใช้ใน Arc C-Series และ Arc Pro B-Series ➡️ มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ➡️ ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ➡️ รองรับข้อมูลหลากหลายประเภท เหมาะกับผู้ให้บริการ tokens-as-a-service ➡️ พัฒนา software stack แบบ unified สำหรับระบบ AI heterogeneous ➡️ เริ่มส่งตัวอย่างให้ลูกค้าในครึ่งหลังของปี 2026 ‼️ คำเตือนจากข้อมูลข่าว ⛔ การใช้ LPDDR5X แทน HBM อาจมีข้อจำกัดด้าน latency และ bandwidth ในบางกรณี ⛔ หาก software stack ไม่พร้อมใช้งานเมื่อเปิดตัว อาจกระทบต่อการนำไปใช้งานจริง ⛔ การแข่งขันในตลาด inference GPU ยังมีผู้เล่นรายใหญ่อย่าง NVIDIA และ AMD ⛔ การออกแบบสำหรับเซิร์ฟเวอร์แบบ air-cooled อาจไม่เหมาะกับงานที่ใช้พลังงานสูงมาก https://wccftech.com/intel-crescent-island-gpu-next-gen-xe3p-graphics-160-gb-lpddr5x-ai-inference/
    WCCFTECH.COM
    Intel Crescent Island GPU Unveiled: Features Next-Gen Xe3P Graphics Architecture, 160 GB LPDDR5X For AI Inference
    Intel has unveiled its brand new AI inference GPU solution for data centers, codenamed Crescent Island, which features the Xe3P architecture.
    0 ความคิดเห็น 0 การแบ่งปัน 147 มุมมอง 0 รีวิว
  • “MSI โชว์นวัตกรรมศูนย์ข้อมูล” — เปิดตัว ORv3, DC-MHS และ MGX ที่งาน OCP Global Summit 2025

    ในงาน OCP Global Summit ปี 2025 MSI ได้เปิดตัวโซลูชันศูนย์ข้อมูลรุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานระดับ hyperscale และ AI โดยเน้นการผสานเทคโนโลยีแบบเปิดกับการเร่งความเร็วด้วย GPU เพื่อสร้างศูนย์ข้อมูลที่มีประสิทธิภาพสูงและดูแลรักษาได้ง่าย

    หนึ่งในไฮไลต์คือ ORv3 Rack ขนาด 21 นิ้ว 44OU ที่มาพร้อมระบบพลังงาน 48V แบบรวมศูนย์ และเซิร์ฟเวอร์แบบ dual-node 16 ตัว ซึ่งช่วยเพิ่มพื้นที่สำหรับ CPU, RAM และ Storage พร้อมระบบระบายความร้อนที่มีประสิทธิภาพสูง

    MSI ยังเปิดตัวเซิร์ฟเวอร์ DC-MHS ที่รองรับทั้ง Intel Xeon 6 และ AMD EPYC 9005 โดยใช้โมดูล DC-SCM เพื่อให้สามารถใช้งานร่วมกันระหว่างผู้ผลิตได้ง่ายขึ้น พร้อมรองรับ PCIe 5.0 และ DDR5 สำหรับงานที่ต้องการความเร็วสูง

    ในด้าน GPU MSI ใช้สถาปัตยกรรม MGX ของ NVIDIA โดยมีรุ่น CG481-S6053 ที่รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว และ CG290-S3063 ที่ออกแบบมาเพื่องาน inference และ fine-tuning โดยใช้ GPU PCIe 5.0 จำนวน 4 ตัว

    ทั้งหมดนี้สะท้อนถึงแนวทางของ MSI ที่ต้องการสร้างศูนย์ข้อมูลที่สามารถปรับขนาดได้ง่าย รองรับงาน AI และ cloud ได้อย่างมีประสิทธิภาพ พร้อมลดความซับซ้อนในการติดตั้งและดูแลรักษา

    ข้อมูลในข่าว
    MSI เปิดตัว ORv3 Rack ขนาด 21 นิ้ว 44OU พร้อมระบบพลังงานรวมศูนย์ 48V
    รองรับเซิร์ฟเวอร์แบบ dual-node 16 ตัว พร้อม I/O ด้านหน้าเพื่อการดูแลจาก cold aisle
    เซิร์ฟเวอร์ DC-MHS รองรับ Intel Xeon 6 และ AMD EPYC 9005 ด้วยโมดูล DC-SCM
    รองรับ PCIe 5.0, DDR5 และ NVMe แบบ front-service
    GPU server ใช้สถาปัตยกรรม MGX ของ NVIDIA
    รุ่น CG481-S6053 รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว
    รุ่น CG290-S3063 รองรับ GPU PCIe 5.0 จำนวน 4 ตัว สำหรับงาน inference
    ออกแบบมาเพื่อศูนย์ข้อมูล AI และ cloud ที่ต้องการความยืดหยุ่นและประสิทธิภาพสูง

    คำเตือนจากข้อมูลข่าว
    การใช้ GPU จำนวนมากต้องมีระบบระบายความร้อนและพลังงานที่มีประสิทธิภาพ
    หากไม่ใช้โมดูล DC-SCM อาจทำให้เกิดปัญหาความเข้ากันได้ระหว่างผู้ผลิต
    การออกแบบศูนย์ข้อมูลแบบ rack-scale ต้องมีการวางแผนล่วงหน้าอย่างละเอียด
    การเปลี่ยนไปใช้ PCIe 6.0 ต้องตรวจสอบความเข้ากันได้กับอุปกรณ์เดิม

    https://www.techpowerup.com/341907/msi-highlights-orv3-dc-mhs-and-mgx-solutions-at-2025-ocp-global-summit
    🏢 “MSI โชว์นวัตกรรมศูนย์ข้อมูล” — เปิดตัว ORv3, DC-MHS และ MGX ที่งาน OCP Global Summit 2025 ในงาน OCP Global Summit ปี 2025 MSI ได้เปิดตัวโซลูชันศูนย์ข้อมูลรุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานระดับ hyperscale และ AI โดยเน้นการผสานเทคโนโลยีแบบเปิดกับการเร่งความเร็วด้วย GPU เพื่อสร้างศูนย์ข้อมูลที่มีประสิทธิภาพสูงและดูแลรักษาได้ง่าย หนึ่งในไฮไลต์คือ ORv3 Rack ขนาด 21 นิ้ว 44OU ที่มาพร้อมระบบพลังงาน 48V แบบรวมศูนย์ และเซิร์ฟเวอร์แบบ dual-node 16 ตัว ซึ่งช่วยเพิ่มพื้นที่สำหรับ CPU, RAM และ Storage พร้อมระบบระบายความร้อนที่มีประสิทธิภาพสูง MSI ยังเปิดตัวเซิร์ฟเวอร์ DC-MHS ที่รองรับทั้ง Intel Xeon 6 และ AMD EPYC 9005 โดยใช้โมดูล DC-SCM เพื่อให้สามารถใช้งานร่วมกันระหว่างผู้ผลิตได้ง่ายขึ้น พร้อมรองรับ PCIe 5.0 และ DDR5 สำหรับงานที่ต้องการความเร็วสูง ในด้าน GPU MSI ใช้สถาปัตยกรรม MGX ของ NVIDIA โดยมีรุ่น CG481-S6053 ที่รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว และ CG290-S3063 ที่ออกแบบมาเพื่องาน inference และ fine-tuning โดยใช้ GPU PCIe 5.0 จำนวน 4 ตัว ทั้งหมดนี้สะท้อนถึงแนวทางของ MSI ที่ต้องการสร้างศูนย์ข้อมูลที่สามารถปรับขนาดได้ง่าย รองรับงาน AI และ cloud ได้อย่างมีประสิทธิภาพ พร้อมลดความซับซ้อนในการติดตั้งและดูแลรักษา ✅ ข้อมูลในข่าว ➡️ MSI เปิดตัว ORv3 Rack ขนาด 21 นิ้ว 44OU พร้อมระบบพลังงานรวมศูนย์ 48V ➡️ รองรับเซิร์ฟเวอร์แบบ dual-node 16 ตัว พร้อม I/O ด้านหน้าเพื่อการดูแลจาก cold aisle ➡️ เซิร์ฟเวอร์ DC-MHS รองรับ Intel Xeon 6 และ AMD EPYC 9005 ด้วยโมดูล DC-SCM ➡️ รองรับ PCIe 5.0, DDR5 และ NVMe แบบ front-service ➡️ GPU server ใช้สถาปัตยกรรม MGX ของ NVIDIA ➡️ รุ่น CG481-S6053 รองรับ GPU PCIe 6.0 ได้ถึง 8 ตัว ➡️ รุ่น CG290-S3063 รองรับ GPU PCIe 5.0 จำนวน 4 ตัว สำหรับงาน inference ➡️ ออกแบบมาเพื่อศูนย์ข้อมูล AI และ cloud ที่ต้องการความยืดหยุ่นและประสิทธิภาพสูง ‼️ คำเตือนจากข้อมูลข่าว ⛔ การใช้ GPU จำนวนมากต้องมีระบบระบายความร้อนและพลังงานที่มีประสิทธิภาพ ⛔ หากไม่ใช้โมดูล DC-SCM อาจทำให้เกิดปัญหาความเข้ากันได้ระหว่างผู้ผลิต ⛔ การออกแบบศูนย์ข้อมูลแบบ rack-scale ต้องมีการวางแผนล่วงหน้าอย่างละเอียด ⛔ การเปลี่ยนไปใช้ PCIe 6.0 ต้องตรวจสอบความเข้ากันได้กับอุปกรณ์เดิม https://www.techpowerup.com/341907/msi-highlights-orv3-dc-mhs-and-mgx-solutions-at-2025-ocp-global-summit
    WWW.TECHPOWERUP.COM
    MSI Highlights ORv3, DC-MHS, and MGX Solutions at 2025 OCP Global Summit
    At 2025 OCP Global Summit (Booth #A55), MSI, a leading global provider of high-performance server solutions, highlights the ORv3 21" 44OU rack, OCP DC-MHS platforms, and GPU servers built on NVIDIA MGX architecture, accelerated by the latest NVIDIA Hopper GPUs and NVIDIA RTX PRO 6000 Blackwell Serve...
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • “OpenAI จับมือ Arm” — พัฒนาชิป CPU สำหรับเร่งการประมวลผล AI ขนาด 10GW

    OpenAI กำลังเดินหน้าสร้างโครงสร้างพื้นฐานด้าน AI ขนาดมหึมา ด้วยการร่วมมือกับ Arm บริษัทออกแบบชิปชื่อดังที่อยู่ภายใต้ SoftBank เพื่อพัฒนา CPU แบบเซิร์ฟเวอร์รุ่นใหม่ ที่จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom

    ชิปใหม่นี้จะเป็นส่วนหนึ่งของระบบแร็ค AI ที่มีขนาดใหญ่ระดับ 10 กิกะวัตต์ ซึ่งคาดว่าจะเริ่มผลิตในช่วงปลายปี 2026 และขยายการติดตั้งไปจนถึงปี 2029 โดย Broadcom จะเป็นผู้ผลิตชิปเร่งการประมวลผล (SoC) ที่เน้นงาน inference และใช้โรงงานของ TSMC ในการผลิต

    Arm ไม่ได้แค่ให้แบบแปลนสถาปัตยกรรมเท่านั้น แต่ยังลงมือออกแบบและผลิต CPU ด้วยตัวเอง ซึ่งถือเป็นก้าวสำคัญในการเข้าสู่ตลาดศูนย์ข้อมูล โดย CPU ที่ออกแบบใหม่นี้อาจถูกนำไปใช้ร่วมกับระบบของ Nvidia และ AMD ด้วย

    SoftBank ซึ่งถือหุ้นเกือบ 90% ใน Arm ได้ให้คำมั่นว่าจะลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI และซื้อเทคโนโลยี AI จาก OpenAI เพื่อเร่งการพัฒนาชิปของ Arm เอง

    เมื่อรวมกับข้อตกลงก่อนหน้านี้กับ Nvidia และ AMD โครงการชิปของ OpenAI จะมีขนาดรวมถึง 26GW ซึ่งนักวิเคราะห์ประเมินว่าอาจต้องใช้เงินลงทุนมากกว่า 1 ล้านล้านดอลลาร์ในการก่อสร้างและจัดหาอุปกรณ์

    ความร่วมมือกับ Broadcom ยังช่วยให้ OpenAI มีอำนาจต่อรองกับ Nvidia มากขึ้น โดยเฉพาะในตลาด GPU สำหรับการฝึกโมเดล AI ที่ยังคงถูกครองโดย H100 และ Blackwell

    ข้อมูลในข่าว
    OpenAI ร่วมมือกับ Arm เพื่อพัฒนา CPU สำหรับระบบ AI ขนาดใหญ่
    CPU จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่พัฒนาร่วมกับ Broadcom
    ระบบแร็ค AI มีขนาดเป้าหมายถึง 10GW และเริ่มผลิตปลายปี 2026
    Broadcom ใช้โรงงาน TSMC ในการผลิตชิป SoC สำหรับ inference
    Arm ลงมือออกแบบและผลิต CPU เอง ไม่ใช่แค่ให้แบบแปลน
    SoftBank ลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI
    โครงการชิปของ OpenAI รวมแล้วมีขนาดถึง 26GW
    อาจใช้ CPU ร่วมกับระบบของ Nvidia และ AMD ได้
    ช่วยเพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia ในตลาด GPU

    คำเตือนจากข้อมูลข่าว
    การพัฒนา CPU และระบบ AI ขนาดใหญ่ต้องใช้เงินลงทุนมหาศาล
    หาก Broadcom และ TSMC ไม่สามารถผลิตได้ตามเป้า อาจกระทบต่อแผนของ OpenAI
    การพึ่งพาเทคโนโลยีเฉพาะจากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชน
    การแข่งขันกับ Nvidia ต้องอาศัยทั้งเทคโนโลยีและกำลังการผลิตที่มั่นคง

    https://www.tomshardware.com/pc-components/cpus/openai-arm-partner-on-custom-cpu-for-broadcom-chip
    🔧 “OpenAI จับมือ Arm” — พัฒนาชิป CPU สำหรับเร่งการประมวลผล AI ขนาด 10GW OpenAI กำลังเดินหน้าสร้างโครงสร้างพื้นฐานด้าน AI ขนาดมหึมา ด้วยการร่วมมือกับ Arm บริษัทออกแบบชิปชื่อดังที่อยู่ภายใต้ SoftBank เพื่อพัฒนา CPU แบบเซิร์ฟเวอร์รุ่นใหม่ ที่จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom ชิปใหม่นี้จะเป็นส่วนหนึ่งของระบบแร็ค AI ที่มีขนาดใหญ่ระดับ 10 กิกะวัตต์ ซึ่งคาดว่าจะเริ่มผลิตในช่วงปลายปี 2026 และขยายการติดตั้งไปจนถึงปี 2029 โดย Broadcom จะเป็นผู้ผลิตชิปเร่งการประมวลผล (SoC) ที่เน้นงาน inference และใช้โรงงานของ TSMC ในการผลิต Arm ไม่ได้แค่ให้แบบแปลนสถาปัตยกรรมเท่านั้น แต่ยังลงมือออกแบบและผลิต CPU ด้วยตัวเอง ซึ่งถือเป็นก้าวสำคัญในการเข้าสู่ตลาดศูนย์ข้อมูล โดย CPU ที่ออกแบบใหม่นี้อาจถูกนำไปใช้ร่วมกับระบบของ Nvidia และ AMD ด้วย SoftBank ซึ่งถือหุ้นเกือบ 90% ใน Arm ได้ให้คำมั่นว่าจะลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI และซื้อเทคโนโลยี AI จาก OpenAI เพื่อเร่งการพัฒนาชิปของ Arm เอง เมื่อรวมกับข้อตกลงก่อนหน้านี้กับ Nvidia และ AMD โครงการชิปของ OpenAI จะมีขนาดรวมถึง 26GW ซึ่งนักวิเคราะห์ประเมินว่าอาจต้องใช้เงินลงทุนมากกว่า 1 ล้านล้านดอลลาร์ในการก่อสร้างและจัดหาอุปกรณ์ ความร่วมมือกับ Broadcom ยังช่วยให้ OpenAI มีอำนาจต่อรองกับ Nvidia มากขึ้น โดยเฉพาะในตลาด GPU สำหรับการฝึกโมเดล AI ที่ยังคงถูกครองโดย H100 และ Blackwell ✅ ข้อมูลในข่าว ➡️ OpenAI ร่วมมือกับ Arm เพื่อพัฒนา CPU สำหรับระบบ AI ขนาดใหญ่ ➡️ CPU จะทำงานร่วมกับชิปเร่งการประมวลผล AI ที่พัฒนาร่วมกับ Broadcom ➡️ ระบบแร็ค AI มีขนาดเป้าหมายถึง 10GW และเริ่มผลิตปลายปี 2026 ➡️ Broadcom ใช้โรงงาน TSMC ในการผลิตชิป SoC สำหรับ inference ➡️ Arm ลงมือออกแบบและผลิต CPU เอง ไม่ใช่แค่ให้แบบแปลน ➡️ SoftBank ลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐานของ OpenAI ➡️ โครงการชิปของ OpenAI รวมแล้วมีขนาดถึง 26GW ➡️ อาจใช้ CPU ร่วมกับระบบของ Nvidia และ AMD ได้ ➡️ ช่วยเพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia ในตลาด GPU ‼️ คำเตือนจากข้อมูลข่าว ⛔ การพัฒนา CPU และระบบ AI ขนาดใหญ่ต้องใช้เงินลงทุนมหาศาล ⛔ หาก Broadcom และ TSMC ไม่สามารถผลิตได้ตามเป้า อาจกระทบต่อแผนของ OpenAI ⛔ การพึ่งพาเทคโนโลยีเฉพาะจากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชน ⛔ การแข่งขันกับ Nvidia ต้องอาศัยทั้งเทคโนโลยีและกำลังการผลิตที่มั่นคง https://www.tomshardware.com/pc-components/cpus/openai-arm-partner-on-custom-cpu-for-broadcom-chip
    WWW.TOMSHARDWARE.COM
    Report: Arm developing custom CPU for OpenAI's in-house accelerator — core IP would underpin 10GW of installed AI capacity
    The Information reports that Arm is developing a CPU for OpenAI’s custom Broadcom-built accelerator, part of a sweeping expansion plan.
    0 ความคิดเห็น 0 การแบ่งปัน 143 มุมมอง 0 รีวิว
  • “AMD เปิดตัว Helios Rack” — แพลตฟอร์มฮาร์ดแวร์ AI ที่ทรงพลังกว่า พร้อมหน่วยความจำมากกว่า Nvidia ถึง 50%

    ในงาน OCP Global Summit 2025 AMD ได้เปิดตัว Helios Rack ซึ่งเป็นแพลตฟอร์มฮาร์ดแวร์ AI ระดับศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับการประมวลผลขนาดใหญ่และการใช้งานที่ยืดหยุ่น โดยมีจุดเด่นคือหน่วยความจำที่มากกว่าแพลตฟอร์ม Vera Rubin ของ Nvidia ถึง 50% ซึ่งช่วยให้สามารถฝึกโมเดล AI ขนาดใหญ่ได้เร็วและมีประสิทธิภาพมากขึ้น

    Helios Rack ถูกออกแบบให้สามารถบำรุงรักษาได้ง่ายขึ้น โดยใช้โครงสร้างแบบโมดูลาร์ที่สามารถถอดเปลี่ยน GPU และอุปกรณ์อื่น ๆ ได้โดยไม่ต้องหยุดการทำงานของระบบทั้งหมด ซึ่งเหมาะกับศูนย์ข้อมูลที่ต้องการ uptime สูง

    แพลตฟอร์มนี้ยังรองรับการเชื่อมต่อความเร็วสูงและการจัดการพลังงานอย่างมีประสิทธิภาพ โดยใช้เทคโนโลยีล่าสุดของ AMD ที่เน้นการลดความร้อนและเพิ่มความเสถียรในการทำงานต่อเนื่อง

    Helios Rack จะเป็นหัวใจสำคัญของการติดตั้ง GPU MI450 จำนวน 50,000 ตัวในซูเปอร์คลัสเตอร์ AI ที่ AMD ร่วมมือกับ Oracle ซึ่งจะเริ่มใช้งานในปี 2026 เพื่อรองรับการประมวลผล AI ระดับโลก

    ข้อมูลในข่าว
    AMD เปิดตัว Helios Rack ในงาน OCP Global Summit 2025
    มีหน่วยความจำมากกว่า Nvidia Vera Rubin ถึง 50%
    ออกแบบให้บำรุงรักษาได้ง่ายด้วยโครงสร้างแบบโมดูลาร์
    รองรับการเชื่อมต่อความเร็วสูงและการจัดการพลังงานอย่างมีประสิทธิภาพ
    จะใช้ในซูเปอร์คลัสเตอร์ AI ที่ร่วมมือกับ Oracle ในปี 2026
    เหมาะสำหรับการฝึกโมเดล AI ขนาดใหญ่และงานประมวลผลต่อเนื่อง

    คำเตือนจากข้อมูลข่าว
    การเปลี่ยนมาใช้แพลตฟอร์มใหม่อาจต้องปรับโครงสร้างพื้นฐานของศูนย์ข้อมูล
    หากไม่มีการจัดการความร้อนที่ดี อาจส่งผลต่อเสถียรภาพของระบบ
    การแข่งขันด้านฮาร์ดแวร์ AI อาจทำให้บริษัทต้องเร่งลงทุนโดยไม่ประเมินความคุ้มค่า
    การพึ่งพาเทคโนโลยีเฉพาะจากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงในระยะยาว

    https://www.tomshardware.com/tech-industry/amd-debuts-helios-rack-scale-ai-hardware-platform-at-ocp-global-summit-2025-promises-easier-serviceability-and-50-percent-more-memory-than-nvidias-vera-rubin
    🧠 “AMD เปิดตัว Helios Rack” — แพลตฟอร์มฮาร์ดแวร์ AI ที่ทรงพลังกว่า พร้อมหน่วยความจำมากกว่า Nvidia ถึง 50% ในงาน OCP Global Summit 2025 AMD ได้เปิดตัว Helios Rack ซึ่งเป็นแพลตฟอร์มฮาร์ดแวร์ AI ระดับศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับการประมวลผลขนาดใหญ่และการใช้งานที่ยืดหยุ่น โดยมีจุดเด่นคือหน่วยความจำที่มากกว่าแพลตฟอร์ม Vera Rubin ของ Nvidia ถึง 50% ซึ่งช่วยให้สามารถฝึกโมเดล AI ขนาดใหญ่ได้เร็วและมีประสิทธิภาพมากขึ้น Helios Rack ถูกออกแบบให้สามารถบำรุงรักษาได้ง่ายขึ้น โดยใช้โครงสร้างแบบโมดูลาร์ที่สามารถถอดเปลี่ยน GPU และอุปกรณ์อื่น ๆ ได้โดยไม่ต้องหยุดการทำงานของระบบทั้งหมด ซึ่งเหมาะกับศูนย์ข้อมูลที่ต้องการ uptime สูง แพลตฟอร์มนี้ยังรองรับการเชื่อมต่อความเร็วสูงและการจัดการพลังงานอย่างมีประสิทธิภาพ โดยใช้เทคโนโลยีล่าสุดของ AMD ที่เน้นการลดความร้อนและเพิ่มความเสถียรในการทำงานต่อเนื่อง Helios Rack จะเป็นหัวใจสำคัญของการติดตั้ง GPU MI450 จำนวน 50,000 ตัวในซูเปอร์คลัสเตอร์ AI ที่ AMD ร่วมมือกับ Oracle ซึ่งจะเริ่มใช้งานในปี 2026 เพื่อรองรับการประมวลผล AI ระดับโลก ✅ ข้อมูลในข่าว ➡️ AMD เปิดตัว Helios Rack ในงาน OCP Global Summit 2025 ➡️ มีหน่วยความจำมากกว่า Nvidia Vera Rubin ถึง 50% ➡️ ออกแบบให้บำรุงรักษาได้ง่ายด้วยโครงสร้างแบบโมดูลาร์ ➡️ รองรับการเชื่อมต่อความเร็วสูงและการจัดการพลังงานอย่างมีประสิทธิภาพ ➡️ จะใช้ในซูเปอร์คลัสเตอร์ AI ที่ร่วมมือกับ Oracle ในปี 2026 ➡️ เหมาะสำหรับการฝึกโมเดล AI ขนาดใหญ่และงานประมวลผลต่อเนื่อง ‼️ คำเตือนจากข้อมูลข่าว ⛔ การเปลี่ยนมาใช้แพลตฟอร์มใหม่อาจต้องปรับโครงสร้างพื้นฐานของศูนย์ข้อมูล ⛔ หากไม่มีการจัดการความร้อนที่ดี อาจส่งผลต่อเสถียรภาพของระบบ ⛔ การแข่งขันด้านฮาร์ดแวร์ AI อาจทำให้บริษัทต้องเร่งลงทุนโดยไม่ประเมินความคุ้มค่า ⛔ การพึ่งพาเทคโนโลยีเฉพาะจากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงในระยะยาว https://www.tomshardware.com/tech-industry/amd-debuts-helios-rack-scale-ai-hardware-platform-at-ocp-global-summit-2025-promises-easier-serviceability-and-50-percent-more-memory-than-nvidias-vera-rubin
    0 ความคิดเห็น 0 การแบ่งปัน 142 มุมมอง 0 รีวิว
  • “AMD และ Oracle ผนึกกำลัง” — เตรียมติดตั้ง 50,000 GPU MI450 สร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมาในปี 2026

    AMD และ Oracle ประกาศความร่วมมือครั้งใหญ่ในการสร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมา ด้วยการติดตั้ง GPU MI450 Instinct จำนวนถึง 50,000 ตัว โดยใช้สถาปัตยกรรม Helios rack ของ AMD ซึ่งออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการขยายตัวในอนาคต

    โครงการนี้จะเริ่มต้นในปี 2026 โดยมีเป้าหมายเพื่อเพิ่มขีดความสามารถด้าน AI ของ Oracle Cloud Infrastructure (OCI) ให้สามารถรองรับโมเดลขนาดใหญ่และการฝึกฝน AI ที่ซับซ้อนมากขึ้น โดย Helios rack จะช่วยให้การจัดการพลังงานและการระบายความร้อนมีประสิทธิภาพสูงขึ้น พร้อมรองรับการบำรุงรักษาได้ง่ายกว่าเดิม

    GPU MI450 เป็นรุ่นใหม่ล่าสุดจาก AMD ที่ออกแบบมาเพื่อแข่งขันกับ Nvidia ในตลาดศูนย์ข้อมูล AI โดยมีจุดเด่นด้านหน่วยความจำที่มากขึ้นและการเชื่อมต่อที่รวดเร็ว ซึ่งเหมาะสำหรับงานด้าน deep learning และการประมวลผลแบบกระจาย

    การร่วมมือครั้งนี้ไม่เพียงแต่เป็นการขยายโครงสร้างพื้นฐานของ Oracle เท่านั้น แต่ยังสะท้อนถึงแนวโน้มของอุตสาหกรรมที่กำลังเร่งลงทุนในระบบ AI ขนาดใหญ่ เพื่อรองรับความต้องการที่เพิ่มขึ้นจากองค์กรทั่วโลก

    ข้อมูลในข่าว
    AMD และ Oracle ร่วมมือกันติดตั้ง GPU MI450 Instinct จำนวน 50,000 ตัว
    ใช้สถาปัตยกรรม Helios rack ของ AMD เพื่อสร้างซูเปอร์คลัสเตอร์ AI
    โครงการจะเริ่มต้นในปี 2026 เพื่อขยาย Oracle Cloud Infrastructure
    Helios rack ออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการบำรุงรักษาที่ง่าย
    GPU MI450 มีหน่วยความจำมากขึ้นและเชื่อมต่อรวดเร็ว เหมาะกับงาน deep learning
    การลงทุนนี้สะท้อนแนวโน้มการขยายระบบ AI ขนาดใหญ่ในอุตสาหกรรม

    คำเตือนจากข้อมูลข่าว
    การติดตั้ง GPU จำนวนมากต้องใช้โครงสร้างพื้นฐานที่ซับซ้อนและมีต้นทุนสูง
    หากระบบระบายความร้อนไม่มีประสิทธิภาพ อาจส่งผลต่อเสถียรภาพของศูนย์ข้อมูล
    การแข่งขันด้านเทคโนโลยี AI อาจทำให้บริษัทต้องเร่งลงทุนโดยไม่ประเมินความคุ้มค่าอย่างรอบคอบ
    การพึ่งพา GPU จากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชนในอนาคต

    https://www.tomshardware.com/tech-industry/artificial-intelligence/amd-and-oracle-partner-to-deploy-50-000-mi450-instinct-gpus-in-new-ai-superclusters-deployment-of-expansion-set-for-2026-powered-by-amds-helios-rack
    🚀 “AMD และ Oracle ผนึกกำลัง” — เตรียมติดตั้ง 50,000 GPU MI450 สร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมาในปี 2026 AMD และ Oracle ประกาศความร่วมมือครั้งใหญ่ในการสร้างซูเปอร์คลัสเตอร์ AI ขนาดมหึมา ด้วยการติดตั้ง GPU MI450 Instinct จำนวนถึง 50,000 ตัว โดยใช้สถาปัตยกรรม Helios rack ของ AMD ซึ่งออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการขยายตัวในอนาคต โครงการนี้จะเริ่มต้นในปี 2026 โดยมีเป้าหมายเพื่อเพิ่มขีดความสามารถด้าน AI ของ Oracle Cloud Infrastructure (OCI) ให้สามารถรองรับโมเดลขนาดใหญ่และการฝึกฝน AI ที่ซับซ้อนมากขึ้น โดย Helios rack จะช่วยให้การจัดการพลังงานและการระบายความร้อนมีประสิทธิภาพสูงขึ้น พร้อมรองรับการบำรุงรักษาได้ง่ายกว่าเดิม GPU MI450 เป็นรุ่นใหม่ล่าสุดจาก AMD ที่ออกแบบมาเพื่อแข่งขันกับ Nvidia ในตลาดศูนย์ข้อมูล AI โดยมีจุดเด่นด้านหน่วยความจำที่มากขึ้นและการเชื่อมต่อที่รวดเร็ว ซึ่งเหมาะสำหรับงานด้าน deep learning และการประมวลผลแบบกระจาย การร่วมมือครั้งนี้ไม่เพียงแต่เป็นการขยายโครงสร้างพื้นฐานของ Oracle เท่านั้น แต่ยังสะท้อนถึงแนวโน้มของอุตสาหกรรมที่กำลังเร่งลงทุนในระบบ AI ขนาดใหญ่ เพื่อรองรับความต้องการที่เพิ่มขึ้นจากองค์กรทั่วโลก ✅ ข้อมูลในข่าว ➡️ AMD และ Oracle ร่วมมือกันติดตั้ง GPU MI450 Instinct จำนวน 50,000 ตัว ➡️ ใช้สถาปัตยกรรม Helios rack ของ AMD เพื่อสร้างซูเปอร์คลัสเตอร์ AI ➡️ โครงการจะเริ่มต้นในปี 2026 เพื่อขยาย Oracle Cloud Infrastructure ➡️ Helios rack ออกแบบมาเพื่อรองรับการประมวลผลระดับสูงและการบำรุงรักษาที่ง่าย ➡️ GPU MI450 มีหน่วยความจำมากขึ้นและเชื่อมต่อรวดเร็ว เหมาะกับงาน deep learning ➡️ การลงทุนนี้สะท้อนแนวโน้มการขยายระบบ AI ขนาดใหญ่ในอุตสาหกรรม ‼️ คำเตือนจากข้อมูลข่าว ⛔ การติดตั้ง GPU จำนวนมากต้องใช้โครงสร้างพื้นฐานที่ซับซ้อนและมีต้นทุนสูง ⛔ หากระบบระบายความร้อนไม่มีประสิทธิภาพ อาจส่งผลต่อเสถียรภาพของศูนย์ข้อมูล ⛔ การแข่งขันด้านเทคโนโลยี AI อาจทำให้บริษัทต้องเร่งลงทุนโดยไม่ประเมินความคุ้มค่าอย่างรอบคอบ ⛔ การพึ่งพา GPU จากผู้ผลิตรายเดียวอาจสร้างความเสี่ยงด้านซัพพลายเชนในอนาคต https://www.tomshardware.com/tech-industry/artificial-intelligence/amd-and-oracle-partner-to-deploy-50-000-mi450-instinct-gpus-in-new-ai-superclusters-deployment-of-expansion-set-for-2026-powered-by-amds-helios-rack
    0 ความคิดเห็น 0 การแบ่งปัน 178 มุมมอง 0 รีวิว
  • “AMD และ Intel ฉลองครบรอบพันธมิตร x86” — พร้อมเปิดตัวฟีเจอร์ใหม่เสริมความปลอดภัยใน CPU ยุคหน้า

    AMD และ Intel สองยักษ์ใหญ่แห่งวงการซีพียู ได้ร่วมฉลองครบรอบ 1 ปีของการก่อตั้งกลุ่มพันธมิตร x86 Ecosystem Advisory Group ซึ่งมีเป้าหมายเพื่อพัฒนาและประสานงานฟีเจอร์ใหม่ในสถาปัตยกรรม x86 ให้รองรับร่วมกันระหว่างสองค่าย

    ในปีแรกของความร่วมมือ ทั้งสองบริษัทสามารถผลักดันฟีเจอร์ใหม่ได้ถึง 4 รายการ ได้แก่ ACE (Advanced Matrix Extension), AVX10, FRED (Flexible Return and Event Delivery) และ ChkTag (x86 Memory Tagging) ซึ่งทั้งหมดมุ่งเน้นการเพิ่มประสิทธิภาพและความปลอดภัยของระบบ

    ฟีเจอร์ ACE และ AVX10 จะช่วยเพิ่มความเร็วในการคำนวณเมทริกซ์และเวกเตอร์ โดย Intel ได้เริ่มใช้งาน AVX10.1 และ AMX ในซีพียู Granite Rapids แล้ว ส่วน AMD จะเริ่มรองรับในรุ่นถัดไป เช่น Zen 6 หรือ Zen 7

    FRED เป็นฟีเจอร์ที่ออกแบบมาเพื่อแทนที่กลไกการจัดการ interrupt แบบเดิมของ x86 โดยใช้เส้นทางการเข้าออกจากโหมดผู้ใช้และโหมดเคอร์เนลที่กำหนดโดยฮาร์ดแวร์ ซึ่งช่วยลด latency และเพิ่มความปลอดภัยในการสลับบริบทระหว่างแอปพลิเคชันกับระบบปฏิบัติการ

    ChkTag หรือ x86 Memory Tagging เป็นฟีเจอร์ใหม่ที่ยังไม่ถูกพูดถึงมากนัก แต่มีความสำคัญในการตรวจจับข้อผิดพลาดด้านความปลอดภัยของหน่วยความจำ เช่น buffer overflow และ use-after-free โดยใช้การติดแท็กหน่วยความจำในระดับฮาร์ดแวร์ ซึ่งคล้ายกับเทคโนโลยี MTE ของ Arm ที่ Apple และ Ampere ใช้อยู่

    แม้จะยังไม่มีกรอบเวลาชัดเจนในการนำฟีเจอร์เหล่านี้มาใช้งานจริงในผลิตภัณฑ์ แต่การรับรองจากกลุ่มพันธมิตร x86 ถือเป็นสัญญาณว่าอนาคตของซีพียูจะมีความปลอดภัยและประสิทธิภาพสูงขึ้นอย่างแน่นอน

    ข้อมูลในข่าว
    AMD และ Intel ฉลองครบรอบ 1 ปีของกลุ่มพันธมิตร x86 Ecosystem Advisory Group
    ฟีเจอร์ใหม่ที่ได้รับการรับรอง ได้แก่ ACE, AVX10, FRED และ ChkTag
    ACE และ AVX10 ช่วยเพิ่มประสิทธิภาพการคำนวณเมทริกซ์และเวกเตอร์
    Intel เริ่มใช้งาน AVX10.1 และ AMX แล้ว ส่วน AMD จะรองรับใน Zen รุ่นถัดไป
    FRED แทนที่กลไก interrupt แบบเดิมด้วยเส้นทางที่กำหนดโดยฮาร์ดแวร์
    ChkTag ตรวจจับข้อผิดพลาดด้านความปลอดภัยของหน่วยความจำในระดับฮาร์ดแวร์
    เทคโนโลยีคล้ายกับ MTE ของ Arm ที่ Apple และ Ampere ใช้

    https://www.tomshardware.com/pc-components/cpus/amd-and-intel-celebrate-first-anniversary-of-x86-alliance-new-security-features-coming-to-x86-cpus
    🤝 “AMD และ Intel ฉลองครบรอบพันธมิตร x86” — พร้อมเปิดตัวฟีเจอร์ใหม่เสริมความปลอดภัยใน CPU ยุคหน้า AMD และ Intel สองยักษ์ใหญ่แห่งวงการซีพียู ได้ร่วมฉลองครบรอบ 1 ปีของการก่อตั้งกลุ่มพันธมิตร x86 Ecosystem Advisory Group ซึ่งมีเป้าหมายเพื่อพัฒนาและประสานงานฟีเจอร์ใหม่ในสถาปัตยกรรม x86 ให้รองรับร่วมกันระหว่างสองค่าย ในปีแรกของความร่วมมือ ทั้งสองบริษัทสามารถผลักดันฟีเจอร์ใหม่ได้ถึง 4 รายการ ได้แก่ ACE (Advanced Matrix Extension), AVX10, FRED (Flexible Return and Event Delivery) และ ChkTag (x86 Memory Tagging) ซึ่งทั้งหมดมุ่งเน้นการเพิ่มประสิทธิภาพและความปลอดภัยของระบบ ฟีเจอร์ ACE และ AVX10 จะช่วยเพิ่มความเร็วในการคำนวณเมทริกซ์และเวกเตอร์ โดย Intel ได้เริ่มใช้งาน AVX10.1 และ AMX ในซีพียู Granite Rapids แล้ว ส่วน AMD จะเริ่มรองรับในรุ่นถัดไป เช่น Zen 6 หรือ Zen 7 FRED เป็นฟีเจอร์ที่ออกแบบมาเพื่อแทนที่กลไกการจัดการ interrupt แบบเดิมของ x86 โดยใช้เส้นทางการเข้าออกจากโหมดผู้ใช้และโหมดเคอร์เนลที่กำหนดโดยฮาร์ดแวร์ ซึ่งช่วยลด latency และเพิ่มความปลอดภัยในการสลับบริบทระหว่างแอปพลิเคชันกับระบบปฏิบัติการ ChkTag หรือ x86 Memory Tagging เป็นฟีเจอร์ใหม่ที่ยังไม่ถูกพูดถึงมากนัก แต่มีความสำคัญในการตรวจจับข้อผิดพลาดด้านความปลอดภัยของหน่วยความจำ เช่น buffer overflow และ use-after-free โดยใช้การติดแท็กหน่วยความจำในระดับฮาร์ดแวร์ ซึ่งคล้ายกับเทคโนโลยี MTE ของ Arm ที่ Apple และ Ampere ใช้อยู่ แม้จะยังไม่มีกรอบเวลาชัดเจนในการนำฟีเจอร์เหล่านี้มาใช้งานจริงในผลิตภัณฑ์ แต่การรับรองจากกลุ่มพันธมิตร x86 ถือเป็นสัญญาณว่าอนาคตของซีพียูจะมีความปลอดภัยและประสิทธิภาพสูงขึ้นอย่างแน่นอน ✅ ข้อมูลในข่าว ➡️ AMD และ Intel ฉลองครบรอบ 1 ปีของกลุ่มพันธมิตร x86 Ecosystem Advisory Group ➡️ ฟีเจอร์ใหม่ที่ได้รับการรับรอง ได้แก่ ACE, AVX10, FRED และ ChkTag ➡️ ACE และ AVX10 ช่วยเพิ่มประสิทธิภาพการคำนวณเมทริกซ์และเวกเตอร์ ➡️ Intel เริ่มใช้งาน AVX10.1 และ AMX แล้ว ส่วน AMD จะรองรับใน Zen รุ่นถัดไป ➡️ FRED แทนที่กลไก interrupt แบบเดิมด้วยเส้นทางที่กำหนดโดยฮาร์ดแวร์ ➡️ ChkTag ตรวจจับข้อผิดพลาดด้านความปลอดภัยของหน่วยความจำในระดับฮาร์ดแวร์ ➡️ เทคโนโลยีคล้ายกับ MTE ของ Arm ที่ Apple และ Ampere ใช้ https://www.tomshardware.com/pc-components/cpus/amd-and-intel-celebrate-first-anniversary-of-x86-alliance-new-security-features-coming-to-x86-cpus
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • “Intel และ AMD จับมือยกระดับ x86 – เพิ่มฟีเจอร์ใหม่เพื่ออนาคตของการประมวลผล”

    ในยุคที่ ARM และ RISC-V กำลังรุกคืบเข้าสู่ตลาดพีซีและเซิร์ฟเวอร์อย่างรวดเร็ว สองยักษ์ใหญ่แห่งโลก x86 อย่าง Intel และ AMD ก็ไม่ยอมอยู่เฉย ล่าสุดได้ประกาศความร่วมมือในการเพิ่มฟีเจอร์ใหม่ให้กับสถาปัตยกรรม x86 เพื่อให้ทันกับความต้องการของงานประมวลผลยุคใหม่

    ฟีเจอร์ใหม่ที่ถูกเปิดเผย ได้แก่:

    AVX10: ชุดคำสั่งเวกเตอร์รุ่นใหม่ที่รวมความสามารถของ AVX512 และ AVX2 เข้าด้วยกัน พร้อมรองรับการทำงานแบบ scalable บนทุกระดับของ CPU

    FRED (Flexible Return and Event Delivery): กลไกใหม่สำหรับการจัดการ interrupt และ event ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น

    CHKTAG: ฟีเจอร์สำหรับการตรวจสอบความถูกต้องของ pointer และ memory tag เพื่อป้องกันการโจมตีแบบ buffer overflow

    ACE (Architectural Capability Enumeration): ระบบระบุความสามารถของ CPU เพื่อให้ซอฟต์แวร์สามารถปรับตัวได้อย่างแม่นยำ

    การรวมฟีเจอร์เหล่านี้เข้าด้วยกันไม่ใช่แค่การเพิ่มประสิทธิภาพ แต่คือการสร้าง “มาตรฐานร่วม” ระหว่าง Intel และ AMD เพื่อให้ ecosystem ของ x86 มีความเสถียรและปลอดภัยมากขึ้นในระยะยาว

    ฟีเจอร์ใหม่ใน x86
    AVX10 รวมความสามารถของ AVX512 และ AVX2 รองรับทุกระดับ CPU
    FRED ช่วยจัดการ interrupt/event ได้ปลอดภัยและเร็วขึ้น
    CHKTAG ป้องกันการโจมตีหน่วยความจำด้วยการตรวจสอบ pointer
    ACE ช่วยให้ซอฟต์แวร์รู้จักความสามารถของ CPU อย่างแม่นยำ

    ความร่วมมือระหว่าง Intel และ AMD
    สร้างมาตรฐานร่วมเพื่อให้ ecosystem ของ x86 มีความเสถียร
    ลดความซับซ้อนในการพัฒนาและปรับแต่งซอฟต์แวร์
    เตรียมรับมือกับการแข่งขันจาก ARM และ RISC-V

    ผลกระทบต่อผู้ใช้และนักพัฒนา
    ซอฟต์แวร์สามารถทำงานได้ดีขึ้นบนทุกแพลตฟอร์ม x86
    เพิ่มความปลอดภัยในระดับฮาร์ดแวร์
    ลดต้นทุนในการพัฒนาและทดสอบระบบ

    คำเตือนและข้อควรระวัง
    ฟีเจอร์ใหม่อาจใช้เวลานานในการนำไปใช้จริงในผลิตภัณฑ์
    ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่โดยทันที
    การเปลี่ยนแปลงในระดับสถาปัตยกรรมอาจต้องปรับ ecosystem โดยรวม
    หากไม่สื่อสารกับนักพัฒนาอย่างชัดเจน อาจเกิดความสับสนในการใช้งาน

    https://wccftech.com/intel-amd-strengten-x86-ecosystem-new-standardized-features-avx10-fred-chktag-ace/
    🎁 “Intel และ AMD จับมือยกระดับ x86 – เพิ่มฟีเจอร์ใหม่เพื่ออนาคตของการประมวลผล” ในยุคที่ ARM และ RISC-V กำลังรุกคืบเข้าสู่ตลาดพีซีและเซิร์ฟเวอร์อย่างรวดเร็ว สองยักษ์ใหญ่แห่งโลก x86 อย่าง Intel และ AMD ก็ไม่ยอมอยู่เฉย ล่าสุดได้ประกาศความร่วมมือในการเพิ่มฟีเจอร์ใหม่ให้กับสถาปัตยกรรม x86 เพื่อให้ทันกับความต้องการของงานประมวลผลยุคใหม่ ฟีเจอร์ใหม่ที่ถูกเปิดเผย ได้แก่: ✨ AVX10: ชุดคำสั่งเวกเตอร์รุ่นใหม่ที่รวมความสามารถของ AVX512 และ AVX2 เข้าด้วยกัน พร้อมรองรับการทำงานแบบ scalable บนทุกระดับของ CPU ✨ FRED (Flexible Return and Event Delivery): กลไกใหม่สำหรับการจัดการ interrupt และ event ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น ✨ CHKTAG: ฟีเจอร์สำหรับการตรวจสอบความถูกต้องของ pointer และ memory tag เพื่อป้องกันการโจมตีแบบ buffer overflow ✨ ACE (Architectural Capability Enumeration): ระบบระบุความสามารถของ CPU เพื่อให้ซอฟต์แวร์สามารถปรับตัวได้อย่างแม่นยำ การรวมฟีเจอร์เหล่านี้เข้าด้วยกันไม่ใช่แค่การเพิ่มประสิทธิภาพ แต่คือการสร้าง “มาตรฐานร่วม” ระหว่าง Intel และ AMD เพื่อให้ ecosystem ของ x86 มีความเสถียรและปลอดภัยมากขึ้นในระยะยาว ✅ ฟีเจอร์ใหม่ใน x86 ➡️ AVX10 รวมความสามารถของ AVX512 และ AVX2 รองรับทุกระดับ CPU ➡️ FRED ช่วยจัดการ interrupt/event ได้ปลอดภัยและเร็วขึ้น ➡️ CHKTAG ป้องกันการโจมตีหน่วยความจำด้วยการตรวจสอบ pointer ➡️ ACE ช่วยให้ซอฟต์แวร์รู้จักความสามารถของ CPU อย่างแม่นยำ ✅ ความร่วมมือระหว่าง Intel และ AMD ➡️ สร้างมาตรฐานร่วมเพื่อให้ ecosystem ของ x86 มีความเสถียร ➡️ ลดความซับซ้อนในการพัฒนาและปรับแต่งซอฟต์แวร์ ➡️ เตรียมรับมือกับการแข่งขันจาก ARM และ RISC-V ✅ ผลกระทบต่อผู้ใช้และนักพัฒนา ➡️ ซอฟต์แวร์สามารถทำงานได้ดีขึ้นบนทุกแพลตฟอร์ม x86 ➡️ เพิ่มความปลอดภัยในระดับฮาร์ดแวร์ ➡️ ลดต้นทุนในการพัฒนาและทดสอบระบบ ‼️ คำเตือนและข้อควรระวัง ⛔ ฟีเจอร์ใหม่อาจใช้เวลานานในการนำไปใช้จริงในผลิตภัณฑ์ ⛔ ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่โดยทันที ⛔ การเปลี่ยนแปลงในระดับสถาปัตยกรรมอาจต้องปรับ ecosystem โดยรวม ⛔ หากไม่สื่อสารกับนักพัฒนาอย่างชัดเจน อาจเกิดความสับสนในการใช้งาน https://wccftech.com/intel-amd-strengten-x86-ecosystem-new-standardized-features-avx10-fred-chktag-ace/
    WCCFTECH.COM
    Intel & AMD Strengten x86 Ecosystem With New Standardized Features: AVX10, FRED, ChkTag & ACE
    Intel & AMD celebrate the first anniversary of the x86 ecosystem advisory group & further strengthen it through new standardized features.
    0 ความคิดเห็น 0 การแบ่งปัน 170 มุมมอง 0 รีวิว
  • "AMD Sound Wave – APU พลัง ARM ที่อาจเปลี่ยนเกมพกพาในอนาคต”

    แม้ AMD เคยยืนยันว่า ARM ไม่ได้มีข้อได้เปรียบด้านประสิทธิภาพเหนือ x86 โดยตรง แต่ล่าสุดกลับมีข้อมูลจาก shipping manifest ที่เผยว่า AMD กำลังพัฒนา SoC ใหม่ที่ใช้สถาปัตยกรรม ARM ภายใต้โค้ดเนม “Sound Wave”

    ชิปนี้มาในแพ็กเกจ BGA 1074 ขนาดเล็กเพียง 32 × 27 มม. เหมาะกับอุปกรณ์พกพาอย่างแล็ปท็อปหรือเกมคอนโซลแบบ handheld โดยใช้ซ็อกเก็ต FF5 ซึ่งเป็นรุ่นใหม่ที่มาแทน FF3 ที่เคยใช้ใน Steam Deck

    Sound Wave คาดว่าจะใช้สถาปัตยกรรมแบบ big.LITTLE โดยมี 2 P-Core และ 4 E-Core รวมเป็น 6 คอร์ พร้อมกราฟิก RDNA 3.5 สูงสุด 4 CUs และทำงานในพลังงานเพียง 10W ซึ่งเหมาะกับการเล่นเกมต่อเนื่องบนแบตเตอรี่

    แม้ยังไม่มีข้อมูลชัดเจนว่า AMD จะนำชิปนี้ไปใช้ในผลิตภัณฑ์ใด แต่การเคลื่อนไหวนี้สะท้อนถึงการแข่งขันที่ร้อนแรงในตลาด ARM ระหว่าง AMD, Qualcomm และ NVIDIA ที่ต่างเตรียมเปิดตัวชิปใหม่สำหรับอุปกรณ์พกพาและ AI

    AMD พัฒนา APU สถาปัตยกรรม ARM
    โค้ดเนม “Sound Wave” ปรากฏใน shipping manifest ล่าสุด
    ใช้แพ็กเกจ BGA 1074 ขนาด 32 × 27 มม.
    เหมาะกับ embedded systems และอุปกรณ์พกพา

    สเปกเบื้องต้นของ Sound Wave
    ใช้ซ็อกเก็ต FF5 แทน FF3 ที่เคยใช้ใน Steam Deck
    big.LITTLE architecture: 2 P-Core + 4 E-Core
    กราฟิก RDNA 3.5 สูงสุด 4 CUs
    TDP เพียง 10W พร้อมตัวเลือกปรับแต่งตามลูกค้า

    ความเป็นไปได้ในการใช้งาน
    อาจใช้ใน handheld gaming, Chromebook หรืออุปกรณ์ IoT
    รองรับการเล่นเกมต่อเนื่องบนแบตเตอรี่
    อาจเป็นคู่แข่งของ Snapdragon X Elite และ NVIDIA Grace

    แนวโน้มตลาด ARM
    ARM กำลังขยายจากมือถือสู่ PC และเซิร์ฟเวอร์
    Apple M-series เป็นตัวอย่างความสำเร็จของ ARM บน desktop
    AMD อาจใช้ Sound Wave เป็นจุดเริ่มต้นในการบุกตลาด ARM

    https://www.techpowerup.com/341848/amd-sound-wave-arm-powered-apu-appears-in-shipping-manifests
    🌀 "AMD Sound Wave – APU พลัง ARM ที่อาจเปลี่ยนเกมพกพาในอนาคต” แม้ AMD เคยยืนยันว่า ARM ไม่ได้มีข้อได้เปรียบด้านประสิทธิภาพเหนือ x86 โดยตรง แต่ล่าสุดกลับมีข้อมูลจาก shipping manifest ที่เผยว่า AMD กำลังพัฒนา SoC ใหม่ที่ใช้สถาปัตยกรรม ARM ภายใต้โค้ดเนม “Sound Wave” ชิปนี้มาในแพ็กเกจ BGA 1074 ขนาดเล็กเพียง 32 × 27 มม. เหมาะกับอุปกรณ์พกพาอย่างแล็ปท็อปหรือเกมคอนโซลแบบ handheld โดยใช้ซ็อกเก็ต FF5 ซึ่งเป็นรุ่นใหม่ที่มาแทน FF3 ที่เคยใช้ใน Steam Deck Sound Wave คาดว่าจะใช้สถาปัตยกรรมแบบ big.LITTLE โดยมี 2 P-Core และ 4 E-Core รวมเป็น 6 คอร์ พร้อมกราฟิก RDNA 3.5 สูงสุด 4 CUs และทำงานในพลังงานเพียง 10W ซึ่งเหมาะกับการเล่นเกมต่อเนื่องบนแบตเตอรี่ แม้ยังไม่มีข้อมูลชัดเจนว่า AMD จะนำชิปนี้ไปใช้ในผลิตภัณฑ์ใด แต่การเคลื่อนไหวนี้สะท้อนถึงการแข่งขันที่ร้อนแรงในตลาด ARM ระหว่าง AMD, Qualcomm และ NVIDIA ที่ต่างเตรียมเปิดตัวชิปใหม่สำหรับอุปกรณ์พกพาและ AI ✅ AMD พัฒนา APU สถาปัตยกรรม ARM ➡️ โค้ดเนม “Sound Wave” ปรากฏใน shipping manifest ล่าสุด ➡️ ใช้แพ็กเกจ BGA 1074 ขนาด 32 × 27 มม. ➡️ เหมาะกับ embedded systems และอุปกรณ์พกพา ✅ สเปกเบื้องต้นของ Sound Wave ➡️ ใช้ซ็อกเก็ต FF5 แทน FF3 ที่เคยใช้ใน Steam Deck ➡️ big.LITTLE architecture: 2 P-Core + 4 E-Core ➡️ กราฟิก RDNA 3.5 สูงสุด 4 CUs ➡️ TDP เพียง 10W พร้อมตัวเลือกปรับแต่งตามลูกค้า ✅ ความเป็นไปได้ในการใช้งาน ➡️ อาจใช้ใน handheld gaming, Chromebook หรืออุปกรณ์ IoT ➡️ รองรับการเล่นเกมต่อเนื่องบนแบตเตอรี่ ➡️ อาจเป็นคู่แข่งของ Snapdragon X Elite และ NVIDIA Grace ✅ แนวโน้มตลาด ARM ➡️ ARM กำลังขยายจากมือถือสู่ PC และเซิร์ฟเวอร์ ➡️ Apple M-series เป็นตัวอย่างความสำเร็จของ ARM บน desktop ➡️ AMD อาจใช้ Sound Wave เป็นจุดเริ่มต้นในการบุกตลาด ARM https://www.techpowerup.com/341848/amd-sound-wave-arm-powered-apu-appears-in-shipping-manifests
    WWW.TECHPOWERUP.COM
    AMD "Sound Wave" Arm-Powered APU Appears in Shipping Manifests
    Despite AMD's assertion that the Arm ISA doesn't provide any inherent efficiency advantage and that power savings are primarily dependent on the package and design, it seems AMD is developing an Arm-based SoC codenamed "Sound Wave." Recent shipping manifests, noted by X user @Olrak29_, indicate that...
    0 ความคิดเห็น 0 การแบ่งปัน 169 มุมมอง 0 รีวิว
  • “OpenAI จับมือ Broadcom สร้างชิป AI 10GW – ก้าวใหม่สู่ยุคฮาร์ดแวร์เฉพาะทาง”

    ในโลกที่ AI กำลังกลายเป็นหัวใจของทุกอุตสาหกรรม OpenAI ไม่หยุดอยู่แค่การพัฒนาโมเดลอัจฉริยะ แต่กำลังเดินหน้าสู่การสร้าง “ฮาร์ดแวร์เฉพาะทาง” ด้วยตัวเอง โดยล่าสุดได้ประกาศความร่วมมือกับ Broadcom ในการพัฒนาและติดตั้งระบบเร่งการประมวลผล (accelerators) สำหรับงาน AI ขนาดมหึมา รวมถึงระบบแร็คเซิร์ฟเวอร์ที่รองรับพลังงานรวมถึง 10 กิกะวัตต์

    ข้อตกลงนี้เป็นส่วนหนึ่งของยุทธศาสตร์ระยะยาวของ OpenAI ที่ต้องการลดการพึ่งพา GPU จาก Nvidia และหันมาใช้ชิปที่ออกแบบเอง โดยอาศัยความเชี่ยวชาญด้านเครือข่ายและ IP ฮาร์ดแวร์จาก Broadcom ซึ่งเคยผลิตชิป AI ให้กับ Google TPU มาก่อน

    ระบบใหม่จะใช้โครงสร้างเครือข่ายแบบ Ethernet เพื่อให้สามารถขยายได้ง่าย และไม่ผูกติดกับผู้ผลิตรายใดรายหนึ่ง โดยการติดตั้งจะเริ่มในครึ่งหลังของปี 2026 และคาดว่าจะเสร็จสมบูรณ์ภายในปี 2029

    นอกจากนี้ OpenAI ยังมีดีลกับ AMD และ Nvidia รวมถึง CoreWeave ซึ่งรวมแล้วมีการลงทุนในฮาร์ดแวร์มากกว่า 26 กิกะวัตต์ทั่วโลก ถือเป็นการเตรียมความพร้อมสำหรับการฝึกและใช้งานโมเดล AI ขนาดใหญ่ในอนาคต

    ข้อตกลงระหว่าง OpenAI และ Broadcom
    ร่วมกันพัฒนาและติดตั้งระบบเร่งการประมวลผล AI ขนาด 10GW
    OpenAI ออกแบบตัวเร่งและระบบ ส่วน Broadcom รับผิดชอบการผลิตและติดตั้ง
    เริ่มใช้งานจริงในครึ่งหลังของปี 2026 และเสร็จสิ้นภายในปี 2029

    เป้าหมายของ OpenAI
    ลดการพึ่งพา GPU จาก Nvidia
    สร้างฮาร์ดแวร์เฉพาะทางที่เหมาะกับงานฝึกและใช้งานโมเดล AI
    ใช้โครงสร้าง Ethernet เพื่อความยืดหยุ่นและขยายง่าย

    ความร่วมมือเพิ่มเติม
    มีดีลกับ Nvidia, AMD และ CoreWeave รวมถึง 26GW ของฮาร์ดแวร์
    Broadcom เคยผลิตชิป AI ให้ Google TPU และมีความเชี่ยวชาญด้าน IP
    OpenAI ได้เปรียบจาก supply chain ที่มั่นคงและทีมออกแบบ ASIC ระดับโลก

    ผลกระทบต่ออุตสาหกรรม
    บริษัทใหญ่หลายราย เช่น Amazon, Google, Meta และ Microsoft กำลังพัฒนาชิป AI เอง
    ตลาดกำลังเปลี่ยนจาก GPU-centric ไปสู่ระบบเร่งแบบเฉพาะทาง
    ความสามารถในการผลิตและออกแบบชิปจะเป็นตัวชี้วัดความได้เปรียบในยุค AI

    ความท้าทายและข้อควรระวัง
    ยังไม่มีการเปิดเผยผู้ผลิตชิป (foundry), การบรรจุ (packaging) หรือชนิดหน่วยความจำ
    การออกแบบและผลิตชิปใช้เวลานานและต้องการความแม่นยำสูง
    ความสำเร็จของระบบใหม่ยังต้องพิสูจน์ในระดับการใช้งานจริง
    Ecosystem ของ Broadcom ยังไม่เทียบเท่ากับ CUDA ของ Nvidia ในด้านซอฟต์แวร์และเครื่องมือ

    https://www.tomshardware.com/openai-broadcom-to-co-develop-10gw-of-custom-ai-chips
    🤖 “OpenAI จับมือ Broadcom สร้างชิป AI 10GW – ก้าวใหม่สู่ยุคฮาร์ดแวร์เฉพาะทาง” ในโลกที่ AI กำลังกลายเป็นหัวใจของทุกอุตสาหกรรม OpenAI ไม่หยุดอยู่แค่การพัฒนาโมเดลอัจฉริยะ แต่กำลังเดินหน้าสู่การสร้าง “ฮาร์ดแวร์เฉพาะทาง” ด้วยตัวเอง โดยล่าสุดได้ประกาศความร่วมมือกับ Broadcom ในการพัฒนาและติดตั้งระบบเร่งการประมวลผล (accelerators) สำหรับงาน AI ขนาดมหึมา รวมถึงระบบแร็คเซิร์ฟเวอร์ที่รองรับพลังงานรวมถึง 10 กิกะวัตต์ ข้อตกลงนี้เป็นส่วนหนึ่งของยุทธศาสตร์ระยะยาวของ OpenAI ที่ต้องการลดการพึ่งพา GPU จาก Nvidia และหันมาใช้ชิปที่ออกแบบเอง โดยอาศัยความเชี่ยวชาญด้านเครือข่ายและ IP ฮาร์ดแวร์จาก Broadcom ซึ่งเคยผลิตชิป AI ให้กับ Google TPU มาก่อน ระบบใหม่จะใช้โครงสร้างเครือข่ายแบบ Ethernet เพื่อให้สามารถขยายได้ง่าย และไม่ผูกติดกับผู้ผลิตรายใดรายหนึ่ง โดยการติดตั้งจะเริ่มในครึ่งหลังของปี 2026 และคาดว่าจะเสร็จสมบูรณ์ภายในปี 2029 นอกจากนี้ OpenAI ยังมีดีลกับ AMD และ Nvidia รวมถึง CoreWeave ซึ่งรวมแล้วมีการลงทุนในฮาร์ดแวร์มากกว่า 26 กิกะวัตต์ทั่วโลก ถือเป็นการเตรียมความพร้อมสำหรับการฝึกและใช้งานโมเดล AI ขนาดใหญ่ในอนาคต ✅ ข้อตกลงระหว่าง OpenAI และ Broadcom ➡️ ร่วมกันพัฒนาและติดตั้งระบบเร่งการประมวลผล AI ขนาด 10GW ➡️ OpenAI ออกแบบตัวเร่งและระบบ ส่วน Broadcom รับผิดชอบการผลิตและติดตั้ง ➡️ เริ่มใช้งานจริงในครึ่งหลังของปี 2026 และเสร็จสิ้นภายในปี 2029 ✅ เป้าหมายของ OpenAI ➡️ ลดการพึ่งพา GPU จาก Nvidia ➡️ สร้างฮาร์ดแวร์เฉพาะทางที่เหมาะกับงานฝึกและใช้งานโมเดล AI ➡️ ใช้โครงสร้าง Ethernet เพื่อความยืดหยุ่นและขยายง่าย ✅ ความร่วมมือเพิ่มเติม ➡️ มีดีลกับ Nvidia, AMD และ CoreWeave รวมถึง 26GW ของฮาร์ดแวร์ ➡️ Broadcom เคยผลิตชิป AI ให้ Google TPU และมีความเชี่ยวชาญด้าน IP ➡️ OpenAI ได้เปรียบจาก supply chain ที่มั่นคงและทีมออกแบบ ASIC ระดับโลก ✅ ผลกระทบต่ออุตสาหกรรม ➡️ บริษัทใหญ่หลายราย เช่น Amazon, Google, Meta และ Microsoft กำลังพัฒนาชิป AI เอง ➡️ ตลาดกำลังเปลี่ยนจาก GPU-centric ไปสู่ระบบเร่งแบบเฉพาะทาง ➡️ ความสามารถในการผลิตและออกแบบชิปจะเป็นตัวชี้วัดความได้เปรียบในยุค AI ‼️ ความท้าทายและข้อควรระวัง ⛔ ยังไม่มีการเปิดเผยผู้ผลิตชิป (foundry), การบรรจุ (packaging) หรือชนิดหน่วยความจำ ⛔ การออกแบบและผลิตชิปใช้เวลานานและต้องการความแม่นยำสูง ⛔ ความสำเร็จของระบบใหม่ยังต้องพิสูจน์ในระดับการใช้งานจริง ⛔ Ecosystem ของ Broadcom ยังไม่เทียบเท่ากับ CUDA ของ Nvidia ในด้านซอฟต์แวร์และเครื่องมือ https://www.tomshardware.com/openai-broadcom-to-co-develop-10gw-of-custom-ai-chips
    WWW.TOMSHARDWARE.COM
    OpenAI and Broadcom to co-develop 10GW of custom AI chips in yet another blockbuster AI partnership — deployments start in 2026
    The AI firm’s latest hardware deal locks in another 10 gigawatts of capacity as it moves to design its own accelerators.
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • “Intel 18A เริ่มผลิตก่อน TSMC N2 — ศึกเทคโนโลยีระดับ 2nm เปิดฉากแล้ว”

    Intel ประกาศเริ่มการผลิตเชิงพาณิชย์ของกระบวนการผลิต 18A (1.8nm class) ก่อนคู่แข่งอย่าง TSMC ที่ยังอยู่ในช่วงเตรียมการสำหรับเทคโนโลยี N2 (2nm class) ซึ่งคาดว่าจะเริ่มผลิตได้ในช่วงกลางถึงปลายปี 2026

    Intel 18A ใช้เทคโนโลยี RibbonFET (ทรานซิสเตอร์แบบ Gate-All-Around) และ PowerVia (การจ่ายไฟจากด้านหลังของเวเฟอร์) ซึ่งช่วยลดความต้านทานและเพิ่มประสิทธิภาพการใช้พลังงาน ขณะที่ TSMC N2 ก็จะใช้ GAA เช่นกัน แต่ยังไม่มีการเปิดเผยว่าจะใช้เทคนิคการจ่ายไฟจากด้านหลังหรือไม่

    Intel ตั้งเป้าให้ 18A เป็นกระบวนการผลิตที่ใช้ได้ทั้งกับผลิตภัณฑ์ของตัวเองและลูกค้าภายนอก เช่น MediaTek และ U.S. Department of Defense ซึ่งถือเป็นก้าวสำคัญในการกลับเข้าสู่ตลาด foundry อย่างจริงจัง

    ข้อมูลสำคัญจากข่าว
    Intel เริ่มผลิต 18A ก่อน TSMC N2
    18A ใช้ RibbonFET และ PowerVia เพื่อเพิ่มประสิทธิภาพ
    TSMC N2 จะใช้ GAA แต่ยังไม่ยืนยันเรื่อง PowerVia
    Intel วางแผนให้ 18A รองรับลูกค้าภายนอก เช่น MediaTek
    TSMC N2 คาดว่าจะเริ่มผลิตในปี 2026

    ข้อมูลเสริมจากภายนอก
    RibbonFET เป็นเทคโนโลยี GAA ที่ Intel พัฒนาขึ้นเอง
    PowerVia ช่วยลดความซับซ้อนของการเดินสายไฟด้านหน้าเวเฟอร์
    GAA ช่วยลด leakage current และเพิ่ม density ของทรานซิสเตอร์
    Intel ตั้งเป้าแซง TSMC และ Samsung ในด้านเทคโนโลยีภายในปี 2025
    TSMC N2 จะใช้ในชิปของ Apple, AMD และ NVIDIA เป็นหลัก

    https://www.tomshardware.com/pc-components/cpus/intels-18a-production-starts-before-tsmcs-competing-n2-tech-heres-how-the-two-process-nodes-compare
    ⚙️ “Intel 18A เริ่มผลิตก่อน TSMC N2 — ศึกเทคโนโลยีระดับ 2nm เปิดฉากแล้ว” Intel ประกาศเริ่มการผลิตเชิงพาณิชย์ของกระบวนการผลิต 18A (1.8nm class) ก่อนคู่แข่งอย่าง TSMC ที่ยังอยู่ในช่วงเตรียมการสำหรับเทคโนโลยี N2 (2nm class) ซึ่งคาดว่าจะเริ่มผลิตได้ในช่วงกลางถึงปลายปี 2026 Intel 18A ใช้เทคโนโลยี RibbonFET (ทรานซิสเตอร์แบบ Gate-All-Around) และ PowerVia (การจ่ายไฟจากด้านหลังของเวเฟอร์) ซึ่งช่วยลดความต้านทานและเพิ่มประสิทธิภาพการใช้พลังงาน ขณะที่ TSMC N2 ก็จะใช้ GAA เช่นกัน แต่ยังไม่มีการเปิดเผยว่าจะใช้เทคนิคการจ่ายไฟจากด้านหลังหรือไม่ Intel ตั้งเป้าให้ 18A เป็นกระบวนการผลิตที่ใช้ได้ทั้งกับผลิตภัณฑ์ของตัวเองและลูกค้าภายนอก เช่น MediaTek และ U.S. Department of Defense ซึ่งถือเป็นก้าวสำคัญในการกลับเข้าสู่ตลาด foundry อย่างจริงจัง ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel เริ่มผลิต 18A ก่อน TSMC N2 ➡️ 18A ใช้ RibbonFET และ PowerVia เพื่อเพิ่มประสิทธิภาพ ➡️ TSMC N2 จะใช้ GAA แต่ยังไม่ยืนยันเรื่อง PowerVia ➡️ Intel วางแผนให้ 18A รองรับลูกค้าภายนอก เช่น MediaTek ➡️ TSMC N2 คาดว่าจะเริ่มผลิตในปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ RibbonFET เป็นเทคโนโลยี GAA ที่ Intel พัฒนาขึ้นเอง ➡️ PowerVia ช่วยลดความซับซ้อนของการเดินสายไฟด้านหน้าเวเฟอร์ ➡️ GAA ช่วยลด leakage current และเพิ่ม density ของทรานซิสเตอร์ ➡️ Intel ตั้งเป้าแซง TSMC และ Samsung ในด้านเทคโนโลยีภายในปี 2025 ➡️ TSMC N2 จะใช้ในชิปของ Apple, AMD และ NVIDIA เป็นหลัก https://www.tomshardware.com/pc-components/cpus/intels-18a-production-starts-before-tsmcs-competing-n2-tech-heres-how-the-two-process-nodes-compare
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
Pages Boosts