• TP-Link เปิดตัว Archer GE800 และ GE400 – เราเตอร์ Wi-Fi 7 สำหรับเกมเมอร์ พร้อมดีไซน์ RGB และราคาจับต้องได้

    TP-Link เปิดตัวเราเตอร์เกมมิ่งรุ่นใหม่ในงาน Computex 2024 ได้แก่ Archer GE800 และ Archer GE400 โดยทั้งสองรุ่นรองรับ Wi-Fi 7 ซึ่งเป็นมาตรฐานใหม่ที่ให้ความเร็วสูงและความหน่วงต่ำ เหมาะสำหรับเกมเมอร์และผู้ใช้งานระดับสูง

    Archer GE800 เป็นรุ่นเรือธงแบบ Tri-band ที่ให้ความเร็วรวมสูงสุดถึง 19 Gbps พร้อมพอร์ต 10G และ 2.5G รวมถึงดีไซน์ RGB ที่ปรับแต่งได้ ส่วน Archer GE400 เป็นรุ่นรองที่มีราคาย่อมเยา แต่ยังคงประสิทธิภาพสูงด้วย Dual-band Wi-Fi 7 ความเร็วรวม 9.2 Gbps และพอร์ต 2.5G สองช่อง

    ทั้งสองรุ่นมาพร้อมฟีเจอร์ Game Panel สำหรับควบคุมการตั้งค่าเกมโดยเฉพาะ และรองรับเทคโนโลยี Multi-Link Operation (MLO) ที่ช่วยให้เชื่อมต่อหลายย่านความถี่พร้อมกัน เพิ่มความเสถียรในการเล่นเกมและสตรีมมิ่ง

    สรุปเนื้อหาเป็นหัวข้อแบบ bullet:

    การเปิดตัว Archer GE800 และ GE400
    GE800 เป็นรุ่น Tri-band Wi-Fi 7 ความเร็วรวม 19 Gbps
    GE400 เป็นรุ่น Dual-band Wi-Fi 7 ความเร็วรวม 9.2 Gbps
    ทั้งสองรุ่นมีพอร์ต 2.5G และดีไซน์ RGB ปรับแต่งได้
    มาพร้อม Game Panel สำหรับควบคุมการตั้งค่าเกม

    เทคโนโลยี Wi-Fi 7 และฟีเจอร์เด่น
    รองรับ Multi-Link Operation (MLO) เชื่อมต่อหลายย่านความถี่พร้อมกัน
    ลด latency และเพิ่มความเสถียรในการเล่นเกม
    เหมาะสำหรับเกมเมอร์และผู้ใช้งานระดับสูงที่ต้องการความเร็วและเสถียรภาพ

    ความคุ้มค่าและการใช้งาน
    GE400 เป็นตัวเลือกที่ราคาย่อมเยาแต่ยังคงประสิทธิภาพสูง
    GE800 เหมาะสำหรับผู้ที่ต้องการประสิทธิภาพสูงสุดและพอร์ตระดับ 10G
    ดีไซน์ RGB เพิ่มความโดดเด่นให้กับเซ็ตอัปเกมมิ่ง

    ข้อควรระวังและความท้าทาย
    Wi-Fi 7 ยังอยู่ในช่วงเริ่มต้น อุปกรณ์ที่รองรับอาจยังมีจำกัด
    การใช้งานฟีเจอร์ขั้นสูงต้องมีการตั้งค่าและอุปกรณ์ที่รองรับ
    ราคาของ GE800 อาจสูงเกินไปสำหรับผู้ใช้ทั่วไป
    การใช้งานพอร์ต 10G ต้องมีอุปกรณ์เครือข่ายที่รองรับด้วย

    https://www.tomshardware.com/networking/routers/tp-link-launches-archer-ge400-wi-fi-7-gaming-router-dual-band-router-hits-more-affordable-price-point-includes-2-5-gbe-ports-and-rgb-lighting
    📶 TP-Link เปิดตัว Archer GE800 และ GE400 – เราเตอร์ Wi-Fi 7 สำหรับเกมเมอร์ พร้อมดีไซน์ RGB และราคาจับต้องได้ TP-Link เปิดตัวเราเตอร์เกมมิ่งรุ่นใหม่ในงาน Computex 2024 ได้แก่ Archer GE800 และ Archer GE400 โดยทั้งสองรุ่นรองรับ Wi-Fi 7 ซึ่งเป็นมาตรฐานใหม่ที่ให้ความเร็วสูงและความหน่วงต่ำ เหมาะสำหรับเกมเมอร์และผู้ใช้งานระดับสูง Archer GE800 เป็นรุ่นเรือธงแบบ Tri-band ที่ให้ความเร็วรวมสูงสุดถึง 19 Gbps พร้อมพอร์ต 10G และ 2.5G รวมถึงดีไซน์ RGB ที่ปรับแต่งได้ ส่วน Archer GE400 เป็นรุ่นรองที่มีราคาย่อมเยา แต่ยังคงประสิทธิภาพสูงด้วย Dual-band Wi-Fi 7 ความเร็วรวม 9.2 Gbps และพอร์ต 2.5G สองช่อง ทั้งสองรุ่นมาพร้อมฟีเจอร์ Game Panel สำหรับควบคุมการตั้งค่าเกมโดยเฉพาะ และรองรับเทคโนโลยี Multi-Link Operation (MLO) ที่ช่วยให้เชื่อมต่อหลายย่านความถี่พร้อมกัน เพิ่มความเสถียรในการเล่นเกมและสตรีมมิ่ง สรุปเนื้อหาเป็นหัวข้อแบบ bullet: ✅ การเปิดตัว Archer GE800 และ GE400 ➡️ GE800 เป็นรุ่น Tri-band Wi-Fi 7 ความเร็วรวม 19 Gbps ➡️ GE400 เป็นรุ่น Dual-band Wi-Fi 7 ความเร็วรวม 9.2 Gbps ➡️ ทั้งสองรุ่นมีพอร์ต 2.5G และดีไซน์ RGB ปรับแต่งได้ ➡️ มาพร้อม Game Panel สำหรับควบคุมการตั้งค่าเกม ✅ เทคโนโลยี Wi-Fi 7 และฟีเจอร์เด่น ➡️ รองรับ Multi-Link Operation (MLO) เชื่อมต่อหลายย่านความถี่พร้อมกัน ➡️ ลด latency และเพิ่มความเสถียรในการเล่นเกม ➡️ เหมาะสำหรับเกมเมอร์และผู้ใช้งานระดับสูงที่ต้องการความเร็วและเสถียรภาพ ✅ ความคุ้มค่าและการใช้งาน ➡️ GE400 เป็นตัวเลือกที่ราคาย่อมเยาแต่ยังคงประสิทธิภาพสูง ➡️ GE800 เหมาะสำหรับผู้ที่ต้องการประสิทธิภาพสูงสุดและพอร์ตระดับ 10G ➡️ ดีไซน์ RGB เพิ่มความโดดเด่นให้กับเซ็ตอัปเกมมิ่ง ‼️ ข้อควรระวังและความท้าทาย ⛔ Wi-Fi 7 ยังอยู่ในช่วงเริ่มต้น อุปกรณ์ที่รองรับอาจยังมีจำกัด ⛔ การใช้งานฟีเจอร์ขั้นสูงต้องมีการตั้งค่าและอุปกรณ์ที่รองรับ ⛔ ราคาของ GE800 อาจสูงเกินไปสำหรับผู้ใช้ทั่วไป ⛔ การใช้งานพอร์ต 10G ต้องมีอุปกรณ์เครือข่ายที่รองรับด้วย https://www.tomshardware.com/networking/routers/tp-link-launches-archer-ge400-wi-fi-7-gaming-router-dual-band-router-hits-more-affordable-price-point-includes-2-5-gbe-ports-and-rgb-lighting
    0 Comments 0 Shares 87 Views 0 Reviews
  • “Broadcom Thor Ultra 800G: การ์ด Ethernet ที่เร็วที่สุดในโลกเพื่อยุค AI”

    Broadcom เปิดตัว Thor Ultra 800G NIC ซึ่งเป็นการ์ด Ethernet ที่เร็วที่สุดเท่าที่เคยมีมา โดยออกแบบมาเพื่อรองรับงานในศูนย์ข้อมูล AI ขนาดใหญ่ที่ต้องการประสิทธิภาพสูงสุดในการประมวลผลข้อมูลระดับหลายแสน XPU

    การ์ดนี้ใช้ PCIe Gen6 x16 ซึ่งเป็นอินเทอร์เฟซที่เร็วที่สุดในตลาดปัจจุบัน พร้อมรองรับฟีเจอร์ล้ำ ๆ เช่น Packet-Level Multipathing, Out-of-Order Packet Delivery และ Selective Retransmission ที่ช่วยลด latency และเพิ่มความเสถียรในการส่งข้อมูล

    Thor Ultra ยังใช้มาตรฐานเปิดจาก Ultra Ethernet Consortium (UEC) ทำให้สามารถใช้งานร่วมกับอุปกรณ์จากหลายผู้ผลิตได้โดยไม่ต้องผูกขาดกับระบบเฉพาะของ Broadcom

    สเปกและเทคโนโลยีของ Thor Ultra 800G
    ใช้ PCIe Gen6 x16 เพื่อความเร็วสูงสุดในการส่งข้อมูล
    รองรับ 200G และ 100G PAM4 SerDes พร้อมสายทองแดงแบบ passive ระยะไกล
    มี bit error rate ต่ำมาก ลดความไม่เสถียรของการเชื่อมต่อ

    ฟีเจอร์ใหม่ที่โดดเด่น
    Packet-Level Multipathing: ส่งข้อมูลหลายเส้นทางพร้อมกัน
    Out-of-Order Packet Delivery: รับข้อมูลที่ไม่เรียงลำดับได้
    Selective Retransmission: ส่งเฉพาะแพ็กเก็ตที่เสียหายใหม่
    Programmable Congestion Control: ปรับการควบคุมความแออัดของเครือข่ายได้

    ความปลอดภัยและความยืดหยุ่น
    รองรับ line-rate encryption/decryption ด้วย PSP offload
    มี secure boot และ signed firmware เพื่อความปลอดภัย
    ใช้มาตรฐานเปิดจาก UEC ไม่ผูกขาดกับระบบเฉพาะ

    การใช้งานในศูนย์ข้อมูล AI
    ออกแบบมาเพื่อใช้งานใน data center ที่มี XPU จำนวนมาก
    รองรับการทำงานร่วมกับ Broadcom Tomahawk 5/6 และ Jericho 4
    เป็นส่วนหนึ่งของกลยุทธ์ Ethernet AI Networking ของ Broadcom

    คำเตือนและข้อจำกัด
    ยังอยู่ในช่วง sampling เท่านั้น ยังไม่วางจำหน่ายทั่วไป
    การใช้งานอาจต้องปรับระบบให้รองรับ PCIe Gen6 และมาตรฐานใหม่
    การ์ดนี้ออกแบบมาเฉพาะสำหรับศูนย์ข้อมูล AI ไม่เหมาะกับการใช้งานทั่วไป

    https://www.techradar.com/pro/this-is-the-fastest-ethernet-card-ever-produced-broadcom-thor-ultra-800g-nic-uses-pcie-gen6-x16-and-will-only-be-used-in-ai-datacenters
    🚀 “Broadcom Thor Ultra 800G: การ์ด Ethernet ที่เร็วที่สุดในโลกเพื่อยุค AI” Broadcom เปิดตัว Thor Ultra 800G NIC ซึ่งเป็นการ์ด Ethernet ที่เร็วที่สุดเท่าที่เคยมีมา โดยออกแบบมาเพื่อรองรับงานในศูนย์ข้อมูล AI ขนาดใหญ่ที่ต้องการประสิทธิภาพสูงสุดในการประมวลผลข้อมูลระดับหลายแสน XPU การ์ดนี้ใช้ PCIe Gen6 x16 ซึ่งเป็นอินเทอร์เฟซที่เร็วที่สุดในตลาดปัจจุบัน พร้อมรองรับฟีเจอร์ล้ำ ๆ เช่น Packet-Level Multipathing, Out-of-Order Packet Delivery และ Selective Retransmission ที่ช่วยลด latency และเพิ่มความเสถียรในการส่งข้อมูล Thor Ultra ยังใช้มาตรฐานเปิดจาก Ultra Ethernet Consortium (UEC) ทำให้สามารถใช้งานร่วมกับอุปกรณ์จากหลายผู้ผลิตได้โดยไม่ต้องผูกขาดกับระบบเฉพาะของ Broadcom ✅ สเปกและเทคโนโลยีของ Thor Ultra 800G ➡️ ใช้ PCIe Gen6 x16 เพื่อความเร็วสูงสุดในการส่งข้อมูล ➡️ รองรับ 200G และ 100G PAM4 SerDes พร้อมสายทองแดงแบบ passive ระยะไกล ➡️ มี bit error rate ต่ำมาก ลดความไม่เสถียรของการเชื่อมต่อ ✅ ฟีเจอร์ใหม่ที่โดดเด่น ➡️ Packet-Level Multipathing: ส่งข้อมูลหลายเส้นทางพร้อมกัน ➡️ Out-of-Order Packet Delivery: รับข้อมูลที่ไม่เรียงลำดับได้ ➡️ Selective Retransmission: ส่งเฉพาะแพ็กเก็ตที่เสียหายใหม่ ➡️ Programmable Congestion Control: ปรับการควบคุมความแออัดของเครือข่ายได้ ✅ ความปลอดภัยและความยืดหยุ่น ➡️ รองรับ line-rate encryption/decryption ด้วย PSP offload ➡️ มี secure boot และ signed firmware เพื่อความปลอดภัย ➡️ ใช้มาตรฐานเปิดจาก UEC ไม่ผูกขาดกับระบบเฉพาะ ✅ การใช้งานในศูนย์ข้อมูล AI ➡️ ออกแบบมาเพื่อใช้งานใน data center ที่มี XPU จำนวนมาก ➡️ รองรับการทำงานร่วมกับ Broadcom Tomahawk 5/6 และ Jericho 4 ➡️ เป็นส่วนหนึ่งของกลยุทธ์ Ethernet AI Networking ของ Broadcom ‼️ คำเตือนและข้อจำกัด ⛔ ยังอยู่ในช่วง sampling เท่านั้น ยังไม่วางจำหน่ายทั่วไป ⛔ การใช้งานอาจต้องปรับระบบให้รองรับ PCIe Gen6 และมาตรฐานใหม่ ⛔ การ์ดนี้ออกแบบมาเฉพาะสำหรับศูนย์ข้อมูล AI ไม่เหมาะกับการใช้งานทั่วไป https://www.techradar.com/pro/this-is-the-fastest-ethernet-card-ever-produced-broadcom-thor-ultra-800g-nic-uses-pcie-gen6-x16-and-will-only-be-used-in-ai-datacenters
    WWW.TECHRADAR.COM
    Broadcom’s Thor Ultra just made PCIe Gen6 Ethernet real for AI tools
    Thor Ultra’s open UEC standard opens new paths for multi-vendor network systems
    0 Comments 0 Shares 162 Views 0 Reviews
  • “Nvidia DGX Spark: เดสก์ท็อป AI ที่อาจเป็น ‘Apple Mac Moment’ ของ Nvidia”

    Nvidia เปิดตัว DGX Spark ซึ่งได้รับเสียงชื่นชมจากนักรีวิวว่าเป็น “เครื่องมือ AI ระดับวิจัยที่อยู่บนโต๊ะทำงาน” ด้วยขนาดเล็กแต่ทรงพลัง DGX Spark ใช้ชิป Grace Blackwell GB200 ที่รวม CPU และ GPU พร้อมหน่วยความจำ unified ขนาด 128GB ทำให้สามารถรันโมเดลขนาดใหญ่ได้โดยไม่ต้องพึ่งคลาวด์

    รีวิวจากหลายสำนักชี้ว่า DGX Spark มีประสิทธิภาพสูงในการรันโมเดล Llama 3.1 70B และ Gemma 3 27B โดยตรงจากหน่วยความจำภายใน พร้อมระบบระบายความร้อนที่เงียบและเสถียร แม้จะมีข้อจำกัดด้าน bandwidth จาก LPDDR5X แต่ก็ยังถือว่าเป็นเครื่องมือที่เหมาะสำหรับนักพัฒนาและนักวิจัยที่ต้องการทดลอง AI แบบ local

    สเปกและความสามารถของ DGX Spark
    ใช้ชิป Grace Blackwell GB200 รวม CPU + GPU
    หน่วยความจำ unified 128GB รองรับโมเดลขนาดใหญ่
    รัน Llama 3.1 70B และ Gemma 3 27B ได้โดยตรงจาก RAM
    มี batching efficiency และ throughput consistency สูง

    จุดเด่นด้านการใช้งาน
    ขนาดเล็ก วางบนโต๊ะทำงานได้
    เสียงเงียบและระบบระบายความร้อนมีประสิทธิภาพ
    ใช้พลังงานน้อยกว่าคอมพิวเตอร์ทั่วไปถึงครึ่งหนึ่ง
    รองรับการเชื่อมต่อผ่าน Nvidia Sync จากเครื่องอื่น

    ความเห็นจากนักรีวิว
    LMSYS: “เครื่องวิจัยที่สวยงามและทรงพลัง”
    ServeTheHome: “จะทำให้การรันโมเดลขนาดใหญ่เป็นเรื่องของทุกคน”
    HotHardware: “เหมาะเป็นเครื่องเสริมสำหรับนักพัฒนา ไม่ใช่แทนที่ workstation”
    The Register: “เหมาะกับงานทดลอง ไม่ใช่สำหรับ productivity หรือ gaming”

    คำเตือนและข้อจำกัด
    Bandwidth ของ LPDDR5X ยังเป็นคอขวดเมื่อเทียบกับ GPU แยก
    Driver และซอฟต์แวร์บางส่วนยังไม่สมบูรณ์
    ไม่เหมาะกับผู้ใช้ทั่วไปที่ต้องการเครื่องสำหรับงานทั่วไปหรือเล่นเกม
    หากต้องการประสิทธิภาพสูงสุด อาจต้องรอเวอร์ชันที่ใช้ GB200 ในเครื่อง Windows

    https://www.techradar.com/pro/so-freaking-cool-first-reviews-of-nvidia-dgx-spark-leave-absolutely-no-doubt-this-may-be-nvidias-apple-mac-moment
    🖥️ “Nvidia DGX Spark: เดสก์ท็อป AI ที่อาจเป็น ‘Apple Mac Moment’ ของ Nvidia” Nvidia เปิดตัว DGX Spark ซึ่งได้รับเสียงชื่นชมจากนักรีวิวว่าเป็น “เครื่องมือ AI ระดับวิจัยที่อยู่บนโต๊ะทำงาน” ด้วยขนาดเล็กแต่ทรงพลัง DGX Spark ใช้ชิป Grace Blackwell GB200 ที่รวม CPU และ GPU พร้อมหน่วยความจำ unified ขนาด 128GB ทำให้สามารถรันโมเดลขนาดใหญ่ได้โดยไม่ต้องพึ่งคลาวด์ รีวิวจากหลายสำนักชี้ว่า DGX Spark มีประสิทธิภาพสูงในการรันโมเดล Llama 3.1 70B และ Gemma 3 27B โดยตรงจากหน่วยความจำภายใน พร้อมระบบระบายความร้อนที่เงียบและเสถียร แม้จะมีข้อจำกัดด้าน bandwidth จาก LPDDR5X แต่ก็ยังถือว่าเป็นเครื่องมือที่เหมาะสำหรับนักพัฒนาและนักวิจัยที่ต้องการทดลอง AI แบบ local ✅ สเปกและความสามารถของ DGX Spark ➡️ ใช้ชิป Grace Blackwell GB200 รวม CPU + GPU ➡️ หน่วยความจำ unified 128GB รองรับโมเดลขนาดใหญ่ ➡️ รัน Llama 3.1 70B และ Gemma 3 27B ได้โดยตรงจาก RAM ➡️ มี batching efficiency และ throughput consistency สูง ✅ จุดเด่นด้านการใช้งาน ➡️ ขนาดเล็ก วางบนโต๊ะทำงานได้ ➡️ เสียงเงียบและระบบระบายความร้อนมีประสิทธิภาพ ➡️ ใช้พลังงานน้อยกว่าคอมพิวเตอร์ทั่วไปถึงครึ่งหนึ่ง ➡️ รองรับการเชื่อมต่อผ่าน Nvidia Sync จากเครื่องอื่น ✅ ความเห็นจากนักรีวิว ➡️ LMSYS: “เครื่องวิจัยที่สวยงามและทรงพลัง” ➡️ ServeTheHome: “จะทำให้การรันโมเดลขนาดใหญ่เป็นเรื่องของทุกคน” ➡️ HotHardware: “เหมาะเป็นเครื่องเสริมสำหรับนักพัฒนา ไม่ใช่แทนที่ workstation” ➡️ The Register: “เหมาะกับงานทดลอง ไม่ใช่สำหรับ productivity หรือ gaming” ‼️ คำเตือนและข้อจำกัด ⛔ Bandwidth ของ LPDDR5X ยังเป็นคอขวดเมื่อเทียบกับ GPU แยก ⛔ Driver และซอฟต์แวร์บางส่วนยังไม่สมบูรณ์ ⛔ ไม่เหมาะกับผู้ใช้ทั่วไปที่ต้องการเครื่องสำหรับงานทั่วไปหรือเล่นเกม ⛔ หากต้องการประสิทธิภาพสูงสุด อาจต้องรอเวอร์ชันที่ใช้ GB200 ในเครื่อง Windows https://www.techradar.com/pro/so-freaking-cool-first-reviews-of-nvidia-dgx-spark-leave-absolutely-no-doubt-this-may-be-nvidias-apple-mac-moment
    WWW.TECHRADAR.COM
    Reviews praise Nvidia DGX Spark as a compact local AI workstation
    Early hardware and software quirks do raise concerns, however
    0 Comments 0 Shares 175 Views 0 Reviews
  • “Intel Foundry คว้าดีลผลิตชิป AI Maia 2 ให้ Microsoft บนเทคโนโลยี 18A” — ก้าวสำคัญสู่ความร่วมมือระยะยาวในยุค AI

    Intel Foundry ได้รับสัญญาผลิตชิป AI รุ่นใหม่ของ Microsoft ในตระกูล Maia 2 โดยใช้เทคโนโลยีการผลิตระดับ 18A และ 18A-P ซึ่งถือเป็นหนึ่งในกระบวนการผลิตที่ล้ำหน้าที่สุดของ Intel ในปัจจุบัน โดยรายงานจาก SemiAccurate ระบุว่า Microsoft จะใช้ Intel Foundry เป็นฐานการผลิตหลักสำหรับชิป AI รุ่นถัดไป ซึ่งอาจเป็นจุดเริ่มต้นของความร่วมมือระยะยาวระหว่างสองยักษ์ใหญ่

    Maia 2 เป็นชิป AI ขนาดใหญ่ระดับใกล้ reticle size (ประมาณ 820 mm²) ที่ออกแบบมาเพื่อใช้งานในศูนย์ข้อมูล Azure โดยมีเป้าหมายเพื่อเพิ่มประสิทธิภาพและลดต้นทุนการเป็นเจ้าของ (TCO) เมื่อเทียบกับการใช้ GPU จาก Nvidia ซึ่ง Microsoft ยังใช้อยู่เป็นหลักในปัจจุบัน

    การเลือก Intel Foundry แทน TSMC มีความหมายเชิงยุทธศาสตร์ เพราะช่วยลดความเสี่ยงจากข้อจำกัดด้านกำลังการผลิตและการบรรจุชิปขั้นสูงที่ TSMC เผชิญอยู่ อีกทั้งยังสอดคล้องกับนโยบายของรัฐบาลสหรัฐฯ ที่สนับสนุนการผลิตชิปภายในประเทศ

    Intel คาดว่าเทคโนโลยี 18A จะมี yield สูงพอสำหรับการผลิตชิปขนาดใหญ่แบบนี้ โดยอาจใช้เทคนิค partitioning เป็น chiplet หลายตัวเชื่อมด้วย EMIB หรือ Foveros แต่ Microsoft น่าจะเลือกใช้ดีไซน์แบบ monolithic เพื่อประสิทธิภาพสูงสุด

    Intel Foundry ได้รับสัญญาผลิตชิป AI Maia 2 ให้ Microsoft
    ใช้เทคโนโลยีการผลิตระดับ 18A และ 18A-P

    Maia 2 เป็นชิปขนาดใหญ่ระดับใกล้ reticle size (820 mm²)
    มีทรานซิสเตอร์มากกว่า 105 พันล้านตัว

    Microsoft ใช้ชิปนี้ในศูนย์ข้อมูล Azure เพื่อเพิ่มประสิทธิภาพและลด TCO
    เปรียบเทียบกับ GPU จาก Nvidia ที่ใช้อยู่ในปัจจุบัน

    การเลือก Intel Foundry ช่วยลดความเสี่ยงจากข้อจำกัดของ TSMC
    ทั้งด้านกำลังการผลิตและการบรรจุชิปขั้นสูง

    สอดคล้องกับนโยบายของรัฐบาลสหรัฐฯ ที่สนับสนุนการผลิตในประเทศ
    เพิ่มความมั่นคงของห่วงโซ่อุปทาน

    Intel คาดว่า yield ของ 18A จะสูงพอสำหรับชิปขนาดใหญ่
    อาจใช้ EMIB หรือ Foveros หากต้องแบ่งเป็น chiplet

    https://www.tomshardware.com/tech-industry/semiconductors/intel-foundry-secures-contract-to-build-microsofts-maia-2-next-gen-ai-processor-on-18a-18a-p-node-claims-report-could-be-first-step-in-ongoing-partnership
    🤝 “Intel Foundry คว้าดีลผลิตชิป AI Maia 2 ให้ Microsoft บนเทคโนโลยี 18A” — ก้าวสำคัญสู่ความร่วมมือระยะยาวในยุค AI Intel Foundry ได้รับสัญญาผลิตชิป AI รุ่นใหม่ของ Microsoft ในตระกูล Maia 2 โดยใช้เทคโนโลยีการผลิตระดับ 18A และ 18A-P ซึ่งถือเป็นหนึ่งในกระบวนการผลิตที่ล้ำหน้าที่สุดของ Intel ในปัจจุบัน โดยรายงานจาก SemiAccurate ระบุว่า Microsoft จะใช้ Intel Foundry เป็นฐานการผลิตหลักสำหรับชิป AI รุ่นถัดไป ซึ่งอาจเป็นจุดเริ่มต้นของความร่วมมือระยะยาวระหว่างสองยักษ์ใหญ่ Maia 2 เป็นชิป AI ขนาดใหญ่ระดับใกล้ reticle size (ประมาณ 820 mm²) ที่ออกแบบมาเพื่อใช้งานในศูนย์ข้อมูล Azure โดยมีเป้าหมายเพื่อเพิ่มประสิทธิภาพและลดต้นทุนการเป็นเจ้าของ (TCO) เมื่อเทียบกับการใช้ GPU จาก Nvidia ซึ่ง Microsoft ยังใช้อยู่เป็นหลักในปัจจุบัน การเลือก Intel Foundry แทน TSMC มีความหมายเชิงยุทธศาสตร์ เพราะช่วยลดความเสี่ยงจากข้อจำกัดด้านกำลังการผลิตและการบรรจุชิปขั้นสูงที่ TSMC เผชิญอยู่ อีกทั้งยังสอดคล้องกับนโยบายของรัฐบาลสหรัฐฯ ที่สนับสนุนการผลิตชิปภายในประเทศ Intel คาดว่าเทคโนโลยี 18A จะมี yield สูงพอสำหรับการผลิตชิปขนาดใหญ่แบบนี้ โดยอาจใช้เทคนิค partitioning เป็น chiplet หลายตัวเชื่อมด้วย EMIB หรือ Foveros แต่ Microsoft น่าจะเลือกใช้ดีไซน์แบบ monolithic เพื่อประสิทธิภาพสูงสุด ✅ Intel Foundry ได้รับสัญญาผลิตชิป AI Maia 2 ให้ Microsoft ➡️ ใช้เทคโนโลยีการผลิตระดับ 18A และ 18A-P ✅ Maia 2 เป็นชิปขนาดใหญ่ระดับใกล้ reticle size (820 mm²) ➡️ มีทรานซิสเตอร์มากกว่า 105 พันล้านตัว ✅ Microsoft ใช้ชิปนี้ในศูนย์ข้อมูล Azure เพื่อเพิ่มประสิทธิภาพและลด TCO ➡️ เปรียบเทียบกับ GPU จาก Nvidia ที่ใช้อยู่ในปัจจุบัน ✅ การเลือก Intel Foundry ช่วยลดความเสี่ยงจากข้อจำกัดของ TSMC ➡️ ทั้งด้านกำลังการผลิตและการบรรจุชิปขั้นสูง ✅ สอดคล้องกับนโยบายของรัฐบาลสหรัฐฯ ที่สนับสนุนการผลิตในประเทศ ➡️ เพิ่มความมั่นคงของห่วงโซ่อุปทาน ✅ Intel คาดว่า yield ของ 18A จะสูงพอสำหรับชิปขนาดใหญ่ ➡️ อาจใช้ EMIB หรือ Foveros หากต้องแบ่งเป็น chiplet https://www.tomshardware.com/tech-industry/semiconductors/intel-foundry-secures-contract-to-build-microsofts-maia-2-next-gen-ai-processor-on-18a-18a-p-node-claims-report-could-be-first-step-in-ongoing-partnership
    0 Comments 0 Shares 182 Views 0 Reviews
  • "Dimensity 9500: ชิปเรือธงราคาประหยัดที่แลกมาด้วยประสิทธิภาพที่ต้องพิจารณา"

    ลองจินตนาการว่าคุณเป็นผู้ผลิตสมาร์ตโฟน Android ที่ต้องเลือกชิปประมวลผลสำหรับรุ่นใหม่ในปี 2025 คุณมีตัวเลือกหลักสองตัว — Snapdragon 8 Elite Gen 5 จาก Qualcomm และ Dimensity 9500 จาก MediaTek ซึ่งใช้เทคโนโลยีการผลิตระดับ 3nm N3P เหมือนกัน แต่ราคาต่างกันอย่างมาก

    Dimensity 9500 เปิดราคามาเพียง $180–$200 ต่อหน่วย ขณะที่ Snapdragon 8 Elite Gen 5 พุ่งไปถึง $280 นั่นหมายความว่า MediaTek เสนอราคาถูกกว่าถึง 55% ซึ่งเป็นข้อได้เปรียบมหาศาลสำหรับผู้ผลิตที่ต้องการลดต้นทุนและเพิ่มกำไร

    แต่ราคาที่ถูกนั้นแลกมาด้วยข้อจำกัดบางอย่าง Dimensity 9500 ยังคงใช้ดีไซน์ CPU และ GPU จาก ARM ซึ่งช่วยลดต้นทุน แต่ก็ทำให้ประสิทธิภาพด้อยกว่าคู่แข่งที่ใช้คอร์แบบ custom เช่น Oryon ของ Qualcomm ที่พัฒนาเองภายในบริษัท

    จากการทดสอบ Geekbench 6 พบว่า Dimensity 9500 มีคะแนน multi-core ต่ำที่สุดเมื่อเทียบกับ Snapdragon 8 Elite Gen 5 และ Apple A19 Pro แถมยังใช้พลังงานมากกว่า ทำให้เกิดความร้อนสูง โดยเฉพาะในเกมที่ต้องใช้กราฟิกหนัก ๆ อย่างที่เห็นใน OnePlus 15 ที่ใช้ชิปนี้

    นอกจากนี้ Qualcomm ยังลงทุนซื้อบริษัท Nuvia มูลค่า $1.4 พันล้านดอลลาร์ เพื่อพัฒนาคอร์แบบ custom แข่งกับ Apple ซึ่งแสดงให้เห็นว่าการพัฒนาเทคโนโลยีภายในเป็นกลยุทธ์สำคัญในตลาดชิปสมาร์ตโฟนระดับสูง

    Dimensity 9500 ถูกกว่า Snapdragon 8 Elite Gen 5 อย่างมาก
    ราคาต่อหน่วยอยู่ที่ $180–$200 เทียบกับ $280 ของ Snapdragon
    ถูกกว่าถึง 55% ทำให้เป็นตัวเลือกที่น่าสนใจสำหรับผู้ผลิต Android

    MediaTek ใช้ดีไซน์จาก ARM เพื่อลดต้นทุน
    ไม่พัฒนาคอร์เองแบบ Qualcomm ที่ใช้ Oryon cores
    ช่วยลดค่าใช้จ่ายในการออกแบบและผลิต

    ประสิทธิภาพของ Dimensity 9500 ต่ำกว่าคู่แข่ง
    คะแนน multi-core ต่ำที่สุดในกลุ่มชิปเรือธง
    ใช้พลังงานสูงและเกิดความร้อนมากในสมาร์ตโฟน

    Qualcomm ลงทุนพัฒนาเทคโนโลยีภายใน
    ซื้อบริษัท Nuvia เพื่อสร้างคอร์ custom แข่งกับ Apple
    เป็นกลยุทธ์ระยะยาวเพื่อเพิ่มประสิทธิภาพและความแตกต่าง

    คำเตือนสำหรับผู้ผลิตที่เลือก Dimensity 9500
    แม้ราคาถูก แต่ประสิทธิภาพอาจไม่ตอบโจทย์การใช้งานหนัก
    ความร้อนสูงอาจส่งผลต่อประสบการณ์ผู้ใช้และอายุการใช้งานของเครื่อง
    การพึ่งพา ARM อาจทำให้ MediaTek เสียเปรียบในระยะยาว

    ถ้าคุณเป็นผู้ใช้งานทั่วไป การเลือกสมาร์ตโฟนที่ใช้ชิป Dimensity 9500 อาจช่วยประหยัดงบประมาณ แต่ถ้าคุณเน้นประสิทธิภาพสูงสุดและการเล่นเกมแบบจัดเต็ม Snapdragon 8 Elite Gen 5 ยังเป็นตัวเลือกที่เหนือกว่าในหลายด้าน.

    https://wccftech.com/dimensity-9500-more-than-50-percent-cheaper-than-the-snapdragon-8-elite-gen-5/
    📱 "Dimensity 9500: ชิปเรือธงราคาประหยัดที่แลกมาด้วยประสิทธิภาพที่ต้องพิจารณา" ลองจินตนาการว่าคุณเป็นผู้ผลิตสมาร์ตโฟน Android ที่ต้องเลือกชิปประมวลผลสำหรับรุ่นใหม่ในปี 2025 คุณมีตัวเลือกหลักสองตัว — Snapdragon 8 Elite Gen 5 จาก Qualcomm และ Dimensity 9500 จาก MediaTek ซึ่งใช้เทคโนโลยีการผลิตระดับ 3nm N3P เหมือนกัน แต่ราคาต่างกันอย่างมาก Dimensity 9500 เปิดราคามาเพียง $180–$200 ต่อหน่วย ขณะที่ Snapdragon 8 Elite Gen 5 พุ่งไปถึง $280 นั่นหมายความว่า MediaTek เสนอราคาถูกกว่าถึง 55% ซึ่งเป็นข้อได้เปรียบมหาศาลสำหรับผู้ผลิตที่ต้องการลดต้นทุนและเพิ่มกำไร แต่ราคาที่ถูกนั้นแลกมาด้วยข้อจำกัดบางอย่าง Dimensity 9500 ยังคงใช้ดีไซน์ CPU และ GPU จาก ARM ซึ่งช่วยลดต้นทุน แต่ก็ทำให้ประสิทธิภาพด้อยกว่าคู่แข่งที่ใช้คอร์แบบ custom เช่น Oryon ของ Qualcomm ที่พัฒนาเองภายในบริษัท จากการทดสอบ Geekbench 6 พบว่า Dimensity 9500 มีคะแนน multi-core ต่ำที่สุดเมื่อเทียบกับ Snapdragon 8 Elite Gen 5 และ Apple A19 Pro แถมยังใช้พลังงานมากกว่า ทำให้เกิดความร้อนสูง โดยเฉพาะในเกมที่ต้องใช้กราฟิกหนัก ๆ อย่างที่เห็นใน OnePlus 15 ที่ใช้ชิปนี้ นอกจากนี้ Qualcomm ยังลงทุนซื้อบริษัท Nuvia มูลค่า $1.4 พันล้านดอลลาร์ เพื่อพัฒนาคอร์แบบ custom แข่งกับ Apple ซึ่งแสดงให้เห็นว่าการพัฒนาเทคโนโลยีภายในเป็นกลยุทธ์สำคัญในตลาดชิปสมาร์ตโฟนระดับสูง ✅ Dimensity 9500 ถูกกว่า Snapdragon 8 Elite Gen 5 อย่างมาก ➡️ ราคาต่อหน่วยอยู่ที่ $180–$200 เทียบกับ $280 ของ Snapdragon ➡️ ถูกกว่าถึง 55% ทำให้เป็นตัวเลือกที่น่าสนใจสำหรับผู้ผลิต Android ✅ MediaTek ใช้ดีไซน์จาก ARM เพื่อลดต้นทุน ➡️ ไม่พัฒนาคอร์เองแบบ Qualcomm ที่ใช้ Oryon cores ➡️ ช่วยลดค่าใช้จ่ายในการออกแบบและผลิต ✅ ประสิทธิภาพของ Dimensity 9500 ต่ำกว่าคู่แข่ง ➡️ คะแนน multi-core ต่ำที่สุดในกลุ่มชิปเรือธง ➡️ ใช้พลังงานสูงและเกิดความร้อนมากในสมาร์ตโฟน ✅ Qualcomm ลงทุนพัฒนาเทคโนโลยีภายใน ➡️ ซื้อบริษัท Nuvia เพื่อสร้างคอร์ custom แข่งกับ Apple ➡️ เป็นกลยุทธ์ระยะยาวเพื่อเพิ่มประสิทธิภาพและความแตกต่าง ‼️ คำเตือนสำหรับผู้ผลิตที่เลือก Dimensity 9500 ⛔ แม้ราคาถูก แต่ประสิทธิภาพอาจไม่ตอบโจทย์การใช้งานหนัก ⛔ ความร้อนสูงอาจส่งผลต่อประสบการณ์ผู้ใช้และอายุการใช้งานของเครื่อง ⛔ การพึ่งพา ARM อาจทำให้ MediaTek เสียเปรียบในระยะยาว ถ้าคุณเป็นผู้ใช้งานทั่วไป การเลือกสมาร์ตโฟนที่ใช้ชิป Dimensity 9500 อาจช่วยประหยัดงบประมาณ แต่ถ้าคุณเน้นประสิทธิภาพสูงสุดและการเล่นเกมแบบจัดเต็ม Snapdragon 8 Elite Gen 5 ยังเป็นตัวเลือกที่เหนือกว่าในหลายด้าน. https://wccftech.com/dimensity-9500-more-than-50-percent-cheaper-than-the-snapdragon-8-elite-gen-5/
    WCCFTECH.COM
    Dimensity 9500 Is Estimated To Be More Than 50% Cheaper Than The Snapdragon 8 Elite Gen 5, Despite Using The Same 3nm N3P Process
    The estimated price of the Dimensity 9500 has come forth, since it is cheaper than the Snapdragon 8 Elite Gen 5, it will be preferred by Android phone makers
    0 Comments 0 Shares 177 Views 0 Reviews
  • “AMD เปิดตัว Radiance Cores, Neural Arrays และ Universal Compression — เทคโนโลยีใหม่ที่จะเปลี่ยนโลกกราฟิกเกมยุคถัดไป”

    AMD และ Sony ร่วมกันเปิดเผยเทคโนโลยีใหม่ 3 รายการที่จะถูกฝังอยู่ในสถาปัตยกรรมกราฟิก RDNA รุ่นถัดไป ได้แก่ Radiance Cores, Neural Arrays และ Universal Compression โดยทั้งหมดนี้ถูกออกแบบมาเพื่อยกระดับการเรนเดอร์ภาพแบบเรียลไทม์, การอัปสเกลด้วย AI และการจัดการแบนด์วิดธ์หน่วยความจำให้มีประสิทธิภาพสูงสุด

    Radiance Cores คือฮาร์ดแวร์เฉพาะสำหรับการประมวลผล ray tracing และ path tracing โดยแยกออกจาก shader cores เพื่อให้สามารถจัดการกับการเคลื่อนที่ของแสง (ray traversal) ได้เร็วขึ้นและแม่นยำขึ้น ซึ่งช่วยลดภาระของ CPU และเพิ่มประสิทธิภาพของ GPU ในการ shading และ lighting

    Neural Arrays คือการเชื่อมต่อ compute units (CU) ภายใน GPU ให้ทำงานร่วมกันแบบ AI engine เดียว ซึ่งช่วยให้สามารถประมวลผลโมเดล machine learning ขนาดใหญ่ได้อย่างมีประสิทธิภาพมากขึ้น โดยเฉพาะในงาน neural rendering, frame generation และ denoising สำหรับฉากที่ใช้ ray tracing

    Universal Compression เป็นระบบบีบอัดข้อมูลภายใน GPU ที่สามารถจัดการกับข้อมูลทุกประเภทได้แบบอัตโนมัติ ช่วยลดการใช้แบนด์วิดธ์หน่วยความจำ และเพิ่มความเร็วในการโหลด texture และโมเดลกราฟิก

    Mark Cerny สถาปนิกของ PlayStation และ Jack Huynh รองประธาน AMD ระบุว่า เทคโนโลยีเหล่านี้จะถูกนำไปใช้ใน GPU และ SoC รุ่นถัดไป รวมถึงคอนโซล PlayStation รุ่นใหม่ ซึ่งจะช่วยให้เกมมีความสมจริงระดับภาพยนตร์ และสามารถเรนเดอร์ฉากซับซ้อนได้แบบเรียลไทม์

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัวเทคโนโลยีใหม่ 3 รายการ: Radiance Cores, Neural Arrays และ Universal Compression
    Radiance Cores เป็นฮาร์ดแวร์เฉพาะสำหรับ ray/path tracing โดยแยกจาก shader cores
    Neural Arrays เชื่อม compute units ให้ทำงานร่วมกันแบบ AI engine เดียว
    Universal Compression บีบอัดข้อมูลทุกประเภทภายใน GPU เพื่อลดการใช้แบนด์วิดธ์
    เทคโนโลยีเหล่านี้จะถูกใช้ใน RDNA GPU รุ่นถัดไปและ SoC สำหรับ PlayStation
    ช่วยเพิ่มประสิทธิภาพการเรนเดอร์, อัปสเกล, และโหลด texture ได้เร็วขึ้น
    รองรับงาน neural rendering, frame generation และ denoising แบบเรียลไทม์
    Mark Cerny และ Jack Huynh ยืนยันว่าเทคโนโลยีจะเปลี่ยนโฉมกราฟิกเกมในอนาคต

    ข้อมูลเสริมจากภายนอก
    Radiance Cores คล้ายกับ RT Cores ของ Nvidia ที่ใช้ในการ์ดจอ RTX
    Neural Arrays จะช่วยให้ FSR และ PSSR มีคุณภาพสูงขึ้นและทำงานเร็วขึ้น
    Universal Compression มาแทน Delta Color Compression ที่ใช้ใน RDNA รุ่นก่อน
    การแยก ray traversal ออกจาก shader ช่วยลด latency และเพิ่ม frame rate
    Project Amethyst คือความร่วมมือระยะยาวระหว่าง AMD และ Sony เพื่อพัฒนา AI สำหรับเกม

    https://wccftech.com/amd-unveils-radiance-cores-neural-arrays-universal-compression-next-gen-rdna-gpu-architecture/
    🎮 “AMD เปิดตัว Radiance Cores, Neural Arrays และ Universal Compression — เทคโนโลยีใหม่ที่จะเปลี่ยนโลกกราฟิกเกมยุคถัดไป” AMD และ Sony ร่วมกันเปิดเผยเทคโนโลยีใหม่ 3 รายการที่จะถูกฝังอยู่ในสถาปัตยกรรมกราฟิก RDNA รุ่นถัดไป ได้แก่ Radiance Cores, Neural Arrays และ Universal Compression โดยทั้งหมดนี้ถูกออกแบบมาเพื่อยกระดับการเรนเดอร์ภาพแบบเรียลไทม์, การอัปสเกลด้วย AI และการจัดการแบนด์วิดธ์หน่วยความจำให้มีประสิทธิภาพสูงสุด Radiance Cores คือฮาร์ดแวร์เฉพาะสำหรับการประมวลผล ray tracing และ path tracing โดยแยกออกจาก shader cores เพื่อให้สามารถจัดการกับการเคลื่อนที่ของแสง (ray traversal) ได้เร็วขึ้นและแม่นยำขึ้น ซึ่งช่วยลดภาระของ CPU และเพิ่มประสิทธิภาพของ GPU ในการ shading และ lighting Neural Arrays คือการเชื่อมต่อ compute units (CU) ภายใน GPU ให้ทำงานร่วมกันแบบ AI engine เดียว ซึ่งช่วยให้สามารถประมวลผลโมเดล machine learning ขนาดใหญ่ได้อย่างมีประสิทธิภาพมากขึ้น โดยเฉพาะในงาน neural rendering, frame generation และ denoising สำหรับฉากที่ใช้ ray tracing Universal Compression เป็นระบบบีบอัดข้อมูลภายใน GPU ที่สามารถจัดการกับข้อมูลทุกประเภทได้แบบอัตโนมัติ ช่วยลดการใช้แบนด์วิดธ์หน่วยความจำ และเพิ่มความเร็วในการโหลด texture และโมเดลกราฟิก Mark Cerny สถาปนิกของ PlayStation และ Jack Huynh รองประธาน AMD ระบุว่า เทคโนโลยีเหล่านี้จะถูกนำไปใช้ใน GPU และ SoC รุ่นถัดไป รวมถึงคอนโซล PlayStation รุ่นใหม่ ซึ่งจะช่วยให้เกมมีความสมจริงระดับภาพยนตร์ และสามารถเรนเดอร์ฉากซับซ้อนได้แบบเรียลไทม์ ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัวเทคโนโลยีใหม่ 3 รายการ: Radiance Cores, Neural Arrays และ Universal Compression ➡️ Radiance Cores เป็นฮาร์ดแวร์เฉพาะสำหรับ ray/path tracing โดยแยกจาก shader cores ➡️ Neural Arrays เชื่อม compute units ให้ทำงานร่วมกันแบบ AI engine เดียว ➡️ Universal Compression บีบอัดข้อมูลทุกประเภทภายใน GPU เพื่อลดการใช้แบนด์วิดธ์ ➡️ เทคโนโลยีเหล่านี้จะถูกใช้ใน RDNA GPU รุ่นถัดไปและ SoC สำหรับ PlayStation ➡️ ช่วยเพิ่มประสิทธิภาพการเรนเดอร์, อัปสเกล, และโหลด texture ได้เร็วขึ้น ➡️ รองรับงาน neural rendering, frame generation และ denoising แบบเรียลไทม์ ➡️ Mark Cerny และ Jack Huynh ยืนยันว่าเทคโนโลยีจะเปลี่ยนโฉมกราฟิกเกมในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ Radiance Cores คล้ายกับ RT Cores ของ Nvidia ที่ใช้ในการ์ดจอ RTX ➡️ Neural Arrays จะช่วยให้ FSR และ PSSR มีคุณภาพสูงขึ้นและทำงานเร็วขึ้น ➡️ Universal Compression มาแทน Delta Color Compression ที่ใช้ใน RDNA รุ่นก่อน ➡️ การแยก ray traversal ออกจาก shader ช่วยลด latency และเพิ่ม frame rate ➡️ Project Amethyst คือความร่วมมือระยะยาวระหว่าง AMD และ Sony เพื่อพัฒนา AI สำหรับเกม https://wccftech.com/amd-unveils-radiance-cores-neural-arrays-universal-compression-next-gen-rdna-gpu-architecture/
    WCCFTECH.COM
    AMD Unveils Radiance Cores, Neural Arrays & Universal Compression For Next-Gen RDNA GPU Architecture: Faster RT, Better Upscaling, & Lower Bandwidth Needs
    AMD has just announced three key features of its next-gen RDNA architecture: Neural Arrays, Radiance Cores & Universal Compression.
    0 Comments 0 Shares 222 Views 0 Reviews
  • “AMD จับมือ AWS เปิดตัว EC2 M8a — เซิร์ฟเวอร์รุ่นใหม่แรงขึ้น 30% พร้อมฟีเจอร์ AVX-512 รองรับงาน AI และสตรีมมิ่งระดับโลก”

    เมื่อวันที่ 9 ตุลาคม 2025 AMD และ AWS ประกาศเปิดตัวอินสแตนซ์ EC2 M8a รุ่นใหม่ที่ใช้ขุมพลังจากซีพียู AMD EPYC รุ่นที่ 5 ซึ่งเป็นการร่วมมือระยะยาวที่เริ่มตั้งแต่ปี 2018 โดยอินสแตนซ์ M8a นี้ถูกออกแบบมาเพื่อรองรับงานทั่วไปที่ต้องการความสมดุลระหว่างการประมวลผล หน่วยความจำ และเครือข่าย เช่น เว็บโฮสติ้ง ฐานข้อมูล และระบบไมโครเซอร์วิส

    M8a ให้ประสิทธิภาพสูงขึ้นถึง 30% เมื่อเทียบกับรุ่นก่อนหน้า (M7a) พร้อมแบนด์วิดธ์หน่วยความจำเพิ่มขึ้น 45% และแบนด์วิดธ์เครือข่ายสูงสุดถึง 75 Gbps ซึ่งช่วยให้สามารถรองรับงานที่ต้องการการส่งข้อมูลแบบเรียลไทม์ได้ดีขึ้น เช่น การวิเคราะห์ข้อมูลแบบ in-memory และระบบแคชแบบกระจาย

    Netflix ซึ่งเป็นหนึ่งในผู้ใช้งานหลักของ AWS ระบุว่า M8a กลายเป็นโครงสร้างพื้นฐานหลักที่ช่วยให้สามารถสเกลการสตรีมแบบสดได้อย่างรวดเร็ว โดยเฉพาะเมื่อมีการเพิ่มฟีเจอร์ใหม่อย่าง AVX-512 ที่ช่วยเร่งการเข้ารหัส การปรับแต่งเนื้อหา และงาน machine learning ได้ทั่วโลก

    อินสแตนซ์ M8a ยังมีให้เลือกถึง 10 ขนาด และ 2 รุ่นแบบ bare metal (metal-24xl และ metal-48xl) รองรับตั้งแต่งานขนาดเล็กไปจนถึงระดับองค์กร โดยใช้ระบบ AWS Nitro รุ่นที่ 6 ซึ่งช่วยลด overhead ของ virtualization และเพิ่มความปลอดภัย

    ข้อมูลสำคัญจากข่าว
    AWS เปิดตัวอินสแตนซ์ EC2 M8a ที่ใช้ซีพียู AMD EPYC รุ่นที่ 5
    ประสิทธิภาพสูงขึ้น 30% เมื่อเทียบกับ M7a
    แบนด์วิดธ์หน่วยความจำเพิ่มขึ้น 45% และเครือข่ายสูงสุด 75 Gbps
    รองรับงานทั่วไป เช่น เว็บโฮสติ้ง ฐานข้อมูล และไมโครเซอร์วิส
    Netflix ใช้ M8a เป็นโครงสร้างหลักสำหรับการสตรีมแบบสด
    เพิ่มฟีเจอร์ AVX-512 สำหรับงาน encoding และ machine learning
    มีให้เลือก 10 ขนาด และ 2 รุ่น bare metal สำหรับงานระดับองค์กร
    ใช้ AWS Nitro รุ่นที่ 6 เพื่อเพิ่มประสิทธิภาพและความปลอดภัย

    ข้อมูลเสริมจากภายนอก
    AVX-512 เป็นชุดคำสั่งที่ช่วยเร่งการประมวลผลเวกเตอร์ในงาน AI และมัลติมีเดีย
    AWS Nitro เป็นระบบที่แยกการจัดการ I/O ออกจากซีพียูหลักเพื่อเพิ่มความเร็ว
    Bare metal instances ให้ประสิทธิภาพสูงสุดเพราะไม่มี virtualization overhead
    EPYC รุ่นที่ 5 ใช้สถาปัตยกรรม Zen 5 ที่เน้นการประหยัดพลังงานและความเร็ว
    M8a เหมาะสำหรับงานที่ต้องการ predictable performance และ scaling ที่ยืดหยุ่น

    https://www.techpowerup.com/341730/amd-and-aws-announce-availability-of-new-amazon-ec2-m8a-instances-based-on-5th-gen-amd-epyc-processors
    ☁️ “AMD จับมือ AWS เปิดตัว EC2 M8a — เซิร์ฟเวอร์รุ่นใหม่แรงขึ้น 30% พร้อมฟีเจอร์ AVX-512 รองรับงาน AI และสตรีมมิ่งระดับโลก” เมื่อวันที่ 9 ตุลาคม 2025 AMD และ AWS ประกาศเปิดตัวอินสแตนซ์ EC2 M8a รุ่นใหม่ที่ใช้ขุมพลังจากซีพียู AMD EPYC รุ่นที่ 5 ซึ่งเป็นการร่วมมือระยะยาวที่เริ่มตั้งแต่ปี 2018 โดยอินสแตนซ์ M8a นี้ถูกออกแบบมาเพื่อรองรับงานทั่วไปที่ต้องการความสมดุลระหว่างการประมวลผล หน่วยความจำ และเครือข่าย เช่น เว็บโฮสติ้ง ฐานข้อมูล และระบบไมโครเซอร์วิส M8a ให้ประสิทธิภาพสูงขึ้นถึง 30% เมื่อเทียบกับรุ่นก่อนหน้า (M7a) พร้อมแบนด์วิดธ์หน่วยความจำเพิ่มขึ้น 45% และแบนด์วิดธ์เครือข่ายสูงสุดถึง 75 Gbps ซึ่งช่วยให้สามารถรองรับงานที่ต้องการการส่งข้อมูลแบบเรียลไทม์ได้ดีขึ้น เช่น การวิเคราะห์ข้อมูลแบบ in-memory และระบบแคชแบบกระจาย Netflix ซึ่งเป็นหนึ่งในผู้ใช้งานหลักของ AWS ระบุว่า M8a กลายเป็นโครงสร้างพื้นฐานหลักที่ช่วยให้สามารถสเกลการสตรีมแบบสดได้อย่างรวดเร็ว โดยเฉพาะเมื่อมีการเพิ่มฟีเจอร์ใหม่อย่าง AVX-512 ที่ช่วยเร่งการเข้ารหัส การปรับแต่งเนื้อหา และงาน machine learning ได้ทั่วโลก อินสแตนซ์ M8a ยังมีให้เลือกถึง 10 ขนาด และ 2 รุ่นแบบ bare metal (metal-24xl และ metal-48xl) รองรับตั้งแต่งานขนาดเล็กไปจนถึงระดับองค์กร โดยใช้ระบบ AWS Nitro รุ่นที่ 6 ซึ่งช่วยลด overhead ของ virtualization และเพิ่มความปลอดภัย ✅ ข้อมูลสำคัญจากข่าว ➡️ AWS เปิดตัวอินสแตนซ์ EC2 M8a ที่ใช้ซีพียู AMD EPYC รุ่นที่ 5 ➡️ ประสิทธิภาพสูงขึ้น 30% เมื่อเทียบกับ M7a ➡️ แบนด์วิดธ์หน่วยความจำเพิ่มขึ้น 45% และเครือข่ายสูงสุด 75 Gbps ➡️ รองรับงานทั่วไป เช่น เว็บโฮสติ้ง ฐานข้อมูล และไมโครเซอร์วิส ➡️ Netflix ใช้ M8a เป็นโครงสร้างหลักสำหรับการสตรีมแบบสด ➡️ เพิ่มฟีเจอร์ AVX-512 สำหรับงาน encoding และ machine learning ➡️ มีให้เลือก 10 ขนาด และ 2 รุ่น bare metal สำหรับงานระดับองค์กร ➡️ ใช้ AWS Nitro รุ่นที่ 6 เพื่อเพิ่มประสิทธิภาพและความปลอดภัย ✅ ข้อมูลเสริมจากภายนอก ➡️ AVX-512 เป็นชุดคำสั่งที่ช่วยเร่งการประมวลผลเวกเตอร์ในงาน AI และมัลติมีเดีย ➡️ AWS Nitro เป็นระบบที่แยกการจัดการ I/O ออกจากซีพียูหลักเพื่อเพิ่มความเร็ว ➡️ Bare metal instances ให้ประสิทธิภาพสูงสุดเพราะไม่มี virtualization overhead ➡️ EPYC รุ่นที่ 5 ใช้สถาปัตยกรรม Zen 5 ที่เน้นการประหยัดพลังงานและความเร็ว ➡️ M8a เหมาะสำหรับงานที่ต้องการ predictable performance และ scaling ที่ยืดหยุ่น https://www.techpowerup.com/341730/amd-and-aws-announce-availability-of-new-amazon-ec2-m8a-instances-based-on-5th-gen-amd-epyc-processors
    WWW.TECHPOWERUP.COM
    AMD and AWS Announce Availability of New Amazon EC2 M8a Instances Based on 5th Gen AMD EPYC Processors
    AWS has collaborated with AMD as the first major cloud provider to launch instances powered by AMD EPYC CPUs. Since 2018, AWS has launched all generations of EPYC CPUs spanning general purpose, memory-optimized, compute-optimized, burstable, and HPC instance families. Today we're excited to announce...
    0 Comments 0 Shares 204 Views 0 Reviews
  • “Solidigm เปิดตัวคลัสเตอร์ SSD ขนาด 23.6PB ในพื้นที่แค่ 16U — ปลดล็อกศักยภาพ AI ด้วยความหนาแน่นระดับใหม่”

    Solidigm บริษัทในเครือ SK hynix ที่เชี่ยวชาญด้านการจัดเก็บข้อมูลระดับองค์กร ได้เปิดตัว AI Central Lab ที่เมือง Rancho Cordova รัฐแคลิฟอร์เนีย ซึ่งเป็นศูนย์ทดสอบระบบจัดเก็บข้อมูลที่มีความหนาแน่นสูงที่สุดเท่าที่เคยมีมา โดยใช้ SSD ขนาด 122TB จำนวน 192 ตัว รวมเป็นคลัสเตอร์ขนาด 23.6PB ในพื้นที่เพียง 16U ของแร็คเซิร์ฟเวอร์

    คลัสเตอร์นี้ใช้ SSD รุ่น D5-P5336 สำหรับความจุ และ D7-PS1010 สำหรับความเร็ว โดยสามารถทำ throughput ได้สูงถึง 116GB/s ต่อ node ในการทดสอบ MLPerf Storage ซึ่งเป็นมาตรฐานสำหรับงานฝึกโมเดล AI แม้จะเป็นการทดสอบแบบ synthetic แต่ก็แสดงให้เห็นถึงศักยภาพของระบบในการรองรับงาน AI ที่ต้องการความเร็วในการเข้าถึงข้อมูลสูงมาก

    AI Central Lab ยังใช้ GPU ระดับสูงอย่าง NVIDIA B200 และ H200 พร้อมระบบเครือข่าย Ethernet 800Gbps เพื่อจำลองสภาพแวดล้อมของศูนย์ข้อมูลยุคใหม่ โดยมีเป้าหมายเพื่อศึกษาว่า “การจัดเก็บข้อมูลใกล้ GPU” จะช่วยเพิ่มประสิทธิภาพของ AI ได้มากแค่ไหน

    หนึ่งในความร่วมมือที่น่าสนใจคือกับ Metrum AI ซึ่งพัฒนาเทคนิคการ offload ข้อมูลจาก DRAM ไปยัง SSD เพื่อลดการใช้หน่วยความจำลงถึง 57% ในงาน inference แบบ RAG (Retrieval-Augmented Generation) ซึ่งเป็นเทคนิคที่นิยมในงาน AI สมัยใหม่

    Solidigm ระบุว่า AI Central Lab ไม่ใช่แค่พื้นที่ทดสอบ แต่เป็นเวทีสำหรับนวัตกรรมร่วมกับนักพัฒนาและพันธมิตร เพื่อสร้างระบบที่มีประสิทธิภาพสูงสุดในด้านพลังงาน ความเร็ว และต้นทุนต่อ token

    ข้อมูลสำคัญจากข่าว
    Solidigm เปิดตัว AI Central Lab ที่ Rancho Cordova, California
    ใช้ SSD D5-P5336 ขนาด 122TB จำนวน 192 ตัว รวมเป็น 23.6PB ในพื้นที่ 16U
    ใช้ SSD D7-PS1010 สำหรับความเร็ว throughput สูงสุด 116GB/s ต่อ node
    ใช้ GPU NVIDIA B200 และ H200 พร้อมเครือข่าย Ethernet 800Gbps
    ทดสอบงาน AI จริง เช่น training, inference, KV cache offload และ VectorDB tuning
    ร่วมมือกับ Metrum AI เพื่อลดการใช้ DRAM ลง 57% ด้วยการ offload ไปยัง SSD
    ศูนย์นี้ช่วยแปลงสเปก SSD ให้เป็น metric ที่ใช้ในอุตสาหกรรม เช่น tokens per watt
    Solidigm เป็นบริษัทในเครือ SK hynix ที่เน้นโซลูชันจัดเก็บข้อมูลระดับองค์กร

    ข้อมูลเสริมจากภายนอก
    SSD ขนาดใหญ่ช่วยลด latency และเพิ่ม throughput ในงาน AI ที่ใช้ GPU หนัก
    MLPerf Storage เป็น benchmark ที่ใช้วัดประสิทธิภาพการจัดเก็บข้อมูลในงาน AI
    RAG เป็นเทคนิคที่ใช้ข้อมูลภายนอกมาช่วยตอบคำถามในโมเดล AI
    การจัดเก็บข้อมูลใกล้ GPU ช่วยลด bottleneck และเพิ่ม utilization ของ accelerator
    การใช้ SSD แทน DRAM ช่วยลดต้นทุนและพลังงานในระบบขนาดใหญ่

    https://www.techradar.com/pro/solidigm-packed-usd2-7-million-worth-of-ssds-into-the-biggest-storage-cluster-ive-ever-seen-nearly-200-192tb-ssds-used-to-build-a-23-6pb-cluster-in-16u-rackspace
    📦 “Solidigm เปิดตัวคลัสเตอร์ SSD ขนาด 23.6PB ในพื้นที่แค่ 16U — ปลดล็อกศักยภาพ AI ด้วยความหนาแน่นระดับใหม่” Solidigm บริษัทในเครือ SK hynix ที่เชี่ยวชาญด้านการจัดเก็บข้อมูลระดับองค์กร ได้เปิดตัว AI Central Lab ที่เมือง Rancho Cordova รัฐแคลิฟอร์เนีย ซึ่งเป็นศูนย์ทดสอบระบบจัดเก็บข้อมูลที่มีความหนาแน่นสูงที่สุดเท่าที่เคยมีมา โดยใช้ SSD ขนาด 122TB จำนวน 192 ตัว รวมเป็นคลัสเตอร์ขนาด 23.6PB ในพื้นที่เพียง 16U ของแร็คเซิร์ฟเวอร์ คลัสเตอร์นี้ใช้ SSD รุ่น D5-P5336 สำหรับความจุ และ D7-PS1010 สำหรับความเร็ว โดยสามารถทำ throughput ได้สูงถึง 116GB/s ต่อ node ในการทดสอบ MLPerf Storage ซึ่งเป็นมาตรฐานสำหรับงานฝึกโมเดล AI แม้จะเป็นการทดสอบแบบ synthetic แต่ก็แสดงให้เห็นถึงศักยภาพของระบบในการรองรับงาน AI ที่ต้องการความเร็วในการเข้าถึงข้อมูลสูงมาก AI Central Lab ยังใช้ GPU ระดับสูงอย่าง NVIDIA B200 และ H200 พร้อมระบบเครือข่าย Ethernet 800Gbps เพื่อจำลองสภาพแวดล้อมของศูนย์ข้อมูลยุคใหม่ โดยมีเป้าหมายเพื่อศึกษาว่า “การจัดเก็บข้อมูลใกล้ GPU” จะช่วยเพิ่มประสิทธิภาพของ AI ได้มากแค่ไหน หนึ่งในความร่วมมือที่น่าสนใจคือกับ Metrum AI ซึ่งพัฒนาเทคนิคการ offload ข้อมูลจาก DRAM ไปยัง SSD เพื่อลดการใช้หน่วยความจำลงถึง 57% ในงาน inference แบบ RAG (Retrieval-Augmented Generation) ซึ่งเป็นเทคนิคที่นิยมในงาน AI สมัยใหม่ Solidigm ระบุว่า AI Central Lab ไม่ใช่แค่พื้นที่ทดสอบ แต่เป็นเวทีสำหรับนวัตกรรมร่วมกับนักพัฒนาและพันธมิตร เพื่อสร้างระบบที่มีประสิทธิภาพสูงสุดในด้านพลังงาน ความเร็ว และต้นทุนต่อ token ✅ ข้อมูลสำคัญจากข่าว ➡️ Solidigm เปิดตัว AI Central Lab ที่ Rancho Cordova, California ➡️ ใช้ SSD D5-P5336 ขนาด 122TB จำนวน 192 ตัว รวมเป็น 23.6PB ในพื้นที่ 16U ➡️ ใช้ SSD D7-PS1010 สำหรับความเร็ว throughput สูงสุด 116GB/s ต่อ node ➡️ ใช้ GPU NVIDIA B200 และ H200 พร้อมเครือข่าย Ethernet 800Gbps ➡️ ทดสอบงาน AI จริง เช่น training, inference, KV cache offload และ VectorDB tuning ➡️ ร่วมมือกับ Metrum AI เพื่อลดการใช้ DRAM ลง 57% ด้วยการ offload ไปยัง SSD ➡️ ศูนย์นี้ช่วยแปลงสเปก SSD ให้เป็น metric ที่ใช้ในอุตสาหกรรม เช่น tokens per watt ➡️ Solidigm เป็นบริษัทในเครือ SK hynix ที่เน้นโซลูชันจัดเก็บข้อมูลระดับองค์กร ✅ ข้อมูลเสริมจากภายนอก ➡️ SSD ขนาดใหญ่ช่วยลด latency และเพิ่ม throughput ในงาน AI ที่ใช้ GPU หนัก ➡️ MLPerf Storage เป็น benchmark ที่ใช้วัดประสิทธิภาพการจัดเก็บข้อมูลในงาน AI ➡️ RAG เป็นเทคนิคที่ใช้ข้อมูลภายนอกมาช่วยตอบคำถามในโมเดล AI ➡️ การจัดเก็บข้อมูลใกล้ GPU ช่วยลด bottleneck และเพิ่ม utilization ของ accelerator ➡️ การใช้ SSD แทน DRAM ช่วยลดต้นทุนและพลังงานในระบบขนาดใหญ่ https://www.techradar.com/pro/solidigm-packed-usd2-7-million-worth-of-ssds-into-the-biggest-storage-cluster-ive-ever-seen-nearly-200-192tb-ssds-used-to-build-a-23-6pb-cluster-in-16u-rackspace
    WWW.TECHRADAR.COM
    Solidigm unveils dense cluster pushing storage limits
    Performance tests remain synthetic, raising doubts about real workloads
    0 Comments 0 Shares 266 Views 0 Reviews
  • “JEDEC เปิดตัวมาตรฐาน UFS 5.0 — ความเร็วทะลุ 10.8 GB/s เพื่อโลกแห่ง AI และอุปกรณ์พกพา”

    JEDEC สมาคมเทคโนโลยีโซลิดสเตต ได้ประกาศใกล้เสร็จสิ้นการพัฒนามาตรฐาน Universal Flash Storage (UFS) เวอร์ชัน 5.0 ซึ่งเป็นการอัปเกรดครั้งใหญ่จาก UFS 4.1 ที่เปิดตัวในปี 2024 โดย UFS 5.0 ถูกออกแบบมาเพื่อรองรับอุปกรณ์พกพาและระบบคอมพิวเตอร์ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ เช่น สมาร์ทโฟน อุปกรณ์สวมใส่ คอนโซลเกม รถยนต์ และระบบ edge computing

    UFS 5.0 จะสามารถทำความเร็วในการอ่าน/เขียนแบบต่อเนื่องได้สูงถึง 10.8 GB/s โดยใช้เทคโนโลยีจาก MIPI Alliance ได้แก่ M-PHY เวอร์ชัน 6.0 และ UniPro เวอร์ชัน 3.0 ซึ่งช่วยเพิ่มแบนด์วิดท์ของอินเทอร์เฟซได้ถึง 46.6 Gb/s ต่อเลน และรองรับการทำงานแบบสองเลนเพื่อให้ได้ประสิทธิภาพสูงสุด

    นอกจากความเร็วแล้ว UFS 5.0 ยังเพิ่มฟีเจอร์ใหม่เพื่อความปลอดภัยและความเสถียร เช่น inline hashing เพื่อป้องกันข้อมูลเสียหาย, ระบบ equalization เพื่อรักษาคุณภาพสัญญาณ และการแยกแหล่งจ่ายไฟระหว่าง PHY กับหน่วยความจำเพื่อป้องกันสัญญาณรบกวน

    มาตรฐานใหม่นี้ยังคงรองรับฮาร์ดแวร์เดิมจาก UFS 4.x เพื่อให้ผู้ผลิตสามารถอัปเกรดได้ง่ายขึ้น โดยไม่ต้องเปลี่ยนโครงสร้างระบบทั้งหมด

    ข้อมูลสำคัญจากข่าว
    JEDEC ใกล้เปิดตัวมาตรฐาน UFS 5.0 สำหรับอุปกรณ์พกพาและระบบคอมพิวเตอร์
    ความเร็วในการอ่าน/เขียนแบบต่อเนื่องสูงสุดถึง 10.8 GB/s
    ใช้เทคโนโลยี MIPI M-PHY 6.0 และ UniPro 3.0 เพื่อเพิ่มแบนด์วิดท์
    รองรับการทำงานแบบสองเลนที่ความเร็ว 46.6 Gb/s ต่อเลน
    เพิ่มฟีเจอร์ inline hashing เพื่อความปลอดภัยของข้อมูล
    มีระบบ equalization เพื่อรักษาคุณภาพสัญญาณ
    แยกแหล่งจ่ายไฟระหว่าง PHY กับหน่วยความจำเพื่อป้องกันสัญญาณรบกวน
    ยังคงรองรับฮาร์ดแวร์จาก UFS 4.x เพื่อความสะดวกในการอัปเกรด

    ข้อมูลเสริมจากภายนอก
    UFS ถูกใช้ในสมาร์ทโฟนระดับเรือธง เช่น Galaxy S และ iPhone รุ่นใหม่
    มาตรฐาน UFS ช่วยให้การโหลดแอปและเกมเร็วขึ้นอย่างเห็นได้ชัด
    MIPI Alliance เป็นองค์กรที่พัฒนาโปรโตคอลการเชื่อมต่อสำหรับอุปกรณ์พกพาทั่วโลก
    Inline hashing เป็นเทคนิคที่ใช้ในระบบจัดเก็บข้อมูลระดับองค์กรเพื่อป้องกันการเปลี่ยนแปลงข้อมูลโดยไม่ได้รับอนุญาต
    การแยกแหล่งจ่ายไฟช่วยลดความร้อนและเพิ่มเสถียรภาพของระบบ

    https://www.techpowerup.com/341645/jedec-ufs-5-0-standard-to-deliver-sequential-performance-up-to-10-8-gb-s
    ⚡ “JEDEC เปิดตัวมาตรฐาน UFS 5.0 — ความเร็วทะลุ 10.8 GB/s เพื่อโลกแห่ง AI และอุปกรณ์พกพา” JEDEC สมาคมเทคโนโลยีโซลิดสเตต ได้ประกาศใกล้เสร็จสิ้นการพัฒนามาตรฐาน Universal Flash Storage (UFS) เวอร์ชัน 5.0 ซึ่งเป็นการอัปเกรดครั้งใหญ่จาก UFS 4.1 ที่เปิดตัวในปี 2024 โดย UFS 5.0 ถูกออกแบบมาเพื่อรองรับอุปกรณ์พกพาและระบบคอมพิวเตอร์ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ เช่น สมาร์ทโฟน อุปกรณ์สวมใส่ คอนโซลเกม รถยนต์ และระบบ edge computing UFS 5.0 จะสามารถทำความเร็วในการอ่าน/เขียนแบบต่อเนื่องได้สูงถึง 10.8 GB/s โดยใช้เทคโนโลยีจาก MIPI Alliance ได้แก่ M-PHY เวอร์ชัน 6.0 และ UniPro เวอร์ชัน 3.0 ซึ่งช่วยเพิ่มแบนด์วิดท์ของอินเทอร์เฟซได้ถึง 46.6 Gb/s ต่อเลน และรองรับการทำงานแบบสองเลนเพื่อให้ได้ประสิทธิภาพสูงสุด นอกจากความเร็วแล้ว UFS 5.0 ยังเพิ่มฟีเจอร์ใหม่เพื่อความปลอดภัยและความเสถียร เช่น inline hashing เพื่อป้องกันข้อมูลเสียหาย, ระบบ equalization เพื่อรักษาคุณภาพสัญญาณ และการแยกแหล่งจ่ายไฟระหว่าง PHY กับหน่วยความจำเพื่อป้องกันสัญญาณรบกวน มาตรฐานใหม่นี้ยังคงรองรับฮาร์ดแวร์เดิมจาก UFS 4.x เพื่อให้ผู้ผลิตสามารถอัปเกรดได้ง่ายขึ้น โดยไม่ต้องเปลี่ยนโครงสร้างระบบทั้งหมด ✅ ข้อมูลสำคัญจากข่าว ➡️ JEDEC ใกล้เปิดตัวมาตรฐาน UFS 5.0 สำหรับอุปกรณ์พกพาและระบบคอมพิวเตอร์ ➡️ ความเร็วในการอ่าน/เขียนแบบต่อเนื่องสูงสุดถึง 10.8 GB/s ➡️ ใช้เทคโนโลยี MIPI M-PHY 6.0 และ UniPro 3.0 เพื่อเพิ่มแบนด์วิดท์ ➡️ รองรับการทำงานแบบสองเลนที่ความเร็ว 46.6 Gb/s ต่อเลน ➡️ เพิ่มฟีเจอร์ inline hashing เพื่อความปลอดภัยของข้อมูล ➡️ มีระบบ equalization เพื่อรักษาคุณภาพสัญญาณ ➡️ แยกแหล่งจ่ายไฟระหว่าง PHY กับหน่วยความจำเพื่อป้องกันสัญญาณรบกวน ➡️ ยังคงรองรับฮาร์ดแวร์จาก UFS 4.x เพื่อความสะดวกในการอัปเกรด ✅ ข้อมูลเสริมจากภายนอก ➡️ UFS ถูกใช้ในสมาร์ทโฟนระดับเรือธง เช่น Galaxy S และ iPhone รุ่นใหม่ ➡️ มาตรฐาน UFS ช่วยให้การโหลดแอปและเกมเร็วขึ้นอย่างเห็นได้ชัด ➡️ MIPI Alliance เป็นองค์กรที่พัฒนาโปรโตคอลการเชื่อมต่อสำหรับอุปกรณ์พกพาทั่วโลก ➡️ Inline hashing เป็นเทคนิคที่ใช้ในระบบจัดเก็บข้อมูลระดับองค์กรเพื่อป้องกันการเปลี่ยนแปลงข้อมูลโดยไม่ได้รับอนุญาต ➡️ การแยกแหล่งจ่ายไฟช่วยลดความร้อนและเพิ่มเสถียรภาพของระบบ https://www.techpowerup.com/341645/jedec-ufs-5-0-standard-to-deliver-sequential-performance-up-to-10-8-gb-s
    0 Comments 0 Shares 208 Views 0 Reviews
  • “OCuLink แซง Thunderbolt 5 ในการทดสอบ RTX 5070 Ti — เกมเมอร์สาย eGPU อาจต้องคิดใหม่ก่อนเลือกพอร์ต”

    ในยุคที่การใช้ eGPU (external GPU) กลายเป็นทางเลือกยอดนิยมสำหรับผู้ใช้โน้ตบุ๊กและพีซีขนาดเล็ก คำถามสำคัญคือ “จะเชื่อมต่อผ่านอะไรดีที่สุด?” ล่าสุดเว็บไซต์ Tom’s Hardware ได้เผยผลการทดสอบที่ชี้ชัดว่า OCuLink ซึ่งเป็นการเชื่อมต่อแบบ PCIe โดยตรง ให้ประสิทธิภาพเหนือกว่า Thunderbolt 5 อย่างชัดเจน โดยเฉพาะในการเล่นเกม

    OCuLink (Optical-Copper Link) เป็นมาตรฐานที่พัฒนาโดย PCI-SIG เพื่อเชื่อมต่ออุปกรณ์ผ่าน PCIe โดยตรง โดยไม่ต้องผ่านการแปลงโปรโตคอลเหมือน Thunderbolt หรือ USB ซึ่งช่วยลด latency และเพิ่มประสิทธิภาพการส่งข้อมูล โดย OCuLink รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุดถึง 64 GT/s

    ในทางกลับกัน Thunderbolt 5 แม้จะมีฟีเจอร์ครบครัน เช่น การชาร์จไฟ การส่งภาพ และการเชื่อมต่อ USB ผ่านสายเดียว แต่ก็ต้องแลกกับ overhead จากการแปลงโปรโตคอล ซึ่งส่งผลให้ประสิทธิภาพลดลง โดยเฉพาะในงานที่ต้องการแบนด์วิดธ์สูงและ latency ต่ำ เช่น การเล่นเกมผ่าน eGPU

    จากการทดสอบด้วย RTX 5070 Ti พบว่า OCuLink ให้ค่า throughput สูงถึง 6.6 GB/s (host-to-device) และ 6.7 GB/s (device-to-host) ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6 และ 5.8 GB/s ตามลำดับ และเมื่อทดสอบเกมจริง 12 เกม Thunderbolt 5 มีค่า FPS เฉลี่ยต่ำกว่า OCuLink ถึง 13–14% โดยเฉพาะในเกมที่ใช้กราฟิกหนัก เช่น Spider-Man: Miles Morales และ Red Dead Redemption 2 ซึ่ง Thunderbolt 5 แพ้ถึง 20–23%

    แม้ Thunderbolt 5 จะสะดวกกว่าในแง่การใช้งานทั่วไป แต่สำหรับผู้ใช้ที่ต้องการประสิทธิภาพสูงสุดในการเล่นเกมผ่าน eGPU OCuLink ยังคงเป็นตัวเลือกที่แรงกว่า — แม้จะยังไม่แพร่หลายในตลาดทั่วไป และต้องใช้ฮาร์ดแวร์เฉพาะทาง

    ข้อมูลสำคัญจากข่าว
    OCuLink เป็นการเชื่อมต่อแบบ PCIe โดยตรง ไม่ผ่านการแปลงโปรโตคอล
    รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุด 64 GT/s
    Thunderbolt 5 รองรับ PCIe 4.0 x4 เช่นกัน แต่มี overhead จากการแปลงโปรโตคอล
    OCuLink ให้ throughput สูงถึง 6.6–6.7 GB/s ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6–5.8 GB/s
    ในการทดสอบเกม 12 เกม Thunderbolt 5 มี FPS ต่ำกว่า OCuLink เฉลี่ย 13–14%
    เกมที่ Thunderbolt 5 แพ้หนัก ได้แก่ Spider-Man: Miles Morales (-20%) และ Red Dead Redemption 2 (-23%)
    Ghost of Tsushima เป็นเกมเดียวที่ทั้งสามระบบทำได้ 120 FPS เท่ากัน
    Thunderbolt 5 ยังมีข้อดีด้านความสะดวก เช่น การชาร์จไฟและส่งภาพผ่านสายเดียว

    ข้อมูลเสริมจากภายนอก
    OCuLink เคยใช้ในเซิร์ฟเวอร์และ SSD มาก่อน ก่อนถูกนำมาใช้กับ GPU
    Thunderbolt 5 มีฟีเจอร์ใหม่ เช่น การชาร์จ 240W และส่งภาพระดับ 120 GT/s
    eGPU ที่ใช้ Thunderbolt 5 เช่น Peladn Link S-3 มีพอร์ตหลากหลายแต่ยังมีข้อจำกัดด้านสาย
    OCuLink ไม่รองรับการ hot-swap และไม่มีฟีเจอร์ USB หรือ video output
    โน้ตบุ๊กที่รองรับ OCuLink ยังมีน้อยมาก ส่วนใหญ่ต้องใช้กับพีซีหรือ mini-PC เฉพาะทาง

    https://www.tomshardware.com/pc-components/gpus/oculink-outpaces-thunderbolt-5-in-nvidia-rtx-5070-ti-tests-latter-up-to-14-percent-slower-on-average-in-gaming-benchmarks
    ⚡ “OCuLink แซง Thunderbolt 5 ในการทดสอบ RTX 5070 Ti — เกมเมอร์สาย eGPU อาจต้องคิดใหม่ก่อนเลือกพอร์ต” ในยุคที่การใช้ eGPU (external GPU) กลายเป็นทางเลือกยอดนิยมสำหรับผู้ใช้โน้ตบุ๊กและพีซีขนาดเล็ก คำถามสำคัญคือ “จะเชื่อมต่อผ่านอะไรดีที่สุด?” ล่าสุดเว็บไซต์ Tom’s Hardware ได้เผยผลการทดสอบที่ชี้ชัดว่า OCuLink ซึ่งเป็นการเชื่อมต่อแบบ PCIe โดยตรง ให้ประสิทธิภาพเหนือกว่า Thunderbolt 5 อย่างชัดเจน โดยเฉพาะในการเล่นเกม OCuLink (Optical-Copper Link) เป็นมาตรฐานที่พัฒนาโดย PCI-SIG เพื่อเชื่อมต่ออุปกรณ์ผ่าน PCIe โดยตรง โดยไม่ต้องผ่านการแปลงโปรโตคอลเหมือน Thunderbolt หรือ USB ซึ่งช่วยลด latency และเพิ่มประสิทธิภาพการส่งข้อมูล โดย OCuLink รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุดถึง 64 GT/s ในทางกลับกัน Thunderbolt 5 แม้จะมีฟีเจอร์ครบครัน เช่น การชาร์จไฟ การส่งภาพ และการเชื่อมต่อ USB ผ่านสายเดียว แต่ก็ต้องแลกกับ overhead จากการแปลงโปรโตคอล ซึ่งส่งผลให้ประสิทธิภาพลดลง โดยเฉพาะในงานที่ต้องการแบนด์วิดธ์สูงและ latency ต่ำ เช่น การเล่นเกมผ่าน eGPU จากการทดสอบด้วย RTX 5070 Ti พบว่า OCuLink ให้ค่า throughput สูงถึง 6.6 GB/s (host-to-device) และ 6.7 GB/s (device-to-host) ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6 และ 5.8 GB/s ตามลำดับ และเมื่อทดสอบเกมจริง 12 เกม Thunderbolt 5 มีค่า FPS เฉลี่ยต่ำกว่า OCuLink ถึง 13–14% โดยเฉพาะในเกมที่ใช้กราฟิกหนัก เช่น Spider-Man: Miles Morales และ Red Dead Redemption 2 ซึ่ง Thunderbolt 5 แพ้ถึง 20–23% แม้ Thunderbolt 5 จะสะดวกกว่าในแง่การใช้งานทั่วไป แต่สำหรับผู้ใช้ที่ต้องการประสิทธิภาพสูงสุดในการเล่นเกมผ่าน eGPU OCuLink ยังคงเป็นตัวเลือกที่แรงกว่า — แม้จะยังไม่แพร่หลายในตลาดทั่วไป และต้องใช้ฮาร์ดแวร์เฉพาะทาง ✅ ข้อมูลสำคัญจากข่าว ➡️ OCuLink เป็นการเชื่อมต่อแบบ PCIe โดยตรง ไม่ผ่านการแปลงโปรโตคอล ➡️ รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุด 64 GT/s ➡️ Thunderbolt 5 รองรับ PCIe 4.0 x4 เช่นกัน แต่มี overhead จากการแปลงโปรโตคอล ➡️ OCuLink ให้ throughput สูงถึง 6.6–6.7 GB/s ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6–5.8 GB/s ➡️ ในการทดสอบเกม 12 เกม Thunderbolt 5 มี FPS ต่ำกว่า OCuLink เฉลี่ย 13–14% ➡️ เกมที่ Thunderbolt 5 แพ้หนัก ได้แก่ Spider-Man: Miles Morales (-20%) และ Red Dead Redemption 2 (-23%) ➡️ Ghost of Tsushima เป็นเกมเดียวที่ทั้งสามระบบทำได้ 120 FPS เท่ากัน ➡️ Thunderbolt 5 ยังมีข้อดีด้านความสะดวก เช่น การชาร์จไฟและส่งภาพผ่านสายเดียว ✅ ข้อมูลเสริมจากภายนอก ➡️ OCuLink เคยใช้ในเซิร์ฟเวอร์และ SSD มาก่อน ก่อนถูกนำมาใช้กับ GPU ➡️ Thunderbolt 5 มีฟีเจอร์ใหม่ เช่น การชาร์จ 240W และส่งภาพระดับ 120 GT/s ➡️ eGPU ที่ใช้ Thunderbolt 5 เช่น Peladn Link S-3 มีพอร์ตหลากหลายแต่ยังมีข้อจำกัดด้านสาย ➡️ OCuLink ไม่รองรับการ hot-swap และไม่มีฟีเจอร์ USB หรือ video output ➡️ โน้ตบุ๊กที่รองรับ OCuLink ยังมีน้อยมาก ส่วนใหญ่ต้องใช้กับพีซีหรือ mini-PC เฉพาะทาง https://www.tomshardware.com/pc-components/gpus/oculink-outpaces-thunderbolt-5-in-nvidia-rtx-5070-ti-tests-latter-up-to-14-percent-slower-on-average-in-gaming-benchmarks
    0 Comments 0 Shares 296 Views 0 Reviews
  • “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง”

    ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI

    ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด

    AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้

    Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง

    ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน

    ข้อมูลสำคัญจากข่าว
    Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane
    RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ
    GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40
    AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D
    RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า
    Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client
    Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง
    Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร

    ข้อมูลเสริมจากภายนอก
    RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7
    RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2
    Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI
    MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล
    CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ

    https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    🎨 “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง” ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้ Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane ➡️ RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ ➡️ GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40 ➡️ AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D ➡️ RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า ➡️ Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client ➡️ Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง ➡️ Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7 ➡️ RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2 ➡️ Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI ➡️ MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล ➡️ CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    0 Comments 0 Shares 295 Views 0 Reviews
  • “Ampinel: อุปกรณ์ $95 ที่อาจช่วยชีวิตการ์ดจอ RTX ของคุณ — แก้ปัญหา 16-pin ละลายด้วยระบบบาลานซ์ไฟที่ Nvidia ลืมใส่”

    ตั้งแต่การ์ดจอซีรีส์ RTX 40 ของ Nvidia เปิดตัวพร้อมหัวต่อไฟแบบ 16-pin (12VHPWR) ก็มีรายงานปัญหาหัวละลายและสายไหม้ตามมาอย่างต่อเนื่อง โดยเฉพาะในรุ่น RTX 4090 และ 5090 ซึ่งดึงไฟสูงถึง 600W แต่ไม่มีระบบกระจายโหลดไฟฟ้าในตัว ต่างจาก RTX 3090 Ti ที่ยังมีวงจรบาลานซ์ไฟอยู่

    ล่าสุด Aqua Computer จากเยอรมนีเปิดตัวอุปกรณ์ชื่อว่า Ampinel ที่ออกแบบมาเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการใส่ระบบ active load balancing ที่สามารถตรวจสอบและกระจายกระแสไฟฟ้าแบบเรียลไทม์ผ่านสาย 12V ทั้ง 6 เส้นในหัวต่อ 16-pin หากพบว่ามีสายใดเกิน 7.5A ซึ่งเป็นค่าที่ปลอดภัยต่อคอนแทค Ampinel จะปรับโหลดทันทีเพื่อป้องกันความร้อนสะสม

    Ampinel ยังมาพร้อมหน้าจอ OLED ขนาดเล็กที่แสดงค่ากระแสไฟแต่ละเส้น, ระบบแจ้งเตือนด้วยเสียง 85 dB และไฟ RGB ที่เปลี่ยนสีตามสถานะการใช้งาน นอกจากนี้ยังสามารถตั้งค่าผ่านซอฟต์แวร์ Aquasuite เพื่อกำหนดพฤติกรรมเมื่อเกิดเหตุ เช่น ปิดแอปที่ใช้ GPU หนัก, สั่ง shutdown เครื่อง หรือแม้แต่ตัดสัญญาณ sense บนการ์ดจอเพื่อหยุดจ่ายไฟทันที

    อุปกรณ์นี้ใช้แผงวงจร 6 ชั้นที่ทำจากทองแดงหนา 70 ไมครอน พร้อมบอดี้อะลูมิเนียมที่ช่วยระบายความร้อน และระบบ MCU ที่ควบคุม MOSFET แบบ low-resistance เพื่อให้การกระจายโหลดมีประสิทธิภาพสูงสุด โดยไม่ต้องพึ่งพาการเชื่อมต่อ USB หรือซอฟต์แวร์ตลอดเวลา

    ข้อมูลสำคัญจากข่าว
    Ampinel เป็นอุปกรณ์เสริมสำหรับหัวต่อ 16-pin ที่มีระบบ active load balancing
    ตรวจสอบสายไฟ 6 เส้นแบบเรียลไทม์ และปรับโหลดทันทีเมื่อเกิน 7.5A
    มีหน้าจอ OLED แสดงค่ากระแสไฟ, ไฟ RGB แจ้งเตือน และเสียงเตือน 85 dB
    ใช้แผงวงจร 6 ชั้นทองแดงหนา พร้อมบอดี้อะลูมิเนียมช่วยระบายความร้อน
    สามารถตั้งค่าผ่าน Aquasuite ให้สั่งปิดแอป, shutdown หรือหยุดจ่ายไฟ
    ระบบแจ้งเตือนแบ่งเป็น 8 ระดับ ตั้งค่าได้ทั้งภาพ เสียง และการตอบสนอง
    ไม่ต้องพึ่งพา USB หรือซอฟต์แวร์ในการทำงานหลัก
    ราคาประมาณ $95 หรือ €79.90 เริ่มส่งกลางเดือนพฤศจิกายน

    ข้อมูลเสริมจากภายนอก
    หัวต่อ 16-pin มี safety margin ต่ำกว่าหัว 8-pin PCIe เดิมถึง 40%
    ปัญหาหัวละลายเกิดจากการกระจายโหลดไม่เท่ากันในสายไฟ
    RTX 3090 Ti ไม่มีปัญหาเพราะยังมีวงจรบาลานซ์ไฟในตัว
    MOSFET แบบ low-RDS(on) ช่วยลดความร้อนและเพิ่มประสิทธิภาพการควบคุม
    การตัดสัญญาณ sense บนการ์ดจอคือวิธีหยุดจ่ายไฟแบบฉุกเฉินที่ปลอดภัย

    https://www.tomshardware.com/pc-components/gpus/nvidias-16-pin-time-bomb-could-be-defused-by-this-usd95-gadget-ampinel-offers-load-balancing-that-nvidia-forgot-to-include
    🔥 “Ampinel: อุปกรณ์ $95 ที่อาจช่วยชีวิตการ์ดจอ RTX ของคุณ — แก้ปัญหา 16-pin ละลายด้วยระบบบาลานซ์ไฟที่ Nvidia ลืมใส่” ตั้งแต่การ์ดจอซีรีส์ RTX 40 ของ Nvidia เปิดตัวพร้อมหัวต่อไฟแบบ 16-pin (12VHPWR) ก็มีรายงานปัญหาหัวละลายและสายไหม้ตามมาอย่างต่อเนื่อง โดยเฉพาะในรุ่น RTX 4090 และ 5090 ซึ่งดึงไฟสูงถึง 600W แต่ไม่มีระบบกระจายโหลดไฟฟ้าในตัว ต่างจาก RTX 3090 Ti ที่ยังมีวงจรบาลานซ์ไฟอยู่ ล่าสุด Aqua Computer จากเยอรมนีเปิดตัวอุปกรณ์ชื่อว่า Ampinel ที่ออกแบบมาเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการใส่ระบบ active load balancing ที่สามารถตรวจสอบและกระจายกระแสไฟฟ้าแบบเรียลไทม์ผ่านสาย 12V ทั้ง 6 เส้นในหัวต่อ 16-pin หากพบว่ามีสายใดเกิน 7.5A ซึ่งเป็นค่าที่ปลอดภัยต่อคอนแทค Ampinel จะปรับโหลดทันทีเพื่อป้องกันความร้อนสะสม Ampinel ยังมาพร้อมหน้าจอ OLED ขนาดเล็กที่แสดงค่ากระแสไฟแต่ละเส้น, ระบบแจ้งเตือนด้วยเสียง 85 dB และไฟ RGB ที่เปลี่ยนสีตามสถานะการใช้งาน นอกจากนี้ยังสามารถตั้งค่าผ่านซอฟต์แวร์ Aquasuite เพื่อกำหนดพฤติกรรมเมื่อเกิดเหตุ เช่น ปิดแอปที่ใช้ GPU หนัก, สั่ง shutdown เครื่อง หรือแม้แต่ตัดสัญญาณ sense บนการ์ดจอเพื่อหยุดจ่ายไฟทันที อุปกรณ์นี้ใช้แผงวงจร 6 ชั้นที่ทำจากทองแดงหนา 70 ไมครอน พร้อมบอดี้อะลูมิเนียมที่ช่วยระบายความร้อน และระบบ MCU ที่ควบคุม MOSFET แบบ low-resistance เพื่อให้การกระจายโหลดมีประสิทธิภาพสูงสุด โดยไม่ต้องพึ่งพาการเชื่อมต่อ USB หรือซอฟต์แวร์ตลอดเวลา ✅ ข้อมูลสำคัญจากข่าว ➡️ Ampinel เป็นอุปกรณ์เสริมสำหรับหัวต่อ 16-pin ที่มีระบบ active load balancing ➡️ ตรวจสอบสายไฟ 6 เส้นแบบเรียลไทม์ และปรับโหลดทันทีเมื่อเกิน 7.5A ➡️ มีหน้าจอ OLED แสดงค่ากระแสไฟ, ไฟ RGB แจ้งเตือน และเสียงเตือน 85 dB ➡️ ใช้แผงวงจร 6 ชั้นทองแดงหนา พร้อมบอดี้อะลูมิเนียมช่วยระบายความร้อน ➡️ สามารถตั้งค่าผ่าน Aquasuite ให้สั่งปิดแอป, shutdown หรือหยุดจ่ายไฟ ➡️ ระบบแจ้งเตือนแบ่งเป็น 8 ระดับ ตั้งค่าได้ทั้งภาพ เสียง และการตอบสนอง ➡️ ไม่ต้องพึ่งพา USB หรือซอฟต์แวร์ในการทำงานหลัก ➡️ ราคาประมาณ $95 หรือ €79.90 เริ่มส่งกลางเดือนพฤศจิกายน ✅ ข้อมูลเสริมจากภายนอก ➡️ หัวต่อ 16-pin มี safety margin ต่ำกว่าหัว 8-pin PCIe เดิมถึง 40% ➡️ ปัญหาหัวละลายเกิดจากการกระจายโหลดไม่เท่ากันในสายไฟ ➡️ RTX 3090 Ti ไม่มีปัญหาเพราะยังมีวงจรบาลานซ์ไฟในตัว ➡️ MOSFET แบบ low-RDS(on) ช่วยลดความร้อนและเพิ่มประสิทธิภาพการควบคุม ➡️ การตัดสัญญาณ sense บนการ์ดจอคือวิธีหยุดจ่ายไฟแบบฉุกเฉินที่ปลอดภัย https://www.tomshardware.com/pc-components/gpus/nvidias-16-pin-time-bomb-could-be-defused-by-this-usd95-gadget-ampinel-offers-load-balancing-that-nvidia-forgot-to-include
    0 Comments 0 Shares 264 Views 0 Reviews
  • “iPhone 17 Pro Max ติดชุดระบายความร้อน SSD — ทำคะแนนเสถียรภาพทะลุ 90% ใน 3DMark แต่หน้าตายังน่าถกเถียง”

    ในยุคที่สมาร์ตโฟนกลายเป็นเครื่องมือทำงานระดับโปร ไม่ใช่แค่โทรศัพท์อีกต่อไป ผู้ใช้งาน Reddit นามว่า T-K-Tronix ได้ทดลองติดตั้งชุดระบายความร้อนแบบ SSD บน iPhone 17 Pro Max เพื่อแก้ปัญหาความร้อนจากการใช้งานหนัก โดยเฉพาะการถ่ายวิดีโอแบบ Apple ProRes ซึ่งขึ้นชื่อเรื่องการทำให้เครื่องร้อนจัดเมื่อใช้งานต่อเนื่อง

    ผลลัพธ์น่าทึ่ง — iPhone ที่ติดตั้งชุดระบายความร้อนนี้สามารถทำคะแนนเสถียรภาพได้ถึง 90.5% ในการทดสอบ 3DMark Steel Nomad Light Stress Test ซึ่งสูงกว่าค่ามาตรฐานที่ Max Tech เคยทดสอบไว้ที่ 69.4% อย่างมีนัยสำคัญ

    ชุดระบายความร้อนที่ใช้คือ M.2 SSD cooler แบบพาสซีฟหลายตัว ซึ่งปกติใช้กับคอมพิวเตอร์ โดยมีฮีตไปป์ทองแดง, ฟินอลูมิเนียม และพัดลมขนาดเล็กติดอยู่ด้านหลังเครื่อง iPhone เพื่อช่วยดึงความร้อนออกจากชิป A19 Pro ได้อย่างมีประสิทธิภาพมากกว่าระบบ vapor chamber ที่ Apple ติดตั้งมาในเครื่อง

    แม้ Apple จะเปลี่ยนดีไซน์ iPhone 17 Pro Max ให้ใช้บอดี้อลูมิเนียมแบบ wraparound พร้อม vapor chamber ที่ระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า แต่การใช้งานจริงโดยเฉพาะในงานวิดีโอระดับมืออาชีพยังคงมีข้อจำกัดด้านความร้อน ทำให้ผู้ใช้บางคนเลือกดัดแปลงเครื่องเพื่อให้ได้ประสิทธิภาพสูงสุด

    อย่างไรก็ตาม การติดตั้งชุดระบายความร้อนขนาดใหญ่เช่นนี้อาจไม่เหมาะกับการใช้งานทั่วไป เพราะมีขนาดใหญ่ หนัก และอาจขัดกับการใช้งานแบบพกพา แม้จะมีคนเสนอให้ใช้ร่วมกับ MagSafe หรือใส่ใน “cage” สำหรับงานวิดีโอโดยเฉพาะก็ตาม

    https://www.tomshardware.com/phones/iphone/monstrous-ssd-cooling-solution-strapped-to-iphone-17-pro-max-delivers-unparalleled-performance-clocks-90-percent-stability-in-3d-mark-stress-test-jury-still-out-on-hideous-aesthetics
    📱❄️ “iPhone 17 Pro Max ติดชุดระบายความร้อน SSD — ทำคะแนนเสถียรภาพทะลุ 90% ใน 3DMark แต่หน้าตายังน่าถกเถียง” ในยุคที่สมาร์ตโฟนกลายเป็นเครื่องมือทำงานระดับโปร ไม่ใช่แค่โทรศัพท์อีกต่อไป ผู้ใช้งาน Reddit นามว่า T-K-Tronix ได้ทดลองติดตั้งชุดระบายความร้อนแบบ SSD บน iPhone 17 Pro Max เพื่อแก้ปัญหาความร้อนจากการใช้งานหนัก โดยเฉพาะการถ่ายวิดีโอแบบ Apple ProRes ซึ่งขึ้นชื่อเรื่องการทำให้เครื่องร้อนจัดเมื่อใช้งานต่อเนื่อง ผลลัพธ์น่าทึ่ง — iPhone ที่ติดตั้งชุดระบายความร้อนนี้สามารถทำคะแนนเสถียรภาพได้ถึง 90.5% 😝😝 ในการทดสอบ 3DMark Steel Nomad Light Stress Test ซึ่งสูงกว่าค่ามาตรฐานที่ Max Tech เคยทดสอบไว้ที่ 69.4% อย่างมีนัยสำคัญ ชุดระบายความร้อนที่ใช้คือ M.2 SSD cooler แบบพาสซีฟหลายตัว ซึ่งปกติใช้กับคอมพิวเตอร์ โดยมีฮีตไปป์ทองแดง, ฟินอลูมิเนียม และพัดลมขนาดเล็กติดอยู่ด้านหลังเครื่อง iPhone เพื่อช่วยดึงความร้อนออกจากชิป A19 Pro ได้อย่างมีประสิทธิภาพมากกว่าระบบ vapor chamber ที่ Apple ติดตั้งมาในเครื่อง แม้ Apple จะเปลี่ยนดีไซน์ iPhone 17 Pro Max ให้ใช้บอดี้อลูมิเนียมแบบ wraparound พร้อม vapor chamber ที่ระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า แต่การใช้งานจริงโดยเฉพาะในงานวิดีโอระดับมืออาชีพยังคงมีข้อจำกัดด้านความร้อน ทำให้ผู้ใช้บางคนเลือกดัดแปลงเครื่องเพื่อให้ได้ประสิทธิภาพสูงสุด อย่างไรก็ตาม การติดตั้งชุดระบายความร้อนขนาดใหญ่เช่นนี้อาจไม่เหมาะกับการใช้งานทั่วไป เพราะมีขนาดใหญ่ หนัก และอาจขัดกับการใช้งานแบบพกพา แม้จะมีคนเสนอให้ใช้ร่วมกับ MagSafe หรือใส่ใน “cage” สำหรับงานวิดีโอโดยเฉพาะก็ตาม https://www.tomshardware.com/phones/iphone/monstrous-ssd-cooling-solution-strapped-to-iphone-17-pro-max-delivers-unparalleled-performance-clocks-90-percent-stability-in-3d-mark-stress-test-jury-still-out-on-hideous-aesthetics
    0 Comments 0 Shares 261 Views 0 Reviews
  • “Signal เปิดตัว Triple Ratchet — ป้องกันแชตจากภัยควอนตัม ด้วย SPQR และการเข้ารหัสแบบผสมผสาน”

    ในยุคที่การสื่อสารส่วนตัวผ่านแอปแชตกลายเป็นเรื่องพื้นฐานของชีวิตประจำวัน ความปลอดภัยของข้อความจึงเป็นสิ่งที่ไม่อาจละเลย ล่าสุด Signal ได้เปิดตัวการอัปเกรดครั้งสำคัญของโปรโตคอลเข้ารหัสของตนเอง โดยเพิ่มกลไกใหม่ชื่อว่า SPQR (Sparse Post-Quantum Ratchet) เข้ามาเสริมความสามารถของระบบ Double Ratchet เดิม กลายเป็น Triple Ratchet ที่สามารถต้านทานการโจมตีจากคอมพิวเตอร์ควอนตัมในอนาคตได้

    SPQR ถูกออกแบบมาเพื่อเสริมความปลอดภัยในสองด้านหลักคือ Forward Secrecy (FS) และ Post-Compromise Security (PCS) โดยใช้เทคนิคการแลกเปลี่ยนกุญแจแบบใหม่ที่เรียกว่า ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนทานต่อการถอดรหัสด้วยควอนตัม และสามารถทำงานร่วมกับระบบเดิมได้อย่างราบรื่น

    เพื่อให้การแลกเปลี่ยนกุญแจมีประสิทธิภาพสูงสุด ทีมงาน Signal ได้ออกแบบระบบ state machine ที่สามารถจัดการการส่งข้อมูลขนาดใหญ่แบบ chunk และใช้เทคนิค erasure code เพื่อให้การส่งข้อมูลมีความยืดหยุ่นและทนต่อการสูญหายของข้อความระหว่างทาง

    ที่สำคัญคือ Triple Ratchet ไม่ได้แทนที่ Double Ratchet แต่ใช้ร่วมกัน โดยนำกุญแจจากทั้งสองระบบมาผสมผ่าน Key Derivation Function เพื่อสร้างกุญแจใหม่ที่มีความปลอดภัยแบบผสมผสาน ซึ่งหมายความว่า ผู้โจมตีต้องสามารถเจาะทั้งระบบเดิมและระบบใหม่พร้อมกัน จึงจะสามารถถอดรหัสข้อความได้

    การเปิดตัว SPQR ยังมาพร้อมการออกแบบให้สามารถ “downgrade” ได้ในกรณีที่ผู้ใช้ยังไม่ได้อัปเดตแอป ซึ่งช่วยให้การสื่อสารไม่สะดุด และยังคงปลอดภัยในระดับเดิม จนกว่าการอัปเดตจะครอบคลุมทุกผู้ใช้

    Signal ยังใช้การตรวจสอบความถูกต้องของโค้ดผ่านระบบ formal verification โดยใช้เครื่องมือเช่น ProVerif และ F* เพื่อให้มั่นใจว่าโปรโตคอลใหม่มีความปลอดภัยจริงตามที่ออกแบบ และจะยังคงปลอดภัยแม้มีการอัปเดตในอนาคต

    ข้อมูลสำคัญจากข่าว
    Signal เปิดตัว Triple Ratchet โดยเพิ่ม SPQR เข้ามาเสริม Double Ratchet
    SPQR ใช้ ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนต่อควอนตัม
    Triple Ratchet ให้ความปลอดภัยแบบ hybrid โดยผสมกุญแจจากสองระบบ
    ใช้ state machine และ erasure code เพื่อจัดการการส่งข้อมูลขนาดใหญ่
    ระบบสามารถ downgrade ได้หากผู้ใช้ยังไม่รองรับ SPQR
    การตรวจสอบความถูกต้องของโค้ดใช้ formal verification ผ่าน ProVerif และ F*
    SPQR จะถูกนำไปใช้กับทุกข้อความในอนาคตเมื่อการอัปเดตครอบคลุม
    ผู้ใช้ไม่ต้องทำอะไรเพิ่มเติม การเปลี่ยนแปลงจะเกิดขึ้นเบื้องหลัง

    ข้อมูลเสริมจากภายนอก
    Double Ratchet เป็นระบบที่ให้ FS และ PCS โดยใช้ ECDH และ hash function
    ML-KEM เป็นหนึ่งในมาตรฐานที่ NIST รับรองสำหรับการเข้ารหัสหลังยุคควอนตัม
    Erasure code ช่วยให้สามารถส่งข้อมูลแบบ chunk โดยไม่ต้องเรียงลำดับ
    Formal verification เป็นกระบวนการตรวจสอบความถูกต้องของโปรโตคอลในระดับคณิตศาสตร์
    SPQR ได้รับการพัฒนาโดยร่วมมือกับนักวิจัยจาก PQShield, AIST และ NYU

    https://signal.org/blog/spqr/
    🔐 “Signal เปิดตัว Triple Ratchet — ป้องกันแชตจากภัยควอนตัม ด้วย SPQR และการเข้ารหัสแบบผสมผสาน” ในยุคที่การสื่อสารส่วนตัวผ่านแอปแชตกลายเป็นเรื่องพื้นฐานของชีวิตประจำวัน ความปลอดภัยของข้อความจึงเป็นสิ่งที่ไม่อาจละเลย ล่าสุด Signal ได้เปิดตัวการอัปเกรดครั้งสำคัญของโปรโตคอลเข้ารหัสของตนเอง โดยเพิ่มกลไกใหม่ชื่อว่า SPQR (Sparse Post-Quantum Ratchet) เข้ามาเสริมความสามารถของระบบ Double Ratchet เดิม กลายเป็น Triple Ratchet ที่สามารถต้านทานการโจมตีจากคอมพิวเตอร์ควอนตัมในอนาคตได้ SPQR ถูกออกแบบมาเพื่อเสริมความปลอดภัยในสองด้านหลักคือ Forward Secrecy (FS) และ Post-Compromise Security (PCS) โดยใช้เทคนิคการแลกเปลี่ยนกุญแจแบบใหม่ที่เรียกว่า ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนทานต่อการถอดรหัสด้วยควอนตัม และสามารถทำงานร่วมกับระบบเดิมได้อย่างราบรื่น เพื่อให้การแลกเปลี่ยนกุญแจมีประสิทธิภาพสูงสุด ทีมงาน Signal ได้ออกแบบระบบ state machine ที่สามารถจัดการการส่งข้อมูลขนาดใหญ่แบบ chunk และใช้เทคนิค erasure code เพื่อให้การส่งข้อมูลมีความยืดหยุ่นและทนต่อการสูญหายของข้อความระหว่างทาง ที่สำคัญคือ Triple Ratchet ไม่ได้แทนที่ Double Ratchet แต่ใช้ร่วมกัน โดยนำกุญแจจากทั้งสองระบบมาผสมผ่าน Key Derivation Function เพื่อสร้างกุญแจใหม่ที่มีความปลอดภัยแบบผสมผสาน ซึ่งหมายความว่า ผู้โจมตีต้องสามารถเจาะทั้งระบบเดิมและระบบใหม่พร้อมกัน จึงจะสามารถถอดรหัสข้อความได้ การเปิดตัว SPQR ยังมาพร้อมการออกแบบให้สามารถ “downgrade” ได้ในกรณีที่ผู้ใช้ยังไม่ได้อัปเดตแอป ซึ่งช่วยให้การสื่อสารไม่สะดุด และยังคงปลอดภัยในระดับเดิม จนกว่าการอัปเดตจะครอบคลุมทุกผู้ใช้ Signal ยังใช้การตรวจสอบความถูกต้องของโค้ดผ่านระบบ formal verification โดยใช้เครื่องมือเช่น ProVerif และ F* เพื่อให้มั่นใจว่าโปรโตคอลใหม่มีความปลอดภัยจริงตามที่ออกแบบ และจะยังคงปลอดภัยแม้มีการอัปเดตในอนาคต ✅ ข้อมูลสำคัญจากข่าว ➡️ Signal เปิดตัว Triple Ratchet โดยเพิ่ม SPQR เข้ามาเสริม Double Ratchet ➡️ SPQR ใช้ ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนต่อควอนตัม ➡️ Triple Ratchet ให้ความปลอดภัยแบบ hybrid โดยผสมกุญแจจากสองระบบ ➡️ ใช้ state machine และ erasure code เพื่อจัดการการส่งข้อมูลขนาดใหญ่ ➡️ ระบบสามารถ downgrade ได้หากผู้ใช้ยังไม่รองรับ SPQR ➡️ การตรวจสอบความถูกต้องของโค้ดใช้ formal verification ผ่าน ProVerif และ F* ➡️ SPQR จะถูกนำไปใช้กับทุกข้อความในอนาคตเมื่อการอัปเดตครอบคลุม ➡️ ผู้ใช้ไม่ต้องทำอะไรเพิ่มเติม การเปลี่ยนแปลงจะเกิดขึ้นเบื้องหลัง ✅ ข้อมูลเสริมจากภายนอก ➡️ Double Ratchet เป็นระบบที่ให้ FS และ PCS โดยใช้ ECDH และ hash function ➡️ ML-KEM เป็นหนึ่งในมาตรฐานที่ NIST รับรองสำหรับการเข้ารหัสหลังยุคควอนตัม ➡️ Erasure code ช่วยให้สามารถส่งข้อมูลแบบ chunk โดยไม่ต้องเรียงลำดับ ➡️ Formal verification เป็นกระบวนการตรวจสอบความถูกต้องของโปรโตคอลในระดับคณิตศาสตร์ ➡️ SPQR ได้รับการพัฒนาโดยร่วมมือกับนักวิจัยจาก PQShield, AIST และ NYU https://signal.org/blog/spqr/
    SIGNAL.ORG
    Signal Protocol and Post-Quantum Ratchets
    We are excited to announce a significant advancement in the security of the Signal Protocol: the introduction of the Sparse Post Quantum Ratchet (SPQR). This new ratchet enhances the Signal Protocol’s resilience against future quantum computing threats while maintaining our existing security guar...
    0 Comments 0 Shares 223 Views 0 Reviews
  • “พล.อ.อ.เสกสรร” ประเดิมตำแหน่ง ผบ.ทอ.ตรวจเยี่ยมกองบิน 3 สระแก้ว เผย แม้ที่ผ่านมาได้รับคำชมจาก ผบ.ทบ. แต่ไม่ควรชะล่าใจ มองจากนี้อาจถูกโจมตีด้วยโดรนขนาดเล็ก-อาวุธระยะไกลยิงเข้าใส่ ลั่นจะทำให้ดีที่สุด ให้การรบร่วม 2 เหล่าทัพ 3 เหล่าทัพ ให้มีประสิทธิภาพสูงสุด

    อ่านต่อ..https://news1live.com/detail/9680000093782

    #News1live #News1 #SondhiX #Sondhitalk #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    “พล.อ.อ.เสกสรร” ประเดิมตำแหน่ง ผบ.ทอ.ตรวจเยี่ยมกองบิน 3 สระแก้ว เผย แม้ที่ผ่านมาได้รับคำชมจาก ผบ.ทบ. แต่ไม่ควรชะล่าใจ มองจากนี้อาจถูกโจมตีด้วยโดรนขนาดเล็ก-อาวุธระยะไกลยิงเข้าใส่ ลั่นจะทำให้ดีที่สุด ให้การรบร่วม 2 เหล่าทัพ 3 เหล่าทัพ ให้มีประสิทธิภาพสูงสุด อ่านต่อ..https://news1live.com/detail/9680000093782 #News1live #News1 #SondhiX #Sondhitalk #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    Like
    2
    0 Comments 0 Shares 343 Views 0 Reviews
  • “MediaTek Dimensity 9500 เปิดตัวแล้ว — ชิปมือถือที่แรงที่สุดของค่าย พร้อม AI แบบ on-device และประหยัดพลังงานกว่าเดิม”

    MediaTek ประกาศเปิดตัวชิปเรือธงรุ่นใหม่ Dimensity 9500 ซึ่งจะถูกนำไปใช้ในสมาร์ตโฟนระดับไฮเอนด์ช่วงปลายปี 2025 โดยชูจุดเด่นด้านประสิทธิภาพสูงสุด การประมวลผล AI แบบ on-device และการจัดการพลังงานที่เหนือกว่ารุ่นก่อนหน้าอย่างชัดเจน

    Dimensity 9500 ใช้สถาปัตยกรรม CPU แบบ All Big Core รุ่นที่ 3 ประกอบด้วย ultra core ความเร็ว 4.21GHz, premium core 3 ตัว และ performance core อีก 4 ตัว พร้อมระบบจัดเก็บข้อมูลแบบ UFS 4.1 แบบ 4 ช่อง ซึ่งช่วยเพิ่มความเร็วในการอ่าน/เขียนข้อมูลขึ้นถึง 2 เท่า และลดการใช้พลังงานสูงสุดถึง 55% เมื่อเทียบกับรุ่นก่อน

    ด้านกราฟิก ชิปนี้มาพร้อม GPU Arm G1-Ultra ที่ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42% รองรับการเล่นเกมระดับคอนโซลด้วย frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์ พร้อมรองรับฟีเจอร์ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5

    ในส่วนของ AI Dimensity 9500 ใช้ NPU รุ่นที่ 9 พร้อม Generative AI Engine 2.0 ที่สามารถประมวลผลโมเดลขนาดใหญ่ได้เร็วขึ้น 100% และลดการใช้พลังงานลงถึง 56% รองรับการสร้างภาพ 4K แบบ ultra-HD และข้อความยาวถึง 128K token ได้แบบ on-device โดยไม่ต้องพึ่งคลาวด์

    ด้านกล้องและภาพ Dimensity 9500 รองรับการถ่ายภาพ RAW สูงสุด 200MP พร้อมระบบโฟกัสต่อเนื่อง 30 FPS และวิดีโอ 4K 60 FPS แบบ cinematic portrait นอกจากนี้ยังมี MiraVision Adaptive Display ที่ปรับแสง สี และความคมชัดตามสภาพแวดล้อมแบบเรียลไทม์

    การเชื่อมต่อก็ไม่แพ้ใคร ด้วยระบบ multi-network intelligence ที่ช่วยลด latency ได้ถึง 50% และเพิ่มความแม่นยำในการระบุตำแหน่ง 20% พร้อมระบบ AI ที่ช่วยเลือกเครือข่ายที่ดีที่สุดในแต่ละสถานการณ์

    จุดเด่นของ MediaTek Dimensity 9500
    ใช้ CPU แบบ All Big Core รุ่นที่ 3 พร้อม ultra core 4.21GHz
    เพิ่มประสิทธิภาพ single-core 32% และ multi-core 17% จากรุ่นก่อน
    ลดการใช้พลังงานสูงสุด 55% เมื่อทำงานเต็มที่
    รองรับ UFS 4.1 แบบ 4 ช่อง เพิ่มความเร็วอ่าน/เขียนข้อมูล 2 เท่า

    ด้านกราฟิกและการเล่นเกม
    GPU Arm G1-Ultra ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42%
    รองรับ frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์
    รองรับ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5

    ด้าน AI และการประมวลผลโมเดล
    ใช้ NPU 990 รุ่นที่ 9 พร้อม Generative AI Engine 2.0
    รองรับ BitNet 1.58-bit สำหรับโมเดลขนาดใหญ่
    ประมวลผล LLM ขนาด 3 พันล้านพารามิเตอร์ได้เร็วขึ้น 100%
    รองรับข้อความยาว 128K token และภาพ 4K ultra-HD แบบ on-device

    ด้านกล้องและการแสดงผล
    รองรับการถ่ายภาพ RAW สูงสุด 200MP และวิดีโอ 4K 60 FPS แบบ portrait
    MiraVision Adaptive Display ปรับแสง สี และความคมชัดตามสภาพแวดล้อม
    ป้องกันการร้อนเกินเมื่อใช้งานกลางแจ้ง และถนอมสายตาในที่มืด

    ด้านการเชื่อมต่อและพลังงาน
    AI-powered communication ลดการใช้พลังงาน 10% ใน 5G และ 20% ใน Wi-Fi
    5CC carrier aggregation เพิ่มแบนด์วิดธ์ 15%
    AI network selection เพิ่มความแม่นยำ 20% และลด latency 50%

    ข้อมูลเสริมจากภายนอก
    ผลิตด้วยเทคโนโลยี 3 นาโนเมตร และคาดว่าจะใช้ในมือถือเรือธงปลายปี 2025
    เปรียบเทียบกับ Snapdragon 8 Gen 4 และ Apple A18 Pro ได้อย่างสูสีในหลายด้าน
    รองรับการใช้งาน AI แบบต่อเนื่องโดยไม่ต้องพึ่งคลาวด์ ช่วยเพิ่มความเป็นส่วนตัว

    https://www.techpowerup.com/341208/mediatek-dimensity-9500-unleashes-best-in-class-performance-ai-experiences-and-power-efficiency-for-the-next-generation-of-mobile-devices
    ⚡ “MediaTek Dimensity 9500 เปิดตัวแล้ว — ชิปมือถือที่แรงที่สุดของค่าย พร้อม AI แบบ on-device และประหยัดพลังงานกว่าเดิม” MediaTek ประกาศเปิดตัวชิปเรือธงรุ่นใหม่ Dimensity 9500 ซึ่งจะถูกนำไปใช้ในสมาร์ตโฟนระดับไฮเอนด์ช่วงปลายปี 2025 โดยชูจุดเด่นด้านประสิทธิภาพสูงสุด การประมวลผล AI แบบ on-device และการจัดการพลังงานที่เหนือกว่ารุ่นก่อนหน้าอย่างชัดเจน Dimensity 9500 ใช้สถาปัตยกรรม CPU แบบ All Big Core รุ่นที่ 3 ประกอบด้วย ultra core ความเร็ว 4.21GHz, premium core 3 ตัว และ performance core อีก 4 ตัว พร้อมระบบจัดเก็บข้อมูลแบบ UFS 4.1 แบบ 4 ช่อง ซึ่งช่วยเพิ่มความเร็วในการอ่าน/เขียนข้อมูลขึ้นถึง 2 เท่า และลดการใช้พลังงานสูงสุดถึง 55% เมื่อเทียบกับรุ่นก่อน ด้านกราฟิก ชิปนี้มาพร้อม GPU Arm G1-Ultra ที่ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42% รองรับการเล่นเกมระดับคอนโซลด้วย frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์ พร้อมรองรับฟีเจอร์ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5 ในส่วนของ AI Dimensity 9500 ใช้ NPU รุ่นที่ 9 พร้อม Generative AI Engine 2.0 ที่สามารถประมวลผลโมเดลขนาดใหญ่ได้เร็วขึ้น 100% และลดการใช้พลังงานลงถึง 56% รองรับการสร้างภาพ 4K แบบ ultra-HD และข้อความยาวถึง 128K token ได้แบบ on-device โดยไม่ต้องพึ่งคลาวด์ ด้านกล้องและภาพ Dimensity 9500 รองรับการถ่ายภาพ RAW สูงสุด 200MP พร้อมระบบโฟกัสต่อเนื่อง 30 FPS และวิดีโอ 4K 60 FPS แบบ cinematic portrait นอกจากนี้ยังมี MiraVision Adaptive Display ที่ปรับแสง สี และความคมชัดตามสภาพแวดล้อมแบบเรียลไทม์ การเชื่อมต่อก็ไม่แพ้ใคร ด้วยระบบ multi-network intelligence ที่ช่วยลด latency ได้ถึง 50% และเพิ่มความแม่นยำในการระบุตำแหน่ง 20% พร้อมระบบ AI ที่ช่วยเลือกเครือข่ายที่ดีที่สุดในแต่ละสถานการณ์ ✅ จุดเด่นของ MediaTek Dimensity 9500 ➡️ ใช้ CPU แบบ All Big Core รุ่นที่ 3 พร้อม ultra core 4.21GHz ➡️ เพิ่มประสิทธิภาพ single-core 32% และ multi-core 17% จากรุ่นก่อน ➡️ ลดการใช้พลังงานสูงสุด 55% เมื่อทำงานเต็มที่ ➡️ รองรับ UFS 4.1 แบบ 4 ช่อง เพิ่มความเร็วอ่าน/เขียนข้อมูล 2 เท่า ✅ ด้านกราฟิกและการเล่นเกม ➡️ GPU Arm G1-Ultra ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42% ➡️ รองรับ frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์ ➡️ รองรับ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5 ✅ ด้าน AI และการประมวลผลโมเดล ➡️ ใช้ NPU 990 รุ่นที่ 9 พร้อม Generative AI Engine 2.0 ➡️ รองรับ BitNet 1.58-bit สำหรับโมเดลขนาดใหญ่ ➡️ ประมวลผล LLM ขนาด 3 พันล้านพารามิเตอร์ได้เร็วขึ้น 100% ➡️ รองรับข้อความยาว 128K token และภาพ 4K ultra-HD แบบ on-device ✅ ด้านกล้องและการแสดงผล ➡️ รองรับการถ่ายภาพ RAW สูงสุด 200MP และวิดีโอ 4K 60 FPS แบบ portrait ➡️ MiraVision Adaptive Display ปรับแสง สี และความคมชัดตามสภาพแวดล้อม ➡️ ป้องกันการร้อนเกินเมื่อใช้งานกลางแจ้ง และถนอมสายตาในที่มืด ✅ ด้านการเชื่อมต่อและพลังงาน ➡️ AI-powered communication ลดการใช้พลังงาน 10% ใน 5G และ 20% ใน Wi-Fi ➡️ 5CC carrier aggregation เพิ่มแบนด์วิดธ์ 15% ➡️ AI network selection เพิ่มความแม่นยำ 20% และลด latency 50% ✅ ข้อมูลเสริมจากภายนอก ➡️ ผลิตด้วยเทคโนโลยี 3 นาโนเมตร และคาดว่าจะใช้ในมือถือเรือธงปลายปี 2025 ➡️ เปรียบเทียบกับ Snapdragon 8 Gen 4 และ Apple A18 Pro ได้อย่างสูสีในหลายด้าน ➡️ รองรับการใช้งาน AI แบบต่อเนื่องโดยไม่ต้องพึ่งคลาวด์ ช่วยเพิ่มความเป็นส่วนตัว https://www.techpowerup.com/341208/mediatek-dimensity-9500-unleashes-best-in-class-performance-ai-experiences-and-power-efficiency-for-the-next-generation-of-mobile-devices
    WWW.TECHPOWERUP.COM
    MediaTek Dimensity 9500 Unleashes Best-in-Class Performance, AI Experiences, and Power Efficiency for the Next Generation of Mobile Devices
    MediaTek, the world's leading innovator of smartphone SoCs, today announced the launch of its most advanced mobile platform yet: The MediaTek Dimensity 9500. Setting new standards in on-device AI, console-class gaming, and power efficiency, the MediaTek Dimensity 9500 is engineered to super-charge t...
    0 Comments 0 Shares 231 Views 0 Reviews
  • “OpenAI จับมือ NVIDIA สร้างศูนย์ข้อมูล AI ขนาด 10 กิกะวัตต์ — ก้าวใหม่สู่ยุค Superintelligence ด้วยพลัง GPU นับล้านตัว”

    วันที่ 22 กันยายน 2025 OpenAI และ NVIDIA ประกาศความร่วมมือเชิงกลยุทธ์ครั้งใหญ่ในการสร้างโครงสร้างพื้นฐาน AI รุ่นถัดไป โดยมีแผนจะติดตั้งระบบของ NVIDIA รวมพลังงานสูงถึง 10 กิกะวัตต์ ซึ่งเทียบเท่ากับการใช้ GPU หลายล้านตัว เพื่อรองรับการฝึกและใช้งานโมเดล AI ระดับ Superintelligence ในอนาคต

    NVIDIA เตรียมลงทุนสูงสุดถึง $100 พันล้านดอลลาร์ใน OpenAI โดยจะทยอยลงทุนตามการติดตั้งแต่ละกิกะวัตต์ โดยเฟสแรกจะเริ่มใช้งานในช่วงครึ่งหลังของปี 2026 บนแพลตฟอร์ม Vera Rubin ซึ่งเป็นระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ของ NVIDIA ที่ออกแบบมาเพื่อรองรับโมเดลขนาดใหญ่และการประมวลผลแบบกระจาย

    Sam Altman ซีอีโอของ OpenAI กล่าวว่า “ทุกอย่างเริ่มต้นจาก compute” และการสร้างโครงสร้างพื้นฐานนี้จะเป็นรากฐานของเศรษฐกิจแห่งอนาคต ขณะที่ Jensen Huang ซีอีโอของ NVIDIA ย้ำว่า “นี่คือก้าวกระโดดครั้งใหม่” หลังจากที่ทั้งสองบริษัทผลักดันกันมาตั้งแต่ยุค DGX จนถึง ChatGPT

    ความร่วมมือนี้ยังรวมถึงการ co-optimize ระหว่างซอฟต์แวร์ของ OpenAI และฮาร์ดแวร์ของ NVIDIA เพื่อให้การฝึกโมเดลและการใช้งานจริงมีประสิทธิภาพสูงสุด โดยจะทำงานร่วมกับพันธมิตรอย่าง Microsoft, Oracle, SoftBank และ Stargate Partners เพื่อสร้างโครงสร้างพื้นฐาน AI ที่ล้ำหน้าที่สุดในโลก

    OpenAI ปัจจุบันมีผู้ใช้งานประจำรายสัปดาห์กว่า 700 ล้านคน และมีการนำเทคโนโลยีไปใช้ในองค์กรทั่วโลก ทั้งขนาดใหญ่และเล็ก ความร่วมมือครั้งนี้จึงเป็นการขยายขอบเขตของ AI ให้เข้าถึงผู้คนในระดับมหภาค

    ข้อมูลสำคัญจากข่าว
    OpenAI และ NVIDIA ร่วมมือสร้างโครงสร้างพื้นฐาน AI ขนาด 10 กิกะวัตต์
    NVIDIA เตรียมลงทุนสูงสุด $100 พันล้านดอลลาร์ใน OpenAI ตามการติดตั้งแต่ละเฟส
    เฟสแรกจะเริ่มใช้งานในครึ่งหลังของปี 2026 บนแพลตฟอร์ม Vera Rubin
    ใช้ GPU หลายล้านตัวเพื่อรองรับการฝึกและใช้งานโมเดลระดับ Superintelligence

    ความร่วมมือและการพัฒนา
    OpenAI และ NVIDIA จะ co-optimize ซอฟต์แวร์และฮาร์ดแวร์ร่วมกัน
    ทำงานร่วมกับพันธมิตรอย่าง Microsoft, Oracle, SoftBank และ Stargate Partners
    OpenAI มีผู้ใช้งานประจำรายสัปดาห์กว่า 700 ล้านคนทั่วโลก
    ความร่วมมือนี้จะช่วยผลักดันภารกิจของ OpenAI ในการสร้าง AGI เพื่อมนุษยชาติ

    ข้อมูลเสริมจากภายนอก
    10 กิกะวัตต์ เทียบเท่ากับการใช้ไฟฟ้าของเมืองขนาดกลาง
    Vera Rubin เป็นแพลตฟอร์มที่ออกแบบมาเพื่องาน AI ขนาดใหญ่โดยเฉพาะ
    การลงทุนระดับนี้สะท้อนถึงการแข่งขันด้าน compute infrastructure ที่รุนแรงขึ้น
    การใช้ GPU จำนวนมากต้องการระบบระบายความร้อนและพลังงานที่มีประสิทธิภาพสูง

    https://openai.com/index/openai-nvidia-systems-partnership/

    ⚡ “OpenAI จับมือ NVIDIA สร้างศูนย์ข้อมูล AI ขนาด 10 กิกะวัตต์ — ก้าวใหม่สู่ยุค Superintelligence ด้วยพลัง GPU นับล้านตัว” วันที่ 22 กันยายน 2025 OpenAI และ NVIDIA ประกาศความร่วมมือเชิงกลยุทธ์ครั้งใหญ่ในการสร้างโครงสร้างพื้นฐาน AI รุ่นถัดไป โดยมีแผนจะติดตั้งระบบของ NVIDIA รวมพลังงานสูงถึง 10 กิกะวัตต์ ซึ่งเทียบเท่ากับการใช้ GPU หลายล้านตัว เพื่อรองรับการฝึกและใช้งานโมเดล AI ระดับ Superintelligence ในอนาคต NVIDIA เตรียมลงทุนสูงสุดถึง $100 พันล้านดอลลาร์ใน OpenAI โดยจะทยอยลงทุนตามการติดตั้งแต่ละกิกะวัตต์ โดยเฟสแรกจะเริ่มใช้งานในช่วงครึ่งหลังของปี 2026 บนแพลตฟอร์ม Vera Rubin ซึ่งเป็นระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ของ NVIDIA ที่ออกแบบมาเพื่อรองรับโมเดลขนาดใหญ่และการประมวลผลแบบกระจาย Sam Altman ซีอีโอของ OpenAI กล่าวว่า “ทุกอย่างเริ่มต้นจาก compute” และการสร้างโครงสร้างพื้นฐานนี้จะเป็นรากฐานของเศรษฐกิจแห่งอนาคต ขณะที่ Jensen Huang ซีอีโอของ NVIDIA ย้ำว่า “นี่คือก้าวกระโดดครั้งใหม่” หลังจากที่ทั้งสองบริษัทผลักดันกันมาตั้งแต่ยุค DGX จนถึง ChatGPT ความร่วมมือนี้ยังรวมถึงการ co-optimize ระหว่างซอฟต์แวร์ของ OpenAI และฮาร์ดแวร์ของ NVIDIA เพื่อให้การฝึกโมเดลและการใช้งานจริงมีประสิทธิภาพสูงสุด โดยจะทำงานร่วมกับพันธมิตรอย่าง Microsoft, Oracle, SoftBank และ Stargate Partners เพื่อสร้างโครงสร้างพื้นฐาน AI ที่ล้ำหน้าที่สุดในโลก OpenAI ปัจจุบันมีผู้ใช้งานประจำรายสัปดาห์กว่า 700 ล้านคน และมีการนำเทคโนโลยีไปใช้ในองค์กรทั่วโลก ทั้งขนาดใหญ่และเล็ก ความร่วมมือครั้งนี้จึงเป็นการขยายขอบเขตของ AI ให้เข้าถึงผู้คนในระดับมหภาค ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenAI และ NVIDIA ร่วมมือสร้างโครงสร้างพื้นฐาน AI ขนาด 10 กิกะวัตต์ ➡️ NVIDIA เตรียมลงทุนสูงสุด $100 พันล้านดอลลาร์ใน OpenAI ตามการติดตั้งแต่ละเฟส ➡️ เฟสแรกจะเริ่มใช้งานในครึ่งหลังของปี 2026 บนแพลตฟอร์ม Vera Rubin ➡️ ใช้ GPU หลายล้านตัวเพื่อรองรับการฝึกและใช้งานโมเดลระดับ Superintelligence ✅ ความร่วมมือและการพัฒนา ➡️ OpenAI และ NVIDIA จะ co-optimize ซอฟต์แวร์และฮาร์ดแวร์ร่วมกัน ➡️ ทำงานร่วมกับพันธมิตรอย่าง Microsoft, Oracle, SoftBank และ Stargate Partners ➡️ OpenAI มีผู้ใช้งานประจำรายสัปดาห์กว่า 700 ล้านคนทั่วโลก ➡️ ความร่วมมือนี้จะช่วยผลักดันภารกิจของ OpenAI ในการสร้าง AGI เพื่อมนุษยชาติ ✅ ข้อมูลเสริมจากภายนอก ➡️ 10 กิกะวัตต์ เทียบเท่ากับการใช้ไฟฟ้าของเมืองขนาดกลาง ➡️ Vera Rubin เป็นแพลตฟอร์มที่ออกแบบมาเพื่องาน AI ขนาดใหญ่โดยเฉพาะ ➡️ การลงทุนระดับนี้สะท้อนถึงการแข่งขันด้าน compute infrastructure ที่รุนแรงขึ้น ➡️ การใช้ GPU จำนวนมากต้องการระบบระบายความร้อนและพลังงานที่มีประสิทธิภาพสูง https://openai.com/index/openai-nvidia-systems-partnership/
    0 Comments 0 Shares 245 Views 0 Reviews
  • Microsoft เปิดตัว Fairwater — ดาต้าเซ็นเตอร์ AI ที่ทรงพลังที่สุดในโลก พร้อม GPU นับแสนและระบบไฟเบอร์พันรอบโลก

    Microsoft ประกาศเปิดตัว “Fairwater” ดาต้าเซ็นเตอร์ AI ขนาดมหึมาในเมือง Mount Pleasant รัฐวิสคอนซิน ซึ่งจะเริ่มใช้งานในต้นปี 2026 โดยถูกออกแบบมาเพื่อรองรับการฝึกและรันโมเดล AI ขนาดใหญ่ระดับโลก ด้วยพื้นที่กว่า 315 เอเคอร์ และอาคารรวมกว่า 1.2 ล้านตารางฟุต Fairwater จะบรรจุ GPU รุ่นใหม่ของ Nvidia ได้แก่ GB200 และ GB300 จำนวนหลายแสนตัว เชื่อมต่อกันด้วยไฟเบอร์ออปติกที่ยาวพอจะพันรอบโลกได้ถึง 4.5 รอบ

    Satya Nadella ซีอีโอของ Microsoft ระบุว่า Fairwater จะให้ประสิทธิภาพสูงกว่าซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในปัจจุบันถึง 10 เท่า โดยเปรียบเทียบกับ Colossus ของ xAI ที่ใช้ GPU กว่า 200,000 ตัวและพลังงาน 300 เมกะวัตต์

    Fairwater ยังใช้ระบบระบายความร้อนแบบวงจรปิดด้วยน้ำ ซึ่ง Microsoft อ้างว่าจะไม่มีการสูญเสียน้ำเลย โดยใช้พัดลมขนาด 20 ฟุตจำนวน 172 ตัวในการหมุนเวียนน้ำร้อนกลับมาระบายความร้อนให้ GPU อีกครั้ง ถือเป็นโรงงานระบายความร้อนด้วยน้ำที่ใหญ่เป็นอันดับสองของโลก

    การก่อสร้างใช้โครงสร้างขนาดมหึมา เช่น เสาเข็มลึก 46.6 ไมล์ เหล็กโครงสร้าง 26.5 ล้านปอนด์ สายไฟใต้ดินแรงดันกลาง 120 ไมล์ และท่อกลไก 72.6 ไมล์ โดยระบบจัดเก็บข้อมูลมีขนาดเท่ากับสนามอเมริกันฟุตบอล 5 สนาม

    Microsoft ยังประกาศว่าจะสร้าง Fairwater อีกหลายแห่งทั่วสหรัฐฯ และลงทุนเพิ่มอีก 4 พันล้านดอลลาร์ในโครงการที่สอง พร้อมทั้งติดตั้งโซลาร์ฟาร์มขนาด 250 เมกะวัตต์เพื่อชดเชยการใช้พลังงานจากฟอสซิล และป้องกันผลกระทบต่อค่าไฟของชุมชนโดยรอบ

    Microsoft เปิดตัวดาต้าเซ็นเตอร์ AI “Fairwater” ที่วิสคอนซิน
    พื้นที่ 315 เอเคอร์ อาคารรวม 1.2 ล้านตารางฟุต
    ใช้ GPU Nvidia GB200 และ GB300 จำนวนหลายแสนตัว

    เชื่อมต่อด้วยไฟเบอร์ออปติกที่ยาวพันรอบโลก 4.5 เท่า
    ใช้ระบบเครือข่ายแบบ flat interconnect เพื่อประสิทธิภาพสูงสุด
    ให้ประสิทธิภาพสูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 10 เท่า

    ใช้ระบบระบายความร้อนด้วยน้ำแบบวงจรปิด
    ไม่มีการสูญเสียน้ำหลังการติดตั้ง
    ใช้พัดลมขนาด 20 ฟุตจำนวน 172 ตัวในการหมุนเวียนน้ำ

    การก่อสร้างใช้วัสดุและโครงสร้างขนาดมหึมา
    เสาเข็มลึก 46.6 ไมล์ / เหล็กโครงสร้าง 26.5 ล้านปอนด์
    สายไฟใต้ดิน 120 ไมล์ / ท่อกลไก 72.6 ไมล์

    Microsoft ลงทุนรวมกว่า 7.3 พันล้านดอลลาร์ในโครงการนี้
    3.3 พันล้านสำหรับ Fairwater แรก และอีก 4 พันล้านสำหรับแห่งที่สอง
    ติดตั้งโซลาร์ฟาร์ม 250 MW เพื่อชดเชยพลังงานฟอสซิล

    มีแผนสร้าง Fairwater เพิ่มในหลายรัฐทั่วสหรัฐฯ
    เพื่อรองรับการเติบโตของ AI และเชื่อมต่อกับ Microsoft Cloud ทั่วโลก
    ใช้สำหรับงาน AI เช่น Copilot, OpenAI และโมเดลขนาดใหญ่

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-announces-worlds-most-powerful-ai-data-center-315-acre-site-to-house-hundreds-of-thousands-of-nvidia-gpus-and-enough-fiber-to-circle-the-earth-4-5-times
    📰 Microsoft เปิดตัว Fairwater — ดาต้าเซ็นเตอร์ AI ที่ทรงพลังที่สุดในโลก พร้อม GPU นับแสนและระบบไฟเบอร์พันรอบโลก Microsoft ประกาศเปิดตัว “Fairwater” ดาต้าเซ็นเตอร์ AI ขนาดมหึมาในเมือง Mount Pleasant รัฐวิสคอนซิน ซึ่งจะเริ่มใช้งานในต้นปี 2026 โดยถูกออกแบบมาเพื่อรองรับการฝึกและรันโมเดล AI ขนาดใหญ่ระดับโลก ด้วยพื้นที่กว่า 315 เอเคอร์ และอาคารรวมกว่า 1.2 ล้านตารางฟุต Fairwater จะบรรจุ GPU รุ่นใหม่ของ Nvidia ได้แก่ GB200 และ GB300 จำนวนหลายแสนตัว เชื่อมต่อกันด้วยไฟเบอร์ออปติกที่ยาวพอจะพันรอบโลกได้ถึง 4.5 รอบ Satya Nadella ซีอีโอของ Microsoft ระบุว่า Fairwater จะให้ประสิทธิภาพสูงกว่าซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในปัจจุบันถึง 10 เท่า โดยเปรียบเทียบกับ Colossus ของ xAI ที่ใช้ GPU กว่า 200,000 ตัวและพลังงาน 300 เมกะวัตต์ Fairwater ยังใช้ระบบระบายความร้อนแบบวงจรปิดด้วยน้ำ ซึ่ง Microsoft อ้างว่าจะไม่มีการสูญเสียน้ำเลย โดยใช้พัดลมขนาด 20 ฟุตจำนวน 172 ตัวในการหมุนเวียนน้ำร้อนกลับมาระบายความร้อนให้ GPU อีกครั้ง ถือเป็นโรงงานระบายความร้อนด้วยน้ำที่ใหญ่เป็นอันดับสองของโลก การก่อสร้างใช้โครงสร้างขนาดมหึมา เช่น เสาเข็มลึก 46.6 ไมล์ เหล็กโครงสร้าง 26.5 ล้านปอนด์ สายไฟใต้ดินแรงดันกลาง 120 ไมล์ และท่อกลไก 72.6 ไมล์ โดยระบบจัดเก็บข้อมูลมีขนาดเท่ากับสนามอเมริกันฟุตบอล 5 สนาม Microsoft ยังประกาศว่าจะสร้าง Fairwater อีกหลายแห่งทั่วสหรัฐฯ และลงทุนเพิ่มอีก 4 พันล้านดอลลาร์ในโครงการที่สอง พร้อมทั้งติดตั้งโซลาร์ฟาร์มขนาด 250 เมกะวัตต์เพื่อชดเชยการใช้พลังงานจากฟอสซิล และป้องกันผลกระทบต่อค่าไฟของชุมชนโดยรอบ ✅ Microsoft เปิดตัวดาต้าเซ็นเตอร์ AI “Fairwater” ที่วิสคอนซิน ➡️ พื้นที่ 315 เอเคอร์ อาคารรวม 1.2 ล้านตารางฟุต ➡️ ใช้ GPU Nvidia GB200 และ GB300 จำนวนหลายแสนตัว ✅ เชื่อมต่อด้วยไฟเบอร์ออปติกที่ยาวพันรอบโลก 4.5 เท่า ➡️ ใช้ระบบเครือข่ายแบบ flat interconnect เพื่อประสิทธิภาพสูงสุด ➡️ ให้ประสิทธิภาพสูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 10 เท่า ✅ ใช้ระบบระบายความร้อนด้วยน้ำแบบวงจรปิด ➡️ ไม่มีการสูญเสียน้ำหลังการติดตั้ง ➡️ ใช้พัดลมขนาด 20 ฟุตจำนวน 172 ตัวในการหมุนเวียนน้ำ ✅ การก่อสร้างใช้วัสดุและโครงสร้างขนาดมหึมา ➡️ เสาเข็มลึก 46.6 ไมล์ / เหล็กโครงสร้าง 26.5 ล้านปอนด์ ➡️ สายไฟใต้ดิน 120 ไมล์ / ท่อกลไก 72.6 ไมล์ ✅ Microsoft ลงทุนรวมกว่า 7.3 พันล้านดอลลาร์ในโครงการนี้ ➡️ 3.3 พันล้านสำหรับ Fairwater แรก และอีก 4 พันล้านสำหรับแห่งที่สอง ➡️ ติดตั้งโซลาร์ฟาร์ม 250 MW เพื่อชดเชยพลังงานฟอสซิล ✅ มีแผนสร้าง Fairwater เพิ่มในหลายรัฐทั่วสหรัฐฯ ➡️ เพื่อรองรับการเติบโตของ AI และเชื่อมต่อกับ Microsoft Cloud ทั่วโลก ➡️ ใช้สำหรับงาน AI เช่น Copilot, OpenAI และโมเดลขนาดใหญ่ https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-announces-worlds-most-powerful-ai-data-center-315-acre-site-to-house-hundreds-of-thousands-of-nvidia-gpus-and-enough-fiber-to-circle-the-earth-4-5-times
    0 Comments 0 Shares 296 Views 0 Reviews
  • “MediaTek ปล่อยชิปเรือธงบนเทคโนโลยี 2nm ของ TSMC — ก้าวแรกสู่ยุคใหม่ของ AI, มือถือ และยานยนต์”

    MediaTek ประกาศความสำเร็จในการ tape-out ชิป SoC รุ่นเรือธงตัวใหม่ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรของ TSMC ซึ่งถือเป็นหนึ่งในบริษัทแรกที่เข้าสู่ยุค 2nm อย่างเป็นทางการ โดยชิปนี้จะเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 และพร้อมวางจำหน่ายในช่วงเวลาเดียวกัน

    เทคโนโลยี 2nm ของ TSMC ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ซึ่งช่วยเพิ่มความหนาแน่นของลอจิกได้ถึง 1.2 เท่า เพิ่มประสิทธิภาพสูงสุด 18% ที่พลังงานเท่าเดิม และลดการใช้พลังงานลงถึง 36% ที่ความเร็วเท่าเดิม เมื่อเทียบกับกระบวนการ N3E รุ่นก่อนหน้า

    MediaTek ยังไม่เปิดเผยว่าชิปนี้จะใช้ในผลิตภัณฑ์ใดโดยตรง แต่มีการคาดการณ์ว่าอาจเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC หรือชิปสำหรับดาต้าเซ็นเตอร์ ซึ่งก่อนหน้านี้ทั้งสองบริษัทเคยร่วมมือกันในโปรเจกต์ GB10 “Grace Blackwell” Superchip ที่ใช้กระบวนการ 3nm

    ชิปใหม่นี้จะถูกนำไปใช้ในหลากหลายกลุ่มผลิตภัณฑ์ เช่น มือถือระดับเรือธง, คอมพิวเตอร์ประสิทธิภาพสูง, ยานยนต์อัจฉริยะ และเซิร์ฟเวอร์ edge computing โดย MediaTek ยืนยันว่าการร่วมมือกับ TSMC จะช่วยให้สามารถส่งมอบโซลูชันที่มีประสิทธิภาพสูงและประหยัดพลังงานได้ทั่วโลก

    ข้อมูลสำคัญจากข่าว
    MediaTek ประกาศ tape-out ชิป SoC รุ่นเรือธงที่ใช้เทคโนโลยี 2nm ของ TSMC
    เข้าสู่การผลิตจำนวนมากปลายปี 2026 และวางจำหน่ายช่วงเวลาเดียวกัน
    ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก
    เพิ่ม logic density 1.2 เท่า, เพิ่ม performance 18%, ลดพลังงาน 36% เทียบกับ N3E

    กลุ่มเป้าหมายและการใช้งาน
    ชิปนี้อาจใช้ในมือถือ, คอมพิวเตอร์, ยานยนต์ และ edge computing
    มีความเป็นไปได้ว่าจะเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC
    MediaTek และ TSMC มีความร่วมมือระยะยาวในด้านเทคโนโลยีขั้นสูง
    ชิปนี้จะเป็นตัวแทนของการเปลี่ยนผ่านสู่ยุคใหม่ของการประมวลผลแบบประหยัดพลังงาน

    ข้อมูลเสริมจากภายนอก
    TSMC N2P คือรุ่นพัฒนาต่อจาก N2 ที่เน้นประสิทธิภาพต่อวัตต์
    Apple และ AMD ก็เตรียมใช้เทคโนโลยี 2nm ในชิปของตนในปี 2026 เช่นกัน
    การใช้ nanosheet transistor ช่วยให้สามารถใส่ accelerator และ IP block ได้มากขึ้นในพื้นที่เท่าเดิม
    เหมาะกับงาน on-device AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ

    https://wccftech.com/mediatek-tapes-out-flagship-soc-tsmc-2nm-process-production-availability-end-2026/
    🧠 “MediaTek ปล่อยชิปเรือธงบนเทคโนโลยี 2nm ของ TSMC — ก้าวแรกสู่ยุคใหม่ของ AI, มือถือ และยานยนต์” MediaTek ประกาศความสำเร็จในการ tape-out ชิป SoC รุ่นเรือธงตัวใหม่ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรของ TSMC ซึ่งถือเป็นหนึ่งในบริษัทแรกที่เข้าสู่ยุค 2nm อย่างเป็นทางการ โดยชิปนี้จะเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 และพร้อมวางจำหน่ายในช่วงเวลาเดียวกัน เทคโนโลยี 2nm ของ TSMC ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ซึ่งช่วยเพิ่มความหนาแน่นของลอจิกได้ถึง 1.2 เท่า เพิ่มประสิทธิภาพสูงสุด 18% ที่พลังงานเท่าเดิม และลดการใช้พลังงานลงถึง 36% ที่ความเร็วเท่าเดิม เมื่อเทียบกับกระบวนการ N3E รุ่นก่อนหน้า MediaTek ยังไม่เปิดเผยว่าชิปนี้จะใช้ในผลิตภัณฑ์ใดโดยตรง แต่มีการคาดการณ์ว่าอาจเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC หรือชิปสำหรับดาต้าเซ็นเตอร์ ซึ่งก่อนหน้านี้ทั้งสองบริษัทเคยร่วมมือกันในโปรเจกต์ GB10 “Grace Blackwell” Superchip ที่ใช้กระบวนการ 3nm ชิปใหม่นี้จะถูกนำไปใช้ในหลากหลายกลุ่มผลิตภัณฑ์ เช่น มือถือระดับเรือธง, คอมพิวเตอร์ประสิทธิภาพสูง, ยานยนต์อัจฉริยะ และเซิร์ฟเวอร์ edge computing โดย MediaTek ยืนยันว่าการร่วมมือกับ TSMC จะช่วยให้สามารถส่งมอบโซลูชันที่มีประสิทธิภาพสูงและประหยัดพลังงานได้ทั่วโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ MediaTek ประกาศ tape-out ชิป SoC รุ่นเรือธงที่ใช้เทคโนโลยี 2nm ของ TSMC ➡️ เข้าสู่การผลิตจำนวนมากปลายปี 2026 และวางจำหน่ายช่วงเวลาเดียวกัน ➡️ ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ➡️ เพิ่ม logic density 1.2 เท่า, เพิ่ม performance 18%, ลดพลังงาน 36% เทียบกับ N3E ✅ กลุ่มเป้าหมายและการใช้งาน ➡️ ชิปนี้อาจใช้ในมือถือ, คอมพิวเตอร์, ยานยนต์ และ edge computing ➡️ มีความเป็นไปได้ว่าจะเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC ➡️ MediaTek และ TSMC มีความร่วมมือระยะยาวในด้านเทคโนโลยีขั้นสูง ➡️ ชิปนี้จะเป็นตัวแทนของการเปลี่ยนผ่านสู่ยุคใหม่ของการประมวลผลแบบประหยัดพลังงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC N2P คือรุ่นพัฒนาต่อจาก N2 ที่เน้นประสิทธิภาพต่อวัตต์ ➡️ Apple และ AMD ก็เตรียมใช้เทคโนโลยี 2nm ในชิปของตนในปี 2026 เช่นกัน ➡️ การใช้ nanosheet transistor ช่วยให้สามารถใส่ accelerator และ IP block ได้มากขึ้นในพื้นที่เท่าเดิม ➡️ เหมาะกับงาน on-device AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ https://wccftech.com/mediatek-tapes-out-flagship-soc-tsmc-2nm-process-production-availability-end-2026/
    WCCFTECH.COM
    MediaTek Tapes Out Flagship SoC Using TSMC's 2nm Process, Mass Production & Availability By End of 2026
    MediaTek has announced the tape-out of its flagship SoC, fabricated on TSMC's 2nm process node, which will be available by the end of 2026.
    0 Comments 0 Shares 261 Views 0 Reviews
  • “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI”

    ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด

    ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด

    OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว

    Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง

    รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก

    แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น

    ข้อมูลสำคัญจากข่าว
    Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด
    Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia
    OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน
    Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้

    สถานการณ์ตลาดและผลกระทบ
    Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39%
    Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92%
    สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก
    จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ

    ข้อมูลเสริมจากภายนอก
    AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน
    การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง
    การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี
    สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด

    https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    🔒 “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI” ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น ✅ ข้อมูลสำคัญจากข่าว ➡️ Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด ➡️ Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia ➡️ OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน ➡️ Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้ ✅ สถานการณ์ตลาดและผลกระทบ ➡️ Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39% ➡️ Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92% ➡️ สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก ➡️ จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ ✅ ข้อมูลเสริมจากภายนอก ➡️ AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน ➡️ การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง ➡️ การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี ➡️ สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    0 Comments 0 Shares 272 Views 0 Reviews
  • “ASRock เปิดตัว AI QuickSet WSL — ติดตั้งแอป AI บน Windows ง่ายเหมือนใช้วิซาร์ด พร้อมรองรับ GPU AMD รุ่นใหม่”

    ในยุคที่แอปพลิเคชัน AI ส่วนใหญ่ถูกออกแบบให้ทำงานบน Linux การใช้งานบน Windows กลายเป็นเรื่องยุ่งยากสำหรับผู้ใช้ทั่วไป โดยเฉพาะผู้ที่ไม่มีพื้นฐานด้านการตั้งค่าสภาพแวดล้อม ASRock จึงเปิดตัวเครื่องมือเวอร์ชันใหม่ชื่อว่า “AI QuickSet WSL” ที่ช่วยให้ผู้ใช้สามารถติดตั้งและใช้งานแอป AI บน Windows ได้ง่ายขึ้น ผ่านระบบ Windows Subsystem for Linux (WSL)

    AI QuickSet WSL เป็นการต่อยอดจากเวอร์ชันแรกที่รองรับการติดตั้งแอป AI ทั้งบน Windows และ Linux โดยเวอร์ชันใหม่นี้เน้นการใช้งาน Linux-based AI บน Windows โดยเฉพาะ ด้วยการใช้แพลตฟอร์ม AMD ROCm ที่รองรับการเร่งความเร็วด้วย GPU จาก ASRock Radeon RX 7900 Series หรือใหม่กว่า

    ผู้ใช้สามารถติดตั้งแอป AI ได้ผ่าน GUI แบบวิซาร์ดที่มีขั้นตอนชัดเจน ไม่ต้องตั้งค่าด้วยตนเอง เช่น การเลือก runtime, การปรับแต่ง LLM หรือการจัดการ container โดยแอปจะจัดการให้ทั้งหมด พร้อมแอป AI ที่ติดตั้งมาให้ล่วงหน้า เช่น Audiocraft สำหรับสร้างเสียงจากข้อความ, PixtoonLab สำหรับแปลงภาพเป็นการ์ตูน, และ Video Background Remover สำหรับลบพื้นหลังวิดีโอ

    แม้จะรองรับทั้ง CPU Intel และ AMD แต่เครื่องมือนี้มีข้อกำหนดฮาร์ดแวร์ที่ค่อนข้างสูง เช่น RAM 64GB, Windows 11 เวอร์ชัน 24H2, และพื้นที่ว่างบนไดรฟ์ C: อย่างน้อย 150GB ซึ่งสะท้อนว่าเครื่องมือนี้ออกแบบมาเพื่อผู้ใช้ระดับจริงจังที่ต้องการประสิทธิภาพสูงสุดในการประมวลผล AI

    ข้อมูลสำคัญจากข่าว
    ASRock เปิดตัว AI QuickSet WSL สำหรับติดตั้งแอป AI Linux บน Windows
    ใช้แพลตฟอร์ม AMD ROCm เพื่อเร่งความเร็วด้วย GPU Radeon RX 7900 Series ขึ้นไป
    รองรับการติดตั้งผ่าน GUI แบบวิซาร์ด — ไม่ต้องตั้งค่าด้วยตนเอง
    มีแอป AI ติดตั้งล่วงหน้า เช่น Audiocraft, PixtoonLab, Video Background Remover

    ความสามารถและการใช้งาน
    รองรับ CPU Intel Gen 12 ขึ้นไป และ AMD Ryzen 5000 ขึ้นไป
    ต้องใช้ RAM 64GB และ Windows 11 เวอร์ชัน 24H2
    ต้องติดตั้งบนไดรฟ์ C: โดยมีพื้นที่ว่างอย่างน้อย 150GB
    รองรับเฉพาะ GPU ที่ผลิตโดย ASRock — ไม่รองรับการ์ด MBA จาก AMD

    ข้อมูลเสริมจากภายนอก
    WSL เป็นระบบ virtualization ที่ไม่มี GUI — ทำให้เบาและเร็ว
    ROCm เป็นแพลตฟอร์มของ AMD สำหรับงาน HPC และ AI โดยเฉพาะ
    การใช้ GUI ช่วยลดอุปสรรคสำหรับผู้เริ่มต้นที่ไม่ถนัดคำสั่ง CLI
    แอป AI ที่ติดตั้งล่วงหน้าครอบคลุมงานเสียง ภาพ วิดีโอ และข้อความ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/asrocks-revamped-ai-quickset-wsl-virtualization-tool-makes-it-easy-to-run-linux-ai-apps-on-windows
    🖥️ “ASRock เปิดตัว AI QuickSet WSL — ติดตั้งแอป AI บน Windows ง่ายเหมือนใช้วิซาร์ด พร้อมรองรับ GPU AMD รุ่นใหม่” ในยุคที่แอปพลิเคชัน AI ส่วนใหญ่ถูกออกแบบให้ทำงานบน Linux การใช้งานบน Windows กลายเป็นเรื่องยุ่งยากสำหรับผู้ใช้ทั่วไป โดยเฉพาะผู้ที่ไม่มีพื้นฐานด้านการตั้งค่าสภาพแวดล้อม ASRock จึงเปิดตัวเครื่องมือเวอร์ชันใหม่ชื่อว่า “AI QuickSet WSL” ที่ช่วยให้ผู้ใช้สามารถติดตั้งและใช้งานแอป AI บน Windows ได้ง่ายขึ้น ผ่านระบบ Windows Subsystem for Linux (WSL) AI QuickSet WSL เป็นการต่อยอดจากเวอร์ชันแรกที่รองรับการติดตั้งแอป AI ทั้งบน Windows และ Linux โดยเวอร์ชันใหม่นี้เน้นการใช้งาน Linux-based AI บน Windows โดยเฉพาะ ด้วยการใช้แพลตฟอร์ม AMD ROCm ที่รองรับการเร่งความเร็วด้วย GPU จาก ASRock Radeon RX 7900 Series หรือใหม่กว่า ผู้ใช้สามารถติดตั้งแอป AI ได้ผ่าน GUI แบบวิซาร์ดที่มีขั้นตอนชัดเจน ไม่ต้องตั้งค่าด้วยตนเอง เช่น การเลือก runtime, การปรับแต่ง LLM หรือการจัดการ container โดยแอปจะจัดการให้ทั้งหมด พร้อมแอป AI ที่ติดตั้งมาให้ล่วงหน้า เช่น Audiocraft สำหรับสร้างเสียงจากข้อความ, PixtoonLab สำหรับแปลงภาพเป็นการ์ตูน, และ Video Background Remover สำหรับลบพื้นหลังวิดีโอ แม้จะรองรับทั้ง CPU Intel และ AMD แต่เครื่องมือนี้มีข้อกำหนดฮาร์ดแวร์ที่ค่อนข้างสูง เช่น RAM 64GB, Windows 11 เวอร์ชัน 24H2, และพื้นที่ว่างบนไดรฟ์ C: อย่างน้อย 150GB ซึ่งสะท้อนว่าเครื่องมือนี้ออกแบบมาเพื่อผู้ใช้ระดับจริงจังที่ต้องการประสิทธิภาพสูงสุดในการประมวลผล AI ✅ ข้อมูลสำคัญจากข่าว ➡️ ASRock เปิดตัว AI QuickSet WSL สำหรับติดตั้งแอป AI Linux บน Windows ➡️ ใช้แพลตฟอร์ม AMD ROCm เพื่อเร่งความเร็วด้วย GPU Radeon RX 7900 Series ขึ้นไป ➡️ รองรับการติดตั้งผ่าน GUI แบบวิซาร์ด — ไม่ต้องตั้งค่าด้วยตนเอง ➡️ มีแอป AI ติดตั้งล่วงหน้า เช่น Audiocraft, PixtoonLab, Video Background Remover ✅ ความสามารถและการใช้งาน ➡️ รองรับ CPU Intel Gen 12 ขึ้นไป และ AMD Ryzen 5000 ขึ้นไป ➡️ ต้องใช้ RAM 64GB และ Windows 11 เวอร์ชัน 24H2 ➡️ ต้องติดตั้งบนไดรฟ์ C: โดยมีพื้นที่ว่างอย่างน้อย 150GB ➡️ รองรับเฉพาะ GPU ที่ผลิตโดย ASRock — ไม่รองรับการ์ด MBA จาก AMD ✅ ข้อมูลเสริมจากภายนอก ➡️ WSL เป็นระบบ virtualization ที่ไม่มี GUI — ทำให้เบาและเร็ว ➡️ ROCm เป็นแพลตฟอร์มของ AMD สำหรับงาน HPC และ AI โดยเฉพาะ ➡️ การใช้ GUI ช่วยลดอุปสรรคสำหรับผู้เริ่มต้นที่ไม่ถนัดคำสั่ง CLI ➡️ แอป AI ที่ติดตั้งล่วงหน้าครอบคลุมงานเสียง ภาพ วิดีโอ และข้อความ https://www.tomshardware.com/tech-industry/artificial-intelligence/asrocks-revamped-ai-quickset-wsl-virtualization-tool-makes-it-easy-to-run-linux-ai-apps-on-windows
    WWW.TOMSHARDWARE.COM
    ASRock's revamped AI Quickset WSL virtualization tool makes it easy to run Linux AI apps on Windows
    ASRock's tool takes all the guesswork out of installing AI models on PC, including ones designed to work primarily in Linux.
    0 Comments 0 Shares 227 Views 0 Reviews
  • “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ”

    AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก

    ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด

    อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3

    แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ”

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่
    สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D
    ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p
    ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ

    การจับคู่กับ GPU และผลลัพธ์
    RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D
    Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends
    Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ
    Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ

    ข้อมูลเสริมจากภายนอก
    เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก
    จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC
    การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ
    การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน

    https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    🔥 “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ” AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3 แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ” ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่ ➡️ สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D ➡️ ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p ➡️ ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ ✅ การจับคู่กับ GPU และผลลัพธ์ ➡️ RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D ➡️ Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends ➡️ Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ ➡️ Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ ✅ ข้อมูลเสริมจากภายนอก ➡️ เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก ➡️ จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC ➡️ การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ ➡️ การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    0 Comments 0 Shares 262 Views 0 Reviews
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 Comments 0 Shares 284 Views 0 Reviews
  • “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!”

    ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง!

    David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น

    Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ

    นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต

    แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก

    Intel 14A node คืออะไร
    เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด
    ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ
    มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน
    ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35%

    เครื่องมือที่ใช้ใน 14A
    ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B
    ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว
    ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield
    เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม

    บริบททางธุรกิจและการลงทุน
    Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A
    หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้
    Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ
    การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์

    ข้อมูลเสริมจากภายนอก
    14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5%
    Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel
    Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1
    High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่

    https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    ⚙️ “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!” ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง! David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก ✅ Intel 14A node คืออะไร ➡️ เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด ➡️ ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ ➡️ มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน ➡️ ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35% ✅ เครื่องมือที่ใช้ใน 14A ➡️ ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B ➡️ ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว ➡️ ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield ➡️ เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม ✅ บริบททางธุรกิจและการลงทุน ➡️ Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A ➡️ หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้ ➡️ Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ ➡️ การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ 14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5% ➡️ Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel ➡️ Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1 ➡️ High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่ https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    0 Comments 0 Shares 287 Views 0 Reviews
  • เรื่องเล่าจาก OceanDisk: เมื่อ SSD กลายเป็นอาวุธใหม่ในสงครามเทคโนโลยี AI

    ในงานเปิดตัวล่าสุด Huawei ได้เผยโฉม OceanDisk EX 560, SP 560 และ LC 560 ซึ่งเป็น SSD สำหรับงาน AI โดยเฉพาะ โดยมีเป้าหมายชัดเจน: ลดการพึ่งพา HBM (High Bandwidth Memory) ที่จีนถูกจำกัดการนำเข้าอย่างหนักจากสหรัฐฯ

    OceanDisk LC 560 คือไฮไลต์ของงาน ด้วยความจุ 245TB ซึ่งถือเป็น SSD ที่ใหญ่ที่สุดในโลก ณ ขณะนี้ และมี read bandwidth สูงถึง 14.7GB/s เหมาะสำหรับงานฝึกโมเดลขนาดใหญ่แบบ multimodal ที่ต้องการพื้นที่เก็บข้อมูลมหาศาล

    OceanDisk EX 560 เน้นประสิทธิภาพสูงสุด ด้วย write speed 1,500K IOPS, latency ต่ำกว่า 7µs และ endurance สูงถึง 60 DWPD เหมาะสำหรับงาน fine-tuning LLM ที่ต้องการความเร็วและความทนทาน ส่วน SP 560 เป็นรุ่นประหยัดที่เน้น inference โดยลด latency ของ token แรกได้ถึง 75% และเพิ่ม throughput เป็นสองเท่า

    แต่สิ่งที่ทำให้ OceanDisk น่าสนใจไม่ใช่แค่ฮาร์ดแวร์—Huawei ยังเปิดตัว DiskBooster ซึ่งเป็นซอฟต์แวร์ที่ช่วยรวมหน่วยความจำจาก SSD, HBM และ DDR ให้เป็น memory pool เดียวกัน เพิ่มความจุได้ถึง 20 เท่า และลด write amplification ด้วยเทคโนโลยี multi-stream

    ทั้งหมดนี้คือความพยายามของ Huawei ในการสร้างระบบ AI ที่ไม่ต้องพึ่ง HBM เพียงอย่างเดียว โดยใช้ SSD ความจุสูงและซอฟต์แวร์อัจฉริยะเป็นตัวเสริม เพื่อให้สามารถฝึกและใช้งานโมเดล AI ได้แม้จะถูกจำกัดด้านฮาร์ดแวร์จากต่างประเทศ

    การเปิดตัว OceanDisk SSD สำหรับ AI
    OceanDisk LC 560 มีความจุ 245TB และ read bandwidth 14.7GB/s
    OceanDisk EX 560 มี write speed 1,500K IOPS และ latency ต่ำกว่า 7µs
    OceanDisk SP 560 ลด latency ของ token แรกได้ 75% และเพิ่ม throughput 2 เท่า

    ความสามารถของ DiskBooster
    รวมหน่วยความจำจาก SSD, HBM และ DDR เป็น memory pool เดียว
    เพิ่มความจุได้ถึง 20 เท่าเมื่อเทียบกับระบบเดิม
    ใช้ multi-stream เพื่อลด write amplification และเพิ่มอายุการใช้งาน SSD

    บริบทของการพัฒนา
    Huawei พัฒนา OceanDisk เพื่อลดการพึ่งพา HBM ซึ่งถูกจำกัดการส่งออกจากสหรัฐฯ
    เน้นใช้ NAND flash ภายในประเทศเพื่อสร้างระบบที่พึ่งพาตัวเอง
    ตอบโจทย์ปัญหา “memory wall” และ “capacity wall” ในงาน AI ขนาดใหญ่

    ผลกระทบต่อวงการ AI
    อาจเปลี่ยนแนวทางการออกแบบระบบฝึกโมเดลจาก HBM-centric เป็น SSD-centric
    เปิดทางให้ประเทศที่เข้าถึง HBM ได้จำกัดสามารถสร้างระบบ AI ได้ด้วยต้นทุนต่ำ
    เป็นตัวอย่างของการใช้ “ระบบเสริมหลายชั้น” แทนการพึ่งพาหน่วยความจำจุดเดียว

    https://www.techradar.com/pro/huawei-released-an-ai-ssd-that-uses-a-secret-sauce-to-reduce-the-need-for-large-amounts-of-expensive-hbm
    🎙️ เรื่องเล่าจาก OceanDisk: เมื่อ SSD กลายเป็นอาวุธใหม่ในสงครามเทคโนโลยี AI ในงานเปิดตัวล่าสุด Huawei ได้เผยโฉม OceanDisk EX 560, SP 560 และ LC 560 ซึ่งเป็น SSD สำหรับงาน AI โดยเฉพาะ โดยมีเป้าหมายชัดเจน: ลดการพึ่งพา HBM (High Bandwidth Memory) ที่จีนถูกจำกัดการนำเข้าอย่างหนักจากสหรัฐฯ OceanDisk LC 560 คือไฮไลต์ของงาน ด้วยความจุ 245TB ซึ่งถือเป็น SSD ที่ใหญ่ที่สุดในโลก ณ ขณะนี้ และมี read bandwidth สูงถึง 14.7GB/s เหมาะสำหรับงานฝึกโมเดลขนาดใหญ่แบบ multimodal ที่ต้องการพื้นที่เก็บข้อมูลมหาศาล OceanDisk EX 560 เน้นประสิทธิภาพสูงสุด ด้วย write speed 1,500K IOPS, latency ต่ำกว่า 7µs และ endurance สูงถึง 60 DWPD เหมาะสำหรับงาน fine-tuning LLM ที่ต้องการความเร็วและความทนทาน ส่วน SP 560 เป็นรุ่นประหยัดที่เน้น inference โดยลด latency ของ token แรกได้ถึง 75% และเพิ่ม throughput เป็นสองเท่า แต่สิ่งที่ทำให้ OceanDisk น่าสนใจไม่ใช่แค่ฮาร์ดแวร์—Huawei ยังเปิดตัว DiskBooster ซึ่งเป็นซอฟต์แวร์ที่ช่วยรวมหน่วยความจำจาก SSD, HBM และ DDR ให้เป็น memory pool เดียวกัน เพิ่มความจุได้ถึง 20 เท่า และลด write amplification ด้วยเทคโนโลยี multi-stream ทั้งหมดนี้คือความพยายามของ Huawei ในการสร้างระบบ AI ที่ไม่ต้องพึ่ง HBM เพียงอย่างเดียว โดยใช้ SSD ความจุสูงและซอฟต์แวร์อัจฉริยะเป็นตัวเสริม เพื่อให้สามารถฝึกและใช้งานโมเดล AI ได้แม้จะถูกจำกัดด้านฮาร์ดแวร์จากต่างประเทศ ✅ การเปิดตัว OceanDisk SSD สำหรับ AI ➡️ OceanDisk LC 560 มีความจุ 245TB และ read bandwidth 14.7GB/s ➡️ OceanDisk EX 560 มี write speed 1,500K IOPS และ latency ต่ำกว่า 7µs ➡️ OceanDisk SP 560 ลด latency ของ token แรกได้ 75% และเพิ่ม throughput 2 เท่า ✅ ความสามารถของ DiskBooster ➡️ รวมหน่วยความจำจาก SSD, HBM และ DDR เป็น memory pool เดียว ➡️ เพิ่มความจุได้ถึง 20 เท่าเมื่อเทียบกับระบบเดิม ➡️ ใช้ multi-stream เพื่อลด write amplification และเพิ่มอายุการใช้งาน SSD ✅ บริบทของการพัฒนา ➡️ Huawei พัฒนา OceanDisk เพื่อลดการพึ่งพา HBM ซึ่งถูกจำกัดการส่งออกจากสหรัฐฯ ➡️ เน้นใช้ NAND flash ภายในประเทศเพื่อสร้างระบบที่พึ่งพาตัวเอง ➡️ ตอบโจทย์ปัญหา “memory wall” และ “capacity wall” ในงาน AI ขนาดใหญ่ ✅ ผลกระทบต่อวงการ AI ➡️ อาจเปลี่ยนแนวทางการออกแบบระบบฝึกโมเดลจาก HBM-centric เป็น SSD-centric ➡️ เปิดทางให้ประเทศที่เข้าถึง HBM ได้จำกัดสามารถสร้างระบบ AI ได้ด้วยต้นทุนต่ำ ➡️ เป็นตัวอย่างของการใช้ “ระบบเสริมหลายชั้น” แทนการพึ่งพาหน่วยความจำจุดเดียว https://www.techradar.com/pro/huawei-released-an-ai-ssd-that-uses-a-secret-sauce-to-reduce-the-need-for-large-amounts-of-expensive-hbm
    0 Comments 0 Shares 246 Views 0 Reviews
More Results