• Intel กำลังจะเปิดตัวซีพียูสายเดสก์ท็อปตัวใหม่ที่ชื่อว่า Nova Lake-S ซึ่งถ้าดูจากสไลด์ที่หลุดออกมา ตัวท็อปอย่าง Core Ultra 9 จะทำได้ดีทั้งงานเบา (single-threaded) และงานหนัก (multi-threaded) โดยเฉพาะงานหนักที่ทะลุ +60% จากรุ่น Arrow Lake-S เลยทีเดียว

    อะไรที่อยู่เบื้องหลังการพัฒนาแบบก้าวกระโดดนี้?
    - แกนประมวลผลมากขึ้น: รุ่นท็อปน่าจะมี 52 คอร์/เธรด!
    - โครงสร้างใหม่: ใช้คอร์ “Coyote Cove” สำหรับงานหลัก (P-core) + “Arctic Wolf” สำหรับงานเบา (E-core)
    - เพิ่มคอร์แบบ ultra-low power (LP-E) ที่เคยใช้ใน Meteor Lake เพื่อประหยัดพลังงานอีกด้วย
    - รองรับ RAM DDR5-8000 และ PCIe 5.0 เต็มเหนี่ยว
    - และที่สำคัญ...มี L4 cache หรือ “bLLC” ที่อาจคล้ายแนวคิด 3D V-cache ของ AMD ด้วย!

    แม้ยังไม่มีตัวเลข benchmark ทางการ แต่ถ้าทุกอย่างเป็นจริง Nova Lake อาจเปลี่ยนสมดุลตลาดซีพียูได้อีกครั้ง โดยเฉพาะกับงานเล่นเกมและ workstation ที่ต้องการ core เยอะและ cache หนา

    https://www.neowin.net/news/intel-nova-lake-alleged-performance-shows-massive-improvement-could-answer-amd-3d-v-cache/
    Intel กำลังจะเปิดตัวซีพียูสายเดสก์ท็อปตัวใหม่ที่ชื่อว่า Nova Lake-S ซึ่งถ้าดูจากสไลด์ที่หลุดออกมา ตัวท็อปอย่าง Core Ultra 9 จะทำได้ดีทั้งงานเบา (single-threaded) และงานหนัก (multi-threaded) โดยเฉพาะงานหนักที่ทะลุ +60% จากรุ่น Arrow Lake-S เลยทีเดียว อะไรที่อยู่เบื้องหลังการพัฒนาแบบก้าวกระโดดนี้? - แกนประมวลผลมากขึ้น: รุ่นท็อปน่าจะมี 52 คอร์/เธรด! - โครงสร้างใหม่: ใช้คอร์ “Coyote Cove” สำหรับงานหลัก (P-core) + “Arctic Wolf” สำหรับงานเบา (E-core) - เพิ่มคอร์แบบ ultra-low power (LP-E) ที่เคยใช้ใน Meteor Lake เพื่อประหยัดพลังงานอีกด้วย - รองรับ RAM DDR5-8000 และ PCIe 5.0 เต็มเหนี่ยว - และที่สำคัญ...มี L4 cache หรือ “bLLC” ที่อาจคล้ายแนวคิด 3D V-cache ของ AMD ด้วย! แม้ยังไม่มีตัวเลข benchmark ทางการ แต่ถ้าทุกอย่างเป็นจริง Nova Lake อาจเปลี่ยนสมดุลตลาดซีพียูได้อีกครั้ง โดยเฉพาะกับงานเล่นเกมและ workstation ที่ต้องการ core เยอะและ cache หนา https://www.neowin.net/news/intel-nova-lake-alleged-performance-shows-massive-improvement-could-answer-amd-3d-v-cache/
    WWW.NEOWIN.NET
    Intel Nova Lake alleged performance shows massive improvement, could answer AMD 3D V-cache
    Intel's official performance claims have allegedly leaked. Apparently, there could be a massive improvement thanks to more cores and a new 3D cache, similar to AMD's.
    0 Comments 0 Shares 31 Views 0 Reviews
  • ก่อนหน้านี้เรามักเห็นจีนใช้ชิป Intel หรือ AMD เป็นหลักในดาต้าเซ็นเตอร์ หรือหน่วยงานวิจัย แต่ รัฐบาลจีนก็กระตุ้นอย่างหนักให้พัฒนา “ชิปพื้นบ้าน (homegrown)” ขึ้นมาใช้เองในระยะยาว โดย Loongson คือหนึ่งในบริษัทที่ถือธงนำทัพด้านนี้

    ล่าสุดพวกเขาเปิดตัว Loongson 3E6000 ซึ่งใช้สถาปัตยกรรม LoongArch 6000 พร้อมแกนประมวลผล LA664 รวมทั้งหมด 64 คอร์ 128 เธรด, ความเร็วสูงสุด 2.2 GHz, แคช 32MB และรองรับ DDR4-3200 แบบ quad-channel

    จุดน่าสนใจคือ ตัวชิปนี้ใช้เทคนิค “quad-chiplet” คือรวม 4 ชิปย่อยเชื่อมกันด้วยเทคโนโลยีที่ชื่อ LoongLink (คล้ายกับ Infinity Fabric หรือ NVLink) — ทำให้สร้างชิป 64 คอร์ได้แม้กระบวนการผลิตของจีนจะยังตามหลังตะวันตก

    แม้ยังมีจุดอ่อนด้าน floating-point แต่ผลการทดสอบใน Spec CPU 2017 ระบุว่า Loongson 3E6000 ทำคะแนน integer ได้สูงกว่า Xeon 8380 ถึง 35% (แต่แพ้ในด้าน floating-point อยู่ 14%)

    และที่สำคัญ…Loongson ยังพัฒนาแผนถัดไปไว้แล้ว เช่นรุ่น 3B6600 (8 คอร์, 3GHz) และ 3B7000 (แรงกว่านี้อีก) ที่ใช้คอร์รุ่นใหม่ LA864 ซึ่งหวังว่าจะชน Intel Raptor Lake หรือ AMD Zen 4 ได้เลยครับ

    https://www.tomshardware.com/pc-components/cpus/new-homegrown-china-server-chips-unveiled-with-impressive-specs-loongsons-3c6000-cpu-comes-armed-with-64-cores-128-threads-and-performance-to-rival-xeon-8380
    ก่อนหน้านี้เรามักเห็นจีนใช้ชิป Intel หรือ AMD เป็นหลักในดาต้าเซ็นเตอร์ หรือหน่วยงานวิจัย แต่ รัฐบาลจีนก็กระตุ้นอย่างหนักให้พัฒนา “ชิปพื้นบ้าน (homegrown)” ขึ้นมาใช้เองในระยะยาว โดย Loongson คือหนึ่งในบริษัทที่ถือธงนำทัพด้านนี้ ล่าสุดพวกเขาเปิดตัว Loongson 3E6000 ซึ่งใช้สถาปัตยกรรม LoongArch 6000 พร้อมแกนประมวลผล LA664 รวมทั้งหมด 64 คอร์ 128 เธรด, ความเร็วสูงสุด 2.2 GHz, แคช 32MB และรองรับ DDR4-3200 แบบ quad-channel จุดน่าสนใจคือ ตัวชิปนี้ใช้เทคนิค “quad-chiplet” คือรวม 4 ชิปย่อยเชื่อมกันด้วยเทคโนโลยีที่ชื่อ LoongLink (คล้ายกับ Infinity Fabric หรือ NVLink) — ทำให้สร้างชิป 64 คอร์ได้แม้กระบวนการผลิตของจีนจะยังตามหลังตะวันตก แม้ยังมีจุดอ่อนด้าน floating-point แต่ผลการทดสอบใน Spec CPU 2017 ระบุว่า Loongson 3E6000 ทำคะแนน integer ได้สูงกว่า Xeon 8380 ถึง 35% (แต่แพ้ในด้าน floating-point อยู่ 14%) และที่สำคัญ…Loongson ยังพัฒนาแผนถัดไปไว้แล้ว เช่นรุ่น 3B6600 (8 คอร์, 3GHz) และ 3B7000 (แรงกว่านี้อีก) ที่ใช้คอร์รุ่นใหม่ LA864 ซึ่งหวังว่าจะชน Intel Raptor Lake หรือ AMD Zen 4 ได้เลยครับ https://www.tomshardware.com/pc-components/cpus/new-homegrown-china-server-chips-unveiled-with-impressive-specs-loongsons-3c6000-cpu-comes-armed-with-64-cores-128-threads-and-performance-to-rival-xeon-8380
    0 Comments 0 Shares 113 Views 0 Reviews
  • ปัญหาหนึ่งของเกมยุคนี้คือกราฟิกมันสวยมากจน “VRAM ไม่พอ” โดยเฉพาะกับ GPU กลาง ๆ ที่มีแค่ 8–12GB — เกมใหม่บางเกมอาจกินไปเกือบ 20–24GB เลย

    AMD เลยเสนอไอเดียใหม่: แทนที่จะโหลดโมเดลสามมิติอย่างต้นไม้ทั้งหมดใส่ในหน่วยความจำ…ทำไมไม่ให้ GPU “สร้าง” มันสด ๆ ด้วยอัลกอริธึมไปเลย?

    พวกเขาใช้สิ่งที่เรียกว่า work graphs ซึ่งเป็นเทคนิคใหม่ใน DirectX 12 Ultimate เพื่อให้ GPU สร้างป่าเต็มฉากขึ้นมาแบบ procedural ได้ในขณะรันจริง! เดโมนี้รันบน Radeon RX 7900 XTX แบบลื่น ๆ ที่ 1080p โดยใช้แค่ 51KB VRAM แทน 34.8GB — ต่างกันระดับ “เรือบรรทุกกับเรือกระป๋อง” เลยทีเดียว

    ไม่ใช่แค่เบา — ต้นไม้ยังดูดี มีใบไหวตามลม เปลี่ยนตามฤดูกาล และจัดการ LOD แบบไม่มี pop-in ให้เสียอารมณ์ด้วย

    ✅ AMD พัฒนาเทคนิคใช้ work graphs (mesh nodes) เพื่อให้ GPU สร้างต้นไม้/พืชพรรณแบบ procedural ในขณะเล่นเกม  
    • ลด VRAM ที่ต้องใช้จาก 34.8GB เหลือแค่ 51KB ได้จริง  
    • ไม่มีการเก็บโมเดลไว้ในวิดีโอเมโมรีหรือระบบไฟล์เลย

    ✅ เดโมรันบน Radeon RX 7900 XTX ที่ 1080p ได้อย่างลื่นไหล  
    • แม้จะเกินขนาด VRAM สูงสุดของการ์ด (24GB) ไปมาก แต่ไม่สะดุดเพราะประมวลผลสด

    ✅ ต้นไม้ในฉากสามารถเปลี่ยนฤดูกาล เคลื่อนไหวตามลม และจัดการ LOD โดยไม่เกิดอาการกระตุกหรือ pop-in

    ✅ เทคนิคนี้คล้ายแนวคิด “Neural Texture Compression” ของ Nvidia  
    • Nvidia ใช้ AI สร้าง texture แบบสดใน GPU เพื่อลดขนาด texture file 90–95%  
    • ต่างกันตรงที่ AMD สร้าง geometry (3D) ส่วน Nvidia สร้างภาพผิวสัมผัส (texture)

    ✅ หากถูกนำไปใช้อย่างแพร่หลาย จะช่วยลดต้นทุน VRAM และเปิดทางให้ GPU ระดับกลางเล่นเกมคุณภาพสูงได้มากขึ้น

    https://www.techspot.com/news/108461-amd-demo-shows-procedural-generation-cutting-vram-usage.html
    ปัญหาหนึ่งของเกมยุคนี้คือกราฟิกมันสวยมากจน “VRAM ไม่พอ” โดยเฉพาะกับ GPU กลาง ๆ ที่มีแค่ 8–12GB — เกมใหม่บางเกมอาจกินไปเกือบ 20–24GB เลย AMD เลยเสนอไอเดียใหม่: แทนที่จะโหลดโมเดลสามมิติอย่างต้นไม้ทั้งหมดใส่ในหน่วยความจำ…ทำไมไม่ให้ GPU “สร้าง” มันสด ๆ ด้วยอัลกอริธึมไปเลย? พวกเขาใช้สิ่งที่เรียกว่า work graphs ซึ่งเป็นเทคนิคใหม่ใน DirectX 12 Ultimate เพื่อให้ GPU สร้างป่าเต็มฉากขึ้นมาแบบ procedural ได้ในขณะรันจริง! เดโมนี้รันบน Radeon RX 7900 XTX แบบลื่น ๆ ที่ 1080p โดยใช้แค่ 51KB VRAM แทน 34.8GB — ต่างกันระดับ “เรือบรรทุกกับเรือกระป๋อง” เลยทีเดียว ไม่ใช่แค่เบา — ต้นไม้ยังดูดี มีใบไหวตามลม เปลี่ยนตามฤดูกาล และจัดการ LOD แบบไม่มี pop-in ให้เสียอารมณ์ด้วย ✅ AMD พัฒนาเทคนิคใช้ work graphs (mesh nodes) เพื่อให้ GPU สร้างต้นไม้/พืชพรรณแบบ procedural ในขณะเล่นเกม   • ลด VRAM ที่ต้องใช้จาก 34.8GB เหลือแค่ 51KB ได้จริง   • ไม่มีการเก็บโมเดลไว้ในวิดีโอเมโมรีหรือระบบไฟล์เลย ✅ เดโมรันบน Radeon RX 7900 XTX ที่ 1080p ได้อย่างลื่นไหล   • แม้จะเกินขนาด VRAM สูงสุดของการ์ด (24GB) ไปมาก แต่ไม่สะดุดเพราะประมวลผลสด ✅ ต้นไม้ในฉากสามารถเปลี่ยนฤดูกาล เคลื่อนไหวตามลม และจัดการ LOD โดยไม่เกิดอาการกระตุกหรือ pop-in ✅ เทคนิคนี้คล้ายแนวคิด “Neural Texture Compression” ของ Nvidia   • Nvidia ใช้ AI สร้าง texture แบบสดใน GPU เพื่อลดขนาด texture file 90–95%   • ต่างกันตรงที่ AMD สร้าง geometry (3D) ส่วน Nvidia สร้างภาพผิวสัมผัส (texture) ✅ หากถูกนำไปใช้อย่างแพร่หลาย จะช่วยลดต้นทุน VRAM และเปิดทางให้ GPU ระดับกลางเล่นเกมคุณภาพสูงได้มากขึ้น https://www.techspot.com/news/108461-amd-demo-shows-procedural-generation-cutting-vram-usage.html
    WWW.TECHSPOT.COM
    AMD demo shows procedural generation slashing VRAM use from 35 GB to just 51 KB
    A new research paper from AMD explains how procedurally generating certain 3D objects in real-time-rendered scenes, like trees and other vegetation, can reduce VRAM usage by orders...
    0 Comments 0 Shares 106 Views 0 Reviews
  • แม้จะถูกสหรัฐสั่งห้ามซื้อชิป AI รุ่นใหม่จากค่ายใหญ่ (เช่น NVIDIA H100/H20) แต่จีนไม่ยอมแพ้ครับ — บริษัท GPU ระดับแถวหน้าอย่าง Biren Technology, Moore Threads, MetaX, และ Zhaoxin ต่างเดินหน้าขึ้นตลาดหุ้นในประเทศตัวเอง ไม่ว่าจะเป็นตลาด STAR Market ของเซี่ยงไฮ้หรือฮ่องกง เพื่อหาทุนไปพัฒนาเทคโนโลยี AI, GPU สำหรับเกม, หรือระบบซูเปอร์คอมพิวเตอร์

    ขณะเดียวกัน บริษัทอย่าง Innosilicon, Illuvatar CoreX, และ DenglinAI เลือก “อยู่แบบเงียบ ๆ” ยังไม่รีบเปิดตัวสู่สาธารณะ เพราะต้องการความยืดหยุ่นจากการไม่ต้องรายงานงบการเงินหรือถูกจับตามองจากภายนอก

    เรื่องนี้สะท้อนให้เห็นว่าหลังจากถูกกดดันจากสหรัฐ จีนเลือกที่จะ “ต่อสู้ด้วยการสร้าง ecosystem ของตัวเอง” ที่ใช้ได้แม้ไม่มีเทคโนโลยีตะวันตก ทั้งยังเสริมบทบาทของตลาดหุ้นจีนให้กลายเป็นจุดเริ่มต้นของการเติบโตในอุตสาหกรรม AI แบบพึ่งพาตัวเองมากขึ้น

    ✅ บริษัท GPU จีนจำนวนมากกำลังเตรียมเข้าตลาดหุ้นท้องถิ่นท่ามกลางแรงกดดันจากสหรัฐฯ  
    • เช่น Biren, Moore Threads, MetaX, Zhaoxin  
    • เพื่อต้องการระดมทุนสำหรับ R&D, ปรับขนาดการผลิต และขยายทีมงาน

    ✅ Biren Technology เดินเรื่อง IPO มาตั้งแต่หลายปีก่อน  
    • ยังไม่ประกาศว่าจะเข้าตลาดไหน (Shanghai STAR Market หรือฮ่องกง)

    ✅ Moore Threads จัดโครงสร้างใหม่เป็นบริษัทจำกัด-หุ้น เพื่อเตรียมเข้าตลาดหลักทรัพย์จีน  
    • เน้นธุรกิจ GPU สำหรับเกมและบางส่วนของงาน AI

    ✅ MetaX ผ่านกระบวนการ “tutoring” เพื่อเตรียม IPO แล้ว  
    • ระดมทุนไปแล้วกว่า 8 รอบ มูลค่าประเมินราว ¥10,000 ล้าน (≈ $1.38 พันล้าน)

    ✅ Zhaoxin ซึ่งพัฒนา CPU สถาปัตยกรรม x86 แบบมี GPU ฝังในตัว  
    • กำลังยื่นจดทะเบียนเข้าตลาด STAR Market ภายในกลางปี 2025

    ✅ เหตุผลหลักของการ IPO คือ:  • ต้องการเงินลงทุนมหาศาลเพื่อแข่งขันกับ NVIDIA, AMD  
    • ต้องการสร้างความโปร่งใส-เชื่อมั่น และกลายเป็นผู้เล่น “ระดับชาติ” ที่ซัพพอร์ตนโยบายจีน

    https://www.tomshardware.com/pc-components/gpus/blacklisted-chinese-gpu-makers-line-up-to-file-for-ipos-as-us-sanctions-and-trade-war-take-toll-on-ai-hardware-market
    แม้จะถูกสหรัฐสั่งห้ามซื้อชิป AI รุ่นใหม่จากค่ายใหญ่ (เช่น NVIDIA H100/H20) แต่จีนไม่ยอมแพ้ครับ — บริษัท GPU ระดับแถวหน้าอย่าง Biren Technology, Moore Threads, MetaX, และ Zhaoxin ต่างเดินหน้าขึ้นตลาดหุ้นในประเทศตัวเอง ไม่ว่าจะเป็นตลาด STAR Market ของเซี่ยงไฮ้หรือฮ่องกง เพื่อหาทุนไปพัฒนาเทคโนโลยี AI, GPU สำหรับเกม, หรือระบบซูเปอร์คอมพิวเตอร์ ขณะเดียวกัน บริษัทอย่าง Innosilicon, Illuvatar CoreX, และ DenglinAI เลือก “อยู่แบบเงียบ ๆ” ยังไม่รีบเปิดตัวสู่สาธารณะ เพราะต้องการความยืดหยุ่นจากการไม่ต้องรายงานงบการเงินหรือถูกจับตามองจากภายนอก เรื่องนี้สะท้อนให้เห็นว่าหลังจากถูกกดดันจากสหรัฐ จีนเลือกที่จะ “ต่อสู้ด้วยการสร้าง ecosystem ของตัวเอง” ที่ใช้ได้แม้ไม่มีเทคโนโลยีตะวันตก ทั้งยังเสริมบทบาทของตลาดหุ้นจีนให้กลายเป็นจุดเริ่มต้นของการเติบโตในอุตสาหกรรม AI แบบพึ่งพาตัวเองมากขึ้น ✅ บริษัท GPU จีนจำนวนมากกำลังเตรียมเข้าตลาดหุ้นท้องถิ่นท่ามกลางแรงกดดันจากสหรัฐฯ   • เช่น Biren, Moore Threads, MetaX, Zhaoxin   • เพื่อต้องการระดมทุนสำหรับ R&D, ปรับขนาดการผลิต และขยายทีมงาน ✅ Biren Technology เดินเรื่อง IPO มาตั้งแต่หลายปีก่อน   • ยังไม่ประกาศว่าจะเข้าตลาดไหน (Shanghai STAR Market หรือฮ่องกง) ✅ Moore Threads จัดโครงสร้างใหม่เป็นบริษัทจำกัด-หุ้น เพื่อเตรียมเข้าตลาดหลักทรัพย์จีน   • เน้นธุรกิจ GPU สำหรับเกมและบางส่วนของงาน AI ✅ MetaX ผ่านกระบวนการ “tutoring” เพื่อเตรียม IPO แล้ว   • ระดมทุนไปแล้วกว่า 8 รอบ มูลค่าประเมินราว ¥10,000 ล้าน (≈ $1.38 พันล้าน) ✅ Zhaoxin ซึ่งพัฒนา CPU สถาปัตยกรรม x86 แบบมี GPU ฝังในตัว   • กำลังยื่นจดทะเบียนเข้าตลาด STAR Market ภายในกลางปี 2025 ✅ เหตุผลหลักของการ IPO คือ:  • ต้องการเงินลงทุนมหาศาลเพื่อแข่งขันกับ NVIDIA, AMD   • ต้องการสร้างความโปร่งใส-เชื่อมั่น และกลายเป็นผู้เล่น “ระดับชาติ” ที่ซัพพอร์ตนโยบายจีน https://www.tomshardware.com/pc-components/gpus/blacklisted-chinese-gpu-makers-line-up-to-file-for-ipos-as-us-sanctions-and-trade-war-take-toll-on-ai-hardware-market
    0 Comments 0 Shares 95 Views 0 Reviews
  • หลายคนอาจเคยได้ยินชื่อ DLSS ว่าคือระบบ “ขยายภาพความละเอียดต่ำให้ดูเหมือน 4K” ได้แบบเนียน ๆ ด้วย AI — ที่ผ่านมา DLSS 2 กับ 3 ใช้ neural network แบบเก่า (convolutional) ซึ่งแม้จะดีมาก แต่ก็มีข้อเสีย เช่น ภาพเบลอ, ghosting, หรือเส้นขอบภาพสั่น ๆ เวลาเคลื่อนไหว

    DLSS 4 แก้ปัญหานั้นด้วยการใช้ “Transformer” แบบเดียวกับที่ใช้ในโมเดลภาษาอย่าง GPT — ทำให้ AI เข้าใจภาพทั้งเฟรมแบบลึกขึ้น ผลลัพธ์คือ ภาพที่ขึ้นคมชัดกว่าเดิม แม้จะอัปจากเฟรมต่ำ ๆ เช่น 540p

    สิ่งสำคัญคือ DLSS 4 นี้ ไม่จำกัดเฉพาะ RTX 50 แต่ รองรับตั้งแต่ RTX 20 ขึ้นไปด้วย! แค่ไม่สามารถใช้ฟีเจอร์ frame generation ที่ผูกกับฮาร์ดแวร์ใหม่ได้เท่านั้น

    ✅ DLSS 4 เวอร์ชันใหม่ที่ใช้ Transformer model ออกจากสถานะเบต้าแล้ว  
    • อยู่ในชุด SDK หลักของ Nvidia DLSS Super Resolution + Ray Reconstruction  
    • พร้อมให้ผู้พัฒนาเกมใช้ได้อย่างเป็นทางการ

    ✅ Transformer model เข้ามาแทน CNN ที่ใช้มาตั้งแต่ DLSS 2 (ปี 2020)  
    • ลดปัญหาภาพเบลอ, ghosting, เส้นขอบสั่น  
    • ทำให้การอัปภาพจากครึ่งความละเอียด (performance mode) ดูดีขึ้นชัดเจน

    ✅ ไม่ต้องมี RTX 50 ก็ใช้ได้ — รองรับตั้งแต่ RTX 20 Series ขึ้นไป  
    • ฟีเจอร์ frame generation (multi-frame) ยังคง exclusive สำหรับ RTX 50 เท่านั้น

    ✅ สามารถบังคับใช้ DLSS 4 Transformer กับเกมเก่าได้ผ่าน Nvidia App  
    • ไปที่ Graphics > DLSS Override > เลือก Latest  
    • หรือใช้แอป 3rd party เช่น DLSS Swapper, DLSS Updater

    ✅ Diablo IV เตรียมเป็นเกมใหญ่เกมถัดไปที่อัปเดต DLSS 4 อย่างเป็นทางการในซีซัน 9 (1 ก.ค.)  
    • เกมอื่นที่ใช้เบต้าอยู่แล้ว เช่น Doom: The Dark Ages, Dune: Awakening, Stellar Blade

    ✅ รีวิวชี้ว่า DLSS 4 Transformer คุณภาพดีกว่า FSR 4 (ของ AMD)  
    • โดยเฉพาะในโหมด 4K upscaling

    https://www.techspot.com/news/108452-nvidia-dlss-4-transformer-model-exits-beta-set.html
    หลายคนอาจเคยได้ยินชื่อ DLSS ว่าคือระบบ “ขยายภาพความละเอียดต่ำให้ดูเหมือน 4K” ได้แบบเนียน ๆ ด้วย AI — ที่ผ่านมา DLSS 2 กับ 3 ใช้ neural network แบบเก่า (convolutional) ซึ่งแม้จะดีมาก แต่ก็มีข้อเสีย เช่น ภาพเบลอ, ghosting, หรือเส้นขอบภาพสั่น ๆ เวลาเคลื่อนไหว DLSS 4 แก้ปัญหานั้นด้วยการใช้ “Transformer” แบบเดียวกับที่ใช้ในโมเดลภาษาอย่าง GPT — ทำให้ AI เข้าใจภาพทั้งเฟรมแบบลึกขึ้น ผลลัพธ์คือ ภาพที่ขึ้นคมชัดกว่าเดิม แม้จะอัปจากเฟรมต่ำ ๆ เช่น 540p สิ่งสำคัญคือ DLSS 4 นี้ ไม่จำกัดเฉพาะ RTX 50 แต่ รองรับตั้งแต่ RTX 20 ขึ้นไปด้วย! แค่ไม่สามารถใช้ฟีเจอร์ frame generation ที่ผูกกับฮาร์ดแวร์ใหม่ได้เท่านั้น ✅ DLSS 4 เวอร์ชันใหม่ที่ใช้ Transformer model ออกจากสถานะเบต้าแล้ว   • อยู่ในชุด SDK หลักของ Nvidia DLSS Super Resolution + Ray Reconstruction   • พร้อมให้ผู้พัฒนาเกมใช้ได้อย่างเป็นทางการ ✅ Transformer model เข้ามาแทน CNN ที่ใช้มาตั้งแต่ DLSS 2 (ปี 2020)   • ลดปัญหาภาพเบลอ, ghosting, เส้นขอบสั่น   • ทำให้การอัปภาพจากครึ่งความละเอียด (performance mode) ดูดีขึ้นชัดเจน ✅ ไม่ต้องมี RTX 50 ก็ใช้ได้ — รองรับตั้งแต่ RTX 20 Series ขึ้นไป   • ฟีเจอร์ frame generation (multi-frame) ยังคง exclusive สำหรับ RTX 50 เท่านั้น ✅ สามารถบังคับใช้ DLSS 4 Transformer กับเกมเก่าได้ผ่าน Nvidia App   • ไปที่ Graphics > DLSS Override > เลือก Latest   • หรือใช้แอป 3rd party เช่น DLSS Swapper, DLSS Updater ✅ Diablo IV เตรียมเป็นเกมใหญ่เกมถัดไปที่อัปเดต DLSS 4 อย่างเป็นทางการในซีซัน 9 (1 ก.ค.)   • เกมอื่นที่ใช้เบต้าอยู่แล้ว เช่น Doom: The Dark Ages, Dune: Awakening, Stellar Blade ✅ รีวิวชี้ว่า DLSS 4 Transformer คุณภาพดีกว่า FSR 4 (ของ AMD)   • โดยเฉพาะในโหมด 4K upscaling https://www.techspot.com/news/108452-nvidia-dlss-4-transformer-model-exits-beta-set.html
    WWW.TECHSPOT.COM
    Nvidia DLSS 4 transformer model exits beta, set to bring improved graphics to more games
    The latest version of Nvidia's DLSS Super Resolution and Ray Reconstruction SDK, released on Wednesday, brings the transformer model out of beta. Promoting the upscaling technology into...
    0 Comments 0 Shares 103 Views 0 Reviews
  • หลังหายไปจากตลาดตั้งแต่ RTX 3050 รุ่น desktop ในปี 2022 (เพราะ RTX 40 ซีรีส์ไม่มีตัว 4050 แบบ desktop) Nvidia ก็ประกาศกลับมาทำ GPU รุ่นราคาถูกอย่างเป็นทางการอีกครั้ง กับการเปิดตัว RTX 5050 ในเดือนกรกฎาคม 2025

    จุดน่าสนใจคือ แม้จะราคาแค่ $249 แต่ RTX 5050:
    - ใช้ CUDA core 2,560 หน่วย (เท่ากับ RTX 3050 เดิม)
    - มี VRAM ขนาด 8GB GDDR6 แบบ 128-bit
    - แต่ได้ core เทคโนโลยีใหม่ทั้ง DLSS 4 multi-frame gen, 9th-gen NVENC, 6th-gen NVDEC, และรองรับ PCIe Gen5

    แม้จะใช้ GDDR6 (ไม่ใช่ GDDR7 แบบรุ่นใหญ่ใน RTX 50 ซีรีส์) แต่ได้ Tensor cores ที่รองรับ AI TOPS ระดับสูง (421 TOPS) และ RT core แรงระดับ 40 TFLOPS — มากพอจะใช้ฟีเจอร์ยุคใหม่บนความละเอียด 1080p ได้อย่างลื่น ๆ

    พลังงานอยู่ที่ 130W ใช้แค่ 8-pin ปกติ และแนะนำ PSU 550W เท่านั้น — ประหยัด ไซซ์เล็ก ใส่เคสได้ง่าย

    คาดว่า Nvidia เปิดตัวรุ่นนี้มาเพื่อตอบโต้งานหนักจาก AMD ที่เปิดตัวซีรีส์ RX 9000 XT ในช่วงเดียวกัน

    ✅ RTX 5050 เปิดตัวด้วยราคา $249 พร้อมวางจำหน่ายกรกฎาคม 2025  
    • ถูกกว่า RTX 5060 อยู่ $50

    ✅ ใช้สถาปัตยกรรม Blackwell พร้อมฟีเจอร์ใหม่ระดับเดียวกับรุ่นท็อป  
    • DLSS 4 Multi-frame Generation  
    • NVENC Gen9, NVDEC Gen6  
    • PCIe Gen5 รองรับการ์ด/เมนบอร์ดรุ่นใหม่

    ✅ สเปก RTX 5050  
    • CUDA: 2,560 cores (เท่ากับ RTX 3050)  
    • VRAM: 8GB GDDR6 (128-bit)  
    • Clock: 2.57GHz  
    • TGP: 130W / PSU 550W / 1x 8-pin

    ✅ ยังคงพอร์ตแสดงผลคลาสสิก  
    • 3x DisplayPort, 1x HDMI

    ✅ สามารถใช้ DLSS4 ได้ แม้จะเป็นรุ่น GDDR6 ไม่ใช่ GDDR7

    ✅ ถือเป็นรุ่นซีรีส์ "50" ตัวแรกตั้งแต่ RTX 3050 เมื่อ 3 ปีก่อน

    https://www.neowin.net/news/nvidia-announces-rtx-5050-desktop-graphics-card-for-more-affordable-next-gen-gaming/
    หลังหายไปจากตลาดตั้งแต่ RTX 3050 รุ่น desktop ในปี 2022 (เพราะ RTX 40 ซีรีส์ไม่มีตัว 4050 แบบ desktop) Nvidia ก็ประกาศกลับมาทำ GPU รุ่นราคาถูกอย่างเป็นทางการอีกครั้ง กับการเปิดตัว RTX 5050 ในเดือนกรกฎาคม 2025 จุดน่าสนใจคือ แม้จะราคาแค่ $249 แต่ RTX 5050: - ใช้ CUDA core 2,560 หน่วย (เท่ากับ RTX 3050 เดิม) - มี VRAM ขนาด 8GB GDDR6 แบบ 128-bit - แต่ได้ core เทคโนโลยีใหม่ทั้ง DLSS 4 multi-frame gen, 9th-gen NVENC, 6th-gen NVDEC, และรองรับ PCIe Gen5 แม้จะใช้ GDDR6 (ไม่ใช่ GDDR7 แบบรุ่นใหญ่ใน RTX 50 ซีรีส์) แต่ได้ Tensor cores ที่รองรับ AI TOPS ระดับสูง (421 TOPS) และ RT core แรงระดับ 40 TFLOPS — มากพอจะใช้ฟีเจอร์ยุคใหม่บนความละเอียด 1080p ได้อย่างลื่น ๆ พลังงานอยู่ที่ 130W ใช้แค่ 8-pin ปกติ และแนะนำ PSU 550W เท่านั้น — ประหยัด ไซซ์เล็ก ใส่เคสได้ง่าย คาดว่า Nvidia เปิดตัวรุ่นนี้มาเพื่อตอบโต้งานหนักจาก AMD ที่เปิดตัวซีรีส์ RX 9000 XT ในช่วงเดียวกัน ✅ RTX 5050 เปิดตัวด้วยราคา $249 พร้อมวางจำหน่ายกรกฎาคม 2025   • ถูกกว่า RTX 5060 อยู่ $50 ✅ ใช้สถาปัตยกรรม Blackwell พร้อมฟีเจอร์ใหม่ระดับเดียวกับรุ่นท็อป   • DLSS 4 Multi-frame Generation   • NVENC Gen9, NVDEC Gen6   • PCIe Gen5 รองรับการ์ด/เมนบอร์ดรุ่นใหม่ ✅ สเปก RTX 5050   • CUDA: 2,560 cores (เท่ากับ RTX 3050)   • VRAM: 8GB GDDR6 (128-bit)   • Clock: 2.57GHz   • TGP: 130W / PSU 550W / 1x 8-pin ✅ ยังคงพอร์ตแสดงผลคลาสสิก   • 3x DisplayPort, 1x HDMI ✅ สามารถใช้ DLSS4 ได้ แม้จะเป็นรุ่น GDDR6 ไม่ใช่ GDDR7 ✅ ถือเป็นรุ่นซีรีส์ "50" ตัวแรกตั้งแต่ RTX 3050 เมื่อ 3 ปีก่อน https://www.neowin.net/news/nvidia-announces-rtx-5050-desktop-graphics-card-for-more-affordable-next-gen-gaming/
    WWW.NEOWIN.NET
    Nvidia announces RTX 5050 desktop graphics card for more affordable next-gen gaming
    Nvidia has a new budget-friendly graphics card for those who cannot afford an expensive GPU but still want to taste those sweet next-gen frames that the RTX 50 series offers.
    0 Comments 0 Shares 73 Views 0 Reviews
  • ถ้าคุณเพิ่งประกอบพีซีใหม่แล้วใส่ SSD PCIe 4.0 หรือ 5.0 ไป ก็ยังนอนหลับได้สบายอยู่ เพราะ PCIe 6.0 กำลังจะมา...แต่ยัง “ไม่ใช่ของคุณในเร็ว ๆ นี้แน่นอน”

    แม้ AMD จะประกาศว่าพร้อมเปิดใช้งาน PCIe 6.0 ตั้งแต่ปี 2026 — และชิปเซ็ตใหม่หลายรุ่นในองค์กรเตรียมรับมือไว้แล้ว — แต่ฝั่งผู้บริโภคกลับ “ไม่มีแรงผลักดัน” ให้รีบอัปเกรด เพราะ:
    - ราคายังแพงเกินไป (เมนบอร์ด, รีไทเมอร์, วัสดุพิเศษ ฯลฯ)
    - การใช้งานปัจจุบันยังใช้ PCIe 4.0 ได้แบบเหลือเฟือ
    - PCIe 6.0 ทำงานยากขึ้น เพราะยิ่งเร็ว = เส้นทางสัญญาณยิ่งสั้นลงเหลือไม่ถึง 9 ซม.

    นั่นหมายความว่า PCIe 6.0 จะยัง “จำกัดเฉพาะ” ตลาดองค์กรและ AI เท่านั้นในช่วงหลายปีข้างหน้า ส่วนพีซีทั่วไปจะได้เห็นจริง “อาจหลังปี 2030” เลยก็ได้

    ✅ AMD เตรียมเปิดตัวแพลตฟอร์มรองรับ PCIe 6.0 ในปี 2026  
    • แต่เฉพาะกลุ่มองค์กร, เซิร์ฟเวอร์ และ AI infrastructure  
    • SSD PCIe 6.0 สำหรับผู้บริโภคอาจต้องรอถึงปี 2030

    ✅ PCIe 6.0 ให้แบนด์วิธสูงถึง 32 GB/s ที่ x4 (เทียบกับ PCIe 4.0 ที่ 8 GB/s)  
    • ดีสำหรับงาน AI และการส่งข้อมูลปริมาณสูงแบบเรียลไทม์

    ✅ PC OEM ส่วนใหญ่ไม่อยากคุยเรื่อง PCIe 6.0 ด้วยซ้ำ  
    • Intel และ AMD ยังคงเลี่ยงให้สัมภาษณ์เกี่ยวกับการนำมาใช้ในโน้ตบุ๊ก/เดสก์ท็อป

    ✅ PCIe 4.0 และ 5.0 ยังเพียงพอสำหรับงานทั่วไป เช่น เกม, ทำงาน, ตัดต่อวิดีโอ  
    • bottleneck ปัจจุบันในระบบผู้ใช้ทั่วไปไม่ได้มาจากแบนด์วิธ

    ✅ รีไทเมอร์ที่จำเป็นในระบบ PCIe 6.0 แพงเกินกว่าจะใส่ในเครื่องผู้ใช้ทั่วไปได้  
    • ใช้เฉพาะในเซิร์ฟเวอร์ที่มีงบประมาณสูง

    ✅ สายสัญญาณ copper ที่ใช้กับ PCIe 6.0 วิ่งได้แค่ราว 3.4 นิ้วก่อนจะ signal loss  
    • ต้องใช้เมนบอร์ดที่มีเลเยอร์หนาและวัสดุคุณภาพสูงขึ้น

    https://www.techradar.com/pro/amd-will-launch-pcie-6-0-devices-next-year-but-consumers-will-have-to-wait-almost-half-a-decade-to-get-it-heres-why
    ถ้าคุณเพิ่งประกอบพีซีใหม่แล้วใส่ SSD PCIe 4.0 หรือ 5.0 ไป ก็ยังนอนหลับได้สบายอยู่ เพราะ PCIe 6.0 กำลังจะมา...แต่ยัง “ไม่ใช่ของคุณในเร็ว ๆ นี้แน่นอน” แม้ AMD จะประกาศว่าพร้อมเปิดใช้งาน PCIe 6.0 ตั้งแต่ปี 2026 — และชิปเซ็ตใหม่หลายรุ่นในองค์กรเตรียมรับมือไว้แล้ว — แต่ฝั่งผู้บริโภคกลับ “ไม่มีแรงผลักดัน” ให้รีบอัปเกรด เพราะ: - ราคายังแพงเกินไป (เมนบอร์ด, รีไทเมอร์, วัสดุพิเศษ ฯลฯ) - การใช้งานปัจจุบันยังใช้ PCIe 4.0 ได้แบบเหลือเฟือ - PCIe 6.0 ทำงานยากขึ้น เพราะยิ่งเร็ว = เส้นทางสัญญาณยิ่งสั้นลงเหลือไม่ถึง 9 ซม. นั่นหมายความว่า PCIe 6.0 จะยัง “จำกัดเฉพาะ” ตลาดองค์กรและ AI เท่านั้นในช่วงหลายปีข้างหน้า ส่วนพีซีทั่วไปจะได้เห็นจริง “อาจหลังปี 2030” เลยก็ได้ ✅ AMD เตรียมเปิดตัวแพลตฟอร์มรองรับ PCIe 6.0 ในปี 2026   • แต่เฉพาะกลุ่มองค์กร, เซิร์ฟเวอร์ และ AI infrastructure   • SSD PCIe 6.0 สำหรับผู้บริโภคอาจต้องรอถึงปี 2030 ✅ PCIe 6.0 ให้แบนด์วิธสูงถึง 32 GB/s ที่ x4 (เทียบกับ PCIe 4.0 ที่ 8 GB/s)   • ดีสำหรับงาน AI และการส่งข้อมูลปริมาณสูงแบบเรียลไทม์ ✅ PC OEM ส่วนใหญ่ไม่อยากคุยเรื่อง PCIe 6.0 ด้วยซ้ำ   • Intel และ AMD ยังคงเลี่ยงให้สัมภาษณ์เกี่ยวกับการนำมาใช้ในโน้ตบุ๊ก/เดสก์ท็อป ✅ PCIe 4.0 และ 5.0 ยังเพียงพอสำหรับงานทั่วไป เช่น เกม, ทำงาน, ตัดต่อวิดีโอ   • bottleneck ปัจจุบันในระบบผู้ใช้ทั่วไปไม่ได้มาจากแบนด์วิธ ✅ รีไทเมอร์ที่จำเป็นในระบบ PCIe 6.0 แพงเกินกว่าจะใส่ในเครื่องผู้ใช้ทั่วไปได้   • ใช้เฉพาะในเซิร์ฟเวอร์ที่มีงบประมาณสูง ✅ สายสัญญาณ copper ที่ใช้กับ PCIe 6.0 วิ่งได้แค่ราว 3.4 นิ้วก่อนจะ signal loss   • ต้องใช้เมนบอร์ดที่มีเลเยอร์หนาและวัสดุคุณภาพสูงขึ้น https://www.techradar.com/pro/amd-will-launch-pcie-6-0-devices-next-year-but-consumers-will-have-to-wait-almost-half-a-decade-to-get-it-heres-why
    WWW.TECHRADAR.COM
    No rush to adopt PCIe 6.0 in consumer PCs, say industry leaders
    Next-gen tech is reportedly too expensive and complex for home PCs
    0 Comments 0 Shares 95 Views 0 Reviews
  • นักปล่อยข่าวชื่อดัง KeplerL2 บอกว่าทั้ง Microsoft และ Sony เตรียมปล่อยเครื่องเล่นรุ่นใหม่ในปี 2027 โดยจะใช้ ชิปกราฟิก UDNA ของ AMD ที่เป็นรุ่นถัดไปจาก RDNA 4 (ซึ่งเพิ่งเปิดตัวบนการ์ด RX 9070 และ 9060)

    จุดเด่นของ UDNA คือ:
    - ประสิทธิภาพดีกว่า RDNA 2 (ที่ใช้ใน PS5 และ Xbox Series) แบบชัดเจน
    - เร็วขึ้น 20% ต่อ compute unit ในการเรนเดอร์ภาพปกติ
    - เร็วขึ้น 2 เท่าในงาน ray tracing และ AI — ซึ่งสำคัญมากกับการประมวลผลกราฟิกยุคใหม่

    อีกทั้งยังรองรับแบนด์วิดท์ของ HDMI สูงถึง 80 Gbps (เพิ่มขึ้นจากเดิมมาก) อาจรองรับภาพ 4K ที่ 240Hz หรือแม้แต่ 8K ที่รีเฟรชเรตสูงในอนาคต!

    นอกจากนั้น ทั้งสองค่ายยังเตรียม เปิดตัวเครื่องเกมพกพา ที่ใช้เทคโนโลยี UDNA เหมือนกัน โดยจำกัดพลังงานไม่เกิน 15 วัตต์ เพื่อยืดอายุแบตเตอรี่ ซึ่งหมายความว่า...เรากำลังจะได้เห็นเกมพกพาที่ “แรงเท่าคอนโซล” แต่แบตไม่หมดใน 1 ชั่วโมงอีกต่อไป

    https://www.techspot.com/news/108417-next-gen-xbox-playstation-6-expected-2027-powered.html
    นักปล่อยข่าวชื่อดัง KeplerL2 บอกว่าทั้ง Microsoft และ Sony เตรียมปล่อยเครื่องเล่นรุ่นใหม่ในปี 2027 โดยจะใช้ ชิปกราฟิก UDNA ของ AMD ที่เป็นรุ่นถัดไปจาก RDNA 4 (ซึ่งเพิ่งเปิดตัวบนการ์ด RX 9070 และ 9060) จุดเด่นของ UDNA คือ: - ประสิทธิภาพดีกว่า RDNA 2 (ที่ใช้ใน PS5 และ Xbox Series) แบบชัดเจน - เร็วขึ้น 20% ต่อ compute unit ในการเรนเดอร์ภาพปกติ - เร็วขึ้น 2 เท่าในงาน ray tracing และ AI — ซึ่งสำคัญมากกับการประมวลผลกราฟิกยุคใหม่ อีกทั้งยังรองรับแบนด์วิดท์ของ HDMI สูงถึง 80 Gbps (เพิ่มขึ้นจากเดิมมาก) อาจรองรับภาพ 4K ที่ 240Hz หรือแม้แต่ 8K ที่รีเฟรชเรตสูงในอนาคต! นอกจากนั้น ทั้งสองค่ายยังเตรียม เปิดตัวเครื่องเกมพกพา ที่ใช้เทคโนโลยี UDNA เหมือนกัน โดยจำกัดพลังงานไม่เกิน 15 วัตต์ เพื่อยืดอายุแบตเตอรี่ ซึ่งหมายความว่า...เรากำลังจะได้เห็นเกมพกพาที่ “แรงเท่าคอนโซล” แต่แบตไม่หมดใน 1 ชั่วโมงอีกต่อไป https://www.techspot.com/news/108417-next-gen-xbox-playstation-6-expected-2027-powered.html
    WWW.TECHSPOT.COM
    Next-gen Xbox and PlayStation 6 expected in 2027, powered by AMD's UDNA graphics
    Trusted leaker KeplerL2 recently dropped several new details about Sony and Microsoft's plans for their next-generation consoles. If the information proves accurate, both companies will once again...
    0 Comments 0 Shares 73 Views 0 Reviews
  • หลังจากโดนคว่ำบาตรซ้ำแล้วซ้ำเล่า จีนก็เดินหน้าสร้าง “GPU ของตัวเอง” ขึ้นมา โดยบริษัท Lisuan Technology เพิ่งเปิดตัว G100 ที่ใช้สถาปัตยกรรม TrueGPU แบบ in-house พร้อมสายการผลิตจาก SMIC (โรงงานผลิตชิปในจีน) ซึ่งใช้กระบวนการระดับ 6nm

    ล่าสุดพบข้อมูล G100 บน Geekbench — ได้คะแนน 15,524 คะแนนใน OpenCL ซึ่งเทียบเท่า GTX 660 Ti อายุ 13 ปี หรือ iGPU บางตัวบนมือถือเลยทีเดียว 😅

    ถึงคะแนนจะยังไม่หวือหวา แต่ Lisuan บอกว่าชิปเพิ่งเข้าสู่ช่วง “risk production” เท่านั้น (ยังไม่ mass produce) และ driver ก็ยังอยู่ระหว่างพัฒนา — ทีมงานจึงบอกว่า อย่าเพิ่งรีบด่วนสรุป

    G100 ใช้ 32 Compute Units (CU), มี VRAM แค่ 256MB, และความเร็ว 300MHz ซึ่งเชื่อว่าไม่ใช่ค่าเต็มจริง อาจเป็นเพียงค่าจากเวอร์ชันทดลอง

    สิ่งสำคัญคือ แม้ประสิทธิภาพยังตามหลัง NVIDIA/AMD หลายปี แต่...นี่คือ “GPU ผลิตในประเทศ” ที่อาจกลายเป็นหมากยุทธศาสตร์ของจีนในอนาคต — แบบเดียวกับที่จีนเคยดัน Zhaoxin ในฝั่ง CPU มาก่อน

    ✅ Lisuan G100 คือ GPU 6nm ตัวแรกของจีนแบบ in-house เต็มรูปแบบ  
    • ใช้สถาปัตยกรรม TrueGPU ที่พัฒนาเอง  
    • ผลิตโดย SMIC ที่เป็น foundry ในประเทศ

    ✅ ผลทดสอบ Geekbench ได้ 15,524 คะแนน (OpenCL)  
    • ใกล้เคียง GTX 660 Ti, Radeon R9 370, และ Exynos 2400 (มือถือ)

    ✅ สเปกจาก Geekbench ระบุมี 32 CU, VRAM 256MB, Clock 300MHz  
    • เชื่อว่าค่าจริงอาจสูงกว่านี้ แต่ driver ยังไม่สมบูรณ์

    ✅ อยู่ในขั้น “risk production” — ยังไม่ผลิตจริงจัง  
    • หากสำเร็จจะเข้าสู่ mass production ช่วงปลายปี 2025 หรือต้นปี 2026

    ✅ ทีมงานไม่ต้องการให้ตัดสินจากผลทดสอบปัจจุบัน เพราะ driver/firmware ยังไม่สมบูรณ์

    ✅ เป้าหมายของ Lisuan คือ “สู้ในตลาด mid-range” และสร้างทางเลือกแทน GPU จากตะวันตก

    https://www.tomshardware.com/pc-components/gpus/chinas-first-6nm-gaming-gpu-matches-13-year-old-gtx-660-ti-in-first-geekbench-tests-lisuan-g100-surfaces-with-32-cus-256mb-vram-and-300-mhz-clock-speed
    หลังจากโดนคว่ำบาตรซ้ำแล้วซ้ำเล่า จีนก็เดินหน้าสร้าง “GPU ของตัวเอง” ขึ้นมา โดยบริษัท Lisuan Technology เพิ่งเปิดตัว G100 ที่ใช้สถาปัตยกรรม TrueGPU แบบ in-house พร้อมสายการผลิตจาก SMIC (โรงงานผลิตชิปในจีน) ซึ่งใช้กระบวนการระดับ 6nm ล่าสุดพบข้อมูล G100 บน Geekbench — ได้คะแนน 15,524 คะแนนใน OpenCL ซึ่งเทียบเท่า GTX 660 Ti อายุ 13 ปี หรือ iGPU บางตัวบนมือถือเลยทีเดียว 😅 ถึงคะแนนจะยังไม่หวือหวา แต่ Lisuan บอกว่าชิปเพิ่งเข้าสู่ช่วง “risk production” เท่านั้น (ยังไม่ mass produce) และ driver ก็ยังอยู่ระหว่างพัฒนา — ทีมงานจึงบอกว่า อย่าเพิ่งรีบด่วนสรุป G100 ใช้ 32 Compute Units (CU), มี VRAM แค่ 256MB, และความเร็ว 300MHz ซึ่งเชื่อว่าไม่ใช่ค่าเต็มจริง อาจเป็นเพียงค่าจากเวอร์ชันทดลอง สิ่งสำคัญคือ แม้ประสิทธิภาพยังตามหลัง NVIDIA/AMD หลายปี แต่...นี่คือ “GPU ผลิตในประเทศ” ที่อาจกลายเป็นหมากยุทธศาสตร์ของจีนในอนาคต — แบบเดียวกับที่จีนเคยดัน Zhaoxin ในฝั่ง CPU มาก่อน ✅ Lisuan G100 คือ GPU 6nm ตัวแรกของจีนแบบ in-house เต็มรูปแบบ   • ใช้สถาปัตยกรรม TrueGPU ที่พัฒนาเอง   • ผลิตโดย SMIC ที่เป็น foundry ในประเทศ ✅ ผลทดสอบ Geekbench ได้ 15,524 คะแนน (OpenCL)   • ใกล้เคียง GTX 660 Ti, Radeon R9 370, และ Exynos 2400 (มือถือ) ✅ สเปกจาก Geekbench ระบุมี 32 CU, VRAM 256MB, Clock 300MHz   • เชื่อว่าค่าจริงอาจสูงกว่านี้ แต่ driver ยังไม่สมบูรณ์ ✅ อยู่ในขั้น “risk production” — ยังไม่ผลิตจริงจัง   • หากสำเร็จจะเข้าสู่ mass production ช่วงปลายปี 2025 หรือต้นปี 2026 ✅ ทีมงานไม่ต้องการให้ตัดสินจากผลทดสอบปัจจุบัน เพราะ driver/firmware ยังไม่สมบูรณ์ ✅ เป้าหมายของ Lisuan คือ “สู้ในตลาด mid-range” และสร้างทางเลือกแทน GPU จากตะวันตก https://www.tomshardware.com/pc-components/gpus/chinas-first-6nm-gaming-gpu-matches-13-year-old-gtx-660-ti-in-first-geekbench-tests-lisuan-g100-surfaces-with-32-cus-256mb-vram-and-300-mhz-clock-speed
    0 Comments 0 Shares 140 Views 0 Reviews
  • หลังจาก Intel เจอสารพัดปัญหาตั้งแต่ยอดขายตก ความล่าช้าทางเทคโนโลยี ไปจนถึงการแข่งขันที่ดุเดือดกับ AMD, NVIDIA และ TSMC — ซีอีโอคนใหม่ก็ออกแนวทาง “ผ่าตัดโครงสร้าง” แบบไม่ไว้หน้าเดิม ๆ

    หนึ่งในมาตรการสำคัญคือ การยุบทีมการตลาดเดิมบางส่วน และเอาท์ซอร์ซงานให้กับบริษัทที่ปรึกษา Accenture โดยมี AI เป็นตัวหลักในการดำเนินงาน เช่น ใช้ AI วิเคราะห์ข้อมูลจำนวนมหาศาล, ทำ personalization อัตโนมัติ, และลดงาน routine ที่เคยต้องใช้คนทำ

    ผลลัพธ์คือ Intel ประกาศว่า “จะเหลือแค่ lean team” หรือทีมการตลาดขนาดเล็กมากเท่านั้น — โดยพนักงานที่ได้รับผลกระทบจะรู้ผลภายในวันที่ 11 กรกฎาคมนี้ และบางคนอาจถูกขอให้ “ช่วยฝึกงานให้กับ Accenture” ก่อนลาออกอีกด้วย

    กลยุทธ์นี้เกิดขึ้นท่ามกลางการพยายาม “กู้สถานะ” ของ Intel ที่เคยเป็นเบอร์หนึ่งด้านเทคโนโลยี แต่ตอนนี้กำลังตกบัลลังก์ และต้องปรับตัวให้ทันโลกที่ “AI ทำงานแทนคน” ได้มากขึ้นเรื่อย ๆ

    https://www.techspot.com/news/108402-intel-outsource-marketing-accenture-ai-cutting-house-staff.html
    หลังจาก Intel เจอสารพัดปัญหาตั้งแต่ยอดขายตก ความล่าช้าทางเทคโนโลยี ไปจนถึงการแข่งขันที่ดุเดือดกับ AMD, NVIDIA และ TSMC — ซีอีโอคนใหม่ก็ออกแนวทาง “ผ่าตัดโครงสร้าง” แบบไม่ไว้หน้าเดิม ๆ หนึ่งในมาตรการสำคัญคือ การยุบทีมการตลาดเดิมบางส่วน และเอาท์ซอร์ซงานให้กับบริษัทที่ปรึกษา Accenture โดยมี AI เป็นตัวหลักในการดำเนินงาน เช่น ใช้ AI วิเคราะห์ข้อมูลจำนวนมหาศาล, ทำ personalization อัตโนมัติ, และลดงาน routine ที่เคยต้องใช้คนทำ ผลลัพธ์คือ Intel ประกาศว่า “จะเหลือแค่ lean team” หรือทีมการตลาดขนาดเล็กมากเท่านั้น — โดยพนักงานที่ได้รับผลกระทบจะรู้ผลภายในวันที่ 11 กรกฎาคมนี้ และบางคนอาจถูกขอให้ “ช่วยฝึกงานให้กับ Accenture” ก่อนลาออกอีกด้วย กลยุทธ์นี้เกิดขึ้นท่ามกลางการพยายาม “กู้สถานะ” ของ Intel ที่เคยเป็นเบอร์หนึ่งด้านเทคโนโลยี แต่ตอนนี้กำลังตกบัลลังก์ และต้องปรับตัวให้ทันโลกที่ “AI ทำงานแทนคน” ได้มากขึ้นเรื่อย ๆ https://www.techspot.com/news/108402-intel-outsource-marketing-accenture-ai-cutting-house-staff.html
    WWW.TECHSPOT.COM
    Intel to outsource marketing to Accenture and AI, cutting in-house staff
    This move is expected to result in significant layoffs within Intel's marketing division, with most affected employees expected to learn their fate by July 11.
    0 Comments 0 Shares 108 Views 0 Reviews
  • แม้ว่า AMD Ryzen ตระกูล X3D จะให้ประสิทธิภาพที่ยอดเยี่ยมในเกม เพราะมี L3 Cache แบบ 3D stacked ช่วยลด latency ได้มาก แต่ก็มีผู้ใช้บางรายเจอปัญหา “กระตุกยิบ ๆ” หรือ micro-stuttering โดยเฉพาะกับรุ่นที่ใช้ 2 CCD (Core Complex Die)

    ผู้ใช้บางคนใน Reddit และ YouTube ค้นพบว่า การเข้า BIOS แล้วเปลี่ยนค่า “Global C-State Control” จาก Auto → Enabled อาจช่วยลดอาการกระตุกได้ทันที โดยเฉพาะในเกมที่มีการโหลดข้อมูลต่อเนื่อง

    ฟีเจอร์ C-State นี้คือระบบที่จัดการ sleep state ของซีพียู เพื่อประหยัดพลังงาน โดยจะ “พัก” ฟังก์ชันบางอย่างเมื่อไม่ใช้งาน เช่น core, I/O หรือ Infinity Fabric (Data Fabric) — แต่ถ้า BIOS ตั้งค่าแบบ Auto ใน X3D บางรุ่น ฟีเจอร์นี้อาจถูกปิดไปเลย ทำให้ซีพียูทำงานแบบ Full power ตลอดเวลาและเกิดความไม่เสถียรในบางช่วง

    แม้การเบนช์มาร์กด้วยโปรแกรม AIDA64 จะไม่เห็นความต่างชัดเจน แต่ในเกมจริงอาจช่วยได้ โดยเฉพาะถ้า Windows ไม่จัดสรรงานให้ไปยัง CCD ที่มี V-Cache อย่างเหมาะสม

    ✅ AMD Ryzen X3D บางรุ่นพบอาการกระตุกหรือ micro-stutter บน Windows  
    • โดยเฉพาะเมื่อใช้เกมที่โหลดข้อมูลถี่ และในรุ่น 2 CCD (มีแคชแค่ฝั่งเดียว)

    ✅ การเปลี่ยน BIOS Setting “Global C-State Control” → Enabled ช่วยลดการกระตุกในบางกรณี  
    • Auto อาจปิดฟีเจอร์ไปโดยไม่รู้ตัวในบางเมนบอร์ด  
    • Enabled จะเปิดการทำงานของ C-State เต็มรูปแบบ

    ✅ C-State คือฟีเจอร์จัดการพลังงานผ่าน ACPI ให้ OS เลือกพัก core/IO/infinity fabric ได้ตามความเหมาะสม  
    • ทำงานคู่กับ P-State ที่จัดการ clock/voltage scaling

    ✅ การเปิด C-State ช่วยให้ Windows จัดการ “Preferred Core” และ CCD ได้ดีขึ้น  
    • โดยเฉพาะหาก CPPC ไม่ทำงานเต็มประสิทธิภาพ

    ✅ Tips เพิ่มเติม: การปิดการแสดงผล Power Percent ใน MSI Afterburner ก็ช่วยลด micro-stutter ได้  
    • เป็นปัญหาที่รู้กันมานาน แม้ใช้ CPU รุ่นไม่ใช่ X3D ก็ตาม

    ‼️ การเปลี่ยน BIOS โดยไม่รู้ค่าเดิม อาจทำให้ระบบไม่เสถียร หรือมีผลกับ power consumption  
    • ควรจดค่าก่อนเปลี่ยน และทดสอบใน workload ที่ใช้จริง

    ‼️ ผลลัพธ์จากการเปลี่ยน Global C-State ยังไม่แน่นอนในทุกเกม/ระบบ  
    • ไม่มีผลกับ AIDA64 แต่ในเกมอาจแตกต่าง ต้องลองเป็นกรณีไป

    ‼️ ถ้าใช้ Mainboard รุ่นเก่าหรือ BIOS ไม่อัปเดต อาจไม่มีตัวเลือกนี้ หรือชื่ออาจไม่ตรงกัน  
    • เช่น อาจใช้ชื่อ CPU Power Saving, C-State Mode, ฯลฯ

    ‼️ การเปิด C-State ทำให้ CPU เข้าสู่ sleep state ได้ — แม้อาจเพิ่ม efficiency แต่ต้องระวังปัญหาความหน่วงในบางงานเฉพาะทาง  
    • โดยเฉพาะในการเรนเดอร์หรือทำงานที่ต้อง full load ต่อเนื่อง

    https://www.neowin.net/news/some-amd-ryzen-users-can-get-free-windows-performance-boost-with-this-simple-system-tweak/
    แม้ว่า AMD Ryzen ตระกูล X3D จะให้ประสิทธิภาพที่ยอดเยี่ยมในเกม เพราะมี L3 Cache แบบ 3D stacked ช่วยลด latency ได้มาก แต่ก็มีผู้ใช้บางรายเจอปัญหา “กระตุกยิบ ๆ” หรือ micro-stuttering โดยเฉพาะกับรุ่นที่ใช้ 2 CCD (Core Complex Die) ผู้ใช้บางคนใน Reddit และ YouTube ค้นพบว่า การเข้า BIOS แล้วเปลี่ยนค่า “Global C-State Control” จาก Auto → Enabled อาจช่วยลดอาการกระตุกได้ทันที โดยเฉพาะในเกมที่มีการโหลดข้อมูลต่อเนื่อง ฟีเจอร์ C-State นี้คือระบบที่จัดการ sleep state ของซีพียู เพื่อประหยัดพลังงาน โดยจะ “พัก” ฟังก์ชันบางอย่างเมื่อไม่ใช้งาน เช่น core, I/O หรือ Infinity Fabric (Data Fabric) — แต่ถ้า BIOS ตั้งค่าแบบ Auto ใน X3D บางรุ่น ฟีเจอร์นี้อาจถูกปิดไปเลย ทำให้ซีพียูทำงานแบบ Full power ตลอดเวลาและเกิดความไม่เสถียรในบางช่วง แม้การเบนช์มาร์กด้วยโปรแกรม AIDA64 จะไม่เห็นความต่างชัดเจน แต่ในเกมจริงอาจช่วยได้ โดยเฉพาะถ้า Windows ไม่จัดสรรงานให้ไปยัง CCD ที่มี V-Cache อย่างเหมาะสม ✅ AMD Ryzen X3D บางรุ่นพบอาการกระตุกหรือ micro-stutter บน Windows   • โดยเฉพาะเมื่อใช้เกมที่โหลดข้อมูลถี่ และในรุ่น 2 CCD (มีแคชแค่ฝั่งเดียว) ✅ การเปลี่ยน BIOS Setting “Global C-State Control” → Enabled ช่วยลดการกระตุกในบางกรณี   • Auto อาจปิดฟีเจอร์ไปโดยไม่รู้ตัวในบางเมนบอร์ด   • Enabled จะเปิดการทำงานของ C-State เต็มรูปแบบ ✅ C-State คือฟีเจอร์จัดการพลังงานผ่าน ACPI ให้ OS เลือกพัก core/IO/infinity fabric ได้ตามความเหมาะสม   • ทำงานคู่กับ P-State ที่จัดการ clock/voltage scaling ✅ การเปิด C-State ช่วยให้ Windows จัดการ “Preferred Core” และ CCD ได้ดีขึ้น   • โดยเฉพาะหาก CPPC ไม่ทำงานเต็มประสิทธิภาพ ✅ Tips เพิ่มเติม: การปิดการแสดงผล Power Percent ใน MSI Afterburner ก็ช่วยลด micro-stutter ได้   • เป็นปัญหาที่รู้กันมานาน แม้ใช้ CPU รุ่นไม่ใช่ X3D ก็ตาม ‼️ การเปลี่ยน BIOS โดยไม่รู้ค่าเดิม อาจทำให้ระบบไม่เสถียร หรือมีผลกับ power consumption   • ควรจดค่าก่อนเปลี่ยน และทดสอบใน workload ที่ใช้จริง ‼️ ผลลัพธ์จากการเปลี่ยน Global C-State ยังไม่แน่นอนในทุกเกม/ระบบ   • ไม่มีผลกับ AIDA64 แต่ในเกมอาจแตกต่าง ต้องลองเป็นกรณีไป ‼️ ถ้าใช้ Mainboard รุ่นเก่าหรือ BIOS ไม่อัปเดต อาจไม่มีตัวเลือกนี้ หรือชื่ออาจไม่ตรงกัน   • เช่น อาจใช้ชื่อ CPU Power Saving, C-State Mode, ฯลฯ ‼️ การเปิด C-State ทำให้ CPU เข้าสู่ sleep state ได้ — แม้อาจเพิ่ม efficiency แต่ต้องระวังปัญหาความหน่วงในบางงานเฉพาะทาง   • โดยเฉพาะในการเรนเดอร์หรือทำงานที่ต้อง full load ต่อเนื่อง https://www.neowin.net/news/some-amd-ryzen-users-can-get-free-windows-performance-boost-with-this-simple-system-tweak/
    WWW.NEOWIN.NET
    Some AMD Ryzen users can get free Windows performance boost with this simple system tweak
    AMD Ryzen processor owners, especially X3D ones, may be in for a pleasant surprise as a simple tweak to one of their system settings can help boost performance.
    0 Comments 0 Shares 108 Views 0 Reviews
  • ในปี 2026 AMD กำลังจะเปิดตัวการ์ดจอรุ่นใหม่ที่ใช้โค้ดเนมสถาปัตยกรรมว่า UDNA (GFX13) ซึ่งจะเปลี่ยนหน้าประวัติศาสตร์ของ GPU ฝั่ง AMD เพราะจะเป็นครั้งแรกที่รวมสถาปัตยกรรมเกมและ data center เข้าด้วยกัน (เคยแยกเป็น RDNA กับ CDNA)

    สิ่งที่เป็นประเด็นคือ UDNA จะรองรับ HDMI 2.2 ที่แบนด์วิดธ์ 64 Gbps และ 80 Gbps ซึ่งถือว่าสูงมากพอสำหรับ 4K@240Hz หรือ 8K@120Hz แบบไม่มีการบีบอัด (4:4:4) แต่ ยังไม่ถึงระดับสูงสุดของ HDMI 2.2 ที่รองรับได้ถึง 96 Gbps (หรือ “Ultra96”) เพราะ AMD ยังไม่ใช้เทคโนโลยี Fixed Rate Link (FRL) แบบเต็มตัว

    การที่ AMD ไม่ใช้ Ultra96 เต็ม ๆ อาจเพราะเรื่องต้นทุน หรือมองว่า 80Gbps ก็เพียงพอแล้วสำหรับกลุ่มเป้าหมายช่วงเปิดตัว ซึ่งรวมถึง PlayStation 6 ที่ลือกันว่าก็จะใช้ UDNA นี้เช่นกัน

    ✅ AMD เตรียมเปิดตัว GPU สถาปัตยกรรมใหม่ “UDNA” ในปี 2026  
    • มาแทน RDNA/CDNA โดยรวมเกมกับ data center GPU เข้าด้วยกัน  
    • โค้ดเนม GFX13

    ✅ รองรับ HDMI 2.2 ที่ความเร็ว 64 และ 80 Gbps  
    • สูงพอสำหรับ 4K@240Hz และ 8K@120Hz แบบ uncompressed  
    • แต่ยังไม่รองรับ Ultra96 (96 Gbps เต็มที่)

    ✅ HDMI 2.2 เปิดตัวอย่างเป็นทางการช่วง CES 2025  
    • เข้ากันได้กับพอร์ต HDMI เดิม (backward compatible)  
    • แต่ต้องใช้สาย Ultra96 certified จึงจะใช้ความสามารถเต็มที่ได้

    ✅ ประโยชน์ของ Ultra96 คือรองรับวิดีโอ 10K/12K ที่ 120Hz หรือ 4K ที่ 480Hz  
    • เหมาะกับงานสายมืออาชีพระดับเฉพาะทางมากกว่า

    ✅ PlayStation 6 ถูกลือว่าจะใช้ GPU UDNA เหมือนกัน  
    • แต่ยังไม่ชัวร์ว่าจะใช้ CPU สาย Zen 4 หรือ Zen 5

    https://www.techspot.com/news/108393-amd-next-gen-udna-graphics-cards-support-up.html
    ในปี 2026 AMD กำลังจะเปิดตัวการ์ดจอรุ่นใหม่ที่ใช้โค้ดเนมสถาปัตยกรรมว่า UDNA (GFX13) ซึ่งจะเปลี่ยนหน้าประวัติศาสตร์ของ GPU ฝั่ง AMD เพราะจะเป็นครั้งแรกที่รวมสถาปัตยกรรมเกมและ data center เข้าด้วยกัน (เคยแยกเป็น RDNA กับ CDNA) สิ่งที่เป็นประเด็นคือ UDNA จะรองรับ HDMI 2.2 ที่แบนด์วิดธ์ 64 Gbps และ 80 Gbps ซึ่งถือว่าสูงมากพอสำหรับ 4K@240Hz หรือ 8K@120Hz แบบไม่มีการบีบอัด (4:4:4) แต่ ยังไม่ถึงระดับสูงสุดของ HDMI 2.2 ที่รองรับได้ถึง 96 Gbps (หรือ “Ultra96”) เพราะ AMD ยังไม่ใช้เทคโนโลยี Fixed Rate Link (FRL) แบบเต็มตัว การที่ AMD ไม่ใช้ Ultra96 เต็ม ๆ อาจเพราะเรื่องต้นทุน หรือมองว่า 80Gbps ก็เพียงพอแล้วสำหรับกลุ่มเป้าหมายช่วงเปิดตัว ซึ่งรวมถึง PlayStation 6 ที่ลือกันว่าก็จะใช้ UDNA นี้เช่นกัน ✅ AMD เตรียมเปิดตัว GPU สถาปัตยกรรมใหม่ “UDNA” ในปี 2026   • มาแทน RDNA/CDNA โดยรวมเกมกับ data center GPU เข้าด้วยกัน   • โค้ดเนม GFX13 ✅ รองรับ HDMI 2.2 ที่ความเร็ว 64 และ 80 Gbps   • สูงพอสำหรับ 4K@240Hz และ 8K@120Hz แบบ uncompressed   • แต่ยังไม่รองรับ Ultra96 (96 Gbps เต็มที่) ✅ HDMI 2.2 เปิดตัวอย่างเป็นทางการช่วง CES 2025   • เข้ากันได้กับพอร์ต HDMI เดิม (backward compatible)   • แต่ต้องใช้สาย Ultra96 certified จึงจะใช้ความสามารถเต็มที่ได้ ✅ ประโยชน์ของ Ultra96 คือรองรับวิดีโอ 10K/12K ที่ 120Hz หรือ 4K ที่ 480Hz   • เหมาะกับงานสายมืออาชีพระดับเฉพาะทางมากกว่า ✅ PlayStation 6 ถูกลือว่าจะใช้ GPU UDNA เหมือนกัน   • แต่ยังไม่ชัวร์ว่าจะใช้ CPU สาย Zen 4 หรือ Zen 5 https://www.techspot.com/news/108393-amd-next-gen-udna-graphics-cards-support-up.html
    WWW.TECHSPOT.COM
    AMD's next-gen UDNA graphics cards will support up to 80 Gbps HDMI 2.2 connectivity
    According to Kepler_L2, UDNA GPUs – codenamed GFX13 – will support 64 Gbps and 80 Gbps bandwidths over HDMI 2.2 connections. If the report is accurate, it...
    0 Comments 0 Shares 96 Views 0 Reviews
  • สงครามด้านพลังประมวลผลของ AI กำลังลากเอาทุกภาคส่วนมาเกี่ยวข้อง ไม่ใช่แค่เรื่องของ GPU แรงๆ อีกต่อไป เพราะหน่วยความจำ HBM (High Bandwidth Memory) ที่ถูกใช้ในการ์ด AI เช่น H100, B200 หรือ MI300 ก็เริ่ม “กินไฟเกินควบคุม” แล้วเช่นกัน

    จากแผนของ KAIST – TERA Lab เผยว่า roadmap ของ HBM ตั้งแต่ HBM4 → HBM8 จะพุ่งแรงทั้งแบนด์วิธและขนาด... แต่ก็ตามมาด้วย การใช้พลังงานแบบน่าตกใจ

    - HBM4 (เริ่ม 2026): ใช้ใน Nvidia Rubin, AMD MI400, ความจุ 432GB ต่อการ์ด, ระบายความร้อนด้วย liquid cooling
    - HBM5 (2029): ยกระดับไปถึง 640GB ต่อ GPU, ใช้ immersion cooling
    - HBM6 (2032): ดึงไฟถึง 120W/stack, รวมแล้ว 5,920W ต่อ GPU
    - HBM7 (2035): รองรับ 6TB ต่อการ์ด, 15,360W ต่อการ์ด GPU เดียว!
    - HBM8 (2038): วิ่งแบนด์วิธ 64TB/s ต่อ stack, ความเร็ว 32Gbps, เริ่มมีเทคนิค embedded cooling และ interposer 2 ด้าน

    คิดเล่นๆ: ถ้ามีดาต้าเซ็นเตอร์ที่ใช้ GPU แบบ HBM8 จำนวน 1 ล้านชิป จะกินไฟรวม 15.36 กิกะวัตต์ เท่ากับการผลิตไฟฟ้าจากพลังงานลมของทั้งสหราชอาณาจักรในปี 2024! 😱

    เทคโนโลยีใหม่ๆ เช่น HBF (High-Bandwidth Flash) เริ่มถูกพูดถึงเพื่อรวม NAND Flash + LPDDR เข้าไปใน stack เดียวกับ HBM แต่ก็ยังเป็นคอนเซ็ปต์ที่อยู่ในช่วงวิจัย ทดลอง และยังไม่มีคำตอบว่า “จะเอาอยู่” หรือเปล่า

    https://www.techradar.com/pro/ai-gpu-accelerators-with-6tb-hbm-memory-could-appear-by-2035-as-ai-gpu-die-sizes-set-to-shrink-but-theres-far-worse-coming-up
    สงครามด้านพลังประมวลผลของ AI กำลังลากเอาทุกภาคส่วนมาเกี่ยวข้อง ไม่ใช่แค่เรื่องของ GPU แรงๆ อีกต่อไป เพราะหน่วยความจำ HBM (High Bandwidth Memory) ที่ถูกใช้ในการ์ด AI เช่น H100, B200 หรือ MI300 ก็เริ่ม “กินไฟเกินควบคุม” แล้วเช่นกัน จากแผนของ KAIST – TERA Lab เผยว่า roadmap ของ HBM ตั้งแต่ HBM4 → HBM8 จะพุ่งแรงทั้งแบนด์วิธและขนาด... แต่ก็ตามมาด้วย การใช้พลังงานแบบน่าตกใจ - HBM4 (เริ่ม 2026): ใช้ใน Nvidia Rubin, AMD MI400, ความจุ 432GB ต่อการ์ด, ระบายความร้อนด้วย liquid cooling - HBM5 (2029): ยกระดับไปถึง 640GB ต่อ GPU, ใช้ immersion cooling - HBM6 (2032): ดึงไฟถึง 120W/stack, รวมแล้ว 5,920W ต่อ GPU - HBM7 (2035): รองรับ 6TB ต่อการ์ด, 15,360W ต่อการ์ด GPU เดียว! - HBM8 (2038): วิ่งแบนด์วิธ 64TB/s ต่อ stack, ความเร็ว 32Gbps, เริ่มมีเทคนิค embedded cooling และ interposer 2 ด้าน คิดเล่นๆ: ถ้ามีดาต้าเซ็นเตอร์ที่ใช้ GPU แบบ HBM8 จำนวน 1 ล้านชิป จะกินไฟรวม 15.36 กิกะวัตต์ เท่ากับการผลิตไฟฟ้าจากพลังงานลมของทั้งสหราชอาณาจักรในปี 2024! 😱 เทคโนโลยีใหม่ๆ เช่น HBF (High-Bandwidth Flash) เริ่มถูกพูดถึงเพื่อรวม NAND Flash + LPDDR เข้าไปใน stack เดียวกับ HBM แต่ก็ยังเป็นคอนเซ็ปต์ที่อยู่ในช่วงวิจัย ทดลอง และยังไม่มีคำตอบว่า “จะเอาอยู่” หรือเปล่า https://www.techradar.com/pro/ai-gpu-accelerators-with-6tb-hbm-memory-could-appear-by-2035-as-ai-gpu-die-sizes-set-to-shrink-but-theres-far-worse-coming-up
    0 Comments 0 Shares 124 Views 0 Reviews
  • หลายคนรู้ว่าในระบบ AI ขนาดใหญ่ แค่ GPU แรงอย่างเดียวไม่พอ — การ์ดเครือข่าย (NIC) ก็เป็นหัวใจสำคัญ เพราะมันคือสะพานเชื่อมระหว่างเซิร์ฟเวอร์ GPU นับพันตัว การดีเลย์หรือข้อมูลติดคอแม้เพียง 1% ก็อาจทำให้ประสิทธิภาพ AI cluster ตกฮวบ

    AMD จึงเปิดตัว Pollara 400 NIC สำหรับ PCIe Gen5 ที่รองรับแบนด์วิดธ์รวม 400Gbps มีฟีเจอร์อย่าง RDMA, RCCL, และที่สำคัญคือรองรับ มาตรฐาน Ultra Ethernet (UEC) ที่ออกแบบมาเพื่อให้ Ethernet ก้าวทันการเชื่อม GPU ระดับซูเปอร์คลัสเตอร์ — ไม่ต้องผูกขาดกับโซลูชันเฉพาะเจ้าใดเจ้าเดียว

    Pollara 400 ออกแบบให้รองรับการลดเวลา idle ของ GPU โดยเฉพาะในงาน training AI ขนาดใหญ่ โดย AMD เคลมว่าทำ RDMA ได้เร็วกว่า ConnectX-7 ของ NVIDIA 10% และเร็วกว่า Thor2 ของ Broadcom ถึง 20% — ในคลัสเตอร์ใหญ่จะช่วยเพิ่ม throughput โดยรวมได้หลายเท่าตัว

    AMD ยังบอกด้วยว่า Oracle Cloud จะเป็น hyperscaler รายแรกที่นำ Pollara ไปใช้ และวางแผนเปิดตัวรุ่นถัดไปคือ Vulcano 800G NIC (PCIe Gen6) ในปี 2026 — เป็นการ์ดที่ใช้ในสถาปัตยกรรม Helios rack-scale แบบเดียวกับ MI400 Series AI GPU ของ AMD

    ✅ AMD เปิดตัว Pollara 400 AI NIC สำหรับ PCIe Gen5 รองรับ Ultra Ethernet (UEC)  
    • รองรับ RDMA, RCCL, congestion control และ failover routing  
    • ใช้งานได้หลายแบบ: 1x400G, 2x200G, 4x100G

    ✅ Performance สูงกว่า ConnectX-7 และ Broadcom Thor2  
    • RDMA เร็วขึ้น 10–20%  
    • ลด idle time ของ GPU ได้ใน AI workloads ขนาดใหญ่

    ✅ ออกแบบแบบ open-standard, รองรับ multi-vendor ecosystem  
    • ไม่ผูกกับ proprietary protocol แบบ NVLink หรือ Infiniband  
    • ช่วยให้องค์กรใหญ่สามารถเลือก hardware ได้ยืดหยุ่นขึ้น

    ✅ มีแผนเปิดตัว Vulcano 800G ในปี 2026 รองรับ PCIe Gen6 + UALink + UEC  
    • ใช้กับ Helios architecture ของ AMD สำหรับ rack-scale AI cluster  
    • แข่งตรงกับ ConnectX-8 และแพลตฟอร์ม GPU GB200 จาก NVIDIA

    ✅ Oracle Cloud เป็นผู้ใช้งานกลุ่มแรกของเทคโนโลยี UEC + AMD NIC  
    • มุ่งเป้า hyperscaler และ cloud provider เป็นหลัก

    ✅ รองรับการมอนิเตอร์ระดับคลัสเตอร์ เพิ่ม observability และ reliability  
    • ช่วยดูปัญหา network choke point ได้แบบละเอียด

    ‼️ มาตรฐาน Ultra Ethernet (UEC) ยังใหม่มาก — อุตสาหกรรมยังอยู่ช่วง transition  
    • ecosystem อาจยังไม่พร้อมเต็มที่ รองรับ hardware/software บางตัวต้องอัปเดตตาม

    ‼️ เทียบกับโซลูชัน NVIDIA ที่ใช้ NVLink/Infiniband ประสิทธิภาพในบาง use case อาจยังห่างกัน  
    • โดยเฉพาะงานที่ผูกกับ stack ของ NVIDIA เช่น LLM แบบเฉพาะ

    ‼️ PCIe Gen6 และ 800G ยังอยู่ระหว่างการพัฒนา — NIC Vulcano ยังไม่พร้อมใช้จริงจนถึงปี 2026  
    • องค์กรที่วางแผนลงทุนล่วงหน้า ควรประเมิน roadmap ให้รอบคอบ

    ‼️ การใช้ multi-vendor network แม้จะเปิดเสรี แต่การ debug และ tuning ซับซ้อนกว่าระบบปิดแบบ proprietary  
    • ต้องมีทีม engineer ที่เข้าใจ protocol ระดับลึก

    https://www.techradar.com/pro/amd-debuts-a-400gbe-ai-network-card-with-an-800gbe-pcie-gen6-nic-coming-in-2026-but-will-the-industry-be-ready
    หลายคนรู้ว่าในระบบ AI ขนาดใหญ่ แค่ GPU แรงอย่างเดียวไม่พอ — การ์ดเครือข่าย (NIC) ก็เป็นหัวใจสำคัญ เพราะมันคือสะพานเชื่อมระหว่างเซิร์ฟเวอร์ GPU นับพันตัว การดีเลย์หรือข้อมูลติดคอแม้เพียง 1% ก็อาจทำให้ประสิทธิภาพ AI cluster ตกฮวบ AMD จึงเปิดตัว Pollara 400 NIC สำหรับ PCIe Gen5 ที่รองรับแบนด์วิดธ์รวม 400Gbps มีฟีเจอร์อย่าง RDMA, RCCL, และที่สำคัญคือรองรับ มาตรฐาน Ultra Ethernet (UEC) ที่ออกแบบมาเพื่อให้ Ethernet ก้าวทันการเชื่อม GPU ระดับซูเปอร์คลัสเตอร์ — ไม่ต้องผูกขาดกับโซลูชันเฉพาะเจ้าใดเจ้าเดียว Pollara 400 ออกแบบให้รองรับการลดเวลา idle ของ GPU โดยเฉพาะในงาน training AI ขนาดใหญ่ โดย AMD เคลมว่าทำ RDMA ได้เร็วกว่า ConnectX-7 ของ NVIDIA 10% และเร็วกว่า Thor2 ของ Broadcom ถึง 20% — ในคลัสเตอร์ใหญ่จะช่วยเพิ่ม throughput โดยรวมได้หลายเท่าตัว AMD ยังบอกด้วยว่า Oracle Cloud จะเป็น hyperscaler รายแรกที่นำ Pollara ไปใช้ และวางแผนเปิดตัวรุ่นถัดไปคือ Vulcano 800G NIC (PCIe Gen6) ในปี 2026 — เป็นการ์ดที่ใช้ในสถาปัตยกรรม Helios rack-scale แบบเดียวกับ MI400 Series AI GPU ของ AMD ✅ AMD เปิดตัว Pollara 400 AI NIC สำหรับ PCIe Gen5 รองรับ Ultra Ethernet (UEC)   • รองรับ RDMA, RCCL, congestion control และ failover routing   • ใช้งานได้หลายแบบ: 1x400G, 2x200G, 4x100G ✅ Performance สูงกว่า ConnectX-7 และ Broadcom Thor2   • RDMA เร็วขึ้น 10–20%   • ลด idle time ของ GPU ได้ใน AI workloads ขนาดใหญ่ ✅ ออกแบบแบบ open-standard, รองรับ multi-vendor ecosystem   • ไม่ผูกกับ proprietary protocol แบบ NVLink หรือ Infiniband   • ช่วยให้องค์กรใหญ่สามารถเลือก hardware ได้ยืดหยุ่นขึ้น ✅ มีแผนเปิดตัว Vulcano 800G ในปี 2026 รองรับ PCIe Gen6 + UALink + UEC   • ใช้กับ Helios architecture ของ AMD สำหรับ rack-scale AI cluster   • แข่งตรงกับ ConnectX-8 และแพลตฟอร์ม GPU GB200 จาก NVIDIA ✅ Oracle Cloud เป็นผู้ใช้งานกลุ่มแรกของเทคโนโลยี UEC + AMD NIC   • มุ่งเป้า hyperscaler และ cloud provider เป็นหลัก ✅ รองรับการมอนิเตอร์ระดับคลัสเตอร์ เพิ่ม observability และ reliability   • ช่วยดูปัญหา network choke point ได้แบบละเอียด ‼️ มาตรฐาน Ultra Ethernet (UEC) ยังใหม่มาก — อุตสาหกรรมยังอยู่ช่วง transition   • ecosystem อาจยังไม่พร้อมเต็มที่ รองรับ hardware/software บางตัวต้องอัปเดตตาม ‼️ เทียบกับโซลูชัน NVIDIA ที่ใช้ NVLink/Infiniband ประสิทธิภาพในบาง use case อาจยังห่างกัน   • โดยเฉพาะงานที่ผูกกับ stack ของ NVIDIA เช่น LLM แบบเฉพาะ ‼️ PCIe Gen6 และ 800G ยังอยู่ระหว่างการพัฒนา — NIC Vulcano ยังไม่พร้อมใช้จริงจนถึงปี 2026   • องค์กรที่วางแผนลงทุนล่วงหน้า ควรประเมิน roadmap ให้รอบคอบ ‼️ การใช้ multi-vendor network แม้จะเปิดเสรี แต่การ debug และ tuning ซับซ้อนกว่าระบบปิดแบบ proprietary   • ต้องมีทีม engineer ที่เข้าใจ protocol ระดับลึก https://www.techradar.com/pro/amd-debuts-a-400gbe-ai-network-card-with-an-800gbe-pcie-gen6-nic-coming-in-2026-but-will-the-industry-be-ready
    0 Comments 0 Shares 131 Views 0 Reviews
  • หลายคนคิดว่า GPU ต้องพึ่งพาแค่ไฟจากรัฐ แต่จริง ๆ แล้ว Jensen Huang แห่ง NVIDIA รู้ดีว่าในอนาคต “ไฟ” จะกลายเป็นปัจจัยจำกัดการเติบโตของ AI — ไม่ใช่ชิปอีกต่อไป

    ล่าสุด NVIDIA (ผ่านบริษัทลูกด้านลงทุน NVentures) ร่วมลงเงินกับ Bill Gates และ HD Hyundai ในรอบ funding ล่าสุดกว่า $650 ล้าน ให้กับ TerraPower บริษัทที่ Gates ก่อตั้งเพื่อพัฒนาโรงไฟฟ้านิวเคลียร์ขนาดเล็กแบบ SMR (Small Modular Reactor)

    โปรเจกต์แรกของ TerraPower คือโรงไฟฟ้า Natrium กำลัง 345 เมกะวัตต์ ที่ใช้โซเดียมเหลวระบายความร้อน และมี ระบบเก็บพลังงานด้วยเกลือหลอมเหลว ที่สะสมพลังงานได้ถึง 1 กิกะวัตต์ เพื่อป้อนโหลดพีคแบบ AI ได้ทันเวลา

    แม้จะยังรอใบอนุญาตจากหน่วยงานนิวเคลียร์ในสหรัฐ (คาดว่าได้ปี 2026) แต่ตอนนี้เริ่มสร้างโครงสร้างส่วนที่ไม่ใช่นิวเคลียร์แล้วในรัฐไวโอมิง

    NVIDIA ไม่ได้โดดเดี่ยว — Oracle, Microsoft, Google และ Amazon ต่างเร่งลงทุนด้านนิวเคลียร์คล้ายกัน เช่น Oracle ขออนุญาตสร้าง SMR 3 ชุด, Microsoft เตรียมรีสตาร์ตโรงไฟฟ้าเก่าใน Pennsylvania, Amazon ทุ่มเงินในหลายสตาร์ตอัปด้านพลังงาน

    เทรนด์นี้มาแรงเพราะ AI server ต้องการไฟมากเกินที่โครงข่ายจะรองรับไหว — AMD เผยว่าแค่ zettascale supercomputer จะใช้ไฟถึง 500 เมกะวัตต์ ซึ่งเทียบเท่าบ้าน 375,000 หลังเลยทีเดียว

    https://www.tomshardware.com/tech-industry/nvidia-goes-nuclear-company-joins-bill-gates-in-backing-terrapower-a-company-building-nuclear-reactors-for-powering-data-centers
    หลายคนคิดว่า GPU ต้องพึ่งพาแค่ไฟจากรัฐ แต่จริง ๆ แล้ว Jensen Huang แห่ง NVIDIA รู้ดีว่าในอนาคต “ไฟ” จะกลายเป็นปัจจัยจำกัดการเติบโตของ AI — ไม่ใช่ชิปอีกต่อไป ล่าสุด NVIDIA (ผ่านบริษัทลูกด้านลงทุน NVentures) ร่วมลงเงินกับ Bill Gates และ HD Hyundai ในรอบ funding ล่าสุดกว่า $650 ล้าน ให้กับ TerraPower บริษัทที่ Gates ก่อตั้งเพื่อพัฒนาโรงไฟฟ้านิวเคลียร์ขนาดเล็กแบบ SMR (Small Modular Reactor) โปรเจกต์แรกของ TerraPower คือโรงไฟฟ้า Natrium กำลัง 345 เมกะวัตต์ ที่ใช้โซเดียมเหลวระบายความร้อน และมี ระบบเก็บพลังงานด้วยเกลือหลอมเหลว ที่สะสมพลังงานได้ถึง 1 กิกะวัตต์ เพื่อป้อนโหลดพีคแบบ AI ได้ทันเวลา แม้จะยังรอใบอนุญาตจากหน่วยงานนิวเคลียร์ในสหรัฐ (คาดว่าได้ปี 2026) แต่ตอนนี้เริ่มสร้างโครงสร้างส่วนที่ไม่ใช่นิวเคลียร์แล้วในรัฐไวโอมิง NVIDIA ไม่ได้โดดเดี่ยว — Oracle, Microsoft, Google และ Amazon ต่างเร่งลงทุนด้านนิวเคลียร์คล้ายกัน เช่น Oracle ขออนุญาตสร้าง SMR 3 ชุด, Microsoft เตรียมรีสตาร์ตโรงไฟฟ้าเก่าใน Pennsylvania, Amazon ทุ่มเงินในหลายสตาร์ตอัปด้านพลังงาน เทรนด์นี้มาแรงเพราะ AI server ต้องการไฟมากเกินที่โครงข่ายจะรองรับไหว — AMD เผยว่าแค่ zettascale supercomputer จะใช้ไฟถึง 500 เมกะวัตต์ ซึ่งเทียบเท่าบ้าน 375,000 หลังเลยทีเดียว https://www.tomshardware.com/tech-industry/nvidia-goes-nuclear-company-joins-bill-gates-in-backing-terrapower-a-company-building-nuclear-reactors-for-powering-data-centers
    0 Comments 0 Shares 140 Views 0 Reviews
  • ช่วงนี้ Apple ไม่ได้พูดถึง AI แค่เรื่อง Siri หรือ iPhone เท่านั้น แต่กำลังใช้ GenAI เข้ามาเปลี่ยนวงในอย่าง “การออกแบบชิป” ที่เป็นหัวใจของอุปกรณ์ทุกตัวเลย

    Johny Srouji รองประธานอาวุโสของฝ่ายฮาร์ดแวร์ของ Apple เปิดเผยว่า Apple กำลังใช้ Generative AI ในซอฟต์แวร์ออกแบบชิป EDA เพื่อเพิ่มความเร็วและประสิทธิภาพของการพัฒนา Apple Silicon รุ่นต่อไป เช่น M-Series และ A-Series ซึ่งใช้ใน Mac และ iPhone ตามลำดับ

    เขาบอกเลยว่า “Generative AI สามารถเพิ่ม productivity ได้มหาศาล” เพราะเดิมทีการวางเลย์เอาต์ของชิป หรือการกำหนดวงจรใช้เวลานานและทำซ้ำบ่อยมาก แต่ถ้าให้ AI สร้างตัวเลือกอัตโนมัติ แล้ววิศวกรคัดกรอง ก็จะเร็วกว่าเดิมหลายเท่า

    ฝั่งบริษัท Cadence และ Synopsys ที่เป็นผู้ผลิตซอฟต์แวร์ EDA ก็เร่งเสริม GenAI เข้าไปในเครื่องมือของตัวเอง เพื่อให้รองรับแนวโน้มนี้ ซึ่งไม่ใช่แค่ Apple ที่ใช้นะครับ Google, Nvidia, AMD ก็เริ่มหันมาใช้กันหมด

    และไม่ใช่แค่ฝั่งตะวันตก — มีรายงานจากจีนว่าทีมนักวิจัยสามารถออกแบบซีพียูทั้งตัวโดยใช้ Large Language Model (LLM) แค่ตัวเดียวได้แล้วด้วย

    Apple เองเริ่มทางนี้ตั้งแต่สมัยเปลี่ยนมาใช้ Apple Silicon ใน MacBook Pro รุ่น M1 ซึ่งเป็นจุดเปลี่ยนครั้งใหญ่ในการเลิกใช้ชิป Intel และพัฒนาชิป Arm ของตนเองแบบเต็มตัว โดยเน้น performance + efficiency + ควบคุม ecosystem ทั้งหมด

    ✅ Apple เริ่มใช้ Generative AI เพื่อช่วยออกแบบชิปในกระบวนการ EDA (Electronic Design Automation)  • เพิ่ม productivity และลดเวลาทำงานของทีมออกแบบ  
    • เป็นการนำ AI มาใช้เบื้องหลัง ไม่ใช่แค่ฟีเจอร์ในอุปกรณ์

    ✅ Johny Srouji ยืนยันว่า GenAI จะเป็นตัวช่วยสำคัญใน pipeline การพัฒนาชิป  
    • ช่วย generate layout, logic, simulation patterns  
    • ลดภาระงานซ้ำซ้อนให้วิศวกร

    ✅ บริษัท EDA ชั้นนำอย่าง Cadence และ Synopsys กำลังใส่ GenAI ในเครื่องมือของตัวเอง  
    • เป็นคลื่นเทคโนโลยีที่หลายผู้ผลิตชิปกำลังปรับตัวตาม

    ✅ Apple เคยทุ่มสุดตัวกับ Apple Silicon โดยไม่มีแผนสำรองตอนเปลี่ยนจาก Intel เป็น M1  
    • พร้อมพัฒนาระบบแปล x86 → Arm ผ่าน Rosetta 2

    ✅ แนวโน้มของโลก: จีนกำลังพัฒนา CPU ที่ออกแบบโดย LLM ล้วน ๆ แล้วเช่นกัน  
    • เป็นการยืนยันว่า AI เริ่มเข้ามามีบทบาทตั้งแต่ระดับสถาปัตยกรรม

    ‼️ AI ยังไม่สามารถแทนที่วิศวกรออกแบบชิปได้เต็มตัวในปัจจุบัน  
    • ความเข้าใจเรื่องสถาปัตยกรรมและข้อจำกัดเชิงฟิสิกส์ยังต้องพึ่งมนุษย์

    ‼️ การใช้ GenAI ในงานชิปต้องควบคุมคุณภาพสูง เพราะ error เล็กน้อยอาจทำให้ชิปทั้งตัวใช้ไม่ได้  
    • จึงต้องมีรอบตรวจสอบหลายชั้น แม้จะใช้ AI ร่วม

    ‼️ การพึ่งพา AI อย่างรวดเร็วใน R&D มีความเสี่ยงต่อการรั่วไหลของแนวคิดหรือทรัพย์สินทางปัญญา  
    • ต้องระวังในระดับการใช้งาน LLM ภายนอกที่อาจไม่ได้ควบคุมโมเดลเอง

    ‼️ แนวโน้มนี้จะเพิ่มการแข่งขันในตลาดชิปแบบ arm-on-silicon สูงขึ้น  
    • บริษัทที่ไม่เร่งใช้ AI ออกแบบ อาจตามไม่ทันรอบพัฒนาผลิตภัณฑ์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/apple-explores-using-generative-ai-to-design-its-chips-executive-says-it-can-be-a-huge-productivity-boost
    ช่วงนี้ Apple ไม่ได้พูดถึง AI แค่เรื่อง Siri หรือ iPhone เท่านั้น แต่กำลังใช้ GenAI เข้ามาเปลี่ยนวงในอย่าง “การออกแบบชิป” ที่เป็นหัวใจของอุปกรณ์ทุกตัวเลย Johny Srouji รองประธานอาวุโสของฝ่ายฮาร์ดแวร์ของ Apple เปิดเผยว่า Apple กำลังใช้ Generative AI ในซอฟต์แวร์ออกแบบชิป EDA เพื่อเพิ่มความเร็วและประสิทธิภาพของการพัฒนา Apple Silicon รุ่นต่อไป เช่น M-Series และ A-Series ซึ่งใช้ใน Mac และ iPhone ตามลำดับ เขาบอกเลยว่า “Generative AI สามารถเพิ่ม productivity ได้มหาศาล” เพราะเดิมทีการวางเลย์เอาต์ของชิป หรือการกำหนดวงจรใช้เวลานานและทำซ้ำบ่อยมาก แต่ถ้าให้ AI สร้างตัวเลือกอัตโนมัติ แล้ววิศวกรคัดกรอง ก็จะเร็วกว่าเดิมหลายเท่า ฝั่งบริษัท Cadence และ Synopsys ที่เป็นผู้ผลิตซอฟต์แวร์ EDA ก็เร่งเสริม GenAI เข้าไปในเครื่องมือของตัวเอง เพื่อให้รองรับแนวโน้มนี้ ซึ่งไม่ใช่แค่ Apple ที่ใช้นะครับ Google, Nvidia, AMD ก็เริ่มหันมาใช้กันหมด และไม่ใช่แค่ฝั่งตะวันตก — มีรายงานจากจีนว่าทีมนักวิจัยสามารถออกแบบซีพียูทั้งตัวโดยใช้ Large Language Model (LLM) แค่ตัวเดียวได้แล้วด้วย Apple เองเริ่มทางนี้ตั้งแต่สมัยเปลี่ยนมาใช้ Apple Silicon ใน MacBook Pro รุ่น M1 ซึ่งเป็นจุดเปลี่ยนครั้งใหญ่ในการเลิกใช้ชิป Intel และพัฒนาชิป Arm ของตนเองแบบเต็มตัว โดยเน้น performance + efficiency + ควบคุม ecosystem ทั้งหมด ✅ Apple เริ่มใช้ Generative AI เพื่อช่วยออกแบบชิปในกระบวนการ EDA (Electronic Design Automation)  • เพิ่ม productivity และลดเวลาทำงานของทีมออกแบบ   • เป็นการนำ AI มาใช้เบื้องหลัง ไม่ใช่แค่ฟีเจอร์ในอุปกรณ์ ✅ Johny Srouji ยืนยันว่า GenAI จะเป็นตัวช่วยสำคัญใน pipeline การพัฒนาชิป   • ช่วย generate layout, logic, simulation patterns   • ลดภาระงานซ้ำซ้อนให้วิศวกร ✅ บริษัท EDA ชั้นนำอย่าง Cadence และ Synopsys กำลังใส่ GenAI ในเครื่องมือของตัวเอง   • เป็นคลื่นเทคโนโลยีที่หลายผู้ผลิตชิปกำลังปรับตัวตาม ✅ Apple เคยทุ่มสุดตัวกับ Apple Silicon โดยไม่มีแผนสำรองตอนเปลี่ยนจาก Intel เป็น M1   • พร้อมพัฒนาระบบแปล x86 → Arm ผ่าน Rosetta 2 ✅ แนวโน้มของโลก: จีนกำลังพัฒนา CPU ที่ออกแบบโดย LLM ล้วน ๆ แล้วเช่นกัน   • เป็นการยืนยันว่า AI เริ่มเข้ามามีบทบาทตั้งแต่ระดับสถาปัตยกรรม ‼️ AI ยังไม่สามารถแทนที่วิศวกรออกแบบชิปได้เต็มตัวในปัจจุบัน   • ความเข้าใจเรื่องสถาปัตยกรรมและข้อจำกัดเชิงฟิสิกส์ยังต้องพึ่งมนุษย์ ‼️ การใช้ GenAI ในงานชิปต้องควบคุมคุณภาพสูง เพราะ error เล็กน้อยอาจทำให้ชิปทั้งตัวใช้ไม่ได้   • จึงต้องมีรอบตรวจสอบหลายชั้น แม้จะใช้ AI ร่วม ‼️ การพึ่งพา AI อย่างรวดเร็วใน R&D มีความเสี่ยงต่อการรั่วไหลของแนวคิดหรือทรัพย์สินทางปัญญา   • ต้องระวังในระดับการใช้งาน LLM ภายนอกที่อาจไม่ได้ควบคุมโมเดลเอง ‼️ แนวโน้มนี้จะเพิ่มการแข่งขันในตลาดชิปแบบ arm-on-silicon สูงขึ้น   • บริษัทที่ไม่เร่งใช้ AI ออกแบบ อาจตามไม่ทันรอบพัฒนาผลิตภัณฑ์ https://www.tomshardware.com/tech-industry/artificial-intelligence/apple-explores-using-generative-ai-to-design-its-chips-executive-says-it-can-be-a-huge-productivity-boost
    WWW.TOMSHARDWARE.COM
    Apple explores using generative AI to design its chips — executive says 'it can be a huge productivity boost'
    Generative AI in EDA tools will help Apple's silicon design teams run faster and more efficiently.
    0 Comments 0 Shares 209 Views 0 Reviews
  • คุณเคยเปิดเกมแล้วเจอฉากสวยๆ ที่ทำให้การ์ดจอคุณ “ทรุด” เพราะ VRAM เต็มไหมครับ? ข่าวดีคือ NTC หรือ Neural Texture Compression อาจเปลี่ยนเกมนี้ไปทั้งวงการ เพราะมันช่วยให้เรนเดอร์ texture ที่สมจริงได้โดยใช้หน่วยความจำกราฟิกน้อยลงมาก — ถึง 20 เท่าในบางกรณี!

    หลักการคือการใช้ AI neural network ที่ฝึกมาล่วงหน้าเพื่อบีบอัด (compress) และถอดรหัส (decompress) texture ใน real-time โดยคงรายละเอียดที่สายตามองเห็นว่า “คมเหมือนต้นฉบับ” แม้ข้อมูลต้นทางจะถูกลดทอนอย่างหนัก

    สื่อเทคโนโลยีชื่อ Compusemble ทำการทดสอบเทคโนโลยีนี้จาก Intel และ Nvidia แล้วพบผลลัพธ์น่าทึ่ง: จาก 272MB เหลือเพียง 11.37MB บน GPU และ ลดเวลาสร้างเฟรมจาก 5.77ms เหลือแค่ 0.11ms เมื่อใช้ Cooperative Vectors — ฟีเจอร์ใหม่ใน DirectX 12 ที่ช่วยเร่งการทำงาน AI บน GPU โดยไม่ล็อกอยู่กับค่ายใดค่ายหนึ่ง

    แม้ตอนนี้ยังไม่มีเกมพาณิชย์ที่รองรับ NTC เต็มตัว แต่การทดสอบนี้อาจเร่งให้ Unreal Engine, Unity หรือผู้ผลิตเกมอื่นนำไปใช้จริงในอนาคตอันใกล้

    ✅ Neural Texture Compression (NTC) คือเทคโนโลยีที่ใช้ AI ลดขนาด texture โดยแทบไม่ลดคุณภาพภาพ  
    • ใช้ neural network ที่ฝึกมาเฉพาะ  
    • บีบอัดและคืนค่าข้อมูล texture ระหว่างเรนเดอร์แบบ real-time

    ✅ NTC สามารถลดการใช้ VRAM ได้อย่างมหาศาล  
    • จากตัวอย่าง: 272MB → 11.37MB  
    • มีผลต่อความลื่นไหลในเกมระดับ 4K

    ✅ ต้องใช้พลังประมวลผลสูง จึงต้องอาศัยฟีเจอร์อย่าง Cooperative Vectors เพื่อให้รันได้เร็ว  
    • เป็นฟีเจอร์ใหม่ใน DirectX 12  
    • ช่วยเร่งงาน matrix computation ข้าม GPU หลายค่าย (cross-vendor)

    ✅ ผลทดสอบจริงจาก Compusemble พบว่าการใช้ Cooperative Vectors ลดเวลาสร้างเฟรมได้สูงถึง 98%  
    • จาก 5.77ms เหลือ 0.11ms ใน demo จาก Intel  
    • จาก 1.44ms เหลือ 0.74ms ใน demo จาก Nvidia

    ✅ เปิดโอกาสให้ GPU ที่มี VRAM จำกัดรันเกมระดับสูงได้ดีขึ้นในอนาคต  
    • เหมาะกับทั้งเกมใหม่ และการอัปเดตเกมเก่าเพื่อประสิทธิภาพดีขึ้น

    ‼️ เทคโนโลยี NTC ยังไม่ถูกใช้อย่างแพร่หลายในเกมจริง  
    • ปัจจุบันยังอยู่ใน demo/research stage เท่านั้น  
    • ต้องรอดูว่า engine ใหญ่ ๆ จะนำไปใช้ไหม

    ‼️ ต้องการการ์ดจอที่รองรับฟีเจอร์เฉพาะ (เช่น Cooperative Vectors)  
    • ยังไม่ชัดว่าการ์ดรุ่นใดบ้างจะรองรับในระยะยาว

    ‼️ การแปลง texture แบบ neural อาจลดความเที่ยงตรงในบางประเภทภาพ  
    • โดยเฉพาะกับเนื้อหาที่มีลวดลายซับซ้อน, เส้นคม, หรือเนื้อสัมผัสปลีกย่อย

    ‼️ ยังไม่มีมาตรฐานกลางสำหรับ NTC ข้ามค่ายระหว่าง Intel–Nvidia–AMD  
    • นักพัฒนาอาจต้องเลือกใช้ฟีเจอร์แบบล็อก vendor หรือสร้างระบบของตนเอง

    https://www.techspot.com/news/108371-neural-texture-compression-can-do-wonders-vram-usage.html
    คุณเคยเปิดเกมแล้วเจอฉากสวยๆ ที่ทำให้การ์ดจอคุณ “ทรุด” เพราะ VRAM เต็มไหมครับ? ข่าวดีคือ NTC หรือ Neural Texture Compression อาจเปลี่ยนเกมนี้ไปทั้งวงการ เพราะมันช่วยให้เรนเดอร์ texture ที่สมจริงได้โดยใช้หน่วยความจำกราฟิกน้อยลงมาก — ถึง 20 เท่าในบางกรณี! หลักการคือการใช้ AI neural network ที่ฝึกมาล่วงหน้าเพื่อบีบอัด (compress) และถอดรหัส (decompress) texture ใน real-time โดยคงรายละเอียดที่สายตามองเห็นว่า “คมเหมือนต้นฉบับ” แม้ข้อมูลต้นทางจะถูกลดทอนอย่างหนัก สื่อเทคโนโลยีชื่อ Compusemble ทำการทดสอบเทคโนโลยีนี้จาก Intel และ Nvidia แล้วพบผลลัพธ์น่าทึ่ง: จาก 272MB เหลือเพียง 11.37MB บน GPU และ ลดเวลาสร้างเฟรมจาก 5.77ms เหลือแค่ 0.11ms เมื่อใช้ Cooperative Vectors — ฟีเจอร์ใหม่ใน DirectX 12 ที่ช่วยเร่งการทำงาน AI บน GPU โดยไม่ล็อกอยู่กับค่ายใดค่ายหนึ่ง แม้ตอนนี้ยังไม่มีเกมพาณิชย์ที่รองรับ NTC เต็มตัว แต่การทดสอบนี้อาจเร่งให้ Unreal Engine, Unity หรือผู้ผลิตเกมอื่นนำไปใช้จริงในอนาคตอันใกล้ ✅ Neural Texture Compression (NTC) คือเทคโนโลยีที่ใช้ AI ลดขนาด texture โดยแทบไม่ลดคุณภาพภาพ   • ใช้ neural network ที่ฝึกมาเฉพาะ   • บีบอัดและคืนค่าข้อมูล texture ระหว่างเรนเดอร์แบบ real-time ✅ NTC สามารถลดการใช้ VRAM ได้อย่างมหาศาล   • จากตัวอย่าง: 272MB → 11.37MB   • มีผลต่อความลื่นไหลในเกมระดับ 4K ✅ ต้องใช้พลังประมวลผลสูง จึงต้องอาศัยฟีเจอร์อย่าง Cooperative Vectors เพื่อให้รันได้เร็ว   • เป็นฟีเจอร์ใหม่ใน DirectX 12   • ช่วยเร่งงาน matrix computation ข้าม GPU หลายค่าย (cross-vendor) ✅ ผลทดสอบจริงจาก Compusemble พบว่าการใช้ Cooperative Vectors ลดเวลาสร้างเฟรมได้สูงถึง 98%   • จาก 5.77ms เหลือ 0.11ms ใน demo จาก Intel   • จาก 1.44ms เหลือ 0.74ms ใน demo จาก Nvidia ✅ เปิดโอกาสให้ GPU ที่มี VRAM จำกัดรันเกมระดับสูงได้ดีขึ้นในอนาคต   • เหมาะกับทั้งเกมใหม่ และการอัปเดตเกมเก่าเพื่อประสิทธิภาพดีขึ้น ‼️ เทคโนโลยี NTC ยังไม่ถูกใช้อย่างแพร่หลายในเกมจริง   • ปัจจุบันยังอยู่ใน demo/research stage เท่านั้น   • ต้องรอดูว่า engine ใหญ่ ๆ จะนำไปใช้ไหม ‼️ ต้องการการ์ดจอที่รองรับฟีเจอร์เฉพาะ (เช่น Cooperative Vectors)   • ยังไม่ชัดว่าการ์ดรุ่นใดบ้างจะรองรับในระยะยาว ‼️ การแปลง texture แบบ neural อาจลดความเที่ยงตรงในบางประเภทภาพ   • โดยเฉพาะกับเนื้อหาที่มีลวดลายซับซ้อน, เส้นคม, หรือเนื้อสัมผัสปลีกย่อย ‼️ ยังไม่มีมาตรฐานกลางสำหรับ NTC ข้ามค่ายระหว่าง Intel–Nvidia–AMD   • นักพัฒนาอาจต้องเลือกใช้ฟีเจอร์แบบล็อก vendor หรือสร้างระบบของตนเอง https://www.techspot.com/news/108371-neural-texture-compression-can-do-wonders-vram-usage.html
    WWW.TECHSPOT.COM
    Neural Texture Compression demo shows it can do wonders for VRAM usage
    Neural Texture Compression (NTC) is a new technique that improves texture quality while reducing VRAM usage. It relies on a specialized neural network trained to compress and...
    0 Comments 0 Shares 141 Views 0 Reviews
  • Path Tracing คือเทคนิคเรนเดอร์ขั้นเทพของโลกเกม ที่ให้ผลลัพธ์แสง–เงาสมจริงขั้นสุด แต่มัน กินแรงเครื่องมหาศาล ทำให้แม้แต่ AAA เกมก็ยังใช้ได้แบบจำกัด

    Intel เลยพัฒนาเทคโนโลยีเพื่อให้ iGPU และ dGPU ราคาจับต้องได้สามารถรัน Path Tracing ได้จริง โดยใช้เทคนิคหลายด้าน ทั้ง:

    - Resampled Importance Sampling (RIS) แบบใหม่
    - Open Image Denoise 2 รุ่นล่าสุดที่ใช้ Neural Denoising
    - และ Neural Texture Compression (TSNC) ที่ช่วยลดภาระหน่วยความจำได้สูงสุด 47 เท่า

    พวกเขาทดสอบบนฉาก Jungle Ruins ขนาดใหญ่ แอนิเมชันซับซ้อน มีทุกอย่างทั้งต้นไม้, เงานุ่ม, พื้นผิวมัน และแสงสะท้อน — แถมใช้เพียง 1 Ray/Pixel และ 1 Sample/Pixel เท่านั้น! แล้วค่อย “ฟื้นคืนภาพ” ด้วยเทคนิค AI Denoising ที่ใกล้เคียงกับ NVIDIA Ray Reconstruction (DLSS 3.5/4) และ AMD Ray Regeneration (FSR 4 Redstone)

    Intel ยังเผยผลลัพธ์แบบตรง ๆ ว่า GPU Arc B580 รันได้ 30FPS ที่ 1440p พร้อมระบบ AI Denoising ที่จัดการกับปัญหายาก ๆ อย่าง เงา, แสงสะท้อน, Moiré pattern, และ ghosting ได้อย่างมีประสิทธิภาพ

    ✅ Intel โชว์เดโม Path Tracing “1 ล้านล้านสามเหลี่ยม” บน Arc B580 ที่ 1440p/30FPS  
    • ใช้การเรนเดอร์ 1 sample/pixel พร้อม AI denoising

    ✅ เทคนิคใหม่ Resampled Importance Sampling (RIS) ช่วยลด noise 10 เท่า  
    • จัด sample เป็น histogram + ใช้ quasi Monte Carlo + blue noise  
    • ลดภาระเรนเดอร์แต่ได้คุณภาพใกล้ภาพจริง

    ✅ Intel เปิดตัว Open Image Denoise 2 แบบ cross-vendor  
    • รองรับการ์ด Intel/NVIDIA/AMD ได้ทั้งหมด  
    • เตรียมใช้ neural network รุ่นใหม่ในเวอร์ชันถัดไป

    ✅ Denoiser รองรับหลายอาการยาก ๆ เช่น:  
    • เงา, แสงสะท้อน, flickering, moiré, ghosting, และ disocclusion  
    • ใช้ spatiotemporal joint neural model ที่ทั้ง denoise + supersample พร้อมกัน

    ✅ Intel ใช้ Neural Texture Compression (TSNC) + DirectX Cooperative Vectors  
    • ลดภาระการโหลด texture ได้ 47 เท่าเมื่อเทียบกับ FMA  
    • ความเร็วสูงกว่า BC6 baseline แบบเดิม

    ✅ Arc B580 และ Arc 140V ใช้ TSNC ได้แล้วในไดรเวอร์ล่าสุด  
    • ลดการใช้ VRAM และเพิ่มประสิทธิภาพชัดเจน

    ✅ เทคนิคนี้จะถูกนำไปใช้ใน iGPU รุ่นถัดไปด้วย (Lunar Lake และ Battlemage)  
    • ช่วยให้ iGPU ทำ Path Tracing ได้จริงจังขึ้น

    ‼️ เทคนิค denoising แบบ neural ต้องใช้ training ที่หลากหลายเพื่อให้ได้ผลดี  
    • หากข้อมูลเทรนไม่ครอบคลุม จะทำให้เกิด ghosting, flicker หรือเบลอผิดจุด

    ‼️ การรัน path tracing ด้วย 1 spp มี noise สูงมาก ก่อน denoising  
    • หากไม่ได้ใช้ AI ช่วยจะมองแทบไม่รู้เรื่อง

    ‼️ คุณภาพที่ได้ยังไม่เท่า real-time Path Tracing เต็มรูปแบบ เช่นของ DLSS 4 หรือ RTX GI แบบสมบูรณ์  
    • เหมาะกับผู้ที่ยอม trade-off บางอย่างเพื่อให้รันบนเครื่องเบาได้

    ‼️ ยังไม่มี roadmap ชัดเจนว่าความสามารถนี้จะถูกใส่ในเกมจริงเมื่อใด  
    • ต้องรอติดตามว่าจะมี Engine ใดนำไปใช้จริงบ้าง

    https://wccftech.com/intel-enabling-high-fidelity-visuals-faster-performance-on-built-in-gpus-demos-ray-reconstruction-path-tracing-arc-b580/
    Path Tracing คือเทคนิคเรนเดอร์ขั้นเทพของโลกเกม ที่ให้ผลลัพธ์แสง–เงาสมจริงขั้นสุด แต่มัน กินแรงเครื่องมหาศาล ทำให้แม้แต่ AAA เกมก็ยังใช้ได้แบบจำกัด Intel เลยพัฒนาเทคโนโลยีเพื่อให้ iGPU และ dGPU ราคาจับต้องได้สามารถรัน Path Tracing ได้จริง โดยใช้เทคนิคหลายด้าน ทั้ง: - Resampled Importance Sampling (RIS) แบบใหม่ - Open Image Denoise 2 รุ่นล่าสุดที่ใช้ Neural Denoising - และ Neural Texture Compression (TSNC) ที่ช่วยลดภาระหน่วยความจำได้สูงสุด 47 เท่า พวกเขาทดสอบบนฉาก Jungle Ruins ขนาดใหญ่ แอนิเมชันซับซ้อน มีทุกอย่างทั้งต้นไม้, เงานุ่ม, พื้นผิวมัน และแสงสะท้อน — แถมใช้เพียง 1 Ray/Pixel และ 1 Sample/Pixel เท่านั้น! แล้วค่อย “ฟื้นคืนภาพ” ด้วยเทคนิค AI Denoising ที่ใกล้เคียงกับ NVIDIA Ray Reconstruction (DLSS 3.5/4) และ AMD Ray Regeneration (FSR 4 Redstone) Intel ยังเผยผลลัพธ์แบบตรง ๆ ว่า GPU Arc B580 รันได้ 30FPS ที่ 1440p พร้อมระบบ AI Denoising ที่จัดการกับปัญหายาก ๆ อย่าง เงา, แสงสะท้อน, Moiré pattern, และ ghosting ได้อย่างมีประสิทธิภาพ ✅ Intel โชว์เดโม Path Tracing “1 ล้านล้านสามเหลี่ยม” บน Arc B580 ที่ 1440p/30FPS   • ใช้การเรนเดอร์ 1 sample/pixel พร้อม AI denoising ✅ เทคนิคใหม่ Resampled Importance Sampling (RIS) ช่วยลด noise 10 เท่า   • จัด sample เป็น histogram + ใช้ quasi Monte Carlo + blue noise   • ลดภาระเรนเดอร์แต่ได้คุณภาพใกล้ภาพจริง ✅ Intel เปิดตัว Open Image Denoise 2 แบบ cross-vendor   • รองรับการ์ด Intel/NVIDIA/AMD ได้ทั้งหมด   • เตรียมใช้ neural network รุ่นใหม่ในเวอร์ชันถัดไป ✅ Denoiser รองรับหลายอาการยาก ๆ เช่น:   • เงา, แสงสะท้อน, flickering, moiré, ghosting, และ disocclusion   • ใช้ spatiotemporal joint neural model ที่ทั้ง denoise + supersample พร้อมกัน ✅ Intel ใช้ Neural Texture Compression (TSNC) + DirectX Cooperative Vectors   • ลดภาระการโหลด texture ได้ 47 เท่าเมื่อเทียบกับ FMA   • ความเร็วสูงกว่า BC6 baseline แบบเดิม ✅ Arc B580 และ Arc 140V ใช้ TSNC ได้แล้วในไดรเวอร์ล่าสุด   • ลดการใช้ VRAM และเพิ่มประสิทธิภาพชัดเจน ✅ เทคนิคนี้จะถูกนำไปใช้ใน iGPU รุ่นถัดไปด้วย (Lunar Lake และ Battlemage)   • ช่วยให้ iGPU ทำ Path Tracing ได้จริงจังขึ้น ‼️ เทคนิค denoising แบบ neural ต้องใช้ training ที่หลากหลายเพื่อให้ได้ผลดี   • หากข้อมูลเทรนไม่ครอบคลุม จะทำให้เกิด ghosting, flicker หรือเบลอผิดจุด ‼️ การรัน path tracing ด้วย 1 spp มี noise สูงมาก ก่อน denoising   • หากไม่ได้ใช้ AI ช่วยจะมองแทบไม่รู้เรื่อง ‼️ คุณภาพที่ได้ยังไม่เท่า real-time Path Tracing เต็มรูปแบบ เช่นของ DLSS 4 หรือ RTX GI แบบสมบูรณ์   • เหมาะกับผู้ที่ยอม trade-off บางอย่างเพื่อให้รันบนเครื่องเบาได้ ‼️ ยังไม่มี roadmap ชัดเจนว่าความสามารถนี้จะถูกใส่ในเกมจริงเมื่อใด   • ต้องรอติดตามว่าจะมี Engine ใดนำไปใช้จริงบ้าง https://wccftech.com/intel-enabling-high-fidelity-visuals-faster-performance-on-built-in-gpus-demos-ray-reconstruction-path-tracing-arc-b580/
    WCCFTECH.COM
    Intel Talks How It Is Enabling High-Fidelity Visuals & Faster Performance on Built-in GPUs, Demos Ray Reconstruction-Like Denoiser For Path Tracing On Arc B580
    At SIGGRAPH & HPG 2025, Intel talked about its improvements to visual fidelity & performance for built-in and discrete GPUs.
    0 Comments 0 Shares 175 Views 0 Reviews
  • หลายคนรู้ว่าโลกของ SSD แรงขึ้นเรื่อย ๆ แต่ถ้าจะใช้ SSD Gen5 แบบเต็มสปีดหลายตัวพร้อมกัน คุณอาจต้องใช้ RAID Card ตัวใหญ่ ยาวเต็มเคส แถมต้องต่อสายไฟเฉพาะ... ซึ่งมันไม่เหมาะกับ Workstation ขนาดเล็กเลย

    นี่แหละคือจุดเด่นของ HighPoint Rocket 7604A ตัวนี้ มัน เล็กกว่ารุ่นเดิมครึ่งหนึ่ง (เมื่อเทียบกับ Rocket 1608A), ติดตั้งใน ช่อง PCIe แบบครึ่งการ์ด (half-length) และที่สำคัญ... ไม่ต้องใช้สายไฟเพิ่มเลย! รับพลังงานจาก PCIe Slot ได้พอสำหรับ SSD Gen5 ถึง 4 ตัว

    TweakTown ทดสอบแล้วพบว่า ด้วย SSD Samsung 9100 Pro 4 ตัว มันทำความเร็วได้ 59.8 GB/s (CrystalDiskMark) และ 54 GB/s บน ATTO! เป็นการ์ดแบบ 4 ช่อง Gen5 x4 ใช้ RAID Controller จาก Broadcom รุ่น PEX89048A

    การ์ดรองรับ RAID 0, RAID 1 ผ่าน Windows และ RAID 10 ผ่านซอฟต์แวร์ของ HighPoint เอง

    ✅ HighPoint Rocket 7604A เป็นการ์ด RAID PCIe Gen5 แบบครึ่งการ์ด (half-length)  
    • ใช้ได้ใน Workstation เล็ก  
    • ไม่ต้องต่อสายไฟเพิ่ม (powered by PCIe slot เท่านั้น)

    ✅ ความเร็วทะลุ 59.8 GB/s เมื่อใช้ SSD Gen5 4 ตัว (Samsung 9100 Pro)  
    • ทดสอบผ่าน CrystalDiskMark / ATTO / Anvil  
    • เร็วกว่า Rocket 1608A ที่ใช้ SSD 8 ตัวเสียอีก

    ✅ รองรับทั้งแพลตฟอร์ม Intel และ AMD  
    • Intel ทำคะแนนดีกว่าใน Anvil / Blackmagic  
    • AMD ดีกว่าในงาน file transfer บางประเภท

    ✅ ใช้งานได้กับทั้ง SSD Gen5 และ Gen4 (แต่อัตราเร่งจะลดลงถ้าใช้ Gen4)  
    • มีช่อง M.2 แบบ x4 ทั้งหมด 4 ช่อง

    ✅ ราคา $999 (ลดจาก $1,999 เดิม)  
    • ถูกกว่า 1608A แต่ประสิทธิภาพพอ ๆ กัน

    ✅ รองรับ RAID 0 / 1 (ผ่าน Windows) และ RAID 10 ผ่าน HighPoint Utility  
    • เหมาะกับผู้ใช้งานมืออาชีพด้าน video, 3D, AI inferencing

    ‼️ รองรับเฉพาะ SSD แบบ “Bare” เท่านั้น (ไม่มีฮีตซิงค์)  
    • ต้องระวังเรื่องความร้อน หรือหาวิธีเสริม cooling แบบเฉพาะทาง

    ‼️ แม้ไม่ต้องใช้สายไฟ แต่ไฟจาก PCIe slot อาจไม่พอถ้า SSD ใช้ไฟสูงผิดปกติ  
    • ต้องเลือก SSD ที่กินไฟตามสเปกมาตรฐาน

    ‼️ RAID นี้เป็น software RAID — ไม่ได้ทำ hardware RAID ในตัว  
    • ส่งผลให้มีภาระโหลด CPU บางส่วน

    ‼️ ไม่รองรับ ECC หรือฟีเจอร์ระดับ enterprise  
    • ยังไม่เหมาะกับ mission-critical แบบ data center ที่ต้องการ RAS

    https://www.techradar.com/pro/a-masterpiece-of-engineering-highpoint-storage-aic-is-expensive-but-at-60gbps-sequential-throughput-it-will-quench-almost-anyones-thirst-for-speed
    หลายคนรู้ว่าโลกของ SSD แรงขึ้นเรื่อย ๆ แต่ถ้าจะใช้ SSD Gen5 แบบเต็มสปีดหลายตัวพร้อมกัน คุณอาจต้องใช้ RAID Card ตัวใหญ่ ยาวเต็มเคส แถมต้องต่อสายไฟเฉพาะ... ซึ่งมันไม่เหมาะกับ Workstation ขนาดเล็กเลย นี่แหละคือจุดเด่นของ HighPoint Rocket 7604A ตัวนี้ มัน เล็กกว่ารุ่นเดิมครึ่งหนึ่ง (เมื่อเทียบกับ Rocket 1608A), ติดตั้งใน ช่อง PCIe แบบครึ่งการ์ด (half-length) และที่สำคัญ... ไม่ต้องใช้สายไฟเพิ่มเลย! รับพลังงานจาก PCIe Slot ได้พอสำหรับ SSD Gen5 ถึง 4 ตัว TweakTown ทดสอบแล้วพบว่า ด้วย SSD Samsung 9100 Pro 4 ตัว มันทำความเร็วได้ 59.8 GB/s (CrystalDiskMark) และ 54 GB/s บน ATTO! เป็นการ์ดแบบ 4 ช่อง Gen5 x4 ใช้ RAID Controller จาก Broadcom รุ่น PEX89048A การ์ดรองรับ RAID 0, RAID 1 ผ่าน Windows และ RAID 10 ผ่านซอฟต์แวร์ของ HighPoint เอง ✅ HighPoint Rocket 7604A เป็นการ์ด RAID PCIe Gen5 แบบครึ่งการ์ด (half-length)   • ใช้ได้ใน Workstation เล็ก   • ไม่ต้องต่อสายไฟเพิ่ม (powered by PCIe slot เท่านั้น) ✅ ความเร็วทะลุ 59.8 GB/s เมื่อใช้ SSD Gen5 4 ตัว (Samsung 9100 Pro)   • ทดสอบผ่าน CrystalDiskMark / ATTO / Anvil   • เร็วกว่า Rocket 1608A ที่ใช้ SSD 8 ตัวเสียอีก ✅ รองรับทั้งแพลตฟอร์ม Intel และ AMD   • Intel ทำคะแนนดีกว่าใน Anvil / Blackmagic   • AMD ดีกว่าในงาน file transfer บางประเภท ✅ ใช้งานได้กับทั้ง SSD Gen5 และ Gen4 (แต่อัตราเร่งจะลดลงถ้าใช้ Gen4)   • มีช่อง M.2 แบบ x4 ทั้งหมด 4 ช่อง ✅ ราคา $999 (ลดจาก $1,999 เดิม)   • ถูกกว่า 1608A แต่ประสิทธิภาพพอ ๆ กัน ✅ รองรับ RAID 0 / 1 (ผ่าน Windows) และ RAID 10 ผ่าน HighPoint Utility   • เหมาะกับผู้ใช้งานมืออาชีพด้าน video, 3D, AI inferencing ‼️ รองรับเฉพาะ SSD แบบ “Bare” เท่านั้น (ไม่มีฮีตซิงค์)   • ต้องระวังเรื่องความร้อน หรือหาวิธีเสริม cooling แบบเฉพาะทาง ‼️ แม้ไม่ต้องใช้สายไฟ แต่ไฟจาก PCIe slot อาจไม่พอถ้า SSD ใช้ไฟสูงผิดปกติ   • ต้องเลือก SSD ที่กินไฟตามสเปกมาตรฐาน ‼️ RAID นี้เป็น software RAID — ไม่ได้ทำ hardware RAID ในตัว   • ส่งผลให้มีภาระโหลด CPU บางส่วน ‼️ ไม่รองรับ ECC หรือฟีเจอร์ระดับ enterprise   • ยังไม่เหมาะกับ mission-critical แบบ data center ที่ต้องการ RAS https://www.techradar.com/pro/a-masterpiece-of-engineering-highpoint-storage-aic-is-expensive-but-at-60gbps-sequential-throughput-it-will-quench-almost-anyones-thirst-for-speed
    0 Comments 0 Shares 127 Views 0 Reviews
  • จำ MI300A ได้ไหมครับ? มันคือ APU (CPU+GPU รวมกัน) สำหรับ AI และ HPC ที่ AMD เคยเปิดตัวแรง ๆ ไปเมื่อปีก่อน แต่ปีนี้ AMD กลับมาบอกว่า “พอแล้ว!” เพราะการรวมทุกอย่างไว้ชิปเดียวอาจจะดูสะดวก แต่มัน ไม่เหมาะกับการขยายขนาดระบบขนาดใหญ่แบบศูนย์ข้อมูล

    เลยกลายเป็นว่า MI355X ซึ่งเป็น GPU ตัวท็อปรุ่นใหม่ของ AMD จะใช้แนวคิดแบบ “แยกส่วน (modular)” เต็มตัว คือไม่มี CPU มาปะปน ทำให้การจัดวางใน rack data center, การระบายความร้อน และการเชื่อมต่อแบบ rack-scale มีความยืดหยุ่นสูงกว่ามาก

    และ MI355X ก็ไม่ได้มาเล่น ๆ เพราะใช้สถาปัตยกรรม CDNA 4 ใหม่, ผลิตด้วยชิป TSMC N3P (3nm class), มี 8 die ย่อย เชื่อมกันผ่านระบบ interconnect ใหม่, มีแรม HBM3E ถึง 288GB, แบนด์วิธรวม 8TB/s (เหนือกว่ Nvidia B200 และ GB200), รองรับ FP4/FP6 สำหรับ inference และใช้ไฟสูงสุด 1,400W แบบ liquid-cooled!

    เป้าหมายคือให้ลูกค้าสามารถวาง GPU ได้สูงสุด 128 ตัวต่อ rack เพื่อรันงาน AI training/inference ขนาดยักษ์ได้แบบคุ้มต้นทุนต่อวัตต์ โดย AMD เคลมว่า inference performance ดีกว่า Nvidia GB200 ประมาณ 20–30% เลยทีเดียว

    https://www.techradar.com/pro/amd-unveils-puzzling-new-mi355x-ai-gpu-as-it-acknowledges-there-wont-be-any-ai-apu-for-now
    จำ MI300A ได้ไหมครับ? มันคือ APU (CPU+GPU รวมกัน) สำหรับ AI และ HPC ที่ AMD เคยเปิดตัวแรง ๆ ไปเมื่อปีก่อน แต่ปีนี้ AMD กลับมาบอกว่า “พอแล้ว!” เพราะการรวมทุกอย่างไว้ชิปเดียวอาจจะดูสะดวก แต่มัน ไม่เหมาะกับการขยายขนาดระบบขนาดใหญ่แบบศูนย์ข้อมูล เลยกลายเป็นว่า MI355X ซึ่งเป็น GPU ตัวท็อปรุ่นใหม่ของ AMD จะใช้แนวคิดแบบ “แยกส่วน (modular)” เต็มตัว คือไม่มี CPU มาปะปน ทำให้การจัดวางใน rack data center, การระบายความร้อน และการเชื่อมต่อแบบ rack-scale มีความยืดหยุ่นสูงกว่ามาก และ MI355X ก็ไม่ได้มาเล่น ๆ เพราะใช้สถาปัตยกรรม CDNA 4 ใหม่, ผลิตด้วยชิป TSMC N3P (3nm class), มี 8 die ย่อย เชื่อมกันผ่านระบบ interconnect ใหม่, มีแรม HBM3E ถึง 288GB, แบนด์วิธรวม 8TB/s (เหนือกว่ Nvidia B200 และ GB200), รองรับ FP4/FP6 สำหรับ inference และใช้ไฟสูงสุด 1,400W แบบ liquid-cooled! เป้าหมายคือให้ลูกค้าสามารถวาง GPU ได้สูงสุด 128 ตัวต่อ rack เพื่อรันงาน AI training/inference ขนาดยักษ์ได้แบบคุ้มต้นทุนต่อวัตต์ โดย AMD เคลมว่า inference performance ดีกว่า Nvidia GB200 ประมาณ 20–30% เลยทีเดียว https://www.techradar.com/pro/amd-unveils-puzzling-new-mi355x-ai-gpu-as-it-acknowledges-there-wont-be-any-ai-apu-for-now
    WWW.TECHRADAR.COM
    AMD drops APU design in favor of GPU-only MI355X for advanced AI infrastructure
    AMD claims 1.2X-1.3X inference lead over Nvidia's B200 and GB200 offerings
    0 Comments 0 Shares 138 Views 0 Reviews
  • FSR หรือ FidelityFX Super Resolution ของ AMD เป็นเทคโนโลยี upscaling แบบ AI ช่วยให้เกมรันที่เฟรมเรตสูงขึ้นบนความละเอียดสูง โดยยังรักษาคุณภาพภาพให้ดูชัดใกล้เคียง 4K แท้ ๆ ซึ่งคู่แข่งของมันคือ DLSS ของ NVIDIA ที่มี Tensor Core พิเศษอยู่บนการ์ด

    ปัญหาคือ… FSR 4 (รุ่นล่าสุด) ยังรองรับเฉพาะการ์ดจอ RX 9000 ซีรีส์ที่มีฮาร์ดแวร์ใหม่ที่ใช้ FP8 (floating point 8-bit) แต่ผู้ใช้งาน Reddit นามว่า Virtual-Cobbler-9930 พบว่า Mesa เวอร์ชันล่าสุดบน Linux สามารถ “จำลอง” ความสามารถ FP8 ด้วย FP16 แทน ทำให้ RX 7900 XTX (รุ่นปีที่แล้ว) สามารถใช้งาน FSR 4 ได้!

    เค้าใช้เครื่องมือชื่อ OptiScaler DLL injection ซึ่งแต่เดิมเคยใช้บังคับให้เกมรองรับ DLSS 2 หรือ XeSS ได้ แล้วใช้คำสั่งไม่กี่บรรทัดก็เปิดใช้งาน FSR 4 ในเกมต่าง ๆ ได้เลย

    ทดสอบแล้วพบว่าเกมอย่าง Cyberpunk 2077, Oblivion, และ Marvel Rivals รันได้จริง — โดยเฉพาะ Cyberpunk ได้ภาพที่คมกว่าตอนใช้ FSR 3.1 เยอะเลยครับ (ใบไม้ พุ่มไม้ ชัดขึ้น) แม้จะแลกกับ fps ที่ตกไป 33% จาก 85 เหลือ 56 — ซึ่งก็ยังเล่นได้ลื่นอยู่

    ✅ ผู้ใช้ Reddit ดัดแปลงให้ RX 7900 XTX ใช้งาน FSR 4 ได้ โดยไม่รองรับจาก AMD โดยตรง  
    • ใช้ Mesa ใหม่บน Linux ที่จำลอง FP8 ผ่าน FP16  
    • ใช้ OptiScaler DLL injection บังคับให้เกมรองรับ FSR 4

    ✅ ทดสอบแล้วทำงานได้จริงในเกมดัง เช่น Cyberpunk 2077 และ Oblivion  
    • คุณภาพดีขึ้นกว่าตอนใช้ FSR 3.1  
    • ภาพชัดขึ้น โดยเฉพาะ detail พุ่มไม้และใบไม้

    ✅ การลด fps มีอยู่แต่ยังอยู่ในระดับเล่นได้  
    • Cyberpunk: จาก 85 → 56 fps  
    • Oblivion: จาก 46 → 36 fps

    ✅ ผู้ใช้ทดสอบด้วย Ryzen 7 7700X (จำกัดไฟแค่ 65W), 128GB DDR5 บน Arch Linux  
    • แสดงว่าระบบไม่ต้องแรงแบบสุดทางก็เปิดใช้ได้

    ✅ คาดว่าภายในเดือนสิงหาคม Mesa จะออกเวอร์ชันเสถียรที่รวม patch นี้อัตโนมัติ  
    • เว้นแต่ว่า AMD จะขอให้ปิดฟีเจอร์นี้ออกจากโค้ด

    ‼️ FSR 4 ที่ดัดแปลงใช้งานนี้ “ไม่ได้รับการรับรอง” จาก AMD  
    • อาจมีบั๊ก ความไม่เข้ากัน หรือประสิทธิภาพไม่เสถียร

    ‼️ การฉีด DLL (DLL injection) อาจถูกแอนตี้ไวรัสหรือระบบความปลอดภัยมองว่าเป็นภัย  
    • ควรใช้อย่างระมัดระวัง โดยเฉพาะกับเกมที่มีระบบต่อต้านโกง

    ‼️ คุณภาพที่ได้สูงขึ้น แต่ถ้ารันความละเอียดต่ำกว่า 4K เช่น 1080p จะไม่มีประโยชน์ชัดเจน  
    • เหมาะสำหรับผู้ที่เล่นเกมระดับ 4K เท่านั้น

    ‼️ อาจส่งผลกระทบต่อท่าทีของ AMD ต่อชุมชนนักพัฒนา  
    • หาก AMD เห็นว่าการดัดแปลงนี้ขัดกับแนวทางบริษัท อาจสั่งถอนฟีเจอร์ออกจาก Mesa

    https://www.tomshardware.com/pc-components/gpus/enthusiast-hacks-fsr-4-onto-rx-7000-series-gpu-without-official-amd-support-returns-better-quality-but-slightly-lower-fps-than-fsr-3-1
    FSR หรือ FidelityFX Super Resolution ของ AMD เป็นเทคโนโลยี upscaling แบบ AI ช่วยให้เกมรันที่เฟรมเรตสูงขึ้นบนความละเอียดสูง โดยยังรักษาคุณภาพภาพให้ดูชัดใกล้เคียง 4K แท้ ๆ ซึ่งคู่แข่งของมันคือ DLSS ของ NVIDIA ที่มี Tensor Core พิเศษอยู่บนการ์ด ปัญหาคือ… FSR 4 (รุ่นล่าสุด) ยังรองรับเฉพาะการ์ดจอ RX 9000 ซีรีส์ที่มีฮาร์ดแวร์ใหม่ที่ใช้ FP8 (floating point 8-bit) แต่ผู้ใช้งาน Reddit นามว่า Virtual-Cobbler-9930 พบว่า Mesa เวอร์ชันล่าสุดบน Linux สามารถ “จำลอง” ความสามารถ FP8 ด้วย FP16 แทน ทำให้ RX 7900 XTX (รุ่นปีที่แล้ว) สามารถใช้งาน FSR 4 ได้! เค้าใช้เครื่องมือชื่อ OptiScaler DLL injection ซึ่งแต่เดิมเคยใช้บังคับให้เกมรองรับ DLSS 2 หรือ XeSS ได้ แล้วใช้คำสั่งไม่กี่บรรทัดก็เปิดใช้งาน FSR 4 ในเกมต่าง ๆ ได้เลย ทดสอบแล้วพบว่าเกมอย่าง Cyberpunk 2077, Oblivion, และ Marvel Rivals รันได้จริง — โดยเฉพาะ Cyberpunk ได้ภาพที่คมกว่าตอนใช้ FSR 3.1 เยอะเลยครับ (ใบไม้ พุ่มไม้ ชัดขึ้น) แม้จะแลกกับ fps ที่ตกไป 33% จาก 85 เหลือ 56 — ซึ่งก็ยังเล่นได้ลื่นอยู่ ✅ ผู้ใช้ Reddit ดัดแปลงให้ RX 7900 XTX ใช้งาน FSR 4 ได้ โดยไม่รองรับจาก AMD โดยตรง   • ใช้ Mesa ใหม่บน Linux ที่จำลอง FP8 ผ่าน FP16   • ใช้ OptiScaler DLL injection บังคับให้เกมรองรับ FSR 4 ✅ ทดสอบแล้วทำงานได้จริงในเกมดัง เช่น Cyberpunk 2077 และ Oblivion   • คุณภาพดีขึ้นกว่าตอนใช้ FSR 3.1   • ภาพชัดขึ้น โดยเฉพาะ detail พุ่มไม้และใบไม้ ✅ การลด fps มีอยู่แต่ยังอยู่ในระดับเล่นได้   • Cyberpunk: จาก 85 → 56 fps   • Oblivion: จาก 46 → 36 fps ✅ ผู้ใช้ทดสอบด้วย Ryzen 7 7700X (จำกัดไฟแค่ 65W), 128GB DDR5 บน Arch Linux   • แสดงว่าระบบไม่ต้องแรงแบบสุดทางก็เปิดใช้ได้ ✅ คาดว่าภายในเดือนสิงหาคม Mesa จะออกเวอร์ชันเสถียรที่รวม patch นี้อัตโนมัติ   • เว้นแต่ว่า AMD จะขอให้ปิดฟีเจอร์นี้ออกจากโค้ด ‼️ FSR 4 ที่ดัดแปลงใช้งานนี้ “ไม่ได้รับการรับรอง” จาก AMD   • อาจมีบั๊ก ความไม่เข้ากัน หรือประสิทธิภาพไม่เสถียร ‼️ การฉีด DLL (DLL injection) อาจถูกแอนตี้ไวรัสหรือระบบความปลอดภัยมองว่าเป็นภัย   • ควรใช้อย่างระมัดระวัง โดยเฉพาะกับเกมที่มีระบบต่อต้านโกง ‼️ คุณภาพที่ได้สูงขึ้น แต่ถ้ารันความละเอียดต่ำกว่า 4K เช่น 1080p จะไม่มีประโยชน์ชัดเจน   • เหมาะสำหรับผู้ที่เล่นเกมระดับ 4K เท่านั้น ‼️ อาจส่งผลกระทบต่อท่าทีของ AMD ต่อชุมชนนักพัฒนา   • หาก AMD เห็นว่าการดัดแปลงนี้ขัดกับแนวทางบริษัท อาจสั่งถอนฟีเจอร์ออกจาก Mesa https://www.tomshardware.com/pc-components/gpus/enthusiast-hacks-fsr-4-onto-rx-7000-series-gpu-without-official-amd-support-returns-better-quality-but-slightly-lower-fps-than-fsr-3-1
    0 Comments 0 Shares 156 Views 0 Reviews
  • หลังเปิดตัวที่ Computex ไปอย่างน่าตื่นเต้น คราวนี้ AMD เผยผลทดสอบจริงของ Ryzen Threadripper 9000 ซีรีส์แล้ว โดยแบ่งเป็น 2 กลุ่มหลักคือ รุ่นธรรมดา HEDT (X) และ รุ่นระดับมือโปร (WX)

    รุ่นท็อป Threadripper Pro 9995WX จัดเต็ม 96 คอร์ 192 เธรด! แถมมี Boost Clock สูงสุด 5.45 GHz พร้อม L3 Cache 384MB และ PCIe 5.0 ถึง 128 เลน — ข้อมูลที่น่าสนใจคือ AMD เคลมว่าสามารถ “ทำงานเร็วกว่า Xeon W9-3595X สูงสุดถึง 145%” ในงานเรนเดอร์ V-Ray

    ในงานสร้างสรรค์และ AI ก็แรงไม่แพ้กัน เช่น เร็วกว่า 49% ใน LLM ของ DeepSeek R1 32B และเร็วกว่า 28% ในงาน AI video editing บน DaVinci Resolve

    นอกจากนี้ รุ่น HEDT สำหรับนักสร้างคอนเทนต์ทั่วไป เช่น Threadripper 9980X ก็ทำผลงานดีกว่า Xeon ตัวเดียวกันถึง 108% บน Corona Render, 65% เร็วกว่าใน Unreal Engine และ 22% ใน Premiere Pro

    ฝั่ง AMD ยังไม่บอกราคา แต่เตรียมวางขายในเดือนกรกฎาคมนี้ และสู้กันชัด ๆ กับ Xeon W9 และ Xeon Pro เจเนอเรชันล่าสุดจาก Intel ที่เริ่มเปิดตัวในปีนี้เหมือนกัน

    ✅ AMD เผย Benchmark อย่างเป็นทางการของ Ryzen Threadripper 9000 ซีรีส์  
    • ครอบคลุมทั้งกลุ่ม HEDT (X) และ Workstation Pro (WX)  
    • เทียบกับ Intel Xeon W9-3595X ในหลายงานทั้งสร้างสรรค์ วิศวกรรม และ AI

    ✅ Threadripper 9980X (HEDT)  • เร็วกว่าคู่แข่ง Xeon W9-3595X:   
    • 108% บน Corona Render   
    • 65% ใน Unreal Engine build   
    • 41% บน Autodesk Revit   
    • 22% บน Adobe Premiere Pro

    ✅ Threadripper Pro 9995WX (Workstation)  
    • เร็วกว่า Threadripper 7995WX รุ่นก่อนหน้า:   
    • 26% บน After Effects   
    • 20% บน V-Ray   
    • 19% บน Cinebench nT

    ✅ ด้าน AI/LLM/Creative มี performance เหนือกว่า Xeon  
    • 49% เร็วกว่าใน DeepSeek R1 (LLM 32B)  
    • 34% เร็วกว่าในการสร้างภาพ (text-to-image) ด้วย Flux.1 + ComfyUI  
    • 28% เร็วกว่าใน DaVinci Resolve (AI assisted creation)  
    • 119–145% เร็วกว่าใน V-Ray และ Keyshot

    ✅ รายละเอียดสเปก Threadripper Pro 9995WX  
    • 96 คอร์ / 192 เธรด / Boost 5.45GHz  
    • TDP 350W / L3 Cache 384MB / PCIe 5.0 x128 lanes  
    • รองรับ DDR5-6400 ECC

    ✅ มีทั้งหมด 10 รุ่นย่อย: 7 รุ่น WX / 3 รุ่น X (non-Pro)  
    • วางขายกรกฎาคม 2025  
    • ราคายังไม่เปิดเผย

    ‼️ Benchmark ทั้งหมดมาจาก AMD โดยตรง — ต้องรอการทดสอบอิสระเพื่อยืนยัน  
    • ตัวเลขที่ AMD ให้มักมาจาก workloads เฉพาะทาง  
    • อาจไม่สะท้อนประสิทธิภาพจริงในงานทั่วไป

    ‼️ TDP 350W อาจต้องใช้ระบบระบายความร้อนขั้นสูง  
    • โดยเฉพาะหากใช้ในการเรนเดอร์หรือ AI inferencing ต่อเนื่อง

    ‼️ ยังไม่มีข้อมูลเรื่องราคาหรือ availability ในตลาดทั่วไป  
    • อาจเริ่มจากเวิร์กสเตชันแบรนด์ OEM ก่อน เช่น Dell, Lenovo

    ‼️ รุ่น Workstation ต้องใช้แพลตฟอร์มเฉพาะ เช่น WRX90 ซึ่งแพงและมีข้อจำกัดมากกว่า consumer CPU  
    • ไม่สามารถใช้ร่วมกับเมนบอร์ดทั่วไปได้

    https://www.techspot.com/news/108362-amd-claims-ryzen-threadripper-9000-up-145-faster.html
    หลังเปิดตัวที่ Computex ไปอย่างน่าตื่นเต้น คราวนี้ AMD เผยผลทดสอบจริงของ Ryzen Threadripper 9000 ซีรีส์แล้ว โดยแบ่งเป็น 2 กลุ่มหลักคือ รุ่นธรรมดา HEDT (X) และ รุ่นระดับมือโปร (WX) รุ่นท็อป Threadripper Pro 9995WX จัดเต็ม 96 คอร์ 192 เธรด! แถมมี Boost Clock สูงสุด 5.45 GHz พร้อม L3 Cache 384MB และ PCIe 5.0 ถึง 128 เลน — ข้อมูลที่น่าสนใจคือ AMD เคลมว่าสามารถ “ทำงานเร็วกว่า Xeon W9-3595X สูงสุดถึง 145%” ในงานเรนเดอร์ V-Ray ในงานสร้างสรรค์และ AI ก็แรงไม่แพ้กัน เช่น เร็วกว่า 49% ใน LLM ของ DeepSeek R1 32B และเร็วกว่า 28% ในงาน AI video editing บน DaVinci Resolve นอกจากนี้ รุ่น HEDT สำหรับนักสร้างคอนเทนต์ทั่วไป เช่น Threadripper 9980X ก็ทำผลงานดีกว่า Xeon ตัวเดียวกันถึง 108% บน Corona Render, 65% เร็วกว่าใน Unreal Engine และ 22% ใน Premiere Pro ฝั่ง AMD ยังไม่บอกราคา แต่เตรียมวางขายในเดือนกรกฎาคมนี้ และสู้กันชัด ๆ กับ Xeon W9 และ Xeon Pro เจเนอเรชันล่าสุดจาก Intel ที่เริ่มเปิดตัวในปีนี้เหมือนกัน ✅ AMD เผย Benchmark อย่างเป็นทางการของ Ryzen Threadripper 9000 ซีรีส์   • ครอบคลุมทั้งกลุ่ม HEDT (X) และ Workstation Pro (WX)   • เทียบกับ Intel Xeon W9-3595X ในหลายงานทั้งสร้างสรรค์ วิศวกรรม และ AI ✅ Threadripper 9980X (HEDT)  • เร็วกว่าคู่แข่ง Xeon W9-3595X:    • 108% บน Corona Render    • 65% ใน Unreal Engine build    • 41% บน Autodesk Revit    • 22% บน Adobe Premiere Pro ✅ Threadripper Pro 9995WX (Workstation)   • เร็วกว่า Threadripper 7995WX รุ่นก่อนหน้า:    • 26% บน After Effects    • 20% บน V-Ray    • 19% บน Cinebench nT ✅ ด้าน AI/LLM/Creative มี performance เหนือกว่า Xeon   • 49% เร็วกว่าใน DeepSeek R1 (LLM 32B)   • 34% เร็วกว่าในการสร้างภาพ (text-to-image) ด้วย Flux.1 + ComfyUI   • 28% เร็วกว่าใน DaVinci Resolve (AI assisted creation)   • 119–145% เร็วกว่าใน V-Ray และ Keyshot ✅ รายละเอียดสเปก Threadripper Pro 9995WX   • 96 คอร์ / 192 เธรด / Boost 5.45GHz   • TDP 350W / L3 Cache 384MB / PCIe 5.0 x128 lanes   • รองรับ DDR5-6400 ECC ✅ มีทั้งหมด 10 รุ่นย่อย: 7 รุ่น WX / 3 รุ่น X (non-Pro)   • วางขายกรกฎาคม 2025   • ราคายังไม่เปิดเผย ‼️ Benchmark ทั้งหมดมาจาก AMD โดยตรง — ต้องรอการทดสอบอิสระเพื่อยืนยัน   • ตัวเลขที่ AMD ให้มักมาจาก workloads เฉพาะทาง   • อาจไม่สะท้อนประสิทธิภาพจริงในงานทั่วไป ‼️ TDP 350W อาจต้องใช้ระบบระบายความร้อนขั้นสูง   • โดยเฉพาะหากใช้ในการเรนเดอร์หรือ AI inferencing ต่อเนื่อง ‼️ ยังไม่มีข้อมูลเรื่องราคาหรือ availability ในตลาดทั่วไป   • อาจเริ่มจากเวิร์กสเตชันแบรนด์ OEM ก่อน เช่น Dell, Lenovo ‼️ รุ่น Workstation ต้องใช้แพลตฟอร์มเฉพาะ เช่น WRX90 ซึ่งแพงและมีข้อจำกัดมากกว่า consumer CPU   • ไม่สามารถใช้ร่วมกับเมนบอร์ดทั่วไปได้ https://www.techspot.com/news/108362-amd-claims-ryzen-threadripper-9000-up-145-faster.html
    WWW.TECHSPOT.COM
    AMD claims Ryzen Threadripper 9000 is up to 145% faster than Intel Xeon
    According to AMD, the Threadripper 9980X HEDT processor is up to 108 percent faster than the Xeon W9-3595X in Corona Render, up to 41 percent faster in...
    0 Comments 0 Shares 150 Views 0 Reviews
  • Intel เตรียมเปิดตัว Nova Lake-S รุ่นถัดไปของซีพียูฝั่งเดสก์ท็อปใน ครึ่งหลังของปี 2026 ที่มาพร้อมแนวคิดใหม่ทั้งด้าน “สถาปัตยกรรม” และ “ขุมพลัง” ตัวท็อป Core Ultra 9 385K จะมีถึง 52 คอร์! โดยแบ่งเป็น 16 คอร์แรงจัด (P-core), 32 คอร์ประหยัด (E-core) และ 4 คอร์พลังต่ำพิเศษ (LPE-core) เรียกว่าเป็นการกระโดดจากรุ่นปัจจุบันที่มีสูงสุดแค่ 24 คอร์ แบบไม่เห็นฝุ่น

    แต่ที่น่าสนใจไม่แพ้กันคือการเปลี่ยนผ่านไปสู่ “ระบบแยกแผ่น (tile-based)” ซึ่งแต่ละกลุ่มคอร์จะถูกวางอยู่บนไดแยกกัน คล้ายกับแนวคิดของชิป Apple M-Series หรือ AMD 3D V-Cache เพื่อให้บริหารพลังงานและประสิทธิภาพได้แบบละเอียดสุด ๆ

    Intel ยังใส่ใจสายกราฟิกด้วยการแยกส่วน iGPU ออกเป็นสองกลุ่มชัดเจน: Xe3 “Celestial” สำหรับเรนเดอร์ และ Xe4 “Druid” สำหรับวิดีโอ/จอภาพ — ลดภาระเครื่องและเพิ่มเฟรมเรตสำหรับทั้งงานสร้างสรรค์และเกม

    Nova Lake-S ยังมาพร้อมแพลตฟอร์มใหม่หมด ตั้งแต่ LGA 1854 Socket, แรม DDR5 8000+ MT/s, ไปจนถึง 48 เลน PCIe และระบบ USB/SATA แบบขยายเต็มพิกัด

    ✅ Nova Lake-S จะเป็นซีรีส์เดสก์ท็อปใหม่ของ Intel ที่เปลี่ยนแปลงสถาปัตยกรรมครั้งใหญ่  
    • เริ่มวางจำหน่ายครึ่งหลังปี 2026  
    • ใช้ดีไซน์แบบ tile-based คล้ายกับชิปยุคใหม่ เช่น Meteor Lake

    ✅ Core Ultra 9 385K: มีสูงสุดถึง 52 คอร์!  
    • แบ่งเป็น: 16 P-core + 32 E-core + 4 LPE-core  
    • เปรียบเทียบแล้วมากกว่ารุ่นก่อน (24 คอร์) เกินเท่าตัว

    ✅ ซีรีส์อื่นก็แรงไม่แพ้กัน  
    • Core Ultra 7: 42 คอร์  
    • Core Ultra 5: มีตั้งแต่ 18 ถึง 28 คอร์  
    • Core Ultra 3: รุ่นเล็กสุดยังมีถึง 16 คอร์ (พร้อม LPE-core)

    ✅ แรมและสถาปัตยกรรมใหม่  
    • รองรับ DDR5 สูงสุด 8000 MT/s และอาจไปถึง 10,000+ MT/s  
    • ใช้ Socket ใหม่ LGA 1854 และชิปเซต 900 ซีรีส์

    ✅ ระบบกราฟิกในตัวแบบไฮบริด แยกเรนเดอร์/วิดีโอ  
    • Xe3 “Celestial” สำหรับเกมและกราฟิก  
    • Xe4 “Druid” สำหรับวิดีโอและจอภาพ

    ✅ เป้าหมาย: สู้กับ AMD Zen 6 แบบจัง ๆ  
    • Intel มุ่งหวังทวงบัลลังก์ซีพียูเดสก์ท็อปคืนจากคู่แข่ง

    ‼️ ต้องเปลี่ยนเมนบอร์ดใหม่เพื่อใช้ Nova Lake-S  
    • ใช้ LGA 1854 socket และชิปเซตรุ่นใหม่ทั้งหมด  
    • ไม่สามารถใช้งานร่วมกับเมนบอร์ดปัจจุบัน

    ‼️ ยังไม่มีการทดสอบจริง — ตัวเลขทั้งหมดมาจาก “ข่าวหลุด”  
    • ต้องรอ benchmark และประสิทธิภาพจริงจากผู้ผลิตหรือผู้ใช้งาน

    ‼️ จำนวนคอร์ที่มากขึ้นอาจไม่ใช่คำตอบเสมอไป  
    • ถ้าซอฟต์แวร์ไม่ปรับให้รองรับการทำงานแบบ multi-thread อาจไม่ใช้ทรัพยากรได้คุ้มค่า

    ‼️ TDP ระดับ 150W บ่งชี้ว่าอาจต้องระบบระบายความร้อนที่มีประสิทธิภาพมากขึ้น  
    • โดยเฉพาะรุ่น Core Ultra 9 / 7 ที่มีคอร์จำนวนมาก

    https://www.techspot.com/news/108337-intel-nova-lake-s-cpus-bring-massive-architectural.html
    Intel เตรียมเปิดตัว Nova Lake-S รุ่นถัดไปของซีพียูฝั่งเดสก์ท็อปใน ครึ่งหลังของปี 2026 ที่มาพร้อมแนวคิดใหม่ทั้งด้าน “สถาปัตยกรรม” และ “ขุมพลัง” ตัวท็อป Core Ultra 9 385K จะมีถึง 52 คอร์! โดยแบ่งเป็น 16 คอร์แรงจัด (P-core), 32 คอร์ประหยัด (E-core) และ 4 คอร์พลังต่ำพิเศษ (LPE-core) เรียกว่าเป็นการกระโดดจากรุ่นปัจจุบันที่มีสูงสุดแค่ 24 คอร์ แบบไม่เห็นฝุ่น แต่ที่น่าสนใจไม่แพ้กันคือการเปลี่ยนผ่านไปสู่ “ระบบแยกแผ่น (tile-based)” ซึ่งแต่ละกลุ่มคอร์จะถูกวางอยู่บนไดแยกกัน คล้ายกับแนวคิดของชิป Apple M-Series หรือ AMD 3D V-Cache เพื่อให้บริหารพลังงานและประสิทธิภาพได้แบบละเอียดสุด ๆ Intel ยังใส่ใจสายกราฟิกด้วยการแยกส่วน iGPU ออกเป็นสองกลุ่มชัดเจน: Xe3 “Celestial” สำหรับเรนเดอร์ และ Xe4 “Druid” สำหรับวิดีโอ/จอภาพ — ลดภาระเครื่องและเพิ่มเฟรมเรตสำหรับทั้งงานสร้างสรรค์และเกม Nova Lake-S ยังมาพร้อมแพลตฟอร์มใหม่หมด ตั้งแต่ LGA 1854 Socket, แรม DDR5 8000+ MT/s, ไปจนถึง 48 เลน PCIe และระบบ USB/SATA แบบขยายเต็มพิกัด ✅ Nova Lake-S จะเป็นซีรีส์เดสก์ท็อปใหม่ของ Intel ที่เปลี่ยนแปลงสถาปัตยกรรมครั้งใหญ่   • เริ่มวางจำหน่ายครึ่งหลังปี 2026   • ใช้ดีไซน์แบบ tile-based คล้ายกับชิปยุคใหม่ เช่น Meteor Lake ✅ Core Ultra 9 385K: มีสูงสุดถึง 52 คอร์!   • แบ่งเป็น: 16 P-core + 32 E-core + 4 LPE-core   • เปรียบเทียบแล้วมากกว่ารุ่นก่อน (24 คอร์) เกินเท่าตัว ✅ ซีรีส์อื่นก็แรงไม่แพ้กัน   • Core Ultra 7: 42 คอร์   • Core Ultra 5: มีตั้งแต่ 18 ถึง 28 คอร์   • Core Ultra 3: รุ่นเล็กสุดยังมีถึง 16 คอร์ (พร้อม LPE-core) ✅ แรมและสถาปัตยกรรมใหม่   • รองรับ DDR5 สูงสุด 8000 MT/s และอาจไปถึง 10,000+ MT/s   • ใช้ Socket ใหม่ LGA 1854 และชิปเซต 900 ซีรีส์ ✅ ระบบกราฟิกในตัวแบบไฮบริด แยกเรนเดอร์/วิดีโอ   • Xe3 “Celestial” สำหรับเกมและกราฟิก   • Xe4 “Druid” สำหรับวิดีโอและจอภาพ ✅ เป้าหมาย: สู้กับ AMD Zen 6 แบบจัง ๆ   • Intel มุ่งหวังทวงบัลลังก์ซีพียูเดสก์ท็อปคืนจากคู่แข่ง ‼️ ต้องเปลี่ยนเมนบอร์ดใหม่เพื่อใช้ Nova Lake-S   • ใช้ LGA 1854 socket และชิปเซตรุ่นใหม่ทั้งหมด   • ไม่สามารถใช้งานร่วมกับเมนบอร์ดปัจจุบัน ‼️ ยังไม่มีการทดสอบจริง — ตัวเลขทั้งหมดมาจาก “ข่าวหลุด”   • ต้องรอ benchmark และประสิทธิภาพจริงจากผู้ผลิตหรือผู้ใช้งาน ‼️ จำนวนคอร์ที่มากขึ้นอาจไม่ใช่คำตอบเสมอไป   • ถ้าซอฟต์แวร์ไม่ปรับให้รองรับการทำงานแบบ multi-thread อาจไม่ใช้ทรัพยากรได้คุ้มค่า ‼️ TDP ระดับ 150W บ่งชี้ว่าอาจต้องระบบระบายความร้อนที่มีประสิทธิภาพมากขึ้น   • โดยเฉพาะรุ่น Core Ultra 9 / 7 ที่มีคอร์จำนวนมาก https://www.techspot.com/news/108337-intel-nova-lake-s-cpus-bring-massive-architectural.html
    WWW.TECHSPOT.COM
    Intel's Nova Lake-S CPUs to bring massive architectural overhaul, up to 52 cores
    The flagship Core Ultra 9 385K model could feature a staggering 52 cores, comprising 16 high-performance P-cores, 32 efficiency-focused E-cores, and four 4 low-power LPE-cores – making...
    0 Comments 0 Shares 169 Views 0 Reviews
  • ที่งาน Computex 2025 AMD เปิดไพ่เด็ด—Ryzen Threadripper 9000 รุ่นใหม่ล่าสุดที่อิงบนสถาปัตยกรรม Zen 5 โดยมีสูงสุดถึง 96 คอร์ พร้อมเทคโนโลยีที่สายทำงานหนัก เช่น นักเรนเดอร์ นักออกแบบกราฟิก หรือนักวิจัยด้าน AI ต้องร้องว้าว

    ซีรีส์นี้แบ่งออกเป็น 2 กลุ่ม:
    1) PRO 9000WX สำหรับเวิร์กสเตชันระดับองค์กร
    2) 9000 ซีรีส์ สำหรับผู้ใช้งานแบบ HEDT (High-End Desktop)

    ที่โหดคือ—AMD ไม่ได้มาแค่ “ตัวเลขสเปก” แต่จัด ตัวอย่างประสิทธิภาพจริง เทียบกับคู่แข่งอย่าง Intel Xeon W9-3595X เลยด้วย และผลลัพธ์ก็ไม่ธรรมดา เช่น ด้าน LLM (AI ใหญ่ ๆ อย่าง GPT) AMD บอกว่าเร็วกว่า Intel ถึง 49% ในบางกรณี

    ลองจินตนาการว่าเครื่องเวิร์กสเตชันที่ใช้ซีพียู 96 คอร์ พร้อมแรม DDR5 แบบ 8 แชนแนล และรองรับ PCIe Gen5 ถึง 128 เลนส์ จะทำงานกับโมเดล AI หรือเรนเดอร์ V-Ray ได้เร็วขนาดไหน—AMD เคลมว่าเร็วกว่า Xeon ถึง “เกือบ 2.5 เท่า!”

    ยังไม่มีราคาวางจำหน่ายนะครับ แต่คาดว่าเปิดตัวจริงภายในเดือนหน้า

    ✅ AMD เปิดตัว Ryzen Threadripper 9000 ซีรีส์ บน Zen 5  
    • รุ่นสูงสุดมีถึง 96 คอร์ / 192 เธรด  
    • แบ่งเป็นกลุ่ม PRO สำหรับเวิร์กสเตชัน และ X-series สำหรับ HEDT

    ✅ รองรับเทคโนโลยีล้ำสมัย  
    • แรม DDR5-6400 สูงสุด 8 แชนแนล  
    • PCIe Gen5 สูงสุด 128 เลนส์  
    • รองรับ EXPO กับแรมความเร็วสูงกว่า 7000 MT/s

    ✅ ผลทดสอบประสิทธิภาพแบบเทียบรุ่น  
    • รุ่น 9995WX เร็วกว่า 7995WX ถึง 26%  
    • รุ่น 9980X แรงกว่า Intel Xeon W9-3595X สูงสุด 108%  
    • ด้าน AI เร็วกว่าถึง 49% และใน Chaos V-Ray เร็วกว่าเกือบ 2.5 เท่า

    ✅ เหมาะกับงานระดับมืออาชีพและ AI รุ่นใหญ่  
    • เหมาะกับการเรนเดอร์ภาพ 3D, โมเดล LLM, โปรแกรมออกแบบ และงานกราฟิกประสิทธิภาพสูง

    ‼️ ประสิทธิภาพ AI ยังรวมการ์ดจอเข้าไปในการวัดผลด้วย  
    • ผลลัพธ์ LLM ที่เร็วกว่า 49% มีการใช้งาน GPU ร่วมด้วย ซึ่งอาจทำให้ภาพรวมดูเร็วเกินจริง

    ‼️ ยังไม่มีข้อมูลราคาจำหน่ายอย่างเป็นทางการ  
    • อาจทำให้ผู้ซื้อประเมินงบประมาณหรือวางแผนจัดสเปกได้ยากในตอนนี้

    ‼️ การเปรียบเทียบกับ Intel ใช้ Xeon W9 ซึ่งเป็นซีรีส์คนละตลาด  
    • ถึงแม้ Xeon W9 จะใช้ในเวิร์กสเตชันเหมือนกัน แต่อาจมีบริบทของราคาหรือสภาพแวดล้อมที่ต่างกัน

    ‼️ TDP สูงสุดถึง 350W อาจต้องระวังด้านการระบายความร้อนและพลังงาน  
    • เหมาะกับเคสระดับองค์กรหรือผู้ใช้ที่เข้าใจการจัดการความร้อนเป็นอย่างดี

    https://www.neowin.net/news/amd-thinks-ryzen-threadripper-9000-wipes-the-floor-with-intel/
    ที่งาน Computex 2025 AMD เปิดไพ่เด็ด—Ryzen Threadripper 9000 รุ่นใหม่ล่าสุดที่อิงบนสถาปัตยกรรม Zen 5 โดยมีสูงสุดถึง 96 คอร์ พร้อมเทคโนโลยีที่สายทำงานหนัก เช่น นักเรนเดอร์ นักออกแบบกราฟิก หรือนักวิจัยด้าน AI ต้องร้องว้าว ซีรีส์นี้แบ่งออกเป็น 2 กลุ่ม: 1) PRO 9000WX สำหรับเวิร์กสเตชันระดับองค์กร 2) 9000 ซีรีส์ สำหรับผู้ใช้งานแบบ HEDT (High-End Desktop) ที่โหดคือ—AMD ไม่ได้มาแค่ “ตัวเลขสเปก” แต่จัด ตัวอย่างประสิทธิภาพจริง เทียบกับคู่แข่งอย่าง Intel Xeon W9-3595X เลยด้วย และผลลัพธ์ก็ไม่ธรรมดา เช่น ด้าน LLM (AI ใหญ่ ๆ อย่าง GPT) AMD บอกว่าเร็วกว่า Intel ถึง 49% ในบางกรณี ลองจินตนาการว่าเครื่องเวิร์กสเตชันที่ใช้ซีพียู 96 คอร์ พร้อมแรม DDR5 แบบ 8 แชนแนล และรองรับ PCIe Gen5 ถึง 128 เลนส์ จะทำงานกับโมเดล AI หรือเรนเดอร์ V-Ray ได้เร็วขนาดไหน—AMD เคลมว่าเร็วกว่า Xeon ถึง “เกือบ 2.5 เท่า!” ยังไม่มีราคาวางจำหน่ายนะครับ แต่คาดว่าเปิดตัวจริงภายในเดือนหน้า ✅ AMD เปิดตัว Ryzen Threadripper 9000 ซีรีส์ บน Zen 5   • รุ่นสูงสุดมีถึง 96 คอร์ / 192 เธรด   • แบ่งเป็นกลุ่ม PRO สำหรับเวิร์กสเตชัน และ X-series สำหรับ HEDT ✅ รองรับเทคโนโลยีล้ำสมัย   • แรม DDR5-6400 สูงสุด 8 แชนแนล   • PCIe Gen5 สูงสุด 128 เลนส์   • รองรับ EXPO กับแรมความเร็วสูงกว่า 7000 MT/s ✅ ผลทดสอบประสิทธิภาพแบบเทียบรุ่น   • รุ่น 9995WX เร็วกว่า 7995WX ถึง 26%   • รุ่น 9980X แรงกว่า Intel Xeon W9-3595X สูงสุด 108%   • ด้าน AI เร็วกว่าถึง 49% และใน Chaos V-Ray เร็วกว่าเกือบ 2.5 เท่า ✅ เหมาะกับงานระดับมืออาชีพและ AI รุ่นใหญ่   • เหมาะกับการเรนเดอร์ภาพ 3D, โมเดล LLM, โปรแกรมออกแบบ และงานกราฟิกประสิทธิภาพสูง ‼️ ประสิทธิภาพ AI ยังรวมการ์ดจอเข้าไปในการวัดผลด้วย   • ผลลัพธ์ LLM ที่เร็วกว่า 49% มีการใช้งาน GPU ร่วมด้วย ซึ่งอาจทำให้ภาพรวมดูเร็วเกินจริง ‼️ ยังไม่มีข้อมูลราคาจำหน่ายอย่างเป็นทางการ   • อาจทำให้ผู้ซื้อประเมินงบประมาณหรือวางแผนจัดสเปกได้ยากในตอนนี้ ‼️ การเปรียบเทียบกับ Intel ใช้ Xeon W9 ซึ่งเป็นซีรีส์คนละตลาด   • ถึงแม้ Xeon W9 จะใช้ในเวิร์กสเตชันเหมือนกัน แต่อาจมีบริบทของราคาหรือสภาพแวดล้อมที่ต่างกัน ‼️ TDP สูงสุดถึง 350W อาจต้องระวังด้านการระบายความร้อนและพลังงาน   • เหมาะกับเคสระดับองค์กรหรือผู้ใช้ที่เข้าใจการจัดการความร้อนเป็นอย่างดี https://www.neowin.net/news/amd-thinks-ryzen-threadripper-9000-wipes-the-floor-with-intel/
    WWW.NEOWIN.NET
    AMD thinks Ryzen Threadripper 9000 wipes the floor with Intel
    AMD is soon releasing its Ryzen Threadripper 9000 series processors, and it expects to completely wipe the floor with Intel's Xeon W 60-core.
    0 Comments 0 Shares 158 Views 0 Reviews
  • Microsoft ออกมาประกาศจับมือกับ AMD แบบ “ระยะยาวหลายปี” เพื่อร่วมกันพัฒนา Xbox รุ่นถัดไปและอุปกรณ์ใหม่ ๆ ที่จะออกในอนาคต โดย Sarah Bond (ประธาน Xbox) บอกว่า เขาไม่ได้ต้องการแค่ทำกราฟิกให้สวยขึ้น แต่ต้องการ “ยกระดับประสบการณ์การเล่นเกมให้สมจริงกว่าเดิม” ผ่านการใช้ AI ผสานเข้ากับชิปประมวลผล

    สิ่งที่น่าสนใจคือ Microsoft ยังยืนยันว่า Xbox ใหม่ยังคงเล่นเกมเก่าได้ (Backward Compatibility) นั่นหมายความว่าคนที่ลงทุนเกมดิจิทัลไว้เยอะ ๆ ไม่ต้องห่วงว่าจะเสียเงินเปล่า

    และไม่ใช่แค่คอนโซล เพราะ Microsoft ส่งสัญญาณชัดว่า Xbox จะไม่ผูกกับเครื่องอีกต่อไป แต่จะพัฒนาให้ “เล่นเกมได้ทุกที่ ทุกอุปกรณ์” — เหมือนจะมุ่งเป้าไปยังโลกแบบ cloud gaming หรือ hybrid system มากขึ้น

    นอกจากนี้เขายังพูดถึง “Xbox Ally” เครื่องเกมพกพาที่รัน Windows 11 รุ่นเบา ซึ่งก็มาพร้อมชิป AMD เช่นกัน แปลว่าพาร์ตเนอร์รายนี้กำลังมีบทบาททั้งในคอนโซล เกมพกพา และแม้แต่บนพีซีเกมมิ่ง

    ✅ Microsoft ประกาศความร่วมมือหลายปีกับ AMD  
    • ร่วมกันพัฒนาชิปรุ่นใหม่เพื่อ Xbox และฮาร์ดแวร์เกมรุ่นถัดไป  
    • เน้นกราฟิกขั้นสูง, การผสาน AI และความสมจริงในการเล่นเกม

    ✅ เป้าหมาย: Xbox ที่ “ไร้พรมแดน” เล่นได้ทุกอุปกรณ์  
    • ไม่จำกัดเฉพาะเครื่องคอนโซลอีกต่อไป  
    • มีแนวโน้มพัฒนาแพลตฟอร์มแบบ cross-device และ cloud-based

    ✅ รองรับเกมเก่า (Backward Compatibility) ต่อเนื่อง  
    • ผู้เล่นสามารถนำคลังเกมเก่ามาใช้กับเครื่องใหม่ได้  
    • เป็นจุดแข็งสำคัญที่สร้างความมั่นใจให้ฐานลูกค้าเดิม

    ✅ Windows คือเป้าหมายใหม่ของ Xbox  
    • Sarah Bond ระบุชัดว่ากำลังทำให้ Windows เป็น “แพลตฟอร์มเกมอันดับหนึ่ง”  
    • อาจเป็นสัญญาณของการลดบทบาทคอนโซล หรือเปลี่ยนทิศไปยัง Game-as-a-platform มากขึ้น

    ✅ Xbox Ally เครื่องเล่นเกมพกพารัน Windows ก็ใช้ชิป AMD เช่นกัน  
    • ชูจุดเด่นเล่นเกม PC ได้ในรูปแบบพกพา  
    • ใช้ Windows 11 รุ่นพิเศษที่เบาและไม่มี bloatware

    ‼️ อนาคตของ Xbox อาจไม่ใช่คอนโซลแบบเดิมอีกต่อไป  
    • ผู้ที่ชอบประสบการณ์คอนโซลแบบ “เสียบเล่นได้เลย” อาจต้องปรับตัว  
    • หาก Xbox กลายเป็น platform มากกว่า product การเข้าถึงอาจซับซ้อนขึ้น

    ‼️ การใช้ AI ในฮาร์ดแวร์เกมต้องจับตาด้านความเป็นส่วนตัว  
    • ยังไม่มีรายละเอียดว่า AI จะใช้ทำอะไรบ้างในฝั่งผู้เล่น  
    • หากวิเคราะห์พฤติกรรมผู้เล่นเพื่อปรับประสบการณ์แบบ dynamic ก็อาจกระทบเรื่อง Privacy

    ‼️ AMD อาจถือความลับด้านเทคโนโลยีเกมไว้มากเกินไป  
    • ทั้ง Xbox, Windows handheld, และ PC gaming ต่างก็ใช้ AMD  
    • การพึ่งพา supplier เจ้าเดียวมากเกินไปอาจมีความเสี่ยงในระยะยาว

    https://www.neowin.net/news/microsoft-announces-multi-year-partnership-with-amd-for-future-of-xbox-consoles-and-hardware/
    Microsoft ออกมาประกาศจับมือกับ AMD แบบ “ระยะยาวหลายปี” เพื่อร่วมกันพัฒนา Xbox รุ่นถัดไปและอุปกรณ์ใหม่ ๆ ที่จะออกในอนาคต โดย Sarah Bond (ประธาน Xbox) บอกว่า เขาไม่ได้ต้องการแค่ทำกราฟิกให้สวยขึ้น แต่ต้องการ “ยกระดับประสบการณ์การเล่นเกมให้สมจริงกว่าเดิม” ผ่านการใช้ AI ผสานเข้ากับชิปประมวลผล สิ่งที่น่าสนใจคือ Microsoft ยังยืนยันว่า Xbox ใหม่ยังคงเล่นเกมเก่าได้ (Backward Compatibility) นั่นหมายความว่าคนที่ลงทุนเกมดิจิทัลไว้เยอะ ๆ ไม่ต้องห่วงว่าจะเสียเงินเปล่า และไม่ใช่แค่คอนโซล เพราะ Microsoft ส่งสัญญาณชัดว่า Xbox จะไม่ผูกกับเครื่องอีกต่อไป แต่จะพัฒนาให้ “เล่นเกมได้ทุกที่ ทุกอุปกรณ์” — เหมือนจะมุ่งเป้าไปยังโลกแบบ cloud gaming หรือ hybrid system มากขึ้น นอกจากนี้เขายังพูดถึง “Xbox Ally” เครื่องเกมพกพาที่รัน Windows 11 รุ่นเบา ซึ่งก็มาพร้อมชิป AMD เช่นกัน แปลว่าพาร์ตเนอร์รายนี้กำลังมีบทบาททั้งในคอนโซล เกมพกพา และแม้แต่บนพีซีเกมมิ่ง ✅ Microsoft ประกาศความร่วมมือหลายปีกับ AMD   • ร่วมกันพัฒนาชิปรุ่นใหม่เพื่อ Xbox และฮาร์ดแวร์เกมรุ่นถัดไป   • เน้นกราฟิกขั้นสูง, การผสาน AI และความสมจริงในการเล่นเกม ✅ เป้าหมาย: Xbox ที่ “ไร้พรมแดน” เล่นได้ทุกอุปกรณ์   • ไม่จำกัดเฉพาะเครื่องคอนโซลอีกต่อไป   • มีแนวโน้มพัฒนาแพลตฟอร์มแบบ cross-device และ cloud-based ✅ รองรับเกมเก่า (Backward Compatibility) ต่อเนื่อง   • ผู้เล่นสามารถนำคลังเกมเก่ามาใช้กับเครื่องใหม่ได้   • เป็นจุดแข็งสำคัญที่สร้างความมั่นใจให้ฐานลูกค้าเดิม ✅ Windows คือเป้าหมายใหม่ของ Xbox   • Sarah Bond ระบุชัดว่ากำลังทำให้ Windows เป็น “แพลตฟอร์มเกมอันดับหนึ่ง”   • อาจเป็นสัญญาณของการลดบทบาทคอนโซล หรือเปลี่ยนทิศไปยัง Game-as-a-platform มากขึ้น ✅ Xbox Ally เครื่องเล่นเกมพกพารัน Windows ก็ใช้ชิป AMD เช่นกัน   • ชูจุดเด่นเล่นเกม PC ได้ในรูปแบบพกพา   • ใช้ Windows 11 รุ่นพิเศษที่เบาและไม่มี bloatware ‼️ อนาคตของ Xbox อาจไม่ใช่คอนโซลแบบเดิมอีกต่อไป   • ผู้ที่ชอบประสบการณ์คอนโซลแบบ “เสียบเล่นได้เลย” อาจต้องปรับตัว   • หาก Xbox กลายเป็น platform มากกว่า product การเข้าถึงอาจซับซ้อนขึ้น ‼️ การใช้ AI ในฮาร์ดแวร์เกมต้องจับตาด้านความเป็นส่วนตัว   • ยังไม่มีรายละเอียดว่า AI จะใช้ทำอะไรบ้างในฝั่งผู้เล่น   • หากวิเคราะห์พฤติกรรมผู้เล่นเพื่อปรับประสบการณ์แบบ dynamic ก็อาจกระทบเรื่อง Privacy ‼️ AMD อาจถือความลับด้านเทคโนโลยีเกมไว้มากเกินไป   • ทั้ง Xbox, Windows handheld, และ PC gaming ต่างก็ใช้ AMD   • การพึ่งพา supplier เจ้าเดียวมากเกินไปอาจมีความเสี่ยงในระยะยาว https://www.neowin.net/news/microsoft-announces-multi-year-partnership-with-amd-for-future-of-xbox-consoles-and-hardware/
    WWW.NEOWIN.NET
    Microsoft announces multi-year partnership with AMD for future of Xbox consoles and hardware
    Microsoft has entered a partnership with chipmaker AMD to co-develop the next generation of Xbox gaming devices. There seems to be a strategy shift happening for Xbox as well.
    0 Comments 0 Shares 129 Views 0 Reviews
More Results