• “Cloudflare เปิดตัว Email Service เวอร์ชันเบต้า — ส่งอีเมลผ่าน Workers ได้โดยไม่ต้องใช้ API Key พร้อมรองรับ AI และระบบรับเมลครบวงจร”

    ในยุคที่อีเมลยังคงเป็นหัวใจของการสื่อสารระหว่างแอปพลิเคชันกับผู้ใช้ Cloudflare ได้เปิดตัวบริการใหม่ในชื่อ “Cloudflare Email Service” ซึ่งรวมความสามารถในการส่งอีเมล (Email Sending) และรับอีเมล (Email Routing) เข้าไว้ด้วยกัน โดยเปิดให้ทดลองใช้งานแบบ private beta ตั้งแต่เดือนพฤศจิกายน 2025

    จุดเด่นของ Email Sending คือการส่งอีเมลผ่าน Cloudflare Workers ได้โดยตรง โดยไม่ต้องใช้ API key หรือจัดการกับ secret ต่าง ๆ เพียงแค่เพิ่ม binding ในไฟล์ wrangler.jsonc ก็สามารถเรียกใช้คำสั่ง send() เพื่อส่งอีเมลได้ทันที พร้อมรองรับการใช้งานร่วมกับ React Email สำหรับการสร้างอีเมล HTML แบบสวยงาม

    Cloudflare ยังเน้นเรื่อง “ความเร็วและความน่าเชื่อถือ” ของการส่งอีเมล โดยผสานระบบ DNS เพื่อกำหนดค่า SPF, DKIM และ DMARC อัตโนมัติ ทำให้ผู้ให้บริการอีเมลสามารถตรวจสอบและเชื่อถือโดเมนของผู้ส่งได้ง่ายขึ้น ลดโอกาสที่อีเมลจะตกไปอยู่ในกล่องสแปม

    ในฝั่งของ Email Routing ผู้ใช้สามารถสร้างอีเมลบนโดเมนของตนเอง เช่น support@your-domain.com แล้วใช้ Workers รับและประมวลผลอีเมลที่เข้ามา เช่น สร้าง ticket อัตโนมัติ, สรุปเนื้อหาด้วย AI, หรือเก็บไฟล์แนบไว้ใน R2 ได้ทันที

    เมื่อรวมการส่งและรับอีเมลเข้าด้วยกัน Cloudflare จึงกลายเป็นแพลตฟอร์มที่สามารถจัดการอีเมลแบบครบวงจรในระดับแอปพลิเคชัน โดยไม่ต้องพึ่งบริการภายนอกหรือเซิร์ฟเวอร์อีเมลแบบเดิม

    ข้อมูลสำคัญจากข่าว
    Cloudflare เปิดตัว Email Service แบบ private beta ในเดือนพฤศจิกายน 2025
    Email Sending สามารถส่งอีเมลผ่าน Workers ได้โดยไม่ต้องใช้ API key
    รองรับการใช้งานร่วมกับ React Email สำหรับสร้างอีเมล HTML
    ระบบ DNS ถูกตั้งค่า SPF, DKIM, DMARC อัตโนมัติเพื่อเพิ่มความน่าเชื่อถือ
    Email Routing รองรับการรับอีเมลผ่าน Workers และประมวลผลด้วย AI
    สามารถสร้าง workflow เช่น สร้าง ticket, สรุปเนื้อหา, เก็บไฟล์แนบ
    รองรับการเชื่อมต่อผ่าน REST API และ SMTP สำหรับบริการภายนอก
    มีระบบ observability สำหรับตรวจสอบ bounce rate และ delivery status
    รองรับการทดสอบแบบ local ผ่าน wrangler โดยไม่ต้อง deploy จริง
    Email Sending จะมีค่าใช้จ่ายตามจำนวนข้อความที่ส่ง ส่วน Email Routing ยังคงใช้ฟรี

    ข้อมูลเสริมจากภายนอก
    Cloudflare Workers เป็นระบบ serverless ที่ทำงานบน edge ทำให้ latency ต่ำ
    การตั้งค่า SPF/DKIM/DMARC เป็นสิ่งสำคัญในการป้องกัน phishing และ spoofing
    React Email เป็นเฟรมเวิร์กที่ช่วยให้การสร้างอีเมล HTML เป็นเรื่องง่ายและปลอดภัย
    การใช้ AI ในการจัดการอีเมลช่วยลดภาระงานซ้ำซ้อน เช่น การตอบกลับอัตโนมัติ
    การรวมระบบส่งและรับอีเมลในแพลตฟอร์มเดียวช่วยลดความซับซ้อนในการพัฒนาแอป

    https://blog.cloudflare.com/email-service/
    📧 “Cloudflare เปิดตัว Email Service เวอร์ชันเบต้า — ส่งอีเมลผ่าน Workers ได้โดยไม่ต้องใช้ API Key พร้อมรองรับ AI และระบบรับเมลครบวงจร” ในยุคที่อีเมลยังคงเป็นหัวใจของการสื่อสารระหว่างแอปพลิเคชันกับผู้ใช้ Cloudflare ได้เปิดตัวบริการใหม่ในชื่อ “Cloudflare Email Service” ซึ่งรวมความสามารถในการส่งอีเมล (Email Sending) และรับอีเมล (Email Routing) เข้าไว้ด้วยกัน โดยเปิดให้ทดลองใช้งานแบบ private beta ตั้งแต่เดือนพฤศจิกายน 2025 จุดเด่นของ Email Sending คือการส่งอีเมลผ่าน Cloudflare Workers ได้โดยตรง โดยไม่ต้องใช้ API key หรือจัดการกับ secret ต่าง ๆ เพียงแค่เพิ่ม binding ในไฟล์ wrangler.jsonc ก็สามารถเรียกใช้คำสั่ง send() เพื่อส่งอีเมลได้ทันที พร้อมรองรับการใช้งานร่วมกับ React Email สำหรับการสร้างอีเมล HTML แบบสวยงาม Cloudflare ยังเน้นเรื่อง “ความเร็วและความน่าเชื่อถือ” ของการส่งอีเมล โดยผสานระบบ DNS เพื่อกำหนดค่า SPF, DKIM และ DMARC อัตโนมัติ ทำให้ผู้ให้บริการอีเมลสามารถตรวจสอบและเชื่อถือโดเมนของผู้ส่งได้ง่ายขึ้น ลดโอกาสที่อีเมลจะตกไปอยู่ในกล่องสแปม ในฝั่งของ Email Routing ผู้ใช้สามารถสร้างอีเมลบนโดเมนของตนเอง เช่น support@your-domain.com แล้วใช้ Workers รับและประมวลผลอีเมลที่เข้ามา เช่น สร้าง ticket อัตโนมัติ, สรุปเนื้อหาด้วย AI, หรือเก็บไฟล์แนบไว้ใน R2 ได้ทันที เมื่อรวมการส่งและรับอีเมลเข้าด้วยกัน Cloudflare จึงกลายเป็นแพลตฟอร์มที่สามารถจัดการอีเมลแบบครบวงจรในระดับแอปพลิเคชัน โดยไม่ต้องพึ่งบริการภายนอกหรือเซิร์ฟเวอร์อีเมลแบบเดิม ✅ ข้อมูลสำคัญจากข่าว ➡️ Cloudflare เปิดตัว Email Service แบบ private beta ในเดือนพฤศจิกายน 2025 ➡️ Email Sending สามารถส่งอีเมลผ่าน Workers ได้โดยไม่ต้องใช้ API key ➡️ รองรับการใช้งานร่วมกับ React Email สำหรับสร้างอีเมล HTML ➡️ ระบบ DNS ถูกตั้งค่า SPF, DKIM, DMARC อัตโนมัติเพื่อเพิ่มความน่าเชื่อถือ ➡️ Email Routing รองรับการรับอีเมลผ่าน Workers และประมวลผลด้วย AI ➡️ สามารถสร้าง workflow เช่น สร้าง ticket, สรุปเนื้อหา, เก็บไฟล์แนบ ➡️ รองรับการเชื่อมต่อผ่าน REST API และ SMTP สำหรับบริการภายนอก ➡️ มีระบบ observability สำหรับตรวจสอบ bounce rate และ delivery status ➡️ รองรับการทดสอบแบบ local ผ่าน wrangler โดยไม่ต้อง deploy จริง ➡️ Email Sending จะมีค่าใช้จ่ายตามจำนวนข้อความที่ส่ง ส่วน Email Routing ยังคงใช้ฟรี ✅ ข้อมูลเสริมจากภายนอก ➡️ Cloudflare Workers เป็นระบบ serverless ที่ทำงานบน edge ทำให้ latency ต่ำ ➡️ การตั้งค่า SPF/DKIM/DMARC เป็นสิ่งสำคัญในการป้องกัน phishing และ spoofing ➡️ React Email เป็นเฟรมเวิร์กที่ช่วยให้การสร้างอีเมล HTML เป็นเรื่องง่ายและปลอดภัย ➡️ การใช้ AI ในการจัดการอีเมลช่วยลดภาระงานซ้ำซ้อน เช่น การตอบกลับอัตโนมัติ ➡️ การรวมระบบส่งและรับอีเมลในแพลตฟอร์มเดียวช่วยลดความซับซ้อนในการพัฒนาแอป https://blog.cloudflare.com/email-service/
    BLOG.CLOUDFLARE.COM
    Announcing Cloudflare Email Service’s private beta
    Today, we’re launching Cloudflare Email Service. Send and receive email directly from your Workers with native bindings—no API keys needed. We're unifying email sending and routing into a single service built for developers. Sign up for the private beta.
    0 Comments 0 Shares 19 Views 0 Reviews
  • “AMD ปลดล็อก PyTorch บน Windows ด้วย ROCm 6.4.4 — เปิดทางให้ Radeon และ Ryzen AI เข้าสู่โลก AI อย่างเต็มตัว”

    หลังจากรอคอยกันมานาน ในที่สุด AMD ก็ประกาศเปิดตัว ROCm 6.4.4 ซึ่งเป็นเวอร์ชันที่เพิ่มการรองรับ PyTorch บน Windows สำหรับผู้ใช้ GPU Radeon RX 7000 และ RX 9000 รวมถึง APU ตระกูล Ryzen AI 300 และ Ryzen AI Max “Strix Halo” โดยถือเป็นก้าวสำคัญที่ทำให้ผู้ใช้ทั่วไปสามารถรันโมเดล AI บนฮาร์ดแวร์ AMD ได้โดยตรงในระบบปฏิบัติการ Windows

    เดิมที ROCm (Radeon Open Compute) เป็นแพลตฟอร์มโอเพ่นซอร์สที่เน้นการใช้งานในฝั่ง Linux และกลุ่มเซิร์ฟเวอร์ เช่น Instinct และ EPYC แต่การเปิดตัวครั้งนี้สะท้อนถึงการเปลี่ยนทิศทางของ AMD ที่ต้องการให้ ROCm เป็น “แพลตฟอร์มสำหรับนักพัฒนา” แบบข้ามระบบปฏิบัติการอย่างแท้จริง

    การรองรับ PyTorch บน Windows จะช่วยให้นักพัฒนา AI สามารถใช้ GPU และ APU ของ AMD ในการฝึกและรันโมเดลได้โดยไม่ต้องพึ่ง NVIDIA อีกต่อไป โดยเฉพาะในกลุ่มผู้ใช้ที่มี Radeon RX 7900, RX 9070 หรือ Ryzen AI Max 395 ซึ่งมีหน่วยประมวลผล AI และ stream processor จำนวนมากที่ยังไม่ได้ถูกใช้งานเต็มประสิทธิภาพ

    AMD ยังระบุว่า ROCm 6.4.4 เป็นเวอร์ชัน “พรีวิว” ที่จะเป็นพื้นฐานสำหรับการพัฒนาในอนาคต โดยจะมีการเพิ่มประสิทธิภาพและฟีเจอร์เพิ่มเติมในเวอร์ชันถัดไป เช่น ONNX Runtime Execution Provider (ONNX-EP) ที่จะตามมาในช่วงปลายปีนี้

    นอกจากนี้ ROCm ยังขยายการรองรับในฝั่ง Linux เช่น OpenSuSE, Ubuntu และ Red Hat EPEL ซึ่งจะได้รับการอัปเดตในครึ่งหลังของปี 2025 เพื่อให้การใช้งานในองค์กรและเซิร์ฟเวอร์มีความยืดหยุ่นมากขึ้น

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว ROCm 6.4.4 รองรับ PyTorch บน Windows สำหรับ GPU และ APU รุ่นใหม่
    รองรับ Radeon RX 7000 (RDNA 3), RX 9000 (RDNA 4), Ryzen AI 300 และ Ryzen AI Max “Strix Halo”
    ROCm 6.4.4 เป็นเวอร์ชันพรีวิวที่เปิดให้รันโมเดล AI บน Windows ได้โดยตรง
    AMD ตั้งเป้าให้ ROCm เป็นแพลตฟอร์มข้ามระบบปฏิบัติการสำหรับนักพัฒนา
    Linux distributions ที่รองรับ ได้แก่ OpenSuSE (พร้อมใช้งานแล้ว), Ubuntu และ Red Hat EPEL (จะตามมาในครึ่งปีหลัง)
    ROCm บน Windows จะรองรับทั้ง PyTorch และ ONNX Runtime Execution Provider (ONNX-EP)
    GPU อย่าง RX 9070 XT และ APU Ryzen AI Max 395 มีหน่วย AI accelerator และ stream processor จำนวนมาก
    ROCm 7 สำหรับฝั่งองค์กรได้เปิดตัวแล้วบน Instinct และ EPYC เพื่อเร่งงาน AI และ productivity

    ข้อมูลเสริมจากภายนอก
    PyTorch เป็นหนึ่งในเฟรมเวิร์ก AI ที่ได้รับความนิยมสูงสุดในโลก โดยเฉพาะในงานวิจัยและการพัฒนาโมเดล LLM
    NVIDIA ครองตลาด AI มานานด้วย CUDA แต่ ROCm คือความพยายามของ AMD ที่จะสร้างทางเลือกใหม่
    Ryzen AI Max ใช้สถาปัตยกรรม Zen 5 และ RDNA 3.5 พร้อมรองรับ AVX512 และ Matrix ISA สำหรับงาน AI
    RDNA 4 ใน RX 9000 มี tensor-like core ที่ AMD เรียกว่า “Matrix core” เพื่อหลีกเลี่ยงข้อพิพาทด้านสิทธิบัตร
    การรองรับ ROCm บน Windows ช่วยให้ผู้ใช้ทั่วไปสามารถใช้ฮาร์ดแวร์ AMD ในงาน AI ได้โดยไม่ต้องเปลี่ยนระบบ

    https://wccftech.com/amd-rocm-6-4-4-pytorch-support-windows-radeon-9000-radeon-7000-gpus-ryzen-ai-apus/
    🧠 “AMD ปลดล็อก PyTorch บน Windows ด้วย ROCm 6.4.4 — เปิดทางให้ Radeon และ Ryzen AI เข้าสู่โลก AI อย่างเต็มตัว” หลังจากรอคอยกันมานาน ในที่สุด AMD ก็ประกาศเปิดตัว ROCm 6.4.4 ซึ่งเป็นเวอร์ชันที่เพิ่มการรองรับ PyTorch บน Windows สำหรับผู้ใช้ GPU Radeon RX 7000 และ RX 9000 รวมถึง APU ตระกูล Ryzen AI 300 และ Ryzen AI Max “Strix Halo” โดยถือเป็นก้าวสำคัญที่ทำให้ผู้ใช้ทั่วไปสามารถรันโมเดล AI บนฮาร์ดแวร์ AMD ได้โดยตรงในระบบปฏิบัติการ Windows เดิมที ROCm (Radeon Open Compute) เป็นแพลตฟอร์มโอเพ่นซอร์สที่เน้นการใช้งานในฝั่ง Linux และกลุ่มเซิร์ฟเวอร์ เช่น Instinct และ EPYC แต่การเปิดตัวครั้งนี้สะท้อนถึงการเปลี่ยนทิศทางของ AMD ที่ต้องการให้ ROCm เป็น “แพลตฟอร์มสำหรับนักพัฒนา” แบบข้ามระบบปฏิบัติการอย่างแท้จริง การรองรับ PyTorch บน Windows จะช่วยให้นักพัฒนา AI สามารถใช้ GPU และ APU ของ AMD ในการฝึกและรันโมเดลได้โดยไม่ต้องพึ่ง NVIDIA อีกต่อไป โดยเฉพาะในกลุ่มผู้ใช้ที่มี Radeon RX 7900, RX 9070 หรือ Ryzen AI Max 395 ซึ่งมีหน่วยประมวลผล AI และ stream processor จำนวนมากที่ยังไม่ได้ถูกใช้งานเต็มประสิทธิภาพ AMD ยังระบุว่า ROCm 6.4.4 เป็นเวอร์ชัน “พรีวิว” ที่จะเป็นพื้นฐานสำหรับการพัฒนาในอนาคต โดยจะมีการเพิ่มประสิทธิภาพและฟีเจอร์เพิ่มเติมในเวอร์ชันถัดไป เช่น ONNX Runtime Execution Provider (ONNX-EP) ที่จะตามมาในช่วงปลายปีนี้ นอกจากนี้ ROCm ยังขยายการรองรับในฝั่ง Linux เช่น OpenSuSE, Ubuntu และ Red Hat EPEL ซึ่งจะได้รับการอัปเดตในครึ่งหลังของปี 2025 เพื่อให้การใช้งานในองค์กรและเซิร์ฟเวอร์มีความยืดหยุ่นมากขึ้น ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว ROCm 6.4.4 รองรับ PyTorch บน Windows สำหรับ GPU และ APU รุ่นใหม่ ➡️ รองรับ Radeon RX 7000 (RDNA 3), RX 9000 (RDNA 4), Ryzen AI 300 และ Ryzen AI Max “Strix Halo” ➡️ ROCm 6.4.4 เป็นเวอร์ชันพรีวิวที่เปิดให้รันโมเดล AI บน Windows ได้โดยตรง ➡️ AMD ตั้งเป้าให้ ROCm เป็นแพลตฟอร์มข้ามระบบปฏิบัติการสำหรับนักพัฒนา ➡️ Linux distributions ที่รองรับ ได้แก่ OpenSuSE (พร้อมใช้งานแล้ว), Ubuntu และ Red Hat EPEL (จะตามมาในครึ่งปีหลัง) ➡️ ROCm บน Windows จะรองรับทั้ง PyTorch และ ONNX Runtime Execution Provider (ONNX-EP) ➡️ GPU อย่าง RX 9070 XT และ APU Ryzen AI Max 395 มีหน่วย AI accelerator และ stream processor จำนวนมาก ➡️ ROCm 7 สำหรับฝั่งองค์กรได้เปิดตัวแล้วบน Instinct และ EPYC เพื่อเร่งงาน AI และ productivity ✅ ข้อมูลเสริมจากภายนอก ➡️ PyTorch เป็นหนึ่งในเฟรมเวิร์ก AI ที่ได้รับความนิยมสูงสุดในโลก โดยเฉพาะในงานวิจัยและการพัฒนาโมเดล LLM ➡️ NVIDIA ครองตลาด AI มานานด้วย CUDA แต่ ROCm คือความพยายามของ AMD ที่จะสร้างทางเลือกใหม่ ➡️ Ryzen AI Max ใช้สถาปัตยกรรม Zen 5 และ RDNA 3.5 พร้อมรองรับ AVX512 และ Matrix ISA สำหรับงาน AI ➡️ RDNA 4 ใน RX 9000 มี tensor-like core ที่ AMD เรียกว่า “Matrix core” เพื่อหลีกเลี่ยงข้อพิพาทด้านสิทธิบัตร ➡️ การรองรับ ROCm บน Windows ช่วยให้ผู้ใช้ทั่วไปสามารถใช้ฮาร์ดแวร์ AMD ในงาน AI ได้โดยไม่ต้องเปลี่ยนระบบ https://wccftech.com/amd-rocm-6-4-4-pytorch-support-windows-radeon-9000-radeon-7000-gpus-ryzen-ai-apus/
    WCCFTECH.COM
    AMD ROCm 6.4.4 Brings PyTorch Support On Windows For Radeon 9000, Radeon 7000 GPUs, & Ryzen AI APUs
    AMD has finally enabled PyTorch support on Windows for Radeon RX 9000, RX 7000 GPUs & Ryzen AI APUs with ROCm 6.4.4.
    0 Comments 0 Shares 86 Views 0 Reviews
  • “Intel ซุ่มพัฒนา XeSS MFG — เทคโนโลยีสร้างเฟรมหลายชุดด้วย AI เตรียมชน DLSS 4 ของ NVIDIA ใน Arc B770”

    ในโลกของกราฟิกการ์ดที่แข่งขันกันดุเดือดระหว่าง NVIDIA, AMD และ Intel ล่าสุดมีเบาะแสจากไฟล์ไดรเวอร์ของ Intel Arc GPU ที่เผยให้เห็นว่า Intel กำลังพัฒนาเทคโนโลยีใหม่ชื่อว่า “XeSS MFG” หรือ Multi-Frame Generation ซึ่งเป็นการต่อยอดจาก XeSS ที่ใช้ AI เพื่อเพิ่มประสิทธิภาพการเรนเดอร์ภาพ

    เทคโนโลยี MFG นี้มีเป้าหมายเพื่อสร้างเฟรมหลายชุดระหว่างเฟรมจริงที่ GPU เรนเดอร์ โดยใช้การคำนวณแบบ AI เพื่อเติมภาพที่ขาดหายไป ทำให้ภาพเคลื่อนไหวลื่นไหลขึ้นโดยไม่ต้องเพิ่มภาระให้กับฮาร์ดแวร์มากนัก ซึ่งเป็นแนวคิดเดียวกับ DLSS 4 ของ NVIDIA ที่สามารถสร้างเฟรมแทรกได้ถึง 3 ชุดจากเฟรมจริงหนึ่งชุด

    แม้ Intel ยังไม่ประกาศอย่างเป็นทางการ แต่การพบชื่อ XeSS MFG และโลโก้ในไฟล์ไดรเวอร์ล่าสุดของ Arc รวมถึง UI ที่เตรียมไว้ใน Arc Control Panel บ่งชี้ว่าเทคโนโลยีนี้อาจเปิดตัวพร้อมกับกราฟิกการ์ดรุ่นใหม่ Arc B770 ที่ใช้สถาปัตยกรรม Battlemage

    หาก Intel เปิดตัว XeSS MFG ได้สำเร็จ จะถือเป็นการปิดช่องว่างสำคัญระหว่าง Arc กับคู่แข่งอย่าง NVIDIA และ AMD ซึ่งปัจจุบัน AMD ยังไม่มีเทคโนโลยี MFG ใน FSR 4 และ NVIDIA เป็นเจ้าเดียวที่นำเสนอฟีเจอร์นี้ใน RTX 50 Series

    อย่างไรก็ตาม การสร้างเฟรมด้วย AI ยังมีข้อถกเถียง เช่น ความหน่วงที่เพิ่มขึ้น และความเสี่ยงต่อภาพเบลอหรือ artifact หากระบบไม่แม่นยำพอ ซึ่ง Intel ต้องพิสูจน์ว่า XeSS MFG สามารถทำงานได้อย่างราบรื่นและมีคุณภาพเทียบเท่าหรือดีกว่า DLSS

    ข้อมูลสำคัญจากข่าว
    Intel พบชื่อ “XeSS MFG” และโลโก้ในไฟล์ไดรเวอร์ Arc GPU ล่าสุด
    MFG คือการสร้างเฟรมหลายชุดระหว่างเฟรมจริงด้วย AI เพื่อเพิ่มความลื่นไหล
    DLSS 4 ของ NVIDIA ใช้เทคนิคนี้แล้ว โดยสร้างเฟรมแทรกได้ถึง 3 ชุด
    XeSS MFG อาจเปิดตัวพร้อม Arc B770 ที่ใช้สถาปัตยกรรม Battlemage
    UI สำหรับ XeSS MFG ถูกเตรียมไว้ใน Arc Control Panel แล้ว
    AMD ยังไม่มีเทคโนโลยี MFG ใน FSR 4
    XeSS 2.1 รองรับ GPU ที่ใช้ Shader Model 6.4 ขึ้นไป แม้ไม่ใช่ Intel
    การใช้ AI ในการสร้างเฟรมช่วยลดภาระ GPU และเพิ่มเฟรมเรตได้โดยไม่ลดคุณภาพ

    ข้อมูลเสริมจากภายนอก
    NVIDIA ใช้ MFG ใน RTX 50 Series โดยสามารถสร้างเฟรมแทรกได้หลายระดับ
    Lossless Scaling เป็นทางเลือกของบุคคลที่สามที่รองรับ MFG แบบ vendor-neutral
    XeSS ใช้ XMX cores บน Arc GPU เพื่อเร่งการคำนวณ AI
    การสร้างเฟรมด้วย AI ต้องอาศัยข้อมูลจากเฟรมก่อนหน้าและการคาดการณ์การเคลื่อนไหว
    หาก Intel ทำสำเร็จ จะเป็นครั้งแรกที่มี MFG แบบเปิดให้ใช้งานในหลายแพลตฟอร์ม

    https://www.tomshardware.com/pc-components/gpu-drivers/intel-could-be-working-on-its-own-multi-frame-generation-tech-xess-mfg-name-and-logo-found-in-arc-graphics-driver-files
    🎮 “Intel ซุ่มพัฒนา XeSS MFG — เทคโนโลยีสร้างเฟรมหลายชุดด้วย AI เตรียมชน DLSS 4 ของ NVIDIA ใน Arc B770” ในโลกของกราฟิกการ์ดที่แข่งขันกันดุเดือดระหว่าง NVIDIA, AMD และ Intel ล่าสุดมีเบาะแสจากไฟล์ไดรเวอร์ของ Intel Arc GPU ที่เผยให้เห็นว่า Intel กำลังพัฒนาเทคโนโลยีใหม่ชื่อว่า “XeSS MFG” หรือ Multi-Frame Generation ซึ่งเป็นการต่อยอดจาก XeSS ที่ใช้ AI เพื่อเพิ่มประสิทธิภาพการเรนเดอร์ภาพ เทคโนโลยี MFG นี้มีเป้าหมายเพื่อสร้างเฟรมหลายชุดระหว่างเฟรมจริงที่ GPU เรนเดอร์ โดยใช้การคำนวณแบบ AI เพื่อเติมภาพที่ขาดหายไป ทำให้ภาพเคลื่อนไหวลื่นไหลขึ้นโดยไม่ต้องเพิ่มภาระให้กับฮาร์ดแวร์มากนัก ซึ่งเป็นแนวคิดเดียวกับ DLSS 4 ของ NVIDIA ที่สามารถสร้างเฟรมแทรกได้ถึง 3 ชุดจากเฟรมจริงหนึ่งชุด แม้ Intel ยังไม่ประกาศอย่างเป็นทางการ แต่การพบชื่อ XeSS MFG และโลโก้ในไฟล์ไดรเวอร์ล่าสุดของ Arc รวมถึง UI ที่เตรียมไว้ใน Arc Control Panel บ่งชี้ว่าเทคโนโลยีนี้อาจเปิดตัวพร้อมกับกราฟิกการ์ดรุ่นใหม่ Arc B770 ที่ใช้สถาปัตยกรรม Battlemage หาก Intel เปิดตัว XeSS MFG ได้สำเร็จ จะถือเป็นการปิดช่องว่างสำคัญระหว่าง Arc กับคู่แข่งอย่าง NVIDIA และ AMD ซึ่งปัจจุบัน AMD ยังไม่มีเทคโนโลยี MFG ใน FSR 4 และ NVIDIA เป็นเจ้าเดียวที่นำเสนอฟีเจอร์นี้ใน RTX 50 Series อย่างไรก็ตาม การสร้างเฟรมด้วย AI ยังมีข้อถกเถียง เช่น ความหน่วงที่เพิ่มขึ้น และความเสี่ยงต่อภาพเบลอหรือ artifact หากระบบไม่แม่นยำพอ ซึ่ง Intel ต้องพิสูจน์ว่า XeSS MFG สามารถทำงานได้อย่างราบรื่นและมีคุณภาพเทียบเท่าหรือดีกว่า DLSS ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel พบชื่อ “XeSS MFG” และโลโก้ในไฟล์ไดรเวอร์ Arc GPU ล่าสุด ➡️ MFG คือการสร้างเฟรมหลายชุดระหว่างเฟรมจริงด้วย AI เพื่อเพิ่มความลื่นไหล ➡️ DLSS 4 ของ NVIDIA ใช้เทคนิคนี้แล้ว โดยสร้างเฟรมแทรกได้ถึง 3 ชุด ➡️ XeSS MFG อาจเปิดตัวพร้อม Arc B770 ที่ใช้สถาปัตยกรรม Battlemage ➡️ UI สำหรับ XeSS MFG ถูกเตรียมไว้ใน Arc Control Panel แล้ว ➡️ AMD ยังไม่มีเทคโนโลยี MFG ใน FSR 4 ➡️ XeSS 2.1 รองรับ GPU ที่ใช้ Shader Model 6.4 ขึ้นไป แม้ไม่ใช่ Intel ➡️ การใช้ AI ในการสร้างเฟรมช่วยลดภาระ GPU และเพิ่มเฟรมเรตได้โดยไม่ลดคุณภาพ ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA ใช้ MFG ใน RTX 50 Series โดยสามารถสร้างเฟรมแทรกได้หลายระดับ ➡️ Lossless Scaling เป็นทางเลือกของบุคคลที่สามที่รองรับ MFG แบบ vendor-neutral ➡️ XeSS ใช้ XMX cores บน Arc GPU เพื่อเร่งการคำนวณ AI ➡️ การสร้างเฟรมด้วย AI ต้องอาศัยข้อมูลจากเฟรมก่อนหน้าและการคาดการณ์การเคลื่อนไหว ➡️ หาก Intel ทำสำเร็จ จะเป็นครั้งแรกที่มี MFG แบบเปิดให้ใช้งานในหลายแพลตฟอร์ม https://www.tomshardware.com/pc-components/gpu-drivers/intel-could-be-working-on-its-own-multi-frame-generation-tech-xess-mfg-name-and-logo-found-in-arc-graphics-driver-files
    0 Comments 0 Shares 72 Views 0 Reviews
  • “Fenghua No.3 GPU จากจีนเปิดตัวแรง — เคลมรองรับ CUDA, Ray Tracing, และมี HBM กว่า 112GB สำหรับ AI ขนาดใหญ่”

    Innosilicon บริษัทผู้ผลิตชิปจากจีนเปิดตัวกราฟิกการ์ดรุ่นใหม่ “Fenghua No.3” ซึ่งถือเป็นก้าวกระโดดครั้งสำคัญของอุตสาหกรรม GPU ในประเทศ โดยชูจุดเด่นว่าเป็น GPU แบบ “all-function” ที่รองรับทั้งงาน AI, การประมวลผลทางวิทยาศาสตร์, CAD, การแพทย์ และเกม พร้อมเคลมว่า “รองรับ CUDA” ซึ่งเป็นแพลตฟอร์มเฉพาะของ Nvidia — หากเป็นจริง จะถือเป็นครั้งแรกที่ GPU จากจีนสามารถใช้งานซอฟต์แวร์ที่พัฒนาบน CUDA ได้โดยตรง

    Fenghua No.3 ใช้สถาปัตยกรรม RISC-V แบบ open-source แทน PowerVR ที่เคยใช้ในรุ่นก่อนหน้า และมีการออกแบบใหม่ทั้งหมดจากภายในประเทศ โดยอ้างว่าใช้เทคโนโลยีจากโครงการ Nanhu V3 ของ OpenCore Institute

    ด้านการเล่นเกม Fenghua No.3 รองรับ API สมัยใหม่อย่าง DirectX 12, Vulkan 1.2 และ OpenGL 4.6 พร้อมฟีเจอร์ Ray Tracing และสามารถรันเกมอย่าง Tomb Raider, Delta Force และ Valorant ได้อย่างลื่นไหลในการสาธิต แม้จะไม่มีข้อมูลเฟรมเรตหรือความละเอียดที่ใช้ในการทดสอบ

    สำหรับงาน AI Fenghua No.3 มาพร้อมหน่วยความจำ HBM มากกว่า 112GB ซึ่งสามารถรันโมเดลขนาด 32B และ 72B ได้ด้วยการ์ดเดียว และสามารถรันโมเดลขนาด 671B และ 685B ได้เมื่อใช้การ์ด 8 ใบร่วมกัน โดยรองรับโมเดล DeepSeek V3, R1, V3.1 และ Qwen 2.5, Qwen 3 อย่างเต็มรูปแบบ

    นอกจากนี้ยังเป็น GPU ตัวแรกของจีนที่รองรับฟอร์แมต YUV444 สำหรับงานภาพละเอียดสูง และสามารถแสดงผลบนจอ 8K ได้พร้อมกันถึง 6 จอที่ 30Hz อีกทั้งยังรองรับ DICOM สำหรับการแสดงผลภาพทางการแพทย์ เช่น MRI และ CT scan โดยไม่ต้องใช้จอ grayscale เฉพาะทาง

    ข้อมูลสำคัญจากข่าว
    Fenghua No.3 เป็น GPU รุ่นใหม่จาก Innosilicon ประเทศจีน
    ใช้สถาปัตยกรรม RISC-V และออกแบบใหม่ทั้งหมดภายในประเทศ
    เคลมว่ารองรับ CUDA ซึ่งเป็นแพลตฟอร์มเฉพาะของ Nvidia
    รองรับ DirectX 12, Vulkan 1.2, OpenGL 4.6 และ Ray Tracing
    รันเกม Tomb Raider, Delta Force, Valorant ได้ในการสาธิต
    มาพร้อม HBM มากกว่า 112GB สำหรับงาน AI ขนาดใหญ่
    รองรับโมเดล DeepSeek และ Qwen หลายเวอร์ชัน
    รองรับ YUV444 สำหรับงาน CAD และวิดีโอ
    แสดงผล 8K ได้พร้อมกัน 6 จอที่ 30Hz
    รองรับ DICOM สำหรับภาพทางการแพทย์โดยไม่ต้องใช้จอเฉพาะ

    ข้อมูลเสริมจากภายนอก
    CUDA เป็นแพลตฟอร์มที่ Nvidia ใช้สำหรับงาน AI และ HPC โดยทั่วไปไม่เปิดให้ GPU อื่นใช้งาน
    RISC-V เป็นสถาปัตยกรรมแบบเปิดที่กำลังได้รับความนิยมในจีนเพื่อหลีกเลี่ยงการพึ่งพา IP จากตะวันตก
    HBM (High Bandwidth Memory) เป็นหน่วยความจำที่เร็วและเหมาะกับงาน AI มากกว่า GDDR
    YUV444 ให้ความละเอียดสีสูงกว่าฟอร์แมตทั่วไป เช่น YUV420 ซึ่งใช้ในวิดีโอสตรีมมิ่ง
    DICOM เป็นมาตรฐานภาพทางการแพทย์ที่ใช้ในโรงพยาบาลทั่วโลก

    https://www.tomshardware.com/pc-components/gpus/chinas-latest-gpu-arrives-with-claims-of-cuda-compatibility-and-rt-support-fenghua-no-3-also-boasts-112gb-of-hbm-memory-for-ai
    🚀 “Fenghua No.3 GPU จากจีนเปิดตัวแรง — เคลมรองรับ CUDA, Ray Tracing, และมี HBM กว่า 112GB สำหรับ AI ขนาดใหญ่” Innosilicon บริษัทผู้ผลิตชิปจากจีนเปิดตัวกราฟิกการ์ดรุ่นใหม่ “Fenghua No.3” ซึ่งถือเป็นก้าวกระโดดครั้งสำคัญของอุตสาหกรรม GPU ในประเทศ โดยชูจุดเด่นว่าเป็น GPU แบบ “all-function” ที่รองรับทั้งงาน AI, การประมวลผลทางวิทยาศาสตร์, CAD, การแพทย์ และเกม พร้อมเคลมว่า “รองรับ CUDA” ซึ่งเป็นแพลตฟอร์มเฉพาะของ Nvidia — หากเป็นจริง จะถือเป็นครั้งแรกที่ GPU จากจีนสามารถใช้งานซอฟต์แวร์ที่พัฒนาบน CUDA ได้โดยตรง Fenghua No.3 ใช้สถาปัตยกรรม RISC-V แบบ open-source แทน PowerVR ที่เคยใช้ในรุ่นก่อนหน้า และมีการออกแบบใหม่ทั้งหมดจากภายในประเทศ โดยอ้างว่าใช้เทคโนโลยีจากโครงการ Nanhu V3 ของ OpenCore Institute ด้านการเล่นเกม Fenghua No.3 รองรับ API สมัยใหม่อย่าง DirectX 12, Vulkan 1.2 และ OpenGL 4.6 พร้อมฟีเจอร์ Ray Tracing และสามารถรันเกมอย่าง Tomb Raider, Delta Force และ Valorant ได้อย่างลื่นไหลในการสาธิต แม้จะไม่มีข้อมูลเฟรมเรตหรือความละเอียดที่ใช้ในการทดสอบ สำหรับงาน AI Fenghua No.3 มาพร้อมหน่วยความจำ HBM มากกว่า 112GB ซึ่งสามารถรันโมเดลขนาด 32B และ 72B ได้ด้วยการ์ดเดียว และสามารถรันโมเดลขนาด 671B และ 685B ได้เมื่อใช้การ์ด 8 ใบร่วมกัน โดยรองรับโมเดล DeepSeek V3, R1, V3.1 และ Qwen 2.5, Qwen 3 อย่างเต็มรูปแบบ นอกจากนี้ยังเป็น GPU ตัวแรกของจีนที่รองรับฟอร์แมต YUV444 สำหรับงานภาพละเอียดสูง และสามารถแสดงผลบนจอ 8K ได้พร้อมกันถึง 6 จอที่ 30Hz อีกทั้งยังรองรับ DICOM สำหรับการแสดงผลภาพทางการแพทย์ เช่น MRI และ CT scan โดยไม่ต้องใช้จอ grayscale เฉพาะทาง ✅ ข้อมูลสำคัญจากข่าว ➡️ Fenghua No.3 เป็น GPU รุ่นใหม่จาก Innosilicon ประเทศจีน ➡️ ใช้สถาปัตยกรรม RISC-V และออกแบบใหม่ทั้งหมดภายในประเทศ ➡️ เคลมว่ารองรับ CUDA ซึ่งเป็นแพลตฟอร์มเฉพาะของ Nvidia ➡️ รองรับ DirectX 12, Vulkan 1.2, OpenGL 4.6 และ Ray Tracing ➡️ รันเกม Tomb Raider, Delta Force, Valorant ได้ในการสาธิต ➡️ มาพร้อม HBM มากกว่า 112GB สำหรับงาน AI ขนาดใหญ่ ➡️ รองรับโมเดล DeepSeek และ Qwen หลายเวอร์ชัน ➡️ รองรับ YUV444 สำหรับงาน CAD และวิดีโอ ➡️ แสดงผล 8K ได้พร้อมกัน 6 จอที่ 30Hz ➡️ รองรับ DICOM สำหรับภาพทางการแพทย์โดยไม่ต้องใช้จอเฉพาะ ✅ ข้อมูลเสริมจากภายนอก ➡️ CUDA เป็นแพลตฟอร์มที่ Nvidia ใช้สำหรับงาน AI และ HPC โดยทั่วไปไม่เปิดให้ GPU อื่นใช้งาน ➡️ RISC-V เป็นสถาปัตยกรรมแบบเปิดที่กำลังได้รับความนิยมในจีนเพื่อหลีกเลี่ยงการพึ่งพา IP จากตะวันตก ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่เร็วและเหมาะกับงาน AI มากกว่า GDDR ➡️ YUV444 ให้ความละเอียดสีสูงกว่าฟอร์แมตทั่วไป เช่น YUV420 ซึ่งใช้ในวิดีโอสตรีมมิ่ง ➡️ DICOM เป็นมาตรฐานภาพทางการแพทย์ที่ใช้ในโรงพยาบาลทั่วโลก https://www.tomshardware.com/pc-components/gpus/chinas-latest-gpu-arrives-with-claims-of-cuda-compatibility-and-rt-support-fenghua-no-3-also-boasts-112gb-of-hbm-memory-for-ai
    0 Comments 0 Shares 109 Views 0 Reviews
  • “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI”

    ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด

    ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด

    OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว

    Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง

    รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก

    แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น

    ข้อมูลสำคัญจากข่าว
    Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด
    Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia
    OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน
    Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้

    สถานการณ์ตลาดและผลกระทบ
    Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39%
    Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92%
    สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก
    จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ

    ข้อมูลเสริมจากภายนอก
    AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน
    การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง
    การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี
    สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด

    https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    🔒 “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI” ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น ✅ ข้อมูลสำคัญจากข่าว ➡️ Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด ➡️ Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia ➡️ OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน ➡️ Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้ ✅ สถานการณ์ตลาดและผลกระทบ ➡️ Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39% ➡️ Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92% ➡️ สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก ➡️ จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ ✅ ข้อมูลเสริมจากภายนอก ➡️ AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน ➡️ การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง ➡️ การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี ➡️ สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    0 Comments 0 Shares 182 Views 0 Reviews
  • “FSR 4 หลุดซอร์สโค้ด — เปิดทางให้การ์ดจอเก่าใช้เทคโนโลยีอัปสเกล AI แบบใหม่ โดยไม่ต้องพึ่ง Linux”

    AMD FidelityFX Super Resolution 4 หรือ FSR 4 เป็นเทคโนโลยีอัปสเกลภาพด้วย AI รุ่นล่าสุดจาก AMD ที่เดิมทีรองรับเฉพาะการ์ดจอ Radeon RX 9000 ที่ใช้สถาปัตยกรรม RDNA 4 เท่านั้น แต่เมื่อเดือนกันยายน 2025 มีการ “หลุด” ซอร์สโค้ดของ FSR 4 ออกมาโดยไม่ตั้งใจ ซึ่งเปิดโอกาสให้ผู้ใช้ทั่วไปสามารถนำไปปรับแต่งและใช้งานบนการ์ดจอรุ่นเก่าได้อย่างกว้างขวาง

    ซอร์สโค้ดที่หลุดออกมานั้นรวมถึงเวอร์ชันที่ใช้ INT8 ซึ่งเป็นชนิดข้อมูลที่รองรับโดยเกือบทุก GPU สมัยใหม่ ไม่ว่าจะเป็น Radeon RX 7000, GeForce RTX 30/40 หรือแม้แต่ Intel Arc ทำให้การใช้งาน FSR 4 ไม่จำกัดเฉพาะฮาร์ดแวร์ใหม่อีกต่อไป โดยไม่ต้องใช้ Linux เหมือนวิธีการแฮกในช่วงแรก ๆ

    ผู้ใช้ Reddit นามว่า /u/AthleteDependent926 ได้รวบรวมและคอมไพล์ซอร์สโค้ดให้เป็นไฟล์ DLL ที่สามารถใช้งานได้จริงผ่าน OptiScaler ซึ่งเป็นม็อดแบบ multi-game ที่คล้ายกับ ReShade โดยผู้ใช้สามารถติดตั้ง OptiScaler ลงในโฟลเดอร์เกม แล้วเลือก FSR 4.0.2 จากเมนู UI เพื่อเปิดใช้งาน

    จากการทดสอบในเกม Cyberpunk 2077 พบว่า FSR 4 ให้คุณภาพภาพที่คมชัดกว่า FSR 3 และ Intel XeSS อย่างชัดเจน แม้จะยังไม่เทียบเท่า DLSS 4 ของ NVIDIA แต่ก็ถือว่าเป็นทางเลือกที่ดีสำหรับผู้ใช้ที่ไม่มีการ์ดจอระดับสูง โดยเฉพาะในเกมที่รองรับ FSR 3 อยู่แล้ว

    อย่างไรก็ตาม การใช้งานผ่านม็อดยังมีข้อจำกัด เช่น การตั้งค่าที่ไม่ตรงไปตรงมา และประสิทธิภาพที่ลดลงเล็กน้อยจากการประมวลผลเพิ่มเติม โดยเฉพาะในโหมด Ray Tracing ซึ่งอาจทำให้เฟรมเรตลดลงจาก 60 FPS เหลือประมาณ 48 FPS

    ข้อมูลสำคัญจากข่าว
    AMD เผลอปล่อยซอร์สโค้ด FSR 4 ที่รวมเวอร์ชัน INT8 ซึ่งรองรับ GPU ส่วนใหญ่
    ผู้ใช้ Reddit คอมไพล์ซอร์สโค้ดเป็น DLL ที่ใช้งานได้จริง
    ใช้งานผ่านม็อด OptiScaler โดยเลือก FSR 4.0.2 จาก UI
    รองรับ DirectX 12, DirectX 11 และ Vulkan ในหลายเกม

    ผลการทดสอบและคุณภาพภาพ
    FSR 4 ให้ภาพคมชัดกว่า FSR 3 และ XeSS โดยเฉพาะใน Cyberpunk 2077
    ลดอาการเบลอและ aliasing บนวัตถุระยะไกล
    ใช้เวลาอัปสเกลประมาณ 4.1 ms บน RX 7800 XT และ 2.3 ms บน Radeon 8060S
    เหมาะสำหรับผู้ใช้ที่ต้องการคุณภาพภาพสูงโดยไม่ต้องใช้ DLSS

    ข้อมูลเสริมจากภายนอก
    FSR 4 เวอร์ชัน FP8 ใช้เฉพาะบน RDNA 4 เท่านั้น
    INT8 เป็นชนิดข้อมูลที่ใช้กันทั่วไปในงาน AI inference
    OptiScaler เป็นม็อดที่รองรับหลายเกมและสามารถปรับแต่งได้หลากหลาย
    การใช้งาน FSR 4 ผ่าน DLL ช่วยให้เกมเก่าได้รับคุณภาพภาพที่ดีขึ้นโดยไม่ต้องอัปเกรดฮาร์ดแวร์

    https://www.tomshardware.com/pc-components/gpus/latest-fsr-4-source-code-leak-lets-you-run-amds-ai-upscaling-tech-on-nearly-any-gpu-no-linux-required
    🧠 “FSR 4 หลุดซอร์สโค้ด — เปิดทางให้การ์ดจอเก่าใช้เทคโนโลยีอัปสเกล AI แบบใหม่ โดยไม่ต้องพึ่ง Linux” AMD FidelityFX Super Resolution 4 หรือ FSR 4 เป็นเทคโนโลยีอัปสเกลภาพด้วย AI รุ่นล่าสุดจาก AMD ที่เดิมทีรองรับเฉพาะการ์ดจอ Radeon RX 9000 ที่ใช้สถาปัตยกรรม RDNA 4 เท่านั้น แต่เมื่อเดือนกันยายน 2025 มีการ “หลุด” ซอร์สโค้ดของ FSR 4 ออกมาโดยไม่ตั้งใจ ซึ่งเปิดโอกาสให้ผู้ใช้ทั่วไปสามารถนำไปปรับแต่งและใช้งานบนการ์ดจอรุ่นเก่าได้อย่างกว้างขวาง ซอร์สโค้ดที่หลุดออกมานั้นรวมถึงเวอร์ชันที่ใช้ INT8 ซึ่งเป็นชนิดข้อมูลที่รองรับโดยเกือบทุก GPU สมัยใหม่ ไม่ว่าจะเป็น Radeon RX 7000, GeForce RTX 30/40 หรือแม้แต่ Intel Arc ทำให้การใช้งาน FSR 4 ไม่จำกัดเฉพาะฮาร์ดแวร์ใหม่อีกต่อไป โดยไม่ต้องใช้ Linux เหมือนวิธีการแฮกในช่วงแรก ๆ ผู้ใช้ Reddit นามว่า /u/AthleteDependent926 ได้รวบรวมและคอมไพล์ซอร์สโค้ดให้เป็นไฟล์ DLL ที่สามารถใช้งานได้จริงผ่าน OptiScaler ซึ่งเป็นม็อดแบบ multi-game ที่คล้ายกับ ReShade โดยผู้ใช้สามารถติดตั้ง OptiScaler ลงในโฟลเดอร์เกม แล้วเลือก FSR 4.0.2 จากเมนู UI เพื่อเปิดใช้งาน จากการทดสอบในเกม Cyberpunk 2077 พบว่า FSR 4 ให้คุณภาพภาพที่คมชัดกว่า FSR 3 และ Intel XeSS อย่างชัดเจน แม้จะยังไม่เทียบเท่า DLSS 4 ของ NVIDIA แต่ก็ถือว่าเป็นทางเลือกที่ดีสำหรับผู้ใช้ที่ไม่มีการ์ดจอระดับสูง โดยเฉพาะในเกมที่รองรับ FSR 3 อยู่แล้ว อย่างไรก็ตาม การใช้งานผ่านม็อดยังมีข้อจำกัด เช่น การตั้งค่าที่ไม่ตรงไปตรงมา และประสิทธิภาพที่ลดลงเล็กน้อยจากการประมวลผลเพิ่มเติม โดยเฉพาะในโหมด Ray Tracing ซึ่งอาจทำให้เฟรมเรตลดลงจาก 60 FPS เหลือประมาณ 48 FPS ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เผลอปล่อยซอร์สโค้ด FSR 4 ที่รวมเวอร์ชัน INT8 ซึ่งรองรับ GPU ส่วนใหญ่ ➡️ ผู้ใช้ Reddit คอมไพล์ซอร์สโค้ดเป็น DLL ที่ใช้งานได้จริง ➡️ ใช้งานผ่านม็อด OptiScaler โดยเลือก FSR 4.0.2 จาก UI ➡️ รองรับ DirectX 12, DirectX 11 และ Vulkan ในหลายเกม ✅ ผลการทดสอบและคุณภาพภาพ ➡️ FSR 4 ให้ภาพคมชัดกว่า FSR 3 และ XeSS โดยเฉพาะใน Cyberpunk 2077 ➡️ ลดอาการเบลอและ aliasing บนวัตถุระยะไกล ➡️ ใช้เวลาอัปสเกลประมาณ 4.1 ms บน RX 7800 XT และ 2.3 ms บน Radeon 8060S ➡️ เหมาะสำหรับผู้ใช้ที่ต้องการคุณภาพภาพสูงโดยไม่ต้องใช้ DLSS ✅ ข้อมูลเสริมจากภายนอก ➡️ FSR 4 เวอร์ชัน FP8 ใช้เฉพาะบน RDNA 4 เท่านั้น ➡️ INT8 เป็นชนิดข้อมูลที่ใช้กันทั่วไปในงาน AI inference ➡️ OptiScaler เป็นม็อดที่รองรับหลายเกมและสามารถปรับแต่งได้หลากหลาย ➡️ การใช้งาน FSR 4 ผ่าน DLL ช่วยให้เกมเก่าได้รับคุณภาพภาพที่ดีขึ้นโดยไม่ต้องอัปเกรดฮาร์ดแวร์ https://www.tomshardware.com/pc-components/gpus/latest-fsr-4-source-code-leak-lets-you-run-amds-ai-upscaling-tech-on-nearly-any-gpu-no-linux-required
    WWW.TOMSHARDWARE.COM
    Latest FSR 4 source code 'leak' lets you run AMD's AI upscaling tech on nearly any GPU — no Linux required
    It's a bit hacky, but with some tweaking, older GPUs get a nice new upscaling option. Maybe it'll make Bl4 playable?
    0 Comments 0 Shares 151 Views 0 Reviews
  • “Tencent หันหลังให้ Nvidia — ปรับโครงสร้าง AI สู่ชิปจีนเต็มรูปแบบ ท่ามกลางแรงกดดันจากสงครามเทคโนโลยี”

    Tencent บริษัทเทคโนโลยียักษ์ใหญ่ของจีน ประกาศอย่างเป็นทางการในงาน Global Digital Ecosystem Summit เมื่อวันที่ 16 กันยายน 2025 ว่าได้ “ปรับโครงสร้างระบบประมวลผล AI ทั้งหมด” เพื่อรองรับชิปที่ออกแบบโดยบริษัทจีน โดยไม่พึ่งพา Nvidia อีกต่อไป ถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในยุทธศาสตร์ด้านฮาร์ดแวร์ของบริษัท และสะท้อนแนวโน้มการพึ่งพาตนเองของจีนในยุคที่การส่งออกเทคโนโลยีจากสหรัฐฯ ถูกจำกัดอย่างเข้มงวด

    Qiu Yuepeng ประธาน Tencent Cloud ยืนยันว่าบริษัทได้ใช้ “ชิปจีนกระแสหลัก” ในการผลิตจริง ไม่ใช่แค่ทดลอง และกำลังร่วมมือกับผู้ผลิตชิปหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน พร้อมลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อลดต้นทุนการประมวลผล

    การประกาศนี้เกิดขึ้นเพียงหนึ่งวันหลังจากหน่วยงานกำกับดูแลของจีนเปิดเผยว่า Nvidia ละเมิดกฎการควบรวมกิจการจากการซื้อ Mellanox ในปี 2019 ซึ่งเพิ่มแรงกดดันให้บริษัทจีนต้องเร่งพัฒนาเทคโนโลยีของตนเอง

    แม้ Tencent จะไม่เปิดเผยชื่อชิปที่ใช้งานจริง แต่หลายฝ่ายคาดว่าเป็น Huawei Ascend ซึ่งมีการใช้งานแล้วใน ByteDance และได้รับการสนับสนุนจากเฟรมเวิร์ก MindSpore ที่พัฒนาอย่างต่อเนื่อง อย่างไรก็ตาม ยังมีข้อสงสัยว่าชิปเหล่านี้จะสามารถรองรับการฝึกโมเดลขนาดใหญ่ได้จริงหรือไม่ เนื่องจาก Huawei ถูกคาดว่าจะผลิตได้เพียง 200,000 ชิป AI ในปีหน้า

    Tencent ยังระบุว่ามีชิปสำหรับการฝึกโมเดลเพียงพอในคลัง และมี “หลายทางเลือก” สำหรับ inference ซึ่งสะท้อนถึงการกระจายความเสี่ยงด้านซัพพลายเชนอย่างชัดเจน

    ข้อมูลสำคัญจากข่าว
    Tencent ประกาศปรับโครงสร้างระบบ AI เพื่อรองรับชิปจีนเต็มรูปแบบ
    ใช้ชิปจีนกระแสหลักในระดับการผลิตจริง ไม่ใช่แค่ทดลอง
    ร่วมมือกับผู้ผลิตหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน
    ลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์

    ความเคลื่อนไหวที่เกี่ยวข้อง
    Nvidia ถูกกล่าวหาว่าละเมิดกฎการควบรวมกิจการในจีนจากดีล Mellanox
    Tencent มีชิปสำหรับการฝึกโมเดลเพียงพอ และมีหลายทางเลือกสำหรับ inference
    DeepSeek AI ประกาศว่าโมเดล V3.1 ถูกออกแบบมาเพื่อรองรับชิปจีนรุ่นใหม่
    Huawei Ascend ถูกใช้งานใน ByteDance และมีเฟรมเวิร์ก MindSpore รองรับ

    ข้อมูลเสริมจากภายนอก
    จีนตั้งเป้าให้บริษัทในประเทศใช้ชิปจีนอย่างน้อย 50% ภายในปี 2026
    กลุ่ม Model-Chips Ecosystem Innovation Alliance ก่อตั้งขึ้นเพื่อผลักดันการใช้ชิปจีนในงาน AI
    การเปลี่ยนจาก Nvidia ไปยังชิปจีนต้องใช้เวลาและต้นทุนสูงในการปรับซอฟต์แวร์
    Huawei Ascend ยังมีข้อจำกัดด้านปริมาณการผลิตและการเข้าถึง HBM

    https://www.tomshardware.com/tech-industry/semiconductors/tencent-goes-public-with-pivot-to-chinese-chips
    🇨🇳 “Tencent หันหลังให้ Nvidia — ปรับโครงสร้าง AI สู่ชิปจีนเต็มรูปแบบ ท่ามกลางแรงกดดันจากสงครามเทคโนโลยี” Tencent บริษัทเทคโนโลยียักษ์ใหญ่ของจีน ประกาศอย่างเป็นทางการในงาน Global Digital Ecosystem Summit เมื่อวันที่ 16 กันยายน 2025 ว่าได้ “ปรับโครงสร้างระบบประมวลผล AI ทั้งหมด” เพื่อรองรับชิปที่ออกแบบโดยบริษัทจีน โดยไม่พึ่งพา Nvidia อีกต่อไป ถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในยุทธศาสตร์ด้านฮาร์ดแวร์ของบริษัท และสะท้อนแนวโน้มการพึ่งพาตนเองของจีนในยุคที่การส่งออกเทคโนโลยีจากสหรัฐฯ ถูกจำกัดอย่างเข้มงวด Qiu Yuepeng ประธาน Tencent Cloud ยืนยันว่าบริษัทได้ใช้ “ชิปจีนกระแสหลัก” ในการผลิตจริง ไม่ใช่แค่ทดลอง และกำลังร่วมมือกับผู้ผลิตชิปหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน พร้อมลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อลดต้นทุนการประมวลผล การประกาศนี้เกิดขึ้นเพียงหนึ่งวันหลังจากหน่วยงานกำกับดูแลของจีนเปิดเผยว่า Nvidia ละเมิดกฎการควบรวมกิจการจากการซื้อ Mellanox ในปี 2019 ซึ่งเพิ่มแรงกดดันให้บริษัทจีนต้องเร่งพัฒนาเทคโนโลยีของตนเอง แม้ Tencent จะไม่เปิดเผยชื่อชิปที่ใช้งานจริง แต่หลายฝ่ายคาดว่าเป็น Huawei Ascend ซึ่งมีการใช้งานแล้วใน ByteDance และได้รับการสนับสนุนจากเฟรมเวิร์ก MindSpore ที่พัฒนาอย่างต่อเนื่อง อย่างไรก็ตาม ยังมีข้อสงสัยว่าชิปเหล่านี้จะสามารถรองรับการฝึกโมเดลขนาดใหญ่ได้จริงหรือไม่ เนื่องจาก Huawei ถูกคาดว่าจะผลิตได้เพียง 200,000 ชิป AI ในปีหน้า Tencent ยังระบุว่ามีชิปสำหรับการฝึกโมเดลเพียงพอในคลัง และมี “หลายทางเลือก” สำหรับ inference ซึ่งสะท้อนถึงการกระจายความเสี่ยงด้านซัพพลายเชนอย่างชัดเจน ✅ ข้อมูลสำคัญจากข่าว ➡️ Tencent ประกาศปรับโครงสร้างระบบ AI เพื่อรองรับชิปจีนเต็มรูปแบบ ➡️ ใช้ชิปจีนกระแสหลักในระดับการผลิตจริง ไม่ใช่แค่ทดลอง ➡️ ร่วมมือกับผู้ผลิตหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน ➡️ ลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ ✅ ความเคลื่อนไหวที่เกี่ยวข้อง ➡️ Nvidia ถูกกล่าวหาว่าละเมิดกฎการควบรวมกิจการในจีนจากดีล Mellanox ➡️ Tencent มีชิปสำหรับการฝึกโมเดลเพียงพอ และมีหลายทางเลือกสำหรับ inference ➡️ DeepSeek AI ประกาศว่าโมเดล V3.1 ถูกออกแบบมาเพื่อรองรับชิปจีนรุ่นใหม่ ➡️ Huawei Ascend ถูกใช้งานใน ByteDance และมีเฟรมเวิร์ก MindSpore รองรับ ✅ ข้อมูลเสริมจากภายนอก ➡️ จีนตั้งเป้าให้บริษัทในประเทศใช้ชิปจีนอย่างน้อย 50% ภายในปี 2026 ➡️ กลุ่ม Model-Chips Ecosystem Innovation Alliance ก่อตั้งขึ้นเพื่อผลักดันการใช้ชิปจีนในงาน AI ➡️ การเปลี่ยนจาก Nvidia ไปยังชิปจีนต้องใช้เวลาและต้นทุนสูงในการปรับซอฟต์แวร์ ➡️ Huawei Ascend ยังมีข้อจำกัดด้านปริมาณการผลิตและการเข้าถึง HBM https://www.tomshardware.com/tech-industry/semiconductors/tencent-goes-public-with-pivot-to-chinese-chips
    WWW.TOMSHARDWARE.COM
    Chinese giant Tencent announces domestic AI chip push — says it has fully adapted infrastructure to support homegrown silicon in blow to Nvidia
    Tencent goes public with its pivot to Chinese accelerators, highlighting a deeper break from Nvidia as domestic AI hardware matures.
    0 Comments 0 Shares 207 Views 0 Reviews
  • “Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมจากชิปซิลิคอน — จุดเปลี่ยนที่อาจทำให้ควอนตัมกลายเป็นเรื่อง ‘ธรรมดา’”

    Quantum Motion สตาร์ทอัพจากสหราชอาณาจักรที่แยกตัวจากมหาวิทยาลัย Oxford และ UCL ได้ประกาศเปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack เครื่องแรกของโลกที่สร้างขึ้นจากเทคโนโลยีชิปซิลิคอนมาตรฐานแบบเดียวกับที่ใช้ในโน้ตบุ๊กและสมาร์ตโฟน โดยระบบนี้ถูกติดตั้งแล้วที่ศูนย์ National Quantum Computing Centre (NQCC) ของสหราชอาณาจักรเมื่อวันที่ 15 กันยายน 2025

    สิ่งที่ทำให้ระบบนี้โดดเด่นคือการใช้กระบวนการผลิต CMOS ขนาด 300 มม. ซึ่งสามารถผลิตได้ในโรงงานชิปทั่วไป และติดตั้งในตู้เซิร์ฟเวอร์ขนาดมาตรฐาน 19 นิ้วเพียง 3 ตู้เท่านั้น — รวมถึงระบบ cryogenics และอุปกรณ์ควบคุมทั้งหมด ถือเป็น “quantum computing’s silicon moment” ที่อาจเปลี่ยนเกมการผลิตฮาร์ดแวร์ควอนตัมให้สามารถขยายได้ในระดับอุตสาหกรรม

    ระบบนี้ใช้สถาปัตยกรรมแบบ tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต และรองรับเฟรมเวิร์กยอดนิยมอย่าง Qiskit และ Cirq ทำให้นักพัฒนาสามารถสร้างแอปควอนตัมได้โดยไม่ต้องเปลี่ยนเครื่องมือใหม่ทั้งหมด

    แม้จะเป็นก้าวใหญ่ด้านวิศวกรรม แต่ Quantum Motion ยังไม่ได้เปิดเผยข้อมูลสำคัญ เช่น จำนวน qubit, ความแม่นยำของ gate, เวลาคงอยู่ของ qubit หรือ benchmark ใด ๆ ทั้งสิ้น ทำให้ยังไม่สามารถประเมินประสิทธิภาพจริงได้ในตอนนี้ และต้องรอการทดสอบจาก NQCC ในอีกไม่กี่เดือนข้างหน้า

    ข้อมูลสำคัญจากข่าว
    Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack จากชิปซิลิคอนมาตรฐาน
    ใช้กระบวนการผลิต CMOS ขนาด 300 มม. ที่สามารถผลิตในโรงงานทั่วไป
    ติดตั้งในศูนย์ NQCC ของสหราชอาณาจักรเมื่อ 15 กันยายน 2025
    ระบบทั้งหมดอยู่ในตู้เซิร์ฟเวอร์ขนาด 19 นิ้วเพียง 3 ตู้ รวมถึงตู้เย็นควอนตัมและอุปกรณ์ควบคุม

    จุดเด่นด้านเทคโนโลยี
    ใช้สถาปัตยกรรม tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต
    รองรับเฟรมเวิร์กยอดนิยม เช่น Qiskit และ Cirq
    ออกแบบให้สามารถติดตั้งในศูนย์ข้อมูลทั่วไปโดยไม่ต้องปรับโครงสร้าง
    เป็นระบบแรกที่ใช้ชิปซิลิคอนแบบ mass manufacturable สำหรับควอนตัม

    ข้อมูลเสริมจากภายนอก
    Quantum Motion ก่อตั้งในปี 2017 โดยนักวิจัยจาก Oxford และ UCL
    ได้รับเงินทุนกว่า $50.8 ล้านในปี 2023 และเข้าร่วมโครงการ DARPA QBI ในปี 2025
    การใช้ชิปซิลิคอนช่วยลดต้นทุนและเพิ่มความสามารถในการผลิตจำนวนมาก
    หากสำเร็จ อาจนำไปสู่การใช้งานควอนตัมในด้านพลังงาน ยา และการเงินอย่างแพร่หลาย

    https://www.tomshardware.com/tech-industry/supercomputers/uk-start-up-quantum-computer-runs-on-standard-chips
    🧊 “Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมจากชิปซิลิคอน — จุดเปลี่ยนที่อาจทำให้ควอนตัมกลายเป็นเรื่อง ‘ธรรมดา’” Quantum Motion สตาร์ทอัพจากสหราชอาณาจักรที่แยกตัวจากมหาวิทยาลัย Oxford และ UCL ได้ประกาศเปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack เครื่องแรกของโลกที่สร้างขึ้นจากเทคโนโลยีชิปซิลิคอนมาตรฐานแบบเดียวกับที่ใช้ในโน้ตบุ๊กและสมาร์ตโฟน โดยระบบนี้ถูกติดตั้งแล้วที่ศูนย์ National Quantum Computing Centre (NQCC) ของสหราชอาณาจักรเมื่อวันที่ 15 กันยายน 2025 สิ่งที่ทำให้ระบบนี้โดดเด่นคือการใช้กระบวนการผลิต CMOS ขนาด 300 มม. ซึ่งสามารถผลิตได้ในโรงงานชิปทั่วไป และติดตั้งในตู้เซิร์ฟเวอร์ขนาดมาตรฐาน 19 นิ้วเพียง 3 ตู้เท่านั้น — รวมถึงระบบ cryogenics และอุปกรณ์ควบคุมทั้งหมด ถือเป็น “quantum computing’s silicon moment” ที่อาจเปลี่ยนเกมการผลิตฮาร์ดแวร์ควอนตัมให้สามารถขยายได้ในระดับอุตสาหกรรม ระบบนี้ใช้สถาปัตยกรรมแบบ tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต และรองรับเฟรมเวิร์กยอดนิยมอย่าง Qiskit และ Cirq ทำให้นักพัฒนาสามารถสร้างแอปควอนตัมได้โดยไม่ต้องเปลี่ยนเครื่องมือใหม่ทั้งหมด แม้จะเป็นก้าวใหญ่ด้านวิศวกรรม แต่ Quantum Motion ยังไม่ได้เปิดเผยข้อมูลสำคัญ เช่น จำนวน qubit, ความแม่นยำของ gate, เวลาคงอยู่ของ qubit หรือ benchmark ใด ๆ ทั้งสิ้น ทำให้ยังไม่สามารถประเมินประสิทธิภาพจริงได้ในตอนนี้ และต้องรอการทดสอบจาก NQCC ในอีกไม่กี่เดือนข้างหน้า ✅ ข้อมูลสำคัญจากข่าว ➡️ Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack จากชิปซิลิคอนมาตรฐาน ➡️ ใช้กระบวนการผลิต CMOS ขนาด 300 มม. ที่สามารถผลิตในโรงงานทั่วไป ➡️ ติดตั้งในศูนย์ NQCC ของสหราชอาณาจักรเมื่อ 15 กันยายน 2025 ➡️ ระบบทั้งหมดอยู่ในตู้เซิร์ฟเวอร์ขนาด 19 นิ้วเพียง 3 ตู้ รวมถึงตู้เย็นควอนตัมและอุปกรณ์ควบคุม ✅ จุดเด่นด้านเทคโนโลยี ➡️ ใช้สถาปัตยกรรม tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต ➡️ รองรับเฟรมเวิร์กยอดนิยม เช่น Qiskit และ Cirq ➡️ ออกแบบให้สามารถติดตั้งในศูนย์ข้อมูลทั่วไปโดยไม่ต้องปรับโครงสร้าง ➡️ เป็นระบบแรกที่ใช้ชิปซิลิคอนแบบ mass manufacturable สำหรับควอนตัม ✅ ข้อมูลเสริมจากภายนอก ➡️ Quantum Motion ก่อตั้งในปี 2017 โดยนักวิจัยจาก Oxford และ UCL ➡️ ได้รับเงินทุนกว่า $50.8 ล้านในปี 2023 และเข้าร่วมโครงการ DARPA QBI ในปี 2025 ➡️ การใช้ชิปซิลิคอนช่วยลดต้นทุนและเพิ่มความสามารถในการผลิตจำนวนมาก ➡️ หากสำเร็จ อาจนำไปสู่การใช้งานควอนตัมในด้านพลังงาน ยา และการเงินอย่างแพร่หลาย https://www.tomshardware.com/tech-industry/supercomputers/uk-start-up-quantum-computer-runs-on-standard-chips
    WWW.TOMSHARDWARE.COM
    Start-up hails world's first quantum computer made from everyday silicon — fits in three 19-inch server racks and is touted as 'quantum computing's silicon moment'
    Built on a standard CMOS process and packed into three racks, Quantum Motion’s silicon spin-qubit machine is ready to be tested.
    0 Comments 0 Shares 139 Views 0 Reviews
  • “React ชนะเพราะความเคยชิน ไม่ใช่คุณภาพ — เมื่อการเลือกแบบอัตโนมัติกลายเป็นตัวขวางนวัตกรรมของเว็บ”

    Loren Stewart นักพัฒนาและนักเขียนสายเทคโนโลยี ได้เขียนบทความวิจารณ์ที่สะเทือนวงการ frontend ว่า “React ไม่ได้ชนะเพราะดีที่สุด แต่ชนะเพราะกลายเป็นค่าเริ่มต้น” ซึ่งส่งผลให้การพัฒนาเว็บในปัจจุบันติดอยู่ในกรอบเดิม ๆ และขาดการทดลองกับแนวทางใหม่ที่อาจดีกว่า

    เขาอธิบายว่าเมื่อทีมเริ่มต้นโปรเจกต์ใหม่ มักจะเลือก React โดยไม่ถามว่า “อะไรเหมาะกับงานนี้” แต่กลับเริ่มต้นด้วย “ใช้ React เพราะทุกคนรู้จัก” ซึ่งสร้างวงจรที่ตอกย้ำตัวเองผ่านการจ้างงาน ไลบรารี และความเคยชินของทีม

    React ไม่ได้แย่ — แต่การเลือก React โดยไม่พิจารณาทางเลือกอื่นคือปัญหา เพราะมันทำให้เฟรมเวิร์กที่มีนวัตกรรมจริง เช่น Svelte, Solid และ Qwik ไม่ได้รับโอกาส ทั้งที่มีจุดเด่นเฉพาะตัว เช่น:
    - Svelte ใช้การ compile ล่วงหน้าแทน virtual DOM
    - Solid ใช้ reactivity แบบละเอียดโดยไม่ต้อง reconcile
    - Qwik ใช้ resumability เพื่อเริ่มต้นแอปทันทีโดยไม่ต้อง hydrate

    Stewart ยังชี้ว่า React เองก็มีข้อจำกัด เช่น virtual DOM ที่กลายเป็น overhead ในยุคปัจจุบัน, hooks ที่ซับซ้อนเกินไป, และ Server Components ที่เพิ่มความยุ่งยากด้านสถาปัตยกรรม

    เขาเสนอว่าเราควรเลือกเฟรมเวิร์กจาก “ข้อจำกัดของงาน” ไม่ใช่ “ความเคยชินของทีม” และควรเปิดพื้นที่ให้เฟรมเวิร์กใหม่ได้เติบโต เช่น ทดลองในส่วนที่ไม่สำคัญก่อน หรือสอนแนวคิด framework-agnostic ในหลักสูตรการศึกษา

    ข้อมูลสำคัญจากบทความ
    React กลายเป็นตัวเลือกเริ่มต้นโดยไม่พิจารณาทางเลือกอื่น
    การเลือก React แบบอัตโนมัติทำให้เฟรมเวิร์กใหม่ไม่ถูกทดลอง
    React มีข้อจำกัด เช่น virtual DOM, hooks ที่ซับซ้อน, และ Server Components ที่เพิ่มความยุ่งยาก
    การเลือกเฟรมเวิร์กควรพิจารณาจากข้อจำกัดของงาน ไม่ใช่ความเคยชิน

    ทางเลือกที่มีนวัตกรรมสูง
    Svelte ใช้การ compile ล่วงหน้า — ลด runtime overhead
    Solid ใช้ reactivity แบบละเอียด — อัปเดตเฉพาะ DOM ที่เปลี่ยน
    Qwik ใช้ resumability — โหลดเฉพาะสิ่งที่จำเป็นในแต่ละ interaction
    ทั้งสามเฟรมเวิร์กมี API ที่เล็กกว่าและง่ายต่อการเรียนรู้

    ข้อมูลเสริมจากภายนอก
    Svelte ลดขนาด bundle ได้ถึง 60–70% เมื่อเทียบกับ React
    Solid ถูกใช้งานโดยบริษัทใหญ่ เช่น Netflix และ Cloudflare2
    Qwik มี startup time ที่เร็วที่สุดใน benchmark ปี 2025
    React ยังมีข้อดีด้าน ecosystem แต่ก็สร้าง inertia ที่ขัดขวางการเปลี่ยนแปลง

    https://www.lorenstew.art/blog/react-won-by-default/
    🧠 “React ชนะเพราะความเคยชิน ไม่ใช่คุณภาพ — เมื่อการเลือกแบบอัตโนมัติกลายเป็นตัวขวางนวัตกรรมของเว็บ” Loren Stewart นักพัฒนาและนักเขียนสายเทคโนโลยี ได้เขียนบทความวิจารณ์ที่สะเทือนวงการ frontend ว่า “React ไม่ได้ชนะเพราะดีที่สุด แต่ชนะเพราะกลายเป็นค่าเริ่มต้น” ซึ่งส่งผลให้การพัฒนาเว็บในปัจจุบันติดอยู่ในกรอบเดิม ๆ และขาดการทดลองกับแนวทางใหม่ที่อาจดีกว่า เขาอธิบายว่าเมื่อทีมเริ่มต้นโปรเจกต์ใหม่ มักจะเลือก React โดยไม่ถามว่า “อะไรเหมาะกับงานนี้” แต่กลับเริ่มต้นด้วย “ใช้ React เพราะทุกคนรู้จัก” ซึ่งสร้างวงจรที่ตอกย้ำตัวเองผ่านการจ้างงาน ไลบรารี และความเคยชินของทีม React ไม่ได้แย่ — แต่การเลือก React โดยไม่พิจารณาทางเลือกอื่นคือปัญหา เพราะมันทำให้เฟรมเวิร์กที่มีนวัตกรรมจริง เช่น Svelte, Solid และ Qwik ไม่ได้รับโอกาส ทั้งที่มีจุดเด่นเฉพาะตัว เช่น: - Svelte ใช้การ compile ล่วงหน้าแทน virtual DOM - Solid ใช้ reactivity แบบละเอียดโดยไม่ต้อง reconcile - Qwik ใช้ resumability เพื่อเริ่มต้นแอปทันทีโดยไม่ต้อง hydrate Stewart ยังชี้ว่า React เองก็มีข้อจำกัด เช่น virtual DOM ที่กลายเป็น overhead ในยุคปัจจุบัน, hooks ที่ซับซ้อนเกินไป, และ Server Components ที่เพิ่มความยุ่งยากด้านสถาปัตยกรรม เขาเสนอว่าเราควรเลือกเฟรมเวิร์กจาก “ข้อจำกัดของงาน” ไม่ใช่ “ความเคยชินของทีม” และควรเปิดพื้นที่ให้เฟรมเวิร์กใหม่ได้เติบโต เช่น ทดลองในส่วนที่ไม่สำคัญก่อน หรือสอนแนวคิด framework-agnostic ในหลักสูตรการศึกษา ✅ ข้อมูลสำคัญจากบทความ ➡️ React กลายเป็นตัวเลือกเริ่มต้นโดยไม่พิจารณาทางเลือกอื่น ➡️ การเลือก React แบบอัตโนมัติทำให้เฟรมเวิร์กใหม่ไม่ถูกทดลอง ➡️ React มีข้อจำกัด เช่น virtual DOM, hooks ที่ซับซ้อน, และ Server Components ที่เพิ่มความยุ่งยาก ➡️ การเลือกเฟรมเวิร์กควรพิจารณาจากข้อจำกัดของงาน ไม่ใช่ความเคยชิน ✅ ทางเลือกที่มีนวัตกรรมสูง ➡️ Svelte ใช้การ compile ล่วงหน้า — ลด runtime overhead ➡️ Solid ใช้ reactivity แบบละเอียด — อัปเดตเฉพาะ DOM ที่เปลี่ยน ➡️ Qwik ใช้ resumability — โหลดเฉพาะสิ่งที่จำเป็นในแต่ละ interaction ➡️ ทั้งสามเฟรมเวิร์กมี API ที่เล็กกว่าและง่ายต่อการเรียนรู้ ✅ ข้อมูลเสริมจากภายนอก ➡️ Svelte ลดขนาด bundle ได้ถึง 60–70% เมื่อเทียบกับ React ➡️ Solid ถูกใช้งานโดยบริษัทใหญ่ เช่น Netflix และ Cloudflare2 ➡️ Qwik มี startup time ที่เร็วที่สุดใน benchmark ปี 2025 ➡️ React ยังมีข้อดีด้าน ecosystem แต่ก็สร้าง inertia ที่ขัดขวางการเปลี่ยนแปลง https://www.lorenstew.art/blog/react-won-by-default/
    0 Comments 0 Shares 141 Views 0 Reviews
  • “AI กินไม่หยุด — ตลาด HDD และ SSD ขาดแคลนทั่วโลก หลังความต้องการเก็บข้อมูลพุ่งทะลุเพดาน”

    ในขณะที่โลกกำลังตื่นเต้นกับการเติบโตของ AI โดยเฉพาะด้าน GPU ที่เป็นหัวใจของการประมวลผล แต่สิ่งที่หลายคนอาจมองข้ามคือ “พื้นที่จัดเก็บข้อมูล” ที่กำลังถูก AI กลืนกินอย่างเงียบ ๆ ทั้ง HDD และ SSD กำลังเผชิญกับภาวะขาดแคลนครั้งใหญ่ โดยเฉพาะในกลุ่ม nearline HDD ที่ใช้เก็บข้อมูลแบบ “อุ่น” — ไม่ต้องเข้าถึงตลอดเวลา แต่ก็ต้องพร้อมใช้งานเมื่อจำเป็น

    Western Digital ส่งจดหมายแจ้งลูกค้าว่าความต้องการ HDD ทุกขนาดพุ่งสูงอย่างไม่เคยเกิดขึ้นมาก่อน และประกาศขึ้นราคาทุกผลิตภัณฑ์ทันที เพื่อ “รองรับการเติบโต” ซึ่งแน่นอนว่าก็ช่วยเพิ่มกำไรของบริษัทไปด้วยในตัว

    TrendForce รายงานว่าเวลารอสินค้าสำหรับ nearline HDD ตอนนี้ยาวถึง 52 สัปดาห์ — เกินหนึ่งปีเต็ม ซึ่งสะท้อนว่าผู้ผลิตไม่ได้เพิ่มกำลังการผลิตมานานนับทศวรรษ ขณะที่ AI โดยเฉพาะ generative AI ต้องใช้พื้นที่เก็บข้อมูลมหาศาล ไม่ใช่แค่ผลลัพธ์จากโมเดล แต่รวมถึงชุดข้อมูลสำหรับเทรน, checkpoint, log, และข้อมูลย้อนหลังที่ต้องเก็บไว้เพื่อการตรวจสอบและปรับปรุงโมเดลในอนาคต

    เมื่อ HDD ไม่พอใช้ ผู้ให้บริการคลาวด์ (CSPs) จึงหันไปใช้ SSD โดยเฉพาะ QLC SSD สำหรับงาน cold data แม้จะมีต้นทุนสูงกว่า HDD ถึง 4–5 เท่า แต่ก็มีข้อดีเรื่องความเร็ว ความหนาแน่น และการใช้พลังงานที่ต่ำกว่า อย่างไรก็ตาม การเปลี่ยนไปใช้ SSD ยังต้องปรับระบบจัดการข้อมูลใหม่ทั้งหมด และอาจทำให้ราคาของ SSD โดยเฉพาะรุ่นสำหรับองค์กรพุ่งขึ้นอีก 5–10% ในไตรมาสสุดท้ายของปี 2025

    ข้อมูลสำคัญจากข่าว
    ความต้องการ HDD และ SSD พุ่งสูงจากการเติบโตของ AI โดยเฉพาะ generative AI
    Western Digital แจ้งลูกค้าเรื่องการขึ้นราคาทุกผลิตภัณฑ์ HDD
    เวลารอ nearline HDD ยาวถึง 52 สัปดาห์ — สะท้อนปัญหากำลังการผลิต
    AI ต้องใช้พื้นที่เก็บข้อมูลมหาศาล ทั้งผลลัพธ์และข้อมูลเบื้องหลัง

    การเปลี่ยนแปลงในตลาดและผลกระทบ
    CSPs หันไปใช้ QLC SSD สำหรับ cold data แทน HDD ที่ขาดแคลน
    SSD มีข้อดีเรื่องความเร็ว ความหนาแน่น และการใช้พลังงานต่ำ
    การเปลี่ยนไปใช้ SSD ต้องปรับระบบจัดการข้อมูลใหม่ทั้งหมด
    ราคาของ SSD สำหรับองค์กรอาจเพิ่มขึ้น 5–10% ในไตรมาส 4 ปี 2025

    ข้อมูลเสริมจากภายนอก
    QLC SSD มีอัตราการใช้พลังงานต่ำกว่าฮาร์ดดิสก์ประมาณ 30%
    HDD ยังเป็นตัวเลือกหลักสำหรับ cold storage เพราะราคาต่อ GB ต่ำกว่า SSD
    การขาดแคลน HDD เกิดจากการลดกำลังผลิตในปี 2023 เพื่อควบคุมราคาตลาด
    จอภาพ 1000Hz ยังไม่รองรับการใช้งานเฟรมเรตสูงจากการประมวลผล AI

    https://www.tomshardware.com/pc-components/storage/expect-hdd-ssd-shortages-as-ai-rewrites-the-rules-of-storage-hierarchy-multiple-companies-announce-price-hikes-too
    📦 “AI กินไม่หยุด — ตลาด HDD และ SSD ขาดแคลนทั่วโลก หลังความต้องการเก็บข้อมูลพุ่งทะลุเพดาน” ในขณะที่โลกกำลังตื่นเต้นกับการเติบโตของ AI โดยเฉพาะด้าน GPU ที่เป็นหัวใจของการประมวลผล แต่สิ่งที่หลายคนอาจมองข้ามคือ “พื้นที่จัดเก็บข้อมูล” ที่กำลังถูก AI กลืนกินอย่างเงียบ ๆ ทั้ง HDD และ SSD กำลังเผชิญกับภาวะขาดแคลนครั้งใหญ่ โดยเฉพาะในกลุ่ม nearline HDD ที่ใช้เก็บข้อมูลแบบ “อุ่น” — ไม่ต้องเข้าถึงตลอดเวลา แต่ก็ต้องพร้อมใช้งานเมื่อจำเป็น Western Digital ส่งจดหมายแจ้งลูกค้าว่าความต้องการ HDD ทุกขนาดพุ่งสูงอย่างไม่เคยเกิดขึ้นมาก่อน และประกาศขึ้นราคาทุกผลิตภัณฑ์ทันที เพื่อ “รองรับการเติบโต” ซึ่งแน่นอนว่าก็ช่วยเพิ่มกำไรของบริษัทไปด้วยในตัว TrendForce รายงานว่าเวลารอสินค้าสำหรับ nearline HDD ตอนนี้ยาวถึง 52 สัปดาห์ — เกินหนึ่งปีเต็ม ซึ่งสะท้อนว่าผู้ผลิตไม่ได้เพิ่มกำลังการผลิตมานานนับทศวรรษ ขณะที่ AI โดยเฉพาะ generative AI ต้องใช้พื้นที่เก็บข้อมูลมหาศาล ไม่ใช่แค่ผลลัพธ์จากโมเดล แต่รวมถึงชุดข้อมูลสำหรับเทรน, checkpoint, log, และข้อมูลย้อนหลังที่ต้องเก็บไว้เพื่อการตรวจสอบและปรับปรุงโมเดลในอนาคต เมื่อ HDD ไม่พอใช้ ผู้ให้บริการคลาวด์ (CSPs) จึงหันไปใช้ SSD โดยเฉพาะ QLC SSD สำหรับงาน cold data แม้จะมีต้นทุนสูงกว่า HDD ถึง 4–5 เท่า แต่ก็มีข้อดีเรื่องความเร็ว ความหนาแน่น และการใช้พลังงานที่ต่ำกว่า อย่างไรก็ตาม การเปลี่ยนไปใช้ SSD ยังต้องปรับระบบจัดการข้อมูลใหม่ทั้งหมด และอาจทำให้ราคาของ SSD โดยเฉพาะรุ่นสำหรับองค์กรพุ่งขึ้นอีก 5–10% ในไตรมาสสุดท้ายของปี 2025 ✅ ข้อมูลสำคัญจากข่าว ➡️ ความต้องการ HDD และ SSD พุ่งสูงจากการเติบโตของ AI โดยเฉพาะ generative AI ➡️ Western Digital แจ้งลูกค้าเรื่องการขึ้นราคาทุกผลิตภัณฑ์ HDD ➡️ เวลารอ nearline HDD ยาวถึง 52 สัปดาห์ — สะท้อนปัญหากำลังการผลิต ➡️ AI ต้องใช้พื้นที่เก็บข้อมูลมหาศาล ทั้งผลลัพธ์และข้อมูลเบื้องหลัง ✅ การเปลี่ยนแปลงในตลาดและผลกระทบ ➡️ CSPs หันไปใช้ QLC SSD สำหรับ cold data แทน HDD ที่ขาดแคลน ➡️ SSD มีข้อดีเรื่องความเร็ว ความหนาแน่น และการใช้พลังงานต่ำ ➡️ การเปลี่ยนไปใช้ SSD ต้องปรับระบบจัดการข้อมูลใหม่ทั้งหมด ➡️ ราคาของ SSD สำหรับองค์กรอาจเพิ่มขึ้น 5–10% ในไตรมาส 4 ปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ QLC SSD มีอัตราการใช้พลังงานต่ำกว่าฮาร์ดดิสก์ประมาณ 30% ➡️ HDD ยังเป็นตัวเลือกหลักสำหรับ cold storage เพราะราคาต่อ GB ต่ำกว่า SSD ➡️ การขาดแคลน HDD เกิดจากการลดกำลังผลิตในปี 2023 เพื่อควบคุมราคาตลาด ➡️ จอภาพ 1000Hz ยังไม่รองรับการใช้งานเฟรมเรตสูงจากการประมวลผล AI https://www.tomshardware.com/pc-components/storage/expect-hdd-ssd-shortages-as-ai-rewrites-the-rules-of-storage-hierarchy-multiple-companies-announce-price-hikes-too
    WWW.TOMSHARDWARE.COM
    Expect HDD, SSD shortages as AI rewrites the rules of storage hierarchy — multiple companies announce price hikes, too
    AI isn't just consuming the GPU market. It's eating storage, too — and the shockwaves are likely to hit both HDD and SSD markets
    0 Comments 0 Shares 174 Views 0 Reviews
  • “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ”

    AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก

    ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด

    อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3

    แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ”

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่
    สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D
    ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p
    ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ

    การจับคู่กับ GPU และผลลัพธ์
    RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D
    Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends
    Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ
    Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ

    ข้อมูลเสริมจากภายนอก
    เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก
    จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC
    การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ
    การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน

    https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    🔥 “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ” AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3 แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ” ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่ ➡️ สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D ➡️ ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p ➡️ ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ ✅ การจับคู่กับ GPU และผลลัพธ์ ➡️ RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D ➡️ Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends ➡️ Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ ➡️ Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ ✅ ข้อมูลเสริมจากภายนอก ➡️ เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก ➡️ จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC ➡️ การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ ➡️ การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    0 Comments 0 Shares 160 Views 0 Reviews
  • “รู้หรือไม่? ‘Ti’ บนการ์ดจอ NVIDIA หมายถึงอะไร — ไม่ใช่แค่ชื่อเท่ แต่คือพลังที่เพิ่มขึ้นจริง”

    หากคุณเคยเลือกซื้อการ์ดจอ NVIDIA แล้วเจอรุ่นที่มีคำว่า “Ti” ต่อท้าย เช่น RTX 3080 Ti หรือ GTX 1660 Ti คุณอาจสงสัยว่า “Ti” หมายถึงอะไร และมันต่างจากรุ่นธรรมดาอย่างไร บทความจาก SlashGear ได้อธิบายไว้อย่างชัดเจนว่า “Ti” ย่อมาจาก “Titanium” ซึ่งแม้จะไม่ได้หมายถึงวัสดุที่ใช้ผลิตจริง แต่เป็นการสื่อถึงความแข็งแกร่งและประสิทธิภาพที่เหนือกว่า

    การ์ดจอรุ่น Ti มักจะมีสเปกที่สูงกว่ารุ่นธรรมดาในซีรีส์เดียวกัน เช่น มีจำนวน CUDA cores มากขึ้น, หน่วยความจำ (VRAM) เพิ่มขึ้น หรือความเร็วในการประมวลผลสูงขึ้น ซึ่งส่งผลให้การเรนเดอร์ภาพ การเล่นเกม และการตัดต่อวิดีโอทำได้ลื่นไหลกว่าเดิม

    อย่างไรก็ตาม การปรับแต่งของแต่ละรุ่น Ti ไม่ได้เหมือนกันหมด เช่น RTX 3080 Ti มี VRAM มากกว่า RTX 3080 อยู่ 2GB และมี CUDA cores เพิ่มขึ้นถึง 1,716 cores แต่รุ่นอื่น ๆ อาจมีการเพิ่มแค่บางส่วน ดังนั้นการเปรียบเทียบต้องดูเป็นรุ่นต่อรุ่น

    ในปี 2025 NVIDIA ได้เปิดตัวซีรีส์ RTX 50 ซึ่งยังคงมีรุ่น Ti เช่น RTX 5070 Ti ที่มาพร้อม 8960 CUDA cores และหน่วยความจำ GDDR7 ขนาด 16GB ซึ่งถือว่าเป็นตัวเลือกที่คุ้มค่าสำหรับเกมเมอร์และสายครีเอทีฟที่ต้องการประสิทธิภาพสูงโดยไม่ต้องข้ามไปยังรุ่น 5090 ที่แพงกว่า

    ความหมายและความสามารถของรุ่น Ti
    “Ti” ย่อมาจาก “Titanium” ใช้เพื่อสื่อถึงความแข็งแกร่งและประสิทธิภาพที่เหนือกว่า
    รุ่น Ti มักมี CUDA cores และ VRAM มากกว่ารุ่นธรรมดาในซีรีส์เดียวกัน
    RTX 3080 Ti มี VRAM เพิ่มขึ้น 2GB และ CUDA cores มากกว่า 1,700 cores เมื่อเทียบกับ RTX 3080
    RTX 5070 Ti ในปี 2025 มี 8960 CUDA cores และ GDDR7 ขนาด 16GB — เหมาะกับเกมระดับ AAA และงานกราฟิกหนัก

    การใช้งานและประโยชน์
    รุ่น Ti เหมาะกับผู้ใช้ที่ต้องการเฟรมเรตสูงและภาพลื่นไหลในการเล่นเกม
    เหมาะกับงานตัดต่อวิดีโอ, เรนเดอร์ 3D, และการทำงานด้าน AI ที่ต้องการประสิทธิภาพสูง
    รุ่น Ti มักมีราคาสูงกว่ารุ่นธรรมดา แต่ยังถูกกว่ารุ่นสูงสุดในซีรีส์ เช่น RTX 5090
    การเลือกใช้รุ่น Ti ช่วยลดการ drop frame และเพิ่มความละเอียดในการแสดงผล

    ข้อมูลเสริมจากภายนอก
    NVIDIA ยังมีรุ่น “Super” และ “Super Ti” ที่อยู่ระหว่างรุ่นธรรมดากับรุ่น Ti
    การ์ดจอรุ่น Ti มีในหลายซีรีส์ เช่น GTX 16, RTX 20, 30, 40 และล่าสุด RTX 50
    การเปรียบเทียบประสิทธิภาพควรดูจาก benchmark เช่น 3DMark หรือ Time Spy
    CUDA cores คือหน่วยประมวลผลขนาดเล็กที่ช่วยให้ GPU ทำงานแบบขนานได้ดีขึ้น

    https://www.slashgear.com/1966061/nvidia-graphics-card-ti-meaning-explained/
    ⚙️ “รู้หรือไม่? ‘Ti’ บนการ์ดจอ NVIDIA หมายถึงอะไร — ไม่ใช่แค่ชื่อเท่ แต่คือพลังที่เพิ่มขึ้นจริง” หากคุณเคยเลือกซื้อการ์ดจอ NVIDIA แล้วเจอรุ่นที่มีคำว่า “Ti” ต่อท้าย เช่น RTX 3080 Ti หรือ GTX 1660 Ti คุณอาจสงสัยว่า “Ti” หมายถึงอะไร และมันต่างจากรุ่นธรรมดาอย่างไร บทความจาก SlashGear ได้อธิบายไว้อย่างชัดเจนว่า “Ti” ย่อมาจาก “Titanium” ซึ่งแม้จะไม่ได้หมายถึงวัสดุที่ใช้ผลิตจริง แต่เป็นการสื่อถึงความแข็งแกร่งและประสิทธิภาพที่เหนือกว่า การ์ดจอรุ่น Ti มักจะมีสเปกที่สูงกว่ารุ่นธรรมดาในซีรีส์เดียวกัน เช่น มีจำนวน CUDA cores มากขึ้น, หน่วยความจำ (VRAM) เพิ่มขึ้น หรือความเร็วในการประมวลผลสูงขึ้น ซึ่งส่งผลให้การเรนเดอร์ภาพ การเล่นเกม และการตัดต่อวิดีโอทำได้ลื่นไหลกว่าเดิม อย่างไรก็ตาม การปรับแต่งของแต่ละรุ่น Ti ไม่ได้เหมือนกันหมด เช่น RTX 3080 Ti มี VRAM มากกว่า RTX 3080 อยู่ 2GB และมี CUDA cores เพิ่มขึ้นถึง 1,716 cores แต่รุ่นอื่น ๆ อาจมีการเพิ่มแค่บางส่วน ดังนั้นการเปรียบเทียบต้องดูเป็นรุ่นต่อรุ่น ในปี 2025 NVIDIA ได้เปิดตัวซีรีส์ RTX 50 ซึ่งยังคงมีรุ่น Ti เช่น RTX 5070 Ti ที่มาพร้อม 8960 CUDA cores และหน่วยความจำ GDDR7 ขนาด 16GB ซึ่งถือว่าเป็นตัวเลือกที่คุ้มค่าสำหรับเกมเมอร์และสายครีเอทีฟที่ต้องการประสิทธิภาพสูงโดยไม่ต้องข้ามไปยังรุ่น 5090 ที่แพงกว่า ✅ ความหมายและความสามารถของรุ่น Ti ➡️ “Ti” ย่อมาจาก “Titanium” ใช้เพื่อสื่อถึงความแข็งแกร่งและประสิทธิภาพที่เหนือกว่า ➡️ รุ่น Ti มักมี CUDA cores และ VRAM มากกว่ารุ่นธรรมดาในซีรีส์เดียวกัน ➡️ RTX 3080 Ti มี VRAM เพิ่มขึ้น 2GB และ CUDA cores มากกว่า 1,700 cores เมื่อเทียบกับ RTX 3080 ➡️ RTX 5070 Ti ในปี 2025 มี 8960 CUDA cores และ GDDR7 ขนาด 16GB — เหมาะกับเกมระดับ AAA และงานกราฟิกหนัก ✅ การใช้งานและประโยชน์ ➡️ รุ่น Ti เหมาะกับผู้ใช้ที่ต้องการเฟรมเรตสูงและภาพลื่นไหลในการเล่นเกม ➡️ เหมาะกับงานตัดต่อวิดีโอ, เรนเดอร์ 3D, และการทำงานด้าน AI ที่ต้องการประสิทธิภาพสูง ➡️ รุ่น Ti มักมีราคาสูงกว่ารุ่นธรรมดา แต่ยังถูกกว่ารุ่นสูงสุดในซีรีส์ เช่น RTX 5090 ➡️ การเลือกใช้รุ่น Ti ช่วยลดการ drop frame และเพิ่มความละเอียดในการแสดงผล ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA ยังมีรุ่น “Super” และ “Super Ti” ที่อยู่ระหว่างรุ่นธรรมดากับรุ่น Ti ➡️ การ์ดจอรุ่น Ti มีในหลายซีรีส์ เช่น GTX 16, RTX 20, 30, 40 และล่าสุด RTX 50 ➡️ การเปรียบเทียบประสิทธิภาพควรดูจาก benchmark เช่น 3DMark หรือ Time Spy ➡️ CUDA cores คือหน่วยประมวลผลขนาดเล็กที่ช่วยให้ GPU ทำงานแบบขนานได้ดีขึ้น https://www.slashgear.com/1966061/nvidia-graphics-card-ti-meaning-explained/
    WWW.SLASHGEAR.COM
    What Does 'Ti' Mean When It Comes To Nvidia GPUs? - SlashGear
    Nvidia's GPUs have been considered some of the best on the market, including the Ti releases, but what does the Ti designation mean for owners?
    0 Comments 0 Shares 133 Views 0 Reviews
  • “GStreamer 1.26.6 อัปเดตใหม่ รองรับ WVC1 และ WMV3 บน Video4Linux2 — เสริมพลังมัลติมีเดียให้ลินุกซ์ยุคใหม่”

    GStreamer เฟรมเวิร์กมัลติมีเดียโอเพ่นซอร์สยอดนิยม ได้ปล่อยเวอร์ชัน 1.26.6 ซึ่งเป็นการอัปเดตบำรุงรักษาครั้งที่ 6 ในซีรีส์ 1.26 โดยมุ่งเน้นการเพิ่มความสามารถและเสถียรภาพให้กับระบบวิดีโอบน Linux โดยเฉพาะผ่าน API Video4Linux2 (V4L2)

    หนึ่งในไฮไลต์สำคัญคือการเพิ่มการรองรับ codec WVC1 และ WMV3 ซึ่งเป็นฟอร์แมตวิดีโอยอดนิยมในยุคก่อน โดยเฉพาะในไฟล์ Windows Media Video ที่ยังคงมีการใช้งานอยู่ในหลายระบบ การรองรับนี้ช่วยให้ผู้ใช้สามารถเล่นไฟล์เก่าได้โดยไม่ต้องแปลงฟอร์แมต

    นอกจากนี้ยังมีการปรับปรุงในหลายส่วน เช่น การเพิ่ม blocking adapter element ในปลั๊กอิน threadshare เพื่อช่วยจัดการกับ block elements อย่าง sinks ที่ต้อง sync กับ clock, การอัปเดต librespot library เป็นเวอร์ชัน 0.7 เพื่อรองรับการเปลี่ยนแปลงล่าสุดของ Spotify และการปรับปรุงประสิทธิภาพของปลั๊กอิน videorate เมื่อทำงานในโหมด drop-only

    ยังมีการแก้ไขบั๊กหลายรายการ เช่น ปัญหา decklinkvideosrc ที่เข้าสู่สถานะ unrecoverable เมื่ออุปกรณ์ไม่พร้อมใช้งาน, การ parsing ของ directive ใน hlsdemux2, และการแก้ไข memory leak ในหลายองค์ประกอบ รวมถึงการปรับปรุง decoder สำหรับ Vulkan และการลดการใช้ทรัพยากรใน Cerbero build system

    การอัปเดตนี้ยังแก้ regression ใน Python bindings และปรับปรุงเสถียรภาพโดยรวมของระบบ GStreamer ให้พร้อมสำหรับการใช้งานในระดับ production ทั้งในงานสตรีมมิ่ง การตัดต่อ และการพัฒนาแอปมัลติมีเดีย

    ฟีเจอร์ใหม่ใน GStreamer 1.26.6
    รองรับ codec WVC1 และ WMV3 บน Video4Linux2 (V4L2)
    เพิ่ม blocking adapter element ในปลั๊กอิน threadshare สำหรับการ sync กับ clock
    อัปเดต librespot library เป็นเวอร์ชัน 0.7 เพื่อรองรับ Spotify รุ่นใหม่
    ปรับปรุงปลั๊กอิน videorate ให้ทำงานได้ดีขึ้นในโหมด drop-only

    การแก้ไขและปรับปรุงระบบ
    แก้ปัญหา decklinkvideosrc ที่ไม่สามารถเริ่มสตรีมเมื่ออุปกรณ์ไม่พร้อม
    ปรับปรุงการ parsing directive ใน hlsdemux2 เช่น byterange และ init map
    แก้ไข memory leak และปรับปรุงเสถียรภาพใน transcriberbin และ fallbacksrc
    ปรับปรุง decoder สำหรับ Vulkan และลดการใช้ทรัพยากรใน Cerbero build system

    ข้อมูลเสริมจากภายนอก
    WVC1 และ WMV3 เป็น codec ที่ใช้ในไฟล์วิดีโอ Windows Media ซึ่งยังพบในระบบเก่า
    Video4Linux2 เป็น API มาตรฐานสำหรับจัดการอุปกรณ์วิดีโอบน Linux
    librespot เป็นไลบรารีที่ใช้สำหรับการสตรีม Spotify แบบไม่เป็นทางการ
    GStreamer ถูกใช้ในแอปพลิเคชันหลากหลาย เช่น OBS Studio, PipeWire และ Firefox

    https://9to5linux.com/gstreamer-1-26-6-adds-support-for-wvc1-and-wmv3-codecs-to-video4linux2
    🎬 “GStreamer 1.26.6 อัปเดตใหม่ รองรับ WVC1 และ WMV3 บน Video4Linux2 — เสริมพลังมัลติมีเดียให้ลินุกซ์ยุคใหม่” GStreamer เฟรมเวิร์กมัลติมีเดียโอเพ่นซอร์สยอดนิยม ได้ปล่อยเวอร์ชัน 1.26.6 ซึ่งเป็นการอัปเดตบำรุงรักษาครั้งที่ 6 ในซีรีส์ 1.26 โดยมุ่งเน้นการเพิ่มความสามารถและเสถียรภาพให้กับระบบวิดีโอบน Linux โดยเฉพาะผ่าน API Video4Linux2 (V4L2) หนึ่งในไฮไลต์สำคัญคือการเพิ่มการรองรับ codec WVC1 และ WMV3 ซึ่งเป็นฟอร์แมตวิดีโอยอดนิยมในยุคก่อน โดยเฉพาะในไฟล์ Windows Media Video ที่ยังคงมีการใช้งานอยู่ในหลายระบบ การรองรับนี้ช่วยให้ผู้ใช้สามารถเล่นไฟล์เก่าได้โดยไม่ต้องแปลงฟอร์แมต นอกจากนี้ยังมีการปรับปรุงในหลายส่วน เช่น การเพิ่ม blocking adapter element ในปลั๊กอิน threadshare เพื่อช่วยจัดการกับ block elements อย่าง sinks ที่ต้อง sync กับ clock, การอัปเดต librespot library เป็นเวอร์ชัน 0.7 เพื่อรองรับการเปลี่ยนแปลงล่าสุดของ Spotify และการปรับปรุงประสิทธิภาพของปลั๊กอิน videorate เมื่อทำงานในโหมด drop-only ยังมีการแก้ไขบั๊กหลายรายการ เช่น ปัญหา decklinkvideosrc ที่เข้าสู่สถานะ unrecoverable เมื่ออุปกรณ์ไม่พร้อมใช้งาน, การ parsing ของ directive ใน hlsdemux2, และการแก้ไข memory leak ในหลายองค์ประกอบ รวมถึงการปรับปรุง decoder สำหรับ Vulkan และการลดการใช้ทรัพยากรใน Cerbero build system การอัปเดตนี้ยังแก้ regression ใน Python bindings และปรับปรุงเสถียรภาพโดยรวมของระบบ GStreamer ให้พร้อมสำหรับการใช้งานในระดับ production ทั้งในงานสตรีมมิ่ง การตัดต่อ และการพัฒนาแอปมัลติมีเดีย ✅ ฟีเจอร์ใหม่ใน GStreamer 1.26.6 ➡️ รองรับ codec WVC1 และ WMV3 บน Video4Linux2 (V4L2) ➡️ เพิ่ม blocking adapter element ในปลั๊กอิน threadshare สำหรับการ sync กับ clock ➡️ อัปเดต librespot library เป็นเวอร์ชัน 0.7 เพื่อรองรับ Spotify รุ่นใหม่ ➡️ ปรับปรุงปลั๊กอิน videorate ให้ทำงานได้ดีขึ้นในโหมด drop-only ✅ การแก้ไขและปรับปรุงระบบ ➡️ แก้ปัญหา decklinkvideosrc ที่ไม่สามารถเริ่มสตรีมเมื่ออุปกรณ์ไม่พร้อม ➡️ ปรับปรุงการ parsing directive ใน hlsdemux2 เช่น byterange และ init map ➡️ แก้ไข memory leak และปรับปรุงเสถียรภาพใน transcriberbin และ fallbacksrc ➡️ ปรับปรุง decoder สำหรับ Vulkan และลดการใช้ทรัพยากรใน Cerbero build system ✅ ข้อมูลเสริมจากภายนอก ➡️ WVC1 และ WMV3 เป็น codec ที่ใช้ในไฟล์วิดีโอ Windows Media ซึ่งยังพบในระบบเก่า ➡️ Video4Linux2 เป็น API มาตรฐานสำหรับจัดการอุปกรณ์วิดีโอบน Linux ➡️ librespot เป็นไลบรารีที่ใช้สำหรับการสตรีม Spotify แบบไม่เป็นทางการ ➡️ GStreamer ถูกใช้ในแอปพลิเคชันหลากหลาย เช่น OBS Studio, PipeWire และ Firefox https://9to5linux.com/gstreamer-1-26-6-adds-support-for-wvc1-and-wmv3-codecs-to-video4linux2
    9TO5LINUX.COM
    GStreamer 1.26.6 Adds Support for WVC1 and WMV3 Codecs to Video4Linux2 - 9to5Linux
    GStreamer 1.26.6 open-source multimedia framework is now available for download with various improvements and bug fixes.
    0 Comments 0 Shares 177 Views 0 Reviews
  • เรื่องเล่าจาก Siri ถึง Symphony of AI: เมื่ออุปกรณ์รอบตัวกลายเป็นผู้ช่วยที่รู้ใจยิ่งกว่าสมาร์ตโฟน

    ในขณะที่ Apple เปิดตัว iPhone รุ่นใหม่ที่บางลงเพียงเล็กน้อย โลกเทคโนโลยีกำลังมองไปไกลกว่านั้น—ไปยังยุคที่สมาร์ตโฟนอาจกลายเป็นอุปกรณ์รอง เพราะผู้ช่วย AI จะกลายเป็นศูนย์กลางของการคำนวณส่วนบุคคล

    ผู้บริหารจากบริษัทใหญ่ เช่น Meta, Google, Amazon, Qualcomm และ Nothing ต่างเห็นตรงกันว่าอุปกรณ์สวมใส่ที่ขับเคลื่อนด้วย AI จะเข้ามาแทนที่การใช้งานแบบเดิม ไม่ว่าจะเป็นแว่นตาอัจฉริยะที่เข้าใจสิ่งที่เรามองเห็น, นาฬิกาที่จัดการชีวิตให้เรา, หรือจี้ติดเสื้อที่บันทึกบทสนทนาและให้คำแนะนำแบบเรียลไทม์

    Meta ได้พัฒนา Ray-Ban Meta ที่มีผู้ช่วย AI ในตัว และเตรียมเปิดตัว Orion แว่นตาที่มีหน้าจอในเฟรม ส่วน Google ก็มีต้นแบบแว่นตาที่ใช้ Gemini เป็นผู้ช่วย AI

    Amazon มองว่า “Ambient Computing” จะกลายเป็นสิ่งสำคัญ—อุปกรณ์ที่อยู่รอบตัว เช่น ลำโพงและจอภาพ จะทำงานร่วมกับ AI เพื่อให้เราทำสิ่งต่าง ๆ ได้โดยไม่ต้องหยิบโทรศัพท์ขึ้นมา

    Carl Pei จาก Nothing เชื่อว่า “นาฬิกาอัจฉริยะยุคใหม่” จะกลายเป็นศูนย์กลางของ AI ที่รู้จักพฤติกรรมของผู้ใช้และจัดการชีวิตให้โดยอัตโนมัติ

    Limitless AI พัฒนา “AI Pendant” ที่บันทึกเสียงและให้คำแนะนำเพื่อช่วยให้เราจำสิ่งต่าง ๆ ได้ดีขึ้น และแม้แต่ช่วยให้เป็นพ่อแม่ที่ดีขึ้น โดยอิงจากบทสนทนาในชีวิตจริง

    แนวโน้มการเปลี่ยนผ่านจากสมาร์ตโฟน
    ผู้ช่วย AI จะกลายเป็นระบบปฏิบัติการหลักของอุปกรณ์ส่วนบุคคล
    การใช้งานแอปและเมนูจะถูกแทนที่ด้วยการสั่งงานผ่านเสียงและบริบท

    อุปกรณ์ใหม่ที่กำลังมาแทนสมาร์ตโฟน
    แว่นตาอัจฉริยะ: Ray-Ban Meta, Orion, Google Gemini Glasses
    Ambient Computing: ลำโพงและจอภาพที่ทำงานร่วมกับ AI เช่น Alexa+
    นาฬิกาอัจฉริยะยุคใหม่: จัดการชีวิตและงานโดยอัตโนมัติ
    AI Recorder: Limitless Pendant ที่บันทึกเสียงและให้คำแนะนำ

    เทคโนโลยีเบื้องหลัง
    LongCat และ Gemini: โมเดลภาษาขนาดใหญ่ที่ขับเคลื่อนผู้ช่วย AI
    Mixture-of-Experts (MoE): เปิดใช้งานเฉพาะส่วนที่จำเป็นเพื่อประหยัดพลังงาน
    การเชื่อมโยงอุปกรณ์หลายชิ้นเป็น “Symphony of AI” ที่ทำงานร่วมกัน

    https://www.thestar.com.my/tech/tech-news/2025/09/13/ai-could-make-the-smartphone-passe-what-comes-next
    🎙️ เรื่องเล่าจาก Siri ถึง Symphony of AI: เมื่ออุปกรณ์รอบตัวกลายเป็นผู้ช่วยที่รู้ใจยิ่งกว่าสมาร์ตโฟน ในขณะที่ Apple เปิดตัว iPhone รุ่นใหม่ที่บางลงเพียงเล็กน้อย โลกเทคโนโลยีกำลังมองไปไกลกว่านั้น—ไปยังยุคที่สมาร์ตโฟนอาจกลายเป็นอุปกรณ์รอง เพราะผู้ช่วย AI จะกลายเป็นศูนย์กลางของการคำนวณส่วนบุคคล ผู้บริหารจากบริษัทใหญ่ เช่น Meta, Google, Amazon, Qualcomm และ Nothing ต่างเห็นตรงกันว่าอุปกรณ์สวมใส่ที่ขับเคลื่อนด้วย AI จะเข้ามาแทนที่การใช้งานแบบเดิม ไม่ว่าจะเป็นแว่นตาอัจฉริยะที่เข้าใจสิ่งที่เรามองเห็น, นาฬิกาที่จัดการชีวิตให้เรา, หรือจี้ติดเสื้อที่บันทึกบทสนทนาและให้คำแนะนำแบบเรียลไทม์ Meta ได้พัฒนา Ray-Ban Meta ที่มีผู้ช่วย AI ในตัว และเตรียมเปิดตัว Orion แว่นตาที่มีหน้าจอในเฟรม ส่วน Google ก็มีต้นแบบแว่นตาที่ใช้ Gemini เป็นผู้ช่วย AI Amazon มองว่า “Ambient Computing” จะกลายเป็นสิ่งสำคัญ—อุปกรณ์ที่อยู่รอบตัว เช่น ลำโพงและจอภาพ จะทำงานร่วมกับ AI เพื่อให้เราทำสิ่งต่าง ๆ ได้โดยไม่ต้องหยิบโทรศัพท์ขึ้นมา Carl Pei จาก Nothing เชื่อว่า “นาฬิกาอัจฉริยะยุคใหม่” จะกลายเป็นศูนย์กลางของ AI ที่รู้จักพฤติกรรมของผู้ใช้และจัดการชีวิตให้โดยอัตโนมัติ Limitless AI พัฒนา “AI Pendant” ที่บันทึกเสียงและให้คำแนะนำเพื่อช่วยให้เราจำสิ่งต่าง ๆ ได้ดีขึ้น และแม้แต่ช่วยให้เป็นพ่อแม่ที่ดีขึ้น โดยอิงจากบทสนทนาในชีวิตจริง ✅ แนวโน้มการเปลี่ยนผ่านจากสมาร์ตโฟน ➡️ ผู้ช่วย AI จะกลายเป็นระบบปฏิบัติการหลักของอุปกรณ์ส่วนบุคคล ➡️ การใช้งานแอปและเมนูจะถูกแทนที่ด้วยการสั่งงานผ่านเสียงและบริบท ✅ อุปกรณ์ใหม่ที่กำลังมาแทนสมาร์ตโฟน ➡️ แว่นตาอัจฉริยะ: Ray-Ban Meta, Orion, Google Gemini Glasses ➡️ Ambient Computing: ลำโพงและจอภาพที่ทำงานร่วมกับ AI เช่น Alexa+ ➡️ นาฬิกาอัจฉริยะยุคใหม่: จัดการชีวิตและงานโดยอัตโนมัติ ➡️ AI Recorder: Limitless Pendant ที่บันทึกเสียงและให้คำแนะนำ ✅ เทคโนโลยีเบื้องหลัง ➡️ LongCat และ Gemini: โมเดลภาษาขนาดใหญ่ที่ขับเคลื่อนผู้ช่วย AI ➡️ Mixture-of-Experts (MoE): เปิดใช้งานเฉพาะส่วนที่จำเป็นเพื่อประหยัดพลังงาน ➡️ การเชื่อมโยงอุปกรณ์หลายชิ้นเป็น “Symphony of AI” ที่ทำงานร่วมกัน https://www.thestar.com.my/tech/tech-news/2025/09/13/ai-could-make-the-smartphone-passe-what-comes-next
    WWW.THESTAR.COM.MY
    AI could make the smartphone passe. What comes next?
    Modern artificially intelligent assistants, which are far more capable and flexible than clunky voice helpers like Siri, are poised to become the central operating system of all our personal computing devices, superseding smartphone software in importance.
    0 Comments 0 Shares 215 Views 0 Reviews
  • “Intel Panther Lake Xe3 เพิ่มเฟรมเกมสูงสุด 18% — แต่ต้องแลกกับเวลา compile shader ที่นานขึ้น”

    Intel กำลังเตรียมเปิดตัวแพลตฟอร์มกราฟิกใหม่ Panther Lake พร้อม GPU สถาปัตยกรรม Xe3 ซึ่งจะเป็นครั้งแรกที่ใช้กระบวนการผลิตระดับ 18A node โดยล่าสุดทีมวิศวกรของ Intel ได้ปล่อยชุดแพตช์ 14 รายการสำหรับ Mesa 3D graphics driver บน Linux เพื่อปรับปรุงประสิทธิภาพของ Xe3 โดยเฉพาะด้านการเล่นเกม

    ผลการทดสอบภายในพบว่าแพตช์เหล่านี้ช่วยเพิ่มประสิทธิภาพในการเล่นเกมได้สูงสุดถึง 18% โดยเฉลี่ยอยู่ที่ 4–9% ในหลายเกม เช่น Hogwarts Legacy และ Warhammer แม้ Cyberpunk 2077 จะถูกตัดออกจากการทดสอบเนื่องจากพบปัญหา GPU hang แต่ผลรวมถือว่าน่าประทับใจสำหรับแพลตฟอร์มที่ยังไม่เปิดตัว

    การปรับปรุงครั้งนี้เน้นไปที่การจัดการการทำงานแบบขนานของ thread และการวางตารางการทำงานของ compiler ซึ่งช่วยให้การประมวลผล shader มีประสิทธิภาพมากขึ้น อย่างไรก็ตาม ต้องแลกกับเวลาในการ compile shader ที่เพิ่มขึ้นประมาณ 25% ซึ่ง Intel มองว่าเป็นการแลกเปลี่ยนที่คุ้มค่าเพื่อให้ได้เฟรมเรตที่สูงขึ้น

    แพตช์ทั้งหมดถูกรวมไว้ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2 เพื่อให้ผู้ใช้ Linux ที่วางแผนจะใช้ Panther Lake ได้รับประโยชน์เต็มที่ โดย Intel ยังอยู่ระหว่างการปรับปรุงเสถียรภาพของ GPU ซึ่งยังพบปัญหา hang เป็นระยะในบางเกม

    จุดเด่นของการอัปเดต Panther Lake Xe3
    เพิ่มประสิทธิภาพการเล่นเกมสูงสุด 18% จากการปรับ compiler บน Linux
    ปรับปรุงการจัดการ thread และการวางตารางการทำงานของ shader compiler
    แพตช์รวมอยู่ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2
    ใช้สถาปัตยกรรม Xe3 และกระบวนการผลิต 18A node เป็นครั้งแรกของ Intel

    ผลการทดสอบและการใช้งานจริง
    เกมที่ได้ผลดี ได้แก่ Hogwarts Legacy และ Warhammer
    Cyberpunk 2077 ถูกตัดออกจากการทดสอบเนื่องจาก GPU hang
    การ compile shader ใช้เวลานานขึ้น ~25% แต่ได้เฟรมเรตที่สูงขึ้น
    เหมาะกับผู้ใช้ Linux ที่ต้องการประสิทธิภาพกราฟิกสูงในเกม

    ข้อมูลเสริมจากภายนอก
    Panther Lake เป็น Core Ultra Series 3 รุ่นใหม่ที่เตรียมเปิดตัวปลายปีนี้
    Xe3 เป็นการต่อยอดจาก Xe-LP และ Xe-HPG โดยเน้นประสิทธิภาพแบบฝังตัว
    การใช้ 18A node เป็นก้าวสำคัญของ Intel ในการแข่งขันกับ TSMC และ Samsung
    Windows ยังไม่มีผลการทดสอบที่เปิดเผย เนื่องจาก driver เป็น proprietary

    https://wccftech.com/intel-panther-lake-xe3-graphics-platform-witnesses-up-to-18-better-higher-performance/
    🎮 “Intel Panther Lake Xe3 เพิ่มเฟรมเกมสูงสุด 18% — แต่ต้องแลกกับเวลา compile shader ที่นานขึ้น” Intel กำลังเตรียมเปิดตัวแพลตฟอร์มกราฟิกใหม่ Panther Lake พร้อม GPU สถาปัตยกรรม Xe3 ซึ่งจะเป็นครั้งแรกที่ใช้กระบวนการผลิตระดับ 18A node โดยล่าสุดทีมวิศวกรของ Intel ได้ปล่อยชุดแพตช์ 14 รายการสำหรับ Mesa 3D graphics driver บน Linux เพื่อปรับปรุงประสิทธิภาพของ Xe3 โดยเฉพาะด้านการเล่นเกม ผลการทดสอบภายในพบว่าแพตช์เหล่านี้ช่วยเพิ่มประสิทธิภาพในการเล่นเกมได้สูงสุดถึง 18% โดยเฉลี่ยอยู่ที่ 4–9% ในหลายเกม เช่น Hogwarts Legacy และ Warhammer แม้ Cyberpunk 2077 จะถูกตัดออกจากการทดสอบเนื่องจากพบปัญหา GPU hang แต่ผลรวมถือว่าน่าประทับใจสำหรับแพลตฟอร์มที่ยังไม่เปิดตัว การปรับปรุงครั้งนี้เน้นไปที่การจัดการการทำงานแบบขนานของ thread และการวางตารางการทำงานของ compiler ซึ่งช่วยให้การประมวลผล shader มีประสิทธิภาพมากขึ้น อย่างไรก็ตาม ต้องแลกกับเวลาในการ compile shader ที่เพิ่มขึ้นประมาณ 25% ซึ่ง Intel มองว่าเป็นการแลกเปลี่ยนที่คุ้มค่าเพื่อให้ได้เฟรมเรตที่สูงขึ้น แพตช์ทั้งหมดถูกรวมไว้ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2 เพื่อให้ผู้ใช้ Linux ที่วางแผนจะใช้ Panther Lake ได้รับประโยชน์เต็มที่ โดย Intel ยังอยู่ระหว่างการปรับปรุงเสถียรภาพของ GPU ซึ่งยังพบปัญหา hang เป็นระยะในบางเกม ✅ จุดเด่นของการอัปเดต Panther Lake Xe3 ➡️ เพิ่มประสิทธิภาพการเล่นเกมสูงสุด 18% จากการปรับ compiler บน Linux ➡️ ปรับปรุงการจัดการ thread และการวางตารางการทำงานของ shader compiler ➡️ แพตช์รวมอยู่ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2 ➡️ ใช้สถาปัตยกรรม Xe3 และกระบวนการผลิต 18A node เป็นครั้งแรกของ Intel ✅ ผลการทดสอบและการใช้งานจริง ➡️ เกมที่ได้ผลดี ได้แก่ Hogwarts Legacy และ Warhammer ➡️ Cyberpunk 2077 ถูกตัดออกจากการทดสอบเนื่องจาก GPU hang ➡️ การ compile shader ใช้เวลานานขึ้น ~25% แต่ได้เฟรมเรตที่สูงขึ้น ➡️ เหมาะกับผู้ใช้ Linux ที่ต้องการประสิทธิภาพกราฟิกสูงในเกม ✅ ข้อมูลเสริมจากภายนอก ➡️ Panther Lake เป็น Core Ultra Series 3 รุ่นใหม่ที่เตรียมเปิดตัวปลายปีนี้ ➡️ Xe3 เป็นการต่อยอดจาก Xe-LP และ Xe-HPG โดยเน้นประสิทธิภาพแบบฝังตัว ➡️ การใช้ 18A node เป็นก้าวสำคัญของ Intel ในการแข่งขันกับ TSMC และ Samsung ➡️ Windows ยังไม่มีผลการทดสอบที่เปิดเผย เนื่องจาก driver เป็น proprietary https://wccftech.com/intel-panther-lake-xe3-graphics-platform-witnesses-up-to-18-better-higher-performance/
    WCCFTECH.COM
    Intel's Panther Lake 'Xe3' Graphics Platform Witnesses Up To 18% Higher Gaming Performance, Courtesy of Few Optimizations
    Intel is preparing for Panther Lake launch and has released a new set of Linux-based optimizations that have boosted gaming performance.
    0 Comments 0 Shares 230 Views 0 Reviews
  • เรื่องเล่าจาก Arrow Lake ถึง Metro Exodus: เมื่อการปรับแต่งระดับซอฟต์แวร์กลายเป็นตัวเร่งเกมที่ทรงพลัง

    Intel ได้ปล่อยอัปเดตใหม่สำหรับฟีเจอร์ Application Optimization (APO) ซึ่งเป็นระบบที่ช่วยปรับแต่งการทำงานของ CPU ให้เหมาะกับเกมแต่ละเกมโดยเฉพาะ โดยอัปเดตล่าสุดในเดือนกันยายน 2025 นี้ได้เพิ่มเกมใหม่เข้าไปอีก 15 เกม รวมถึง Metro Exodus Enhanced Edition, God of War, Dyson Sphere Program และ EA Sports FC 24

    ฟีเจอร์ APO นี้รองรับเฉพาะ CPU รุ่นใหม่ ได้แก่ Core Ultra 200 series และ Arrow Lake (14th Gen) โดยเฉพาะรุ่นที่มีรหัส “K” และ HX ซึ่งเป็นรุ่นที่เน้นประสิทธิภาพสูง ทั้งในเดสก์ท็อปและโน้ตบุ๊ก

    Intel ระบุว่าการเปิดใช้งาน APO จะช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 14% ในบางเกม และยังช่วยให้ค่า 1% lows (เฟรมเรตต่ำสุดที่เกิดขึ้นระหว่างเล่น) ดีขึ้นอย่างเห็นได้ชัด ซึ่งหมายถึงประสบการณ์เล่นเกมที่ลื่นไหลมากขึ้น แม้ในฉากที่มีการประมวลผลหนัก

    เพื่อเปิดใช้งาน APO ผู้ใช้ต้องติดตั้ง Intel Dynamic Tuning Technology (DTT) จากเว็บไซต์ของผู้ผลิตเมนบอร์ด และสามารถจัดการการตั้งค่า APO รายเกมได้ผ่านแอป Intel APO UI ที่ดาวน์โหลดจาก Microsoft Store

    นอกจากนี้ Intel ยังระบุว่า APO จะได้รับการอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามาในฐานข้อมูล ซึ่งหมายความว่าผู้ใช้ไม่ต้องติดตั้งใหม่ทุกครั้ง

    รายละเอียดของ APO Update ล่าสุด
    เพิ่มเกมใหม่ 15 เกม เช่น Metro Exodus, God of War, FC 24
    รองรับ CPU Arrow Lake และ Core Ultra 200 เฉพาะรุ่น K และ HX
    เพิ่มประสิทธิภาพได้สูงสุด 14% และปรับปรุงค่า 1% lows

    วิธีเปิดใช้งาน APO
    ติดตั้ง Intel DTT จากเว็บไซต์ผู้ผลิตเมนบอร์ด
    ดาวน์โหลด Intel APO UI จาก Microsoft Store เพื่อจัดการรายเกม
    ได้รับอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามา

    ผลกระทบต่อประสบการณ์เล่นเกม
    เฟรมเรตลื่นขึ้นในฉากที่มีการประมวลผลหนัก
    ลดอาการกระตุกหรือ drop frame ในเกมที่ซับซ้อน
    ไม่ต้องเปลี่ยนฮาร์ดแวร์เพื่อให้เกมทำงานดีขึ้น

    https://wccftech.com/intel-releases-apo-update-for-core-ultra-200-and-14th-gen-processors-claims-up-to-14-higher-performance/
    🎙️ เรื่องเล่าจาก Arrow Lake ถึง Metro Exodus: เมื่อการปรับแต่งระดับซอฟต์แวร์กลายเป็นตัวเร่งเกมที่ทรงพลัง Intel ได้ปล่อยอัปเดตใหม่สำหรับฟีเจอร์ Application Optimization (APO) ซึ่งเป็นระบบที่ช่วยปรับแต่งการทำงานของ CPU ให้เหมาะกับเกมแต่ละเกมโดยเฉพาะ โดยอัปเดตล่าสุดในเดือนกันยายน 2025 นี้ได้เพิ่มเกมใหม่เข้าไปอีก 15 เกม รวมถึง Metro Exodus Enhanced Edition, God of War, Dyson Sphere Program และ EA Sports FC 24 ฟีเจอร์ APO นี้รองรับเฉพาะ CPU รุ่นใหม่ ได้แก่ Core Ultra 200 series และ Arrow Lake (14th Gen) โดยเฉพาะรุ่นที่มีรหัส “K” และ HX ซึ่งเป็นรุ่นที่เน้นประสิทธิภาพสูง ทั้งในเดสก์ท็อปและโน้ตบุ๊ก Intel ระบุว่าการเปิดใช้งาน APO จะช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 14% ในบางเกม และยังช่วยให้ค่า 1% lows (เฟรมเรตต่ำสุดที่เกิดขึ้นระหว่างเล่น) ดีขึ้นอย่างเห็นได้ชัด ซึ่งหมายถึงประสบการณ์เล่นเกมที่ลื่นไหลมากขึ้น แม้ในฉากที่มีการประมวลผลหนัก เพื่อเปิดใช้งาน APO ผู้ใช้ต้องติดตั้ง Intel Dynamic Tuning Technology (DTT) จากเว็บไซต์ของผู้ผลิตเมนบอร์ด และสามารถจัดการการตั้งค่า APO รายเกมได้ผ่านแอป Intel APO UI ที่ดาวน์โหลดจาก Microsoft Store นอกจากนี้ Intel ยังระบุว่า APO จะได้รับการอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามาในฐานข้อมูล ซึ่งหมายความว่าผู้ใช้ไม่ต้องติดตั้งใหม่ทุกครั้ง ✅ รายละเอียดของ APO Update ล่าสุด ➡️ เพิ่มเกมใหม่ 15 เกม เช่น Metro Exodus, God of War, FC 24 ➡️ รองรับ CPU Arrow Lake และ Core Ultra 200 เฉพาะรุ่น K และ HX ➡️ เพิ่มประสิทธิภาพได้สูงสุด 14% และปรับปรุงค่า 1% lows ✅ วิธีเปิดใช้งาน APO ➡️ ติดตั้ง Intel DTT จากเว็บไซต์ผู้ผลิตเมนบอร์ด ➡️ ดาวน์โหลด Intel APO UI จาก Microsoft Store เพื่อจัดการรายเกม ➡️ ได้รับอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามา ✅ ผลกระทบต่อประสบการณ์เล่นเกม ➡️ เฟรมเรตลื่นขึ้นในฉากที่มีการประมวลผลหนัก ➡️ ลดอาการกระตุกหรือ drop frame ในเกมที่ซับซ้อน ➡️ ไม่ต้องเปลี่ยนฮาร์ดแวร์เพื่อให้เกมทำงานดีขึ้น https://wccftech.com/intel-releases-apo-update-for-core-ultra-200-and-14th-gen-processors-claims-up-to-14-higher-performance/
    WCCFTECH.COM
    Intel Releases APO Update For Core Ultra 200 And 14th Gen Processors; Claims Up To 14% Higher Performance
    Intel has rolled out the latest update for the APO aka Application Optimization for several titles for the 14th gen and Arrow lake CPUs.
    0 Comments 0 Shares 226 Views 0 Reviews
  • เรื่องเล่าจาก Youtu-Agent ถึง Coze Studio: เมื่อจีนไม่รอใคร และกำลังสร้างระบบนิเวศของ AI agentic tools

    ในช่วงครึ่งหลังของปี 2025 จีนเริ่มเปิดตัวชุดเครื่องมือสร้าง AI agent แบบโอเพ่นซอร์สอย่างต่อเนื่อง โดยมี Tencent, ByteDance และ Alibaba เป็นหัวหอกหลักในการผลักดัน “agentic frameworks”—ซอฟต์แวร์ที่ช่วยให้ผู้ใช้สามารถสร้างและจัดการ AI agents ที่ทำงานอัตโนมัติได้

    ล่าสุด Tencent เปิดตัว Youtu-Agent บน GitHub ซึ่งเป็นเฟรมเวิร์กที่พัฒนาโดย Youtu Labs และใช้โมเดล DeepSeek-V3.1 เป็นฐาน โดยสามารถทำคะแนนได้ถึง 71.47% บน WebWalkerQA ซึ่งเป็น benchmark สำหรับการเดินทางในเว็บแบบอัตโนมัติ

    ก่อนหน้านี้ ByteDance ได้เปิดตัว Coze Studio ในเดือนกรกฎาคม และ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม โดยทั้งสองเฟรมเวิร์กได้รับดาวบน GitHub มากกว่า 10,000 ดวงแล้ว ถือเป็นสัญญาณว่าเครื่องมือจากจีนเริ่มได้รับความนิยมในระดับโลก แม้จะยังตามหลัง LangChain ที่มีมากกว่า 115,000 ดาวอยู่มาก

    สิ่งที่ทำให้ Youtu-Agent น่าสนใจคือการใช้ YAML (Yet Another Markup Language) แทนการเขียนโค้ด เพื่อกำหนดพฤติกรรมของเอเจนต์ และมี “meta-agent” ที่สามารถพูดคุยกับผู้ใช้เพื่อสร้าง YAML ให้โดยอัตโนมัติ—ลดภาระของนักพัฒนา และเปิดโอกาสให้ผู้เริ่มต้นสามารถสร้างเอเจนต์ได้ง่ายขึ้น

    Tencent ยังเปิดตัวโมเดลแปลภาษาแบบโอเพ่นซอร์สที่ชนะการแข่งขันระดับโลก และปล่อยเวอร์ชันย่อยของโมเดล Hunyuan ที่สามารถรันบน GPU ระดับ consumer ได้ ซึ่งสะท้อนถึงแนวทาง “ประชาธิปไตยของ AI” ที่จีนกำลังผลักดัน

    การเปิดตัว agentic frameworks จากจีน
    Tencent เปิดตัว Youtu-Agent บน GitHub โดยใช้ DeepSeek-V3.1
    ByteDance เปิดตัว Coze Studio ในเดือนกรกฎาคม
    Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม

    ความสามารถของ Youtu-Agent
    ทำคะแนน 71.47% บน WebWalkerQA benchmark
    ใช้ YAML ในการกำหนดพฤติกรรมของเอเจนต์
    มี meta-agent ที่ช่วยสร้าง YAML โดยอัตโนมัติ

    ความนิยมและการเปรียบเทียบ
    Coze Studio และ Qwen-Agent มีดาวบน GitHub มากกว่า 10,000 ดวง
    LangChain จากสหรัฐฯ มีมากกว่า 115,000 ดาว
    IBM จัดอันดับว่าเฟรมเวิร์กยอดนิยมยังเป็นของฝั่งสหรัฐฯ เช่น AutoGen, CrewAI

    การขยาย ecosystem ของ Tencent
    เปิดตัวโมเดลแปลภาษาที่ชนะการแข่งขันระดับโลก
    ปล่อยเวอร์ชันย่อยของ Hunyuan ที่รันบน GPU ระดับ consumer
    เปิดตัวเอเจนต์เฉพาะทางสำหรับงาน coding และ marketing ในงาน WAIC

    https://www.thestar.com.my/tech/tech-news/2025/09/05/china-advances-in-ai-agentic-tools-as-tencent-bytedance-weigh-in
    🎙️ เรื่องเล่าจาก Youtu-Agent ถึง Coze Studio: เมื่อจีนไม่รอใคร และกำลังสร้างระบบนิเวศของ AI agentic tools ในช่วงครึ่งหลังของปี 2025 จีนเริ่มเปิดตัวชุดเครื่องมือสร้าง AI agent แบบโอเพ่นซอร์สอย่างต่อเนื่อง โดยมี Tencent, ByteDance และ Alibaba เป็นหัวหอกหลักในการผลักดัน “agentic frameworks”—ซอฟต์แวร์ที่ช่วยให้ผู้ใช้สามารถสร้างและจัดการ AI agents ที่ทำงานอัตโนมัติได้ ล่าสุด Tencent เปิดตัว Youtu-Agent บน GitHub ซึ่งเป็นเฟรมเวิร์กที่พัฒนาโดย Youtu Labs และใช้โมเดล DeepSeek-V3.1 เป็นฐาน โดยสามารถทำคะแนนได้ถึง 71.47% บน WebWalkerQA ซึ่งเป็น benchmark สำหรับการเดินทางในเว็บแบบอัตโนมัติ ก่อนหน้านี้ ByteDance ได้เปิดตัว Coze Studio ในเดือนกรกฎาคม และ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม โดยทั้งสองเฟรมเวิร์กได้รับดาวบน GitHub มากกว่า 10,000 ดวงแล้ว ถือเป็นสัญญาณว่าเครื่องมือจากจีนเริ่มได้รับความนิยมในระดับโลก แม้จะยังตามหลัง LangChain ที่มีมากกว่า 115,000 ดาวอยู่มาก สิ่งที่ทำให้ Youtu-Agent น่าสนใจคือการใช้ YAML (Yet Another Markup Language) แทนการเขียนโค้ด เพื่อกำหนดพฤติกรรมของเอเจนต์ และมี “meta-agent” ที่สามารถพูดคุยกับผู้ใช้เพื่อสร้าง YAML ให้โดยอัตโนมัติ—ลดภาระของนักพัฒนา และเปิดโอกาสให้ผู้เริ่มต้นสามารถสร้างเอเจนต์ได้ง่ายขึ้น Tencent ยังเปิดตัวโมเดลแปลภาษาแบบโอเพ่นซอร์สที่ชนะการแข่งขันระดับโลก และปล่อยเวอร์ชันย่อยของโมเดล Hunyuan ที่สามารถรันบน GPU ระดับ consumer ได้ ซึ่งสะท้อนถึงแนวทาง “ประชาธิปไตยของ AI” ที่จีนกำลังผลักดัน ✅ การเปิดตัว agentic frameworks จากจีน ➡️ Tencent เปิดตัว Youtu-Agent บน GitHub โดยใช้ DeepSeek-V3.1 ➡️ ByteDance เปิดตัว Coze Studio ในเดือนกรกฎาคม ➡️ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม ✅ ความสามารถของ Youtu-Agent ➡️ ทำคะแนน 71.47% บน WebWalkerQA benchmark ➡️ ใช้ YAML ในการกำหนดพฤติกรรมของเอเจนต์ ➡️ มี meta-agent ที่ช่วยสร้าง YAML โดยอัตโนมัติ ✅ ความนิยมและการเปรียบเทียบ ➡️ Coze Studio และ Qwen-Agent มีดาวบน GitHub มากกว่า 10,000 ดวง ➡️ LangChain จากสหรัฐฯ มีมากกว่า 115,000 ดาว ➡️ IBM จัดอันดับว่าเฟรมเวิร์กยอดนิยมยังเป็นของฝั่งสหรัฐฯ เช่น AutoGen, CrewAI ✅ การขยาย ecosystem ของ Tencent ➡️ เปิดตัวโมเดลแปลภาษาที่ชนะการแข่งขันระดับโลก ➡️ ปล่อยเวอร์ชันย่อยของ Hunyuan ที่รันบน GPU ระดับ consumer ➡️ เปิดตัวเอเจนต์เฉพาะทางสำหรับงาน coding และ marketing ในงาน WAIC https://www.thestar.com.my/tech/tech-news/2025/09/05/china-advances-in-ai-agentic-tools-as-tencent-bytedance-weigh-in
    WWW.THESTAR.COM.MY
    China advances in AI agentic tools as Tencent, ByteDance weigh in
    Tencent is the latest to join the fray after the Shenzhen-based company open-sourced its new Youtu-Agent agentic framework on Tuesday.
    0 Comments 0 Shares 267 Views 0 Reviews
  • เมื่อ AI ถูกจับใส่ลูป แล้วมันเขียนโค้ดไม่หยุดจนสร้างเครื่องมือใหม่

    ในงาน YC Agents Hackathon ทีมงานกลุ่มหนึ่งเกิดไอเดียแปลกๆ: ถ้าเอา Claude Code (agent เขียนโค้ด) มาใส่ไว้ในลูป while แบบ headless แล้วปล่อยให้มันทำงานไปเรื่อยๆ จะเกิดอะไรขึ้น?

    คำตอบคือ...เกิด commit กว่า 1,000 รายการในข้ามคืน และสร้างเครื่องมือใหม่ชื่อว่า RepoMirror ที่สามารถพอร์ตโค้ดจาก React ไป Vue, จาก Python ไป TypeScript หรือแม้แต่จาก gRPC ไป REST ได้โดยอัตโนมัติ

    พวกเขาใช้คำสั่งง่ายๆ เช่น:
    while :; do cat prompt.md | claude -p --dangerously-skip-permissions; done

    โดยให้ prompt ระบุว่าให้พอร์ตโค้ดจาก repo หนึ่งไปยังอีก repo หนึ่ง และให้ commit ทุกครั้งที่แก้ไฟล์ พร้อมเก็บ todo และแผนงานไว้ในโฟลเดอร์ .agent/

    ผลลัพธ์คือ Claude ทำงานได้ดีเกินคาด — ไม่หลุด scope, ไม่ออกนอกเรื่อง, เขียน test เอง และบางครั้งถึงขั้น pkill ตัวเองเมื่อรู้ว่าติดลูปไม่จบ

    พวกเขายังสร้างเครื่องมือชื่อ repomirror ที่ช่วยตั้งค่า source/target repo และคำสั่ง sync ได้ง่ายๆ เช่น:
    npx repomirror init --source-dir ./browser-use --target-dir ./browser-use-zig --instructions "convert browser use to Zig"

    และสามารถรันแบบลูปไม่รู้จบด้วย npx repomirror sync-forever

    แม้จะไม่สมบูรณ์แบบ แต่ก็เป็นหลักฐานว่า agent เขียนโค้ดสามารถทำงานจริงในระดับ production ได้ — แม้จะต้องปรับแต่ง prompt และแก้โค้ดบางส่วนเองก็ตาม

    ข้อมูลในข่าว
    ทีมงานใช้ Claude Code รันในลูป while เพื่อให้ทำงานแบบ headless โดยไม่หยุดพัก
    สร้างเครื่องมือชื่อ RepoMirror สำหรับพอร์ตโค้ดข้ามภาษา/เฟรมเวิร์ก
    ใช้ prompt ที่เรียบง่าย เช่น “พอร์ตจาก React ไป Vue” หรือ “จาก Python ไป TypeScript”
    agent ทำ commit ทุกครั้งที่แก้ไฟล์ และเก็บ todo ไว้ในโฟลเดอร์ .agent/
    Claude สามารถเขียน test, ควบคุม scope และหยุดตัวเองเมื่อรู้ว่าติดลูป
    มีการพอร์ตหลายโปรเจกต์ เช่น assistant-ui, browser-use, AI SDK จาก JS ไป Python
    สร้างเครื่องมือ repomirror ที่ใช้คำสั่ง init และ sync เพื่อจัดการ repo ได้ง่าย
    ใช้ VM บน GCP รันลูป overnight และใช้เงิน inference ประมาณ $800
    agent ทำ commit รวมกว่า 1,100 รายการในโปรเจกต์ต่างๆ
    พบว่า prompt ที่สั้นและชัดเจนให้ผลลัพธ์ดีกว่าการเขียนยาวเกินไป

    ข้อมูลเสริมจากภายนอก
    Claude Code เป็น agent ที่พัฒนาโดย Anthropic สำหรับการเขียนโค้ดแบบ LLM
    การใช้ headless agent ช่วยลดการแทรกแซงจากมนุษย์ แต่ต้องควบคุมด้วย prompt ที่ดี
    การพอร์ตโค้ดข้ามภาษาโดยอัตโนมัติยังต้องการการตรวจสอบคุณภาพจากนักพัฒนา
    การใช้ commit ต่อไฟล์ช่วยให้ตรวจสอบการเปลี่ยนแปลงได้ง่ายและย้อนกลับได้
    การใช้ .agent/ เป็น scratchpad ช่วยให้ agent มีพื้นที่เก็บแผนงานและสถานะ

    agent ไม่สามารถสร้างโค้ดที่สมบูรณ์แบบได้เสมอ ต้องมีการปรับแต่งและตรวจสอบภายหลัง
    prompt ที่ซับซ้อนเกินไปทำให้ agent ทำงานช้าลงและหลุดโฟกัส
    บาง demo จาก Python ยังไม่สามารถทำงานได้ใน TypeScript อย่างสมบูรณ์
    การรัน agent แบบไม่หยุดพักอาจใช้ทรัพยากรสูงและมีค่าใช้จ่ายมาก
    การใช้คำสั่ง --dangerously-skip-permissions อาจมีความเสี่ยงด้านความปลอดภัย
    การพึ่งพา agent โดยไม่ตรวจสอบผลลัพธ์อาจนำไปสู่บั๊กหรือช่องโหว่ในระบบ

    https://github.com/repomirrorhq/repomirror/blob/main/repomirror.md
    🎙️ เมื่อ AI ถูกจับใส่ลูป แล้วมันเขียนโค้ดไม่หยุดจนสร้างเครื่องมือใหม่ ในงาน YC Agents Hackathon ทีมงานกลุ่มหนึ่งเกิดไอเดียแปลกๆ: ถ้าเอา Claude Code (agent เขียนโค้ด) มาใส่ไว้ในลูป while แบบ headless แล้วปล่อยให้มันทำงานไปเรื่อยๆ จะเกิดอะไรขึ้น? คำตอบคือ...เกิด commit กว่า 1,000 รายการในข้ามคืน และสร้างเครื่องมือใหม่ชื่อว่า RepoMirror ที่สามารถพอร์ตโค้ดจาก React ไป Vue, จาก Python ไป TypeScript หรือแม้แต่จาก gRPC ไป REST ได้โดยอัตโนมัติ พวกเขาใช้คำสั่งง่ายๆ เช่น: 🔖 while :; do cat prompt.md | claude -p --dangerously-skip-permissions; done โดยให้ prompt ระบุว่าให้พอร์ตโค้ดจาก repo หนึ่งไปยังอีก repo หนึ่ง และให้ commit ทุกครั้งที่แก้ไฟล์ พร้อมเก็บ todo และแผนงานไว้ในโฟลเดอร์ .agent/ ผลลัพธ์คือ Claude ทำงานได้ดีเกินคาด — ไม่หลุด scope, ไม่ออกนอกเรื่อง, เขียน test เอง และบางครั้งถึงขั้น pkill ตัวเองเมื่อรู้ว่าติดลูปไม่จบ พวกเขายังสร้างเครื่องมือชื่อ repomirror ที่ช่วยตั้งค่า source/target repo และคำสั่ง sync ได้ง่ายๆ เช่น: 🔖 npx repomirror init --source-dir ./browser-use --target-dir ./browser-use-zig --instructions "convert browser use to Zig" และสามารถรันแบบลูปไม่รู้จบด้วย npx repomirror sync-forever แม้จะไม่สมบูรณ์แบบ แต่ก็เป็นหลักฐานว่า agent เขียนโค้ดสามารถทำงานจริงในระดับ production ได้ — แม้จะต้องปรับแต่ง prompt และแก้โค้ดบางส่วนเองก็ตาม ✅ ข้อมูลในข่าว ➡️ ทีมงานใช้ Claude Code รันในลูป while เพื่อให้ทำงานแบบ headless โดยไม่หยุดพัก ➡️ สร้างเครื่องมือชื่อ RepoMirror สำหรับพอร์ตโค้ดข้ามภาษา/เฟรมเวิร์ก ➡️ ใช้ prompt ที่เรียบง่าย เช่น “พอร์ตจาก React ไป Vue” หรือ “จาก Python ไป TypeScript” ➡️ agent ทำ commit ทุกครั้งที่แก้ไฟล์ และเก็บ todo ไว้ในโฟลเดอร์ .agent/ ➡️ Claude สามารถเขียน test, ควบคุม scope และหยุดตัวเองเมื่อรู้ว่าติดลูป ➡️ มีการพอร์ตหลายโปรเจกต์ เช่น assistant-ui, browser-use, AI SDK จาก JS ไป Python ➡️ สร้างเครื่องมือ repomirror ที่ใช้คำสั่ง init และ sync เพื่อจัดการ repo ได้ง่าย ➡️ ใช้ VM บน GCP รันลูป overnight และใช้เงิน inference ประมาณ $800 ➡️ agent ทำ commit รวมกว่า 1,100 รายการในโปรเจกต์ต่างๆ ➡️ พบว่า prompt ที่สั้นและชัดเจนให้ผลลัพธ์ดีกว่าการเขียนยาวเกินไป ✅ ข้อมูลเสริมจากภายนอก ➡️ Claude Code เป็น agent ที่พัฒนาโดย Anthropic สำหรับการเขียนโค้ดแบบ LLM ➡️ การใช้ headless agent ช่วยลดการแทรกแซงจากมนุษย์ แต่ต้องควบคุมด้วย prompt ที่ดี ➡️ การพอร์ตโค้ดข้ามภาษาโดยอัตโนมัติยังต้องการการตรวจสอบคุณภาพจากนักพัฒนา ➡️ การใช้ commit ต่อไฟล์ช่วยให้ตรวจสอบการเปลี่ยนแปลงได้ง่ายและย้อนกลับได้ ➡️ การใช้ .agent/ เป็น scratchpad ช่วยให้ agent มีพื้นที่เก็บแผนงานและสถานะ ⛔ agent ไม่สามารถสร้างโค้ดที่สมบูรณ์แบบได้เสมอ ต้องมีการปรับแต่งและตรวจสอบภายหลัง ⛔ prompt ที่ซับซ้อนเกินไปทำให้ agent ทำงานช้าลงและหลุดโฟกัส ⛔ บาง demo จาก Python ยังไม่สามารถทำงานได้ใน TypeScript อย่างสมบูรณ์ ⛔ การรัน agent แบบไม่หยุดพักอาจใช้ทรัพยากรสูงและมีค่าใช้จ่ายมาก ⛔ การใช้คำสั่ง --dangerously-skip-permissions อาจมีความเสี่ยงด้านความปลอดภัย ⛔ การพึ่งพา agent โดยไม่ตรวจสอบผลลัพธ์อาจนำไปสู่บั๊กหรือช่องโหว่ในระบบ https://github.com/repomirrorhq/repomirror/blob/main/repomirror.md
    GITHUB.COM
    repomirror/repomirror.md at main · repomirrorhq/repomirror
    Contribute to repomirrorhq/repomirror development by creating an account on GitHub.
    0 Comments 0 Shares 230 Views 0 Reviews
  • เมื่อ AMD เผลอเปิดประตู – FSR 4 อาจรองรับการ์ดรุ่นเก่ามากกว่าที่คิด

    ในวันที่ 20 สิงหาคม 2025 AMD เผลอปล่อยซอร์สโค้ดของ FSR 4 (FidelityFX Super Resolution 4) บน GitHub ผ่านโปรเจกต์ GPUOpen โดยไม่ตั้งใจ ก่อนจะรีบลบออกภายในไม่กี่ชั่วโมง แต่ไม่ทันสายตานักพัฒนาและนักข่าวที่จับภาพหน้าจอไว้ทัน

    สิ่งที่น่าสนใจคือในโค้ดนั้นมีไฟล์ที่ใช้รูปแบบตัวเลข INT8 (8-bit integer) ซึ่งต่างจาก FP8 (floating point 8-bit) ที่ใช้ใน GPU รุ่นใหม่อย่าง Radeon RX 9000 ที่มี AI accelerator รองรับ FP8 โดยตรง การมีเวอร์ชัน INT8 บ่งชี้ว่า AMD อาจกำลังพัฒนา FSR 4 ให้รองรับ GPU รุ่นเก่าอย่าง RDNA 3 ที่ไม่มี FP8 accelerator

    แม้ AMD จะยังไม่ประกาศอย่างเป็นทางการ แต่การมีไฟล์ INT8 ใน SDK ทำให้เกิดความหวังว่า FSR 4 อาจใช้งานได้บน Radeon RX 7000 หรือแม้แต่ GPU รุ่นก่อนหน้า ซึ่งจะเป็นข่าวดีสำหรับผู้ใช้ที่ยังไม่อัปเกรดฮาร์ดแวร์

    อย่างไรก็ตาม AMD ได้เปลี่ยนรูปแบบการแจกจ่าย SDK ใหม่ โดยล็อกฟีเจอร์ไว้ใน DLL ที่เซ็นชื่อแล้ว ทำให้นักพัฒนาไม่สามารถแก้ไขหรือโมดิฟายโค้ดได้เหมือนใน FSR 3 ซึ่งเคยเปิดซอร์สเต็มรูปแบบ

    สรุปเนื้อหาเป็นหัวข้อ
    AMD เผลอปล่อยซอร์สโค้ดของ FSR 4 บน GitHub ก่อนลบออกอย่างรวดเร็ว
    โค้ดเผยให้เห็นไฟล์ที่ใช้รูปแบบ INT8 ซึ่งอาจรองรับ GPU รุ่นเก่า
    FSR 4 เดิมถูกออกแบบให้ใช้กับ Radeon RX 9000 ที่มี FP8 AI accelerator
    การมีเวอร์ชัน INT8 บ่งชี้ว่า AMD อาจพัฒนาให้รองรับ RDNA 3 หรือ RX 7000
    SDK ใหม่มาพร้อม FSR 4 และ FSR 3.1.5 สำหรับการสร้างเฟรม
    AMD เปลี่ยนรูปแบบการแจก SDK โดยใช้ DLL ที่เซ็นชื่อแล้วแทนการเปิดซอร์ส
    การเปลี่ยนแปลงนี้คล้ายกับแนวทางของ Nvidia DLSS ที่ใช้การอัปเดตผ่านไดรเวอร์
    มีการพัฒนา plugin สำหรับ Unreal Engine 5.1–5.6 เพื่อรองรับ FSR 4
    AMD เตรียมเปิดตัว FSR Redstone ซึ่งเป็นชุดเทคโนโลยี AI rendering ใหม่ใน SDK
    นักพัฒนาบางคนสามารถ hack FSR 4 ให้ทำงานบน RX 7000 ได้ แม้ไม่มีการรองรับอย่างเป็นทางการ

    ข้อมูลเสริมจากภายนอก
    INT8 ใช้ทรัพยากรน้อยกว่า FP8 แต่มีความแม่นยำต่ำกว่า
    Intel XeSS ก็มีเวอร์ชัน DP4a ที่ใช้กับ GPU ทั่วไป แต่คุณภาพต่ำกว่าเวอร์ชัน XMX
    มีการคาดการณ์ว่า INT8 อาจถูกใช้ใน PlayStation 5 Pro แต่ไฟล์ที่หลุดเป็น .HLSL ซึ่งใช้ใน PC
    การเปลี่ยนไปใช้ DLL ทำให้การอัปเดตง่ายขึ้น แต่ลดความยืดหยุ่นของนักพัฒนา
    การเปิดซอร์สโดยไม่ตั้งใจอาจเปิดช่องให้คู่แข่งเห็นโครงสร้างภายในของเทคโนโลยี

    https://www.tomshardware.com/pc-components/gpus/amd-accidentally-marks-fsr-4-open-source-source-code-reveals-potential-support-for-older-radeon-gpus
    🎙️ เมื่อ AMD เผลอเปิดประตู – FSR 4 อาจรองรับการ์ดรุ่นเก่ามากกว่าที่คิด ในวันที่ 20 สิงหาคม 2025 AMD เผลอปล่อยซอร์สโค้ดของ FSR 4 (FidelityFX Super Resolution 4) บน GitHub ผ่านโปรเจกต์ GPUOpen โดยไม่ตั้งใจ ก่อนจะรีบลบออกภายในไม่กี่ชั่วโมง แต่ไม่ทันสายตานักพัฒนาและนักข่าวที่จับภาพหน้าจอไว้ทัน สิ่งที่น่าสนใจคือในโค้ดนั้นมีไฟล์ที่ใช้รูปแบบตัวเลข INT8 (8-bit integer) ซึ่งต่างจาก FP8 (floating point 8-bit) ที่ใช้ใน GPU รุ่นใหม่อย่าง Radeon RX 9000 ที่มี AI accelerator รองรับ FP8 โดยตรง การมีเวอร์ชัน INT8 บ่งชี้ว่า AMD อาจกำลังพัฒนา FSR 4 ให้รองรับ GPU รุ่นเก่าอย่าง RDNA 3 ที่ไม่มี FP8 accelerator แม้ AMD จะยังไม่ประกาศอย่างเป็นทางการ แต่การมีไฟล์ INT8 ใน SDK ทำให้เกิดความหวังว่า FSR 4 อาจใช้งานได้บน Radeon RX 7000 หรือแม้แต่ GPU รุ่นก่อนหน้า ซึ่งจะเป็นข่าวดีสำหรับผู้ใช้ที่ยังไม่อัปเกรดฮาร์ดแวร์ อย่างไรก็ตาม AMD ได้เปลี่ยนรูปแบบการแจกจ่าย SDK ใหม่ โดยล็อกฟีเจอร์ไว้ใน DLL ที่เซ็นชื่อแล้ว ทำให้นักพัฒนาไม่สามารถแก้ไขหรือโมดิฟายโค้ดได้เหมือนใน FSR 3 ซึ่งเคยเปิดซอร์สเต็มรูปแบบ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AMD เผลอปล่อยซอร์สโค้ดของ FSR 4 บน GitHub ก่อนลบออกอย่างรวดเร็ว ➡️ โค้ดเผยให้เห็นไฟล์ที่ใช้รูปแบบ INT8 ซึ่งอาจรองรับ GPU รุ่นเก่า ➡️ FSR 4 เดิมถูกออกแบบให้ใช้กับ Radeon RX 9000 ที่มี FP8 AI accelerator ➡️ การมีเวอร์ชัน INT8 บ่งชี้ว่า AMD อาจพัฒนาให้รองรับ RDNA 3 หรือ RX 7000 ➡️ SDK ใหม่มาพร้อม FSR 4 และ FSR 3.1.5 สำหรับการสร้างเฟรม ➡️ AMD เปลี่ยนรูปแบบการแจก SDK โดยใช้ DLL ที่เซ็นชื่อแล้วแทนการเปิดซอร์ส ➡️ การเปลี่ยนแปลงนี้คล้ายกับแนวทางของ Nvidia DLSS ที่ใช้การอัปเดตผ่านไดรเวอร์ ➡️ มีการพัฒนา plugin สำหรับ Unreal Engine 5.1–5.6 เพื่อรองรับ FSR 4 ➡️ AMD เตรียมเปิดตัว FSR Redstone ซึ่งเป็นชุดเทคโนโลยี AI rendering ใหม่ใน SDK ➡️ นักพัฒนาบางคนสามารถ hack FSR 4 ให้ทำงานบน RX 7000 ได้ แม้ไม่มีการรองรับอย่างเป็นทางการ ✅ ข้อมูลเสริมจากภายนอก ➡️ INT8 ใช้ทรัพยากรน้อยกว่า FP8 แต่มีความแม่นยำต่ำกว่า ➡️ Intel XeSS ก็มีเวอร์ชัน DP4a ที่ใช้กับ GPU ทั่วไป แต่คุณภาพต่ำกว่าเวอร์ชัน XMX ➡️ มีการคาดการณ์ว่า INT8 อาจถูกใช้ใน PlayStation 5 Pro แต่ไฟล์ที่หลุดเป็น .HLSL ซึ่งใช้ใน PC ➡️ การเปลี่ยนไปใช้ DLL ทำให้การอัปเดตง่ายขึ้น แต่ลดความยืดหยุ่นของนักพัฒนา ➡️ การเปิดซอร์สโดยไม่ตั้งใจอาจเปิดช่องให้คู่แข่งเห็นโครงสร้างภายในของเทคโนโลยี https://www.tomshardware.com/pc-components/gpus/amd-accidentally-marks-fsr-4-open-source-source-code-reveals-potential-support-for-older-radeon-gpus
    0 Comments 0 Shares 230 Views 0 Reviews
  • เรื่องเล่าใหม่: จากเส้นสเก็ตช์สู่จักรวาล – เบื้องหลังการสร้าง Space Invader แบบเจนเนอเรทีฟ

    Stanko Tadić นักพัฒนาและศิลปินสายโค้ดจาก Creative Coding Amsterdam ได้สร้าง “Space Invader Generator” เพื่อใช้ในงานแข่งโค้ดแบบสร้างสรรค์ โดยเริ่มจากความคิดง่าย ๆ ว่าอยากหยุดพัฒนาเครื่องมือที่ไม่มีวันเสร็จ แล้วหันมาสร้างอะไรที่ “จบได้” และสนุก

    เขาเริ่มจากการสเก็ตช์ Space Invader บนกระดาษ แล้วนำไปวาดใน Aseprite ด้วยขนาด 15x15 พิกเซล ก่อนจะสังเกตว่ารูปทรงของ Invader มีลักษณะเป็นโพลิกอนแบบสมมาตร ซึ่งสามารถสร้างแบบเวกเตอร์ได้โดยใช้จุดสุ่มและการสะท้อนซ้าย-ขวา

    จากนั้นเขาเพิ่ม “หนวด” และ “เขา” ด้วยเทคนิคการสร้างเส้นกลางแล้วขยายความหนาแบบไดนามิก พร้อมพิกเซลตาและสีที่ใช้ OKLCH เพื่อให้ความสว่างคงที่และสีสดใสเท่ากันทุกตัว

    สุดท้าย เขาใส่อนิเมชันสองเฟรมให้ Invader ขยับหนวดและตาเล็กน้อย เพื่อให้ดูมีชีวิต และเปิดให้ผู้ใช้สร้าง Invader ของตัวเองได้แบบสุ่ม พร้อม debug mode ให้ดูโครงสร้างภายใน

    ข้อมูลในข่าว
    โครงการ Space Invader Generator ถูกสร้างขึ้นเพื่อแข่งโค้ดใน Creative Coding Amsterdam
    เริ่มจากการสเก็ตช์บนกระดาษและวาดใน Aseprite ขนาด 15x15 พิกเซล
    ใช้หลักการสมมาตรและเวกเตอร์ในการสร้างรูปร่างของ Invader
    หนวดและเขาถูกสร้างจากเส้นกลางแบบสุ่ม แล้วขยายความหนาแบบไดนามิก
    ใช้ OKLCH color space เพื่อให้สีมีความสว่างเท่ากันและสดใส
    ใส่อนิเมชันสองเฟรมให้ Invader ขยับหนวดและตา
    เปิดให้ผู้ใช้สร้าง Invader แบบสุ่ม พร้อม debug mode ให้ดูโครงสร้าง
    ขนาดสูงสุดของ Invader คือ 31x31 พิกเซล แต่สามารถเพิ่มได้ถึง 51x51 ผ่าน URL

    ข้อมูลเสริมจากภายนอก
    OKLCH เป็น color space ที่แม่นยำกว่า HSL ในการควบคุมความสว่าง
    Aseprite เป็นเครื่องมือยอดนิยมสำหรับการสร้าง pixel art แบบมืออาชีพ
    การใช้สมมาตรช่วยลดจำนวนจุดที่ต้องสุ่มลงครึ่งหนึ่ง และทำให้ภาพดูสมดุล
    เทคนิค “fat line” ถูกใช้ในกราฟิกเวกเตอร์เพื่อสร้างรูปร่างที่มีความหนา
    การใช้ randomness แบบมีข้อจำกัดช่วยให้ผลลัพธ์ดูมีรูปแบบและไม่มั่ว

    https://muffinman.io/blog/invaders/
    🎨 เรื่องเล่าใหม่: จากเส้นสเก็ตช์สู่จักรวาล – เบื้องหลังการสร้าง Space Invader แบบเจนเนอเรทีฟ Stanko Tadić นักพัฒนาและศิลปินสายโค้ดจาก Creative Coding Amsterdam ได้สร้าง “Space Invader Generator” เพื่อใช้ในงานแข่งโค้ดแบบสร้างสรรค์ โดยเริ่มจากความคิดง่าย ๆ ว่าอยากหยุดพัฒนาเครื่องมือที่ไม่มีวันเสร็จ แล้วหันมาสร้างอะไรที่ “จบได้” และสนุก เขาเริ่มจากการสเก็ตช์ Space Invader บนกระดาษ แล้วนำไปวาดใน Aseprite ด้วยขนาด 15x15 พิกเซล ก่อนจะสังเกตว่ารูปทรงของ Invader มีลักษณะเป็นโพลิกอนแบบสมมาตร ซึ่งสามารถสร้างแบบเวกเตอร์ได้โดยใช้จุดสุ่มและการสะท้อนซ้าย-ขวา จากนั้นเขาเพิ่ม “หนวด” และ “เขา” ด้วยเทคนิคการสร้างเส้นกลางแล้วขยายความหนาแบบไดนามิก พร้อมพิกเซลตาและสีที่ใช้ OKLCH เพื่อให้ความสว่างคงที่และสีสดใสเท่ากันทุกตัว สุดท้าย เขาใส่อนิเมชันสองเฟรมให้ Invader ขยับหนวดและตาเล็กน้อย เพื่อให้ดูมีชีวิต และเปิดให้ผู้ใช้สร้าง Invader ของตัวเองได้แบบสุ่ม พร้อม debug mode ให้ดูโครงสร้างภายใน ✅ ข้อมูลในข่าว ➡️ โครงการ Space Invader Generator ถูกสร้างขึ้นเพื่อแข่งโค้ดใน Creative Coding Amsterdam ➡️ เริ่มจากการสเก็ตช์บนกระดาษและวาดใน Aseprite ขนาด 15x15 พิกเซล ➡️ ใช้หลักการสมมาตรและเวกเตอร์ในการสร้างรูปร่างของ Invader ➡️ หนวดและเขาถูกสร้างจากเส้นกลางแบบสุ่ม แล้วขยายความหนาแบบไดนามิก ➡️ ใช้ OKLCH color space เพื่อให้สีมีความสว่างเท่ากันและสดใส ➡️ ใส่อนิเมชันสองเฟรมให้ Invader ขยับหนวดและตา ➡️ เปิดให้ผู้ใช้สร้าง Invader แบบสุ่ม พร้อม debug mode ให้ดูโครงสร้าง ➡️ ขนาดสูงสุดของ Invader คือ 31x31 พิกเซล แต่สามารถเพิ่มได้ถึง 51x51 ผ่าน URL ✅ ข้อมูลเสริมจากภายนอก ➡️ OKLCH เป็น color space ที่แม่นยำกว่า HSL ในการควบคุมความสว่าง ➡️ Aseprite เป็นเครื่องมือยอดนิยมสำหรับการสร้าง pixel art แบบมืออาชีพ ➡️ การใช้สมมาตรช่วยลดจำนวนจุดที่ต้องสุ่มลงครึ่งหนึ่ง และทำให้ภาพดูสมดุล ➡️ เทคนิค “fat line” ถูกใช้ในกราฟิกเวกเตอร์เพื่อสร้างรูปร่างที่มีความหนา ➡️ การใช้ randomness แบบมีข้อจำกัดช่วยให้ผลลัพธ์ดูมีรูปแบบและไม่มั่ว https://muffinman.io/blog/invaders/
    MUFFINMAN.IO
    How to draw a Space Invader · Muffin Man
    This interactive post will show you how to build your own fleet of space invaders by mixing geometry with randomness and a splash of color.
    0 Comments 0 Shares 225 Views 0 Reviews
  • ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070

    ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?”

    จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima

    ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม

    อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ

    RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง

    ประสิทธิภาพของแต่ละรุ่น
    RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K
    Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS
    Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS
    Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS
    RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25%
    RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า

    ข้อมูลเสริมจากภายนอก
    RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7
    รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น
    RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ
    RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p
    RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ
    การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา

    https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    🎯 ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070 ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?” จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง ✅ ประสิทธิภาพของแต่ละรุ่น ➡️ RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K ➡️ Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS ➡️ Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS ➡️ Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS ➡️ RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25% ➡️ RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7 ➡️ รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น ➡️ RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ ➡️ RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p ➡️ RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ ➡️ การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    0 Comments 0 Shares 264 Views 0 Reviews
  • RTX 5090D V2: การ์ด “ลดสเปก” ที่ไม่ลดพลังเกม

    NVIDIA เปิดตัว RTX 5090D V2 สำหรับตลาดจีนโดยเฉพาะ เพื่อให้สอดคล้องกับข้อจำกัดด้านการส่งออกจากสหรัฐฯ โดยรุ่นนี้ลดขนาดแบนด์วิดธ์หน่วยความจำจาก 512-bit เหลือ 384-bit และลด VRAM จาก 32GB เหลือ 24GB GDDR7

    แต่ผลการทดสอบจากหลายสำนัก เช่น Yesky, Expreview และ Inno3D กลับพบว่า RTX 5090D V2 มีประสิทธิภาพในการเล่นเกมใกล้เคียงกับ RTX 5090D รุ่นเต็มอย่างน่าประหลาดใจ โดยเฉลี่ยช้ากว่าเพียง 1–2% เท่านั้น แม้ในความละเอียด 4K ที่ปกติจะไวต่อแบนด์วิดธ์หน่วยความจำ

    สาเหตุหนึ่งคือสถาปัตยกรรม Blackwell ของ NVIDIA ที่แม้จะรองรับแบนด์วิดธ์สูงถึง 1.79TB/s แต่กลับไม่สามารถใช้ประโยชน์จากแบนด์วิดธ์ 512-bit ได้เต็มที่ในงานเกม ทำให้การลดเหลือ 384-bit ไม่ส่งผลกระทบมากนัก

    การเปิดตัว RTX 5090D V2
    เป็นรุ่นที่ปรับลดสเปกเพื่อขายในจีนตามข้อจำกัดการส่งออก
    ลด VRAM จาก 32GB เหลือ 24GB และลดแบนด์วิดธ์จาก 512-bit เหลือ 384-bit
    ใช้สถาปัตยกรรม Blackwell เหมือนรุ่นเต็ม

    ผลการทดสอบด้านเกม
    ประสิทธิภาพใกล้เคียง RTX 5090D ในทุกเกมที่ทดสอบ เช่น Cyberpunk 2077, Hogwarts Legacy, Borderlands 3
    เฉลี่ยช้ากว่าเพียง 1–2% แม้ในความละเอียด 4K
    DLSS 4 ช่วยให้เฟรมเรตสูงขึ้นอย่างมีนัยสำคัญ

    การเปรียบเทียบกับรุ่นเต็ม
    RTX 5090D มี VRAM 32GB และแบนด์วิดธ์ 512-bit
    RTX 5090D V2 มี VRAM 24GB และแบนด์วิดธ์ 384-bit
    สเปกอื่น ๆ เช่น CUDA cores, Tensor cores, TDP ยังคงเท่ากัน

    สถาปัตยกรรม Blackwell
    ใช้ GDDR7 และมี L2 cache ที่ช่วยลดการพึ่งพาแบนด์วิดธ์
    รองรับ DLSS 4 และฟีเจอร์ใหม่สำหรับการเรนเดอร์แบบ AI
    ยังไม่สามารถใช้ประโยชน์จากแบนด์วิดธ์ 512-bit ได้เต็มที่ในงานเกม

    https://www.tomshardware.com/pc-components/gpus/early-rtx-5090d-v2-benchmarks-suggest-that-maybe-384-bit-memory-is-just-fine-after-all-nerfed-china-market-gpu-runs-within-2-2-percent-of-5090d-in-some-tests
    🧠 RTX 5090D V2: การ์ด “ลดสเปก” ที่ไม่ลดพลังเกม NVIDIA เปิดตัว RTX 5090D V2 สำหรับตลาดจีนโดยเฉพาะ เพื่อให้สอดคล้องกับข้อจำกัดด้านการส่งออกจากสหรัฐฯ โดยรุ่นนี้ลดขนาดแบนด์วิดธ์หน่วยความจำจาก 512-bit เหลือ 384-bit และลด VRAM จาก 32GB เหลือ 24GB GDDR7 แต่ผลการทดสอบจากหลายสำนัก เช่น Yesky, Expreview และ Inno3D กลับพบว่า RTX 5090D V2 มีประสิทธิภาพในการเล่นเกมใกล้เคียงกับ RTX 5090D รุ่นเต็มอย่างน่าประหลาดใจ โดยเฉลี่ยช้ากว่าเพียง 1–2% เท่านั้น แม้ในความละเอียด 4K ที่ปกติจะไวต่อแบนด์วิดธ์หน่วยความจำ สาเหตุหนึ่งคือสถาปัตยกรรม Blackwell ของ NVIDIA ที่แม้จะรองรับแบนด์วิดธ์สูงถึง 1.79TB/s แต่กลับไม่สามารถใช้ประโยชน์จากแบนด์วิดธ์ 512-bit ได้เต็มที่ในงานเกม ทำให้การลดเหลือ 384-bit ไม่ส่งผลกระทบมากนัก ✅ การเปิดตัว RTX 5090D V2 ➡️ เป็นรุ่นที่ปรับลดสเปกเพื่อขายในจีนตามข้อจำกัดการส่งออก ➡️ ลด VRAM จาก 32GB เหลือ 24GB และลดแบนด์วิดธ์จาก 512-bit เหลือ 384-bit ➡️ ใช้สถาปัตยกรรม Blackwell เหมือนรุ่นเต็ม ✅ ผลการทดสอบด้านเกม ➡️ ประสิทธิภาพใกล้เคียง RTX 5090D ในทุกเกมที่ทดสอบ เช่น Cyberpunk 2077, Hogwarts Legacy, Borderlands 3 ➡️ เฉลี่ยช้ากว่าเพียง 1–2% แม้ในความละเอียด 4K ➡️ DLSS 4 ช่วยให้เฟรมเรตสูงขึ้นอย่างมีนัยสำคัญ ✅ การเปรียบเทียบกับรุ่นเต็ม ➡️ RTX 5090D มี VRAM 32GB และแบนด์วิดธ์ 512-bit ➡️ RTX 5090D V2 มี VRAM 24GB และแบนด์วิดธ์ 384-bit ➡️ สเปกอื่น ๆ เช่น CUDA cores, Tensor cores, TDP ยังคงเท่ากัน ✅ สถาปัตยกรรม Blackwell ➡️ ใช้ GDDR7 และมี L2 cache ที่ช่วยลดการพึ่งพาแบนด์วิดธ์ ➡️ รองรับ DLSS 4 และฟีเจอร์ใหม่สำหรับการเรนเดอร์แบบ AI ➡️ ยังไม่สามารถใช้ประโยชน์จากแบนด์วิดธ์ 512-bit ได้เต็มที่ในงานเกม https://www.tomshardware.com/pc-components/gpus/early-rtx-5090d-v2-benchmarks-suggest-that-maybe-384-bit-memory-is-just-fine-after-all-nerfed-china-market-gpu-runs-within-2-2-percent-of-5090d-in-some-tests
    WWW.TOMSHARDWARE.COM
    Early RTX 5090D V2 benchmarks suggest that maybe 384-bit memory is just fine after all — 'nerfed' China-market GPU runs within 2.2% of 5090D in some tests
    There's barely any difference in performance between the RTX 5090D and its 512-bit interface compared to the 5090D V2 and its skinnier 384-bit interface in games.
    0 Comments 0 Shares 308 Views 0 Reviews
  • Ryzen 5 5500X3D: ตัวเลือกใหม่สำหรับเกมเมอร์สายประหยัด

    ในยุคที่ซีพียูแรง ๆ ราคาทะลุหมื่น AMD กลับเลือกเดินเกมแหวกแนวด้วยการเปิดตัว Ryzen 5 5500X3D ซึ่งเป็นซีพียู Zen 3 รุ่นใหม่ที่ใช้เทคโนโลยี 3D V-Cache แต่เปิดขายเฉพาะในละตินอเมริกาเท่านั้น!

    แม้จะเป็นรุ่นใหม่ แต่จริง ๆ แล้วมันคือ “รุ่นลดสเปก” ของ Ryzen 5 5600X3D โดยมีคล็อกต่ำกว่าเล็กน้อย (ประมาณ 9%) แต่ยังคงจำนวนคอร์ 6 คอร์ 12 เธรด และแคช L3 ขนาด 96MB เท่ากัน

    จากการทดสอบเบื้องต้นใน PassMark พบว่า 5500X3D มีประสิทธิภาพด้อยกว่า 5600X3D ประมาณ 6% ทั้งแบบ single-thread และ multi-thread แต่เมื่อดูจากราคาเปิดตัวที่ราว $185 ก็ถือว่า “คุ้ม” สำหรับคนที่ยังใช้เมนบอร์ด AM4 และอยากอัปเกรดแบบไม่ต้องเปลี่ยนแพลตฟอร์ม

    ที่น่าสนใจคือ แม้จะยังไม่มี benchmark เกมโดยตรง แต่จากการเปรียบเทียบในเกมจริง เช่น Starfield และ Counter-Strike 2 พบว่า 5500X3D ทำเฟรมเรตได้ใกล้เคียงกับ 5600X3D มาก โดยเฉพาะในเกมที่ใช้แคชหนัก ๆ

    นอกจากนี้ ยังมีข้อดีที่หลายคนอาจมองข้าม เช่น รองรับ PCIe 4.0, ใช้แรม DDR4 ได้สูงสุด 128GB และมี TDP 105W เท่ากับรุ่นพี่ ทำให้สามารถใช้กับพาวเวอร์ซัพพลายเดิมได้เลย

    AMD เปิดตัว Ryzen 5 5500X3D สำหรับตลาดละตินอเมริกา
    ใช้สถาปัตยกรรม Zen 3 พร้อม 3D V-Cache ขนาด 96MB
    มี 6 คอร์ 12 เธรด เหมือนกับ Ryzen 5 5600X3D
    คล็อกต่ำกว่า 5600X3D ประมาณ 9%
    ราคาขายเฉลี่ยอยู่ที่ $185–$216 แล้วแต่ประเทศ

    ประสิทธิภาพจากการทดสอบเบื้องต้น
    คะแนน PassMark ต่ำกว่า 5600X3D ประมาณ 6%
    คะแนน multi-thread สูงกว่า Ryzen 5 5500 รุ่นธรรมดา
    ยังไม่มี benchmark เกมโดยตรง แต่มีแนวโน้มดีในเกมที่ใช้แคช

    จุดเด่นด้านเทคโนโลยีและการใช้งาน
    รองรับ PCIe 4.0 และแรม DDR4 สูงสุด 128GB
    ใช้ TDP 105W เท่ากับรุ่นพี่ ไม่ต้องเปลี่ยน PSU
    ไม่มี iGPU ต้องใช้การ์ดจอแยกในการใช้งาน

    https://www.tomshardware.com/pc-components/cpus/amds-new-budget-am4-gaming-cpu-looks-solid-in-new-benchmarks-zen-3-based-ryzen-5-5500x3d-trails-ryzen-5-5600x3d-by-6-percent-in-passmark
    🧠 Ryzen 5 5500X3D: ตัวเลือกใหม่สำหรับเกมเมอร์สายประหยัด ในยุคที่ซีพียูแรง ๆ ราคาทะลุหมื่น AMD กลับเลือกเดินเกมแหวกแนวด้วยการเปิดตัว Ryzen 5 5500X3D ซึ่งเป็นซีพียู Zen 3 รุ่นใหม่ที่ใช้เทคโนโลยี 3D V-Cache แต่เปิดขายเฉพาะในละตินอเมริกาเท่านั้น! แม้จะเป็นรุ่นใหม่ แต่จริง ๆ แล้วมันคือ “รุ่นลดสเปก” ของ Ryzen 5 5600X3D โดยมีคล็อกต่ำกว่าเล็กน้อย (ประมาณ 9%) แต่ยังคงจำนวนคอร์ 6 คอร์ 12 เธรด และแคช L3 ขนาด 96MB เท่ากัน จากการทดสอบเบื้องต้นใน PassMark พบว่า 5500X3D มีประสิทธิภาพด้อยกว่า 5600X3D ประมาณ 6% ทั้งแบบ single-thread และ multi-thread แต่เมื่อดูจากราคาเปิดตัวที่ราว $185 ก็ถือว่า “คุ้ม” สำหรับคนที่ยังใช้เมนบอร์ด AM4 และอยากอัปเกรดแบบไม่ต้องเปลี่ยนแพลตฟอร์ม ที่น่าสนใจคือ แม้จะยังไม่มี benchmark เกมโดยตรง แต่จากการเปรียบเทียบในเกมจริง เช่น Starfield และ Counter-Strike 2 พบว่า 5500X3D ทำเฟรมเรตได้ใกล้เคียงกับ 5600X3D มาก โดยเฉพาะในเกมที่ใช้แคชหนัก ๆ นอกจากนี้ ยังมีข้อดีที่หลายคนอาจมองข้าม เช่น รองรับ PCIe 4.0, ใช้แรม DDR4 ได้สูงสุด 128GB และมี TDP 105W เท่ากับรุ่นพี่ ทำให้สามารถใช้กับพาวเวอร์ซัพพลายเดิมได้เลย ✅ AMD เปิดตัว Ryzen 5 5500X3D สำหรับตลาดละตินอเมริกา ➡️ ใช้สถาปัตยกรรม Zen 3 พร้อม 3D V-Cache ขนาด 96MB ➡️ มี 6 คอร์ 12 เธรด เหมือนกับ Ryzen 5 5600X3D ➡️ คล็อกต่ำกว่า 5600X3D ประมาณ 9% ➡️ ราคาขายเฉลี่ยอยู่ที่ $185–$216 แล้วแต่ประเทศ ✅ ประสิทธิภาพจากการทดสอบเบื้องต้น ➡️ คะแนน PassMark ต่ำกว่า 5600X3D ประมาณ 6% ➡️ คะแนน multi-thread สูงกว่า Ryzen 5 5500 รุ่นธรรมดา ➡️ ยังไม่มี benchmark เกมโดยตรง แต่มีแนวโน้มดีในเกมที่ใช้แคช ✅ จุดเด่นด้านเทคโนโลยีและการใช้งาน ➡️ รองรับ PCIe 4.0 และแรม DDR4 สูงสุด 128GB ➡️ ใช้ TDP 105W เท่ากับรุ่นพี่ ไม่ต้องเปลี่ยน PSU ➡️ ไม่มี iGPU ต้องใช้การ์ดจอแยกในการใช้งาน https://www.tomshardware.com/pc-components/cpus/amds-new-budget-am4-gaming-cpu-looks-solid-in-new-benchmarks-zen-3-based-ryzen-5-5500x3d-trails-ryzen-5-5600x3d-by-6-percent-in-passmark
    0 Comments 0 Shares 167 Views 0 Reviews
  • เล่าให้ฟังใหม่: Intel APO — ซอฟต์แวร์ลับที่ช่วยเร่งเฟรมเกม แต่ยังไม่ใช่คำตอบสำหรับทุกคน

    ในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรและลดจำนวนพนักงาน หลายโครงการถูกยกเลิกหรือชะลอ แต่หนึ่งในเทคโนโลยีที่ยังคงอยู่คือ Application Optimization หรือ APO ซึ่งเป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกมบนซีพียู Intel รุ่นใหม่

    APO ไม่ใช่แค่การปิด E-core แล้วใช้ P-core อย่างเดียว แต่เป็นระบบที่ใช้การจัดสรรงานแบบไดนามิก เพื่อให้เกมใช้ทรัพยากรของซีพียูได้อย่างเหมาะสมที่สุด โดยเฉพาะในซีพียูแบบ hybrid ที่มีทั้ง P-core และ E-core เช่น Raptor Lake และ Arrow Lake

    จากการทดสอบจริงในเกม Metro Exodus พบว่า APO สามารถเพิ่มเฟรมเรตได้ถึง 26% เมื่อใช้กราฟิกระดับต่ำที่เน้นการทำงานของซีพียู แต่เมื่อปรับกราฟิกสูงขึ้น APO ให้ผลน้อยลง และในบางเกมอาจไม่มีผลเลย

    Intel ยืนยันว่าจะยังคงอัปเดต APO ทุกไตรมาส โดยเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไปเท่านั้น เช่น Core Ultra 200 และ Nova Lake ที่จะเปิดตัวในปี 2026 ส่วนซีพียูรุ่นเก่าอย่าง Alder Lake และ Raptor Lake จะได้รับการสนับสนุนแบบจำกัด

    Intel ยืนยันว่าจะยังคงพัฒนา APO แม้มีการปรับโครงสร้างองค์กร
    แต่จะเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไป

    APO เป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกม
    โดยจัดสรรงานระหว่าง P-core และ E-core แบบเรียลไทม์

    APO เปิดตัวพร้อม Raptor Lake Refresh ในปี 2023
    และขยายไปยัง Alder Lake, Raptor Lake และ Core Ultra 200

    APO ไม่ใช่ระบบที่ใช้ได้กับทุกเกมหรือทุกซีพียู
    ต้องปรับแต่งเฉพาะรุ่นและเกมที่รองรับ

    Intel ใช้ระบบทดสอบแบบ stock configuration
    หากผู้ใช้โอเวอร์คล็อกหรือปรับพลังงาน อาจไม่เห็นผล

    รายชื่อเกมที่รองรับมีน้อยกว่า 50 เกม
    แต่รวมถึงเกมดังอย่าง Cyberpunk 2077 และ Counter-Strike 2

    มีข่าวลือว่า Nova Lake อาจมี bLLC คล้าย AMD 3D V-Cache
    เพื่อแข่งกับ Ryzen X3D ในด้านเกม

    https://www.tomshardware.com/pc-components/cpus/intel-promises-to-keep-updating-its-game-boosting-software-despite-recent-delays-apo-will-only-focus-on-current-and-upcoming-intel-cpus
    🎮⚙️ เล่าให้ฟังใหม่: Intel APO — ซอฟต์แวร์ลับที่ช่วยเร่งเฟรมเกม แต่ยังไม่ใช่คำตอบสำหรับทุกคน ในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรและลดจำนวนพนักงาน หลายโครงการถูกยกเลิกหรือชะลอ แต่หนึ่งในเทคโนโลยีที่ยังคงอยู่คือ Application Optimization หรือ APO ซึ่งเป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกมบนซีพียู Intel รุ่นใหม่ APO ไม่ใช่แค่การปิด E-core แล้วใช้ P-core อย่างเดียว แต่เป็นระบบที่ใช้การจัดสรรงานแบบไดนามิก เพื่อให้เกมใช้ทรัพยากรของซีพียูได้อย่างเหมาะสมที่สุด โดยเฉพาะในซีพียูแบบ hybrid ที่มีทั้ง P-core และ E-core เช่น Raptor Lake และ Arrow Lake จากการทดสอบจริงในเกม Metro Exodus พบว่า APO สามารถเพิ่มเฟรมเรตได้ถึง 26% เมื่อใช้กราฟิกระดับต่ำที่เน้นการทำงานของซีพียู แต่เมื่อปรับกราฟิกสูงขึ้น APO ให้ผลน้อยลง และในบางเกมอาจไม่มีผลเลย Intel ยืนยันว่าจะยังคงอัปเดต APO ทุกไตรมาส โดยเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไปเท่านั้น เช่น Core Ultra 200 และ Nova Lake ที่จะเปิดตัวในปี 2026 ส่วนซีพียูรุ่นเก่าอย่าง Alder Lake และ Raptor Lake จะได้รับการสนับสนุนแบบจำกัด ✅ Intel ยืนยันว่าจะยังคงพัฒนา APO แม้มีการปรับโครงสร้างองค์กร ➡️ แต่จะเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไป ✅ APO เป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกม ➡️ โดยจัดสรรงานระหว่าง P-core และ E-core แบบเรียลไทม์ ✅ APO เปิดตัวพร้อม Raptor Lake Refresh ในปี 2023 ➡️ และขยายไปยัง Alder Lake, Raptor Lake และ Core Ultra 200 ✅ APO ไม่ใช่ระบบที่ใช้ได้กับทุกเกมหรือทุกซีพียู ➡️ ต้องปรับแต่งเฉพาะรุ่นและเกมที่รองรับ ✅ Intel ใช้ระบบทดสอบแบบ stock configuration ➡️ หากผู้ใช้โอเวอร์คล็อกหรือปรับพลังงาน อาจไม่เห็นผล ✅ รายชื่อเกมที่รองรับมีน้อยกว่า 50 เกม ➡️ แต่รวมถึงเกมดังอย่าง Cyberpunk 2077 และ Counter-Strike 2 ✅ มีข่าวลือว่า Nova Lake อาจมี bLLC คล้าย AMD 3D V-Cache ➡️ เพื่อแข่งกับ Ryzen X3D ในด้านเกม https://www.tomshardware.com/pc-components/cpus/intel-promises-to-keep-updating-its-game-boosting-software-despite-recent-delays-apo-will-only-focus-on-current-and-upcoming-intel-cpus
    0 Comments 0 Shares 303 Views 0 Reviews
  • Arm Neural Technology: ปฏิวัติกราฟิกมือถือด้วย AI ที่เร็วขึ้น คมขึ้น และประหยัดพลังงาน

    ในงาน SIGGRAPH 2025 Arm ได้เปิดตัวเทคโนโลยีใหม่ที่ชื่อว่า “Arm Neural Technology” ซึ่งเป็นการนำ neural accelerator มาใส่ใน GPU สำหรับมือถือโดยตรง เพื่อให้สามารถประมวลผลกราฟิกด้วย AI ได้แบบ real-time โดยไม่ต้องพึ่ง cloud หรือเซิร์ฟเวอร์ภายนอก

    เทคโนโลยีนี้ช่วยลดภาระงานของ GPU ได้ถึง 50% โดยเฉพาะในงานที่ใช้กราฟิกหนัก เช่น เกมมือถือระดับ AAA, กล้องอัจฉริยะ, และแอป productivity ที่ต้องการภาพคมชัดและเฟรมเรตสูง โดยไม่กินแบตเตอรี่เพิ่ม

    Arm ยังเปิดตัว Neural Graphics Development Kit ซึ่งเป็นชุดเครื่องมือแบบ open-source สำหรับนักพัฒนา ที่สามารถเริ่มใช้งานได้ทันทีแม้ฮาร์ดแวร์จะยังไม่วางขาย โดยมีปลั๊กอินสำหรับ Unreal Engine, emulator บน PC, และโมเดล AI ที่เปิดให้โหลดผ่าน GitHub และ Hugging Face

    หนึ่งในฟีเจอร์เด่นคือ Neural Super Sampling (NSS) ที่สามารถ upscale ภาพจาก 540p เป็น 1080p ได้ในเวลาเพียง 4 มิลลิวินาทีต่อเฟรม โดยยังคงรายละเอียดของพื้นผิว แสง และการเคลื่อนไหวไว้ได้ใกล้เคียงภาพต้นฉบับ

    ในปี 2026 Arm จะขยายเทคโนโลยีนี้ไปยังฟีเจอร์ใหม่ เช่น Neural Frame Rate Upscaling และ Neural Denoising สำหรับ ray tracing บนมือถือ ซึ่งจะเปิดให้ใช้งานก่อนฮาร์ดแวร์จริงวางจำหน่าย

    Arm เปิดตัว Neural Technology ในงาน SIGGRAPH 2025
    นำ neural accelerator มาใส่ใน GPU มือถือโดยตรง

    ลดภาระงานของ GPU ได้ถึง 50% สำหรับงานกราฟิกหนัก
    เช่น เกมมือถือ กล้องอัจฉริยะ และแอป productivity

    เปิดตัว Neural Graphics Development Kit สำหรับนักพัฒนา
    มีปลั๊กอิน Unreal Engine, emulator, และโมเดล AI แบบ open-source

    ฟีเจอร์ Neural Super Sampling (NSS) upscale ภาพจาก 540p เป็น 1080p
    ใช้เวลาเพียง 4 มิลลิวินาทีต่อเฟรม

    NSS ช่วยรักษารายละเอียดพื้นผิว แสง และการเคลื่อนไหว
    ลดการใช้พลังงานและเพิ่มเฟรมเรตได้ตามต้องการ

    ปี 2026 จะมีฟีเจอร์ใหม่ เช่น Frame Rate Upscaling และ Denoising
    รองรับ ray tracing บนมือถือแบบ real-time

    https://www.techpowerup.com/339861/arm-neural-technology-delivers-smarter-sharper-more-efficient-mobile-graphics-for-developers
    🧠📱 Arm Neural Technology: ปฏิวัติกราฟิกมือถือด้วย AI ที่เร็วขึ้น คมขึ้น และประหยัดพลังงาน ในงาน SIGGRAPH 2025 Arm ได้เปิดตัวเทคโนโลยีใหม่ที่ชื่อว่า “Arm Neural Technology” ซึ่งเป็นการนำ neural accelerator มาใส่ใน GPU สำหรับมือถือโดยตรง เพื่อให้สามารถประมวลผลกราฟิกด้วย AI ได้แบบ real-time โดยไม่ต้องพึ่ง cloud หรือเซิร์ฟเวอร์ภายนอก เทคโนโลยีนี้ช่วยลดภาระงานของ GPU ได้ถึง 50% โดยเฉพาะในงานที่ใช้กราฟิกหนัก เช่น เกมมือถือระดับ AAA, กล้องอัจฉริยะ, และแอป productivity ที่ต้องการภาพคมชัดและเฟรมเรตสูง โดยไม่กินแบตเตอรี่เพิ่ม Arm ยังเปิดตัว Neural Graphics Development Kit ซึ่งเป็นชุดเครื่องมือแบบ open-source สำหรับนักพัฒนา ที่สามารถเริ่มใช้งานได้ทันทีแม้ฮาร์ดแวร์จะยังไม่วางขาย โดยมีปลั๊กอินสำหรับ Unreal Engine, emulator บน PC, และโมเดล AI ที่เปิดให้โหลดผ่าน GitHub และ Hugging Face หนึ่งในฟีเจอร์เด่นคือ Neural Super Sampling (NSS) ที่สามารถ upscale ภาพจาก 540p เป็น 1080p ได้ในเวลาเพียง 4 มิลลิวินาทีต่อเฟรม โดยยังคงรายละเอียดของพื้นผิว แสง และการเคลื่อนไหวไว้ได้ใกล้เคียงภาพต้นฉบับ ในปี 2026 Arm จะขยายเทคโนโลยีนี้ไปยังฟีเจอร์ใหม่ เช่น Neural Frame Rate Upscaling และ Neural Denoising สำหรับ ray tracing บนมือถือ ซึ่งจะเปิดให้ใช้งานก่อนฮาร์ดแวร์จริงวางจำหน่าย ✅ Arm เปิดตัว Neural Technology ในงาน SIGGRAPH 2025 ➡️ นำ neural accelerator มาใส่ใน GPU มือถือโดยตรง ✅ ลดภาระงานของ GPU ได้ถึง 50% สำหรับงานกราฟิกหนัก ➡️ เช่น เกมมือถือ กล้องอัจฉริยะ และแอป productivity ✅ เปิดตัว Neural Graphics Development Kit สำหรับนักพัฒนา ➡️ มีปลั๊กอิน Unreal Engine, emulator, และโมเดล AI แบบ open-source ✅ ฟีเจอร์ Neural Super Sampling (NSS) upscale ภาพจาก 540p เป็น 1080p ➡️ ใช้เวลาเพียง 4 มิลลิวินาทีต่อเฟรม ✅ NSS ช่วยรักษารายละเอียดพื้นผิว แสง และการเคลื่อนไหว ➡️ ลดการใช้พลังงานและเพิ่มเฟรมเรตได้ตามต้องการ ✅ ปี 2026 จะมีฟีเจอร์ใหม่ เช่น Frame Rate Upscaling และ Denoising ➡️ รองรับ ray tracing บนมือถือแบบ real-time https://www.techpowerup.com/339861/arm-neural-technology-delivers-smarter-sharper-more-efficient-mobile-graphics-for-developers
    WWW.TECHPOWERUP.COM
    Arm Neural Technology Delivers Smarter, Sharper, More Efficient Mobile Graphics for Developers
    On-device AI is transforming workloads everywhere, from mobile gaming to productivity tools to intelligent cameras. This is driving demand for stunning visuals, high frame rates and smarter features - without draining battery or adding friction. Announced today at SIGGRAPH, Arm neural technology is ...
    0 Comments 0 Shares 175 Views 0 Reviews
More Results