• Arm Neural Technology: ปฏิวัติกราฟิกมือถือด้วย AI ที่เร็วขึ้น คมขึ้น และประหยัดพลังงาน

    ในงาน SIGGRAPH 2025 Arm ได้เปิดตัวเทคโนโลยีใหม่ที่ชื่อว่า “Arm Neural Technology” ซึ่งเป็นการนำ neural accelerator มาใส่ใน GPU สำหรับมือถือโดยตรง เพื่อให้สามารถประมวลผลกราฟิกด้วย AI ได้แบบ real-time โดยไม่ต้องพึ่ง cloud หรือเซิร์ฟเวอร์ภายนอก

    เทคโนโลยีนี้ช่วยลดภาระงานของ GPU ได้ถึง 50% โดยเฉพาะในงานที่ใช้กราฟิกหนัก เช่น เกมมือถือระดับ AAA, กล้องอัจฉริยะ, และแอป productivity ที่ต้องการภาพคมชัดและเฟรมเรตสูง โดยไม่กินแบตเตอรี่เพิ่ม

    Arm ยังเปิดตัว Neural Graphics Development Kit ซึ่งเป็นชุดเครื่องมือแบบ open-source สำหรับนักพัฒนา ที่สามารถเริ่มใช้งานได้ทันทีแม้ฮาร์ดแวร์จะยังไม่วางขาย โดยมีปลั๊กอินสำหรับ Unreal Engine, emulator บน PC, และโมเดล AI ที่เปิดให้โหลดผ่าน GitHub และ Hugging Face

    หนึ่งในฟีเจอร์เด่นคือ Neural Super Sampling (NSS) ที่สามารถ upscale ภาพจาก 540p เป็น 1080p ได้ในเวลาเพียง 4 มิลลิวินาทีต่อเฟรม โดยยังคงรายละเอียดของพื้นผิว แสง และการเคลื่อนไหวไว้ได้ใกล้เคียงภาพต้นฉบับ

    ในปี 2026 Arm จะขยายเทคโนโลยีนี้ไปยังฟีเจอร์ใหม่ เช่น Neural Frame Rate Upscaling และ Neural Denoising สำหรับ ray tracing บนมือถือ ซึ่งจะเปิดให้ใช้งานก่อนฮาร์ดแวร์จริงวางจำหน่าย

    Arm เปิดตัว Neural Technology ในงาน SIGGRAPH 2025
    นำ neural accelerator มาใส่ใน GPU มือถือโดยตรง

    ลดภาระงานของ GPU ได้ถึง 50% สำหรับงานกราฟิกหนัก
    เช่น เกมมือถือ กล้องอัจฉริยะ และแอป productivity

    เปิดตัว Neural Graphics Development Kit สำหรับนักพัฒนา
    มีปลั๊กอิน Unreal Engine, emulator, และโมเดล AI แบบ open-source

    ฟีเจอร์ Neural Super Sampling (NSS) upscale ภาพจาก 540p เป็น 1080p
    ใช้เวลาเพียง 4 มิลลิวินาทีต่อเฟรม

    NSS ช่วยรักษารายละเอียดพื้นผิว แสง และการเคลื่อนไหว
    ลดการใช้พลังงานและเพิ่มเฟรมเรตได้ตามต้องการ

    ปี 2026 จะมีฟีเจอร์ใหม่ เช่น Frame Rate Upscaling และ Denoising
    รองรับ ray tracing บนมือถือแบบ real-time

    https://www.techpowerup.com/339861/arm-neural-technology-delivers-smarter-sharper-more-efficient-mobile-graphics-for-developers
    🧠📱 Arm Neural Technology: ปฏิวัติกราฟิกมือถือด้วย AI ที่เร็วขึ้น คมขึ้น และประหยัดพลังงาน ในงาน SIGGRAPH 2025 Arm ได้เปิดตัวเทคโนโลยีใหม่ที่ชื่อว่า “Arm Neural Technology” ซึ่งเป็นการนำ neural accelerator มาใส่ใน GPU สำหรับมือถือโดยตรง เพื่อให้สามารถประมวลผลกราฟิกด้วย AI ได้แบบ real-time โดยไม่ต้องพึ่ง cloud หรือเซิร์ฟเวอร์ภายนอก เทคโนโลยีนี้ช่วยลดภาระงานของ GPU ได้ถึง 50% โดยเฉพาะในงานที่ใช้กราฟิกหนัก เช่น เกมมือถือระดับ AAA, กล้องอัจฉริยะ, และแอป productivity ที่ต้องการภาพคมชัดและเฟรมเรตสูง โดยไม่กินแบตเตอรี่เพิ่ม Arm ยังเปิดตัว Neural Graphics Development Kit ซึ่งเป็นชุดเครื่องมือแบบ open-source สำหรับนักพัฒนา ที่สามารถเริ่มใช้งานได้ทันทีแม้ฮาร์ดแวร์จะยังไม่วางขาย โดยมีปลั๊กอินสำหรับ Unreal Engine, emulator บน PC, และโมเดล AI ที่เปิดให้โหลดผ่าน GitHub และ Hugging Face หนึ่งในฟีเจอร์เด่นคือ Neural Super Sampling (NSS) ที่สามารถ upscale ภาพจาก 540p เป็น 1080p ได้ในเวลาเพียง 4 มิลลิวินาทีต่อเฟรม โดยยังคงรายละเอียดของพื้นผิว แสง และการเคลื่อนไหวไว้ได้ใกล้เคียงภาพต้นฉบับ ในปี 2026 Arm จะขยายเทคโนโลยีนี้ไปยังฟีเจอร์ใหม่ เช่น Neural Frame Rate Upscaling และ Neural Denoising สำหรับ ray tracing บนมือถือ ซึ่งจะเปิดให้ใช้งานก่อนฮาร์ดแวร์จริงวางจำหน่าย ✅ Arm เปิดตัว Neural Technology ในงาน SIGGRAPH 2025 ➡️ นำ neural accelerator มาใส่ใน GPU มือถือโดยตรง ✅ ลดภาระงานของ GPU ได้ถึง 50% สำหรับงานกราฟิกหนัก ➡️ เช่น เกมมือถือ กล้องอัจฉริยะ และแอป productivity ✅ เปิดตัว Neural Graphics Development Kit สำหรับนักพัฒนา ➡️ มีปลั๊กอิน Unreal Engine, emulator, และโมเดล AI แบบ open-source ✅ ฟีเจอร์ Neural Super Sampling (NSS) upscale ภาพจาก 540p เป็น 1080p ➡️ ใช้เวลาเพียง 4 มิลลิวินาทีต่อเฟรม ✅ NSS ช่วยรักษารายละเอียดพื้นผิว แสง และการเคลื่อนไหว ➡️ ลดการใช้พลังงานและเพิ่มเฟรมเรตได้ตามต้องการ ✅ ปี 2026 จะมีฟีเจอร์ใหม่ เช่น Frame Rate Upscaling และ Denoising ➡️ รองรับ ray tracing บนมือถือแบบ real-time https://www.techpowerup.com/339861/arm-neural-technology-delivers-smarter-sharper-more-efficient-mobile-graphics-for-developers
    WWW.TECHPOWERUP.COM
    Arm Neural Technology Delivers Smarter, Sharper, More Efficient Mobile Graphics for Developers
    On-device AI is transforming workloads everywhere, from mobile gaming to productivity tools to intelligent cameras. This is driving demand for stunning visuals, high frame rates and smarter features - without draining battery or adding friction. Announced today at SIGGRAPH, Arm neural technology is ...
    0 Comments 0 Shares 16 Views 0 Reviews
  • RX 9060: การ์ดลับจาก AMD ที่แรงเกินคาด แม้จะยังขายแค่ในเครื่อง OEM

    AMD เปิดตัว Radeon RX 9060 แบบเงียบ ๆ โดยไม่มีวางขายแยก แต่ใส่มาในเครื่องพีซี OEM ที่จำหน่ายในบางประเทศ เช่น เกาหลีใต้ ซึ่ง YouTuber ชื่อ Technosaurus ได้แกะเครื่องออกมาและทดสอบประสิทธิภาพของการ์ดนี้อย่างละเอียด

    RX 9060 ใช้ชิป Navi 44 แบบลดสเปก มี 28 compute units, 1,792 shaders, 28 ray tracing cores และแรม GDDR6 ขนาด 8GB บนบัส 128-bit ความเร็วใกล้ 3 GHz ใช้พลังงานเพียง 135W และมาในรูปแบบการ์ดขนาดเล็กจาก Sapphire

    ผลการทดสอบในเกมระดับ AAA ที่ความละเอียด 1080p พบว่า RX 9060 มีประสิทธิภาพใกล้เคียงกับ RTX 5060 โดยช้ากว่าเพียง 2% และห่างจาก RX 9060 XT แค่ 6% แต่กลับแรงกว่า RTX 5050 ถึง 20% ซึ่งถือว่าเป็นการ์ดที่คุ้มค่ามากสำหรับเกมเมอร์สายประหยัด

    ในด้าน benchmark เช่น 3DMark Time Spy และ Fire Strike ก็แสดงผลลัพธ์ที่เหนือกว่า RTX 5050 อย่างชัดเจน และใกล้เคียงกับ RTX 5060 ทั้งในด้านเกมและ productivity

    อย่างไรก็ตาม RX 9060 ยังมีข้อจำกัดคือแรมแค่ 8GB ซึ่งอาจไม่เพียงพอสำหรับเกมรุ่นใหม่ที่ใช้ ray tracing หรือ texture ขนาดใหญ่ และ AMD ยังไม่มีแผนวางขายแยกในตลาดทั่วไป

    AMD เปิดตัว RX 9060 แบบ OEM เท่านั้น ยังไม่มีขายแยก
    พบในเครื่องพีซี OEM บางประเทศ เช่น เกาหลีใต้

    ใช้ชิป Navi 44 แบบลดสเปก มี 28 CUs และแรม 8GB GDDR6
    ความเร็วใกล้ 3 GHz ใช้พลังงาน 135W

    ประสิทธิภาพใกล้เคียง RTX 5060 และ RX 9060 XT
    ช้ากว่า RTX 5060 เพียง 2% และ RX 9060 XT แค่ 6%

    แรงกว่า RTX 5050 ถึง 20% ในเกมระดับ AAA
    เช่น Cyberpunk 2077, God of War, Warhammer 40K

    ผล benchmark ใน 3DMark สูงกว่า RTX 5050 อย่างชัดเจน
    Time Spy: 14,132 คะแนน, Fire Strike: 35,511 คะแนน

    ประสิทธิภาพเสถียรแม้ใช้กับ CPU ระดับกลาง
    เช่น Ryzen 5 7500F ก็ยังได้เฟรมเรตใกล้เคียง Ryzen 7 9800X3D

    RX 9060 อาจผลิตจากชิปที่มี yield ต่ำของรุ่น XT แล้วปิดบาง core
    เป็นวิธีลดต้นทุนและใช้ทรัพยากรให้คุ้มค่า

    RX 9060 XT รุ่น 16GB มีประสิทธิภาพสูงกว่า แต่กินไฟมากกว่า
    เหมาะกับผู้ใช้ที่ต้องการเล่นเกมในระดับ ultra หรือ ray tracing

    ตลาดการ์ดจอระดับกลางกำลังแข่งขันกันดุเดือด
    โดยเฉพาะระหว่าง AMD RX 9060 XT และ Nvidia RTX 5060

    การ์ด OEM มักมีราคาถูกกว่าแต่ไม่สามารถซื้อแยกได้
    เหมาะกับผู้ที่ซื้อเครื่องพีซีแบบ prebuilt

    https://www.tomshardware.com/pc-components/gpus/amds-new-rx-9060-ripped-out-of-oem-pc-and-benchmarked-beats-the-rtx-5050-by-20-percent-basically-ties-the-rtx-5060-in-gaming-and-productivity
    🎮⚙️ RX 9060: การ์ดลับจาก AMD ที่แรงเกินคาด แม้จะยังขายแค่ในเครื่อง OEM AMD เปิดตัว Radeon RX 9060 แบบเงียบ ๆ โดยไม่มีวางขายแยก แต่ใส่มาในเครื่องพีซี OEM ที่จำหน่ายในบางประเทศ เช่น เกาหลีใต้ ซึ่ง YouTuber ชื่อ Technosaurus ได้แกะเครื่องออกมาและทดสอบประสิทธิภาพของการ์ดนี้อย่างละเอียด RX 9060 ใช้ชิป Navi 44 แบบลดสเปก มี 28 compute units, 1,792 shaders, 28 ray tracing cores และแรม GDDR6 ขนาด 8GB บนบัส 128-bit ความเร็วใกล้ 3 GHz ใช้พลังงานเพียง 135W และมาในรูปแบบการ์ดขนาดเล็กจาก Sapphire ผลการทดสอบในเกมระดับ AAA ที่ความละเอียด 1080p พบว่า RX 9060 มีประสิทธิภาพใกล้เคียงกับ RTX 5060 โดยช้ากว่าเพียง 2% และห่างจาก RX 9060 XT แค่ 6% แต่กลับแรงกว่า RTX 5050 ถึง 20% ซึ่งถือว่าเป็นการ์ดที่คุ้มค่ามากสำหรับเกมเมอร์สายประหยัด ในด้าน benchmark เช่น 3DMark Time Spy และ Fire Strike ก็แสดงผลลัพธ์ที่เหนือกว่า RTX 5050 อย่างชัดเจน และใกล้เคียงกับ RTX 5060 ทั้งในด้านเกมและ productivity อย่างไรก็ตาม RX 9060 ยังมีข้อจำกัดคือแรมแค่ 8GB ซึ่งอาจไม่เพียงพอสำหรับเกมรุ่นใหม่ที่ใช้ ray tracing หรือ texture ขนาดใหญ่ และ AMD ยังไม่มีแผนวางขายแยกในตลาดทั่วไป ✅ AMD เปิดตัว RX 9060 แบบ OEM เท่านั้น ยังไม่มีขายแยก ➡️ พบในเครื่องพีซี OEM บางประเทศ เช่น เกาหลีใต้ ✅ ใช้ชิป Navi 44 แบบลดสเปก มี 28 CUs และแรม 8GB GDDR6 ➡️ ความเร็วใกล้ 3 GHz ใช้พลังงาน 135W ✅ ประสิทธิภาพใกล้เคียง RTX 5060 และ RX 9060 XT ➡️ ช้ากว่า RTX 5060 เพียง 2% และ RX 9060 XT แค่ 6% ✅ แรงกว่า RTX 5050 ถึง 20% ในเกมระดับ AAA ➡️ เช่น Cyberpunk 2077, God of War, Warhammer 40K ✅ ผล benchmark ใน 3DMark สูงกว่า RTX 5050 อย่างชัดเจน ➡️ Time Spy: 14,132 คะแนน, Fire Strike: 35,511 คะแนน ✅ ประสิทธิภาพเสถียรแม้ใช้กับ CPU ระดับกลาง ➡️ เช่น Ryzen 5 7500F ก็ยังได้เฟรมเรตใกล้เคียง Ryzen 7 9800X3D ✅ RX 9060 อาจผลิตจากชิปที่มี yield ต่ำของรุ่น XT แล้วปิดบาง core ➡️ เป็นวิธีลดต้นทุนและใช้ทรัพยากรให้คุ้มค่า ✅ RX 9060 XT รุ่น 16GB มีประสิทธิภาพสูงกว่า แต่กินไฟมากกว่า ➡️ เหมาะกับผู้ใช้ที่ต้องการเล่นเกมในระดับ ultra หรือ ray tracing ✅ ตลาดการ์ดจอระดับกลางกำลังแข่งขันกันดุเดือด ➡️ โดยเฉพาะระหว่าง AMD RX 9060 XT และ Nvidia RTX 5060 ✅ การ์ด OEM มักมีราคาถูกกว่าแต่ไม่สามารถซื้อแยกได้ ➡️ เหมาะกับผู้ที่ซื้อเครื่องพีซีแบบ prebuilt https://www.tomshardware.com/pc-components/gpus/amds-new-rx-9060-ripped-out-of-oem-pc-and-benchmarked-beats-the-rtx-5050-by-20-percent-basically-ties-the-rtx-5060-in-gaming-and-productivity
    0 Comments 0 Shares 28 Views 0 Reviews
  • Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix

    ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก

    LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า

    ฟีเจอร์เด่น ได้แก่:
    - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น
    - รองรับ speculative decoding และ torch.compile แบบ experimental
    - รองรับ embedding, rerank model และ multi-modal model
    - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้

    Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ

    Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix
    เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว

    รองรับ multi-GPU scaling และ PCIe P2P data transfer
    เพิ่มประสิทธิภาพสูงสุดถึง 80%

    ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B

    มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile
    ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล

    รองรับ embedding, rerank model และ multi-modal model
    ขยายขอบเขตการใช้งาน AI ได้หลากหลาย

    มีระบบ XPU Manager สำหรับจัดการ GPU
    ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้

    เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้
    รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่

    Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU
    ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+

    ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack
    ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น

    มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร
    ลดความเสี่ยงจากการทำงานผิดพลาด

    Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้
    โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า

    ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental
    เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร

    การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม
    หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ

    Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่
    ต้องรอรุ่น hardened และ full feature set ใน Q4

    การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม
    เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่

    https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    🧠⚙️ Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า ฟีเจอร์เด่น ได้แก่: - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น - รองรับ speculative decoding และ torch.compile แบบ experimental - รองรับ embedding, rerank model และ multi-modal model - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้ Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ ✅ Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix ➡️ เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว ✅ รองรับ multi-GPU scaling และ PCIe P2P data transfer ➡️ เพิ่มประสิทธิภาพสูงสุดถึง 80% ✅ ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens ➡️ ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B ✅ มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile ➡️ ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล ✅ รองรับ embedding, rerank model และ multi-modal model ➡️ ขยายขอบเขตการใช้งาน AI ได้หลากหลาย ✅ มีระบบ XPU Manager สำหรับจัดการ GPU ➡️ ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้ ✅ เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้ ➡️ รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่ ✅ Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU ➡️ ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+ ✅ ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack ➡️ ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น ✅ มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร ➡️ ลดความเสี่ยงจากการทำงานผิดพลาด ✅ Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้ ➡️ โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า ‼️ ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental ⛔ เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร ‼️ การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม ⛔ หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ ‼️ Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่ ⛔ ต้องรอรุ่น hardened และ full feature set ใน Q4 ‼️ การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม ⛔ เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่ https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    WCCFTECH.COM
    Intel's Project Battlematrix For Arc Pro GPUs Gets First Major Software Update: LLM Scaler v1.0 With Up To 80% Performance Uplift, Enhanced Support & More
    Intel has released the first major software for its Arc Pro "Project Battlematrix" solution, the LLM Scaler v1.0, with massive improvements.
    0 Comments 0 Shares 101 Views 0 Reviews
  • เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน

    ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง

    CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี

    Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น

    แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์

    การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ

    Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend
    เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia

    CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia
    ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น

    CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง
    เป็นทางเลือกใหม่สำหรับนักพัฒนา AI

    Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน
    เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend

    มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี
    เช่น DeepSeek R1 บน CloudMatrix 384

    การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน
    ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ

    https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    🚀🇨🇳 เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์ การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ ✅ Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend ➡️ เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia ✅ CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia ➡️ ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น ✅ CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง ➡️ เป็นทางเลือกใหม่สำหรับนักพัฒนา AI ✅ Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน ➡️ เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend ✅ มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี ➡️ เช่น DeepSeek R1 บน CloudMatrix 384 ✅ การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน ➡️ ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    0 Comments 0 Shares 91 Views 0 Reviews
  • เรื่องเล่าจากโลกเกม: AMD จับมือ Microsoft สร้างชิปเดียวใช้ได้ทั้ง Xbox, PC และเครื่องพกพา

    ในไตรมาสที่ 2 ปี 2025 AMD ประกาศความร่วมมือครั้งใหญ่กับ Microsoft ในการพัฒนาชิปแบบกึ่งสั่งทำ (semi-custom SoC) สำหรับอุปกรณ์ Xbox รุ่นถัดไป ซึ่งไม่ใช่แค่คอนโซลเท่านั้น แต่รวมถึง PC และเครื่องเล่นเกมแบบพกพาด้วย

    แนวคิดนี้คือการสร้าง “ชิปเดียวใช้ได้ทุกแพลตฟอร์ม” โดยใช้สถาปัตยกรรม x86 “Zen” สำหรับ CPU และ “RDNA” สำหรับ GPU ซึ่งเป็นพื้นฐานเดียวกับที่ใช้ใน Xbox Series X/S และ Ryzen Z2 ที่อยู่ใน ROG Ally รุ่น Xbox

    AMD ระบุว่าชิปใหม่นี้จะช่วยให้ Microsoft สร้าง ecosystem ที่เชื่อมโยงกันระหว่างคอนโซล เครื่องพกพา และ PC ได้อย่างไร้รอยต่อ โดยมีเป้าหมายให้ผู้ใช้สามารถเล่นเกม Xbox ได้ทุกที่ โดยไม่ต้องผูกกับอุปกรณ์ใดอุปกรณ์หนึ่ง

    แม้จะเป็นก้าวสำคัญ แต่ก็มีข้อกังวล เช่น ชิปแบบนี้อาจถูกบัดกรีติดกับเมนบอร์ด ทำให้ไม่สามารถอัปเกรดได้เหมือน PC แบบประกอบเอง และอาจจำกัดตลาดเฉพาะกลุ่มที่ต้องการความสะดวกมากกว่าความยืดหยุ่น

    AMD และ Microsoft ร่วมพัฒนาชิปกึ่งสั่งทำสำหรับ Xbox รุ่นถัดไป
    ใช้ได้กับคอนโซล PC และเครื่องเล่นเกมพกพา

    ชิปใช้สถาปัตยกรรม Zen สำหรับ CPU และ RDNA สำหรับ GPU
    เป็นพื้นฐานเดียวกับ Xbox Series X/S และ Ryzen Z2

    AMD รายงานรายได้จากกลุ่ม Client และ Gaming เพิ่มขึ้น 71.4%
    โดยเฉพาะยอดขาย Ryzen 9000X3D และ Radeon RX 9000

    Ecosystem ใหม่จะใช้ชิปเดียวกันในหลายอุปกรณ์
    ช่วยให้เกม Xbox เล่นได้ทุกที่อย่างไร้รอยต่อ

    AMD ยังร่วมมือกับ Sony ในการพัฒนา FSR 4 สำหรับ PlayStation
    แสดงถึงบทบาทกลางของ AMD ในอุตสาหกรรมเกม

    Microsoft วางแผนให้ Xbox เป็น “พอร์ตโฟลิโอของอุปกรณ์”
    รวมคอนโซล เครื่องพกพา และ PC ที่ใช้ชิปเดียวกัน

    ชิปใหม่จะรองรับ AI-based rendering และ upscaling
    เพิ่มประสิทธิภาพภาพและเฟรมเรตในเกม

    AMD เตรียมสร้าง roadmap ของชิปเกมที่ใช้ Ryzen และ Radeon
    ครอบคลุมคอนโซล เครื่องพกพา PC และ cloud gaming

    Xbox รุ่นใหม่จะมี backward compatibility กับเกมเก่า
    ช่วยให้ผู้ใช้ไม่ต้องซื้อเกมใหม่ซ้ำ

    Ecosystem นี้อาจทำให้ Xbox แข่งกับ PlayStation ได้ในหลายระดับราคา
    ตั้งแต่ $199 สำหรับเครื่องพกพา ไปจนถึง $699 สำหรับคอนโซลระดับสูง

    https://wccftech.com/amd-confirms-developing-custom-chips-microsoft-power-next-gen-xbox-consoles-pcs-handhelds/
    🎮🔧 เรื่องเล่าจากโลกเกม: AMD จับมือ Microsoft สร้างชิปเดียวใช้ได้ทั้ง Xbox, PC และเครื่องพกพา ในไตรมาสที่ 2 ปี 2025 AMD ประกาศความร่วมมือครั้งใหญ่กับ Microsoft ในการพัฒนาชิปแบบกึ่งสั่งทำ (semi-custom SoC) สำหรับอุปกรณ์ Xbox รุ่นถัดไป ซึ่งไม่ใช่แค่คอนโซลเท่านั้น แต่รวมถึง PC และเครื่องเล่นเกมแบบพกพาด้วย แนวคิดนี้คือการสร้าง “ชิปเดียวใช้ได้ทุกแพลตฟอร์ม” โดยใช้สถาปัตยกรรม x86 “Zen” สำหรับ CPU และ “RDNA” สำหรับ GPU ซึ่งเป็นพื้นฐานเดียวกับที่ใช้ใน Xbox Series X/S และ Ryzen Z2 ที่อยู่ใน ROG Ally รุ่น Xbox AMD ระบุว่าชิปใหม่นี้จะช่วยให้ Microsoft สร้าง ecosystem ที่เชื่อมโยงกันระหว่างคอนโซล เครื่องพกพา และ PC ได้อย่างไร้รอยต่อ โดยมีเป้าหมายให้ผู้ใช้สามารถเล่นเกม Xbox ได้ทุกที่ โดยไม่ต้องผูกกับอุปกรณ์ใดอุปกรณ์หนึ่ง แม้จะเป็นก้าวสำคัญ แต่ก็มีข้อกังวล เช่น ชิปแบบนี้อาจถูกบัดกรีติดกับเมนบอร์ด ทำให้ไม่สามารถอัปเกรดได้เหมือน PC แบบประกอบเอง และอาจจำกัดตลาดเฉพาะกลุ่มที่ต้องการความสะดวกมากกว่าความยืดหยุ่น ✅ AMD และ Microsoft ร่วมพัฒนาชิปกึ่งสั่งทำสำหรับ Xbox รุ่นถัดไป ➡️ ใช้ได้กับคอนโซล PC และเครื่องเล่นเกมพกพา ✅ ชิปใช้สถาปัตยกรรม Zen สำหรับ CPU และ RDNA สำหรับ GPU ➡️ เป็นพื้นฐานเดียวกับ Xbox Series X/S และ Ryzen Z2 ✅ AMD รายงานรายได้จากกลุ่ม Client และ Gaming เพิ่มขึ้น 71.4% ➡️ โดยเฉพาะยอดขาย Ryzen 9000X3D และ Radeon RX 9000 ✅ Ecosystem ใหม่จะใช้ชิปเดียวกันในหลายอุปกรณ์ ➡️ ช่วยให้เกม Xbox เล่นได้ทุกที่อย่างไร้รอยต่อ ✅ AMD ยังร่วมมือกับ Sony ในการพัฒนา FSR 4 สำหรับ PlayStation ➡️ แสดงถึงบทบาทกลางของ AMD ในอุตสาหกรรมเกม ✅ Microsoft วางแผนให้ Xbox เป็น “พอร์ตโฟลิโอของอุปกรณ์” ➡️ รวมคอนโซล เครื่องพกพา และ PC ที่ใช้ชิปเดียวกัน ✅ ชิปใหม่จะรองรับ AI-based rendering และ upscaling ➡️ เพิ่มประสิทธิภาพภาพและเฟรมเรตในเกม ✅ AMD เตรียมสร้าง roadmap ของชิปเกมที่ใช้ Ryzen และ Radeon ➡️ ครอบคลุมคอนโซล เครื่องพกพา PC และ cloud gaming ✅ Xbox รุ่นใหม่จะมี backward compatibility กับเกมเก่า ➡️ ช่วยให้ผู้ใช้ไม่ต้องซื้อเกมใหม่ซ้ำ ✅ Ecosystem นี้อาจทำให้ Xbox แข่งกับ PlayStation ได้ในหลายระดับราคา ➡️ ตั้งแต่ $199 สำหรับเครื่องพกพา ไปจนถึง $699 สำหรับคอนโซลระดับสูง https://wccftech.com/amd-confirms-developing-custom-chips-microsoft-power-next-gen-xbox-consoles-pcs-handhelds/
    WCCFTECH.COM
    AMD Confirms It's Developing Custom Chips With Microsoft: Will Power Next-Gen Xbox Devices Including Consoles, PCs, & Handhelds
    AMD has confirmed the development of custom chips that will power future Microsoft Xbox platforms such as consoles, PCs & handhelds.
    0 Comments 0 Shares 172 Views 0 Reviews
  • เรื่องเล่าจากโลกกราฟิก: Intel ยุติ 16x MSAA บน Xe3 GPU เพื่อเปิดทางให้ AI Upscaler ครองเกม

    ในเดือนสิงหาคม 2025 Intel ประกาศยุติการรองรับ 16x MSAA (Multisample Anti-Aliasing) บนกราฟิกการ์ดรุ่นใหม่ Xe3 “Celestial” โดยจะเหลือเพียง 2x, 4x และ 8x เท่านั้น เหตุผลหลักคือ 16x MSAA มีต้นทุนการประมวลผลสูงมาก และไม่คุ้มค่าเมื่อเทียบกับเทคนิคใหม่ ๆ ที่ใช้ AI เช่น XeSS ของ Intel, FSR ของ AMD และ DLSS ของ Nvidia ซึ่งให้ภาพคมชัดกว่า ใช้ทรัพยากรน้อยกว่า และยังสามารถสร้างเฟรมเพิ่มได้ด้วย

    MSAA เคยเป็นเทคนิคยอดนิยมในการทำให้ขอบภาพเรียบเนียน แต่ในยุคที่เกมใช้ deferred rendering และต้องการประสิทธิภาพสูงสุด การใช้ brute-force sampling แบบ MSAA กลายเป็นภาระที่ไม่จำเป็น โดยเฉพาะระดับ 16x ที่แทบไม่มีเกมไหนใช้จริง

    Intel จึงเลือกเดินตามแนวทางใหม่ที่เน้น AI-based upscaling และ temporal sampling ซึ่งให้ผลลัพธ์ที่ดีกว่าในทุกด้าน ทั้งคุณภาพภาพ ความลื่นไหล และการประหยัดพลังงาน โดย XeSS SDK ล่าสุดยังรองรับ GPU จากทุกค่าย ทำให้เป็นทางเลือกแบบเปิดสำหรับนักพัฒนา

    Intel ยุติการรองรับ 16x MSAA บน Xe3 GPU
    เหลือเพียง 2x, 4x และ 8x เท่านั้น

    การเปลี่ยนแปลงนี้เริ่มใน Mesa driver 25.3-devel และย้อนกลับไปยังเวอร์ชัน 25.1 และ 25.2
    เป็นการปรับปรุงในระดับไดรเวอร์สำหรับ Linux

    XeSS, FSR และ DLSS ให้ภาพคมชัดกว่า MSAA ด้วยต้นทุนต่ำกว่า
    รองรับการสร้างเฟรมและลดการสั่นของภาพได้ดีกว่า TAA

    XeSS SDK ล่าสุดรองรับ GPU จาก Intel, AMD และ Nvidia
    เป็นทางเลือกแบบ vendor-agnostic สำหรับนักพัฒนา

    Xe3 GPU จะเปิดตัวพร้อมกับซีพียู Panther Lake
    เป็นการรวมพลังของกราฟิกและ AI สำหรับงานยุคใหม่

    MSAA ทำงานโดยการสุ่มหลายจุดในแต่ละพิกเซลเพื่อทำให้ขอบภาพเรียบ
    แต่ไม่สามารถจัดการกับความโปร่งใสหรือ shader artifacts ได้ดี

    AI upscaling เช่น DLSS 3.5 และ XeSS 2 ใช้ machine learning เพื่อสร้างภาพที่คมชัด
    ลดภาระ GPU และเพิ่มเฟรมเรตได้พร้อมกัน

    Deferred rendering engine มักปิดการใช้งาน MSAA โดยอัตโนมัติ
    เพราะไม่สามารถใช้ร่วมกับหลาย pass ได้อย่างมีประสิทธิภาพ

    การใช้ AI-based AA ช่วยให้เกมสามารถรันที่ความละเอียดต่ำแต่ได้ภาพระดับสูง
    เหมาะกับ VR และ ray tracing ที่ต้องการประสิทธิภาพสูง

    https://www.tomshardware.com/pc-components/gpus/intel-will-retire-rarely-used-16x-msaa-support-on-xe3-gpus-ai-upscalers-like-xess-fsr-and-dlss-provide-better-more-efficient-results
    🎮🧠 เรื่องเล่าจากโลกกราฟิก: Intel ยุติ 16x MSAA บน Xe3 GPU เพื่อเปิดทางให้ AI Upscaler ครองเกม ในเดือนสิงหาคม 2025 Intel ประกาศยุติการรองรับ 16x MSAA (Multisample Anti-Aliasing) บนกราฟิกการ์ดรุ่นใหม่ Xe3 “Celestial” โดยจะเหลือเพียง 2x, 4x และ 8x เท่านั้น เหตุผลหลักคือ 16x MSAA มีต้นทุนการประมวลผลสูงมาก และไม่คุ้มค่าเมื่อเทียบกับเทคนิคใหม่ ๆ ที่ใช้ AI เช่น XeSS ของ Intel, FSR ของ AMD และ DLSS ของ Nvidia ซึ่งให้ภาพคมชัดกว่า ใช้ทรัพยากรน้อยกว่า และยังสามารถสร้างเฟรมเพิ่มได้ด้วย MSAA เคยเป็นเทคนิคยอดนิยมในการทำให้ขอบภาพเรียบเนียน แต่ในยุคที่เกมใช้ deferred rendering และต้องการประสิทธิภาพสูงสุด การใช้ brute-force sampling แบบ MSAA กลายเป็นภาระที่ไม่จำเป็น โดยเฉพาะระดับ 16x ที่แทบไม่มีเกมไหนใช้จริง Intel จึงเลือกเดินตามแนวทางใหม่ที่เน้น AI-based upscaling และ temporal sampling ซึ่งให้ผลลัพธ์ที่ดีกว่าในทุกด้าน ทั้งคุณภาพภาพ ความลื่นไหล และการประหยัดพลังงาน โดย XeSS SDK ล่าสุดยังรองรับ GPU จากทุกค่าย ทำให้เป็นทางเลือกแบบเปิดสำหรับนักพัฒนา ✅ Intel ยุติการรองรับ 16x MSAA บน Xe3 GPU ➡️ เหลือเพียง 2x, 4x และ 8x เท่านั้น ✅ การเปลี่ยนแปลงนี้เริ่มใน Mesa driver 25.3-devel และย้อนกลับไปยังเวอร์ชัน 25.1 และ 25.2 ➡️ เป็นการปรับปรุงในระดับไดรเวอร์สำหรับ Linux ✅ XeSS, FSR และ DLSS ให้ภาพคมชัดกว่า MSAA ด้วยต้นทุนต่ำกว่า ➡️ รองรับการสร้างเฟรมและลดการสั่นของภาพได้ดีกว่า TAA ✅ XeSS SDK ล่าสุดรองรับ GPU จาก Intel, AMD และ Nvidia ➡️ เป็นทางเลือกแบบ vendor-agnostic สำหรับนักพัฒนา ✅ Xe3 GPU จะเปิดตัวพร้อมกับซีพียู Panther Lake ➡️ เป็นการรวมพลังของกราฟิกและ AI สำหรับงานยุคใหม่ ✅ MSAA ทำงานโดยการสุ่มหลายจุดในแต่ละพิกเซลเพื่อทำให้ขอบภาพเรียบ ➡️ แต่ไม่สามารถจัดการกับความโปร่งใสหรือ shader artifacts ได้ดี ✅ AI upscaling เช่น DLSS 3.5 และ XeSS 2 ใช้ machine learning เพื่อสร้างภาพที่คมชัด ➡️ ลดภาระ GPU และเพิ่มเฟรมเรตได้พร้อมกัน ✅ Deferred rendering engine มักปิดการใช้งาน MSAA โดยอัตโนมัติ ➡️ เพราะไม่สามารถใช้ร่วมกับหลาย pass ได้อย่างมีประสิทธิภาพ ✅ การใช้ AI-based AA ช่วยให้เกมสามารถรันที่ความละเอียดต่ำแต่ได้ภาพระดับสูง ➡️ เหมาะกับ VR และ ray tracing ที่ต้องการประสิทธิภาพสูง https://www.tomshardware.com/pc-components/gpus/intel-will-retire-rarely-used-16x-msaa-support-on-xe3-gpus-ai-upscalers-like-xess-fsr-and-dlss-provide-better-more-efficient-results
    0 Comments 0 Shares 179 Views 0 Reviews
  • เรื่องเล่าจากข่าว: PlayStation 6 กับพลังแห่ง Orion—GPU RDNA 5, CPU Zen 6 และความหวังใหม่ของเกมยุคถัดไป

    แม้ Sony ยังไม่เปิดตัว PlayStation 6 อย่างเป็นทางการ แต่ข้อมูลหลุดจากการนำเสนอของ AMD ในปี 2023 เผยให้เห็นสเปกที่น่าตื่นเต้นของคอนโซลรุ่นถัดไป โดยใช้ APU รหัส “Orion” ที่รวมพลังของ CPU Zen 6 และ GPU RDNA 5

    ตัวเครื่องจะมี 8 คอร์ Zen 6 ที่ความเร็วสูงสุด 3GHz และ GPU ที่มี 40–48 Compute Units ซึ่งแม้จะน้อยกว่า PS5 Pro ที่มี 60 CUs แต่ RDNA 5 มีประสิทธิภาพต่อหน่วยสูงกว่า RDNA 2 อย่างมาก

    PS6 ยังจะใช้หน่วยความจำ GDDR7 ซึ่งเร็วกว่า GDDR6 ใน PS5 Pro และมีเป้าหมายการใช้พลังงานเพียง 160W—ต่ำกว่า PS5 ที่ใช้ 190–220W

    ผลคือ PS6 จะมีประสิทธิภาพด้าน rasterization สูงกว่า PS5 ถึง 3 เท่า และ ray tracing ดีกว่า PS5 Pro อย่างชัดเจน โดยคาดว่าจะเปิดตัวช่วงปลายปี 2027 หรือต้นปี 2028

    PlayStation 6 จะใช้ AMD APU รหัส Orion ที่รวม Zen 6 และ RDNA 5
    CPU 8 คอร์ Zen 6 ความเร็วสูงสุด 3GHz
    GPU RDNA 5 จำนวน 40–48 Compute Units

    ใช้หน่วยความจำ GDDR7 ที่เร็วกว่า GDDR6 ใน PS5 Pro
    เพิ่มแบนด์วิดธ์และลด latency
    รองรับการเล่นเกมระดับ 4K 120FPS และ 8K 60FPS

    เป้าหมายการใช้พลังงานอยู่ที่ 160W ซึ่งต่ำกว่า PS5
    PS5 ใช้พลังงาน 190–220W
    ช่วยลดความร้อนและเพิ่มประสิทธิภาพพลังงาน

    ประสิทธิภาพด้าน rasterization สูงกว่า PS5 ถึง 3 เท่า และดีกว่า PS5 Pro 2 เท่า
    เพิ่มความลื่นไหลของภาพและเฟรมเรต
    รองรับเกมที่ใช้กราฟิกหนักได้ดีขึ้น

    คาดว่าจะเปิดตัวปลายปี 2027 หรือต้นปี 2028
    เริ่มผลิตกลางปี 2027
    ยังไม่มีการกำหนดราคาขาย แต่ผู้ใช้หวังว่าจะใกล้เคียง PS5 ที่ $499

    มีข่าวลือว่า Sony จะเปิดตัวเครื่องพกพาใหม่พร้อมกัน โดยใช้ APU รหัส Canis
    ใช้ Zen 6C 4 คอร์ และ RDNA 5 12–20 CUs
    ใช้พลังงานเพียง 15W พร้อม LPDDR5X-7500

    https://www.techspot.com/news/108903-playstation-6-leaks-suggest-amd-orion-apu-rdna.html
    🎙️ เรื่องเล่าจากข่าว: PlayStation 6 กับพลังแห่ง Orion—GPU RDNA 5, CPU Zen 6 และความหวังใหม่ของเกมยุคถัดไป แม้ Sony ยังไม่เปิดตัว PlayStation 6 อย่างเป็นทางการ แต่ข้อมูลหลุดจากการนำเสนอของ AMD ในปี 2023 เผยให้เห็นสเปกที่น่าตื่นเต้นของคอนโซลรุ่นถัดไป โดยใช้ APU รหัส “Orion” ที่รวมพลังของ CPU Zen 6 และ GPU RDNA 5 ตัวเครื่องจะมี 8 คอร์ Zen 6 ที่ความเร็วสูงสุด 3GHz และ GPU ที่มี 40–48 Compute Units ซึ่งแม้จะน้อยกว่า PS5 Pro ที่มี 60 CUs แต่ RDNA 5 มีประสิทธิภาพต่อหน่วยสูงกว่า RDNA 2 อย่างมาก PS6 ยังจะใช้หน่วยความจำ GDDR7 ซึ่งเร็วกว่า GDDR6 ใน PS5 Pro และมีเป้าหมายการใช้พลังงานเพียง 160W—ต่ำกว่า PS5 ที่ใช้ 190–220W ผลคือ PS6 จะมีประสิทธิภาพด้าน rasterization สูงกว่า PS5 ถึง 3 เท่า และ ray tracing ดีกว่า PS5 Pro อย่างชัดเจน โดยคาดว่าจะเปิดตัวช่วงปลายปี 2027 หรือต้นปี 2028 ✅ PlayStation 6 จะใช้ AMD APU รหัส Orion ที่รวม Zen 6 และ RDNA 5 ➡️ CPU 8 คอร์ Zen 6 ความเร็วสูงสุด 3GHz ➡️ GPU RDNA 5 จำนวน 40–48 Compute Units ✅ ใช้หน่วยความจำ GDDR7 ที่เร็วกว่า GDDR6 ใน PS5 Pro ➡️ เพิ่มแบนด์วิดธ์และลด latency ➡️ รองรับการเล่นเกมระดับ 4K 120FPS และ 8K 60FPS ✅ เป้าหมายการใช้พลังงานอยู่ที่ 160W ซึ่งต่ำกว่า PS5 ➡️ PS5 ใช้พลังงาน 190–220W ➡️ ช่วยลดความร้อนและเพิ่มประสิทธิภาพพลังงาน ✅ ประสิทธิภาพด้าน rasterization สูงกว่า PS5 ถึง 3 เท่า และดีกว่า PS5 Pro 2 เท่า ➡️ เพิ่มความลื่นไหลของภาพและเฟรมเรต ➡️ รองรับเกมที่ใช้กราฟิกหนักได้ดีขึ้น ✅ คาดว่าจะเปิดตัวปลายปี 2027 หรือต้นปี 2028 ➡️ เริ่มผลิตกลางปี 2027 ➡️ ยังไม่มีการกำหนดราคาขาย แต่ผู้ใช้หวังว่าจะใกล้เคียง PS5 ที่ $499 ✅ มีข่าวลือว่า Sony จะเปิดตัวเครื่องพกพาใหม่พร้อมกัน โดยใช้ APU รหัส Canis ➡️ ใช้ Zen 6C 4 คอร์ และ RDNA 5 12–20 CUs ➡️ ใช้พลังงานเพียง 15W พร้อม LPDDR5X-7500 https://www.techspot.com/news/108903-playstation-6-leaks-suggest-amd-orion-apu-rdna.html
    WWW.TECHSPOT.COM
    PlayStation 6 leaks suggest AMD Orion APU with RDNA 5 and Zen 6 cores
    YouTube channel Moore's Law Is Dead claims to have obtained partial spec sheets for both consoles from a leaked AMD presentation. The leak suggests the PS6's Orion...
    0 Comments 0 Shares 116 Views 0 Reviews
  • เรื่องเล่าจากสนามกราฟิก: เมื่อ Unreal Engine 4 ทำให้ GPU ทุกค่ายสะดุด

    YouTuber Tech Yes City ได้ทดสอบเกม The Ascent และ Hellblade: Senua’s Sacrifice บนการ์ดจอ AMD RX 9070, Intel Arc B580 และ Nvidia RTX 5070 พบว่าเมื่อเปิด ray tracing แล้ว เกมเกิดอาการกระตุกอย่างหนัก โดยเฉพาะค่าต่ำสุดของเฟรมเรต (1% และ 0.1% lows) ที่ลดลงเหลือ 0 FPS บน AMD และต่ำกว่า 10 FPS บน Intel

    แม้ Nvidia จะไม่กระตุกเท่าคู่แข่ง แต่ก็เจอปัญหา artefacting (ภาพผิดปกติ) และเฟรมเรตลดลงถึง 3 เท่าเมื่อเปิด ray tracing เช่นกัน

    ที่น่าสนใจคือ ทั้งสองเกมใช้ Unreal Engine 4 เวอร์ชันพิเศษที่พัฒนาโดย Nvidia เรียกว่า “NvRTX branch” ซึ่งใช้เทคโนโลยี ray tracing เฉพาะของ Nvidia ไม่ใช่ DXR แบบทั่วไป ทำให้ GPU จากค่ายอื่นทำงานได้ไม่เต็มประสิทธิภาพ

    AMD RX 9000 Series พบปัญหากระตุกหนักในเกม UE4 ที่เปิด ray tracing
    เฟรมเรตเฉลี่ยสูง แต่ค่าต่ำสุดเหลือ 0 FPS
    เกมที่ทดสอบคือ The Ascent และ Hellblade: Senua’s Sacrifice

    Intel Arc B580 ก็เจอปัญหาเดียวกัน แม้จะเป็นการ์ดระดับล่าง
    เฟรมเรตเฉลี่ย 45 FPS แต่ค่าต่ำสุดเหลือเพียง 8 FPS
    แสดงว่าปัญหาไม่ใช่เฉพาะ AMD

    Nvidia RTX 5070 เจอ artefacting และเฟรมเรตลดลง 3 เท่าเมื่อเปิด ray tracing
    ปัญหาเกิดเฉพาะเมื่อใช้ native resolution
    เปิด DLSS แล้วปัญหาหายไป

    ทั้งสองเกมใช้ Unreal Engine 4 เวอร์ชันพิเศษของ Nvidia (NvRTX branch)
    ใช้เทคโนโลยี ray tracing เฉพาะของ Nvidia
    ต่างจาก UE4 เวอร์ชันทั่วไปที่ใช้ DXR

    ปัญหานี้อาจเกิดจากการออกแบบ engine ไม่รองรับ GPU ค่ายอื่นอย่างเต็มที่
    ไม่ใช่ปัญหาจาก driver ของ AMD หรือ Intel โดยตรง
    Nvidia อาจได้เปรียบจากการควบคุม engine

    https://www.tomshardware.com/pc-components/gpus/rdna-4s-unreal-engine-4-ray-tracing-stutters-may-not-be-amd-specific
    🧠 เรื่องเล่าจากสนามกราฟิก: เมื่อ Unreal Engine 4 ทำให้ GPU ทุกค่ายสะดุด YouTuber Tech Yes City ได้ทดสอบเกม The Ascent และ Hellblade: Senua’s Sacrifice บนการ์ดจอ AMD RX 9070, Intel Arc B580 และ Nvidia RTX 5070 พบว่าเมื่อเปิด ray tracing แล้ว เกมเกิดอาการกระตุกอย่างหนัก โดยเฉพาะค่าต่ำสุดของเฟรมเรต (1% และ 0.1% lows) ที่ลดลงเหลือ 0 FPS บน AMD และต่ำกว่า 10 FPS บน Intel แม้ Nvidia จะไม่กระตุกเท่าคู่แข่ง แต่ก็เจอปัญหา artefacting (ภาพผิดปกติ) และเฟรมเรตลดลงถึง 3 เท่าเมื่อเปิด ray tracing เช่นกัน ที่น่าสนใจคือ ทั้งสองเกมใช้ Unreal Engine 4 เวอร์ชันพิเศษที่พัฒนาโดย Nvidia เรียกว่า “NvRTX branch” ซึ่งใช้เทคโนโลยี ray tracing เฉพาะของ Nvidia ไม่ใช่ DXR แบบทั่วไป ทำให้ GPU จากค่ายอื่นทำงานได้ไม่เต็มประสิทธิภาพ ✅ AMD RX 9000 Series พบปัญหากระตุกหนักในเกม UE4 ที่เปิด ray tracing ➡️ เฟรมเรตเฉลี่ยสูง แต่ค่าต่ำสุดเหลือ 0 FPS ➡️ เกมที่ทดสอบคือ The Ascent และ Hellblade: Senua’s Sacrifice ✅ Intel Arc B580 ก็เจอปัญหาเดียวกัน แม้จะเป็นการ์ดระดับล่าง ➡️ เฟรมเรตเฉลี่ย 45 FPS แต่ค่าต่ำสุดเหลือเพียง 8 FPS ➡️ แสดงว่าปัญหาไม่ใช่เฉพาะ AMD ✅ Nvidia RTX 5070 เจอ artefacting และเฟรมเรตลดลง 3 เท่าเมื่อเปิด ray tracing ➡️ ปัญหาเกิดเฉพาะเมื่อใช้ native resolution ➡️ เปิด DLSS แล้วปัญหาหายไป ✅ ทั้งสองเกมใช้ Unreal Engine 4 เวอร์ชันพิเศษของ Nvidia (NvRTX branch) ➡️ ใช้เทคโนโลยี ray tracing เฉพาะของ Nvidia ➡️ ต่างจาก UE4 เวอร์ชันทั่วไปที่ใช้ DXR ✅ ปัญหานี้อาจเกิดจากการออกแบบ engine ไม่รองรับ GPU ค่ายอื่นอย่างเต็มที่ ➡️ ไม่ใช่ปัญหาจาก driver ของ AMD หรือ Intel โดยตรง ➡️ Nvidia อาจได้เปรียบจากการควบคุม engine https://www.tomshardware.com/pc-components/gpus/rdna-4s-unreal-engine-4-ray-tracing-stutters-may-not-be-amd-specific
    0 Comments 0 Shares 150 Views 0 Reviews
  • เรื่องเล่าจากสนามทดสอบ: เมื่อ Intel และ AMD แลกหมัดกันทั้ง CPU และ GPU

    ในเดือนกรกฎาคม 2025 เว็บไซต์ Wccftech รายงานผลการเปรียบเทียบระหว่าง Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 ซึ่งเป็นซีพียูระดับกลางสำหรับโน้ตบุ๊กที่ใช้สถาปัตยกรรมใหม่ล่าสุด—Arrow Lake และ Krackan Point ตามลำดับ

    ผลการทดสอบจาก Geekerwan พบว่า ทั้งสองรุ่นมีประสิทธิภาพใกล้เคียงกันในงานทั่วไปและเกม โดย Intel มีข้อได้เปรียบด้าน “ความร้อน” ที่ต่ำกว่าอย่างชัดเจน ส่วน AMD ก็มีข้อได้เปรียบด้าน “จำนวนเธรด” และความเร็ว GPU ที่สูงกว่า

    ด้านกราฟิกในตัว (iGPU) Intel Arc 130T และ AMD Radeon 860M ก็แลกหมัดกันอย่างสูสี โดย Arc 130T มีคะแนนรวมสูงกว่าในหลายเบนช์มาร์ก แต่ Radeon 860M กลับทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ปรับกราฟิกสูง

    Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 มีประสิทธิภาพใกล้เคียงกันในงานทั่วไป
    Intel มี 14 คอร์ (ไม่มี hyperthreading) ส่วน AMD มี 8 คอร์ 16 เธรด
    Intel ใช้สถาปัตยกรรม Arrow Lake-H ส่วน AMD ใช้ Zen 5 + Zen 5c

    ผลทดสอบ Cinebench R23 แสดงว่า Intel ดีกว่าเล็กน้อยที่กำลังไฟสูง (60–80W)
    AMD ดีกว่าในช่วงกำลังไฟต่ำ (10–25W)
    Intel เร็วกว่า ~2.5% โดยรวม

    Intel Core Ultra 5 225H มีอุณหภูมิสูงสุดต่ำกว่า Ryzen AI 7 350 อย่างชัดเจน
    Intel อยู่ที่ <90°C ขณะโหลดเต็ม
    AMD แตะ 100°C ทำให้เครื่องร้อนกว่า

    Intel Arc 130T และ AMD Radeon 860M มีประสิทธิภาพใกล้เคียงกันในเกม
    Arc 130T ใช้ Xe2 architecture, 896 shaders, 3.9 TFLOPS
    Radeon 860M ใช้ RDNA 3.5, 512 shaders, 3.1 TFLOPS

    Arc 130T ทำคะแนนสูงกว่าใน 3DMark และ Geekbench GPU tests
    สูงกว่า Radeon 860M ถึง 42% ใน Geekbench Compute
    แต่ Radeon 860M ทำเฟรมเรตดีกว่าในบางเกม เช่น F1 24 และ GTA V

    โน้ตบุ๊กรุ่น Ideapad Pro 5 มีทั้งเวอร์ชัน Intel และ AMD ให้เลือก
    ใช้ชิปทั้งสองรุ่นในบอดี้เดียวกัน
    เหมาะกับผู้ใช้ทั่วไปและเกมเมอร์สายประหยัด

    แม้ Arc 130T จะมีคะแนนเบนช์มาร์กสูง แต่ยังไม่ชนะ Radeon 860M ในทุกเกม
    Radeon 860M ทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ใช้กราฟิกหนัก
    Arc 130T เหมาะกับงาน AI และการประมวลผลมากกว่าเกมระดับสูง

    Ryzen AI 7 350 มีอุณหภูมิสูงกว่า อาจกระทบต่ออายุการใช้งานในโน้ตบุ๊กบางรุ่น
    อุณหภูมิแตะ 100°C ในการทดสอบ Cinebench R23
    อาจทำให้เครื่องร้อนและลดประสิทธิภาพเมื่อใช้งานต่อเนื่อง

    Intel Core Ultra 5 225H ไม่มี hyperthreading แม้จะมีคอร์มากกว่า
    มี 14 คอร์แต่แค่ 14 เธรด ขณะที่ AMD มี 8 คอร์ 16 เธรด
    อาจเสียเปรียบในงานที่ใช้เธรดจำนวนมาก เช่น การเรนเดอร์หรือ AI

    ทั้งสองรุ่นยังไม่เหมาะกับเกม 4K หรือกราฟิกระดับ Ultra
    เฟรมเรตเฉลี่ยอยู่ที่ 20–30 FPS ใน 1080p Ultra
    เหมาะกับเกมที่ปรับกราฟิกระดับ Low–Medium มากกว่า

    https://wccftech.com/core-ultra-5-225h-trades-blows-with-ryzen-ai-7-350-but-with-better-thermals/
    ⚔️ เรื่องเล่าจากสนามทดสอบ: เมื่อ Intel และ AMD แลกหมัดกันทั้ง CPU และ GPU ในเดือนกรกฎาคม 2025 เว็บไซต์ Wccftech รายงานผลการเปรียบเทียบระหว่าง Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 ซึ่งเป็นซีพียูระดับกลางสำหรับโน้ตบุ๊กที่ใช้สถาปัตยกรรมใหม่ล่าสุด—Arrow Lake และ Krackan Point ตามลำดับ ผลการทดสอบจาก Geekerwan พบว่า ทั้งสองรุ่นมีประสิทธิภาพใกล้เคียงกันในงานทั่วไปและเกม โดย Intel มีข้อได้เปรียบด้าน “ความร้อน” ที่ต่ำกว่าอย่างชัดเจน ส่วน AMD ก็มีข้อได้เปรียบด้าน “จำนวนเธรด” และความเร็ว GPU ที่สูงกว่า ด้านกราฟิกในตัว (iGPU) Intel Arc 130T และ AMD Radeon 860M ก็แลกหมัดกันอย่างสูสี โดย Arc 130T มีคะแนนรวมสูงกว่าในหลายเบนช์มาร์ก แต่ Radeon 860M กลับทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ปรับกราฟิกสูง ✅ Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 มีประสิทธิภาพใกล้เคียงกันในงานทั่วไป ➡️ Intel มี 14 คอร์ (ไม่มี hyperthreading) ส่วน AMD มี 8 คอร์ 16 เธรด ➡️ Intel ใช้สถาปัตยกรรม Arrow Lake-H ส่วน AMD ใช้ Zen 5 + Zen 5c ✅ ผลทดสอบ Cinebench R23 แสดงว่า Intel ดีกว่าเล็กน้อยที่กำลังไฟสูง (60–80W) ➡️ AMD ดีกว่าในช่วงกำลังไฟต่ำ (10–25W) ➡️ Intel เร็วกว่า ~2.5% โดยรวม ✅ Intel Core Ultra 5 225H มีอุณหภูมิสูงสุดต่ำกว่า Ryzen AI 7 350 อย่างชัดเจน ➡️ Intel อยู่ที่ <90°C ขณะโหลดเต็ม ➡️ AMD แตะ 100°C ทำให้เครื่องร้อนกว่า ✅ Intel Arc 130T และ AMD Radeon 860M มีประสิทธิภาพใกล้เคียงกันในเกม ➡️ Arc 130T ใช้ Xe2 architecture, 896 shaders, 3.9 TFLOPS ➡️ Radeon 860M ใช้ RDNA 3.5, 512 shaders, 3.1 TFLOPS ✅ Arc 130T ทำคะแนนสูงกว่าใน 3DMark และ Geekbench GPU tests ➡️ สูงกว่า Radeon 860M ถึง 42% ใน Geekbench Compute ➡️ แต่ Radeon 860M ทำเฟรมเรตดีกว่าในบางเกม เช่น F1 24 และ GTA V ✅ โน้ตบุ๊กรุ่น Ideapad Pro 5 มีทั้งเวอร์ชัน Intel และ AMD ให้เลือก ➡️ ใช้ชิปทั้งสองรุ่นในบอดี้เดียวกัน ➡️ เหมาะกับผู้ใช้ทั่วไปและเกมเมอร์สายประหยัด ‼️ แม้ Arc 130T จะมีคะแนนเบนช์มาร์กสูง แต่ยังไม่ชนะ Radeon 860M ในทุกเกม ⛔ Radeon 860M ทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ใช้กราฟิกหนัก ⛔ Arc 130T เหมาะกับงาน AI และการประมวลผลมากกว่าเกมระดับสูง ‼️ Ryzen AI 7 350 มีอุณหภูมิสูงกว่า อาจกระทบต่ออายุการใช้งานในโน้ตบุ๊กบางรุ่น ⛔ อุณหภูมิแตะ 100°C ในการทดสอบ Cinebench R23 ⛔ อาจทำให้เครื่องร้อนและลดประสิทธิภาพเมื่อใช้งานต่อเนื่อง ‼️ Intel Core Ultra 5 225H ไม่มี hyperthreading แม้จะมีคอร์มากกว่า ⛔ มี 14 คอร์แต่แค่ 14 เธรด ขณะที่ AMD มี 8 คอร์ 16 เธรด ⛔ อาจเสียเปรียบในงานที่ใช้เธรดจำนวนมาก เช่น การเรนเดอร์หรือ AI ‼️ ทั้งสองรุ่นยังไม่เหมาะกับเกม 4K หรือกราฟิกระดับ Ultra ⛔ เฟรมเรตเฉลี่ยอยู่ที่ 20–30 FPS ใน 1080p Ultra ⛔ เหมาะกับเกมที่ปรับกราฟิกระดับ Low–Medium มากกว่า https://wccftech.com/core-ultra-5-225h-trades-blows-with-ryzen-ai-7-350-but-with-better-thermals/
    WCCFTECH.COM
    Core Ultra 5 225H Trades Blows With Ryzen AI 7 350 But With Better Thermals; Arc 130T Comes On Par With Radeon 860M
    The Intel Core Ultra 5 225H was benchmarked against Ryzen AI 7 350 and delivered equivalent synthetic and gaming performance but with better temperatures.
    0 Comments 0 Shares 158 Views 0 Reviews
  • เรื่องเล่าจากโน้ตบุ๊กแรงทะลุขีดจำกัด: เมื่อการดัดแปลงพลังงานปลดล็อกเฟรมเรตที่ซ่อนอยู่

    GPU GeForce RTX 5090 Laptop ใช้ชิป GB203 ตัวเดียวกับ RTX 5080 และ 5070 Ti โดยมี 10,496 CUDA cores แต่ถูกจำกัดพลังงานไว้ที่ 95–150W + 25W จาก Dynamic Boost เพื่อควบคุมความร้อนและการใช้พลังงานในโน้ตบุ๊ก

    GizmoSlipTech ได้ทำการเพิ่มพลังงานโดยใช้ “shunt mod” ซึ่งเป็นการเพิ่มตัวต้านทานเพื่อหลอกระบบให้จ่ายไฟมากขึ้น — ทำให้ TGP พุ่งจาก 175W เป็น 250W (เพิ่มขึ้น 43%) และผลลัพธ์คือ:
    - เฟรมเรตเฉลี่ยเพิ่มขึ้น 18%
    - เกมที่ใช้ GPU หนัก เช่น Cyberpunk 2077, Witcher 3, Rainbow Six Siege เพิ่มขึ้นกว่า 20%
    - เกมที่ใช้ CPU หนัก เช่น Shadow of the Tomb Raider เพิ่มขึ้นเพียง 4%

    การทดสอบนี้ทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 ที่ใช้ Core Ultra 9 275HX และ RAM DDR5-7200 ขนาด 48GB

    XMG ผู้ผลิตโน้ตบุ๊กเกมมิ่งรายหนึ่งแสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต — โดยระบุว่าระบบระบายความร้อนของตนสามารถรับมือได้

    GizmoSlipTech ดัดแปลง RTX 5090 Laptop GPU ด้วย shunt mod เพื่อเพิ่ม TGP จาก 175W เป็น 250W
    ส่งผลให้ประสิทธิภาพเพิ่มขึ้นสูงสุดถึง 40% ในบางเกม

    GPU รุ่นนี้ใช้ชิป GB203 เหมือนกับ RTX 5080 และ 5070 Ti
    มี 10,496 CUDA cores แต่ถูกจำกัดพลังงานเพื่อใช้งานในโน้ตบุ๊ก

    เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% โดยเฉพาะในเกมที่ใช้ GPU หนัก
    เช่น Cyberpunk 2077, Rainbow Six Siege, Witcher 3

    การทดสอบทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 พร้อม Core Ultra 9 และ RAM 48GB
    ใช้แอปพลิเคชัน Amuse และการตั้งค่าหลายแบบในการวัดผล

    XMG แสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต
    ระบบระบายความร้อนของ XMG สามารถควบคุมอุณหภูมิได้ต่ำกว่า 80°C ด้วยลม และต่ำกว่า 70°C ด้วยน้ำ

    https://www.tomshardware.com/pc-components/gpus/geforce-rtx-5090-laptop-gpu-shunt-mod-increases-performance-by-up-to-40-percent-175-tgp-boosted-to-250w-to-unlock-extra-performance
    🎙️ เรื่องเล่าจากโน้ตบุ๊กแรงทะลุขีดจำกัด: เมื่อการดัดแปลงพลังงานปลดล็อกเฟรมเรตที่ซ่อนอยู่ GPU GeForce RTX 5090 Laptop ใช้ชิป GB203 ตัวเดียวกับ RTX 5080 และ 5070 Ti โดยมี 10,496 CUDA cores แต่ถูกจำกัดพลังงานไว้ที่ 95–150W + 25W จาก Dynamic Boost เพื่อควบคุมความร้อนและการใช้พลังงานในโน้ตบุ๊ก GizmoSlipTech ได้ทำการเพิ่มพลังงานโดยใช้ “shunt mod” ซึ่งเป็นการเพิ่มตัวต้านทานเพื่อหลอกระบบให้จ่ายไฟมากขึ้น — ทำให้ TGP พุ่งจาก 175W เป็น 250W (เพิ่มขึ้น 43%) และผลลัพธ์คือ: - เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% - เกมที่ใช้ GPU หนัก เช่น Cyberpunk 2077, Witcher 3, Rainbow Six Siege เพิ่มขึ้นกว่า 20% - เกมที่ใช้ CPU หนัก เช่น Shadow of the Tomb Raider เพิ่มขึ้นเพียง 4% การทดสอบนี้ทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 ที่ใช้ Core Ultra 9 275HX และ RAM DDR5-7200 ขนาด 48GB XMG ผู้ผลิตโน้ตบุ๊กเกมมิ่งรายหนึ่งแสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต — โดยระบุว่าระบบระบายความร้อนของตนสามารถรับมือได้ ✅ GizmoSlipTech ดัดแปลง RTX 5090 Laptop GPU ด้วย shunt mod เพื่อเพิ่ม TGP จาก 175W เป็น 250W ➡️ ส่งผลให้ประสิทธิภาพเพิ่มขึ้นสูงสุดถึง 40% ในบางเกม ✅ GPU รุ่นนี้ใช้ชิป GB203 เหมือนกับ RTX 5080 และ 5070 Ti ➡️ มี 10,496 CUDA cores แต่ถูกจำกัดพลังงานเพื่อใช้งานในโน้ตบุ๊ก ✅ เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% โดยเฉพาะในเกมที่ใช้ GPU หนัก ➡️ เช่น Cyberpunk 2077, Rainbow Six Siege, Witcher 3 ✅ การทดสอบทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 พร้อม Core Ultra 9 และ RAM 48GB ➡️ ใช้แอปพลิเคชัน Amuse และการตั้งค่าหลายแบบในการวัดผล ✅ XMG แสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต ➡️ ระบบระบายความร้อนของ XMG สามารถควบคุมอุณหภูมิได้ต่ำกว่า 80°C ด้วยลม และต่ำกว่า 70°C ด้วยน้ำ https://www.tomshardware.com/pc-components/gpus/geforce-rtx-5090-laptop-gpu-shunt-mod-increases-performance-by-up-to-40-percent-175-tgp-boosted-to-250w-to-unlock-extra-performance
    0 Comments 0 Shares 162 Views 0 Reviews
  • เรื่องเล่าจากเส้นสั่น: เมื่อภาพนิ่งกลายเป็นภาพเคลื่อนไหวด้วยฟิลเตอร์ SVG

    Camillo ได้แรงบันดาลใจจากสารคดี ARTE ที่ใช้ภาพประกอบแบบเรียบง่าย แต่มี “การสั่นเบา ๆ” ที่ทำให้ดูเหมือนภาพเคลื่อนไหวแบบวาดมือ เขาจึงทดลองสร้างเอฟเฟกต์นี้ขึ้นมาโดยไม่ต้องวาดหลายเฟรม แต่ใช้เทคนิคการบิดเบือนภาพผ่านฟิลเตอร์ SVG แทน

    หลักการมี 2 ส่วน:
    1️⃣. Distortion: ทำให้ขอบของภาพไม่เรียบตรง แต่มีความสั่นแบบสุ่ม
    2️⃣. Animation: เปลี่ยนค่าการสั่นทุก ๆ 100–200 ms เพื่อให้เกิดการเคลื่อนไหวต่อเนื่อง

    โดยใช้ฟิลเตอร์ SVG 2 ตัว:

     feTurbulence: สร้าง noise texture แบบ procedural

     feDisplacementMap: ใช้ noise นั้นเพื่อบิดเบือนพิกเซลของภาพ

    จากนั้นใช้ JavaScript เปลี่ยนค่าพารามิเตอร์ เช่น baseFrequency และ scale เพื่อให้เกิดการสั่นแบบมีชีวิตชีวา

    เอฟเฟกต์ “boiling” คือการทำให้ภาพนิ่งดูเหมือนเคลื่อนไหวด้วยการสั่นเบา ๆ
    ใช้ในงานอนิเมชันเพื่อให้ฉากนิ่งดูมีชีวิต เช่นตัวละครยืนเฉย ๆ

    เทคนิคดั้งเดิมคือวาดหลายเฟรมด้วยมือแล้ววนซ้ำ
    แต่ในเว็บสามารถใช้ SVG filter แทนได้โดยไม่ต้องวาดหลายภาพ

    ใช้ฟิลเตอร์ feTurbulence เพื่อสร้าง noise และ feDisplacementMap เพื่อบิดภาพ
    noise จะบิดพิกเซลของภาพให้ดูเหมือนเส้นสั่น

    JavaScript ใช้เปลี่ยนค่าพารามิเตอร์ทุก 100ms เพื่อให้เกิดการเคลื่อนไหว
    เช่นปรับ baseFrequency แบบสุ่มเล็กน้อยในแต่ละเฟรม

    มีเดโมให้ทดลองปรับค่าต่าง ๆ เช่น scale, frequency, และ animation intensity
    สามารถควบคุมระดับการสั่นได้ตั้งแต่เบา ๆ ไปจนถึงสั่นแรงจนภาพบิดเบี้ยว

    เทคนิคนี้ใช้ได้ทั้งกับภาพ SVG และภาพ raster (.jpg, .png)
    ทำให้สามารถนำไปใช้กับภาพประกอบทั่วไปได้หลากหลาย

    https://camillovisini.com/coding/simulating-hand-drawn-motion-with-svg-filters
    🎙️ เรื่องเล่าจากเส้นสั่น: เมื่อภาพนิ่งกลายเป็นภาพเคลื่อนไหวด้วยฟิลเตอร์ SVG Camillo ได้แรงบันดาลใจจากสารคดี ARTE ที่ใช้ภาพประกอบแบบเรียบง่าย แต่มี “การสั่นเบา ๆ” ที่ทำให้ดูเหมือนภาพเคลื่อนไหวแบบวาดมือ เขาจึงทดลองสร้างเอฟเฟกต์นี้ขึ้นมาโดยไม่ต้องวาดหลายเฟรม แต่ใช้เทคนิคการบิดเบือนภาพผ่านฟิลเตอร์ SVG แทน หลักการมี 2 ส่วน: 1️⃣. Distortion: ทำให้ขอบของภาพไม่เรียบตรง แต่มีความสั่นแบบสุ่ม 2️⃣. Animation: เปลี่ยนค่าการสั่นทุก ๆ 100–200 ms เพื่อให้เกิดการเคลื่อนไหวต่อเนื่อง โดยใช้ฟิลเตอร์ SVG 2 ตัว: ✅ feTurbulence: สร้าง noise texture แบบ procedural ✅ feDisplacementMap: ใช้ noise นั้นเพื่อบิดเบือนพิกเซลของภาพ จากนั้นใช้ JavaScript เปลี่ยนค่าพารามิเตอร์ เช่น baseFrequency และ scale เพื่อให้เกิดการสั่นแบบมีชีวิตชีวา ✅ เอฟเฟกต์ “boiling” คือการทำให้ภาพนิ่งดูเหมือนเคลื่อนไหวด้วยการสั่นเบา ๆ ➡️ ใช้ในงานอนิเมชันเพื่อให้ฉากนิ่งดูมีชีวิต เช่นตัวละครยืนเฉย ๆ ✅ เทคนิคดั้งเดิมคือวาดหลายเฟรมด้วยมือแล้ววนซ้ำ ➡️ แต่ในเว็บสามารถใช้ SVG filter แทนได้โดยไม่ต้องวาดหลายภาพ ✅ ใช้ฟิลเตอร์ feTurbulence เพื่อสร้าง noise และ feDisplacementMap เพื่อบิดภาพ ➡️ noise จะบิดพิกเซลของภาพให้ดูเหมือนเส้นสั่น ✅ JavaScript ใช้เปลี่ยนค่าพารามิเตอร์ทุก 100ms เพื่อให้เกิดการเคลื่อนไหว ➡️ เช่นปรับ baseFrequency แบบสุ่มเล็กน้อยในแต่ละเฟรม ✅ มีเดโมให้ทดลองปรับค่าต่าง ๆ เช่น scale, frequency, และ animation intensity ➡️ สามารถควบคุมระดับการสั่นได้ตั้งแต่เบา ๆ ไปจนถึงสั่นแรงจนภาพบิดเบี้ยว ✅ เทคนิคนี้ใช้ได้ทั้งกับภาพ SVG และภาพ raster (.jpg, .png) ➡️ ทำให้สามารถนำไปใช้กับภาพประกอบทั่วไปได้หลากหลาย https://camillovisini.com/coding/simulating-hand-drawn-motion-with-svg-filters
    CAMILLOVISINI.COM
    Simulating Hand-Drawn Motion with SVG Filters
    A practical guide to implementing the boiling line animation effect using SVG filter primitives and JavaScript - Blog post by Camillo Visini
    0 Comments 0 Shares 172 Views 0 Reviews
  • เรื่องเล่าจากโลก AI: AMD เปิดตัว Radeon AI PRO R9700 สำหรับงาน AI หนัก ๆ ในราคาครึ่งเดียวของคู่แข่ง

    AMD ประกาศเปิดตัว GPU รุ่นใหม่ Radeon AI PRO R9700 ซึ่งใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 โดยมาพร้อม VRAM ขนาด 32 GB แบบ GDDR6 และรองรับ PCIe 5.0 ออกแบบมาเพื่องาน AI ที่ต้องการความเร็วสูงและหน่วยความจำมาก เช่น transformer models, generative design และ multi-modal workflows

    AMD เคลมว่า R9700 มีประสิทธิภาพ inference สูงกว่า RTX 5080 ถึง 496% ในงานที่ต้องใช้หน่วยความจำมาก โดยมีราคาประมาณ $1,250 ซึ่งถูกกว่าซีรีส์ RTX PRO Blackwell ที่คาดว่าจะเปิดตัวเร็ว ๆ นี้

    ในช่วงแรก R9700 จะวางจำหน่ายเฉพาะในเวิร์กสเตชันสำเร็จรูปจาก OEM เช่น Boxx และ Velocity Micro ส่วนรุ่นสำหรับ DIY จะตามมาในไตรมาส 3 จากแบรนด์ ASRock, PowerColor และอื่น ๆ

    GPU รุ่นนี้รองรับแพลตฟอร์ม ROCm 6.3 ของ AMD ซึ่งสามารถใช้งานร่วมกับ PyTorch, TensorFlow และ ONNX Runtime ได้อย่างเต็มรูปแบบ และมีดีไซน์แบบ dual-slot พร้อมพัดลมแบบ blower ที่เหมาะกับการใช้งานในระบบ multi-GPU

    AMD เปิดตัว Radeon AI PRO R9700 สำหรับงาน AI โดยเฉพาะ
    ใช้ชิป Navi 48, สถาปัตยกรรม RDNA 4, VRAM 32 GB GDDR6

    รองรับ PCIe 5.0 และมีดีไซน์ dual-slot พร้อมพัดลม blower
    เหมาะกับการใช้งานในระบบ multi-GPU และเวิร์กสเตชัน

    ประสิทธิภาพ inference สูงกว่า RTX 5080 ถึง 496% ในบางกรณี
    โดยเฉพาะเมื่อโมเดลไม่สามารถรันได้ใน VRAM 16 GB ของคู่แข่ง

    ราคาประมาณ $1,250 ถูกกว่าซีรีส์ RTX PRO Blackwell ครึ่งหนึ่ง
    เหมาะกับองค์กรที่ต้องการลดต้นทุนด้านฮาร์ดแวร์

    วางจำหน่ายในเวิร์กสเตชันจาก OEM ก่อน เช่น Boxx และ Velocity Micro
    รุ่นสำหรับ DIY จะตามมาในไตรมาส 3 จาก ASRock และ PowerColor

    รองรับ ROCm 6.3 และเฟรมเวิร์กยอดนิยม เช่น PyTorch, TensorFlow
    ช่วยให้สามารถฝึกและ deploy โมเดล AI ได้ในเครื่อง local

    เหมาะกับงาน NLP, text-to-image, generative design และ multi-modal AI
    รองรับการทำ inference ขนาดใหญ่แบบ on-premises

    https://www.techpowerup.com/339030/amd-radeon-ai-pro-r9700-gpu-arrives-on-july-23rd
    🎙️ เรื่องเล่าจากโลก AI: AMD เปิดตัว Radeon AI PRO R9700 สำหรับงาน AI หนัก ๆ ในราคาครึ่งเดียวของคู่แข่ง AMD ประกาศเปิดตัว GPU รุ่นใหม่ Radeon AI PRO R9700 ซึ่งใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 โดยมาพร้อม VRAM ขนาด 32 GB แบบ GDDR6 และรองรับ PCIe 5.0 ออกแบบมาเพื่องาน AI ที่ต้องการความเร็วสูงและหน่วยความจำมาก เช่น transformer models, generative design และ multi-modal workflows AMD เคลมว่า R9700 มีประสิทธิภาพ inference สูงกว่า RTX 5080 ถึง 496% ในงานที่ต้องใช้หน่วยความจำมาก โดยมีราคาประมาณ $1,250 ซึ่งถูกกว่าซีรีส์ RTX PRO Blackwell ที่คาดว่าจะเปิดตัวเร็ว ๆ นี้ ในช่วงแรก R9700 จะวางจำหน่ายเฉพาะในเวิร์กสเตชันสำเร็จรูปจาก OEM เช่น Boxx และ Velocity Micro ส่วนรุ่นสำหรับ DIY จะตามมาในไตรมาส 3 จากแบรนด์ ASRock, PowerColor และอื่น ๆ GPU รุ่นนี้รองรับแพลตฟอร์ม ROCm 6.3 ของ AMD ซึ่งสามารถใช้งานร่วมกับ PyTorch, TensorFlow และ ONNX Runtime ได้อย่างเต็มรูปแบบ และมีดีไซน์แบบ dual-slot พร้อมพัดลมแบบ blower ที่เหมาะกับการใช้งานในระบบ multi-GPU ✅ AMD เปิดตัว Radeon AI PRO R9700 สำหรับงาน AI โดยเฉพาะ ➡️ ใช้ชิป Navi 48, สถาปัตยกรรม RDNA 4, VRAM 32 GB GDDR6 ✅ รองรับ PCIe 5.0 และมีดีไซน์ dual-slot พร้อมพัดลม blower ➡️ เหมาะกับการใช้งานในระบบ multi-GPU และเวิร์กสเตชัน ✅ ประสิทธิภาพ inference สูงกว่า RTX 5080 ถึง 496% ในบางกรณี ➡️ โดยเฉพาะเมื่อโมเดลไม่สามารถรันได้ใน VRAM 16 GB ของคู่แข่ง ✅ ราคาประมาณ $1,250 ถูกกว่าซีรีส์ RTX PRO Blackwell ครึ่งหนึ่ง ➡️ เหมาะกับองค์กรที่ต้องการลดต้นทุนด้านฮาร์ดแวร์ ✅ วางจำหน่ายในเวิร์กสเตชันจาก OEM ก่อน เช่น Boxx และ Velocity Micro ➡️ รุ่นสำหรับ DIY จะตามมาในไตรมาส 3 จาก ASRock และ PowerColor ✅ รองรับ ROCm 6.3 และเฟรมเวิร์กยอดนิยม เช่น PyTorch, TensorFlow ➡️ ช่วยให้สามารถฝึกและ deploy โมเดล AI ได้ในเครื่อง local ✅ เหมาะกับงาน NLP, text-to-image, generative design และ multi-modal AI ➡️ รองรับการทำ inference ขนาดใหญ่แบบ on-premises https://www.techpowerup.com/339030/amd-radeon-ai-pro-r9700-gpu-arrives-on-july-23rd
    WWW.TECHPOWERUP.COM
    AMD Radeon AI PRO R9700 GPU Arrives on July 23rd
    AMD confirmed today that its RDNA 4‑based Radeon AI PRO R9700 GPU will reach retail on Wednesday, July 23. Built on the Navi 48 die with a full 32 GB of GDDR6 memory and supporting PCIe 5.0, the R9700 is specifically tuned for lower‑precision calculations and demanding AI workloads. According to AMD...
    0 Comments 0 Shares 279 Views 0 Reviews
  • เรื่องเล่าจากโลก DIY: กู้ชีพ Ryzen 7 5800X ที่ใกล้ตายด้วย underclock 300 MHz

    Tech Yes City ได้รับซีพียู Ryzen 7 5800X ที่มีปัญหาความไม่เสถียรจากผู้ขายที่ไม่สามารถแก้ไขได้ โดยซีพียูตัวนี้เคยใช้งานมาเพียง 12 เดือนก่อนจะเริ่มแครชอย่างหนัก เขาตกลงจ่าย $30 หากสามารถทำให้มันกลับมาใช้งานได้

    หลังจากทำความสะอาดและดัดขา CPU ที่งอ เขาเริ่มทดสอบด้วยการปล่อยให้ซีพียูอยู่ใน BIOS 30 นาที ซึ่งผ่านได้โดยไม่แครช แสดงว่าแกนประมวลผลยังไม่เสียหาย

    แต่เมื่อรัน stress test ด้วย OCCT เป็นเวลา 3 ชั่วโมง เครื่องกลับแครชแบบ hard crash โดยไม่มี error หรือ BSOD ซึ่งบ่งชี้ว่าซีพียูมีปัญหาจากการเสื่อมสภาพ

    เขาแก้ปัญหาด้วยการเข้า BIOS และใช้ AMD PBO (Precision Boost Overdrive) ปรับลดความเร็วสัญญาณนาฬิกาลง 300 MHz หลังจากนั้นซีพียูสามารถผ่าน stress test ได้ และยังให้ประสิทธิภาพเกมที่ดี เช่น ใน Call of Duty: Black Ops 6 ได้เฟรมเรตเฉลี่ย 152 FPS ซึ่งสูงกว่า Ryzen 7 5700X ที่ได้ 147 FPS

    ซีพียูไม่ควรเสื่อมสภาพภายใน 12 เดือน
    อาจเกิดจากการใช้งานหนักหรือการตั้งค่า BIOS ที่ไม่เหมาะสม

    การ underclock เป็นเพียงวิธีแก้ชั่วคราว
    ไม่สามารถฟื้นฟูประสิทธิภาพเต็มรูปแบบของซีพียูได้

    การดัดขา CPU มีความเสี่ยงต่อความเสียหายถาวร
    ต้องทำด้วยความระมัดระวังและมีเครื่องมือที่เหมาะสม

    การซื้อซีพียูมือสองที่มีปัญหาอาจไม่คุ้มค่าเสมอไป
    หากไม่สามารถแก้ไขได้ อาจเสียเงินโดยเปล่าประโยชน์

    https://www.tomshardware.com/pc-components/cpus/youtuber-resuscitates-unstable-ryzen-7-5800x-for-usd30-a-300-mhz-underclock-saved-the-day
    🎙️ เรื่องเล่าจากโลก DIY: กู้ชีพ Ryzen 7 5800X ที่ใกล้ตายด้วย underclock 300 MHz Tech Yes City ได้รับซีพียู Ryzen 7 5800X ที่มีปัญหาความไม่เสถียรจากผู้ขายที่ไม่สามารถแก้ไขได้ โดยซีพียูตัวนี้เคยใช้งานมาเพียง 12 เดือนก่อนจะเริ่มแครชอย่างหนัก เขาตกลงจ่าย $30 หากสามารถทำให้มันกลับมาใช้งานได้ หลังจากทำความสะอาดและดัดขา CPU ที่งอ เขาเริ่มทดสอบด้วยการปล่อยให้ซีพียูอยู่ใน BIOS 30 นาที ซึ่งผ่านได้โดยไม่แครช แสดงว่าแกนประมวลผลยังไม่เสียหาย แต่เมื่อรัน stress test ด้วย OCCT เป็นเวลา 3 ชั่วโมง เครื่องกลับแครชแบบ hard crash โดยไม่มี error หรือ BSOD ซึ่งบ่งชี้ว่าซีพียูมีปัญหาจากการเสื่อมสภาพ เขาแก้ปัญหาด้วยการเข้า BIOS และใช้ AMD PBO (Precision Boost Overdrive) ปรับลดความเร็วสัญญาณนาฬิกาลง 300 MHz หลังจากนั้นซีพียูสามารถผ่าน stress test ได้ และยังให้ประสิทธิภาพเกมที่ดี เช่น ใน Call of Duty: Black Ops 6 ได้เฟรมเรตเฉลี่ย 152 FPS ซึ่งสูงกว่า Ryzen 7 5700X ที่ได้ 147 FPS ‼️ ซีพียูไม่ควรเสื่อมสภาพภายใน 12 เดือน ⛔ อาจเกิดจากการใช้งานหนักหรือการตั้งค่า BIOS ที่ไม่เหมาะสม ‼️ การ underclock เป็นเพียงวิธีแก้ชั่วคราว ⛔ ไม่สามารถฟื้นฟูประสิทธิภาพเต็มรูปแบบของซีพียูได้ ‼️ การดัดขา CPU มีความเสี่ยงต่อความเสียหายถาวร ⛔ ต้องทำด้วยความระมัดระวังและมีเครื่องมือที่เหมาะสม ‼️ การซื้อซีพียูมือสองที่มีปัญหาอาจไม่คุ้มค่าเสมอไป ⛔ หากไม่สามารถแก้ไขได้ อาจเสียเงินโดยเปล่าประโยชน์ https://www.tomshardware.com/pc-components/cpus/youtuber-resuscitates-unstable-ryzen-7-5800x-for-usd30-a-300-mhz-underclock-saved-the-day
    0 Comments 0 Shares 313 Views 0 Reviews
  • เรื่องเล่าจากโลกกล้อง: Sony RX1R III กล้องคอมแพกต์ฟูลเฟรม 61MP ที่รอคอยมา 10 ปี

    Sony เปิดตัว RX1R III ซึ่งเป็นกล้องคอมแพกต์ฟูลเฟรมรุ่นใหม่ล่าสุดในซีรีส์ RX1R ที่ห่างหายไปนานถึง 10 ปี โดยรุ่นนี้ใช้เซนเซอร์ Exmor R CMOS ขนาด 35mm ความละเอียด 61MP พร้อมชิปประมวลผลภาพ BIONZ XR รุ่นล่าสุด และเลนส์ Zeiss Sonnar T* 35mm f/2.0 แบบ fixed-lens

    กล้องนี้ไม่มี optical low-pass filter แต่ใช้การเคลือบป้องกันแสงสะท้อนบนเซนเซอร์แทน เพื่อเพิ่มความคมชัดและลด noise โดยยังคงให้ dynamic range กว้างและความไวแสงสูง

    จุดเด่นอีกอย่างคือระบบ AI ที่ช่วยให้กล้องสามารถตรวจจับรูปร่าง การเคลื่อนไหว และตำแหน่งของดวงตาได้แม่นยำมากขึ้น ซึ่งทำให้ระบบโฟกัสแบบ phase-detection 693 จุดทำงานได้อย่างมีประสิทธิภาพ

    ตัวกล้องทำจากแมกนีเซียมอัลลอย ขนาดประมาณ 113.3 x 67.9 x 87.5 มม. น้ำหนักประมาณ 1 ปอนด์ รวมแบตเตอรี่และเมมโมรีการ์ด ใช้แบต NP-FW50 ที่ถ่ายภาพนิ่งได้ประมาณ 300 ภาพต่อการชาร์จหนึ่งครั้ง

    เปิดให้พรีออเดอร์แล้วในราคา $5,098 (ประมาณ 185,000 บาท) พร้อมอุปกรณ์เสริม เช่น thumb grip, body case และ lens hood โดยจะเริ่มจัดส่งวันที่ 31 กรกฎาคม 2025

    Sony เปิดตัว RX1R III กล้องคอมแพกต์ฟูลเฟรมรุ่นใหม่
    เป็นรุ่นต่อจาก RX1R II ที่เปิดตัวเมื่อเกือบ 10 ปีก่อน

    ใช้เซนเซอร์ Exmor R CMOS ขนาด 35mm ความละเอียด 61MP
    พร้อมชิปประมวลผล BIONZ XR รุ่นล่าสุด

    มาพร้อมเลนส์ Zeiss Sonnar T* 35mm f/2.0 แบบ fixed-lens
    ให้ภาพคมชัดและโบเกที่สวยงาม

    ไม่มี low-pass filter แต่ใช้การเคลือบป้องกันแสงสะท้อน
    เพื่อเพิ่มคุณภาพภาพและลด noise

    ระบบ AI ช่วยตรวจจับรูปร่างและตำแหน่งดวงตา
    ทำให้ระบบโฟกัส 693 จุดทำงานได้แม่นยำขึ้น

    ตัวกล้องทำจากแมกนีเซียมอัลลอย น้ำหนักประมาณ 1 ปอนด์
    ขนาด 113.3 x 67.9 x 87.5 มม. รวมแบตและเมมโมรีการ์ด

    ใช้แบต NP-FW50 ถ่ายภาพนิ่งได้ประมาณ 300 ภาพต่อการชาร์จ
    เหมาะกับการพกพา แต่ควรมีแบตสำรองสำหรับงานจริงจัง

    เปิดให้พรีออเดอร์แล้วในราคา $5,098
    พร้อมอุปกรณ์เสริม เช่น thumb grip, body case และ lens hood

    https://www.techspot.com/news/108712-sony-revives-rx1r-series-61-megapixel-compact-camera.html
    🎙️ เรื่องเล่าจากโลกกล้อง: Sony RX1R III กล้องคอมแพกต์ฟูลเฟรม 61MP ที่รอคอยมา 10 ปี Sony เปิดตัว RX1R III ซึ่งเป็นกล้องคอมแพกต์ฟูลเฟรมรุ่นใหม่ล่าสุดในซีรีส์ RX1R ที่ห่างหายไปนานถึง 10 ปี โดยรุ่นนี้ใช้เซนเซอร์ Exmor R CMOS ขนาด 35mm ความละเอียด 61MP พร้อมชิปประมวลผลภาพ BIONZ XR รุ่นล่าสุด และเลนส์ Zeiss Sonnar T* 35mm f/2.0 แบบ fixed-lens กล้องนี้ไม่มี optical low-pass filter แต่ใช้การเคลือบป้องกันแสงสะท้อนบนเซนเซอร์แทน เพื่อเพิ่มความคมชัดและลด noise โดยยังคงให้ dynamic range กว้างและความไวแสงสูง จุดเด่นอีกอย่างคือระบบ AI ที่ช่วยให้กล้องสามารถตรวจจับรูปร่าง การเคลื่อนไหว และตำแหน่งของดวงตาได้แม่นยำมากขึ้น ซึ่งทำให้ระบบโฟกัสแบบ phase-detection 693 จุดทำงานได้อย่างมีประสิทธิภาพ ตัวกล้องทำจากแมกนีเซียมอัลลอย ขนาดประมาณ 113.3 x 67.9 x 87.5 มม. น้ำหนักประมาณ 1 ปอนด์ รวมแบตเตอรี่และเมมโมรีการ์ด ใช้แบต NP-FW50 ที่ถ่ายภาพนิ่งได้ประมาณ 300 ภาพต่อการชาร์จหนึ่งครั้ง เปิดให้พรีออเดอร์แล้วในราคา $5,098 (ประมาณ 185,000 บาท) พร้อมอุปกรณ์เสริม เช่น thumb grip, body case และ lens hood โดยจะเริ่มจัดส่งวันที่ 31 กรกฎาคม 2025 ✅ Sony เปิดตัว RX1R III กล้องคอมแพกต์ฟูลเฟรมรุ่นใหม่ ➡️ เป็นรุ่นต่อจาก RX1R II ที่เปิดตัวเมื่อเกือบ 10 ปีก่อน ✅ ใช้เซนเซอร์ Exmor R CMOS ขนาด 35mm ความละเอียด 61MP ➡️ พร้อมชิปประมวลผล BIONZ XR รุ่นล่าสุด ✅ มาพร้อมเลนส์ Zeiss Sonnar T* 35mm f/2.0 แบบ fixed-lens ➡️ ให้ภาพคมชัดและโบเกที่สวยงาม ✅ ไม่มี low-pass filter แต่ใช้การเคลือบป้องกันแสงสะท้อน ➡️ เพื่อเพิ่มคุณภาพภาพและลด noise ✅ ระบบ AI ช่วยตรวจจับรูปร่างและตำแหน่งดวงตา ➡️ ทำให้ระบบโฟกัส 693 จุดทำงานได้แม่นยำขึ้น ✅ ตัวกล้องทำจากแมกนีเซียมอัลลอย น้ำหนักประมาณ 1 ปอนด์ ➡️ ขนาด 113.3 x 67.9 x 87.5 มม. รวมแบตและเมมโมรีการ์ด ✅ ใช้แบต NP-FW50 ถ่ายภาพนิ่งได้ประมาณ 300 ภาพต่อการชาร์จ ➡️ เหมาะกับการพกพา แต่ควรมีแบตสำรองสำหรับงานจริงจัง ✅ เปิดให้พรีออเดอร์แล้วในราคา $5,098 ➡️ พร้อมอุปกรณ์เสริม เช่น thumb grip, body case และ lens hood https://www.techspot.com/news/108712-sony-revives-rx1r-series-61-megapixel-compact-camera.html
    WWW.TECHSPOT.COM
    Sony revives RX1R series with 61-megapixel compact camera, and it only took 10 years
    Sony says the combination of sensor and image processing engine delivers high resolution and sensitivity, with low noise and a wide dynamic range. An anti-reflection coating on...
    0 Comments 0 Shares 224 Views 0 Reviews
  • เรื่องเล่าจากโลกเบราว์เซอร์: Firefox ได้ WebGPU แล้ว—ดีกว่าไม่มาเลย

    ย้อนกลับไปปี 2023 Chrome เปิดตัว WebGPU อย่างเป็นทางการในเวอร์ชัน 113 ซึ่งเป็น API ที่ช่วยให้นักพัฒนาสามารถเข้าถึง GPU โดยตรงผ่านเบราว์เซอร์ เพื่อรันกราฟิกหนัก ๆ เช่น เกม 3D หรือแอปพลิเคชันจำลองภาพแบบซับซ้อน

    แต่ Firefox กลับไม่มีฟีเจอร์นี้ในช่องทางเสถียรเลย จนทำให้ผู้ใช้หลายคนลังเลที่จะเปลี่ยนจาก Chrome มาใช้ Firefox แม้จะชื่นชอบเรื่องความเป็นส่วนตัวและโอเพ่นซอร์ส

    ล่าสุด Mozilla ประกาศว่า Firefox 141 ซึ่งจะเปิดตัววันที่ 22 กรกฎาคม 2025 จะรองรับ WebGPU บน Windows แล้ว โดยใช้ WGPU crate ที่เขียนด้วยภาษา Rust เพื่อแปลงคำสั่งเว็บให้ทำงานกับ Direct3D 12, Metal หรือ Vulkan ตามระบบปฏิบัติการ

    Firefox จะรองรับ WebGPU ในเวอร์ชัน 141 วันที่ 22 กรกฎาคม 2025
    เริ่มต้นบน Windows ก่อน ขยายไปยัง Mac, Linux และ Android ภายหลัง

    ใช้ WGPU crate ที่เขียนด้วย Rust เป็นตัวกลาง
    แปลงคำสั่งเว็บให้ทำงานกับ Direct3D 12, Metal หรือ Vulkan

    WebGPU ช่วยให้เบราว์เซอร์เข้าถึง GPU โดยตรง
    เหมาะกับเกม 3D, แอปกราฟิกหนัก, และการประมวลผลแบบขนาน

    Mozilla ยอมรับว่ายังมีบั๊กด้าน inter-process communication
    จะถูกแก้ใน Firefox 142 พร้อมปรับปรุง latency และการ track งาน GPU

    ฟีเจอร์ importExternalTexture ยังไม่พร้อมใช้งาน
    ใช้สำหรับการจัดการเฟรมวิดีโอแบบ decoded โดยตรง

    https://www.neowin.net/news/better-late-than-never-firefox-is-finally-getting-a-feature-chrome-users-have-had-for-years/
    🎙️ เรื่องเล่าจากโลกเบราว์เซอร์: Firefox ได้ WebGPU แล้ว—ดีกว่าไม่มาเลย ย้อนกลับไปปี 2023 Chrome เปิดตัว WebGPU อย่างเป็นทางการในเวอร์ชัน 113 ซึ่งเป็น API ที่ช่วยให้นักพัฒนาสามารถเข้าถึง GPU โดยตรงผ่านเบราว์เซอร์ เพื่อรันกราฟิกหนัก ๆ เช่น เกม 3D หรือแอปพลิเคชันจำลองภาพแบบซับซ้อน แต่ Firefox กลับไม่มีฟีเจอร์นี้ในช่องทางเสถียรเลย จนทำให้ผู้ใช้หลายคนลังเลที่จะเปลี่ยนจาก Chrome มาใช้ Firefox แม้จะชื่นชอบเรื่องความเป็นส่วนตัวและโอเพ่นซอร์ส ล่าสุด Mozilla ประกาศว่า Firefox 141 ซึ่งจะเปิดตัววันที่ 22 กรกฎาคม 2025 จะรองรับ WebGPU บน Windows แล้ว โดยใช้ WGPU crate ที่เขียนด้วยภาษา Rust เพื่อแปลงคำสั่งเว็บให้ทำงานกับ Direct3D 12, Metal หรือ Vulkan ตามระบบปฏิบัติการ ✅ Firefox จะรองรับ WebGPU ในเวอร์ชัน 141 วันที่ 22 กรกฎาคม 2025 ➡️ เริ่มต้นบน Windows ก่อน ขยายไปยัง Mac, Linux และ Android ภายหลัง ✅ ใช้ WGPU crate ที่เขียนด้วย Rust เป็นตัวกลาง ➡️ แปลงคำสั่งเว็บให้ทำงานกับ Direct3D 12, Metal หรือ Vulkan ✅ WebGPU ช่วยให้เบราว์เซอร์เข้าถึง GPU โดยตรง ➡️ เหมาะกับเกม 3D, แอปกราฟิกหนัก, และการประมวลผลแบบขนาน ✅ Mozilla ยอมรับว่ายังมีบั๊กด้าน inter-process communication ➡️ จะถูกแก้ใน Firefox 142 พร้อมปรับปรุง latency และการ track งาน GPU ✅ ฟีเจอร์ importExternalTexture ยังไม่พร้อมใช้งาน ➡️ ใช้สำหรับการจัดการเฟรมวิดีโอแบบ decoded โดยตรง https://www.neowin.net/news/better-late-than-never-firefox-is-finally-getting-a-feature-chrome-users-have-had-for-years/
    WWW.NEOWIN.NET
    Better late than never: Firefox is finally getting a feature Chrome users have had for years
    Firefox has long lagged behind Chrome in adopting new web standards, but loyal users now have something to celebrate as the browser is finally getting a feature Chrome has offered for years.
    0 Comments 0 Shares 274 Views 0 Reviews
  • ใครที่เคยเล่น Doom บน SNES มาก่อน จะรู้ดีว่ามันเหมือนพยายามยัดเกม 3D สุดโหดใส่เครื่องอายุ 10 ปีที่แทบจะไม่ไหว → เฟรมตก, ภาพเบลอ, และตัดเนื้อหาจนแทบเหลือแค่โครง

    แต่ปี 2025 นี้ — Limited Run Games ทำเกินคำว่า “รีเมก” → พวกเขาร่วมมือกับ Randal Linden (ผู้นำทีมพอร์ตเวอร์ชัน SNES เดิม) → สร้างตลับใหม่ที่มี co-processor Raspberry Pi RP2350B ความเร็ว 150 MHz ช่วยประมวลผล → เหมือนเพิ่มสมองให้ SNES — ฟีเจอร์อย่าง circle strafing, enemy respawning, 14 ด่านใหม่ และความลื่นไหลเกินคาดจึงเกิดขึ้นได้!

    แถมมี คอนโทรลเลอร์แบบมีระบบสั่น ให้เลือกซื้อเพิ่มด้วย → ใช้มอเตอร์สั่น 2 ตัวแบบตลับสาย → สะใจเหมือนมือระเบิดศพในยุค 90 จริง ๆ

    Limited Run Games เปิดพรีออร์เดอร์ Doom SNES รุ่นใหม่ วันที่ 11 ก.ค. 2025  
    • จำหน่ายเป็นตลับจริงบน Super Nintendo  
    • เลือกได้ทั้งรุ่น Standard และ Collector’s Edition

    ตัวเกมมีการปรับปรุงหลายจุด:  
    • เพิ่ม 14 ด่านใหม่  
    • รองรับ circle strafing และ enemy respawn  
    • เกมลื่นไหลกว่ารุ่นเดิมชัดเจน  
    • รองรับฟีเจอร์ rumble ผ่านคอนโทรลเลอร์สายรุ่นใหม่

    ใช้ co-processor Raspberry Pi RP2350B ความเร็ว 150 MHz  
    • ทำหน้าที่เหมือน SuperFX chip เพิ่มพลังให้ SNES  
    • ช่วยประมวลผลภาพและการเคลื่อนไหว

    ราคา:  
    • รุ่น Standard: $99.99 → มาพร้อมตลับสี gun-metal, กล่อง retro, คู่มือ, และโปสเตอร์  
    • รุ่น Collector’s Edition: $174.99 → ตลับลายเลือด+โลหะ, กล่อง premium, คู่มือ, โปสเตอร์ (มีเพียง 666 ชุด)  
    • Rumble Controller แยกขาย: $34.99

    พรีออร์เดอร์ปิดวันที่ 10 ส.ค. 2025

    https://www.techspot.com/news/108614-doom-returns-snes-physical-form-thanks-limited-run.html
    ใครที่เคยเล่น Doom บน SNES มาก่อน จะรู้ดีว่ามันเหมือนพยายามยัดเกม 3D สุดโหดใส่เครื่องอายุ 10 ปีที่แทบจะไม่ไหว → เฟรมตก, ภาพเบลอ, และตัดเนื้อหาจนแทบเหลือแค่โครง แต่ปี 2025 นี้ — Limited Run Games ทำเกินคำว่า “รีเมก” → พวกเขาร่วมมือกับ Randal Linden (ผู้นำทีมพอร์ตเวอร์ชัน SNES เดิม) → สร้างตลับใหม่ที่มี co-processor Raspberry Pi RP2350B ความเร็ว 150 MHz ช่วยประมวลผล → เหมือนเพิ่มสมองให้ SNES — ฟีเจอร์อย่าง circle strafing, enemy respawning, 14 ด่านใหม่ และความลื่นไหลเกินคาดจึงเกิดขึ้นได้! แถมมี คอนโทรลเลอร์แบบมีระบบสั่น ให้เลือกซื้อเพิ่มด้วย → ใช้มอเตอร์สั่น 2 ตัวแบบตลับสาย → สะใจเหมือนมือระเบิดศพในยุค 90 จริง ๆ ✅ Limited Run Games เปิดพรีออร์เดอร์ Doom SNES รุ่นใหม่ วันที่ 11 ก.ค. 2025   • จำหน่ายเป็นตลับจริงบน Super Nintendo   • เลือกได้ทั้งรุ่น Standard และ Collector’s Edition ✅ ตัวเกมมีการปรับปรุงหลายจุด:   • เพิ่ม 14 ด่านใหม่   • รองรับ circle strafing และ enemy respawn   • เกมลื่นไหลกว่ารุ่นเดิมชัดเจน   • รองรับฟีเจอร์ rumble ผ่านคอนโทรลเลอร์สายรุ่นใหม่ ✅ ใช้ co-processor Raspberry Pi RP2350B ความเร็ว 150 MHz   • ทำหน้าที่เหมือน SuperFX chip เพิ่มพลังให้ SNES   • ช่วยประมวลผลภาพและการเคลื่อนไหว ✅ ราคา:   • รุ่น Standard: $99.99 → มาพร้อมตลับสี gun-metal, กล่อง retro, คู่มือ, และโปสเตอร์   • รุ่น Collector’s Edition: $174.99 → ตลับลายเลือด+โลหะ, กล่อง premium, คู่มือ, โปสเตอร์ (มีเพียง 666 ชุด)   • Rumble Controller แยกขาย: $34.99 ✅ พรีออร์เดอร์ปิดวันที่ 10 ส.ค. 2025 https://www.techspot.com/news/108614-doom-returns-snes-physical-form-thanks-limited-run.html
    WWW.TECHSPOT.COM
    Doom returns to the SNES in physical form thanks to Limited Run Games
    Doom SNES 2025 was spearheaded by Randal Linden, who worked on the original port of the game that came out in 1995. As Time Extension explains, the...
    0 Comments 0 Shares 211 Views 0 Reviews
  • หลายคนคงคุ้นกับคำว่า "FineWine" ที่ใช้เรียกฟีโนมีนาของ Radeon ที่ “ยิ่งนาน ยิ่งแรง” เพราะ AMD มักปล่อยอัปเดตไดรเวอร์ที่รีดสมรรถนะจากการ์ดเดิมออกมาได้เรื่อย ๆ

    รอบนี้ RX 9070 XT ที่เคยรีวิวไว้กับไดรเวอร์เก่ารุ่น 25.3.1 RC ถูกนำกลับมาทดสอบใหม่ ด้วยไดรเวอร์ล่าสุด Adrenalin 25.6.3 — ผลคือเฟรมเรตในเกมต่าง ๆ ขยับขึ้นแรงสุดถึง 27%!

    Spider-Man Remastered แรงขึ้น 27%
    Counter-Strike 2 แรงขึ้น 23%
    Hogwarts Legacy, Call of Duty: Black Ops 6, และ Delta Force ขยับขึ้นราว 10%+
    Cyberpunk 2077: Phantom Liberty ขยับขึ้น 7%
    Starfield แม้จะน้อยที่สุด ก็ยังได้ 5% เพิ่มเติม

    ทั้งหมดนี้เกิดจากการปรับปรุงการใช้ทรัพยากรของ GPU และลดภาระที่ CPU ต้องรับ — แม้จะไม่มีการอัปเกรดฮาร์ดแวร์เลยก็ตาม!

    https://www.neowin.net/news/amd-finewine-magic-still-shines-bright-in-2025-as-test-shows-massive-performance-gains/
    หลายคนคงคุ้นกับคำว่า "FineWine" ที่ใช้เรียกฟีโนมีนาของ Radeon ที่ “ยิ่งนาน ยิ่งแรง” เพราะ AMD มักปล่อยอัปเดตไดรเวอร์ที่รีดสมรรถนะจากการ์ดเดิมออกมาได้เรื่อย ๆ รอบนี้ RX 9070 XT ที่เคยรีวิวไว้กับไดรเวอร์เก่ารุ่น 25.3.1 RC ถูกนำกลับมาทดสอบใหม่ ด้วยไดรเวอร์ล่าสุด Adrenalin 25.6.3 — ผลคือเฟรมเรตในเกมต่าง ๆ ขยับขึ้นแรงสุดถึง 27%! 🕷️ Spider-Man Remastered แรงขึ้น 27% 🔫 Counter-Strike 2 แรงขึ้น 23% 🪄 Hogwarts Legacy, Call of Duty: Black Ops 6, และ Delta Force ขยับขึ้นราว 10%+ 🌆 Cyberpunk 2077: Phantom Liberty ขยับขึ้น 7% 🌌 Starfield แม้จะน้อยที่สุด ก็ยังได้ 5% เพิ่มเติม ทั้งหมดนี้เกิดจากการปรับปรุงการใช้ทรัพยากรของ GPU และลดภาระที่ CPU ต้องรับ — แม้จะไม่มีการอัปเกรดฮาร์ดแวร์เลยก็ตาม! https://www.neowin.net/news/amd-finewine-magic-still-shines-bright-in-2025-as-test-shows-massive-performance-gains/
    WWW.NEOWIN.NET
    AMD FineWine magic still shines bright in 2025 as test shows massive performance gains
    AMD's Fine Wine magic tech is still alive and kicking in 2025, as test data shows massive performance boosts in several scenarios.
    0 Comments 0 Shares 233 Views 0 Reviews
  • แต่เดิม Windows คือราชาเรื่องเล่นเกมบนพีซี ส่วน SteamOS ที่ใช้ Linux เป็นฐานมักถูกมองว่า “เข้ากันกับเกมน้อย + ช้ากว่า” โดยเฉพาะในยุค Steam Machine ที่ล้มไม่เป็นท่า

    แต่เดี๋ยวนี้มันเปลี่ยนไปมากแล้วครับ — Ars Technica ทดลองเล่นเกม 5 เกมบน Legion Go S รุ่นที่มี SteamOS และ Windows ปรากฏว่า 4 ใน 5 เกมวิ่งลื่นกว่าอย่างชัดเจนบน SteamOS

    ยิ่งในเกม Returnal ที่ความละเอียด 1920×1200 บนกราฟิกระดับ High — SteamOS วิ่งได้เฉลี่ย 33 FPS แต่ Windows ทำได้แค่ 18 FPS เท่านั้นเอง ทั้งที่ใช้ไดรเวอร์ของ Lenovo เหมือนกัน

    ความลื่นนี้ไม่ได้เกิดจากเวทมนตร์ แต่เกิดจาก:
    - Proton: เทคโนโลยีที่ทำให้เกม Windows เล่นบน Linux ได้คล่องขึ้นเรื่อย ๆ
    - SteamOS ใช้ทรัพยากรคอมฯ น้อย: เพราะไม่มีระบบพื้นหลังยุ่งยากแบบ Windows

    แน่นอนว่า Windows ยังมีข้อดีคือรองรับเกมได้กว้างกว่ามาก แต่ถ้าคุณมีเครื่อง handheld อย่าง Legion Go S รุ่นที่ “เลือกลง SteamOS ได้เลย” — ก็คงน่าสนใจไม่น้อยครับ

    Ars Technica ทดสอบเกม 5 เกมบน Lenovo Legion Go S ทั้งบน Windows 11 และ SteamOS  
    • 4 ใน 5 เกม SteamOS ทำเฟรมเรตได้สูงกว่า  
    • เกม Returnal ชัดเจนสุด: SteamOS ได้ 33 FPS, ส่วน Windows เหลือแค่ 18 FPS

    SteamOS ได้เปรียบเพราะใช้ Proton แปลโค้ดเกม Windows เป็น Linux อย่างมีประสิทธิภาพ  
    • Proton พัฒนามาอย่างต่อเนื่องจนรันเกม Windows ได้ดีขึ้นมาก

    SteamOS ไม่มีบรรดา background process ที่ Windows มักมี ทำให้ลื่นกว่าในเครื่องพกพา

    แม้ใช้ Windows ก็ยังพอแก้ได้โดย “ลงไดรเวอร์ของ Asus แทน Lenovo”  
    • ช่วยให้บางเกมเช่น Homeworld 3 ดีขึ้นจนไล่ทัน SteamOS  
    • แต่ SteamOS ยังคงชนะในภาพรวม

    Lenovo Legion Go S เป็นเครื่องพกพาที่ขายทั้งรุ่น Windows และ SteamOS  
    • รุ่น SteamOS ราคาถูกกว่า และพร้อมเล่นเกมได้เลย

    https://www.techspot.com/news/108468-new-benchmarks-show-steamos-outperforming-windows-11-lenovo.html
    แต่เดิม Windows คือราชาเรื่องเล่นเกมบนพีซี ส่วน SteamOS ที่ใช้ Linux เป็นฐานมักถูกมองว่า “เข้ากันกับเกมน้อย + ช้ากว่า” โดยเฉพาะในยุค Steam Machine ที่ล้มไม่เป็นท่า แต่เดี๋ยวนี้มันเปลี่ยนไปมากแล้วครับ — Ars Technica ทดลองเล่นเกม 5 เกมบน Legion Go S รุ่นที่มี SteamOS และ Windows ปรากฏว่า 4 ใน 5 เกมวิ่งลื่นกว่าอย่างชัดเจนบน SteamOS ยิ่งในเกม Returnal ที่ความละเอียด 1920×1200 บนกราฟิกระดับ High — SteamOS วิ่งได้เฉลี่ย 33 FPS แต่ Windows ทำได้แค่ 18 FPS เท่านั้นเอง ทั้งที่ใช้ไดรเวอร์ของ Lenovo เหมือนกัน ความลื่นนี้ไม่ได้เกิดจากเวทมนตร์ แต่เกิดจาก: - Proton: เทคโนโลยีที่ทำให้เกม Windows เล่นบน Linux ได้คล่องขึ้นเรื่อย ๆ - SteamOS ใช้ทรัพยากรคอมฯ น้อย: เพราะไม่มีระบบพื้นหลังยุ่งยากแบบ Windows แน่นอนว่า Windows ยังมีข้อดีคือรองรับเกมได้กว้างกว่ามาก แต่ถ้าคุณมีเครื่อง handheld อย่าง Legion Go S รุ่นที่ “เลือกลง SteamOS ได้เลย” — ก็คงน่าสนใจไม่น้อยครับ ✅ Ars Technica ทดสอบเกม 5 เกมบน Lenovo Legion Go S ทั้งบน Windows 11 และ SteamOS   • 4 ใน 5 เกม SteamOS ทำเฟรมเรตได้สูงกว่า   • เกม Returnal ชัดเจนสุด: SteamOS ได้ 33 FPS, ส่วน Windows เหลือแค่ 18 FPS ✅ SteamOS ได้เปรียบเพราะใช้ Proton แปลโค้ดเกม Windows เป็น Linux อย่างมีประสิทธิภาพ   • Proton พัฒนามาอย่างต่อเนื่องจนรันเกม Windows ได้ดีขึ้นมาก ✅ SteamOS ไม่มีบรรดา background process ที่ Windows มักมี ทำให้ลื่นกว่าในเครื่องพกพา ✅ แม้ใช้ Windows ก็ยังพอแก้ได้โดย “ลงไดรเวอร์ของ Asus แทน Lenovo”   • ช่วยให้บางเกมเช่น Homeworld 3 ดีขึ้นจนไล่ทัน SteamOS   • แต่ SteamOS ยังคงชนะในภาพรวม ✅ Lenovo Legion Go S เป็นเครื่องพกพาที่ขายทั้งรุ่น Windows และ SteamOS   • รุ่น SteamOS ราคาถูกกว่า และพร้อมเล่นเกมได้เลย https://www.techspot.com/news/108468-new-benchmarks-show-steamos-outperforming-windows-11-lenovo.html
    WWW.TECHSPOT.COM
    New benchmarks show SteamOS outperforming Windows 11 on Lenovo's handheld PC
    A recent Ars Technica report tested five demanding PC games on Lenovo's Legion Go S handheld, running both Windows 11 and the latest SteamOS. In most cases,...
    0 Comments 0 Shares 187 Views 0 Reviews
  • หลายคนอาจเคยได้ยินชื่อ DLSS ว่าคือระบบ “ขยายภาพความละเอียดต่ำให้ดูเหมือน 4K” ได้แบบเนียน ๆ ด้วย AI — ที่ผ่านมา DLSS 2 กับ 3 ใช้ neural network แบบเก่า (convolutional) ซึ่งแม้จะดีมาก แต่ก็มีข้อเสีย เช่น ภาพเบลอ, ghosting, หรือเส้นขอบภาพสั่น ๆ เวลาเคลื่อนไหว

    DLSS 4 แก้ปัญหานั้นด้วยการใช้ “Transformer” แบบเดียวกับที่ใช้ในโมเดลภาษาอย่าง GPT — ทำให้ AI เข้าใจภาพทั้งเฟรมแบบลึกขึ้น ผลลัพธ์คือ ภาพที่ขึ้นคมชัดกว่าเดิม แม้จะอัปจากเฟรมต่ำ ๆ เช่น 540p

    สิ่งสำคัญคือ DLSS 4 นี้ ไม่จำกัดเฉพาะ RTX 50 แต่ รองรับตั้งแต่ RTX 20 ขึ้นไปด้วย! แค่ไม่สามารถใช้ฟีเจอร์ frame generation ที่ผูกกับฮาร์ดแวร์ใหม่ได้เท่านั้น

    DLSS 4 เวอร์ชันใหม่ที่ใช้ Transformer model ออกจากสถานะเบต้าแล้ว  
    • อยู่ในชุด SDK หลักของ Nvidia DLSS Super Resolution + Ray Reconstruction  
    • พร้อมให้ผู้พัฒนาเกมใช้ได้อย่างเป็นทางการ

    Transformer model เข้ามาแทน CNN ที่ใช้มาตั้งแต่ DLSS 2 (ปี 2020)  
    • ลดปัญหาภาพเบลอ, ghosting, เส้นขอบสั่น  
    • ทำให้การอัปภาพจากครึ่งความละเอียด (performance mode) ดูดีขึ้นชัดเจน

    ไม่ต้องมี RTX 50 ก็ใช้ได้ — รองรับตั้งแต่ RTX 20 Series ขึ้นไป  
    • ฟีเจอร์ frame generation (multi-frame) ยังคง exclusive สำหรับ RTX 50 เท่านั้น

    สามารถบังคับใช้ DLSS 4 Transformer กับเกมเก่าได้ผ่าน Nvidia App  
    • ไปที่ Graphics > DLSS Override > เลือก Latest  
    • หรือใช้แอป 3rd party เช่น DLSS Swapper, DLSS Updater

    Diablo IV เตรียมเป็นเกมใหญ่เกมถัดไปที่อัปเดต DLSS 4 อย่างเป็นทางการในซีซัน 9 (1 ก.ค.)  
    • เกมอื่นที่ใช้เบต้าอยู่แล้ว เช่น Doom: The Dark Ages, Dune: Awakening, Stellar Blade

    รีวิวชี้ว่า DLSS 4 Transformer คุณภาพดีกว่า FSR 4 (ของ AMD)  
    • โดยเฉพาะในโหมด 4K upscaling

    https://www.techspot.com/news/108452-nvidia-dlss-4-transformer-model-exits-beta-set.html
    หลายคนอาจเคยได้ยินชื่อ DLSS ว่าคือระบบ “ขยายภาพความละเอียดต่ำให้ดูเหมือน 4K” ได้แบบเนียน ๆ ด้วย AI — ที่ผ่านมา DLSS 2 กับ 3 ใช้ neural network แบบเก่า (convolutional) ซึ่งแม้จะดีมาก แต่ก็มีข้อเสีย เช่น ภาพเบลอ, ghosting, หรือเส้นขอบภาพสั่น ๆ เวลาเคลื่อนไหว DLSS 4 แก้ปัญหานั้นด้วยการใช้ “Transformer” แบบเดียวกับที่ใช้ในโมเดลภาษาอย่าง GPT — ทำให้ AI เข้าใจภาพทั้งเฟรมแบบลึกขึ้น ผลลัพธ์คือ ภาพที่ขึ้นคมชัดกว่าเดิม แม้จะอัปจากเฟรมต่ำ ๆ เช่น 540p สิ่งสำคัญคือ DLSS 4 นี้ ไม่จำกัดเฉพาะ RTX 50 แต่ รองรับตั้งแต่ RTX 20 ขึ้นไปด้วย! แค่ไม่สามารถใช้ฟีเจอร์ frame generation ที่ผูกกับฮาร์ดแวร์ใหม่ได้เท่านั้น ✅ DLSS 4 เวอร์ชันใหม่ที่ใช้ Transformer model ออกจากสถานะเบต้าแล้ว   • อยู่ในชุด SDK หลักของ Nvidia DLSS Super Resolution + Ray Reconstruction   • พร้อมให้ผู้พัฒนาเกมใช้ได้อย่างเป็นทางการ ✅ Transformer model เข้ามาแทน CNN ที่ใช้มาตั้งแต่ DLSS 2 (ปี 2020)   • ลดปัญหาภาพเบลอ, ghosting, เส้นขอบสั่น   • ทำให้การอัปภาพจากครึ่งความละเอียด (performance mode) ดูดีขึ้นชัดเจน ✅ ไม่ต้องมี RTX 50 ก็ใช้ได้ — รองรับตั้งแต่ RTX 20 Series ขึ้นไป   • ฟีเจอร์ frame generation (multi-frame) ยังคง exclusive สำหรับ RTX 50 เท่านั้น ✅ สามารถบังคับใช้ DLSS 4 Transformer กับเกมเก่าได้ผ่าน Nvidia App   • ไปที่ Graphics > DLSS Override > เลือก Latest   • หรือใช้แอป 3rd party เช่น DLSS Swapper, DLSS Updater ✅ Diablo IV เตรียมเป็นเกมใหญ่เกมถัดไปที่อัปเดต DLSS 4 อย่างเป็นทางการในซีซัน 9 (1 ก.ค.)   • เกมอื่นที่ใช้เบต้าอยู่แล้ว เช่น Doom: The Dark Ages, Dune: Awakening, Stellar Blade ✅ รีวิวชี้ว่า DLSS 4 Transformer คุณภาพดีกว่า FSR 4 (ของ AMD)   • โดยเฉพาะในโหมด 4K upscaling https://www.techspot.com/news/108452-nvidia-dlss-4-transformer-model-exits-beta-set.html
    WWW.TECHSPOT.COM
    Nvidia DLSS 4 transformer model exits beta, set to bring improved graphics to more games
    The latest version of Nvidia's DLSS Super Resolution and Ray Reconstruction SDK, released on Wednesday, brings the transformer model out of beta. Promoting the upscaling technology into...
    0 Comments 0 Shares 306 Views 0 Reviews
  • ถ้าคุณเป็นสาย dev ที่ทำงานอยู่ในเทอร์มินัลเป็นหลัก และเบื่อการสลับหน้าจอไปมาเพื่อถาม AI หรือขอคำแนะนำ — ข่าวนี้คือของขวัญครับ

    Gemini CLI คือเครื่องมือใหม่จาก Google ที่เปิดให้ใช้งานฟรี โดยใช้บัญชี Google ส่วนตัวก็สามารถเข้าถึง Gemini 2.5 Pro ได้ทันที พร้อม สิทธิ์ใช้งาน 60 ครั้งต่อนาที และสูงสุด 1,000 ครั้งต่อวัน แบบไม่เสียเงินเลย

    สิ่งที่เจ๋งคือ เราสามารถเรียก Gemini มาช่วยสรุปโค้ด, สร้างสคริปต์, วิเคราะห์ output, หรือแม้แต่ค้นข้อมูลจาก Google Search แบบเรียลไทม์ — ทั้งหมดทำผ่านเทอร์มินัลได้ทันที!

    ติดตั้งง่ายแค่มี Node.js 18 ขึ้นไป แล้วใช้ npx หรือ npm install -g ก็พร้อมใช้แล้วครับ

    Google เปิดตัว Gemini CLI สำหรับใช้งาน AI ผ่านเทอร์มินัลแบบตรง ๆ  
    • รองรับการทำงานร่วมกับ Gemini 2.5 Pro  
    • ให้ใช้ฟรี 1,000 คำสั่ง/วัน โดยใช้บัญชี Google ส่วนตัว

    นักพัฒนาองค์กรสามารถใช้ API Key จาก Google AI Studio หรือ Vertex AI ได้ด้วย  
    • รองรับ billing แบบจ่ายตามการใช้งาน หรือใช้ผ่าน Gemini Code Assist (Standard / Enterprise)

    ความสามารถเด่นของ Gemini CLI:  
    • ค้นเว็บเรียลไทม์ผ่าน Google Search เพื่อเสริมคำตอบ  
    • รองรับการทำ automation แบบ non-interactive ผ่าน script  
    • ต่อขยายได้ผ่าน Model Context Protocol (MCP) และ Extension

    ติดตั้งง่ายด้วย Node.js:  
    • ใช้ npx https://github.com/google-gemini/gemini-cli หรือ npm install -g @google/gemini-cli

    ตัวโค้ดเป็นโอเพ่นซอร์ส บน GitHub ภายใต้ Apache 2.0 License  
    • ใช้เฟรมเวิร์ก Yargs ในการพัฒนา  
    • ตรวจสอบพฤติกรรมได้ และร่วมพัฒนาต่อยอดได้ทันที

    ประสบการณ์เชื่อมโยงกับ Gemini Code Assist IDE plugin  
    • ทำให้ dev ใช้ Gemini ได้ทั้งบน VS Code และ CLI แบบ seamless

    https://www.neowin.net/news/google-releases-gemini-cli-bringing-gemini-to-the-terminal/
    ถ้าคุณเป็นสาย dev ที่ทำงานอยู่ในเทอร์มินัลเป็นหลัก และเบื่อการสลับหน้าจอไปมาเพื่อถาม AI หรือขอคำแนะนำ — ข่าวนี้คือของขวัญครับ Gemini CLI คือเครื่องมือใหม่จาก Google ที่เปิดให้ใช้งานฟรี โดยใช้บัญชี Google ส่วนตัวก็สามารถเข้าถึง Gemini 2.5 Pro ได้ทันที พร้อม สิทธิ์ใช้งาน 60 ครั้งต่อนาที และสูงสุด 1,000 ครั้งต่อวัน แบบไม่เสียเงินเลย สิ่งที่เจ๋งคือ เราสามารถเรียก Gemini มาช่วยสรุปโค้ด, สร้างสคริปต์, วิเคราะห์ output, หรือแม้แต่ค้นข้อมูลจาก Google Search แบบเรียลไทม์ — ทั้งหมดทำผ่านเทอร์มินัลได้ทันที! ติดตั้งง่ายแค่มี Node.js 18 ขึ้นไป แล้วใช้ npx หรือ npm install -g ก็พร้อมใช้แล้วครับ ✅ Google เปิดตัว Gemini CLI สำหรับใช้งาน AI ผ่านเทอร์มินัลแบบตรง ๆ   • รองรับการทำงานร่วมกับ Gemini 2.5 Pro   • ให้ใช้ฟรี 1,000 คำสั่ง/วัน โดยใช้บัญชี Google ส่วนตัว ✅ นักพัฒนาองค์กรสามารถใช้ API Key จาก Google AI Studio หรือ Vertex AI ได้ด้วย   • รองรับ billing แบบจ่ายตามการใช้งาน หรือใช้ผ่าน Gemini Code Assist (Standard / Enterprise) ✅ ความสามารถเด่นของ Gemini CLI:   • ค้นเว็บเรียลไทม์ผ่าน Google Search เพื่อเสริมคำตอบ   • รองรับการทำ automation แบบ non-interactive ผ่าน script   • ต่อขยายได้ผ่าน Model Context Protocol (MCP) และ Extension ✅ ติดตั้งง่ายด้วย Node.js:   • ใช้ npx https://github.com/google-gemini/gemini-cli หรือ npm install -g @google/gemini-cli ✅ ตัวโค้ดเป็นโอเพ่นซอร์ส บน GitHub ภายใต้ Apache 2.0 License   • ใช้เฟรมเวิร์ก Yargs ในการพัฒนา   • ตรวจสอบพฤติกรรมได้ และร่วมพัฒนาต่อยอดได้ทันที ✅ ประสบการณ์เชื่อมโยงกับ Gemini Code Assist IDE plugin   • ทำให้ dev ใช้ Gemini ได้ทั้งบน VS Code และ CLI แบบ seamless https://www.neowin.net/news/google-releases-gemini-cli-bringing-gemini-to-the-terminal/
    WWW.NEOWIN.NET
    Google releases Gemini CLI, bringing Gemini to the terminal
    Google has finally launched Gemini CLI, its answer to tools like Codex CLI and Claude Code. It brings Gemini to the terminal and offers features like task automation for developers.
    0 Comments 0 Shares 246 Views 0 Reviews
  • ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง

    ระบบนี้ประกอบด้วย:
    - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง
    - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที

    ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า"

    เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง)

    https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง ระบบนี้ประกอบด้วย: - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า" เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง) https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    WWW.TECHSPOT.COM
    X Display unveils ultra-fast, cable-free display that turns data into light
    X Display is focused on developing and licensing new intellectual property related to MicroLED and other display technologies. The North Carolina-based developer recently unveiled a novel application...
    0 Comments 0 Shares 234 Views 0 Reviews
  • คนส่วนใหญ่มักจะคิดว่า GPU = เล่นเกม แต่ ASRock กำลังจะเปลี่ยนภาพนั้น ด้วยการเปิดตัว Radeon RX AI Pro R9700 Creator ที่ไม่ได้เกิดมาเพื่อแค่เฟรมเรตสูง...แต่เน้น “ประสิทธิภาพเสถียรและหน่วยความจำเยอะ” สำหรับทำงาน AI inference, video rendering, CAD, หรือ data science โดยเฉพาะ

    ตัวการ์ดใช้ดีไซน์ blower แบบ 2 สล็อตระบายความร้อนได้ดีในเคสแคบ ๆ เหมาะมากสำหรับติดตั้งหลายใบในเครื่องเดียว โดยใช้ แรม GDDR6 ขนาด 32GB ความเร็ว 20 Gbps และ อินเทอร์เฟซความกว้าง 256 บิต ทำให้ได้แบนด์วิธสูงถึง 644.6 GB/s ซึ่งเพียงพอสำหรับโหลดโมเดลขนาดใหญ่

    ด้านกำลังไฟ การ์ดใช้หัวต่อ 12V-2x6 (แบบเดียวกับ RTX 40 ซีรีส์) ซึ่งรับไฟได้ถึง 300W และแนะนำให้ใช้ PSU อย่างน้อย 800W — ฟังดูแรง แต่ถือเป็นมาตรฐานของการ์ดระดับมืออาชีพในยุคนี้

    พอร์ตจอดูอาจจะเก่า (DisplayPort 1.2a) แต่ก็ยังแสดงผลระดับ 8K ได้ถึง 4 จอพร้อมกัน เรียกว่าเน้นงานมากกว่าความใหม่หรูของเกม

    ASRock เปิดตัว Radeon RX AI Pro R9700 Creator สำหรับงาน AI / เวิร์กสเตชัน  
    • ใช้ชิป Navi 48 พร้อม 4,096 SPs  
    • Clock สูงสุดที่ 2,920 MHz (boost), 2,350 MHz (base)

    แรม 32GB GDDR6 @ 20 Gbps พร้อม bus 256-bit  
    • แบนด์วิธรวม 644.6 GB/s

    ออกแบบแบบ blower 2 สล็อต เหมาะสำหรับ multi-GPU workstation  
    • มี vapor chamber + thermal pad ระดับสูง (Honeywell PTM7950)

    พอร์ตจอแบบ DisplayPort 1.2a รองรับ 8K ได้สูงสุด 4 จอ

    ใช้พลังงาน 300W ผ่านหัว 12V-2x6  
    • แนะนำ PSU อย่างน้อย 800W จากแบรนด์น่าเชื่อถือ

    มีกำหนดวางจำหน่ายในเดือนกรกฎาคม 2025  
    • ยังไม่ประกาศราคาอย่างเป็นทางการ

    https://www.tomshardware.com/pc-components/gpus/asrock-preps-radeon-rx-ai-pro-r9700-creator-for-ai-and-workstation-users-blower-card-adopts-16-pin-connector-features-300w-tbp-rating
    คนส่วนใหญ่มักจะคิดว่า GPU = เล่นเกม แต่ ASRock กำลังจะเปลี่ยนภาพนั้น ด้วยการเปิดตัว Radeon RX AI Pro R9700 Creator ที่ไม่ได้เกิดมาเพื่อแค่เฟรมเรตสูง...แต่เน้น “ประสิทธิภาพเสถียรและหน่วยความจำเยอะ” สำหรับทำงาน AI inference, video rendering, CAD, หรือ data science โดยเฉพาะ ตัวการ์ดใช้ดีไซน์ blower แบบ 2 สล็อตระบายความร้อนได้ดีในเคสแคบ ๆ เหมาะมากสำหรับติดตั้งหลายใบในเครื่องเดียว โดยใช้ แรม GDDR6 ขนาด 32GB ความเร็ว 20 Gbps และ อินเทอร์เฟซความกว้าง 256 บิต ทำให้ได้แบนด์วิธสูงถึง 644.6 GB/s ซึ่งเพียงพอสำหรับโหลดโมเดลขนาดใหญ่ ด้านกำลังไฟ การ์ดใช้หัวต่อ 12V-2x6 (แบบเดียวกับ RTX 40 ซีรีส์) ซึ่งรับไฟได้ถึง 300W และแนะนำให้ใช้ PSU อย่างน้อย 800W — ฟังดูแรง แต่ถือเป็นมาตรฐานของการ์ดระดับมืออาชีพในยุคนี้ พอร์ตจอดูอาจจะเก่า (DisplayPort 1.2a) แต่ก็ยังแสดงผลระดับ 8K ได้ถึง 4 จอพร้อมกัน เรียกว่าเน้นงานมากกว่าความใหม่หรูของเกม ✅ ASRock เปิดตัว Radeon RX AI Pro R9700 Creator สำหรับงาน AI / เวิร์กสเตชัน   • ใช้ชิป Navi 48 พร้อม 4,096 SPs   • Clock สูงสุดที่ 2,920 MHz (boost), 2,350 MHz (base) ✅ แรม 32GB GDDR6 @ 20 Gbps พร้อม bus 256-bit   • แบนด์วิธรวม 644.6 GB/s ✅ ออกแบบแบบ blower 2 สล็อต เหมาะสำหรับ multi-GPU workstation   • มี vapor chamber + thermal pad ระดับสูง (Honeywell PTM7950) ✅ พอร์ตจอแบบ DisplayPort 1.2a รองรับ 8K ได้สูงสุด 4 จอ ✅ ใช้พลังงาน 300W ผ่านหัว 12V-2x6   • แนะนำ PSU อย่างน้อย 800W จากแบรนด์น่าเชื่อถือ ✅ มีกำหนดวางจำหน่ายในเดือนกรกฎาคม 2025   • ยังไม่ประกาศราคาอย่างเป็นทางการ https://www.tomshardware.com/pc-components/gpus/asrock-preps-radeon-rx-ai-pro-r9700-creator-for-ai-and-workstation-users-blower-card-adopts-16-pin-connector-features-300w-tbp-rating
    0 Comments 0 Shares 201 Views 0 Reviews
  • ลองจินตนาการว่าคุณส่องกล้องดูจักรวาล แล้วสามารถเห็น “แก๊สที่หลั่งออกมาจากหลุมดำ” หรือ “ซากดาวที่กำลังตาย” ได้แบบละเอียดยิบ — นั่นคือสิ่งที่ทีมจาก ESO ทำได้ในงานนี้!

    ดาราจักร Sculptor อยู่ห่างจากโลกประมาณ 11 ล้านปีแสง มีขนาด ความมวล และรูปทรงใกล้เคียงกับทางช้างเผือกของเรา การถ่ายภาพนี้ใช้เทคนิครวมภาพกว่า 100 เฟรม เพื่อสร้าง “แผนที่สามสี” จากแสงของ ไฮโดรเจน, ออกซิเจน และกำมะถัน ทำให้เห็นโครงสร้างภายในของดาราจักรได้ชัดเจนสุด ๆ

    ที่น่าทึ่งคือ นักวิจัยพบ เนบิวลาดาวเคราะห์ (Planetary Nebulae) มากถึง 500 แห่ง — ปกติเห็นแค่ 100 แห่งต่อดาราจักร นอกจากนี้ยังเห็นการพ่นก๊าซออกจากใจกลางของดาราจักร ซึ่งอาจมาจาก หลุมดำมวลยิ่งยวด ที่อยู่ตรงนั้น

    นักดาราศาสตร์จะใช้ข้อมูลนี้ในการศึกษาเรื่อง:
    - โครงสร้างของดาราจักรแบบละเอียด
    - การเคลื่อนที่ของแก๊สและการก่อตัวของดาว
    - การตรวจสอบระยะห่างของดาราจักรผ่านการกระจายตัวของเนบิวลา

    ทีมวิจัยจาก ESO ถ่ายภาพ Sculptor galaxy แบบละเอียดที่สุดเท่าที่เคยมี  
    • ใช้เวลาสะสมข้อมูลกว่า 50 ชั่วโมง  
    • รวมภาพมากกว่า 100 เฟรมจากกล้อง VLT

    Sculptor เป็นดาราจักรแบบเกลียวขนาดใหญ่ ใกล้โลกเพียง 11 ล้านปีแสง  
    • ขนาดราว 90,000 ปีแสง  • พื้นที่ที่ถูกวิเคราะห์คือราว 65,000 ปีแสง

    พบเนบิวลาดาวเคราะห์ถึง 500 แห่ง — มากผิดปกติ  
    • ใช้เป็นตัวชี้วัดระยะห่างของดาราจักรได้

    ภาพแสดงแถบแก๊สจากใจกลางดาราจักร พ่นออกมาจากหลุมดำขนาดยักษ์  
    • ใช้แสง false-color แสดงองค์ประกอบของธาตุ

    การวิเคราะห์นี้จะช่วยให้เข้าใจกลไกการก่อตัวของดาวและองค์ประกอบของแก๊สในระดับที่ไม่เคยเห็นมาก่อน

    ดาราจักร Sculptor เป็นดาราจักรสว่างที่กล้องส่องทางไกลบนโลกมองเห็นได้ง่าย  
    • จัดอยู่ในกลุ่มเดียวกับ Andromeda สำหรับนักดูดาวสมัครเล่น

    https://www.techspot.com/news/108396-astronomers-capture-ultra-detailed-image-nearby-sculptor-galaxy.html
    ลองจินตนาการว่าคุณส่องกล้องดูจักรวาล แล้วสามารถเห็น “แก๊สที่หลั่งออกมาจากหลุมดำ” หรือ “ซากดาวที่กำลังตาย” ได้แบบละเอียดยิบ — นั่นคือสิ่งที่ทีมจาก ESO ทำได้ในงานนี้! ดาราจักร Sculptor อยู่ห่างจากโลกประมาณ 11 ล้านปีแสง มีขนาด ความมวล และรูปทรงใกล้เคียงกับทางช้างเผือกของเรา การถ่ายภาพนี้ใช้เทคนิครวมภาพกว่า 100 เฟรม เพื่อสร้าง “แผนที่สามสี” จากแสงของ ไฮโดรเจน, ออกซิเจน และกำมะถัน ทำให้เห็นโครงสร้างภายในของดาราจักรได้ชัดเจนสุด ๆ ที่น่าทึ่งคือ นักวิจัยพบ เนบิวลาดาวเคราะห์ (Planetary Nebulae) มากถึง 500 แห่ง — ปกติเห็นแค่ 100 แห่งต่อดาราจักร นอกจากนี้ยังเห็นการพ่นก๊าซออกจากใจกลางของดาราจักร ซึ่งอาจมาจาก หลุมดำมวลยิ่งยวด ที่อยู่ตรงนั้น นักดาราศาสตร์จะใช้ข้อมูลนี้ในการศึกษาเรื่อง: - โครงสร้างของดาราจักรแบบละเอียด - การเคลื่อนที่ของแก๊สและการก่อตัวของดาว - การตรวจสอบระยะห่างของดาราจักรผ่านการกระจายตัวของเนบิวลา ✅ ทีมวิจัยจาก ESO ถ่ายภาพ Sculptor galaxy แบบละเอียดที่สุดเท่าที่เคยมี   • ใช้เวลาสะสมข้อมูลกว่า 50 ชั่วโมง   • รวมภาพมากกว่า 100 เฟรมจากกล้อง VLT ✅ Sculptor เป็นดาราจักรแบบเกลียวขนาดใหญ่ ใกล้โลกเพียง 11 ล้านปีแสง   • ขนาดราว 90,000 ปีแสง  • พื้นที่ที่ถูกวิเคราะห์คือราว 65,000 ปีแสง ✅ พบเนบิวลาดาวเคราะห์ถึง 500 แห่ง — มากผิดปกติ   • ใช้เป็นตัวชี้วัดระยะห่างของดาราจักรได้ ✅ ภาพแสดงแถบแก๊สจากใจกลางดาราจักร พ่นออกมาจากหลุมดำขนาดยักษ์   • ใช้แสง false-color แสดงองค์ประกอบของธาตุ ✅ การวิเคราะห์นี้จะช่วยให้เข้าใจกลไกการก่อตัวของดาวและองค์ประกอบของแก๊สในระดับที่ไม่เคยเห็นมาก่อน ✅ ดาราจักร Sculptor เป็นดาราจักรสว่างที่กล้องส่องทางไกลบนโลกมองเห็นได้ง่าย   • จัดอยู่ในกลุ่มเดียวกับ Andromeda สำหรับนักดูดาวสมัครเล่น https://www.techspot.com/news/108396-astronomers-capture-ultra-detailed-image-nearby-sculptor-galaxy.html
    WWW.TECHSPOT.COM
    Astronomers capture ultra-detailed image of nearby Sculptor galaxy
    The Sculptor galaxy, also known as NGC 253, is similar in size, mass, and shape to our own spiral Milky Way. ESO researcher Enrico Congiu said the...
    0 Comments 0 Shares 254 Views 0 Reviews
  • ว่างจัด
    นำเฟรมผ้าสำหรับวาดรูปสีน้ำมันฯมาแปลงเป็นกรอบรูป ติดเทปทำเป็นลวดลายกรอบ ภาพวิวนำมาจากโปสการ์ด และมินิหงส์ดำหนึ่งคู่
    ว่างจัด นำเฟรมผ้าสำหรับวาดรูปสีน้ำมันฯมาแปลงเป็นกรอบรูป ติดเทปทำเป็นลวดลายกรอบ ภาพวิวนำมาจากโปสการ์ด และมินิหงส์ดำหนึ่งคู่
    0 Comments 0 Shares 97 Views 0 Reviews
  • คุณเคยเปิดเกมแล้วเจอฉากสวยๆ ที่ทำให้การ์ดจอคุณ “ทรุด” เพราะ VRAM เต็มไหมครับ? ข่าวดีคือ NTC หรือ Neural Texture Compression อาจเปลี่ยนเกมนี้ไปทั้งวงการ เพราะมันช่วยให้เรนเดอร์ texture ที่สมจริงได้โดยใช้หน่วยความจำกราฟิกน้อยลงมาก — ถึง 20 เท่าในบางกรณี!

    หลักการคือการใช้ AI neural network ที่ฝึกมาล่วงหน้าเพื่อบีบอัด (compress) และถอดรหัส (decompress) texture ใน real-time โดยคงรายละเอียดที่สายตามองเห็นว่า “คมเหมือนต้นฉบับ” แม้ข้อมูลต้นทางจะถูกลดทอนอย่างหนัก

    สื่อเทคโนโลยีชื่อ Compusemble ทำการทดสอบเทคโนโลยีนี้จาก Intel และ Nvidia แล้วพบผลลัพธ์น่าทึ่ง: จาก 272MB เหลือเพียง 11.37MB บน GPU และ ลดเวลาสร้างเฟรมจาก 5.77ms เหลือแค่ 0.11ms เมื่อใช้ Cooperative Vectors — ฟีเจอร์ใหม่ใน DirectX 12 ที่ช่วยเร่งการทำงาน AI บน GPU โดยไม่ล็อกอยู่กับค่ายใดค่ายหนึ่ง

    แม้ตอนนี้ยังไม่มีเกมพาณิชย์ที่รองรับ NTC เต็มตัว แต่การทดสอบนี้อาจเร่งให้ Unreal Engine, Unity หรือผู้ผลิตเกมอื่นนำไปใช้จริงในอนาคตอันใกล้

    Neural Texture Compression (NTC) คือเทคโนโลยีที่ใช้ AI ลดขนาด texture โดยแทบไม่ลดคุณภาพภาพ  
    • ใช้ neural network ที่ฝึกมาเฉพาะ  
    • บีบอัดและคืนค่าข้อมูล texture ระหว่างเรนเดอร์แบบ real-time

    NTC สามารถลดการใช้ VRAM ได้อย่างมหาศาล  
    • จากตัวอย่าง: 272MB → 11.37MB  
    • มีผลต่อความลื่นไหลในเกมระดับ 4K

    ต้องใช้พลังประมวลผลสูง จึงต้องอาศัยฟีเจอร์อย่าง Cooperative Vectors เพื่อให้รันได้เร็ว  
    • เป็นฟีเจอร์ใหม่ใน DirectX 12  
    • ช่วยเร่งงาน matrix computation ข้าม GPU หลายค่าย (cross-vendor)

    ผลทดสอบจริงจาก Compusemble พบว่าการใช้ Cooperative Vectors ลดเวลาสร้างเฟรมได้สูงถึง 98%  
    • จาก 5.77ms เหลือ 0.11ms ใน demo จาก Intel  
    • จาก 1.44ms เหลือ 0.74ms ใน demo จาก Nvidia

    เปิดโอกาสให้ GPU ที่มี VRAM จำกัดรันเกมระดับสูงได้ดีขึ้นในอนาคต  
    • เหมาะกับทั้งเกมใหม่ และการอัปเดตเกมเก่าเพื่อประสิทธิภาพดีขึ้น

    เทคโนโลยี NTC ยังไม่ถูกใช้อย่างแพร่หลายในเกมจริง  
    • ปัจจุบันยังอยู่ใน demo/research stage เท่านั้น  
    • ต้องรอดูว่า engine ใหญ่ ๆ จะนำไปใช้ไหม

    ต้องการการ์ดจอที่รองรับฟีเจอร์เฉพาะ (เช่น Cooperative Vectors)  
    • ยังไม่ชัดว่าการ์ดรุ่นใดบ้างจะรองรับในระยะยาว

    การแปลง texture แบบ neural อาจลดความเที่ยงตรงในบางประเภทภาพ  
    • โดยเฉพาะกับเนื้อหาที่มีลวดลายซับซ้อน, เส้นคม, หรือเนื้อสัมผัสปลีกย่อย

    ยังไม่มีมาตรฐานกลางสำหรับ NTC ข้ามค่ายระหว่าง Intel–Nvidia–AMD  
    • นักพัฒนาอาจต้องเลือกใช้ฟีเจอร์แบบล็อก vendor หรือสร้างระบบของตนเอง

    https://www.techspot.com/news/108371-neural-texture-compression-can-do-wonders-vram-usage.html
    คุณเคยเปิดเกมแล้วเจอฉากสวยๆ ที่ทำให้การ์ดจอคุณ “ทรุด” เพราะ VRAM เต็มไหมครับ? ข่าวดีคือ NTC หรือ Neural Texture Compression อาจเปลี่ยนเกมนี้ไปทั้งวงการ เพราะมันช่วยให้เรนเดอร์ texture ที่สมจริงได้โดยใช้หน่วยความจำกราฟิกน้อยลงมาก — ถึง 20 เท่าในบางกรณี! หลักการคือการใช้ AI neural network ที่ฝึกมาล่วงหน้าเพื่อบีบอัด (compress) และถอดรหัส (decompress) texture ใน real-time โดยคงรายละเอียดที่สายตามองเห็นว่า “คมเหมือนต้นฉบับ” แม้ข้อมูลต้นทางจะถูกลดทอนอย่างหนัก สื่อเทคโนโลยีชื่อ Compusemble ทำการทดสอบเทคโนโลยีนี้จาก Intel และ Nvidia แล้วพบผลลัพธ์น่าทึ่ง: จาก 272MB เหลือเพียง 11.37MB บน GPU และ ลดเวลาสร้างเฟรมจาก 5.77ms เหลือแค่ 0.11ms เมื่อใช้ Cooperative Vectors — ฟีเจอร์ใหม่ใน DirectX 12 ที่ช่วยเร่งการทำงาน AI บน GPU โดยไม่ล็อกอยู่กับค่ายใดค่ายหนึ่ง แม้ตอนนี้ยังไม่มีเกมพาณิชย์ที่รองรับ NTC เต็มตัว แต่การทดสอบนี้อาจเร่งให้ Unreal Engine, Unity หรือผู้ผลิตเกมอื่นนำไปใช้จริงในอนาคตอันใกล้ ✅ Neural Texture Compression (NTC) คือเทคโนโลยีที่ใช้ AI ลดขนาด texture โดยแทบไม่ลดคุณภาพภาพ   • ใช้ neural network ที่ฝึกมาเฉพาะ   • บีบอัดและคืนค่าข้อมูล texture ระหว่างเรนเดอร์แบบ real-time ✅ NTC สามารถลดการใช้ VRAM ได้อย่างมหาศาล   • จากตัวอย่าง: 272MB → 11.37MB   • มีผลต่อความลื่นไหลในเกมระดับ 4K ✅ ต้องใช้พลังประมวลผลสูง จึงต้องอาศัยฟีเจอร์อย่าง Cooperative Vectors เพื่อให้รันได้เร็ว   • เป็นฟีเจอร์ใหม่ใน DirectX 12   • ช่วยเร่งงาน matrix computation ข้าม GPU หลายค่าย (cross-vendor) ✅ ผลทดสอบจริงจาก Compusemble พบว่าการใช้ Cooperative Vectors ลดเวลาสร้างเฟรมได้สูงถึง 98%   • จาก 5.77ms เหลือ 0.11ms ใน demo จาก Intel   • จาก 1.44ms เหลือ 0.74ms ใน demo จาก Nvidia ✅ เปิดโอกาสให้ GPU ที่มี VRAM จำกัดรันเกมระดับสูงได้ดีขึ้นในอนาคต   • เหมาะกับทั้งเกมใหม่ และการอัปเดตเกมเก่าเพื่อประสิทธิภาพดีขึ้น ‼️ เทคโนโลยี NTC ยังไม่ถูกใช้อย่างแพร่หลายในเกมจริง   • ปัจจุบันยังอยู่ใน demo/research stage เท่านั้น   • ต้องรอดูว่า engine ใหญ่ ๆ จะนำไปใช้ไหม ‼️ ต้องการการ์ดจอที่รองรับฟีเจอร์เฉพาะ (เช่น Cooperative Vectors)   • ยังไม่ชัดว่าการ์ดรุ่นใดบ้างจะรองรับในระยะยาว ‼️ การแปลง texture แบบ neural อาจลดความเที่ยงตรงในบางประเภทภาพ   • โดยเฉพาะกับเนื้อหาที่มีลวดลายซับซ้อน, เส้นคม, หรือเนื้อสัมผัสปลีกย่อย ‼️ ยังไม่มีมาตรฐานกลางสำหรับ NTC ข้ามค่ายระหว่าง Intel–Nvidia–AMD   • นักพัฒนาอาจต้องเลือกใช้ฟีเจอร์แบบล็อก vendor หรือสร้างระบบของตนเอง https://www.techspot.com/news/108371-neural-texture-compression-can-do-wonders-vram-usage.html
    WWW.TECHSPOT.COM
    Neural Texture Compression demo shows it can do wonders for VRAM usage
    Neural Texture Compression (NTC) is a new technique that improves texture quality while reducing VRAM usage. It relies on a specialized neural network trained to compress and...
    0 Comments 0 Shares 234 Views 0 Reviews
More Results