• เรื่องเล่าจากข่าว: MLPerf Client 1.0 — เครื่องมือทดสอบ AI บนเครื่องส่วนตัวที่ใช้ง่ายขึ้นและครอบคลุมมากขึ้น

    ในยุคที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวัน แต่หลายคนยังใช้โมเดลผ่านระบบคลาวด์ เช่น ChatGPT หรือ Gemini ซึ่งแม้จะสะดวก แต่ก็มีข้อจำกัดด้านความเป็นส่วนตัวและการควบคุม

    MLPerf Client 1.0 จึงถูกพัฒนาโดย MLCommons เพื่อให้ผู้ใช้สามารถทดสอบประสิทธิภาพของโมเดล AI บนเครื่องของตัวเอง—ไม่ว่าจะเป็นโน้ตบุ๊ก, เดสก์ท็อป หรือเวิร์กสเตชัน โดยเวอร์ชันใหม่นี้มาพร้อม GUI ที่ใช้งานง่าย และรองรับโมเดลใหม่ ๆ เช่น Llama 3.1, Phi 3.5 และ Phi 4 Reasoning

    นอกจากนี้ยังรองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่าย เช่น AMD, Intel, NVIDIA, Apple และ Qualcomm ผ่าน SDK และ execution path ที่หลากหลาย รวมถึงสามารถทดสอบงานที่ซับซ้อน เช่น การสรุปเนื้อหาด้วย context window ขนาด 8000 tokens

    MLPerf Client 1.0 เปิดตัวพร้อม GUI ใช้งานง่ายสำหรับผู้ใช้ทั่วไป
    ไม่ต้องใช้ command line เหมือนเวอร์ชันก่อน
    มีระบบมอนิเตอร์ทรัพยากรแบบเรียลไทม์

    รองรับโมเดลใหม่หลายตัว เช่น Llama 2, Llama 3.1, Phi 3.5 และ Phi 4 Reasoning
    ครอบคลุมทั้งโมเดลขนาดเล็กและใหญ่
    ทดสอบได้ทั้งการสนทนา, การเขียนโค้ด และการสรุปเนื้อหา

    สามารถทดสอบงานที่ใช้ context window ขนาดใหญ่ เช่น 4000 และ 8000 tokens
    เหมาะกับการวัดประสิทธิภาพในงานสรุปเนื้อหายาว
    ต้องใช้ GPU ที่มี VRAM อย่างน้อย 16GB

    รองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่ายผ่าน execution path ต่าง ๆ
    เช่น ONNX Runtime, OpenVINO, MLX, Llama.cpp
    ครอบคลุมทั้ง GPU, NPU และ CPU hybrid

    สามารถดาวน์โหลดและใช้งานฟรีผ่าน GitHub
    รองรับ Windows และ macOS
    เหมาะกับนักพัฒนา, นักวิจัย และผู้ใช้ทั่วไป

    การทดสอบบาง workload ต้องใช้ฮาร์ดแวร์ระดับสูง เช่น GPU 16GB VRAM ขึ้นไป
    ผู้ใช้ทั่วไปอาจไม่สามารถรันได้ครบทุกชุดทดสอบ
    ต้องตรวจสอบสเปกก่อนใช้งาน

    การเปรียบเทียบผลลัพธ์ระหว่างอุปกรณ์ต่าง ๆ อาจไม่แม่นยำหากไม่ได้ตั้งค่าระบบให้เหมือนกัน
    ต้องใช้ configuration ที่เทียบเคียงได้
    ไม่ควรใช้ผลลัพธ์เพื่อสรุปคุณภาพของฮาร์ดแวร์โดยตรง

    การใช้ execution path ที่ไม่เหมาะกับอุปกรณ์อาจทำให้ผลลัพธ์ผิดเพี้ยน
    เช่น ใช้ path สำหรับ GPU บนระบบที่ไม่มี GPU
    ต้องเลือก path ให้ตรงกับฮาร์ดแวร์ที่ใช้งานจริง

    การทดสอบโมเดลขนาดใหญ่อาจใช้เวลานานและกินทรัพยากรสูง
    อาจทำให้เครื่องร้อนหรือหน่วง
    ควรใช้ในสภาพแวดล้อมที่ควบคุมได้

    https://www.tomshardware.com/software/mlperf-client-1-0-ai-benchmark-released-new-testing-toolkit-sports-a-gui-covers-more-models-and-tasks-and-supports-more-hardware-acceleration-paths
    🎙️ เรื่องเล่าจากข่าว: MLPerf Client 1.0 — เครื่องมือทดสอบ AI บนเครื่องส่วนตัวที่ใช้ง่ายขึ้นและครอบคลุมมากขึ้น ในยุคที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวัน แต่หลายคนยังใช้โมเดลผ่านระบบคลาวด์ เช่น ChatGPT หรือ Gemini ซึ่งแม้จะสะดวก แต่ก็มีข้อจำกัดด้านความเป็นส่วนตัวและการควบคุม MLPerf Client 1.0 จึงถูกพัฒนาโดย MLCommons เพื่อให้ผู้ใช้สามารถทดสอบประสิทธิภาพของโมเดล AI บนเครื่องของตัวเอง—ไม่ว่าจะเป็นโน้ตบุ๊ก, เดสก์ท็อป หรือเวิร์กสเตชัน โดยเวอร์ชันใหม่นี้มาพร้อม GUI ที่ใช้งานง่าย และรองรับโมเดลใหม่ ๆ เช่น Llama 3.1, Phi 3.5 และ Phi 4 Reasoning นอกจากนี้ยังรองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่าย เช่น AMD, Intel, NVIDIA, Apple และ Qualcomm ผ่าน SDK และ execution path ที่หลากหลาย รวมถึงสามารถทดสอบงานที่ซับซ้อน เช่น การสรุปเนื้อหาด้วย context window ขนาด 8000 tokens ✅ MLPerf Client 1.0 เปิดตัวพร้อม GUI ใช้งานง่ายสำหรับผู้ใช้ทั่วไป ➡️ ไม่ต้องใช้ command line เหมือนเวอร์ชันก่อน ➡️ มีระบบมอนิเตอร์ทรัพยากรแบบเรียลไทม์ ✅ รองรับโมเดลใหม่หลายตัว เช่น Llama 2, Llama 3.1, Phi 3.5 และ Phi 4 Reasoning ➡️ ครอบคลุมทั้งโมเดลขนาดเล็กและใหญ่ ➡️ ทดสอบได้ทั้งการสนทนา, การเขียนโค้ด และการสรุปเนื้อหา ✅ สามารถทดสอบงานที่ใช้ context window ขนาดใหญ่ เช่น 4000 และ 8000 tokens ➡️ เหมาะกับการวัดประสิทธิภาพในงานสรุปเนื้อหายาว ➡️ ต้องใช้ GPU ที่มี VRAM อย่างน้อย 16GB ✅ รองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่ายผ่าน execution path ต่าง ๆ ➡️ เช่น ONNX Runtime, OpenVINO, MLX, Llama.cpp ➡️ ครอบคลุมทั้ง GPU, NPU และ CPU hybrid ✅ สามารถดาวน์โหลดและใช้งานฟรีผ่าน GitHub ➡️ รองรับ Windows และ macOS ➡️ เหมาะกับนักพัฒนา, นักวิจัย และผู้ใช้ทั่วไป ‼️ การทดสอบบาง workload ต้องใช้ฮาร์ดแวร์ระดับสูง เช่น GPU 16GB VRAM ขึ้นไป ⛔ ผู้ใช้ทั่วไปอาจไม่สามารถรันได้ครบทุกชุดทดสอบ ⛔ ต้องตรวจสอบสเปกก่อนใช้งาน ‼️ การเปรียบเทียบผลลัพธ์ระหว่างอุปกรณ์ต่าง ๆ อาจไม่แม่นยำหากไม่ได้ตั้งค่าระบบให้เหมือนกัน ⛔ ต้องใช้ configuration ที่เทียบเคียงได้ ⛔ ไม่ควรใช้ผลลัพธ์เพื่อสรุปคุณภาพของฮาร์ดแวร์โดยตรง ‼️ การใช้ execution path ที่ไม่เหมาะกับอุปกรณ์อาจทำให้ผลลัพธ์ผิดเพี้ยน ⛔ เช่น ใช้ path สำหรับ GPU บนระบบที่ไม่มี GPU ⛔ ต้องเลือก path ให้ตรงกับฮาร์ดแวร์ที่ใช้งานจริง ‼️ การทดสอบโมเดลขนาดใหญ่อาจใช้เวลานานและกินทรัพยากรสูง ⛔ อาจทำให้เครื่องร้อนหรือหน่วง ⛔ ควรใช้ในสภาพแวดล้อมที่ควบคุมได้ https://www.tomshardware.com/software/mlperf-client-1-0-ai-benchmark-released-new-testing-toolkit-sports-a-gui-covers-more-models-and-tasks-and-supports-more-hardware-acceleration-paths
    0 Comments 0 Shares 82 Views 0 Reviews
  • เรื่องเล่าจากข่าว: Linus Torvalds กับ “เครื่องมือที่พอเพียง” เพื่อสร้างสิ่งยิ่งใหญ่

    แม้โลกจะหมุนไปด้วย AI และฮาร์ดแวร์สุดล้ำ แต่ Linus Torvalds ยังคงใช้ AMD Radeon RX 580 ซึ่งเป็นการ์ดจอรุ่นเก่ากว่า 8 ปีเป็นเครื่องมือหลักในการพัฒนา Linux kernel โดยจับคู่กับซีพียู AMD Threadripper เพื่อเร่งการคอมไพล์เคอร์เนลให้เร็วขึ้น

    เขาเผยข้อมูลนี้ผ่านการรายงานบั๊กเกี่ยวกับฟีเจอร์ Display Stream Compression (DSC) บน Linux 6.17 ซึ่งทำให้จอ ASUS ProArt 5K ของเขาขึ้นจอดำ Torvalds ลงมือแก้ไขเองโดยย้อนแพตช์ที่เป็นต้นเหตุ เพื่อให้การพัฒนาเคอร์เนลดำเนินต่อไปได้

    นอกจากนี้ เขายังเปลี่ยนจาก Apple M1 MacBook ที่เคยใช้สำหรับทดสอบ ARM64 มาเป็นแล็ปท็อป Intel ที่ใช้กราฟิก i915 แบบเปิดแทน โดยให้เหตุผลว่าไม่ชอบระบบที่ล็อกฮาร์ดแวร์และขัดขวางการพัฒนาเคอร์เนล

    Linus Torvalds ยังคงใช้ AMD RX 580 เป็นการ์ดจอหลักในปี 2025
    ใช้คู่กับจอ ASUS ProArt 5K ผ่านฟีเจอร์ DSC
    แม้จะเก่า แต่ยังรองรับงานพัฒนาเคอร์เนลได้ดี

    เขาใช้ AMD Threadripper เป็นซีพียูหลักเพื่อคอมไพล์เคอร์เนลอย่างรวดเร็ว
    เปลี่ยนจาก Intel มาใช้ Threadripper หลายปีก่อน
    แม้จะมีรุ่นใหม่ออกมา แต่เขายังใช้ระบบเดิมเพราะ “ดีพอแล้ว”

    Torvalds รายงานบั๊กเกี่ยวกับ DSC บน Linux 6.17 และแก้ไขด้วยตัวเอง
    ปัญหาทำให้จอขึ้นจอดำเมื่อบูตเคอร์เนลใหม่
    เขาย้อนแพตช์เพื่อให้การพัฒนาไม่สะดุด

    เขาเปลี่ยนจาก Apple M1 MacBook มาใช้แล็ปท็อป Intel ที่ใช้กราฟิก i915
    ไม่ระบุรุ่น แต่ยืนยันว่าเป็น Intel แบบเปิด
    เหตุผลคือไม่ชอบระบบที่ล็อกฮาร์ดแวร์และขัดขวางการพัฒนา

    Torvalds เคยใช้ Ampere Altra สำหรับทดสอบ ARM64 Linux kernel
    เป็นระบบที่มีคอร์จำนวนมาก เหมาะกับการคอมไพล์แบบขนาน
    ใช้ควบคู่กับระบบหลักเพื่อทดสอบหลายสถาปัตยกรรม

    AMD RX 580 ไม่เหมาะกับงานกราฟิกหรือ AI สมัยใหม่
    ประสิทธิภาพต่ำเมื่อเทียบกับ GPU รุ่นใหม่
    ไม่รองรับฟีเจอร์อย่าง ray tracing หรือ DLSS

    การใช้ฮาร์ดแวร์เก่าอาจมีข้อจำกัดด้านพลังงานและการรองรับฟีเจอร์ใหม่
    อาจไม่สามารถใช้งานกับซอฟต์แวร์หรือเกมรุ่นใหม่ได้
    ต้องพึ่งพาการสนับสนุนจากไดรเวอร์โอเพ่นซอร์สเท่านั้น

    การเปลี่ยนจาก Apple Silicon มาใช้ Intel อาจลดประสิทธิภาพในบางด้าน
    Apple M1/M2 มีประสิทธิภาพสูงและประหยัดพลังงาน
    แต่ไม่เหมาะกับการพัฒนาเคอร์เนลที่ต้องการระบบเปิด

    การพัฒนาเคอร์เนลบนระบบที่ไม่เสถียรอาจทำให้เกิดบั๊กหรือปัญหาไม่คาดคิด
    เช่นกรณี DSC ที่ทำให้จอขึ้นจอดำ
    ต้องมีความเข้าใจลึกในการแก้ไขปัญหาเอง

    https://www.tomshardware.com/tech-industry/linus-torvalds-still-uses-an-amd-rx-580-from-2017-also-ditches-apple-silicon-for-an-intel-laptop
    🎙️ เรื่องเล่าจากข่าว: Linus Torvalds กับ “เครื่องมือที่พอเพียง” เพื่อสร้างสิ่งยิ่งใหญ่ แม้โลกจะหมุนไปด้วย AI และฮาร์ดแวร์สุดล้ำ แต่ Linus Torvalds ยังคงใช้ AMD Radeon RX 580 ซึ่งเป็นการ์ดจอรุ่นเก่ากว่า 8 ปีเป็นเครื่องมือหลักในการพัฒนา Linux kernel โดยจับคู่กับซีพียู AMD Threadripper เพื่อเร่งการคอมไพล์เคอร์เนลให้เร็วขึ้น เขาเผยข้อมูลนี้ผ่านการรายงานบั๊กเกี่ยวกับฟีเจอร์ Display Stream Compression (DSC) บน Linux 6.17 ซึ่งทำให้จอ ASUS ProArt 5K ของเขาขึ้นจอดำ Torvalds ลงมือแก้ไขเองโดยย้อนแพตช์ที่เป็นต้นเหตุ เพื่อให้การพัฒนาเคอร์เนลดำเนินต่อไปได้ นอกจากนี้ เขายังเปลี่ยนจาก Apple M1 MacBook ที่เคยใช้สำหรับทดสอบ ARM64 มาเป็นแล็ปท็อป Intel ที่ใช้กราฟิก i915 แบบเปิดแทน โดยให้เหตุผลว่าไม่ชอบระบบที่ล็อกฮาร์ดแวร์และขัดขวางการพัฒนาเคอร์เนล ✅ Linus Torvalds ยังคงใช้ AMD RX 580 เป็นการ์ดจอหลักในปี 2025 ➡️ ใช้คู่กับจอ ASUS ProArt 5K ผ่านฟีเจอร์ DSC ➡️ แม้จะเก่า แต่ยังรองรับงานพัฒนาเคอร์เนลได้ดี ✅ เขาใช้ AMD Threadripper เป็นซีพียูหลักเพื่อคอมไพล์เคอร์เนลอย่างรวดเร็ว ➡️ เปลี่ยนจาก Intel มาใช้ Threadripper หลายปีก่อน ➡️ แม้จะมีรุ่นใหม่ออกมา แต่เขายังใช้ระบบเดิมเพราะ “ดีพอแล้ว” ✅ Torvalds รายงานบั๊กเกี่ยวกับ DSC บน Linux 6.17 และแก้ไขด้วยตัวเอง ➡️ ปัญหาทำให้จอขึ้นจอดำเมื่อบูตเคอร์เนลใหม่ ➡️ เขาย้อนแพตช์เพื่อให้การพัฒนาไม่สะดุด ✅ เขาเปลี่ยนจาก Apple M1 MacBook มาใช้แล็ปท็อป Intel ที่ใช้กราฟิก i915 ➡️ ไม่ระบุรุ่น แต่ยืนยันว่าเป็น Intel แบบเปิด ➡️ เหตุผลคือไม่ชอบระบบที่ล็อกฮาร์ดแวร์และขัดขวางการพัฒนา ✅ Torvalds เคยใช้ Ampere Altra สำหรับทดสอบ ARM64 Linux kernel ➡️ เป็นระบบที่มีคอร์จำนวนมาก เหมาะกับการคอมไพล์แบบขนาน ➡️ ใช้ควบคู่กับระบบหลักเพื่อทดสอบหลายสถาปัตยกรรม ‼️ AMD RX 580 ไม่เหมาะกับงานกราฟิกหรือ AI สมัยใหม่ ⛔ ประสิทธิภาพต่ำเมื่อเทียบกับ GPU รุ่นใหม่ ⛔ ไม่รองรับฟีเจอร์อย่าง ray tracing หรือ DLSS ‼️ การใช้ฮาร์ดแวร์เก่าอาจมีข้อจำกัดด้านพลังงานและการรองรับฟีเจอร์ใหม่ ⛔ อาจไม่สามารถใช้งานกับซอฟต์แวร์หรือเกมรุ่นใหม่ได้ ⛔ ต้องพึ่งพาการสนับสนุนจากไดรเวอร์โอเพ่นซอร์สเท่านั้น ‼️ การเปลี่ยนจาก Apple Silicon มาใช้ Intel อาจลดประสิทธิภาพในบางด้าน ⛔ Apple M1/M2 มีประสิทธิภาพสูงและประหยัดพลังงาน ⛔ แต่ไม่เหมาะกับการพัฒนาเคอร์เนลที่ต้องการระบบเปิด ‼️ การพัฒนาเคอร์เนลบนระบบที่ไม่เสถียรอาจทำให้เกิดบั๊กหรือปัญหาไม่คาดคิด ⛔ เช่นกรณี DSC ที่ทำให้จอขึ้นจอดำ ⛔ ต้องมีความเข้าใจลึกในการแก้ไขปัญหาเอง https://www.tomshardware.com/tech-industry/linus-torvalds-still-uses-an-amd-rx-580-from-2017-also-ditches-apple-silicon-for-an-intel-laptop
    0 Comments 0 Shares 109 Views 0 Reviews
  • เรื่องเล่าจากข่าว: AMD เตรียมเปิดตัวชิป NPU แบบแยก เพื่อท้าชน GPU ในยุค AI PC

    ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลบนพีซี ผู้ผลิตชิปต่างเร่งพัฒนา NPU (Neural Processing Unit) เพื่อรองรับงาน AI โดยเฉพาะ ซึ่ง AMD ก็ไม่ยอมน้อยหน้า ล่าสุดมีการเปิดเผยว่า AMD กำลังพิจารณาเปิดตัว “Discrete NPU” หรือชิป NPU แบบแยกชิ้น ไม่ฝังอยู่ใน CPU หรือ GPU เหมือนที่ผ่านมา

    Rahul Tikoo หัวหน้าฝ่าย CPU ของ AMD ระบุว่า บริษัทกำลังพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาสของชิป NPU แบบแยก ซึ่งจะช่วยให้พีซีสามารถประมวลผล AI ได้อย่างมีประสิทธิภาพมากขึ้น โดยไม่ต้องพึ่ง GPU ที่กินไฟและสร้างความร้อนสูง

    แนวคิดนี้เกิดขึ้นหลังจาก Dell เปิดตัวแล็ปท็อป Pro Max Plus ที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร และมีประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์

    AMD เองก็มีพื้นฐานจากเทคโนโลยี Xilinx ที่ใช้สร้าง NPU ฝังใน Ryzen รุ่นใหม่ และมีโครงการ Gaia ที่ช่วยให้สามารถรันโมเดล LLM ขนาดใหญ่บนเครื่องพีซีได้โดยตรง

    AMD เตรียมเปิดตัวชิป NPU แบบแยกสำหรับพีซีในอนาคต
    ไม่ใช่ GPU แต่เป็นตัวเร่ง AI โดยเฉพาะ
    อยู่ระหว่างการพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาส

    ชิป NPU แบบแยกจะช่วยลดภาระของ CPU และ GPU ในการประมวลผล AI
    เหมาะสำหรับงาน inference และการรันโมเดล LLM บนเครื่อง
    ช่วยให้พีซีบางเบายังคงมีประสิทธิภาพสูงด้าน AI

    AMD มีพื้นฐานจากเทคโนโลยี Xilinx และโครงการ Gaia สำหรับการรันโมเดล AI บน Ryzen
    ใช้ NPU tile ที่สามารถสร้างได้ถึง 50 TOPS ต่อชิ้น
    สามารถรวมหลาย tile เพื่อเพิ่มประสิทธิภาพได้

    Dell เปิดตัวแล็ปท็อปที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร
    มี 16 AI cores และหน่วยความจำ 32GB ต่อการ์ด
    ประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์

    Discrete NPU จะช่วยลดความต้องการ GPU ระดับสูงในตลาด
    ทำให้ราคาการ์ดจอสำหรับเกมเมอร์ลดลง
    เป็นทางเลือกใหม่สำหรับผู้ใช้งาน AI โดยเฉพาะ

    AMD XDNA 2 NPU มีประสิทธิภาพสูงถึง 50 TOPS และออกแบบให้ประหยัดพลังงาน
    ใช้ engine tile แบบแยกที่สามารถประมวลผลได้อย่างอิสระ
    รองรับการปรับแต่งโครงสร้างการประมวลผล AI ได้ตามต้องการ

    Intel Lunar Lake NPU 4 มีประสิทธิภาพสูงถึง 48 TOPS และออกแบบให้มีพลังงานต่ำ
    ใช้สถาปัตยกรรมแบบ parallel inference pipeline
    มี SHAVE DSP ที่ช่วยเพิ่มประสิทธิภาพการประมวลผล

    Qualcomm Snapdragon X Elite มี NPU 45 TOPS และมีประสิทธิภาพสูงในพลังงานต่ำ
    เหมาะกับโน้ตบุ๊กบางเบาและใช้งาน AI แบบต่อเนื่อง
    เป็นผู้นำในด้านประสิทธิภาพต่อวัตต์

    Discrete NPU อาจกลายเป็นอุปกรณ์เสริมใหม่ในพีซี เหมือนกับการ์ดจอในอดีต
    ช่วยให้ผู้ใช้สามารถเลือกอัปเกรดเฉพาะด้าน AI ได้
    อาจกลายเป็นมาตรฐานใหม่ในยุค AI PC

    Discrete NPU อาจกลายเป็นส่วนประกอบที่กินไฟและสร้างความร้อน หากออกแบบไม่ดี
    หากไม่ประหยัดพลังงาน จะไม่ต่างจาก GPU ที่มีปัญหาเรื่องความร้อน
    อาจไม่เหมาะกับพีซีบางเบาหรือโน้ตบุ๊ก

    ยังไม่มีข้อมูลชัดเจนว่า AMD จะเปิดตัวเมื่อใด และจะมีประสิทธิภาพเท่าใด
    อยู่ภายใต้ NDA และยังไม่มีแผนเปิดเผย
    อาจใช้เวลานานกว่าจะเข้าสู่ตลาดจริง

    การพัฒนา NPU แบบแยกต้องมี ecosystem ซอฟต์แวร์ที่รองรับอย่างเต็มรูปแบบ
    หากไม่มีเครื่องมือพัฒนาและไลบรารีที่พร้อมใช้งาน จะไม่สามารถแข่งขันได้
    ต้องมีการร่วมมือกับนักพัฒนาและผู้ผลิตซอฟต์แวร์อย่างใกล้ชิด

    ผู้ใช้งานทั่วไปอาจยังไม่เห็นความจำเป็นของ NPU แบบแยกในชีวิตประจำวัน
    ฟีเจอร์ AI บน Windows ยังจำกัดและไม่ใช่จุดขายหลัก
    อาจเหมาะกับผู้ใช้ระดับมืออาชีพมากกว่าผู้ใช้ทั่วไป

    https://www.techspot.com/news/108894-amd-signals-push-discrete-npus-rival-gpus-ai.html
    🎙️ เรื่องเล่าจากข่าว: AMD เตรียมเปิดตัวชิป NPU แบบแยก เพื่อท้าชน GPU ในยุค AI PC ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลบนพีซี ผู้ผลิตชิปต่างเร่งพัฒนา NPU (Neural Processing Unit) เพื่อรองรับงาน AI โดยเฉพาะ ซึ่ง AMD ก็ไม่ยอมน้อยหน้า ล่าสุดมีการเปิดเผยว่า AMD กำลังพิจารณาเปิดตัว “Discrete NPU” หรือชิป NPU แบบแยกชิ้น ไม่ฝังอยู่ใน CPU หรือ GPU เหมือนที่ผ่านมา Rahul Tikoo หัวหน้าฝ่าย CPU ของ AMD ระบุว่า บริษัทกำลังพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาสของชิป NPU แบบแยก ซึ่งจะช่วยให้พีซีสามารถประมวลผล AI ได้อย่างมีประสิทธิภาพมากขึ้น โดยไม่ต้องพึ่ง GPU ที่กินไฟและสร้างความร้อนสูง แนวคิดนี้เกิดขึ้นหลังจาก Dell เปิดตัวแล็ปท็อป Pro Max Plus ที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร และมีประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์ AMD เองก็มีพื้นฐานจากเทคโนโลยี Xilinx ที่ใช้สร้าง NPU ฝังใน Ryzen รุ่นใหม่ และมีโครงการ Gaia ที่ช่วยให้สามารถรันโมเดล LLM ขนาดใหญ่บนเครื่องพีซีได้โดยตรง ✅ AMD เตรียมเปิดตัวชิป NPU แบบแยกสำหรับพีซีในอนาคต ➡️ ไม่ใช่ GPU แต่เป็นตัวเร่ง AI โดยเฉพาะ ➡️ อยู่ระหว่างการพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาส ✅ ชิป NPU แบบแยกจะช่วยลดภาระของ CPU และ GPU ในการประมวลผล AI ➡️ เหมาะสำหรับงาน inference และการรันโมเดล LLM บนเครื่อง ➡️ ช่วยให้พีซีบางเบายังคงมีประสิทธิภาพสูงด้าน AI ✅ AMD มีพื้นฐานจากเทคโนโลยี Xilinx และโครงการ Gaia สำหรับการรันโมเดล AI บน Ryzen ➡️ ใช้ NPU tile ที่สามารถสร้างได้ถึง 50 TOPS ต่อชิ้น ➡️ สามารถรวมหลาย tile เพื่อเพิ่มประสิทธิภาพได้ ✅ Dell เปิดตัวแล็ปท็อปที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร ➡️ มี 16 AI cores และหน่วยความจำ 32GB ต่อการ์ด ➡️ ประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์ ✅ Discrete NPU จะช่วยลดความต้องการ GPU ระดับสูงในตลาด ➡️ ทำให้ราคาการ์ดจอสำหรับเกมเมอร์ลดลง ➡️ เป็นทางเลือกใหม่สำหรับผู้ใช้งาน AI โดยเฉพาะ ✅ AMD XDNA 2 NPU มีประสิทธิภาพสูงถึง 50 TOPS และออกแบบให้ประหยัดพลังงาน ➡️ ใช้ engine tile แบบแยกที่สามารถประมวลผลได้อย่างอิสระ ➡️ รองรับการปรับแต่งโครงสร้างการประมวลผล AI ได้ตามต้องการ ✅ Intel Lunar Lake NPU 4 มีประสิทธิภาพสูงถึง 48 TOPS และออกแบบให้มีพลังงานต่ำ ➡️ ใช้สถาปัตยกรรมแบบ parallel inference pipeline ➡️ มี SHAVE DSP ที่ช่วยเพิ่มประสิทธิภาพการประมวลผล ✅ Qualcomm Snapdragon X Elite มี NPU 45 TOPS และมีประสิทธิภาพสูงในพลังงานต่ำ ➡️ เหมาะกับโน้ตบุ๊กบางเบาและใช้งาน AI แบบต่อเนื่อง ➡️ เป็นผู้นำในด้านประสิทธิภาพต่อวัตต์ ✅ Discrete NPU อาจกลายเป็นอุปกรณ์เสริมใหม่ในพีซี เหมือนกับการ์ดจอในอดีต ➡️ ช่วยให้ผู้ใช้สามารถเลือกอัปเกรดเฉพาะด้าน AI ได้ ➡️ อาจกลายเป็นมาตรฐานใหม่ในยุค AI PC ‼️ Discrete NPU อาจกลายเป็นส่วนประกอบที่กินไฟและสร้างความร้อน หากออกแบบไม่ดี ⛔ หากไม่ประหยัดพลังงาน จะไม่ต่างจาก GPU ที่มีปัญหาเรื่องความร้อน ⛔ อาจไม่เหมาะกับพีซีบางเบาหรือโน้ตบุ๊ก ‼️ ยังไม่มีข้อมูลชัดเจนว่า AMD จะเปิดตัวเมื่อใด และจะมีประสิทธิภาพเท่าใด ⛔ อยู่ภายใต้ NDA และยังไม่มีแผนเปิดเผย ⛔ อาจใช้เวลานานกว่าจะเข้าสู่ตลาดจริง ‼️ การพัฒนา NPU แบบแยกต้องมี ecosystem ซอฟต์แวร์ที่รองรับอย่างเต็มรูปแบบ ⛔ หากไม่มีเครื่องมือพัฒนาและไลบรารีที่พร้อมใช้งาน จะไม่สามารถแข่งขันได้ ⛔ ต้องมีการร่วมมือกับนักพัฒนาและผู้ผลิตซอฟต์แวร์อย่างใกล้ชิด ‼️ ผู้ใช้งานทั่วไปอาจยังไม่เห็นความจำเป็นของ NPU แบบแยกในชีวิตประจำวัน ⛔ ฟีเจอร์ AI บน Windows ยังจำกัดและไม่ใช่จุดขายหลัก ⛔ อาจเหมาะกับผู้ใช้ระดับมืออาชีพมากกว่าผู้ใช้ทั่วไป https://www.techspot.com/news/108894-amd-signals-push-discrete-npus-rival-gpus-ai.html
    WWW.TECHSPOT.COM
    AMD signals push for discrete NPUs to rival GPUs in AI-powered PCs
    AMD is exploring whether PCs could benefit from a new kind of accelerator: a discrete neural processing unit. The company has long relied on GPUs for demanding...
    0 Comments 0 Shares 93 Views 0 Reviews
  • เรื่องเล่าจากข่าว: Proton Authenticator แอป 2FA ที่ให้คุณควบคุมข้อมูลตัวเองได้เต็มที่

    Proton เปิดตัวแอปใหม่ชื่อ “Proton Authenticator” ซึ่งเป็นแอปสำหรับสร้างรหัสยืนยันตัวตนแบบสองขั้นตอน (2FA) โดยไม่ต้องพึ่ง SMS ที่เสี่ยงต่อการถูกโจมตีแบบ SIM swapping แอปนี้ออกแบบมาเพื่อเป็นทางเลือกที่ปลอดภัยและโปร่งใสกว่าของ Google Authenticator, Microsoft Authenticator, Authy และ Duo

    จุดเด่นของ Proton Authenticator คือ:
    - ฟรีและเปิดซอร์ส
    - ไม่มีโฆษณา ไม่มีการติดตาม
    - รองรับการซิงก์ข้ามอุปกรณ์ด้วยการเข้ารหัสแบบ end-to-end
    - ใช้งานได้แม้ไม่มีอินเทอร์เน็ต
    - รองรับการนำเข้าและส่งออกโค้ดจากแอปอื่น
    - มีระบบล็อกด้วย PIN หรือ biometric

    Proton ยืนยันว่าแอปนี้ไม่เก็บข้อมูลผู้ใช้ ไม่แชร์กับบุคคลที่สาม และได้รับการตรวจสอบจากผู้เชี่ยวชาญภายนอกแล้ว

    Proton เปิดตัวแอป Proton Authenticator สำหรับการยืนยันตัวตนแบบสองขั้นตอน (2FA)
    ใช้รหัสแบบ TOTP ที่หมดอายุทุก 30 วินาที
    แทนการใช้ SMS ที่เสี่ยงต่อการถูกโจมตี

    แอปนี้ฟรี เปิดซอร์ส และไม่มีโฆษณาหรือการติดตามผู้ใช้
    แตกต่างจาก Google, Microsoft และ Authy ที่มีการเก็บข้อมูลหรือแสดงโฆษณา
    ได้รับการตรวจสอบจากผู้เชี่ยวชาญภายนอก

    รองรับทุกแพลตฟอร์ม: Android, iOS, Windows, macOS, Linux
    ใช้งานได้ทั้งบนมือถือและเดสก์ท็อป
    ไม่จำเป็นต้องมีบัญชี Proton ก็ใช้ได้

    มีฟีเจอร์ซิงก์ข้ามอุปกรณ์ด้วยการเข้ารหัสแบบ end-to-end
    รหัสจะถูกเก็บและซิงก์อย่างปลอดภัย
    สามารถสำรองข้อมูลอัตโนมัติและใช้งานแบบออฟไลน์ได้

    สามารถนำเข้าและส่งออกโค้ดจากแอปอื่นได้อย่างง่ายดาย
    ไม่ล็อกผู้ใช้ไว้กับแพลตฟอร์มเดียว
    ช่วยให้เปลี่ยนมาใช้ Proton ได้สะดวก

    มีระบบล็อกแอปด้วย PIN หรือ biometric เพื่อเพิ่มความปลอดภัย
    ป้องกันการเข้าถึงโดยไม่ได้รับอนุญาต
    ตั้งเวลาล็อกอัตโนมัติได้ตามต้องการ

    ผู้ใช้บางรายอาจยังไม่คุ้นเคยกับการใช้แอป 2FA แทน SMS
    อาจต้องใช้เวลาในการปรับตัวและตั้งค่า
    หากไม่สำรองโค้ดไว้ อาจสูญเสียการเข้าถึงบัญชี

    การซิงก์ข้ามอุปกรณ์ต้องใช้บัญชี Proton สำหรับการเข้ารหัส
    แม้จะไม่บังคับ แต่ผู้ใช้ที่ต้องการฟีเจอร์นี้ต้องสมัครบัญชี
    อาจไม่สะดวกสำหรับผู้ที่ต้องการใช้งานแบบไม่ผูกกับบริการใด

    แอปใหม่อาจยังไม่มีการรองรับจากบริการบางแห่งเท่ากับแอปยอดนิยม
    บางเว็บไซต์อาจแนะนำเฉพาะ Google หรือ Microsoft Authenticator
    ต้องตรวจสอบก่อนว่ารองรับการใช้งานกับ Proton หรือไม่

    https://www.techspot.com/news/108888-proton-launches-free-open-source-authenticator-app-take.html
    🎙️ เรื่องเล่าจากข่าว: Proton Authenticator แอป 2FA ที่ให้คุณควบคุมข้อมูลตัวเองได้เต็มที่ Proton เปิดตัวแอปใหม่ชื่อ “Proton Authenticator” ซึ่งเป็นแอปสำหรับสร้างรหัสยืนยันตัวตนแบบสองขั้นตอน (2FA) โดยไม่ต้องพึ่ง SMS ที่เสี่ยงต่อการถูกโจมตีแบบ SIM swapping แอปนี้ออกแบบมาเพื่อเป็นทางเลือกที่ปลอดภัยและโปร่งใสกว่าของ Google Authenticator, Microsoft Authenticator, Authy และ Duo จุดเด่นของ Proton Authenticator คือ: - ฟรีและเปิดซอร์ส - ไม่มีโฆษณา ไม่มีการติดตาม - รองรับการซิงก์ข้ามอุปกรณ์ด้วยการเข้ารหัสแบบ end-to-end - ใช้งานได้แม้ไม่มีอินเทอร์เน็ต - รองรับการนำเข้าและส่งออกโค้ดจากแอปอื่น - มีระบบล็อกด้วย PIN หรือ biometric Proton ยืนยันว่าแอปนี้ไม่เก็บข้อมูลผู้ใช้ ไม่แชร์กับบุคคลที่สาม และได้รับการตรวจสอบจากผู้เชี่ยวชาญภายนอกแล้ว ✅ Proton เปิดตัวแอป Proton Authenticator สำหรับการยืนยันตัวตนแบบสองขั้นตอน (2FA) ➡️ ใช้รหัสแบบ TOTP ที่หมดอายุทุก 30 วินาที ➡️ แทนการใช้ SMS ที่เสี่ยงต่อการถูกโจมตี ✅ แอปนี้ฟรี เปิดซอร์ส และไม่มีโฆษณาหรือการติดตามผู้ใช้ ➡️ แตกต่างจาก Google, Microsoft และ Authy ที่มีการเก็บข้อมูลหรือแสดงโฆษณา ➡️ ได้รับการตรวจสอบจากผู้เชี่ยวชาญภายนอก ✅ รองรับทุกแพลตฟอร์ม: Android, iOS, Windows, macOS, Linux ➡️ ใช้งานได้ทั้งบนมือถือและเดสก์ท็อป ➡️ ไม่จำเป็นต้องมีบัญชี Proton ก็ใช้ได้ ✅ มีฟีเจอร์ซิงก์ข้ามอุปกรณ์ด้วยการเข้ารหัสแบบ end-to-end ➡️ รหัสจะถูกเก็บและซิงก์อย่างปลอดภัย ➡️ สามารถสำรองข้อมูลอัตโนมัติและใช้งานแบบออฟไลน์ได้ ✅ สามารถนำเข้าและส่งออกโค้ดจากแอปอื่นได้อย่างง่ายดาย ➡️ ไม่ล็อกผู้ใช้ไว้กับแพลตฟอร์มเดียว ➡️ ช่วยให้เปลี่ยนมาใช้ Proton ได้สะดวก ✅ มีระบบล็อกแอปด้วย PIN หรือ biometric เพื่อเพิ่มความปลอดภัย ➡️ ป้องกันการเข้าถึงโดยไม่ได้รับอนุญาต ➡️ ตั้งเวลาล็อกอัตโนมัติได้ตามต้องการ ‼️ ผู้ใช้บางรายอาจยังไม่คุ้นเคยกับการใช้แอป 2FA แทน SMS ⛔ อาจต้องใช้เวลาในการปรับตัวและตั้งค่า ⛔ หากไม่สำรองโค้ดไว้ อาจสูญเสียการเข้าถึงบัญชี ‼️ การซิงก์ข้ามอุปกรณ์ต้องใช้บัญชี Proton สำหรับการเข้ารหัส ⛔ แม้จะไม่บังคับ แต่ผู้ใช้ที่ต้องการฟีเจอร์นี้ต้องสมัครบัญชี ⛔ อาจไม่สะดวกสำหรับผู้ที่ต้องการใช้งานแบบไม่ผูกกับบริการใด ‼️ แอปใหม่อาจยังไม่มีการรองรับจากบริการบางแห่งเท่ากับแอปยอดนิยม ⛔ บางเว็บไซต์อาจแนะนำเฉพาะ Google หรือ Microsoft Authenticator ⛔ ต้องตรวจสอบก่อนว่ารองรับการใช้งานกับ Proton หรือไม่ https://www.techspot.com/news/108888-proton-launches-free-open-source-authenticator-app-take.html
    WWW.TECHSPOT.COM
    Proton launches free and open-source Authenticator app to take on Google and Microsoft
    Proton Authenticator is positioned as a privacy-focused alternative to authentication apps from Google, Microsoft, Authy, and Duo. It replaces legacy SMS-based verification by generating unique login codes...
    0 Comments 0 Shares 84 Views 0 Reviews
  • เรื่องเล่าจากห้องแล็บจีน: Zhaoxin กับภารกิจไล่ตาม AMD ด้วย KH-50000 และ KX-7000N

    Zhaoxin เปิดตัวสองโปรเซสเซอร์ใหม่ในงาน WAIC 2025 ได้แก่:
    - Kaisheng KH-50000 สำหรับเซิร์ฟเวอร์ระดับสูง
    - KaiXian KX-7000N สำหรับ AI PC ที่มี NPU ในตัว

    KH-50000 เป็นรุ่นต่อยอดจาก KH-40000 โดยเพิ่มจำนวนคอร์จาก 32 เป็น 96 คอร์ พร้อม L3 cache ขนาด 384MB เทียบเท่ากับ AMD EPYC Genoa และรองรับ 128 PCIe 5.0 lanes กับหน่วยความจำ DDR5 แบบ 12-channel ECC

    แม้ Zhaoxin ยังไม่เปิดเผยสถาปัตยกรรมใหม่ที่ใช้ แต่จากการเปลี่ยนแปลงครั้งใหญ่ในสเปกและฟีเจอร์ คาดว่า KH-50000 ใช้สถาปัตยกรรมใหม่แทน Yongfeng เดิม และรองรับการเชื่อมต่อหลายซ็อกเก็ตผ่าน ZPI 5.0 ทำให้สามารถสร้างระบบที่มีสูงสุด 384 คอร์ได้

    ในฝั่งผู้บริโภค KX-7000N ถือเป็นชิปแรกของ Zhaoxin ที่มี NPU สำหรับงาน AI โดยอัปเกรดจาก PCIe 4.0 เป็น 5.0 และเพิ่มจำนวนคอร์จากรุ่นเดิม แม้ยังไม่เปิดเผยตัวเลขแน่ชัด

    Zhaoxin เปิดตัว KH-50000 สำหรับเซิร์ฟเวอร์ และ KX-7000N สำหรับ AI PC
    เปิดตัวในงาน WAIC 2025
    เป็นก้าวสำคัญของจีนในการลดการพึ่งพาเทคโนโลยีตะวันตก

    KH-50000 มี 96 คอร์, L3 cache 384MB, รองรับ 128 PCIe 5.0 lanes และ DDR5 แบบ 12-channel
    เทียบเท่า AMD EPYC Genoa ในหลายด้าน
    รองรับ Compute Express Link (CXL) และ ZPI 5.0 สำหรับ multi-socket

    KH-50000 ใช้สถาปัตยกรรมใหม่ที่ยังไม่เปิดเผย
    ไม่ใช่ Yongfeng แบบรุ่นก่อน
    คาดว่าออกแบบใหม่เพื่อรองรับงาน HPC และ AI

    KX-7000N เป็นชิปแรกของ Zhaoxin ที่มี NPU สำหรับงาน AI
    อัปเกรดจาก PCIe 4.0 เป็น 5.0
    เพิ่มจำนวนคอร์จากรุ่น KX-7000 เดิม

    Zhaoxin ตั้งเป้าแข่งขันกับ AMD, Intel และ Nvidia ในอนาคต
    ยังไม่เทียบเท่าในด้านประสิทธิภาพ แต่พัฒนาอย่างต่อเนื่อง
    มุ่งสู่ความเป็นอิสระทางเทคโนโลยีของจีน

    KH-50000 ยังไม่ยืนยันว่ารองรับ simultaneous multithreading (SMT)
    อาจมีข้อจำกัดด้านประสิทธิภาพต่อคอร์
    ยังไม่ชัดเจนว่ารองรับ workload แบบ multi-thread ได้ดีแค่ไหน

    ยังไม่มีข้อมูลด้านประสิทธิภาพจริงหรือ benchmark จาก Zhaoxin
    ไม่สามารถเปรียบเทียบกับ AMD หรือ Intel ได้อย่างแม่นยำ
    ต้องรอผลการทดสอบจากผู้ใช้งานจริง

    การพัฒนา NPU ใน KX-7000N ยังไม่มีข้อมูลด้านซอฟต์แวร์หรือ ecosystem รองรับ
    อาจมีข้อจำกัดในการใช้งาน AI บนเดสก์ท็อป
    ต้องพึ่งพาการพัฒนา framework และ driver เพิ่มเติม

    การผลิตและวางจำหน่ายยังไม่มีกำหนดแน่ชัด
    อาจล่าช้าหรือไม่สามารถผลิตได้ตามเป้า
    ส่งผลต่อการนำไปใช้งานในระดับองค์กรหรือผู้บริโภค

    https://www.tomshardware.com/pc-components/cpus/chinese-cpus-are-closing-the-gap-on-amd-next-gen-zhaoxin-chips-feature-96-cores-12-channel-ddr5-memory-and-128-pcie-5-0-lanes
    🧠 เรื่องเล่าจากห้องแล็บจีน: Zhaoxin กับภารกิจไล่ตาม AMD ด้วย KH-50000 และ KX-7000N Zhaoxin เปิดตัวสองโปรเซสเซอร์ใหม่ในงาน WAIC 2025 ได้แก่: - Kaisheng KH-50000 สำหรับเซิร์ฟเวอร์ระดับสูง - KaiXian KX-7000N สำหรับ AI PC ที่มี NPU ในตัว KH-50000 เป็นรุ่นต่อยอดจาก KH-40000 โดยเพิ่มจำนวนคอร์จาก 32 เป็น 96 คอร์ พร้อม L3 cache ขนาด 384MB เทียบเท่ากับ AMD EPYC Genoa และรองรับ 128 PCIe 5.0 lanes กับหน่วยความจำ DDR5 แบบ 12-channel ECC แม้ Zhaoxin ยังไม่เปิดเผยสถาปัตยกรรมใหม่ที่ใช้ แต่จากการเปลี่ยนแปลงครั้งใหญ่ในสเปกและฟีเจอร์ คาดว่า KH-50000 ใช้สถาปัตยกรรมใหม่แทน Yongfeng เดิม และรองรับการเชื่อมต่อหลายซ็อกเก็ตผ่าน ZPI 5.0 ทำให้สามารถสร้างระบบที่มีสูงสุด 384 คอร์ได้ ในฝั่งผู้บริโภค KX-7000N ถือเป็นชิปแรกของ Zhaoxin ที่มี NPU สำหรับงาน AI โดยอัปเกรดจาก PCIe 4.0 เป็น 5.0 และเพิ่มจำนวนคอร์จากรุ่นเดิม แม้ยังไม่เปิดเผยตัวเลขแน่ชัด ✅ Zhaoxin เปิดตัว KH-50000 สำหรับเซิร์ฟเวอร์ และ KX-7000N สำหรับ AI PC ➡️ เปิดตัวในงาน WAIC 2025 ➡️ เป็นก้าวสำคัญของจีนในการลดการพึ่งพาเทคโนโลยีตะวันตก ✅ KH-50000 มี 96 คอร์, L3 cache 384MB, รองรับ 128 PCIe 5.0 lanes และ DDR5 แบบ 12-channel ➡️ เทียบเท่า AMD EPYC Genoa ในหลายด้าน ➡️ รองรับ Compute Express Link (CXL) และ ZPI 5.0 สำหรับ multi-socket ✅ KH-50000 ใช้สถาปัตยกรรมใหม่ที่ยังไม่เปิดเผย ➡️ ไม่ใช่ Yongfeng แบบรุ่นก่อน ➡️ คาดว่าออกแบบใหม่เพื่อรองรับงาน HPC และ AI ✅ KX-7000N เป็นชิปแรกของ Zhaoxin ที่มี NPU สำหรับงาน AI ➡️ อัปเกรดจาก PCIe 4.0 เป็น 5.0 ➡️ เพิ่มจำนวนคอร์จากรุ่น KX-7000 เดิม ✅ Zhaoxin ตั้งเป้าแข่งขันกับ AMD, Intel และ Nvidia ในอนาคต ➡️ ยังไม่เทียบเท่าในด้านประสิทธิภาพ แต่พัฒนาอย่างต่อเนื่อง ➡️ มุ่งสู่ความเป็นอิสระทางเทคโนโลยีของจีน ‼️ KH-50000 ยังไม่ยืนยันว่ารองรับ simultaneous multithreading (SMT) ⛔ อาจมีข้อจำกัดด้านประสิทธิภาพต่อคอร์ ⛔ ยังไม่ชัดเจนว่ารองรับ workload แบบ multi-thread ได้ดีแค่ไหน ‼️ ยังไม่มีข้อมูลด้านประสิทธิภาพจริงหรือ benchmark จาก Zhaoxin ⛔ ไม่สามารถเปรียบเทียบกับ AMD หรือ Intel ได้อย่างแม่นยำ ⛔ ต้องรอผลการทดสอบจากผู้ใช้งานจริง ‼️ การพัฒนา NPU ใน KX-7000N ยังไม่มีข้อมูลด้านซอฟต์แวร์หรือ ecosystem รองรับ ⛔ อาจมีข้อจำกัดในการใช้งาน AI บนเดสก์ท็อป ⛔ ต้องพึ่งพาการพัฒนา framework และ driver เพิ่มเติม ‼️ การผลิตและวางจำหน่ายยังไม่มีกำหนดแน่ชัด ⛔ อาจล่าช้าหรือไม่สามารถผลิตได้ตามเป้า ⛔ ส่งผลต่อการนำไปใช้งานในระดับองค์กรหรือผู้บริโภค https://www.tomshardware.com/pc-components/cpus/chinese-cpus-are-closing-the-gap-on-amd-next-gen-zhaoxin-chips-feature-96-cores-12-channel-ddr5-memory-and-128-pcie-5-0-lanes
    0 Comments 0 Shares 101 Views 0 Reviews
  • เรื่องเล่าจากกล้องสู่คำตอบ: Search Live กับการค้นหาแบบเห็นภาพจริง

    Google ได้เปิดตัวฟีเจอร์ใหม่ใน AI Mode ที่ชื่อว่า Search Live ซึ่งเป็นการนำเทคโนโลยีจาก Project Astra มาใช้ในระบบค้นหา โดยผู้ใช้สามารถเปิดกล้องมือถือผ่าน Google Lens แล้วสตรีมภาพแบบสดเข้าสู่ AI Mode เพื่อถามคำถามเกี่ยวกับสิ่งที่อยู่ตรงหน้า เช่น สูตรอาหารจากวัตถุดิบในตู้เย็น หรือการวิเคราะห์แผนภาพทางคณิตศาสตร์

    นอกจากนี้ Google ยังเพิ่มฟีเจอร์อื่นๆ เช่น การอัปโหลดไฟล์ PDF และภาพ เพื่อให้ AI วิเคราะห์เนื้อหาในไฟล์ร่วมกับข้อมูลจากเว็บ และตอบคำถามได้อย่างมีบริบท รวมถึงฟีเจอร์ Canvas ที่ช่วยให้ผู้ใช้สามารถวางแผนหรือจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก ซึ่งจะอัปเดตตามคำถามและการแก้ไขของผู้ใช้

    Search Live เปิดให้ผู้ใช้สตรีมภาพจากกล้องมือถือเข้าสู่ AI Mode ใน Google Search
    ใช้ผ่าน Google Lens โดยแตะไอคอน “Live” แล้วถามคำถามเกี่ยวกับสิ่งที่กล้องเห็น
    AI จะตอบคำถามแบบโต้ตอบ พร้อมลิงก์ข้อมูลเพิ่มเติมจากเว็บ

    ฟีเจอร์นี้ใช้เทคโนโลยีจาก Project Astra ของ Google DeepMind
    เป็นการค้นหาแบบมัลติโหมดที่รวมภาพ เสียง และข้อความ
    ช่วยให้ AI เข้าใจบริบทของสิ่งที่ผู้ใช้กำลังดูอยู่

    AI Mode รองรับการอัปโหลดไฟล์ PDF และภาพบนเดสก์ท็อป
    ผู้ใช้สามารถถามคำถามเกี่ยวกับเนื้อหาในไฟล์ได้โดยตรง
    AI จะวิเคราะห์เนื้อหาในไฟล์และเชื่อมโยงกับข้อมูลจากเว็บ

    ฟีเจอร์ Canvas ช่วยจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก
    เหมาะสำหรับการสร้างแผนการเรียน, แผนการเดินทาง หรือรายการงาน
    สามารถแก้ไขและติดตามข้อมูลได้หลายครั้งในแต่ละเซสชัน

    ฟีเจอร์ใหม่ทั้งหมดเริ่มเปิดใช้งานในสหรัฐฯ สำหรับผู้ใช้ในโปรแกรม Labs ของ AI Mode
    รองรับเฉพาะผู้ใช้ที่มีอายุ 18 ปีขึ้นไป
    ฟีเจอร์จะทยอยเปิดใช้งานในอีกไม่กี่สัปดาห์ข้างหน้า

    https://www.neowin.net/news/google-will-let-you-stream-your-live-camera-feed-to-ai-mode-in-search-for-better-results/
    📱 เรื่องเล่าจากกล้องสู่คำตอบ: Search Live กับการค้นหาแบบเห็นภาพจริง Google ได้เปิดตัวฟีเจอร์ใหม่ใน AI Mode ที่ชื่อว่า Search Live ซึ่งเป็นการนำเทคโนโลยีจาก Project Astra มาใช้ในระบบค้นหา โดยผู้ใช้สามารถเปิดกล้องมือถือผ่าน Google Lens แล้วสตรีมภาพแบบสดเข้าสู่ AI Mode เพื่อถามคำถามเกี่ยวกับสิ่งที่อยู่ตรงหน้า เช่น สูตรอาหารจากวัตถุดิบในตู้เย็น หรือการวิเคราะห์แผนภาพทางคณิตศาสตร์ นอกจากนี้ Google ยังเพิ่มฟีเจอร์อื่นๆ เช่น การอัปโหลดไฟล์ PDF และภาพ เพื่อให้ AI วิเคราะห์เนื้อหาในไฟล์ร่วมกับข้อมูลจากเว็บ และตอบคำถามได้อย่างมีบริบท รวมถึงฟีเจอร์ Canvas ที่ช่วยให้ผู้ใช้สามารถวางแผนหรือจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก ซึ่งจะอัปเดตตามคำถามและการแก้ไขของผู้ใช้ ✅ Search Live เปิดให้ผู้ใช้สตรีมภาพจากกล้องมือถือเข้าสู่ AI Mode ใน Google Search ➡️ ใช้ผ่าน Google Lens โดยแตะไอคอน “Live” แล้วถามคำถามเกี่ยวกับสิ่งที่กล้องเห็น ➡️ AI จะตอบคำถามแบบโต้ตอบ พร้อมลิงก์ข้อมูลเพิ่มเติมจากเว็บ ✅ ฟีเจอร์นี้ใช้เทคโนโลยีจาก Project Astra ของ Google DeepMind ➡️ เป็นการค้นหาแบบมัลติโหมดที่รวมภาพ เสียง และข้อความ ➡️ ช่วยให้ AI เข้าใจบริบทของสิ่งที่ผู้ใช้กำลังดูอยู่ ✅ AI Mode รองรับการอัปโหลดไฟล์ PDF และภาพบนเดสก์ท็อป ➡️ ผู้ใช้สามารถถามคำถามเกี่ยวกับเนื้อหาในไฟล์ได้โดยตรง ➡️ AI จะวิเคราะห์เนื้อหาในไฟล์และเชื่อมโยงกับข้อมูลจากเว็บ ✅ ฟีเจอร์ Canvas ช่วยจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก ➡️ เหมาะสำหรับการสร้างแผนการเรียน, แผนการเดินทาง หรือรายการงาน ➡️ สามารถแก้ไขและติดตามข้อมูลได้หลายครั้งในแต่ละเซสชัน ✅ ฟีเจอร์ใหม่ทั้งหมดเริ่มเปิดใช้งานในสหรัฐฯ สำหรับผู้ใช้ในโปรแกรม Labs ของ AI Mode ➡️ รองรับเฉพาะผู้ใช้ที่มีอายุ 18 ปีขึ้นไป ➡️ ฟีเจอร์จะทยอยเปิดใช้งานในอีกไม่กี่สัปดาห์ข้างหน้า https://www.neowin.net/news/google-will-let-you-stream-your-live-camera-feed-to-ai-mode-in-search-for-better-results/
    WWW.NEOWIN.NET
    Google will let you stream your live camera feed to AI Mode in Search for better results
    Google has announced a ton of new capabilities coming soon to AI Mode in Search, including Search Live, which streams your live camera feed to Google Search.
    0 Comments 0 Shares 109 Views 0 Reviews
  • เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD

    ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC”

    N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว!

    แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง

    N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek
    ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU
    มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725

    GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070
    ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB
    รองรับงาน AI, เกม และการประมวลผลทั่วไป

    ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361
    สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M
    แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น

    เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W
    เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป
    เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป

    คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026
    อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ
    Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่

    ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก
    เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026
    ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข

    ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ
    ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory
    ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่

    การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์
    โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า
    ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา

    การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น
    Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน
    NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง

    https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    🧠 เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC” N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว! แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง ✅ N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek ➡️ ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU ➡️ มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725 ✅ GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070 ➡️ ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB ➡️ รองรับงาน AI, เกม และการประมวลผลทั่วไป ✅ ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361 ➡️ สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M ➡️ แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น ✅ เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W ➡️ เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป ➡️ เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป ✅ คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026 ➡️ อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่ ‼️ ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก ⛔ เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026 ⛔ ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข ‼️ ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ ⛔ ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory ⛔ ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่ ‼️ การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์ ⛔ โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า ⛔ ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา ‼️ การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น ⛔ Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน ⛔ NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    0 Comments 0 Shares 110 Views 0 Reviews
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อ “งานไอที” กลายเป็นช่องทางส่งเงินให้โครงการนิวเคลียร์เกาหลีเหนือ

    ลองจินตนาการว่าคุณเป็นบริษัทเทคโนโลยีในสหรัฐฯ ที่จ้างพนักงานไอทีทำงานจากระยะไกล โดยเชื่อว่าเขาเป็นพลเมืองอเมริกัน แต่จริงๆ แล้ว เขาคือเจ้าหน้าที่จากเกาหลีเหนือที่ใช้ตัวตนปลอม และเงินเดือนที่คุณจ่ายไปนั้นถูกส่งตรงไปยังรัฐบาลเปียงยางเพื่อใช้ในโครงการอาวุธนิวเคลียร์!

    นี่คือสิ่งที่เกิดขึ้นจริงในคดีของ Christina Marie Chapman หญิงวัย 50 ปีจากรัฐแอริโซนา ที่ถูกตัดสินจำคุก 8.5 ปีในเดือนกรกฎาคม 2025 จากการช่วยเหลือเจ้าหน้าที่ไอทีของเกาหลีเหนือให้ได้งานในบริษัทสหรัฐฯ กว่า 309 แห่ง รวมถึงบริษัทระดับ Fortune 500 โดยใช้เทคนิคที่เรียกว่า “ฟาร์มแล็ปท็อป” เพื่อหลอกให้บริษัทเชื่อว่าพนักงานเหล่านั้นทำงานจากในประเทศ

    Christina Chapman ถูกตัดสินจำคุก 102 เดือน ฐานช่วยเหลือขบวนการหลอกลวงงานไอทีให้เกาหลีเหนือ
    รับโทษจำคุก 8.5 ปี พร้อมถูกควบคุมหลังพ้นโทษอีก 3 ปี
    ต้องยึดทรัพย์ $284,555.92 และจ่ายค่าปรับ $176,850

    ขบวนการนี้สร้างรายได้ให้เกาหลีเหนือกว่า $17.1 ล้าน
    ใช้ตัวตนปลอมของชาวอเมริกัน 68 คน
    ส่งข้อมูลเท็จไปยังหน่วยงานรัฐกว่า 100 ครั้ง

    Chapman ดำเนินการ “ฟาร์มแล็ปท็อป” ที่บ้านของเธอ
    รับเครื่องจากบริษัทสหรัฐฯ แล้วให้เจ้าหน้าที่เกาหลีเหนือเข้าระบบจากต่างประเทศ
    ส่งแล็ปท็อป 49 เครื่องไปยังเมืองชายแดนจีน-เกาหลีเหนือ

    บริษัทที่ถูกหลอกรวมถึงเครือข่ายโทรทัศน์รายใหญ่, บริษัทเทคโนโลยีใน Silicon Valley, ผู้ผลิตรถยนต์และอากาศยาน
    มีความพยายามเข้าถึงหน่วยงานรัฐบาลสหรัฐฯ 2 แห่ง แต่ถูกสกัดไว้ได้
    บางบริษัทถูกขบวนการนี้ “เลือกเป้าหมาย” โดยเฉพาะ

    รายได้จากงานไอทีถูกส่งกลับไปยังเกาหลีเหนือผ่านการฟอกเงิน
    Chapman รับเงินเดือนแทน, ปลอมลายเซ็น, ฝากเช็ค และโอนเงินไปต่างประเทศ
    รายได้ถูกแจ้งเท็จต่อ IRS และ Social Security

    FBI และ IRS เป็นผู้สืบสวนหลักในคดีนี้
    ยึดแล็ปท็อปกว่า 90 เครื่องจากบ้านของ Chapman
    ถือเป็นหนึ่งในคดีใหญ่ที่สุดที่เกี่ยวข้องกับการหลอกลวงงานไอทีของเกาหลีเหนือ

    รัฐบาลสหรัฐฯ ออกคำแนะนำใหม่สำหรับบริษัทในการตรวจสอบพนักงานระยะไกล
    ตรวจสอบเอกสารตัวตน, ประวัติการศึกษาและการทำงาน
    ใช้วิดีโอสัมภาษณ์แบบเปิดกล้องและตรวจสอบภาพพื้นหลัง

    บริษัทที่ไม่ตรวจสอบพนักงานระยะไกลอย่างเข้มงวดเสี่ยงต่อการถูกแทรกซึม
    อาจถูกขโมยข้อมูล, ติดมัลแวร์ หรือถูกใช้เป็นช่องทางฟอกเงิน
    การใช้บริษัทจัดหางานภายนอกเพิ่มความเสี่ยง

    การใช้ตัวตนปลอมสร้างภาระให้กับพลเมืองสหรัฐฯ ที่ถูกขโมยข้อมูล
    เกิดภาระภาษีเท็จและข้อมูลผิดพลาดในระบบราชการ
    สร้างความเสียหายทางจิตใจและการเงินแก่ผู้ถูกแอบอ้าง

    รายได้จากงานไอทีถูกนำไปใช้สนับสนุนโครงการอาวุธของเกาหลีเหนือ
    เป็นการละเมิดมาตรการคว่ำบาตรของสหรัฐฯ และสหประชาชาติ
    ส่งผลต่อความมั่นคงระดับโลก

    การใช้ AI และเทคโนโลยีใหม่เพิ่มความซับซ้อนในการปลอมตัว
    มีการใช้ AI เปลี่ยนภาพเอกสาร, ปรับเสียง และสร้างวิดีโอปลอม
    ทำให้การตรวจสอบตัวตนยากขึ้นสำหรับบริษัททั่วไป

    https://hackread.com/arizona-woman-jailed-help-north-korea-it-job-scam/
    🧑‍💻 เรื่องเล่าจากโลกไซเบอร์: เมื่อ “งานไอที” กลายเป็นช่องทางส่งเงินให้โครงการนิวเคลียร์เกาหลีเหนือ ลองจินตนาการว่าคุณเป็นบริษัทเทคโนโลยีในสหรัฐฯ ที่จ้างพนักงานไอทีทำงานจากระยะไกล โดยเชื่อว่าเขาเป็นพลเมืองอเมริกัน แต่จริงๆ แล้ว เขาคือเจ้าหน้าที่จากเกาหลีเหนือที่ใช้ตัวตนปลอม และเงินเดือนที่คุณจ่ายไปนั้นถูกส่งตรงไปยังรัฐบาลเปียงยางเพื่อใช้ในโครงการอาวุธนิวเคลียร์! นี่คือสิ่งที่เกิดขึ้นจริงในคดีของ Christina Marie Chapman หญิงวัย 50 ปีจากรัฐแอริโซนา ที่ถูกตัดสินจำคุก 8.5 ปีในเดือนกรกฎาคม 2025 จากการช่วยเหลือเจ้าหน้าที่ไอทีของเกาหลีเหนือให้ได้งานในบริษัทสหรัฐฯ กว่า 309 แห่ง รวมถึงบริษัทระดับ Fortune 500 โดยใช้เทคนิคที่เรียกว่า “ฟาร์มแล็ปท็อป” เพื่อหลอกให้บริษัทเชื่อว่าพนักงานเหล่านั้นทำงานจากในประเทศ ✅ Christina Chapman ถูกตัดสินจำคุก 102 เดือน ฐานช่วยเหลือขบวนการหลอกลวงงานไอทีให้เกาหลีเหนือ ➡️ รับโทษจำคุก 8.5 ปี พร้อมถูกควบคุมหลังพ้นโทษอีก 3 ปี ➡️ ต้องยึดทรัพย์ $284,555.92 และจ่ายค่าปรับ $176,850 ✅ ขบวนการนี้สร้างรายได้ให้เกาหลีเหนือกว่า $17.1 ล้าน ➡️ ใช้ตัวตนปลอมของชาวอเมริกัน 68 คน ➡️ ส่งข้อมูลเท็จไปยังหน่วยงานรัฐกว่า 100 ครั้ง ✅ Chapman ดำเนินการ “ฟาร์มแล็ปท็อป” ที่บ้านของเธอ ➡️ รับเครื่องจากบริษัทสหรัฐฯ แล้วให้เจ้าหน้าที่เกาหลีเหนือเข้าระบบจากต่างประเทศ ➡️ ส่งแล็ปท็อป 49 เครื่องไปยังเมืองชายแดนจีน-เกาหลีเหนือ ✅ บริษัทที่ถูกหลอกรวมถึงเครือข่ายโทรทัศน์รายใหญ่, บริษัทเทคโนโลยีใน Silicon Valley, ผู้ผลิตรถยนต์และอากาศยาน ➡️ มีความพยายามเข้าถึงหน่วยงานรัฐบาลสหรัฐฯ 2 แห่ง แต่ถูกสกัดไว้ได้ ➡️ บางบริษัทถูกขบวนการนี้ “เลือกเป้าหมาย” โดยเฉพาะ ✅ รายได้จากงานไอทีถูกส่งกลับไปยังเกาหลีเหนือผ่านการฟอกเงิน ➡️ Chapman รับเงินเดือนแทน, ปลอมลายเซ็น, ฝากเช็ค และโอนเงินไปต่างประเทศ ➡️ รายได้ถูกแจ้งเท็จต่อ IRS และ Social Security ✅ FBI และ IRS เป็นผู้สืบสวนหลักในคดีนี้ ➡️ ยึดแล็ปท็อปกว่า 90 เครื่องจากบ้านของ Chapman ➡️ ถือเป็นหนึ่งในคดีใหญ่ที่สุดที่เกี่ยวข้องกับการหลอกลวงงานไอทีของเกาหลีเหนือ ✅ รัฐบาลสหรัฐฯ ออกคำแนะนำใหม่สำหรับบริษัทในการตรวจสอบพนักงานระยะไกล ➡️ ตรวจสอบเอกสารตัวตน, ประวัติการศึกษาและการทำงาน ➡️ ใช้วิดีโอสัมภาษณ์แบบเปิดกล้องและตรวจสอบภาพพื้นหลัง ‼️ บริษัทที่ไม่ตรวจสอบพนักงานระยะไกลอย่างเข้มงวดเสี่ยงต่อการถูกแทรกซึม ⛔ อาจถูกขโมยข้อมูล, ติดมัลแวร์ หรือถูกใช้เป็นช่องทางฟอกเงิน ⛔ การใช้บริษัทจัดหางานภายนอกเพิ่มความเสี่ยง ‼️ การใช้ตัวตนปลอมสร้างภาระให้กับพลเมืองสหรัฐฯ ที่ถูกขโมยข้อมูล ⛔ เกิดภาระภาษีเท็จและข้อมูลผิดพลาดในระบบราชการ ⛔ สร้างความเสียหายทางจิตใจและการเงินแก่ผู้ถูกแอบอ้าง ‼️ รายได้จากงานไอทีถูกนำไปใช้สนับสนุนโครงการอาวุธของเกาหลีเหนือ ⛔ เป็นการละเมิดมาตรการคว่ำบาตรของสหรัฐฯ และสหประชาชาติ ⛔ ส่งผลต่อความมั่นคงระดับโลก ‼️ การใช้ AI และเทคโนโลยีใหม่เพิ่มความซับซ้อนในการปลอมตัว ⛔ มีการใช้ AI เปลี่ยนภาพเอกสาร, ปรับเสียง และสร้างวิดีโอปลอม ⛔ ทำให้การตรวจสอบตัวตนยากขึ้นสำหรับบริษัททั่วไป https://hackread.com/arizona-woman-jailed-help-north-korea-it-job-scam/
    HACKREAD.COM
    Arizona Woman Jailed for Helping North Korea in $17M IT Job Scam
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 132 Views 0 Reviews
  • บางทีคลิปจาก Property Expert Live แม่งก็โผล่มาบ่อยเหลือเกิน แต่ดีที่เลิกตามมันละ เพราะแม่งก๊วนเดียวกับ อ.โสภณ พรโชคชัย พ่อของอีลูกสาวที่ขึ้นรถไฟฟ้าที่ญี่ปุ่นฟรี ส่วน Bitkub แม่งไม่ต่างเหี้ยไรจากลอตเตอรี่พลัสของไอ้เหี้ยน็อตเลยว่ะ ไอ้เหี้ยท็อป ไอ้เหี้ยน็อต มาประจบกันเมื่อไหร่ บรรลัยไส้พุงแน่ทีนี้
    บางทีคลิปจาก Property Expert Live แม่งก็โผล่มาบ่อยเหลือเกิน แต่ดีที่เลิกตามมันละ เพราะแม่งก๊วนเดียวกับ อ.โสภณ พรโชคชัย พ่อของอีลูกสาวที่ขึ้นรถไฟฟ้าที่ญี่ปุ่นฟรี ส่วน Bitkub แม่งไม่ต่างเหี้ยไรจากลอตเตอรี่พลัสของไอ้เหี้ยน็อตเลยว่ะ ไอ้เหี้ยท็อป ไอ้เหี้ยน็อต มาประจบกันเมื่อไหร่ บรรลัยไส้พุงแน่ทีนี้
    0 Comments 0 Shares 49 Views 0 Reviews
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 Comments 0 Shares 191 Views 0 Reviews
  • เรื่องเล่าจากเมนบอร์ดไซส์เล็ก: เมื่อ “Strix Halo” มาอยู่ในร่างบางพร้อม RAM 128GB

    Sixunited เปิดตัวเมนบอร์ดรหัส STHT1 ที่ใช้ซีพียู Strix Halo (Ryzen AI Max) ซึ่งเป็นรุ่นเดสก์ท็อปที่ใช้สถาปัตยกรรม Zen 5 และกราฟิก RDNA 3.5 โดยซีพียูมีให้เลือกตั้งแต่ 8 ถึง 16 คอร์ ส่วนกราฟิก Radeon 8060S มีถึง 40 compute units — เทียบเท่ากับ GPU แบบแยกระดับกลาง

    เมนบอร์ดนี้ยังจัดเต็มแรม LPDDR5X ขนาด 128GB แบบ on-board (ฝังไว้) โดยใช้ชิป 16GB × 8 ตัว ล้อมรอบซีพียู ซึ่งแม้จะไม่สามารถอัปเกรดได้ แต่ก็เพียงพอสำหรับงาน AI inference, training เบื้องต้น หรือการสร้าง content ที่กิน RAM มาก

    จุดเด่นอีกอย่างคือขนาด “thin Mini-ITX” ขนาด 170×170 มม. แต่ความสูง (z-height) ต่ำมาก เหมาะกับเคสบาง หรือ AIO ที่ต้องการประหยัดพื้นที่

    เมนบอร์ด STHT1 จาก Sixunited ใช้ AMD Ryzen AI Max 300-series “Strix Halo”
    ซีพียู Zen 5 พร้อมกราฟิก RDNA 3.5 สูงสุด 16 คอร์ และ 40 CU

    แรม LPDDR5X ขนาด 128GB ติดตั้งแบบฝังบนบอร์ด
    ใช้ชิป 16GB × 8 ตัว ล้อมรอบตัวซีพียู

    ใช้ฟอร์มแฟกเตอร์ thin Mini-ITX ขนาด 170×170 มม. แต่บางกว่าปกติ
    เหมาะสำหรับเคส AIO และ SFF ที่มีพื้นที่จำกัด

    รองรับการติดตั้ง SSD M.2 แบบ PCIe 4.0 ได้ 2 ตัว
    สำหรับ M.2 2280 และมีสล็อต M.2 เพิ่มสำหรับโมดูล Wi-Fi (2230)

    มีพอร์ต HDMI 2.1 ×2 และ VGA ที่สามารถปรับเป็น DisplayPort หรือ COM ได้
    รองรับการต่อจอหลายแบบตามความต้องการ

    มีพอร์ต USB 3.2 Gen 2 ×2 และ USB 2.0 ×2 พร้อม header เพิ่มขยาย
    รองรับการต่ออุปกรณ์เสริม

    ใช้ไฟผ่านพอร์ต DC IN ขนาด 19V สำหรับการจ่ายพลังงานตรง
    รองรับซีพียูที่มีค่า cTDP ตั้งแต่ 45–120W ได้สบาย

    https://www.tomshardware.com/pc-components/motherboards/amd-strix-halo-mini-itx-motherboard-flaunts-128gb-lpddr5x-add-a-cpu-cooler-boot-drive-and-power-supply-for-a-slim-gaming-or-ai-rig
    🎙️ เรื่องเล่าจากเมนบอร์ดไซส์เล็ก: เมื่อ “Strix Halo” มาอยู่ในร่างบางพร้อม RAM 128GB Sixunited เปิดตัวเมนบอร์ดรหัส STHT1 ที่ใช้ซีพียู Strix Halo (Ryzen AI Max) ซึ่งเป็นรุ่นเดสก์ท็อปที่ใช้สถาปัตยกรรม Zen 5 และกราฟิก RDNA 3.5 โดยซีพียูมีให้เลือกตั้งแต่ 8 ถึง 16 คอร์ ส่วนกราฟิก Radeon 8060S มีถึง 40 compute units — เทียบเท่ากับ GPU แบบแยกระดับกลาง เมนบอร์ดนี้ยังจัดเต็มแรม LPDDR5X ขนาด 128GB แบบ on-board (ฝังไว้) โดยใช้ชิป 16GB × 8 ตัว ล้อมรอบซีพียู ซึ่งแม้จะไม่สามารถอัปเกรดได้ แต่ก็เพียงพอสำหรับงาน AI inference, training เบื้องต้น หรือการสร้าง content ที่กิน RAM มาก จุดเด่นอีกอย่างคือขนาด “thin Mini-ITX” ขนาด 170×170 มม. แต่ความสูง (z-height) ต่ำมาก เหมาะกับเคสบาง หรือ AIO ที่ต้องการประหยัดพื้นที่ ✅ เมนบอร์ด STHT1 จาก Sixunited ใช้ AMD Ryzen AI Max 300-series “Strix Halo” ➡️ ซีพียู Zen 5 พร้อมกราฟิก RDNA 3.5 สูงสุด 16 คอร์ และ 40 CU ✅ แรม LPDDR5X ขนาด 128GB ติดตั้งแบบฝังบนบอร์ด ➡️ ใช้ชิป 16GB × 8 ตัว ล้อมรอบตัวซีพียู ✅ ใช้ฟอร์มแฟกเตอร์ thin Mini-ITX ขนาด 170×170 มม. แต่บางกว่าปกติ ➡️ เหมาะสำหรับเคส AIO และ SFF ที่มีพื้นที่จำกัด ✅ รองรับการติดตั้ง SSD M.2 แบบ PCIe 4.0 ได้ 2 ตัว ➡️ สำหรับ M.2 2280 และมีสล็อต M.2 เพิ่มสำหรับโมดูล Wi-Fi (2230) ✅ มีพอร์ต HDMI 2.1 ×2 และ VGA ที่สามารถปรับเป็น DisplayPort หรือ COM ได้ ➡️ รองรับการต่อจอหลายแบบตามความต้องการ ✅ มีพอร์ต USB 3.2 Gen 2 ×2 และ USB 2.0 ×2 พร้อม header เพิ่มขยาย ➡️ รองรับการต่ออุปกรณ์เสริม ✅ ใช้ไฟผ่านพอร์ต DC IN ขนาด 19V สำหรับการจ่ายพลังงานตรง ➡️ รองรับซีพียูที่มีค่า cTDP ตั้งแต่ 45–120W ได้สบาย https://www.tomshardware.com/pc-components/motherboards/amd-strix-halo-mini-itx-motherboard-flaunts-128gb-lpddr5x-add-a-cpu-cooler-boot-drive-and-power-supply-for-a-slim-gaming-or-ai-rig
    0 Comments 0 Shares 158 Views 0 Reviews
  • เรื่องเล่าจากเดสก์ท็อปที่แรงกว่าเซิร์ฟเวอร์: เมื่อซูเปอร์ชิป AI มาอยู่ในเครื่องธรรมดา

    ก่อนหน้านี้ Nvidia GB300 Grace Blackwell Ultra ถูกใช้เฉพาะใน DGX Station สำหรับองค์กรขนาดใหญ่ แต่ตอนนี้ Asus, Lambda และ OEM รายอื่นเริ่มนำชิปนี้มาใช้ในเวิร์กสเตชันทั่วไป — เพื่อให้ผู้ใช้งาน AI ระดับมืออาชีพเข้าถึงพลังประมวลผลแบบไม่ต้องพึ่งคลาวด์

    ExpertCenter Pro ET900N G3 มีจุดเด่นคือ:
    - ใช้ CPU Grace (ARM-based) + GPU Blackwell Ultra
    - หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB
    - Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับงาน AI
    - พลังประมวลผลสูงถึง 20 PFLOPS
    - รองรับ DGX OS และ ConnectX-8 SuperNIC (800 Gb/s)

    นอกจากนี้ยังมีความสามารถในการขยาย:
    - PCIe x16 จำนวน 3 ช่องสำหรับ GPU เพิ่มเติม
    - M.2 SSD 3 ช่อง
    - ระบบจ่ายไฟสูงสุด 1,800W สำหรับ GPU

    แม้หน้าตาจะดูเรียบง่าย แต่ประสิทธิภาพเทียบได้กับเซิร์ฟเวอร์ระดับ rack ที่ใช้ในศูนย์ข้อมูล AI ขนาดใหญ่

    Asus เปิดตัว ExpertCenter Pro ET900N G3 ใช้ชิป Nvidia GB300 Grace Blackwell Ultra
    เป็นเวิร์กสเตชันเดสก์ท็อปที่มีพลังประมวลผลสูงถึง 20 PFLOPS

    ใช้หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB
    รองรับงาน AI ขนาดใหญ่ เช่นการเทรนโมเดลและ inference

    ใช้ CPU Grace (ARM-based) ร่วมกับ GPU Blackwell Ultra
    เป็นแพลตฟอร์มเดียวกับ DGX Station ที่เปิดตัวใน GTC 2025

    รองรับ DGX OS และ ConnectX-8 SuperNIC ความเร็ว 800 Gb/s
    เหมาะสำหรับงานที่ต้องการการเชื่อมต่อความเร็วสูง

    มีช่อง PCIe x16 จำนวน 3 ช่อง และ M.2 SSD 3 ช่อง
    รองรับการขยาย GPU และพื้นที่จัดเก็บข้อมูล

    ระบบจ่ายไฟรองรับสูงสุด 1,800W สำหรับ GPU
    ใช้หัวต่อ 12V-2×6 แบบใหม่ที่รองรับการ์ดระดับสูง

    Nvidia ร่วมมือกับ OEM เช่น Asus, Dell, Lambda เพื่อขยายตลาด AI workstation
    ไม่จำกัดเฉพาะ DGX อีกต่อไป

    Dell เริ่มใช้ GB300 NVL72 ในศูนย์ข้อมูล CoreWeave แล้ว
    ให้พลัง FP4 inference สูงถึง 1.1 exaFLOPS ต่อ rack

    https://www.tomshardware.com/pc-components/gpus/asus-brings-nvidias-gb300-blackwell-ultra-desktop-superchip-to-workstations-features-up-to-784gb-of-coherent-memory-20-pflops-ai-performance
    🎙️ เรื่องเล่าจากเดสก์ท็อปที่แรงกว่าเซิร์ฟเวอร์: เมื่อซูเปอร์ชิป AI มาอยู่ในเครื่องธรรมดา ก่อนหน้านี้ Nvidia GB300 Grace Blackwell Ultra ถูกใช้เฉพาะใน DGX Station สำหรับองค์กรขนาดใหญ่ แต่ตอนนี้ Asus, Lambda และ OEM รายอื่นเริ่มนำชิปนี้มาใช้ในเวิร์กสเตชันทั่วไป — เพื่อให้ผู้ใช้งาน AI ระดับมืออาชีพเข้าถึงพลังประมวลผลแบบไม่ต้องพึ่งคลาวด์ ExpertCenter Pro ET900N G3 มีจุดเด่นคือ: - ใช้ CPU Grace (ARM-based) + GPU Blackwell Ultra - หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB - Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับงาน AI - พลังประมวลผลสูงถึง 20 PFLOPS - รองรับ DGX OS และ ConnectX-8 SuperNIC (800 Gb/s) นอกจากนี้ยังมีความสามารถในการขยาย: - PCIe x16 จำนวน 3 ช่องสำหรับ GPU เพิ่มเติม - M.2 SSD 3 ช่อง - ระบบจ่ายไฟสูงสุด 1,800W สำหรับ GPU แม้หน้าตาจะดูเรียบง่าย แต่ประสิทธิภาพเทียบได้กับเซิร์ฟเวอร์ระดับ rack ที่ใช้ในศูนย์ข้อมูล AI ขนาดใหญ่ ✅ Asus เปิดตัว ExpertCenter Pro ET900N G3 ใช้ชิป Nvidia GB300 Grace Blackwell Ultra ➡️ เป็นเวิร์กสเตชันเดสก์ท็อปที่มีพลังประมวลผลสูงถึง 20 PFLOPS ✅ ใช้หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB ➡️ รองรับงาน AI ขนาดใหญ่ เช่นการเทรนโมเดลและ inference ✅ ใช้ CPU Grace (ARM-based) ร่วมกับ GPU Blackwell Ultra ➡️ เป็นแพลตฟอร์มเดียวกับ DGX Station ที่เปิดตัวใน GTC 2025 ✅ รองรับ DGX OS และ ConnectX-8 SuperNIC ความเร็ว 800 Gb/s ➡️ เหมาะสำหรับงานที่ต้องการการเชื่อมต่อความเร็วสูง ✅ มีช่อง PCIe x16 จำนวน 3 ช่อง และ M.2 SSD 3 ช่อง ➡️ รองรับการขยาย GPU และพื้นที่จัดเก็บข้อมูล ✅ ระบบจ่ายไฟรองรับสูงสุด 1,800W สำหรับ GPU ➡️ ใช้หัวต่อ 12V-2×6 แบบใหม่ที่รองรับการ์ดระดับสูง ✅ Nvidia ร่วมมือกับ OEM เช่น Asus, Dell, Lambda เพื่อขยายตลาด AI workstation ➡️ ไม่จำกัดเฉพาะ DGX อีกต่อไป ✅ Dell เริ่มใช้ GB300 NVL72 ในศูนย์ข้อมูล CoreWeave แล้ว ➡️ ให้พลัง FP4 inference สูงถึง 1.1 exaFLOPS ต่อ rack https://www.tomshardware.com/pc-components/gpus/asus-brings-nvidias-gb300-blackwell-ultra-desktop-superchip-to-workstations-features-up-to-784gb-of-coherent-memory-20-pflops-ai-performance
    0 Comments 0 Shares 159 Views 0 Reviews
  • 2/
    เทคโนโลยีโดรนก้าวหน้าไปอีกขั้น

    วิดีโอ 1 - ในประเทศจีนสามารถสร้างโดรนที่สามารถบินได้ในทุกสภาพภูมิประเทศทั้งผิวน้ำ ใต้น้ำ บินในอากาศ และบนบกได้

    วิดีโอ 2 - อันเดรย์ โคปาซี (Andrei Copaci) นักศึกษาระดับปริญญาโทจากมหาวิทยาลัยอัลบอร์ก ประเทศเดนมาร์ก ได้สร้างโดรนไฮบริดที่สามารถบินได้ทั้งใต้น้ำและบนอากาศ โคปาซีใช้เพียงแค่คอมพิวเตอร์แล็ปท็อปในการเขียนโค้ดคำสั่ง ร่วมกับเครื่องพิมพ์ 3 มิติ เขาทำงานร่วมกับศาสตราจารย์เปตาร์ ดูร์เดวิช (Petar Durdevic) อาจารย์ที่ปรึกษา โดยกล่าวว่าแบบของโดรนจะถูกเปิดเผยต่อสาธารณะหลังจากรายละเอียดในขั้นตอนสุดท้ายบางส่วนเสร็จสิ้นแล้ว
    2/ เทคโนโลยีโดรนก้าวหน้าไปอีกขั้น วิดีโอ 1 - ในประเทศจีนสามารถสร้างโดรนที่สามารถบินได้ในทุกสภาพภูมิประเทศทั้งผิวน้ำ ใต้น้ำ บินในอากาศ และบนบกได้ วิดีโอ 2 - อันเดรย์ โคปาซี (Andrei Copaci) นักศึกษาระดับปริญญาโทจากมหาวิทยาลัยอัลบอร์ก ประเทศเดนมาร์ก ได้สร้างโดรนไฮบริดที่สามารถบินได้ทั้งใต้น้ำและบนอากาศ โคปาซีใช้เพียงแค่คอมพิวเตอร์แล็ปท็อปในการเขียนโค้ดคำสั่ง ร่วมกับเครื่องพิมพ์ 3 มิติ เขาทำงานร่วมกับศาสตราจารย์เปตาร์ ดูร์เดวิช (Petar Durdevic) อาจารย์ที่ปรึกษา โดยกล่าวว่าแบบของโดรนจะถูกเปิดเผยต่อสาธารณะหลังจากรายละเอียดในขั้นตอนสุดท้ายบางส่วนเสร็จสิ้นแล้ว
    0 Comments 0 Shares 190 Views 0 0 Reviews
  • 1/
    เทคโนโลยีโดรนก้าวหน้าไปอีกขั้น

    วิดีโอ 1 - ในประเทศจีนสามารถสร้างโดรนที่สามารถบินได้ในทุกสภาพภูมิประเทศทั้งผิวน้ำ ใต้น้ำ บินในอากาศ และบนบกได้

    วิดีโอ 2 - อันเดรย์ โคปาซี (Andrei Copaci) นักศึกษาระดับปริญญาโทจากมหาวิทยาลัยอัลบอร์ก ประเทศเดนมาร์ก ได้สร้างโดรนไฮบริดที่สามารถบินได้ทั้งใต้น้ำและบนอากาศ โคปาซีใช้เพียงแค่คอมพิวเตอร์แล็ปท็อปในการเขียนโค้ดคำสั่ง ร่วมกับเครื่องพิมพ์ 3 มิติ เขาทำงานร่วมกับศาสตราจารย์เปตาร์ ดูร์เดวิช (Petar Durdevic) อาจารย์ที่ปรึกษา โดยกล่าวว่าแบบของโดรนจะถูกเปิดเผยต่อสาธารณะหลังจากรายละเอียดในขั้นตอนสุดท้ายบางส่วนเสร็จสิ้นแล้ว
    1/ เทคโนโลยีโดรนก้าวหน้าไปอีกขั้น วิดีโอ 1 - ในประเทศจีนสามารถสร้างโดรนที่สามารถบินได้ในทุกสภาพภูมิประเทศทั้งผิวน้ำ ใต้น้ำ บินในอากาศ และบนบกได้ วิดีโอ 2 - อันเดรย์ โคปาซี (Andrei Copaci) นักศึกษาระดับปริญญาโทจากมหาวิทยาลัยอัลบอร์ก ประเทศเดนมาร์ก ได้สร้างโดรนไฮบริดที่สามารถบินได้ทั้งใต้น้ำและบนอากาศ โคปาซีใช้เพียงแค่คอมพิวเตอร์แล็ปท็อปในการเขียนโค้ดคำสั่ง ร่วมกับเครื่องพิมพ์ 3 มิติ เขาทำงานร่วมกับศาสตราจารย์เปตาร์ ดูร์เดวิช (Petar Durdevic) อาจารย์ที่ปรึกษา โดยกล่าวว่าแบบของโดรนจะถูกเปิดเผยต่อสาธารณะหลังจากรายละเอียดในขั้นตอนสุดท้ายบางส่วนเสร็จสิ้นแล้ว
    0 Comments 0 Shares 180 Views 0 0 Reviews
  • เรื่องเล่าจากโลกเกมพกพา: Razer เปิดตัวอุปกรณ์ Thunderbolt 5 เพื่อเกมเมอร์สายโน้ตบุ๊ก

    หลังจาก Thunderbolt 5 เปิดตัวปลายปี 2024 หลายแบรนด์เริ่มนำมาใช้กับอุปกรณ์เสริมกราฟิก ล่าสุด Razer เปิดตัวสองผลิตภัณฑ์ใหม่ ได้แก่:

    1. Razer Thunderbolt 5 Dock – ด็อกกิ้งสเตชันที่รองรับการชาร์จเร็ว, จอภาพหลายจอความละเอียดสูง และการเชื่อมต่อครบครัน 2. Razer Core X V2 (รุ่นปี 2025) – กล่อง eGPU สำหรับใส่การ์ดจอเดสก์ท็อป Nvidia หรือ AMD เพื่อใช้งานกับโน้ตบุ๊กหรือเครื่องเกมพกพา

    Thunderbolt 5 รองรับแบนด์วิดท์สูงถึง 120 Gbps (upstream) และ 80 Gbps (bidirectional) ซึ่งช่วยลดปัญหาคอขวดที่เคยเกิดกับ Thunderbolt 4 หรือ OCuLink โดยเฉพาะเมื่อใช้ GPU ระดับสูงอย่าง RTX 4090

    อุปกรณ์เหล่านี้เหมาะสำหรับผู้ใช้ที่ต้องการประสิทธิภาพกราฟิกระดับเดสก์ท็อปแต่ยังคงความคล่องตัวของโน้ตบุ๊กหรือเครื่องพกพา

    Razer เปิดตัว Thunderbolt 5 Dock ราคาเริ่มต้น $389.99
    รองรับการชาร์จสูงสุด 140W, จอ 4K 3 จอที่ 144Hz, และ SSD M.2 สูงสุด 8TB

    มีพอร์ต Thunderbolt 5 downstream 3 ช่อง และ upstream 1 ช่อง
    รองรับ DisplayPort 2.1 และ USB 3.2 ความเร็ว 10Gbps

    มี SD card slot, Gigabit Ethernet, และช่องหูฟัง 7.1 surround
    ครบครันสำหรับงานกราฟิกและเกม

    Razer Core X V2 รุ่นปี 2025 รองรับการ์ดจอสูงสุด 4 สล็อต
    ใช้กับ Thunderbolt 5, Thunderbolt 4 หรือ USB4 ได้

    Thunderbolt 5 มีแบนด์วิดท์สูงกว่า OCuLink และ Thunderbolt 4
    ลดการสูญเสียประสิทธิภาพของ GPU ได้มากถึง 23% ในบางกรณี

    Asus และ Gigabyte เปิดตัว eGPU ที่ใช้ Thunderbolt 5 ไปก่อนหน้านี้
    เช่น RTX 5090 แบบพกพา และรุ่น water-cooled สำหรับเดสก์ท็อป

    https://www.techspot.com/news/108696-razer-introduces-new-thunderbolt-5-dock-egpu-enclosure.html
    🎙️ เรื่องเล่าจากโลกเกมพกพา: Razer เปิดตัวอุปกรณ์ Thunderbolt 5 เพื่อเกมเมอร์สายโน้ตบุ๊ก หลังจาก Thunderbolt 5 เปิดตัวปลายปี 2024 หลายแบรนด์เริ่มนำมาใช้กับอุปกรณ์เสริมกราฟิก ล่าสุด Razer เปิดตัวสองผลิตภัณฑ์ใหม่ ได้แก่: 1. Razer Thunderbolt 5 Dock – ด็อกกิ้งสเตชันที่รองรับการชาร์จเร็ว, จอภาพหลายจอความละเอียดสูง และการเชื่อมต่อครบครัน 2. Razer Core X V2 (รุ่นปี 2025) – กล่อง eGPU สำหรับใส่การ์ดจอเดสก์ท็อป Nvidia หรือ AMD เพื่อใช้งานกับโน้ตบุ๊กหรือเครื่องเกมพกพา Thunderbolt 5 รองรับแบนด์วิดท์สูงถึง 120 Gbps (upstream) และ 80 Gbps (bidirectional) ซึ่งช่วยลดปัญหาคอขวดที่เคยเกิดกับ Thunderbolt 4 หรือ OCuLink โดยเฉพาะเมื่อใช้ GPU ระดับสูงอย่าง RTX 4090 อุปกรณ์เหล่านี้เหมาะสำหรับผู้ใช้ที่ต้องการประสิทธิภาพกราฟิกระดับเดสก์ท็อปแต่ยังคงความคล่องตัวของโน้ตบุ๊กหรือเครื่องพกพา ✅ Razer เปิดตัว Thunderbolt 5 Dock ราคาเริ่มต้น $389.99 ➡️ รองรับการชาร์จสูงสุด 140W, จอ 4K 3 จอที่ 144Hz, และ SSD M.2 สูงสุด 8TB ✅ มีพอร์ต Thunderbolt 5 downstream 3 ช่อง และ upstream 1 ช่อง ➡️ รองรับ DisplayPort 2.1 และ USB 3.2 ความเร็ว 10Gbps ✅ มี SD card slot, Gigabit Ethernet, และช่องหูฟัง 7.1 surround ➡️ ครบครันสำหรับงานกราฟิกและเกม ✅ Razer Core X V2 รุ่นปี 2025 รองรับการ์ดจอสูงสุด 4 สล็อต ➡️ ใช้กับ Thunderbolt 5, Thunderbolt 4 หรือ USB4 ได้ ✅ Thunderbolt 5 มีแบนด์วิดท์สูงกว่า OCuLink และ Thunderbolt 4 ➡️ ลดการสูญเสียประสิทธิภาพของ GPU ได้มากถึง 23% ในบางกรณี ✅ Asus และ Gigabyte เปิดตัว eGPU ที่ใช้ Thunderbolt 5 ไปก่อนหน้านี้ ➡️ เช่น RTX 5090 แบบพกพา และรุ่น water-cooled สำหรับเดสก์ท็อป https://www.techspot.com/news/108696-razer-introduces-new-thunderbolt-5-dock-egpu-enclosure.html
    WWW.TECHSPOT.COM
    Razer introduces new Thunderbolt 5 dock and eGPU enclosure
    Razer recently unveiled its first Thunderbolt 5-compatible docking station and external graphics card enclosure. These accessories provide laptops and handheld gaming PCs with ample bandwidth for fast...
    0 Comments 0 Shares 233 Views 0 Reviews
  • ..ประชาชนดีหรือคนดีๆในสังคมไทยเราจะมีลักษณะนี้เกือบทุกๆคน,ซื่อสัตย์สุจริตแสวงหาไม่ฆ่าไม่ปล้นใครทำลายใครเพื่อดูแลชีวิตคนข้างหลังก็มาก,วัยรุ่น นักเรียนนักศึกษายุคต่างๆน่าจะซึ้ง หลายคนหาตังเล่าเรียนเองบวกกู้หนี้ยืมสินเล่าเรียนเพื่อได้ทำงานดีๆ,แต่ระบบอุปถัมภ์ในไทยและใต้โต๊ะซื้อซีซื้อตำแหน่งเด็กเส้นเด็กฝากเด็กมหาลัยกูมรึงรุ่นน้องใครมันรุ่นพี่ใครมรึงมากล้นเต็มระบบ,โอกาสคนอีก คลิปนี้บอกนัยยะอดีตผู้คนมากล้น อนาคตอาจกลับไปแบบนี้ทั้งประเทศก็ได้ อาทิภัยพิบัติธรรมชาติเต็มประเทศ น้ำท่วน แผ่นดินไหว ตึกถล่ม ลาวาใต้ดินตามรอยเลื่อนปะทุขึ้นมา ภาคเหนือไหลลงภาคกลาง อีสานบนไหลลงอีสานกลางสู่ใต้และตลอดแนวริมโขง,อาหารข้าปลาเสียหาย มีตังมากมายก็หาซื้อลำบากไม่ได้,ขาดแคลนไม่หมด ยิ่งน้ำสะอาดหลังภัยพิบัติอีกหรือขณะเจอแบบน้ำท่วม,ใครขุดอุโมงค์ใต้ดินก็ใช่จะรอด แผ่นดินไหวอาจบีดทำลายทางออกตายคาอุโมงค์ก็ได้ ระบบหายใจเสียหายขาดออกซิเจนไฟฟ้าไม่ทำงานแม้มีเครื่องช่วยหายใจก็ไม่รอดออกมาข้างบนไม่ได้ติดอุโมงค์นั้นล่ะ,แบบอุโมงค์รถไไฟ้าใต้ดินก็ด้วย,ปลอดภัยที่สุดอยู่ผิวดินถ้าไม่มีสงครามWWW3นิวเคลียร์นะ อาหารยิ่งอดอยากขาดแคลน1,000เท่า,ไม่รวมซอมบี้กลายพันธุ์จากวัคซีนโควิดอีก,วิกฤติยุโรปพังจากเจ้าสัวยุโรปเครือข่ายแม่ลูกมันก็โดนถึงเอเชียอาเชียนแล้ว,ตลาดการเงินพังแบบทรัมป์พังไม่มีตังจ่ายหนี้จึงรีดภาษีนำเข้าทั่วโลกไปจ่ายหนี้,
    ..จะต่างชาติแรงงานต่างด้าวหรือแรงงานไทย ทุกๆคนชาวบ้านไทบ้านที่ยากจนจะไม่มาค้าแรงงานเป็นทาสรับใช้ใครหรอก,เพราะโลกนี้ถูกออกแบบมาอย่างคนชั่วเลวต้องการปกครอง คนดีคนซื่อจะถูกทำให้มีสถานะแบบนี้หมด,เช่น มีบ่อน้ำมันเต็มประเทศ ก็ไม่บริหารจัดการทรัพยากรน้ำมันให้คนไทยร่ำรวยถ้วนหน้า พัฒนาคนพัฒนาทรัพยากรชาติมุ่งความสุขแก่คนในชาติตนแต่รัฐฐะในอดีตเลวชั่วกลับมุ่งประโยชน์มุ่งความสุขให้คนชาติอื่นแทนชาติไทยตนเอง,ทรัพยากรแบบน้ำมันแค่ขุดเจาะเอง ตั้งบริษัทใหม่รับผิดชอบแทน ปตท. ตั้งกระทรวงใหม่พอขุดเจาะเองและรองรับที่โมฆะสัญญาใดๆที่ตกลงกับอีกฝ่าย มันสามารถคืนความยุติธรรมแต่คนไทยได้หมดล่ะ,แต่เพราะผู้นำเรากากกระจอกอ่อนแอเกินไป คนไทยจึงลำบากยากเย็นยากจนเพิ่มขึ้นตลอดเวลา,บัตรคนจนก็บอกสถานะได้แล้วว่า คือบัตรคนจน และไม่ช่วยเหลืออะไรจริงห่าเหวเขาให้หยัดยืนพึ่งพาตนเองได้,ปล่อยวงเงินยืมแก่คนจนถือบัตรคนจนก็มีมั้ยให้เขานำไปประกอบอาชีพได้ เงินลงทุนปลูกผักสวนครัวขาย กัญชาเสรีส่งโรงพยาบาลเป็นต้น ไม่มีโครงการอะไรช่วยเหลือคนไทยจริงจังอะไรเลย,เลี้ยงพอกันตาย แต่มิให้เติบโตเพื่อปกครองง่าย,สไตล์วิถีปกครองที่เลวและล้มเหลว,ยุคนี้ ต้องวงเงินคนละ50,000บาทยืมได้เลยพร้อมในบัตร,กรอกวัตถุประสงค์การใช้ อนุมัติทันทีเขานำออกมาเตรียมวัตถุดิบอุปกรณ์ได้ค้าขายเลย,ปลูกพืชเลี้ยงสัตว์ผสมผสานพอเพียงก็ทำไป ขายของรถเข็ญก็ทำไป ซื้อผักผลไม้ทุเรียนขนุนมะพร้าวน้ำหอมผลไม้ปั่นชาไข่มุกก็ทำไป,จากนั้นอาจอัดวงเงินเพิ่มอีก10,000ฉุกเฉินให้เขายามจำเป็นได้,จากนั้นสามารถประเมอนผลงานได้ในอีก1-2ปีเสมือนวิจัยในตัว,แต่รัฐฐะกลับไม่ใส่ใจห่าอะไรเลย,จาก15ล้านคน คนละ10,000บาทก็ยังดีให้เขา ก็150,000ล้านบาทเอง,ทีจะช่วยเจ้าสัวนายทุนคนค้าส่วออกจากภาษีทรัมป์ยังจะช่วยพวกมันฟรีๆจากตังคลังหลวงชาติถึง200,000ล้านบาทเตรียมตังช่วยเหลือมันพะนะ,ตอนมันกำไรขึ้นท็อปเศรษฐี100อันดับแรก มันไม่เห็นส่งตังคืนเข้าคลังหลวงคืนประชาชนคนไทยจากภาษีที่จ่ายช่วยพวกมัน,ค่าล็อบบี้ยีสผีบ้านั้นอีกกว่า100ล้านบาทเสียไปฟรีๆนำมาช่วยปล่อยยืมให้คนถือบัตรคนจนอาจช่วยเหลือเขาได้หลายคนเลย,นี้คือการปกครองที่เป็นระบบปกครองที่พังและล้มเหลว.
    ..
    ..https://youtube.com/shorts/1Cr5nP5pkY0?si=GiMeKjXoH7vbhyUG
    ..ประชาชนดีหรือคนดีๆในสังคมไทยเราจะมีลักษณะนี้เกือบทุกๆคน,ซื่อสัตย์สุจริตแสวงหาไม่ฆ่าไม่ปล้นใครทำลายใครเพื่อดูแลชีวิตคนข้างหลังก็มาก,วัยรุ่น นักเรียนนักศึกษายุคต่างๆน่าจะซึ้ง หลายคนหาตังเล่าเรียนเองบวกกู้หนี้ยืมสินเล่าเรียนเพื่อได้ทำงานดีๆ,แต่ระบบอุปถัมภ์ในไทยและใต้โต๊ะซื้อซีซื้อตำแหน่งเด็กเส้นเด็กฝากเด็กมหาลัยกูมรึงรุ่นน้องใครมันรุ่นพี่ใครมรึงมากล้นเต็มระบบ,โอกาสคนอีก คลิปนี้บอกนัยยะอดีตผู้คนมากล้น อนาคตอาจกลับไปแบบนี้ทั้งประเทศก็ได้ อาทิภัยพิบัติธรรมชาติเต็มประเทศ น้ำท่วน แผ่นดินไหว ตึกถล่ม ลาวาใต้ดินตามรอยเลื่อนปะทุขึ้นมา ภาคเหนือไหลลงภาคกลาง อีสานบนไหลลงอีสานกลางสู่ใต้และตลอดแนวริมโขง,อาหารข้าปลาเสียหาย มีตังมากมายก็หาซื้อลำบากไม่ได้,ขาดแคลนไม่หมด ยิ่งน้ำสะอาดหลังภัยพิบัติอีกหรือขณะเจอแบบน้ำท่วม,ใครขุดอุโมงค์ใต้ดินก็ใช่จะรอด แผ่นดินไหวอาจบีดทำลายทางออกตายคาอุโมงค์ก็ได้ ระบบหายใจเสียหายขาดออกซิเจนไฟฟ้าไม่ทำงานแม้มีเครื่องช่วยหายใจก็ไม่รอดออกมาข้างบนไม่ได้ติดอุโมงค์นั้นล่ะ,แบบอุโมงค์รถไไฟ้าใต้ดินก็ด้วย,ปลอดภัยที่สุดอยู่ผิวดินถ้าไม่มีสงครามWWW3นิวเคลียร์นะ อาหารยิ่งอดอยากขาดแคลน1,000เท่า,ไม่รวมซอมบี้กลายพันธุ์จากวัคซีนโควิดอีก,วิกฤติยุโรปพังจากเจ้าสัวยุโรปเครือข่ายแม่ลูกมันก็โดนถึงเอเชียอาเชียนแล้ว,ตลาดการเงินพังแบบทรัมป์พังไม่มีตังจ่ายหนี้จึงรีดภาษีนำเข้าทั่วโลกไปจ่ายหนี้, ..จะต่างชาติแรงงานต่างด้าวหรือแรงงานไทย ทุกๆคนชาวบ้านไทบ้านที่ยากจนจะไม่มาค้าแรงงานเป็นทาสรับใช้ใครหรอก,เพราะโลกนี้ถูกออกแบบมาอย่างคนชั่วเลวต้องการปกครอง คนดีคนซื่อจะถูกทำให้มีสถานะแบบนี้หมด,เช่น มีบ่อน้ำมันเต็มประเทศ ก็ไม่บริหารจัดการทรัพยากรน้ำมันให้คนไทยร่ำรวยถ้วนหน้า พัฒนาคนพัฒนาทรัพยากรชาติมุ่งความสุขแก่คนในชาติตนแต่รัฐฐะในอดีตเลวชั่วกลับมุ่งประโยชน์มุ่งความสุขให้คนชาติอื่นแทนชาติไทยตนเอง,ทรัพยากรแบบน้ำมันแค่ขุดเจาะเอง ตั้งบริษัทใหม่รับผิดชอบแทน ปตท. ตั้งกระทรวงใหม่พอขุดเจาะเองและรองรับที่โมฆะสัญญาใดๆที่ตกลงกับอีกฝ่าย มันสามารถคืนความยุติธรรมแต่คนไทยได้หมดล่ะ,แต่เพราะผู้นำเรากากกระจอกอ่อนแอเกินไป คนไทยจึงลำบากยากเย็นยากจนเพิ่มขึ้นตลอดเวลา,บัตรคนจนก็บอกสถานะได้แล้วว่า คือบัตรคนจน และไม่ช่วยเหลืออะไรจริงห่าเหวเขาให้หยัดยืนพึ่งพาตนเองได้,ปล่อยวงเงินยืมแก่คนจนถือบัตรคนจนก็มีมั้ยให้เขานำไปประกอบอาชีพได้ เงินลงทุนปลูกผักสวนครัวขาย กัญชาเสรีส่งโรงพยาบาลเป็นต้น ไม่มีโครงการอะไรช่วยเหลือคนไทยจริงจังอะไรเลย,เลี้ยงพอกันตาย แต่มิให้เติบโตเพื่อปกครองง่าย,สไตล์วิถีปกครองที่เลวและล้มเหลว,ยุคนี้ ต้องวงเงินคนละ50,000บาทยืมได้เลยพร้อมในบัตร,กรอกวัตถุประสงค์การใช้ อนุมัติทันทีเขานำออกมาเตรียมวัตถุดิบอุปกรณ์ได้ค้าขายเลย,ปลูกพืชเลี้ยงสัตว์ผสมผสานพอเพียงก็ทำไป ขายของรถเข็ญก็ทำไป ซื้อผักผลไม้ทุเรียนขนุนมะพร้าวน้ำหอมผลไม้ปั่นชาไข่มุกก็ทำไป,จากนั้นอาจอัดวงเงินเพิ่มอีก10,000ฉุกเฉินให้เขายามจำเป็นได้,จากนั้นสามารถประเมอนผลงานได้ในอีก1-2ปีเสมือนวิจัยในตัว,แต่รัฐฐะกลับไม่ใส่ใจห่าอะไรเลย,จาก15ล้านคน คนละ10,000บาทก็ยังดีให้เขา ก็150,000ล้านบาทเอง,ทีจะช่วยเจ้าสัวนายทุนคนค้าส่วออกจากภาษีทรัมป์ยังจะช่วยพวกมันฟรีๆจากตังคลังหลวงชาติถึง200,000ล้านบาทเตรียมตังช่วยเหลือมันพะนะ,ตอนมันกำไรขึ้นท็อปเศรษฐี100อันดับแรก มันไม่เห็นส่งตังคืนเข้าคลังหลวงคืนประชาชนคนไทยจากภาษีที่จ่ายช่วยพวกมัน,ค่าล็อบบี้ยีสผีบ้านั้นอีกกว่า100ล้านบาทเสียไปฟรีๆนำมาช่วยปล่อยยืมให้คนถือบัตรคนจนอาจช่วยเหลือเขาได้หลายคนเลย,นี้คือการปกครองที่เป็นระบบปกครองที่พังและล้มเหลว. .. ..https://youtube.com/shorts/1Cr5nP5pkY0?si=GiMeKjXoH7vbhyUG
    0 Comments 0 Shares 491 Views 0 Reviews
  • Google รวม Chrome OS กับ Android – สร้างระบบเดียวที่ใช้ได้ทุกอุปกรณ์

    Google ยืนยันอย่างเป็นทางการแล้วว่า Chrome OS และ Android จะถูกรวมเข้าด้วยกันเป็นแพลตฟอร์มเดียว โดย Sameer Samat ประธานฝ่าย Android ecosystem ได้เปิดเผยแผนนี้ระหว่างการสัมภาษณ์กับ TechRadar ซึ่งถือเป็นครั้งแรกที่บริษัทพูดถึงเรื่องนี้อย่างเปิดเผย

    เป้าหมายของการรวมระบบคือ:
    - ลดความซับซ้อนในการพัฒนาแอปและฟีเจอร์ใหม่
    - สร้างประสบการณ์ผู้ใช้ที่ไร้รอยต่อระหว่างอุปกรณ์
    - แข่งขันกับระบบนิเวศของ Apple ที่เชื่อมโยงอุปกรณ์ได้แน่นหนา

    ก่อนหน้านี้ นักพัฒนาต้องปรับแต่งแอปให้ทำงานได้ทั้งบน Android และ Chrome OS แยกกัน ซึ่งใช้เวลามากและซับซ้อน แต่การรวมระบบจะช่วยให้การพัฒนาเร็วขึ้น และผู้ใช้ได้รับฟีเจอร์ใหม่พร้อมกันทุกอุปกรณ์

    Android เองก็มีการปรับปรุงให้รองรับหน้าจอขนาดใหญ่มากขึ้น เช่น การจัดการหน้าต่างที่ดีขึ้น และการปรับตัวของแอปให้เหมาะกับอุปกรณ์หลากหลาย

    แม้ยังไม่มีรายละเอียดเชิงเทคนิคหรือวันเปิดตัว แต่การประกาศนี้สะท้อนว่า Google กำลังมุ่งสู่การสร้าง “ระบบปฏิบัติการเดียวเพื่อทุกอุปกรณ์” อย่างจริงจัง

    ข้อมูลจากข่าว
    - Google ยืนยันว่าจะรวม Chrome OS เข้ากับ Android เป็นแพลตฟอร์มเดียว
    - Sameer Samat เปิดเผยแผนนี้ในการสัมภาษณ์กับ TechRadar
    - เป้าหมายคือสร้างระบบที่ทำงานได้ไร้รอยต่อบนโทรศัพท์ แล็ปท็อป และแท็บเล็ต
    - ลดความซับซ้อนในการพัฒนาแอปและฟีเจอร์ใหม่
    - Android มีการปรับปรุงให้รองรับหน้าจอใหญ่ เช่น window management และ app adaptability
    - การรวมระบบจะช่วยให้ผู้ใช้ได้รับฟีเจอร์ใหม่พร้อมกันทุกอุปกรณ์
    - เป็นการตอบโต้ ecosystem ของ Apple ที่เชื่อมโยงอุปกรณ์ได้แน่นหนา

    คำเตือนและข้อควรระวัง
    - ยังไม่มีรายละเอียดเชิงเทคนิคหรือวันเปิดตัวที่แน่ชัด
    - ผู้ใช้ Chromebook อาจกังวลเรื่องการอัปเดตและการเปลี่ยนแปลงระบบ
    - การรวมระบบอาจทำให้เกิดปัญหาความเข้ากันได้กับแอปหรืออุปกรณ์บางรุ่น
    - นักพัฒนาอาจต้องปรับตัวกับเครื่องมือใหม่และแนวทางการพัฒนาแบบรวม
    - หากการรวมระบบไม่ราบรื่น อาจกระทบต่อความเชื่อมั่นของผู้ใช้และนักพัฒนา

    https://wccftech.com/google-is-merging-chrome-os-with-android-to-create-one-seamless-platform-that-works-across-phones-laptops-and-tablets-say-goodbye-to-multiple-devices/
    Google รวม Chrome OS กับ Android – สร้างระบบเดียวที่ใช้ได้ทุกอุปกรณ์ Google ยืนยันอย่างเป็นทางการแล้วว่า Chrome OS และ Android จะถูกรวมเข้าด้วยกันเป็นแพลตฟอร์มเดียว โดย Sameer Samat ประธานฝ่าย Android ecosystem ได้เปิดเผยแผนนี้ระหว่างการสัมภาษณ์กับ TechRadar ซึ่งถือเป็นครั้งแรกที่บริษัทพูดถึงเรื่องนี้อย่างเปิดเผย เป้าหมายของการรวมระบบคือ: - ลดความซับซ้อนในการพัฒนาแอปและฟีเจอร์ใหม่ - สร้างประสบการณ์ผู้ใช้ที่ไร้รอยต่อระหว่างอุปกรณ์ - แข่งขันกับระบบนิเวศของ Apple ที่เชื่อมโยงอุปกรณ์ได้แน่นหนา ก่อนหน้านี้ นักพัฒนาต้องปรับแต่งแอปให้ทำงานได้ทั้งบน Android และ Chrome OS แยกกัน ซึ่งใช้เวลามากและซับซ้อน แต่การรวมระบบจะช่วยให้การพัฒนาเร็วขึ้น และผู้ใช้ได้รับฟีเจอร์ใหม่พร้อมกันทุกอุปกรณ์ Android เองก็มีการปรับปรุงให้รองรับหน้าจอขนาดใหญ่มากขึ้น เช่น การจัดการหน้าต่างที่ดีขึ้น และการปรับตัวของแอปให้เหมาะกับอุปกรณ์หลากหลาย แม้ยังไม่มีรายละเอียดเชิงเทคนิคหรือวันเปิดตัว แต่การประกาศนี้สะท้อนว่า Google กำลังมุ่งสู่การสร้าง “ระบบปฏิบัติการเดียวเพื่อทุกอุปกรณ์” อย่างจริงจัง ✅ ข้อมูลจากข่าว - Google ยืนยันว่าจะรวม Chrome OS เข้ากับ Android เป็นแพลตฟอร์มเดียว - Sameer Samat เปิดเผยแผนนี้ในการสัมภาษณ์กับ TechRadar - เป้าหมายคือสร้างระบบที่ทำงานได้ไร้รอยต่อบนโทรศัพท์ แล็ปท็อป และแท็บเล็ต - ลดความซับซ้อนในการพัฒนาแอปและฟีเจอร์ใหม่ - Android มีการปรับปรุงให้รองรับหน้าจอใหญ่ เช่น window management และ app adaptability - การรวมระบบจะช่วยให้ผู้ใช้ได้รับฟีเจอร์ใหม่พร้อมกันทุกอุปกรณ์ - เป็นการตอบโต้ ecosystem ของ Apple ที่เชื่อมโยงอุปกรณ์ได้แน่นหนา ‼️ คำเตือนและข้อควรระวัง - ยังไม่มีรายละเอียดเชิงเทคนิคหรือวันเปิดตัวที่แน่ชัด - ผู้ใช้ Chromebook อาจกังวลเรื่องการอัปเดตและการเปลี่ยนแปลงระบบ - การรวมระบบอาจทำให้เกิดปัญหาความเข้ากันได้กับแอปหรืออุปกรณ์บางรุ่น - นักพัฒนาอาจต้องปรับตัวกับเครื่องมือใหม่และแนวทางการพัฒนาแบบรวม - หากการรวมระบบไม่ราบรื่น อาจกระทบต่อความเชื่อมั่นของผู้ใช้และนักพัฒนา https://wccftech.com/google-is-merging-chrome-os-with-android-to-create-one-seamless-platform-that-works-across-phones-laptops-and-tablets-say-goodbye-to-multiple-devices/
    WCCFTECH.COM
    Google Is Merging Chrome OS With Android To Create One Seamless Platform That Works Across Phones, Laptops, And Tablets - Say Goodbye To Multiple Devices
    Google has confirmed in a conversation recently about its plan to consolidate Chrome OS and Android into a single platform
    0 Comments 0 Shares 327 Views 0 Reviews
  • AMD Zen 6 – แรงทะลุ 7 GHz พร้อม 24 คอร์ในเดสก์ท็อป

    AMD กำลังเตรียมเปิดตัว Zen 6 ซึ่งเป็นสถาปัตยกรรมใหม่สำหรับ Ryzen desktop CPUs โดยมีข้อมูลหลุดจากแหล่งวงในอย่าง Yuri Bubily (ผู้สร้าง Hydra tuning software) และช่อง YouTube Moore’s Law Is Dead ที่เผยว่า Zen 6 จะเน้นการเพิ่มประสิทธิภาพแบบก้าวกระโดดมากกว่าการเปลี่ยนแปลงโครงสร้างทั้งหมด

    จุดเด่นของ Zen 6 ได้แก่:
    - รองรับสูงสุด 12 คอร์ต่อ CCD (Core Complex Die) และ 24 คอร์ 48 เธรดต่อชิป
    - เพิ่มแคช L3 ต่อ CCD เป็น 48 MB และอาจมีรุ่นที่ใช้ 3D V-Cache หลายชั้น รวมสูงสุดถึง 240 MB
    - ใช้เทคโนโลยีการผลิตขั้นสูงจาก TSMC เช่น N2X (2nm enhanced) สำหรับรุ่นท็อป
    - ความเร็วสัญญาณนาฬิกาอาจทะลุ 7 GHz ในรุ่นเดสก์ท็อประดับสูง
    - ยังคงใช้ซ็อกเก็ต AM5 ทำให้ผู้ใช้ Ryzen รุ่นปัจจุบันสามารถอัปเกรดได้ง่าย
    - ปรับปรุง memory controller เป็นแบบ dual IMC แต่ยังใช้ DDR5 แบบ dual-channel
    - ไม่มีการเปลี่ยนแปลงในระบบ Boost และ Curve Optimizer ทำให้การปรับแต่งยังคงเหมือนเดิม

    Zen 6 ยังมีรุ่นสำหรับเซิร์ฟเวอร์ (Venice-class EPYC) และ APU (Medusa Point) ที่ใช้เทคโนโลยี N2P หรือ N3P ซึ่งเน้นประสิทธิภาพต่อวัตต์มากกว่าความเร็วสูงสุด

    คาดว่า Zen 6 จะเปิดตัวช่วงกลางถึงปลายปี 2026 พร้อมชนกับ Intel Nova Lake-S ที่จะใช้ซ็อกเก็ตใหม่และมีจำนวนคอร์สูงถึง 52 คอร์

    https://www.techspot.com/news/108646-amd-zen-6-could-hit-7-ghz-24.html
    AMD Zen 6 – แรงทะลุ 7 GHz พร้อม 24 คอร์ในเดสก์ท็อป AMD กำลังเตรียมเปิดตัว Zen 6 ซึ่งเป็นสถาปัตยกรรมใหม่สำหรับ Ryzen desktop CPUs โดยมีข้อมูลหลุดจากแหล่งวงในอย่าง Yuri Bubily (ผู้สร้าง Hydra tuning software) และช่อง YouTube Moore’s Law Is Dead ที่เผยว่า Zen 6 จะเน้นการเพิ่มประสิทธิภาพแบบก้าวกระโดดมากกว่าการเปลี่ยนแปลงโครงสร้างทั้งหมด จุดเด่นของ Zen 6 ได้แก่: - รองรับสูงสุด 12 คอร์ต่อ CCD (Core Complex Die) และ 24 คอร์ 48 เธรดต่อชิป - เพิ่มแคช L3 ต่อ CCD เป็น 48 MB และอาจมีรุ่นที่ใช้ 3D V-Cache หลายชั้น รวมสูงสุดถึง 240 MB - ใช้เทคโนโลยีการผลิตขั้นสูงจาก TSMC เช่น N2X (2nm enhanced) สำหรับรุ่นท็อป - ความเร็วสัญญาณนาฬิกาอาจทะลุ 7 GHz ในรุ่นเดสก์ท็อประดับสูง - ยังคงใช้ซ็อกเก็ต AM5 ทำให้ผู้ใช้ Ryzen รุ่นปัจจุบันสามารถอัปเกรดได้ง่าย - ปรับปรุง memory controller เป็นแบบ dual IMC แต่ยังใช้ DDR5 แบบ dual-channel - ไม่มีการเปลี่ยนแปลงในระบบ Boost และ Curve Optimizer ทำให้การปรับแต่งยังคงเหมือนเดิม Zen 6 ยังมีรุ่นสำหรับเซิร์ฟเวอร์ (Venice-class EPYC) และ APU (Medusa Point) ที่ใช้เทคโนโลยี N2P หรือ N3P ซึ่งเน้นประสิทธิภาพต่อวัตต์มากกว่าความเร็วสูงสุด คาดว่า Zen 6 จะเปิดตัวช่วงกลางถึงปลายปี 2026 พร้อมชนกับ Intel Nova Lake-S ที่จะใช้ซ็อกเก็ตใหม่และมีจำนวนคอร์สูงถึง 52 คอร์ https://www.techspot.com/news/108646-amd-zen-6-could-hit-7-ghz-24.html
    WWW.TECHSPOT.COM
    AMD Zen 6 could hit 7 GHz and 24 cores in desktop CPUs
    Yuri Bubily, creator of the Hydra tuning software, revealed on his official Discord that engineering samples of Zen 6-based Ryzen CPUs have already reached AMD's industry partners....
    0 Comments 0 Shares 233 Views 0 Reviews
  • Outlook ล่มทั่วโลก – Microsoft เร่งแก้ไขหลังผู้ใช้เดือดร้อนหลายชั่วโมง

    ช่วงเย็นวันที่ 10 กรกฎาคม 2025 ตามเวลา UTC ผู้ใช้ Outlook ทั่วโลกเริ่มรายงานปัญหาไม่สามารถเข้าถึงอีเมลได้ ไม่ว่าจะผ่านเว็บเบราว์เซอร์ แอปมือถือ หรือโปรแกรม Outlook บนเดสก์ท็อป โดยเฉพาะในช่วงเช้าของฝั่งสหรัฐฯ ซึ่งเป็นเวลาทำงาน ทำให้เกิดความวุ่นวายในการติดต่อสื่อสารขององค์กรและบุคคลทั่วไป

    Microsoft ยืนยันว่าปัญหาเกิดจากการตั้งค่าระบบ authentication ที่ผิดพลาด และได้เริ่ม deploy การแก้ไขแบบเร่งด่วนในภูมิภาคที่ได้รับผลกระทบมากที่สุด พร้อมตรวจสอบการตั้งค่าคอนฟิกเพิ่มเติมเพื่อให้แน่ใจว่าระบบกลับมาใช้งานได้อย่างปลอดภัย

    แม้จะใช้เวลานานกว่า 3 ชั่วโมง แต่ในที่สุด Microsoft ก็ประกาศว่าได้แก้ไขปัญหาในโครงสร้างพื้นฐานเป้าหมายแล้ว และกำลังขยายการ deploy ไปยังผู้ใช้ทั่วโลก โดยผู้ดูแลระบบสามารถติดตามรายละเอียดเพิ่มเติมได้จากรหัสเหตุการณ์ EX1112414 ใน Microsoft 365 Admin Center

    https://www.techradar.com/pro/live/outlook-down-microsoft-email-platform-apparently-suffering-major-outage-heres-what-we-know
    Outlook ล่มทั่วโลก – Microsoft เร่งแก้ไขหลังผู้ใช้เดือดร้อนหลายชั่วโมง ช่วงเย็นวันที่ 10 กรกฎาคม 2025 ตามเวลา UTC ผู้ใช้ Outlook ทั่วโลกเริ่มรายงานปัญหาไม่สามารถเข้าถึงอีเมลได้ ไม่ว่าจะผ่านเว็บเบราว์เซอร์ แอปมือถือ หรือโปรแกรม Outlook บนเดสก์ท็อป โดยเฉพาะในช่วงเช้าของฝั่งสหรัฐฯ ซึ่งเป็นเวลาทำงาน ทำให้เกิดความวุ่นวายในการติดต่อสื่อสารขององค์กรและบุคคลทั่วไป Microsoft ยืนยันว่าปัญหาเกิดจากการตั้งค่าระบบ authentication ที่ผิดพลาด และได้เริ่ม deploy การแก้ไขแบบเร่งด่วนในภูมิภาคที่ได้รับผลกระทบมากที่สุด พร้อมตรวจสอบการตั้งค่าคอนฟิกเพิ่มเติมเพื่อให้แน่ใจว่าระบบกลับมาใช้งานได้อย่างปลอดภัย แม้จะใช้เวลานานกว่า 3 ชั่วโมง แต่ในที่สุด Microsoft ก็ประกาศว่าได้แก้ไขปัญหาในโครงสร้างพื้นฐานเป้าหมายแล้ว และกำลังขยายการ deploy ไปยังผู้ใช้ทั่วโลก โดยผู้ดูแลระบบสามารถติดตามรายละเอียดเพิ่มเติมได้จากรหัสเหตุการณ์ EX1112414 ใน Microsoft 365 Admin Center https://www.techradar.com/pro/live/outlook-down-microsoft-email-platform-apparently-suffering-major-outage-heres-what-we-know
    0 Comments 0 Shares 287 Views 0 Reviews
  • LPDDR6 มาแล้ว! หน่วยความจำยุคใหม่ที่เร็วกว่าเดิมเท่าตัว

    หลังจากปล่อย DDR5 มาเมื่อ 5 ปีก่อน ล่าสุด JEDEC (องค์กรกำหนดมาตรฐานอิเล็กทรอนิกส์ระดับโลก) ได้เผยแพร่เอกสาร JESD209-6 ซึ่งเป็นมาตรฐานใหม่ของ LPDDR6 หรือ Low Power DDR6 ที่ออกแบบมาเพื่ออุปกรณ์พกพา เช่น แล็ปท็อป สมาร์ตโฟน และ edge AI

    LPDDR6 มีการปรับโครงสร้างช่องสัญญาณใหม่:
    - จาก DDR5 ที่ใช้ 2 ช่องย่อยขนาด 32-bit
    - LPDDR6 เปลี่ยนเป็น 4 ช่องย่อยขนาด 24-bit
    - ส่งผลให้ latency ลดลง และสามารถประมวลผลพร้อมกันได้มากขึ้น

    ด้านพลังงานก็มีการปรับปรุง:
    - ลดแรงดันไฟฟ้าให้ต่ำลง
    - เพิ่มฟีเจอร์ Dynamic Voltage Frequency Scaling for Low Power (DVFSL) ที่ช่วยลดการใช้พลังงานเมื่อทำงานที่ความถี่ต่ำ

    ความเร็วของ LPDDR6 อยู่ที่ 10,667–14,400 MT/s หรือประมาณ 28.5–38.4 GB/s ซึ่งเร็วกว่า DDR5 ที่โอเวอร์คล็อกสูงสุดในปัจจุบัน

    บริษัทที่สนับสนุนมาตรฐานนี้มีทั้งผู้ผลิตชิป (MediaTek, Qualcomm, Samsung), ผู้ผลิตหน่วยความจำ (Micron, SK hynix), และบริษัทออกแบบ/ทดสอบระบบ (Cadence, Synopsys, Advantest, Keysight)

    แม้ LPDDR6 จะเน้นอุปกรณ์พกพา แต่ JEDEC ก็เตรียมเปิดตัวมาตรฐาน DDR6 สำหรับเดสก์ท็อปภายในปีนี้เช่นกัน

    ข้อมูลจากข่าว
    - JEDEC เปิดตัวมาตรฐาน LPDDR6 ผ่านเอกสาร JESD209-6
    - LPDDR6 ใช้โครงสร้างช่องสัญญาณแบบ 4x24-bit แทน 2x32-bit ของ DDR5
    - ความเร็วอยู่ที่ 10,667–14,400 MT/s หรือ 28.5–38.4 GB/s
    - มีฟีเจอร์ DVFSL เพื่อประหยัดพลังงานในช่วงความถี่ต่ำ
    - ได้รับการสนับสนุนจากบริษัทชั้นนำ เช่น MediaTek, Qualcomm, Samsung, Micron, SK hynix
    - LPDDR6 เหมาะกับอุปกรณ์พกพาและ edge AI
    - JEDEC เตรียมเปิดตัว DDR6 สำหรับเดสก์ท็อปภายในปี 2025

    คำเตือนและข้อควรระวัง
    - LPDDR6 ยังไม่พร้อมใช้งานในตลาดทันที อาจต้องรออีกประมาณ 1 ปีเหมือนตอน DDR5
    - อุปกรณ์ที่ใช้ DDR4 จะเริ่มถูกเลิกผลิตในปี 2025 ทำให้ผู้ใช้ต้องเตรียมอัปเกรด
    - ราคาหน่วยความจำอาจพุ่งสูงในช่วงเปลี่ยนผ่านเทคโนโลยี
    - LPDDR6 ยังไม่เหมาะกับงานที่ต้องการความจุสูงแบบเซิร์ฟเวอร์หรือเดสก์ท็อป
    - ผู้ผลิตอุปกรณ์ต้องปรับปรุงระบบให้รองรับแรงดันไฟฟ้าและโครงสร้างใหม่ของ LPDDR6

    https://www.tomshardware.com/pc-components/dram/jedec-publishes-first-lpddr6-standard-new-interface-promises-double-the-effective-bandwidth-of-current-gen
    LPDDR6 มาแล้ว! หน่วยความจำยุคใหม่ที่เร็วกว่าเดิมเท่าตัว หลังจากปล่อย DDR5 มาเมื่อ 5 ปีก่อน ล่าสุด JEDEC (องค์กรกำหนดมาตรฐานอิเล็กทรอนิกส์ระดับโลก) ได้เผยแพร่เอกสาร JESD209-6 ซึ่งเป็นมาตรฐานใหม่ของ LPDDR6 หรือ Low Power DDR6 ที่ออกแบบมาเพื่ออุปกรณ์พกพา เช่น แล็ปท็อป สมาร์ตโฟน และ edge AI LPDDR6 มีการปรับโครงสร้างช่องสัญญาณใหม่: - จาก DDR5 ที่ใช้ 2 ช่องย่อยขนาด 32-bit - LPDDR6 เปลี่ยนเป็น 4 ช่องย่อยขนาด 24-bit - ส่งผลให้ latency ลดลง และสามารถประมวลผลพร้อมกันได้มากขึ้น ด้านพลังงานก็มีการปรับปรุง: - ลดแรงดันไฟฟ้าให้ต่ำลง - เพิ่มฟีเจอร์ Dynamic Voltage Frequency Scaling for Low Power (DVFSL) ที่ช่วยลดการใช้พลังงานเมื่อทำงานที่ความถี่ต่ำ ความเร็วของ LPDDR6 อยู่ที่ 10,667–14,400 MT/s หรือประมาณ 28.5–38.4 GB/s ซึ่งเร็วกว่า DDR5 ที่โอเวอร์คล็อกสูงสุดในปัจจุบัน บริษัทที่สนับสนุนมาตรฐานนี้มีทั้งผู้ผลิตชิป (MediaTek, Qualcomm, Samsung), ผู้ผลิตหน่วยความจำ (Micron, SK hynix), และบริษัทออกแบบ/ทดสอบระบบ (Cadence, Synopsys, Advantest, Keysight) แม้ LPDDR6 จะเน้นอุปกรณ์พกพา แต่ JEDEC ก็เตรียมเปิดตัวมาตรฐาน DDR6 สำหรับเดสก์ท็อปภายในปีนี้เช่นกัน ✅ ข้อมูลจากข่าว - JEDEC เปิดตัวมาตรฐาน LPDDR6 ผ่านเอกสาร JESD209-6 - LPDDR6 ใช้โครงสร้างช่องสัญญาณแบบ 4x24-bit แทน 2x32-bit ของ DDR5 - ความเร็วอยู่ที่ 10,667–14,400 MT/s หรือ 28.5–38.4 GB/s - มีฟีเจอร์ DVFSL เพื่อประหยัดพลังงานในช่วงความถี่ต่ำ - ได้รับการสนับสนุนจากบริษัทชั้นนำ เช่น MediaTek, Qualcomm, Samsung, Micron, SK hynix - LPDDR6 เหมาะกับอุปกรณ์พกพาและ edge AI - JEDEC เตรียมเปิดตัว DDR6 สำหรับเดสก์ท็อปภายในปี 2025 ‼️ คำเตือนและข้อควรระวัง - LPDDR6 ยังไม่พร้อมใช้งานในตลาดทันที อาจต้องรออีกประมาณ 1 ปีเหมือนตอน DDR5 - อุปกรณ์ที่ใช้ DDR4 จะเริ่มถูกเลิกผลิตในปี 2025 ทำให้ผู้ใช้ต้องเตรียมอัปเกรด - ราคาหน่วยความจำอาจพุ่งสูงในช่วงเปลี่ยนผ่านเทคโนโลยี - LPDDR6 ยังไม่เหมาะกับงานที่ต้องการความจุสูงแบบเซิร์ฟเวอร์หรือเดสก์ท็อป - ผู้ผลิตอุปกรณ์ต้องปรับปรุงระบบให้รองรับแรงดันไฟฟ้าและโครงสร้างใหม่ของ LPDDR6 https://www.tomshardware.com/pc-components/dram/jedec-publishes-first-lpddr6-standard-new-interface-promises-double-the-effective-bandwidth-of-current-gen
    0 Comments 0 Shares 286 Views 0 Reviews
  • ก่อนหน้านี้ Arrow Lake เปิดตัวไปเมื่อปลายปี 2024 แต่ไม่ได้เปรี้ยงแบบที่หวังไว้ → เพราะประสิทธิภาพยังตามหลัง AMD, แถมยังมีบั๊กที่ทำให้ SSD PCIe 5.0 บางตัว “ถูกลดความเร็วแบบไม่ตั้งใจ”

    แต่ Intel ก็ยังไม่ยอมแพ้ → เตรียมปล่อย Arrow Lake Refresh ช่วงครึ่งหลังปี 2025 → โดยเน้น “อัปเกรด NPU” เป็นรุ่นที่แรงขึ้นมากพอจะรองรับ Copilot+ จาก Microsoft ได้ → นี่อาจเป็นพีซีตั้งโต๊ะแรกที่ใช้ฟีเจอร์อย่าง Recall, Studio Effects, AI text/image summary ได้เต็มๆ แบบไม่ต้องพึ่งการ์ดจอแยก

    ถึงจะยังใช้ซีพียูและจีพียูจาก Arrow Lake เดิม → Intel พยายามเน้นว่า “นี่คือ NPU รุ่นใหม่แบบเดียวกับที่ใช้ในโน้ตบุ๊ก Lunar Lake” → และถ้าใครอยู่ในสาย Productivity หรือ AI application ก็น่าจะได้ประโยชน์ → แต่ถ้าคุณเป็น “เกมเมอร์” → ข่าวร้ายคือ Refresh นี้ไม่ได้เพิ่ม performance เกมเลย

    Intel เตรียมปล่อย Arrow Lake Refresh ช่วงครึ่งหลังปี 2025 (Core Ultra 200 Refresh)  
    • Clock speed เพิ่มขึ้นเล็กน้อย  
    • ยังใช้สถาปัตยกรรมซีพียู/จีพียูเดิม

    เพิ่ม NPU รุ่นใหม่ (NPU 4) → รองรับ AI workload และ Copilot+ เต็มระบบ  
    • NPU 4 = รุ่นเดียวกับชิปโน้ตบุ๊ก Lunar Lake  
    • ต่างจาก NPU เดิม (ใน Core Ultra 200 เดิม) ที่แรงไม่พอ

    อาจเป็นพีซีตั้งโต๊ะแรกที่ใช้งานฟีเจอร์ของ Copilot+ ได้จริง เช่น  
    • Recall, Image/Document summarization, Live caption, Studio effects ฯลฯ  
    • โดยไม่ต้องพึ่ง cloud หรือการ์ดจอ AI

    ยังใช้ซ็อกเก็ตเดิม (LGA 1851) → รองรับเมนบอร์ดจาก Arrow Lake รุ่นเดิม

    แม้จะเป็น Refresh แต่ถือว่าเป็น “จุดเริ่มของ AI PC บนเดสก์ท็อป” ที่แท้จริง

    https://www.techspot.com/news/108598-intel-preparing-arrow-lake-refresh-bring-copilot-features.html
    ก่อนหน้านี้ Arrow Lake เปิดตัวไปเมื่อปลายปี 2024 แต่ไม่ได้เปรี้ยงแบบที่หวังไว้ → เพราะประสิทธิภาพยังตามหลัง AMD, แถมยังมีบั๊กที่ทำให้ SSD PCIe 5.0 บางตัว “ถูกลดความเร็วแบบไม่ตั้งใจ” แต่ Intel ก็ยังไม่ยอมแพ้ → เตรียมปล่อย Arrow Lake Refresh ช่วงครึ่งหลังปี 2025 → โดยเน้น “อัปเกรด NPU” เป็นรุ่นที่แรงขึ้นมากพอจะรองรับ Copilot+ จาก Microsoft ได้ → นี่อาจเป็นพีซีตั้งโต๊ะแรกที่ใช้ฟีเจอร์อย่าง Recall, Studio Effects, AI text/image summary ได้เต็มๆ แบบไม่ต้องพึ่งการ์ดจอแยก ถึงจะยังใช้ซีพียูและจีพียูจาก Arrow Lake เดิม → Intel พยายามเน้นว่า “นี่คือ NPU รุ่นใหม่แบบเดียวกับที่ใช้ในโน้ตบุ๊ก Lunar Lake” → และถ้าใครอยู่ในสาย Productivity หรือ AI application ก็น่าจะได้ประโยชน์ → แต่ถ้าคุณเป็น “เกมเมอร์” → ข่าวร้ายคือ Refresh นี้ไม่ได้เพิ่ม performance เกมเลย ✅ Intel เตรียมปล่อย Arrow Lake Refresh ช่วงครึ่งหลังปี 2025 (Core Ultra 200 Refresh)   • Clock speed เพิ่มขึ้นเล็กน้อย   • ยังใช้สถาปัตยกรรมซีพียู/จีพียูเดิม ✅ เพิ่ม NPU รุ่นใหม่ (NPU 4) → รองรับ AI workload และ Copilot+ เต็มระบบ   • NPU 4 = รุ่นเดียวกับชิปโน้ตบุ๊ก Lunar Lake   • ต่างจาก NPU เดิม (ใน Core Ultra 200 เดิม) ที่แรงไม่พอ ✅ อาจเป็นพีซีตั้งโต๊ะแรกที่ใช้งานฟีเจอร์ของ Copilot+ ได้จริง เช่น   • Recall, Image/Document summarization, Live caption, Studio effects ฯลฯ   • โดยไม่ต้องพึ่ง cloud หรือการ์ดจอ AI ✅ ยังใช้ซ็อกเก็ตเดิม (LGA 1851) → รองรับเมนบอร์ดจาก Arrow Lake รุ่นเดิม ✅ แม้จะเป็น Refresh แต่ถือว่าเป็น “จุดเริ่มของ AI PC บนเดสก์ท็อป” ที่แท้จริง https://www.techspot.com/news/108598-intel-preparing-arrow-lake-refresh-bring-copilot-features.html
    WWW.TECHSPOT.COM
    Intel Arrow Lake refresh to add NPU capabilities, Copilot+ features to desktop PCs
    Intel is preparing to launch an upgraded version of its Arrow Lake CPU series, featuring slightly higher clock speeds and a brand-new NPU aimed at users interested...
    0 Comments 0 Shares 218 Views 0 Reviews
  • Intel เคยเปิดตัว Arrow Lake เมื่อปี 2024 แต่เสียงตอบรับก็กลาง ๆ ไม่ถึงกับว้าว → ล่าสุด Intel ไม่รอ Nova Lake ที่ยังอีกไกลในปี 2026 → จึงเตรียม ปล่อย Arrow Lake Refresh สำหรับเดสก์ท็อปช่วงครึ่งหลังปี 2025

    แม้จะยังใช้โครงสร้างเดิม เช่น
    - P-core = Lion Cove
    - E-core = Skymont
    - Socket = LGA 1851 เดิม ใช้เมนบอร์ดชิปเซต 800 ได้เหมือนเดิม แต่ Intel ก็ปรับจูนหลายอย่างให้ดีขึ้น

    ไฮไลต์คือเปลี่ยน NPU (Neural Processing Unit) → จากเดิม NPU 3 (13 TOPS, จาก Meteor Lake) เป็น NPU 4 (48 TOPS) → ตรงตามข้อกำหนดของ Microsoft สำหรับ “Copilot+ PC” ที่ต้องมี NPU ≥ 40 TOPS

    การที่ Intel เลือกใส่ NPU ใหม่ตัวนี้ อาจดูเหมือนไม่มาก → แต่หมายความว่า ผู้ใช้สามารถใช้ฟีเจอร์ AI ใน Windows 11/12 แบบเต็มระบบได้แล้ว → เช่น Recall, Cocreator, Live Caption, Studio Effects ฯลฯ

    Intel ยังใช้กระบวนการผลิต 20A เดิม แต่เลือกซิลิคอนที่ดีขึ้น (better binning) → ทำให้เพิ่มความเร็ว (clock) ได้อีกเล็กน้อย → น่าจะคล้ายแนวทาง Core Boost 200S ที่เปิดตัวที่ Computex ก่อนหน้านี้

    Intel เตรียมเปิดตัว “Arrow Lake Refresh” ครึ่งหลังปี 2025  
    • ใช้ชื่อเดิม แต่เพิ่ม clock และเปลี่ยน NPU  
    • เหมาะสำหรับผู้ใช้ที่ยังไม่อยากรอ Nova Lake ปี 2026

    เปลี่ยนจาก NPU 3 (13 TOPS) → NPU 4 (48 TOPS)  
    • รองรับเกณฑ์ Copilot+ AI PC จาก Microsoft  
    • ใช้เทคโนโลยีจาก Lunar Lake รุ่นโน้ตบุ๊ค

    ยังใช้ socket LGA 1851 และชิปเซต 800 เดิม  
    • รองรับเมนบอร์ดปัจจุบันได้ทันที  
    • ช่วยขยายอายุการใช้งานของแพลตฟอร์มอีก 1 เจนเนอเรชัน

    ไม่มีการเปลี่ยนแปลงโครงสร้าง CPU — ใช้ P-Core (Lion Cove) และ E-Core (Skymont) เดิม  
    • เพิ่มแค่ clock speed ผ่านกระบวนการเลือกชิปคุณภาพสูงกว่า

    ฟีเจอร์ใหม่จากฝั่ง AI PC จะสามารถเปิดใช้ได้เต็มรูปแบบผ่านฮาร์ดแวร์นี้

    https://www.tomshardware.com/pc-components/cpus/intel-prepping-arrow-lake-refresh-with-minor-clock-speed-bump-and-a-new-copilot-ai-compliant-npu-lifted-from-core-ultra-200v-reportedly-launches-in-the-second-half-of-2025
    Intel เคยเปิดตัว Arrow Lake เมื่อปี 2024 แต่เสียงตอบรับก็กลาง ๆ ไม่ถึงกับว้าว → ล่าสุด Intel ไม่รอ Nova Lake ที่ยังอีกไกลในปี 2026 → จึงเตรียม ปล่อย Arrow Lake Refresh สำหรับเดสก์ท็อปช่วงครึ่งหลังปี 2025 แม้จะยังใช้โครงสร้างเดิม เช่น - P-core = Lion Cove - E-core = Skymont - Socket = LGA 1851 เดิม ใช้เมนบอร์ดชิปเซต 800 ได้เหมือนเดิม แต่ Intel ก็ปรับจูนหลายอย่างให้ดีขึ้น ไฮไลต์คือเปลี่ยน NPU (Neural Processing Unit) → จากเดิม NPU 3 (13 TOPS, จาก Meteor Lake) เป็น NPU 4 (48 TOPS) → ตรงตามข้อกำหนดของ Microsoft สำหรับ “Copilot+ PC” ที่ต้องมี NPU ≥ 40 TOPS การที่ Intel เลือกใส่ NPU ใหม่ตัวนี้ อาจดูเหมือนไม่มาก → แต่หมายความว่า ผู้ใช้สามารถใช้ฟีเจอร์ AI ใน Windows 11/12 แบบเต็มระบบได้แล้ว → เช่น Recall, Cocreator, Live Caption, Studio Effects ฯลฯ Intel ยังใช้กระบวนการผลิต 20A เดิม แต่เลือกซิลิคอนที่ดีขึ้น (better binning) → ทำให้เพิ่มความเร็ว (clock) ได้อีกเล็กน้อย → น่าจะคล้ายแนวทาง Core Boost 200S ที่เปิดตัวที่ Computex ก่อนหน้านี้ ✅ Intel เตรียมเปิดตัว “Arrow Lake Refresh” ครึ่งหลังปี 2025   • ใช้ชื่อเดิม แต่เพิ่ม clock และเปลี่ยน NPU   • เหมาะสำหรับผู้ใช้ที่ยังไม่อยากรอ Nova Lake ปี 2026 ✅ เปลี่ยนจาก NPU 3 (13 TOPS) → NPU 4 (48 TOPS)   • รองรับเกณฑ์ Copilot+ AI PC จาก Microsoft   • ใช้เทคโนโลยีจาก Lunar Lake รุ่นโน้ตบุ๊ค ✅ ยังใช้ socket LGA 1851 และชิปเซต 800 เดิม   • รองรับเมนบอร์ดปัจจุบันได้ทันที   • ช่วยขยายอายุการใช้งานของแพลตฟอร์มอีก 1 เจนเนอเรชัน ✅ ไม่มีการเปลี่ยนแปลงโครงสร้าง CPU — ใช้ P-Core (Lion Cove) และ E-Core (Skymont) เดิม   • เพิ่มแค่ clock speed ผ่านกระบวนการเลือกชิปคุณภาพสูงกว่า ✅ ฟีเจอร์ใหม่จากฝั่ง AI PC จะสามารถเปิดใช้ได้เต็มรูปแบบผ่านฮาร์ดแวร์นี้ https://www.tomshardware.com/pc-components/cpus/intel-prepping-arrow-lake-refresh-with-minor-clock-speed-bump-and-a-new-copilot-ai-compliant-npu-lifted-from-core-ultra-200v-reportedly-launches-in-the-second-half-of-2025
    0 Comments 0 Shares 213 Views 0 Reviews
  • ลองนึกภาพว่าในแร็กเซิร์ฟเวอร์เดียว เราสามารถวางชิป Xeon รุ่นใหม่ถึง 4 ซ็อกเก็ตได้ → รวมเป็น 768 คอร์เต็ม ๆ → ใช้พลังงานรวม 2,000W → พร้อมรัน LLM หรือ inference workload ได้เลย โดยไม่ต้องพึ่ง GPU

    นี่ยังไม่รวมระบบแรมที่รองรับได้ถึง 16 แชนแนล DDR5 ความเร็ว 12,800 MT/s ต่อ DIMM ด้วยมาตรฐาน MRDIMM Gen 2 → ช่วยระบายข้อมูลเข้า-ออกจากคอร์ระดับ “Panther Cove” ได้แบบไม่ติดขัด

    Intel ยังเพิ่มความสามารถด้าน AI แบบเนทีฟในซีพียูนี้ เช่น
    - รองรับ TF32 แบบของ NVIDIA
    - เพิ่ม support สำหรับ FP8
    - เพิ่มความสามารถของ APX และ AMX → เพื่อเร่ง inference ขนาดเล็กให้รันบนซีพียูได้เลย

    และนี่จะเป็นผลิตภัณฑ์ 18A node ตัวแรกของ Intel ในระดับ mass production → เชื่อมโยงกับการเปิดตัว AI accelerator ของค่าย Jaguar Shores ได้อย่างสมบูรณ์ในระบบเดียว

    Intel Diamond Rapids Xeon 7 จะมีสูงสุด 192 P-Core แท้ใน SKU รุ่นท็อป  
    • แบ่งเป็น 4 tile, tile ละ 48 คอร์  
    • ไม่มี E-Core แบบ Xeon 6

    TDP สูงสุดต่อซ็อกเก็ต = 500W  
    • รองรับระบบระบายความร้อนระดับองค์กร

    รองรับแรม DDR5 แบบ 8 หรือ 16 แชนแนล  
    • ใช้ MRDIMM Gen 2 → Bandwidth ระดับ 12,800 MT/s ต่อ DIMM  
    • ทำงานร่วมกับคอร์ Panther Cove ได้เต็มประสิทธิภาพ

    รองรับเทคโนโลยีใหม่ด้าน AI และคณิตศาสตร์ความละเอียดต่ำ  
    • TF32 (ของ NVIDIA)  
    • FP8 → ลด latency inference model  
    • AMX และ APX รุ่นใหม่

    รองรับ PCIe Gen 6 สำหรับเชื่อมต่อ accelerator ภายนอก

    วางจำหน่ายปี 2026 ควบคู่กับ AI accelerator รุ่น Jaguar Shores

    ระบบ 4 ซ็อกเก็ตสามารถรวมได้ถึง 768 คอร์ และใช้ไฟ 2,000W

    การผลักดันสู่ TDP 500W ต่อซ็อกเก็ตอาจสร้างความท้าทายให้กับระบบระบายความร้อนและพลังงานในดาต้าเซ็นเตอร์  
    • ต้องใช้ระบบระบายระดับของเหลว (liquid cooling) หรือ sub-ambient

    Intel จะต้องพิสูจน์ว่าประสิทธิภาพต่อวัตต์จะ “คุ้มพลังงาน” กว่า AMD EPYC รุ่น Zen 6/7 ที่กำลังจะเปิดตัว  
    • เพราะ AMD นำหน้าไปก่อนในประสิทธิภาพและ efficiency ตลาดเซิร์ฟเวอร์ช่วงหลัง

    https://www.techpowerup.com/338664/intel-diamond-rapids-xeon-cpu-to-feature-up-to-192-p-cores-and-500-w-tdp
    ลองนึกภาพว่าในแร็กเซิร์ฟเวอร์เดียว เราสามารถวางชิป Xeon รุ่นใหม่ถึง 4 ซ็อกเก็ตได้ → รวมเป็น 768 คอร์เต็ม ๆ → ใช้พลังงานรวม 2,000W → พร้อมรัน LLM หรือ inference workload ได้เลย โดยไม่ต้องพึ่ง GPU นี่ยังไม่รวมระบบแรมที่รองรับได้ถึง 16 แชนแนล DDR5 ความเร็ว 12,800 MT/s ต่อ DIMM ด้วยมาตรฐาน MRDIMM Gen 2 → ช่วยระบายข้อมูลเข้า-ออกจากคอร์ระดับ “Panther Cove” ได้แบบไม่ติดขัด Intel ยังเพิ่มความสามารถด้าน AI แบบเนทีฟในซีพียูนี้ เช่น - รองรับ TF32 แบบของ NVIDIA - เพิ่ม support สำหรับ FP8 - เพิ่มความสามารถของ APX และ AMX → เพื่อเร่ง inference ขนาดเล็กให้รันบนซีพียูได้เลย และนี่จะเป็นผลิตภัณฑ์ 18A node ตัวแรกของ Intel ในระดับ mass production → เชื่อมโยงกับการเปิดตัว AI accelerator ของค่าย Jaguar Shores ได้อย่างสมบูรณ์ในระบบเดียว ✅ Intel Diamond Rapids Xeon 7 จะมีสูงสุด 192 P-Core แท้ใน SKU รุ่นท็อป   • แบ่งเป็น 4 tile, tile ละ 48 คอร์   • ไม่มี E-Core แบบ Xeon 6 ✅ TDP สูงสุดต่อซ็อกเก็ต = 500W   • รองรับระบบระบายความร้อนระดับองค์กร ✅ รองรับแรม DDR5 แบบ 8 หรือ 16 แชนแนล   • ใช้ MRDIMM Gen 2 → Bandwidth ระดับ 12,800 MT/s ต่อ DIMM   • ทำงานร่วมกับคอร์ Panther Cove ได้เต็มประสิทธิภาพ ✅ รองรับเทคโนโลยีใหม่ด้าน AI และคณิตศาสตร์ความละเอียดต่ำ   • TF32 (ของ NVIDIA)   • FP8 → ลด latency inference model   • AMX และ APX รุ่นใหม่ ✅ รองรับ PCIe Gen 6 สำหรับเชื่อมต่อ accelerator ภายนอก ✅ วางจำหน่ายปี 2026 ควบคู่กับ AI accelerator รุ่น Jaguar Shores ✅ ระบบ 4 ซ็อกเก็ตสามารถรวมได้ถึง 768 คอร์ และใช้ไฟ 2,000W ‼️ การผลักดันสู่ TDP 500W ต่อซ็อกเก็ตอาจสร้างความท้าทายให้กับระบบระบายความร้อนและพลังงานในดาต้าเซ็นเตอร์   • ต้องใช้ระบบระบายระดับของเหลว (liquid cooling) หรือ sub-ambient ‼️ Intel จะต้องพิสูจน์ว่าประสิทธิภาพต่อวัตต์จะ “คุ้มพลังงาน” กว่า AMD EPYC รุ่น Zen 6/7 ที่กำลังจะเปิดตัว   • เพราะ AMD นำหน้าไปก่อนในประสิทธิภาพและ efficiency ตลาดเซิร์ฟเวอร์ช่วงหลัง https://www.techpowerup.com/338664/intel-diamond-rapids-xeon-cpu-to-feature-up-to-192-p-cores-and-500-w-tdp
    WWW.TECHPOWERUP.COM
    Intel "Diamond Rapids" Xeon CPU to Feature up to 192 P-Cores and 500 W TDP
    Intel's next-generation "Oak Stream" platform is preparing to accommodate the upcoming "Diamond Rapids" Xeon CPU generation, and we are receiving more interesting details about the top-end configurations Intel will offer. According to the HEPiX TechWatch working group, the Diamond Rapids Intel Xeon ...
    0 Comments 0 Shares 201 Views 0 Reviews
  • ลองนึกถึงเซิร์ฟเวอร์ที่สมัยก่อนต้องใช้ชิป 32 คอร์, แรม 8 แชนแนล เต็มแร็ก แต่ตอนนี้… AMD ออกรุ่นน้องใหม่ EPYC 4585PX ในซีรีส์ “Grado” ซึ่งใช้แค่ 2 แถวแรม DDR5 + ระบบจิ๋ว ๆ แบบ NAS ก็ยังแรงกว่า → ในการทดสอบโดย Phoronix บน Ubuntu 25.04 พบว่า:
    - ชิปรุ่นเล็กตัวนี้แรงกว่าชิปรุ่นท็อปดั้งเดิม EPYC 7601 ถึง 2.69 เท่า
    - แถมประสิทธิภาพต่อวัตต์ดีกว่า 2.85 เท่า
    - ใช้พลังงานรวมน้อยลง (จาก 238W → เหลือ 225W) ทั้งที่ CPU เปล่า ๆ กินไฟพอ ๆ กัน

    ถือว่าเป็นบทพิสูจน์ว่า “สถาปัตยกรรมใหม่เจ๋งกว่าการอัดจำนวน” → EPYC 4585PX บนบอร์ดเล็ก ๆ + DDR5 เพียง 2 แถว ยังชนะเซิร์ฟเวอร์ 8 แชนแนลในอดีต → เหมาะมากสำหรับ NAS, เซิร์ฟเวอร์ประหยัดพลังงาน หรือ infra ที่ต้องการพื้นที่–ความเย็นน้อย

    EPYC 4585PX (ซีรีส์ EPYC 4005 “Grado”) แรงกว่า EPYC 7601 ถึง 2.69 เท่า  
    • ทดสอบบน Ubuntu 25.04 กับ 200+ เวิร์กโหลด: HPC, คอมไพล์, วิดีโอ, สคริปต์ ฯลฯ

    ประสิทธิภาพต่อวัตต์ (Performance/Watt) ดีกว่า 2.85 เท่า  
    • สะท้อนประสิทธิภาพของสถาปัตยกรรมที่พัฒนาแล้ว

    วัดพลังงานทั้งระบบ: EPYC 4585PX ใช้ 225W vs EPYC 7601 ใช้ 238W  
    • แสดงให้เห็นว่าประหยัดขึ้นทั้งระบบ ไม่ใช่แค่ตัวชิป

    แม้มีแค่ 2 แถวแรม DDR5 แต่ยังชนะเซิร์ฟเวอร์ 8 แชนแนลในหลาย ๆ งาน  
    • ชี้ว่าความสามารถของแรมไม่ได้วัดแค่จากจำนวนแชนแนล

    ระบบทดสอบใช้ Supermicro board + RAM น้อย → เหมาะกับ NAS หรือ SOHO infra มาก

    Grado เป็นซีรีส์ประหยัดพลังงาน ราคาถูกกว่า EPYC 9005 สูงมาก แต่ประสิทธิภาพน่าประทับใจ

    https://www.techradar.com/pro/16-core-amd-epyc-4005-cpu-is-almost-3x-faster-than-amds-first-server-flagship-and-i-cant-believe-what-a-bargain-that-is
    ลองนึกถึงเซิร์ฟเวอร์ที่สมัยก่อนต้องใช้ชิป 32 คอร์, แรม 8 แชนแนล เต็มแร็ก แต่ตอนนี้… AMD ออกรุ่นน้องใหม่ EPYC 4585PX ในซีรีส์ “Grado” ซึ่งใช้แค่ 2 แถวแรม DDR5 + ระบบจิ๋ว ๆ แบบ NAS ก็ยังแรงกว่า → ในการทดสอบโดย Phoronix บน Ubuntu 25.04 พบว่า: - ชิปรุ่นเล็กตัวนี้แรงกว่าชิปรุ่นท็อปดั้งเดิม EPYC 7601 ถึง 2.69 เท่า - แถมประสิทธิภาพต่อวัตต์ดีกว่า 2.85 เท่า - ใช้พลังงานรวมน้อยลง (จาก 238W → เหลือ 225W) ทั้งที่ CPU เปล่า ๆ กินไฟพอ ๆ กัน ถือว่าเป็นบทพิสูจน์ว่า “สถาปัตยกรรมใหม่เจ๋งกว่าการอัดจำนวน” → EPYC 4585PX บนบอร์ดเล็ก ๆ + DDR5 เพียง 2 แถว ยังชนะเซิร์ฟเวอร์ 8 แชนแนลในอดีต → เหมาะมากสำหรับ NAS, เซิร์ฟเวอร์ประหยัดพลังงาน หรือ infra ที่ต้องการพื้นที่–ความเย็นน้อย ✅ EPYC 4585PX (ซีรีส์ EPYC 4005 “Grado”) แรงกว่า EPYC 7601 ถึง 2.69 เท่า   • ทดสอบบน Ubuntu 25.04 กับ 200+ เวิร์กโหลด: HPC, คอมไพล์, วิดีโอ, สคริปต์ ฯลฯ ✅ ประสิทธิภาพต่อวัตต์ (Performance/Watt) ดีกว่า 2.85 เท่า   • สะท้อนประสิทธิภาพของสถาปัตยกรรมที่พัฒนาแล้ว ✅ วัดพลังงานทั้งระบบ: EPYC 4585PX ใช้ 225W vs EPYC 7601 ใช้ 238W   • แสดงให้เห็นว่าประหยัดขึ้นทั้งระบบ ไม่ใช่แค่ตัวชิป ✅ แม้มีแค่ 2 แถวแรม DDR5 แต่ยังชนะเซิร์ฟเวอร์ 8 แชนแนลในหลาย ๆ งาน   • ชี้ว่าความสามารถของแรมไม่ได้วัดแค่จากจำนวนแชนแนล ✅ ระบบทดสอบใช้ Supermicro board + RAM น้อย → เหมาะกับ NAS หรือ SOHO infra มาก ✅ Grado เป็นซีรีส์ประหยัดพลังงาน ราคาถูกกว่า EPYC 9005 สูงมาก แต่ประสิทธิภาพน่าประทับใจ https://www.techradar.com/pro/16-core-amd-epyc-4005-cpu-is-almost-3x-faster-than-amds-first-server-flagship-and-i-cant-believe-what-a-bargain-that-is
    0 Comments 0 Shares 220 Views 0 Reviews
  • AMD ส่ง Threadripper 9980X รุ่น 64 คอร์มาเขย่าตลาดซีพียูระดับไฮเอนด์ (HEDT) พร้อมชิปสถาปัตยกรรม Zen 5 ใหม่ ซึ่งแม้จะมี “แค่” 64 คอร์ แต่กลับสร้างปรากฏการณ์ได้ด้วยเหตุผลหลายข้อ:

    ในการทดสอบ Multi-thread บน PassMark ชิปนี้ ทำได้ถึง 147,481 คะแนน → เป็นอันดับ 1 ในกลุ่มเดสก์ท็อป

    แซงแม้แต่รุ่นพี่ 96 คอร์อย่าง Threadripper Pro 9995WX และ 7980X

    ทิ้งห่าง M3 Ultra ของ Apple เกินเท่าตัว!

    เหตุผลที่ทำได้ขนาดนี้คือ Threadripper 9980X มี ความเร็ว base/turbo สูงกว่า, ใช้ SMT เต็ม และอาจเป็นรุ่น pre-production ที่จูนมาดี

    แต่งานนี้ก็ไม่ใช่เทพด้านเดียว — เพราะ คะแนน single-thread กลับไม่โดดเด่นนัก แม้จะวิ่งได้ถึง 5.4GHz
    → ทำได้ราว 4,594 คะแนน ซึ่งอยู่ในระดับเดียวกับ Intel i9-13900KF หรือ M4 Max
    → แพ้ M3 Ultra และ Intel Core Ultra 9 285K แบบชัดเจนในสายงานที่ต้องพลังต่อคอร์สูง ๆ เช่นการเล่นเกม

    AMD Threadripper 9980X ทำลายสถิติ Multi-thread ของ PassMark ด้วยคะแนน 147,481
    • แซง Pro 7995WX (96 คอร์), 7980X (64 คอร์), M3 Ultra (32 คอร์)

    ชิปใช้สถาปัตยกรรม Zen 5 พร้อม SMT, clock 3.2–5.4GHz, L2+L3 รวม 320MB  
    • รองรับ Overclock  
    • เหมาะกับสายงานมืออาชีพระดับสูง เช่นเรนเดอร์–ตัดต่อ–สตรีมพร้อมกันหลายโปรแกรม

    คะแนน single-thread = 4,594 เทียบเท่า Core i9-13900KF และ Apple M4 Max  
    • ต่ำกว่า M3 Ultra และ Core Ultra 9 285K เล็กน้อย

    TDP อยู่ที่ 350W (เท่ารุ่น Pro) แต่ได้ clock สูงกว่า  
    • ทำให้เป็นตัวเลือกที่ “แรงและยืดหยุ่น” ระหว่างเล่นเกมและทำงานหนัก

    AMD เตรียมวางขายซีพียู Threadripper 9000 series ภายใน ก.ค. 2025 นี้  
    • คาดว่า 9980X จะเปิดตัวพร้อมรุ่นอื่น เช่น 9985WX

    https://www.tomshardware.com/pc-components/cpus/new-amd-ryzen-threadripper-smashes-passmark-record-9980x-scores-147-481-making-it-the-fastest-desktop-cpu-ever-tested-but-only-in-multi-thread-performance
    AMD ส่ง Threadripper 9980X รุ่น 64 คอร์มาเขย่าตลาดซีพียูระดับไฮเอนด์ (HEDT) พร้อมชิปสถาปัตยกรรม Zen 5 ใหม่ ซึ่งแม้จะมี “แค่” 64 คอร์ แต่กลับสร้างปรากฏการณ์ได้ด้วยเหตุผลหลายข้อ: ในการทดสอบ Multi-thread บน PassMark ชิปนี้ ทำได้ถึง 147,481 คะแนน → เป็นอันดับ 1 ในกลุ่มเดสก์ท็อป แซงแม้แต่รุ่นพี่ 96 คอร์อย่าง Threadripper Pro 9995WX และ 7980X ทิ้งห่าง M3 Ultra ของ Apple เกินเท่าตัว! 📌 เหตุผลที่ทำได้ขนาดนี้คือ Threadripper 9980X มี ความเร็ว base/turbo สูงกว่า, ใช้ SMT เต็ม และอาจเป็นรุ่น pre-production ที่จูนมาดี แต่งานนี้ก็ไม่ใช่เทพด้านเดียว — เพราะ คะแนน single-thread กลับไม่โดดเด่นนัก แม้จะวิ่งได้ถึง 5.4GHz → ทำได้ราว 4,594 คะแนน ซึ่งอยู่ในระดับเดียวกับ Intel i9-13900KF หรือ M4 Max → แพ้ M3 Ultra และ Intel Core Ultra 9 285K แบบชัดเจนในสายงานที่ต้องพลังต่อคอร์สูง ๆ เช่นการเล่นเกม ✅ AMD Threadripper 9980X ทำลายสถิติ Multi-thread ของ PassMark ด้วยคะแนน 147,481 • แซง Pro 7995WX (96 คอร์), 7980X (64 คอร์), M3 Ultra (32 คอร์) ✅ ชิปใช้สถาปัตยกรรม Zen 5 พร้อม SMT, clock 3.2–5.4GHz, L2+L3 รวม 320MB   • รองรับ Overclock   • เหมาะกับสายงานมืออาชีพระดับสูง เช่นเรนเดอร์–ตัดต่อ–สตรีมพร้อมกันหลายโปรแกรม ✅ คะแนน single-thread = 4,594 เทียบเท่า Core i9-13900KF และ Apple M4 Max   • ต่ำกว่า M3 Ultra และ Core Ultra 9 285K เล็กน้อย ✅ TDP อยู่ที่ 350W (เท่ารุ่น Pro) แต่ได้ clock สูงกว่า   • ทำให้เป็นตัวเลือกที่ “แรงและยืดหยุ่น” ระหว่างเล่นเกมและทำงานหนัก ✅ AMD เตรียมวางขายซีพียู Threadripper 9000 series ภายใน ก.ค. 2025 นี้   • คาดว่า 9980X จะเปิดตัวพร้อมรุ่นอื่น เช่น 9985WX https://www.tomshardware.com/pc-components/cpus/new-amd-ryzen-threadripper-smashes-passmark-record-9980x-scores-147-481-making-it-the-fastest-desktop-cpu-ever-tested-but-only-in-multi-thread-performance
    0 Comments 0 Shares 273 Views 0 Reviews
More Results