• Apple เตรียมทดสอบสายการผลิต iPhone พับได้ — ตั้งเป้าเพิ่มยอดขาย 10% ในปี 2026 พร้อมขยายฐานการผลิตสู่อินเดีย

    Apple กำลังเดินหมากครั้งสำคัญในตลาดสมาร์ตโฟน ด้วยการเตรียมทดสอบสายการผลิต iPhone รุ่นพับได้ ซึ่งอาจเป็นการเปิดตัวครั้งแรกของบริษัทในกลุ่มผลิตภัณฑ์ foldable ที่คู่แข่งอย่าง Samsung และ Huawei ได้ลงสนามไปก่อนแล้ว โดยมีรายงานจาก Nikkei Asia ว่า Apple ได้เริ่มพูดคุยกับซัพพลายเออร์เกี่ยวกับการตั้งสายการผลิตทดลองในไต้หวัน และมีแผนจะขยายไปสู่การผลิตจริงในอินเดียภายในปี 2026

    เป้าหมายของ Apple คือการเพิ่มยอดขาย iPhone ให้ได้ 10% จากปี 2025 ซึ่งคาดว่าจะอยู่ที่ประมาณ 241 ล้านเครื่อง โดยตั้งเป้าไว้ที่ 265 ล้านเครื่องในปี 2026 ซึ่งหากทำได้จริง จะเป็นสถิติใหม่ของบริษัทนับตั้งแต่ปี 2015 ที่ยอดขาย iPhone แกว่งอยู่ระหว่าง 200–250 ล้านเครื่องต่อปี

    นอกจากการเปิดตัว iPhone พับได้แล้ว Apple ยังเตรียมเปิดตัว iPhone 18 รุ่นใหม่ในช่วงปลายปี 2026 ซึ่งรวมถึง iPhone 18 Pro, Pro Max, Air 2 และรุ่นพับได้ โดยคาดว่าจะมี “halo effect” คือผู้บริโภคที่สนใจรุ่นพับได้ อาจตัดสินใจซื้อรุ่นธรรมดาแทน ส่งผลให้ยอดขายโดยรวมเพิ่มขึ้นทั้งไลน์ผลิตภัณฑ์

    อย่างไรก็ตาม ข้อมูลจาก Bank of America ระบุว่า iPhone 17 Pro และ Pro Max ในปีนี้มีระยะเวลารอจัดส่งนานกว่ารุ่นก่อนหน้า โดยเฉพาะ iPhone 17 รุ่นพื้นฐานที่มีเวลารอจัดส่งเฉลี่ยถึง 19 วัน ซึ่งเป็นระดับที่สูงที่สุดนับตั้งแต่ iPhone 11 ในปี 2019

    Apple เตรียมทดสอบสายการผลิต iPhone พับได้
    เริ่มพูดคุยกับซัพพลายเออร์ในไต้หวัน
    มีแผนขยายการผลิตจริงไปยังอินเดียในปี 2026

    ตั้งเป้าเพิ่มยอดขาย iPhone 10% ในปี 2026
    จาก 241 ล้านเครื่องในปี 2025 เป็น 265 ล้านเครื่องในปี 2026
    หากสำเร็จ จะเป็นสถิติใหม่ของบริษัท

    iPhone พับได้จะเป็นส่วนหนึ่งของไลน์ iPhone 18
    รวมถึงรุ่น Pro, Pro Max และ Air 2
    คาดว่าจะเกิด halo effect เพิ่มยอดขายรุ่นธรรมดา

    iPhone 17 มีระยะเวลารอจัดส่งนานกว่ารุ่นก่อน
    iPhone 17 Pro: รอ 18 วัน / Pro Max: รอ 25 วัน
    iPhone 17 รุ่นพื้นฐาน: รอ 19 วัน เทียบกับ 10 วันใน iPhone 16

    https://wccftech.com/apple-mulling-a-possible-test-production-line-for-a-foldable-iphone-targets-10-shipment-growth-in-2026/
    📰 Apple เตรียมทดสอบสายการผลิต iPhone พับได้ — ตั้งเป้าเพิ่มยอดขาย 10% ในปี 2026 พร้อมขยายฐานการผลิตสู่อินเดีย Apple กำลังเดินหมากครั้งสำคัญในตลาดสมาร์ตโฟน ด้วยการเตรียมทดสอบสายการผลิต iPhone รุ่นพับได้ ซึ่งอาจเป็นการเปิดตัวครั้งแรกของบริษัทในกลุ่มผลิตภัณฑ์ foldable ที่คู่แข่งอย่าง Samsung และ Huawei ได้ลงสนามไปก่อนแล้ว โดยมีรายงานจาก Nikkei Asia ว่า Apple ได้เริ่มพูดคุยกับซัพพลายเออร์เกี่ยวกับการตั้งสายการผลิตทดลองในไต้หวัน และมีแผนจะขยายไปสู่การผลิตจริงในอินเดียภายในปี 2026 เป้าหมายของ Apple คือการเพิ่มยอดขาย iPhone ให้ได้ 10% จากปี 2025 ซึ่งคาดว่าจะอยู่ที่ประมาณ 241 ล้านเครื่อง โดยตั้งเป้าไว้ที่ 265 ล้านเครื่องในปี 2026 ซึ่งหากทำได้จริง จะเป็นสถิติใหม่ของบริษัทนับตั้งแต่ปี 2015 ที่ยอดขาย iPhone แกว่งอยู่ระหว่าง 200–250 ล้านเครื่องต่อปี นอกจากการเปิดตัว iPhone พับได้แล้ว Apple ยังเตรียมเปิดตัว iPhone 18 รุ่นใหม่ในช่วงปลายปี 2026 ซึ่งรวมถึง iPhone 18 Pro, Pro Max, Air 2 และรุ่นพับได้ โดยคาดว่าจะมี “halo effect” คือผู้บริโภคที่สนใจรุ่นพับได้ อาจตัดสินใจซื้อรุ่นธรรมดาแทน ส่งผลให้ยอดขายโดยรวมเพิ่มขึ้นทั้งไลน์ผลิตภัณฑ์ อย่างไรก็ตาม ข้อมูลจาก Bank of America ระบุว่า iPhone 17 Pro และ Pro Max ในปีนี้มีระยะเวลารอจัดส่งนานกว่ารุ่นก่อนหน้า โดยเฉพาะ iPhone 17 รุ่นพื้นฐานที่มีเวลารอจัดส่งเฉลี่ยถึง 19 วัน ซึ่งเป็นระดับที่สูงที่สุดนับตั้งแต่ iPhone 11 ในปี 2019 ✅ Apple เตรียมทดสอบสายการผลิต iPhone พับได้ ➡️ เริ่มพูดคุยกับซัพพลายเออร์ในไต้หวัน ➡️ มีแผนขยายการผลิตจริงไปยังอินเดียในปี 2026 ✅ ตั้งเป้าเพิ่มยอดขาย iPhone 10% ในปี 2026 ➡️ จาก 241 ล้านเครื่องในปี 2025 เป็น 265 ล้านเครื่องในปี 2026 ➡️ หากสำเร็จ จะเป็นสถิติใหม่ของบริษัท ✅ iPhone พับได้จะเป็นส่วนหนึ่งของไลน์ iPhone 18 ➡️ รวมถึงรุ่น Pro, Pro Max และ Air 2 ➡️ คาดว่าจะเกิด halo effect เพิ่มยอดขายรุ่นธรรมดา ✅ iPhone 17 มีระยะเวลารอจัดส่งนานกว่ารุ่นก่อน ➡️ iPhone 17 Pro: รอ 18 วัน / Pro Max: รอ 25 วัน ➡️ iPhone 17 รุ่นพื้นฐาน: รอ 19 วัน เทียบกับ 10 วันใน iPhone 16 https://wccftech.com/apple-mulling-a-possible-test-production-line-for-a-foldable-iphone-targets-10-shipment-growth-in-2026/
    WCCFTECH.COM
    Apple Mulling A Possible Test Production Line For A Foldable iPhone, Targets 10% Shipment Growth In 2026
    Apple has held talks with its suppliers regarding the possibility of building a test production line for its planned foldable iPhones.
    0 Comments 0 Shares 33 Views 0 Reviews
  • Intel Gaudi 3 ฝ่าด่านตลาด AI ด้วยการจับมือ Dell — เปิดตัวในเซิร์ฟเวอร์ PowerEdge XE7740 พร้อมความหวังใหม่ในยุคที่ NVIDIA ครองเกม

    หลังจากที่ Intel พยายามผลักดันไลน์ผลิตภัณฑ์ด้าน AI มาหลายปีโดยไม่ประสบความสำเร็จเท่าที่ควร ล่าสุด Gaudi 3 ซึ่งเป็นชิปเร่งความเร็ว AI รุ่นใหม่ของ Intel ได้รับการบรรจุในเซิร์ฟเวอร์ Dell PowerEdge XE7740 อย่างเป็นทางการ ถือเป็นหนึ่งใน “ชัยชนะเล็ก ๆ” ที่อาจพลิกเกมให้ Intel กลับมาแข่งขันกับ NVIDIA และ AMD ได้อีกครั้ง

    PowerEdge XE7740 เป็นเซิร์ฟเวอร์ระดับองค์กรที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ รองรับ Gaudi 3 ได้สูงสุด 8 ตัวในระบบเดียว พร้อมระบบเครือข่ายแบบ 1:1 ระหว่าง accelerator และ NIC เพื่อเพิ่มประสิทธิภาพการประมวลผลและการเชื่อมต่อ นอกจากนี้ยังรองรับโมเดล AI ยอดนิยม เช่น Llama4, Deepseek, Phi4 และ Falcon3

    Dell ชูจุดเด่นของ Gaudi 3 ว่า “คุ้มค่า” และ “ปรับขนาดได้ง่าย” โดยเฉพาะในองค์กรที่มีข้อจำกัดด้านพลังงานและระบบระบายความร้อน ซึ่ง Gaudi 3 ถูกออกแบบมาให้ทำงานได้ดีในแร็คขนาด ~10kW ที่พบได้ทั่วไปในดาต้าเซ็นเตอร์

    แม้ Dell ยังไม่เปิดเผยตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่จากการทดสอบก่อนหน้านี้ Gaudi 3 เคยแสดงผลลัพธ์ที่เร็วกว่า NVIDIA H100 และ H200 ในบางงาน inferencing ซึ่งหากเป็นจริง ก็อาจเป็นจุดเปลี่ยนสำคัญของ Intel ในตลาด AI ที่เคยถูกมองว่า “ช้าเกินไป”

    Intel Gaudi 3 ได้รับการบรรจุในเซิร์ฟเวอร์ Dell PowerEdge XE7740
    ถือเป็นการบุกตลาดองค์กรครั้งสำคัญของ Intel
    Dell เป็นหนึ่งในผู้ผลิตรายแรกที่นำ Gaudi 3 มาใช้ในระบบจริง

    PowerEdge XE7740 รองรับงาน AI เต็มรูปแบบ
    รองรับ Gaudi 3 ได้สูงสุด 8 ตัวในระบบเดียว
    มีระบบเครือข่ายแบบ 1:1 ระหว่าง accelerator และ NIC
    รองรับโมเดล AI ยอดนิยม เช่น Llama4, Phi4, Falcon3

    จุดเด่นของ Gaudi 3 คือความคุ้มค่าและความยืดหยุ่น
    เหมาะกับองค์กรที่มีข้อจำกัดด้านพลังงานและระบบระบายความร้อน
    รองรับการเชื่อมต่อแบบ RoCE v2 สำหรับงานขนาดใหญ่

    Dell ชูจุดเด่นด้านการปรับขนาดและการติดตั้งง่าย
    ใช้แชสซีแบบ 4U ที่ระบายความร้อนได้ดี
    รองรับการติดตั้งในแร็คมาตรฐาน ~10kW โดยไม่ต้องปรับโครงสร้าง

    Gaudi 3 เคยแสดงผลลัพธ์ดีกว่า NVIDIA H100/H200 ในบางงาน
    โดยเฉพาะงาน inferencing ที่เน้นประสิทธิภาพต่อวัตต์
    ยังต้องรอผลการทดสอบจาก Dell เพื่อยืนยัน

    https://wccftech.com/intel-gaudi-3-ai-chips-secure-rare-integration-in-dell-poweredge-servers/
    📰 Intel Gaudi 3 ฝ่าด่านตลาด AI ด้วยการจับมือ Dell — เปิดตัวในเซิร์ฟเวอร์ PowerEdge XE7740 พร้อมความหวังใหม่ในยุคที่ NVIDIA ครองเกม หลังจากที่ Intel พยายามผลักดันไลน์ผลิตภัณฑ์ด้าน AI มาหลายปีโดยไม่ประสบความสำเร็จเท่าที่ควร ล่าสุด Gaudi 3 ซึ่งเป็นชิปเร่งความเร็ว AI รุ่นใหม่ของ Intel ได้รับการบรรจุในเซิร์ฟเวอร์ Dell PowerEdge XE7740 อย่างเป็นทางการ ถือเป็นหนึ่งใน “ชัยชนะเล็ก ๆ” ที่อาจพลิกเกมให้ Intel กลับมาแข่งขันกับ NVIDIA และ AMD ได้อีกครั้ง PowerEdge XE7740 เป็นเซิร์ฟเวอร์ระดับองค์กรที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ รองรับ Gaudi 3 ได้สูงสุด 8 ตัวในระบบเดียว พร้อมระบบเครือข่ายแบบ 1:1 ระหว่าง accelerator และ NIC เพื่อเพิ่มประสิทธิภาพการประมวลผลและการเชื่อมต่อ นอกจากนี้ยังรองรับโมเดล AI ยอดนิยม เช่น Llama4, Deepseek, Phi4 และ Falcon3 Dell ชูจุดเด่นของ Gaudi 3 ว่า “คุ้มค่า” และ “ปรับขนาดได้ง่าย” โดยเฉพาะในองค์กรที่มีข้อจำกัดด้านพลังงานและระบบระบายความร้อน ซึ่ง Gaudi 3 ถูกออกแบบมาให้ทำงานได้ดีในแร็คขนาด ~10kW ที่พบได้ทั่วไปในดาต้าเซ็นเตอร์ แม้ Dell ยังไม่เปิดเผยตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่จากการทดสอบก่อนหน้านี้ Gaudi 3 เคยแสดงผลลัพธ์ที่เร็วกว่า NVIDIA H100 และ H200 ในบางงาน inferencing ซึ่งหากเป็นจริง ก็อาจเป็นจุดเปลี่ยนสำคัญของ Intel ในตลาด AI ที่เคยถูกมองว่า “ช้าเกินไป” ✅ Intel Gaudi 3 ได้รับการบรรจุในเซิร์ฟเวอร์ Dell PowerEdge XE7740 ➡️ ถือเป็นการบุกตลาดองค์กรครั้งสำคัญของ Intel ➡️ Dell เป็นหนึ่งในผู้ผลิตรายแรกที่นำ Gaudi 3 มาใช้ในระบบจริง ✅ PowerEdge XE7740 รองรับงาน AI เต็มรูปแบบ ➡️ รองรับ Gaudi 3 ได้สูงสุด 8 ตัวในระบบเดียว ➡️ มีระบบเครือข่ายแบบ 1:1 ระหว่าง accelerator และ NIC ➡️ รองรับโมเดล AI ยอดนิยม เช่น Llama4, Phi4, Falcon3 ✅ จุดเด่นของ Gaudi 3 คือความคุ้มค่าและความยืดหยุ่น ➡️ เหมาะกับองค์กรที่มีข้อจำกัดด้านพลังงานและระบบระบายความร้อน ➡️ รองรับการเชื่อมต่อแบบ RoCE v2 สำหรับงานขนาดใหญ่ ✅ Dell ชูจุดเด่นด้านการปรับขนาดและการติดตั้งง่าย ➡️ ใช้แชสซีแบบ 4U ที่ระบายความร้อนได้ดี ➡️ รองรับการติดตั้งในแร็คมาตรฐาน ~10kW โดยไม่ต้องปรับโครงสร้าง ✅ Gaudi 3 เคยแสดงผลลัพธ์ดีกว่า NVIDIA H100/H200 ในบางงาน ➡️ โดยเฉพาะงาน inferencing ที่เน้นประสิทธิภาพต่อวัตต์ ➡️ ยังต้องรอผลการทดสอบจาก Dell เพื่อยืนยัน https://wccftech.com/intel-gaudi-3-ai-chips-secure-rare-integration-in-dell-poweredge-servers/
    WCCFTECH.COM
    Intel’s Gaudi 3 AI Chips Secure Integration in Dell’s PowerEdge Servers, Marking One of the Few Wins for the Struggling Lineup
    Intel's Gaudi 3 AI chips have seen a rather 'rare' feature from Dell's AI servers, which are claimed to be cost-efficient and scalable.
    0 Comments 0 Shares 35 Views 0 Reviews
  • Agentic AI กับภารกิจ Red Teaming ยุคใหม่ — เมื่อ AI ไม่ใช่แค่เครื่องมือ แต่กลายเป็น “ผู้เล่น” ที่ต้องถูกทดสอบ

    ในยุคที่ AI ไม่ได้เป็นแค่โมเดลที่ตอบคำถาม แต่กลายเป็น “ตัวแทนอัตโนมัติ” หรือ Agentic AI ที่สามารถตัดสินใจ ทำงาน และสื่อสารกับระบบอื่นได้เอง ความเสี่ยงด้านความปลอดภัยก็เพิ่มขึ้นอย่างมหาศาล เพราะ AI เหล่านี้ไม่เพียงแต่ตอบสนองตามคำสั่ง แต่ยังสามารถ “คิดต่อยอด” และ “เชื่อมโยง” กับระบบอื่นได้โดยไม่มีผู้ใช้ควบคุมโดยตรง

    Cloud Security Alliance (CSA) ได้ออกคู่มือ Agentic AI Red Teaming Guide เพื่อช่วยให้องค์กรสามารถทดสอบความปลอดภัยของระบบ AI แบบใหม่ได้อย่างเป็นระบบ โดยเน้นการจำลองการโจมตีที่ซับซ้อน เช่น การแทรกคำสั่งแฝง (prompt injection), การเปลี่ยนเป้าหมายของ agent, การข้ามระบบควบคุมสิทธิ์ และการใช้หลาย agent ร่วมกันเพื่อหลบเลี่ยงการตรวจจับ

    หนึ่งในเทคนิคที่ถูกพูดถึงมากคือ EchoLeak ซึ่งเป็นการแอบขโมยข้อมูลผ่านคำสั่งที่ดูเหมือนไม่มีพิษภัย แต่สามารถหลอกให้ agent ทำงานผิดจากที่ตั้งใจไว้ เช่น การแอบฝังมัลแวร์ในคำสั่งที่ถูกเข้ารหัสด้วย base64 หรือใช้ภาษากฎหมายเพื่อหลบการตรวจสอบ

    OWASP และ GitHub ก็ได้ร่วมกันจัดทำรายการ “Top 10 ความเสี่ยงของ Agentic AI” ซึ่งรวมถึงการแทรกแซงหน่วยความจำ, การปลอมเป้าหมาย, การโจมตีแบบ time-based และการใช้ช่องทางลับในการส่งข้อมูลออกจากระบบ

    นักวิจัยยังพบว่า แม้จะมีการป้องกันไว้ดีเพียงใด แต่การโจมตีแบบ prompt injection ก็ยังสามารถทะลุผ่านได้ในบางกรณี โดยมีการทดลองกว่า 2 ล้านครั้ง พบว่ามีการโจมตีสำเร็จถึง 60,000 ครั้ง ซึ่งแสดงให้เห็นว่า agentic AI ยังมีช่องโหว่ที่ต้องจัดการอย่างจริงจัง

    5 ขั้นตอนสำหรับการทำ Agentic AI Red Teaming

    1️⃣ เปลี่ยนมุมมองการป้องกันใหม่
    ต้องมอง Agentic AI ไม่ใช่แค่ “เครื่องมือ” แต่เป็น “ผู้เล่น” ที่มีพฤติกรรมซับซ้อน
    ใช้ AI agent ทำงานซ้ำ ๆ ที่น่าเบื่อ แล้วให้มนุษย์เน้นโจมตีเชิงสร้างสรรค์
    ทดสอบจากมุมมองผู้ใช้จริง เช่น ความเข้าใจผิด ความไว้ใจเกินเหตุ หรือการหาทางลัดหลบระบบป้องกัน
    หากยังใช้วิธีคิดแบบเดิม จะมองไม่เห็นช่องโหว่ที่เกิดจากพฤติกรรมของผู้ใช้และ agent

    2️⃣ รู้จักและทดสอบ “Guardrails” และระบบกำกับดูแลอย่างต่อเนื่อง
    ต้องรู้ว่า guardrails อยู่ตรงไหน เช่น ใน cloud, workflow หรือในตัว agent
    ทดสอบก่อนนำ agent เข้าสู่ production และต้องมีระบบสังเกตการณ์ที่ดี
    หากไม่รู้ว่า guardrails อยู่ตรงไหน อาจเปิดช่องให้ agent ถูกเปลี่ยนเป้าหมายหรือหลบเลี่ยงการควบคุม

    3️⃣ ขยายฐานทีม Red Team ให้หลากหลาย
    ไม่จำเป็นต้องเป็นผู้เชี่ยวชาญด้านเทคนิคเสมอไป
    คนที่เข้าใจภาษา เช่น นักเรียนสายมนุษย์ศาสตร์ ก็สามารถทดสอบ prompt injection ได้
    หากจำกัดทีมไว้เฉพาะสายเทคนิค อาจพลาดมุมมองการโจมตีที่ใช้ภาษาหรือพฤติกรรมผู้ใช้

    4️⃣ ขยายขอบเขตการมองหาโซลูชัน
    Agentic AI ไม่ทำงานตามลำดับเวลาแบบเดิมอีกต่อไป
    ต้องมองระบบเป็นภาพรวม ไม่ใช่แค่จุดใดจุดหนึ่ง
    AI ไม่ใช่แค่เครื่องมือ แต่เป็นผู้ร่วมตัดสินใจ และอาจกลายเป็น “คู่แข่ง” ได้
    หากยังมองว่า AI เป็นแค่เครื่องมือ จะพลาดการตรวจจับพฤติกรรมที่เกิดจากการตัดสินใจของ agent

    5️⃣ ใช้เครื่องมือและเทคนิคล่าสุดในการทดสอบ
    มีเครื่องมือใหม่มากมาย เช่น AgentDojo, SPLX Agentic Radar, HuggingFace Fujitsu benchmark
    Microsoft, Salesforce, Crowdstrike และ HiddenLayer ก็มีระบบ red teaming สำหรับ agent โดยเฉพาะ
    ควรทดสอบตั้งแต่ช่วงพัฒนาโมเดล, พัฒนาแอป, ไปจนถึงก่อนปล่อยใช้งานจริง
    หากไม่ใช้เครื่องมือที่ออกแบบมาเฉพาะสำหรับ agentic AI จะไม่สามารถจำลองการโจมตีที่ซับซ้อนได้

    https://www.csoonline.com/article/4055224/5-steps-for-deploying-agentic-ai-red-teaming.html
    📰 Agentic AI กับภารกิจ Red Teaming ยุคใหม่ — เมื่อ AI ไม่ใช่แค่เครื่องมือ แต่กลายเป็น “ผู้เล่น” ที่ต้องถูกทดสอบ ในยุคที่ AI ไม่ได้เป็นแค่โมเดลที่ตอบคำถาม แต่กลายเป็น “ตัวแทนอัตโนมัติ” หรือ Agentic AI ที่สามารถตัดสินใจ ทำงาน และสื่อสารกับระบบอื่นได้เอง ความเสี่ยงด้านความปลอดภัยก็เพิ่มขึ้นอย่างมหาศาล เพราะ AI เหล่านี้ไม่เพียงแต่ตอบสนองตามคำสั่ง แต่ยังสามารถ “คิดต่อยอด” และ “เชื่อมโยง” กับระบบอื่นได้โดยไม่มีผู้ใช้ควบคุมโดยตรง Cloud Security Alliance (CSA) ได้ออกคู่มือ Agentic AI Red Teaming Guide เพื่อช่วยให้องค์กรสามารถทดสอบความปลอดภัยของระบบ AI แบบใหม่ได้อย่างเป็นระบบ โดยเน้นการจำลองการโจมตีที่ซับซ้อน เช่น การแทรกคำสั่งแฝง (prompt injection), การเปลี่ยนเป้าหมายของ agent, การข้ามระบบควบคุมสิทธิ์ และการใช้หลาย agent ร่วมกันเพื่อหลบเลี่ยงการตรวจจับ หนึ่งในเทคนิคที่ถูกพูดถึงมากคือ EchoLeak ซึ่งเป็นการแอบขโมยข้อมูลผ่านคำสั่งที่ดูเหมือนไม่มีพิษภัย แต่สามารถหลอกให้ agent ทำงานผิดจากที่ตั้งใจไว้ เช่น การแอบฝังมัลแวร์ในคำสั่งที่ถูกเข้ารหัสด้วย base64 หรือใช้ภาษากฎหมายเพื่อหลบการตรวจสอบ OWASP และ GitHub ก็ได้ร่วมกันจัดทำรายการ “Top 10 ความเสี่ยงของ Agentic AI” ซึ่งรวมถึงการแทรกแซงหน่วยความจำ, การปลอมเป้าหมาย, การโจมตีแบบ time-based และการใช้ช่องทางลับในการส่งข้อมูลออกจากระบบ นักวิจัยยังพบว่า แม้จะมีการป้องกันไว้ดีเพียงใด แต่การโจมตีแบบ prompt injection ก็ยังสามารถทะลุผ่านได้ในบางกรณี โดยมีการทดลองกว่า 2 ล้านครั้ง พบว่ามีการโจมตีสำเร็จถึง 60,000 ครั้ง ซึ่งแสดงให้เห็นว่า agentic AI ยังมีช่องโหว่ที่ต้องจัดการอย่างจริงจัง 🧠 5 ขั้นตอนสำหรับการทำ Agentic AI Red Teaming ✅ 1️⃣ ✅ เปลี่ยนมุมมองการป้องกันใหม่ ➡️ ต้องมอง Agentic AI ไม่ใช่แค่ “เครื่องมือ” แต่เป็น “ผู้เล่น” ที่มีพฤติกรรมซับซ้อน ➡️ ใช้ AI agent ทำงานซ้ำ ๆ ที่น่าเบื่อ แล้วให้มนุษย์เน้นโจมตีเชิงสร้างสรรค์ ➡️ ทดสอบจากมุมมองผู้ใช้จริง เช่น ความเข้าใจผิด ความไว้ใจเกินเหตุ หรือการหาทางลัดหลบระบบป้องกัน ⛔ หากยังใช้วิธีคิดแบบเดิม จะมองไม่เห็นช่องโหว่ที่เกิดจากพฤติกรรมของผู้ใช้และ agent ✅ 2️⃣ ✅ รู้จักและทดสอบ “Guardrails” และระบบกำกับดูแลอย่างต่อเนื่อง ➡️ ต้องรู้ว่า guardrails อยู่ตรงไหน เช่น ใน cloud, workflow หรือในตัว agent ➡️ ทดสอบก่อนนำ agent เข้าสู่ production และต้องมีระบบสังเกตการณ์ที่ดี ⛔ หากไม่รู้ว่า guardrails อยู่ตรงไหน อาจเปิดช่องให้ agent ถูกเปลี่ยนเป้าหมายหรือหลบเลี่ยงการควบคุม ✅ 3️⃣ ✅ ขยายฐานทีม Red Team ให้หลากหลาย ➡️ ไม่จำเป็นต้องเป็นผู้เชี่ยวชาญด้านเทคนิคเสมอไป ➡️ คนที่เข้าใจภาษา เช่น นักเรียนสายมนุษย์ศาสตร์ ก็สามารถทดสอบ prompt injection ได้ ⛔ หากจำกัดทีมไว้เฉพาะสายเทคนิค อาจพลาดมุมมองการโจมตีที่ใช้ภาษาหรือพฤติกรรมผู้ใช้ ✅ 4️⃣ ✅ ขยายขอบเขตการมองหาโซลูชัน ➡️ Agentic AI ไม่ทำงานตามลำดับเวลาแบบเดิมอีกต่อไป ➡️ ต้องมองระบบเป็นภาพรวม ไม่ใช่แค่จุดใดจุดหนึ่ง ➡️ AI ไม่ใช่แค่เครื่องมือ แต่เป็นผู้ร่วมตัดสินใจ และอาจกลายเป็น “คู่แข่ง” ได้ ⛔ หากยังมองว่า AI เป็นแค่เครื่องมือ จะพลาดการตรวจจับพฤติกรรมที่เกิดจากการตัดสินใจของ agent ✅ 5️⃣ ✅ ใช้เครื่องมือและเทคนิคล่าสุดในการทดสอบ ➡️ มีเครื่องมือใหม่มากมาย เช่น AgentDojo, SPLX Agentic Radar, HuggingFace Fujitsu benchmark ➡️ Microsoft, Salesforce, Crowdstrike และ HiddenLayer ก็มีระบบ red teaming สำหรับ agent โดยเฉพาะ ➡️ ควรทดสอบตั้งแต่ช่วงพัฒนาโมเดล, พัฒนาแอป, ไปจนถึงก่อนปล่อยใช้งานจริง ⛔ หากไม่ใช้เครื่องมือที่ออกแบบมาเฉพาะสำหรับ agentic AI จะไม่สามารถจำลองการโจมตีที่ซับซ้อนได้ https://www.csoonline.com/article/4055224/5-steps-for-deploying-agentic-ai-red-teaming.html
    WWW.CSOONLINE.COM
    5 steps for deploying agentic AI red teaming
    Agentic AI functions like an autonomous operator rather than a system that is why it is important to stress test it with AI-focused red team frameworks.
    0 Comments 0 Shares 36 Views 0 Reviews
  • Raven Stealer: มัลแวร์สายลับยุคใหม่ที่ขโมยข้อมูลจากเบราว์เซอร์แล้วส่งผ่าน Telegram — ภัยเงียบที่ซ่อนตัวในความเบา

    ภัยคุกคามไซเบอร์ล่าสุดที่ถูกเปิดโปงโดยทีม Lat61 Threat Intelligence จาก Point Wild คือมัลแวร์ชื่อ “Raven Stealer” ซึ่งแม้จะดูเล็กและเรียบง่าย แต่กลับมีความสามารถในการขโมยข้อมูลส่วนตัวจากเบราว์เซอร์ยอดนิยมอย่าง Chrome และ Edge ได้อย่างมีประสิทธิภาพ โดยใช้เทคนิคล้ำสมัย เช่น process hollowing และการส่งข้อมูลผ่าน Telegram bot แบบเรียลไทม์

    Raven Stealer ถูกเขียนด้วยภาษา Delphi และ C++ และถูกแจกจ่ายผ่านฟอรั่มใต้ดินหรือมากับซอฟต์แวร์เถื่อน โดยเมื่อถูกติดตั้ง มัลแวร์จะทำงานแบบไร้ร่องรอยในหน่วยความจำ ไม่ทิ้งไฟล์ไว้บนฮาร์ดดิสก์ ทำให้แอนตี้ไวรัสทั่วไปตรวจจับได้ยากมาก

    สิ่งที่ Raven ขโมยมีตั้งแต่รหัสผ่าน คุกกี้ ข้อมูลบัตรเครดิต ไปจนถึง session cookies ที่สามารถใช้ข้ามระบบ MFA ได้ นอกจากนี้ยังสามารถขโมยข้อมูลจากแอปอื่น ๆ และกระเป๋าเงินคริปโตได้ด้วย โดยข้อมูลทั้งหมดจะถูกจัดเก็บใน ZIP แล้วส่งผ่าน Telegram API ไปยังผู้โจมตี ซึ่งมักใช้ Telegram เป็นช่องทางควบคุมและรับข้อมูลแบบ C2 (Command and Control)

    แม้การทดสอบบางครั้งจะล้มเหลวในการส่งข้อมูลเพราะ token ผิดพลาด แต่โครงสร้างของมัลแวร์นี้แสดงให้เห็นถึงแนวโน้มใหม่ของ “commodity malware” ที่แม้ผู้โจมตีจะไม่มีทักษะสูง ก็สามารถใช้เครื่องมือเหล่านี้ได้อย่างง่ายดาย

    Raven Stealer เป็นมัลแวร์ขโมยข้อมูลที่ถูกพัฒนาอย่างลับ
    เขียนด้วย Delphi และ C++
    ถูกแจกจ่ายผ่านฟอรั่มใต้ดินและซอฟต์แวร์เถื่อน

    ใช้เทคนิค process hollowing เพื่อหลบเลี่ยงการตรวจจับ
    ทำงานในหน่วยความจำโดยไม่ทิ้งไฟล์บนดิสก์
    ปลอมตัวเป็นโปรเซสของเบราว์เซอร์ เช่น chrome.exe

    ขโมยข้อมูลจากเบราว์เซอร์และแอปอื่น ๆ
    รหัสผ่าน คุกกี้ ข้อมูลบัตรเครดิต และ session cookies
    ข้อมูลจากกระเป๋าเงินคริปโตและแอปอื่น ๆ ก็ถูกเก็บ

    ส่งข้อมูลผ่าน Telegram bot แบบเรียลไทม์
    ใช้ API /sendDocument เพื่อส่ง ZIP file
    Telegram ถูกใช้เป็นช่องทางควบคุมและรับข้อมูล

    มีโครงสร้างที่เอื้อต่อผู้โจมตีที่ไม่มีทักษะสูง
    ใช้ builder สร้าง payload ได้ง่าย
    มี UI ที่เรียบง่ายและรองรับโมดูลแบบ dynamic

    คำเตือนเกี่ยวกับความเสี่ยงจาก Raven Stealer
    การทำงานแบบ in-memory ทำให้แอนตี้ไวรัสทั่วไปตรวจจับได้ยาก
    session cookies ที่ถูกขโมยสามารถใช้ข้าม MFA ได้
    การใช้ Telegram เป็นช่องทางส่งข้อมูลอาจหลบเลี่ยง firewall ขององค์กร
    ผู้ใช้ที่ดาวน์โหลดซอฟต์แวร์เถื่อนมีความเสี่ยงสูงต่อการติดมัลแวร์นี้

    https://hackread.com/raven-stealer-malware-browsers-passwords-payment-data/
    📰 Raven Stealer: มัลแวร์สายลับยุคใหม่ที่ขโมยข้อมูลจากเบราว์เซอร์แล้วส่งผ่าน Telegram — ภัยเงียบที่ซ่อนตัวในความเบา ภัยคุกคามไซเบอร์ล่าสุดที่ถูกเปิดโปงโดยทีม Lat61 Threat Intelligence จาก Point Wild คือมัลแวร์ชื่อ “Raven Stealer” ซึ่งแม้จะดูเล็กและเรียบง่าย แต่กลับมีความสามารถในการขโมยข้อมูลส่วนตัวจากเบราว์เซอร์ยอดนิยมอย่าง Chrome และ Edge ได้อย่างมีประสิทธิภาพ โดยใช้เทคนิคล้ำสมัย เช่น process hollowing และการส่งข้อมูลผ่าน Telegram bot แบบเรียลไทม์ Raven Stealer ถูกเขียนด้วยภาษา Delphi และ C++ และถูกแจกจ่ายผ่านฟอรั่มใต้ดินหรือมากับซอฟต์แวร์เถื่อน โดยเมื่อถูกติดตั้ง มัลแวร์จะทำงานแบบไร้ร่องรอยในหน่วยความจำ ไม่ทิ้งไฟล์ไว้บนฮาร์ดดิสก์ ทำให้แอนตี้ไวรัสทั่วไปตรวจจับได้ยากมาก สิ่งที่ Raven ขโมยมีตั้งแต่รหัสผ่าน คุกกี้ ข้อมูลบัตรเครดิต ไปจนถึง session cookies ที่สามารถใช้ข้ามระบบ MFA ได้ นอกจากนี้ยังสามารถขโมยข้อมูลจากแอปอื่น ๆ และกระเป๋าเงินคริปโตได้ด้วย โดยข้อมูลทั้งหมดจะถูกจัดเก็บใน ZIP แล้วส่งผ่าน Telegram API ไปยังผู้โจมตี ซึ่งมักใช้ Telegram เป็นช่องทางควบคุมและรับข้อมูลแบบ C2 (Command and Control) แม้การทดสอบบางครั้งจะล้มเหลวในการส่งข้อมูลเพราะ token ผิดพลาด แต่โครงสร้างของมัลแวร์นี้แสดงให้เห็นถึงแนวโน้มใหม่ของ “commodity malware” ที่แม้ผู้โจมตีจะไม่มีทักษะสูง ก็สามารถใช้เครื่องมือเหล่านี้ได้อย่างง่ายดาย ✅ Raven Stealer เป็นมัลแวร์ขโมยข้อมูลที่ถูกพัฒนาอย่างลับ ➡️ เขียนด้วย Delphi และ C++ ➡️ ถูกแจกจ่ายผ่านฟอรั่มใต้ดินและซอฟต์แวร์เถื่อน ✅ ใช้เทคนิค process hollowing เพื่อหลบเลี่ยงการตรวจจับ ➡️ ทำงานในหน่วยความจำโดยไม่ทิ้งไฟล์บนดิสก์ ➡️ ปลอมตัวเป็นโปรเซสของเบราว์เซอร์ เช่น chrome.exe ✅ ขโมยข้อมูลจากเบราว์เซอร์และแอปอื่น ๆ ➡️ รหัสผ่าน คุกกี้ ข้อมูลบัตรเครดิต และ session cookies ➡️ ข้อมูลจากกระเป๋าเงินคริปโตและแอปอื่น ๆ ก็ถูกเก็บ ✅ ส่งข้อมูลผ่าน Telegram bot แบบเรียลไทม์ ➡️ ใช้ API /sendDocument เพื่อส่ง ZIP file ➡️ Telegram ถูกใช้เป็นช่องทางควบคุมและรับข้อมูล ✅ มีโครงสร้างที่เอื้อต่อผู้โจมตีที่ไม่มีทักษะสูง ➡️ ใช้ builder สร้าง payload ได้ง่าย ➡️ มี UI ที่เรียบง่ายและรองรับโมดูลแบบ dynamic ‼️ คำเตือนเกี่ยวกับความเสี่ยงจาก Raven Stealer ⛔ การทำงานแบบ in-memory ทำให้แอนตี้ไวรัสทั่วไปตรวจจับได้ยาก ⛔ session cookies ที่ถูกขโมยสามารถใช้ข้าม MFA ได้ ⛔ การใช้ Telegram เป็นช่องทางส่งข้อมูลอาจหลบเลี่ยง firewall ขององค์กร ⛔ ผู้ใช้ที่ดาวน์โหลดซอฟต์แวร์เถื่อนมีความเสี่ยงสูงต่อการติดมัลแวร์นี้ https://hackread.com/raven-stealer-malware-browsers-passwords-payment-data/
    HACKREAD.COM
    New Raven Stealer Malware Hits Browsers for Passwords and Payment Data
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 31 Views 0 Reviews
  • Codeless Testing Tools กับความหวังใหม่ในการตรวจจับช่องโหว่ความปลอดภัย — แต่ยังไม่ใช่คำตอบสุดท้ายของ Cybersecurity

    ในยุคที่การพัฒนาแอปพลิเคชันต้องเร็วขึ้นและครอบคลุมมากขึ้น เครื่องมือทดสอบแบบ “ไม่ต้องเขียนโค้ด” หรือ Codeless Testing Tools ได้รับความนิยมอย่างรวดเร็ว เพราะช่วยให้ทีมที่ไม่มีพื้นฐานด้านเทคนิค เช่น นักวิเคราะห์ธุรกิจหรือผู้จัดการโปรเจกต์ สามารถมีส่วนร่วมในการทดสอบซอฟต์แวร์ได้โดยไม่ต้องเขียนโค้ดแม้แต่บรรทัดเดียว

    เครื่องมือเหล่านี้ เช่น testRigor ใช้การคลิก ลากวาง หรือคำสั่งภาษาธรรมชาติในการสร้างชุดทดสอบ ซึ่งช่วยลดเวลาและต้นทุนในการพัฒนาอย่างมาก และยังเพิ่มความครอบคลุมของการทดสอบในระดับพฤติกรรมของผู้ใช้ เช่น การตรวจสอบการกรอกข้อมูลผิด หรือการตั้งรหัสผ่านที่ไม่ปลอดภัย

    แต่เมื่อพูดถึง “ความปลอดภัย” ซึ่งเป็นหัวใจของการพัฒนาในยุคไซเบอร์ ช่องโหว่ที่ซับซ้อน เช่น SQL Injection, XSS, หรือการตั้งค่าความปลอดภัยผิดพลาด ยังต้องใช้เครื่องมือเฉพาะทาง เช่น SAST และ DAST ที่สามารถวิเคราะห์โค้ดลึกหรือจำลองการโจมตีจริงได้

    แม้ Codeless Tools จะช่วยตรวจจับข้อผิดพลาดพื้นฐานได้ดี เช่น การตรวจสอบ input validation หรือการทดสอบ regression patch แต่ก็ยังไม่สามารถแทนที่เครื่องมือด้านความปลอดภัยโดยเฉพาะได้อย่างสมบูรณ์

    Codeless Testing Tools ได้รับความนิยมในทีมพัฒนา
    ใช้งานง่าย ไม่ต้องเขียนโค้ด
    ช่วยให้ทีมที่ไม่มีพื้นฐานเทคนิคสามารถร่วมทดสอบได้

    เพิ่มประสิทธิภาพในการทดสอบทั่วไป
    ลดเวลาและต้นทุนในการสร้าง test case
    เพิ่มความครอบคลุมของการทดสอบพฤติกรรมผู้ใช้

    สามารถตรวจจับข้อผิดพลาดพื้นฐานด้านความปลอดภัย
    ตรวจสอบ input validation ที่อ่อนแอ
    ตรวจสอบการตั้งรหัสผ่านและ UI ที่ไม่ปลอดภัย
    ทำ regression test สำหรับ patch ที่เคยติดตั้ง

    ช่องโหว่ความปลอดภัยที่พบบ่อยยังต้องใช้เครื่องมือเฉพาะ
    SQL Injection, XSS, API ที่ไม่ปลอดภัย, การตั้งค่าผิด
    ต้องใช้ SAST (วิเคราะห์โค้ด) และ DAST (จำลองการโจมตีจริง)

    เครื่องมือ Codeless อาจพัฒนาได้ในอนาคต
    มีแนวโน้มจะรวม AI และ Machine Learning เพื่อเพิ่มความสามารถ
    อาจช่วยตรวจจับช่องโหว่ลึกได้มากขึ้นในเวอร์ชันถัดไป

    https://hackread.com/codeless-testing-tools-detect-security-vulnerabilities/
    📰 Codeless Testing Tools กับความหวังใหม่ในการตรวจจับช่องโหว่ความปลอดภัย — แต่ยังไม่ใช่คำตอบสุดท้ายของ Cybersecurity ในยุคที่การพัฒนาแอปพลิเคชันต้องเร็วขึ้นและครอบคลุมมากขึ้น เครื่องมือทดสอบแบบ “ไม่ต้องเขียนโค้ด” หรือ Codeless Testing Tools ได้รับความนิยมอย่างรวดเร็ว เพราะช่วยให้ทีมที่ไม่มีพื้นฐานด้านเทคนิค เช่น นักวิเคราะห์ธุรกิจหรือผู้จัดการโปรเจกต์ สามารถมีส่วนร่วมในการทดสอบซอฟต์แวร์ได้โดยไม่ต้องเขียนโค้ดแม้แต่บรรทัดเดียว เครื่องมือเหล่านี้ เช่น testRigor ใช้การคลิก ลากวาง หรือคำสั่งภาษาธรรมชาติในการสร้างชุดทดสอบ ซึ่งช่วยลดเวลาและต้นทุนในการพัฒนาอย่างมาก และยังเพิ่มความครอบคลุมของการทดสอบในระดับพฤติกรรมของผู้ใช้ เช่น การตรวจสอบการกรอกข้อมูลผิด หรือการตั้งรหัสผ่านที่ไม่ปลอดภัย แต่เมื่อพูดถึง “ความปลอดภัย” ซึ่งเป็นหัวใจของการพัฒนาในยุคไซเบอร์ ช่องโหว่ที่ซับซ้อน เช่น SQL Injection, XSS, หรือการตั้งค่าความปลอดภัยผิดพลาด ยังต้องใช้เครื่องมือเฉพาะทาง เช่น SAST และ DAST ที่สามารถวิเคราะห์โค้ดลึกหรือจำลองการโจมตีจริงได้ แม้ Codeless Tools จะช่วยตรวจจับข้อผิดพลาดพื้นฐานได้ดี เช่น การตรวจสอบ input validation หรือการทดสอบ regression patch แต่ก็ยังไม่สามารถแทนที่เครื่องมือด้านความปลอดภัยโดยเฉพาะได้อย่างสมบูรณ์ ✅ Codeless Testing Tools ได้รับความนิยมในทีมพัฒนา ➡️ ใช้งานง่าย ไม่ต้องเขียนโค้ด ➡️ ช่วยให้ทีมที่ไม่มีพื้นฐานเทคนิคสามารถร่วมทดสอบได้ ✅ เพิ่มประสิทธิภาพในการทดสอบทั่วไป ➡️ ลดเวลาและต้นทุนในการสร้าง test case ➡️ เพิ่มความครอบคลุมของการทดสอบพฤติกรรมผู้ใช้ ✅ สามารถตรวจจับข้อผิดพลาดพื้นฐานด้านความปลอดภัย ➡️ ตรวจสอบ input validation ที่อ่อนแอ ➡️ ตรวจสอบการตั้งรหัสผ่านและ UI ที่ไม่ปลอดภัย ➡️ ทำ regression test สำหรับ patch ที่เคยติดตั้ง ✅ ช่องโหว่ความปลอดภัยที่พบบ่อยยังต้องใช้เครื่องมือเฉพาะ ➡️ SQL Injection, XSS, API ที่ไม่ปลอดภัย, การตั้งค่าผิด ➡️ ต้องใช้ SAST (วิเคราะห์โค้ด) และ DAST (จำลองการโจมตีจริง) ✅ เครื่องมือ Codeless อาจพัฒนาได้ในอนาคต ➡️ มีแนวโน้มจะรวม AI และ Machine Learning เพื่อเพิ่มความสามารถ ➡️ อาจช่วยตรวจจับช่องโหว่ลึกได้มากขึ้นในเวอร์ชันถัดไป https://hackread.com/codeless-testing-tools-detect-security-vulnerabilities/
    HACKREAD.COM
    Can Codeless Testing Tools Detect Common Security Vulnerabilities?
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 26 Views 0 Reviews
  • Wasm 3.0 เปิดตัวอย่างเป็นทางการ — ยกระดับ WebAssembly สู่ยุคใหม่ของการพัฒนาแอปพลิเคชันข้ามแพลตฟอร์ม

    หลังจากใช้เวลาพัฒนานานกว่า 6 ปี ในที่สุด WebAssembly หรือ Wasm ก็เปิดตัวเวอร์ชัน 3.0 อย่างเป็นทางการในเดือนกันยายน 2025 โดยถือเป็นการอัปเดตครั้งใหญ่ที่สุดตั้งแต่เริ่มมีมาตรฐานนี้ จุดเด่นของ Wasm 3.0 คือการเพิ่มฟีเจอร์ที่ทำให้สามารถรองรับแอปพลิเคชันขนาดใหญ่ขึ้น มีความปลอดภัยมากขึ้น และสามารถเขียนโปรแกรมในระดับสูงได้ง่ายขึ้น โดยยังคงรักษาแนวคิด “low-level but portable” ไว้อย่างเหนียวแน่น

    หนึ่งในฟีเจอร์ที่โดดเด่นคือการรองรับหน่วยความจำแบบ 64 บิต ซึ่งขยายขีดจำกัดจากเดิม 4GB เป็นสูงสุด 16 exabytes (ในทางทฤษฎี) แม้ว่าเบราว์เซอร์จะยังจำกัดไว้ที่ 16GB แต่ในระบบนอกเว็บ เช่น edge computing หรือ serverless ก็สามารถใช้ประโยชน์จากพื้นที่ขนาดมหาศาลนี้ได้เต็มที่

    นอกจากนี้ Wasm 3.0 ยังเพิ่มการรองรับ garbage collection แบบ low-level, การจัดการ memory หลายชุดในโมดูลเดียว, การเรียกฟังก์ชันแบบ tail call, การจัดการ exception แบบ native, และการใช้ reference types ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น รวมถึงการกำหนดพฤติกรรมแบบ deterministic เพื่อรองรับระบบที่ต้องการผลลัพธ์ซ้ำได้ เช่น blockchain

    จากการทดสอบประสิทธิภาพล่าสุด พบว่า Rust สามารถคอมไพล์เป็น Wasm 3.0 ได้เร็วกว่า C++ และให้ขนาดไฟล์เล็กกว่า โดย Rust ใช้เวลาเพียง 4.2 วินาทีและได้ไฟล์ขนาด 76KB ขณะที่ C++ ใช้เวลา 6.8 วินาทีและได้ไฟล์ขนาด 92KB

    Wasm 3.0 เปิดตัวอย่างเป็นทางการในเดือนกันยายน 2025
    เป็นการอัปเดตครั้งใหญ่ที่สุดในประวัติศาสตร์ของ WebAssembly
    พัฒนาโดย W3C Community Group และ Working Group

    รองรับหน่วยความจำแบบ 64 บิต
    ขยายขีดจำกัดจาก 4GB เป็นสูงสุด 16 exabytes
    บนเว็บยังจำกัดไว้ที่ 16GB แต่ระบบนอกเว็บสามารถใช้ได้เต็มที่

    รองรับ multiple memories ในโมดูลเดียว
    สามารถประกาศและเข้าถึง memory หลายชุดได้โดยตรง
    รองรับการคัดลอกข้อมูลระหว่าง memory ได้ทันที

    เพิ่มระบบ garbage collection แบบ low-level
    ใช้ struct และ array types เพื่อจัดการหน่วยความจำ
    ไม่มี object system หรือ closure ฝังในตัว เพื่อไม่ให้เอนเอียงกับภาษาใด

    รองรับ typed references และ call_ref
    ป้องกันการเรียกฟังก์ชันผิดประเภท
    ลดการตรวจสอบ runtime และเพิ่มความปลอดภัย

    รองรับ tail calls และ exception handling แบบ native
    tail call ช่วยลดการใช้ stack
    exception สามารถ throw และ catch ได้ภายใน Wasm โดยไม่ต้องพึ่ง JavaScript

    เพิ่ม relaxed vector instructions และ deterministic profile
    relaxed SIMD ช่วยเพิ่มประสิทธิภาพบนฮาร์ดแวร์ต่างกัน
    deterministic profile ทำให้ผลลัพธ์ซ้ำได้ในระบบที่ต้องการความแม่นยำ

    รองรับ custom annotation syntax และ JS string builtins
    เพิ่มความสามารถในการสื่อสารระหว่าง Wasm กับ JavaScript
    รองรับการจัดการ string จาก JS โดยตรงใน Wasm

    ประสิทธิภาพของ Wasm 3.0 ดีขึ้นอย่างชัดเจน
    Rust คอมไพล์เร็วกว่า C++ และได้ไฟล์ขนาดเล็กกว่า
    รองรับการเข้าถึง DOM โดยตรงจาก Wasm โดยไม่ต้องผ่าน JS

    https://webassembly.org/news/2025-09-17-wasm-3.0/
    📰 Wasm 3.0 เปิดตัวอย่างเป็นทางการ — ยกระดับ WebAssembly สู่ยุคใหม่ของการพัฒนาแอปพลิเคชันข้ามแพลตฟอร์ม หลังจากใช้เวลาพัฒนานานกว่า 6 ปี ในที่สุด WebAssembly หรือ Wasm ก็เปิดตัวเวอร์ชัน 3.0 อย่างเป็นทางการในเดือนกันยายน 2025 โดยถือเป็นการอัปเดตครั้งใหญ่ที่สุดตั้งแต่เริ่มมีมาตรฐานนี้ จุดเด่นของ Wasm 3.0 คือการเพิ่มฟีเจอร์ที่ทำให้สามารถรองรับแอปพลิเคชันขนาดใหญ่ขึ้น มีความปลอดภัยมากขึ้น และสามารถเขียนโปรแกรมในระดับสูงได้ง่ายขึ้น โดยยังคงรักษาแนวคิด “low-level but portable” ไว้อย่างเหนียวแน่น หนึ่งในฟีเจอร์ที่โดดเด่นคือการรองรับหน่วยความจำแบบ 64 บิต ซึ่งขยายขีดจำกัดจากเดิม 4GB เป็นสูงสุด 16 exabytes (ในทางทฤษฎี) แม้ว่าเบราว์เซอร์จะยังจำกัดไว้ที่ 16GB แต่ในระบบนอกเว็บ เช่น edge computing หรือ serverless ก็สามารถใช้ประโยชน์จากพื้นที่ขนาดมหาศาลนี้ได้เต็มที่ นอกจากนี้ Wasm 3.0 ยังเพิ่มการรองรับ garbage collection แบบ low-level, การจัดการ memory หลายชุดในโมดูลเดียว, การเรียกฟังก์ชันแบบ tail call, การจัดการ exception แบบ native, และการใช้ reference types ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น รวมถึงการกำหนดพฤติกรรมแบบ deterministic เพื่อรองรับระบบที่ต้องการผลลัพธ์ซ้ำได้ เช่น blockchain จากการทดสอบประสิทธิภาพล่าสุด พบว่า Rust สามารถคอมไพล์เป็น Wasm 3.0 ได้เร็วกว่า C++ และให้ขนาดไฟล์เล็กกว่า โดย Rust ใช้เวลาเพียง 4.2 วินาทีและได้ไฟล์ขนาด 76KB ขณะที่ C++ ใช้เวลา 6.8 วินาทีและได้ไฟล์ขนาด 92KB ✅ Wasm 3.0 เปิดตัวอย่างเป็นทางการในเดือนกันยายน 2025 ➡️ เป็นการอัปเดตครั้งใหญ่ที่สุดในประวัติศาสตร์ของ WebAssembly ➡️ พัฒนาโดย W3C Community Group และ Working Group ✅ รองรับหน่วยความจำแบบ 64 บิต ➡️ ขยายขีดจำกัดจาก 4GB เป็นสูงสุด 16 exabytes ➡️ บนเว็บยังจำกัดไว้ที่ 16GB แต่ระบบนอกเว็บสามารถใช้ได้เต็มที่ ✅ รองรับ multiple memories ในโมดูลเดียว ➡️ สามารถประกาศและเข้าถึง memory หลายชุดได้โดยตรง ➡️ รองรับการคัดลอกข้อมูลระหว่าง memory ได้ทันที ✅ เพิ่มระบบ garbage collection แบบ low-level ➡️ ใช้ struct และ array types เพื่อจัดการหน่วยความจำ ➡️ ไม่มี object system หรือ closure ฝังในตัว เพื่อไม่ให้เอนเอียงกับภาษาใด ✅ รองรับ typed references และ call_ref ➡️ ป้องกันการเรียกฟังก์ชันผิดประเภท ➡️ ลดการตรวจสอบ runtime และเพิ่มความปลอดภัย ✅ รองรับ tail calls และ exception handling แบบ native ➡️ tail call ช่วยลดการใช้ stack ➡️ exception สามารถ throw และ catch ได้ภายใน Wasm โดยไม่ต้องพึ่ง JavaScript ✅ เพิ่ม relaxed vector instructions และ deterministic profile ➡️ relaxed SIMD ช่วยเพิ่มประสิทธิภาพบนฮาร์ดแวร์ต่างกัน ➡️ deterministic profile ทำให้ผลลัพธ์ซ้ำได้ในระบบที่ต้องการความแม่นยำ ✅ รองรับ custom annotation syntax และ JS string builtins ➡️ เพิ่มความสามารถในการสื่อสารระหว่าง Wasm กับ JavaScript ➡️ รองรับการจัดการ string จาก JS โดยตรงใน Wasm ✅ ประสิทธิภาพของ Wasm 3.0 ดีขึ้นอย่างชัดเจน ➡️ Rust คอมไพล์เร็วกว่า C++ และได้ไฟล์ขนาดเล็กกว่า ➡️ รองรับการเข้าถึง DOM โดยตรงจาก Wasm โดยไม่ต้องผ่าน JS https://webassembly.org/news/2025-09-17-wasm-3.0/
    WEBASSEMBLY.ORG
    Wasm 3.0 Completed - WebAssembly
    WebAssembly (abbreviated Wasm) is a binary instruction format for a stack-based virtual machine. Wasm is designed as a portable compilation target for programming languages, enabling deployment on the web for client and server applications.
    0 Comments 0 Shares 41 Views 0 Reviews
  • อังกฤษแชมป์ด้านจับผิดเว็บหลอกลวง — แต่ยังมีช่องโหว่เรื่องความเป็นส่วนตัวในยุค AI

    จากผลการทดสอบ National Privacy Test โดย NordVPN ซึ่งสำรวจผู้ใช้งานกว่า 30,000 คนจาก 185 ประเทศ พบว่า “ชาวอังกฤษ” เป็นกลุ่มที่มีความสามารถโดดเด่นที่สุดในบรรดาประเทศที่ใช้ภาษาอังกฤษ ในการตรวจจับเว็บไซต์ฟิชชิ่งหรือเว็บหลอกลวง โดยอังกฤษติดอันดับที่ 5 ของโลกในด้านความรู้ไซเบอร์และความเป็นส่วนตัวออนไลน์

    ในทางกลับกัน “ชาวอเมริกัน” กลับมีคะแนนต่ำในด้านนี้ โดยมีเพียง 31% เท่านั้นที่สามารถแยกแยะเว็บไซต์ฟิชชิ่งได้อย่างถูกต้อง ซึ่งถือเป็นช่องโหว่สำคัญในยุคที่การหลอกลวงออนไลน์มีความซับซ้อนมากขึ้นทุกวัน

    แม้ชาวอังกฤษจะเก่งเรื่องการตั้งรหัสผ่านและรู้จักวิธีหลีกเลี่ยงมัลแวร์ แต่กลับมีความรู้ต่ำมากในเรื่อง “ความเป็นส่วนตัวเมื่อใช้ AI ในที่ทำงาน” โดยมีเพียง 5% เท่านั้นที่ตอบคำถามด้านนี้ได้ถูกต้อง ซึ่งใกล้เคียงกับค่าเฉลี่ยทั่วโลกที่อยู่ที่ 6%

    นอกจากนี้ยังพบว่า คนอังกฤษจำนวนมากยังไม่รู้วิธีเก็บรักษารหัสผ่านอย่างปลอดภัย และไม่คุ้นเคยกับเครื่องมือออนไลน์ที่ช่วยปกป้องข้อมูลส่วนตัว เช่น VPN หรือ password manager ซึ่งเป็นสิ่งที่สามารถช่วยลดความเสี่ยงจากการถูกโจมตีทางไซเบอร์ได้อย่างมาก

    อังกฤษเป็นประเทศที่เก่งที่สุดในกลุ่มภาษาอังกฤษในการจับเว็บฟิชชิ่ง
    ติดอันดับ 5 ของโลกในด้านความรู้ไซเบอร์จากการทดสอบของ NordVPN
    มีความเข้าใจเรื่องมัลแวร์และการตั้งรหัสผ่านที่แข็งแรง (96%)

    สหรัฐฯ มีช่องโหว่ด้านการตรวจจับเว็บหลอกลวง
    มีเพียง 31% ของผู้ตอบแบบสอบถามที่สามารถแยกแยะเว็บฟิชชิ่งได้
    คะแนนรวมของสหรัฐฯ อยู่ที่อันดับ 4 ร่วมกับเยอรมนี

    ความรู้เรื่องความเป็นส่วนตัวเมื่อใช้ AI ยังต่ำทั่วโลก
    อังกฤษและสหรัฐฯ มีเพียง 5% ที่ตอบคำถามด้านนี้ได้ถูกต้อง
    ค่าเฉลี่ยทั่วโลกอยู่ที่ 6% เท่านั้น

    ช่องโหว่ด้านการจัดการรหัสผ่านยังมีอยู่มาก
    มีเพียง 21% ของชาวอังกฤษที่รู้วิธีเก็บรหัสผ่านอย่างปลอดภัย
    เครื่องมืออย่าง password manager ยังไม่เป็นที่รู้จักแพร่หลาย

    เครื่องมือช่วยป้องกันฟิชชิ่งมีบทบาทสำคัญ
    NordVPN Threat Protection Pro สามารถบล็อกเว็บอันตรายและสแกนมัลแวร์
    ทำงานได้แม้ไม่มีการเชื่อมต่อ VPN โดยตรง

    https://www.techradar.com/vpn/vpn-privacy-security/brits-are-better-than-americans-at-spotting-phishing-scams-nordvpn-study-shows
    📰 อังกฤษแชมป์ด้านจับผิดเว็บหลอกลวง — แต่ยังมีช่องโหว่เรื่องความเป็นส่วนตัวในยุค AI จากผลการทดสอบ National Privacy Test โดย NordVPN ซึ่งสำรวจผู้ใช้งานกว่า 30,000 คนจาก 185 ประเทศ พบว่า “ชาวอังกฤษ” เป็นกลุ่มที่มีความสามารถโดดเด่นที่สุดในบรรดาประเทศที่ใช้ภาษาอังกฤษ ในการตรวจจับเว็บไซต์ฟิชชิ่งหรือเว็บหลอกลวง โดยอังกฤษติดอันดับที่ 5 ของโลกในด้านความรู้ไซเบอร์และความเป็นส่วนตัวออนไลน์ ในทางกลับกัน “ชาวอเมริกัน” กลับมีคะแนนต่ำในด้านนี้ โดยมีเพียง 31% เท่านั้นที่สามารถแยกแยะเว็บไซต์ฟิชชิ่งได้อย่างถูกต้อง ซึ่งถือเป็นช่องโหว่สำคัญในยุคที่การหลอกลวงออนไลน์มีความซับซ้อนมากขึ้นทุกวัน แม้ชาวอังกฤษจะเก่งเรื่องการตั้งรหัสผ่านและรู้จักวิธีหลีกเลี่ยงมัลแวร์ แต่กลับมีความรู้ต่ำมากในเรื่อง “ความเป็นส่วนตัวเมื่อใช้ AI ในที่ทำงาน” โดยมีเพียง 5% เท่านั้นที่ตอบคำถามด้านนี้ได้ถูกต้อง ซึ่งใกล้เคียงกับค่าเฉลี่ยทั่วโลกที่อยู่ที่ 6% นอกจากนี้ยังพบว่า คนอังกฤษจำนวนมากยังไม่รู้วิธีเก็บรักษารหัสผ่านอย่างปลอดภัย และไม่คุ้นเคยกับเครื่องมือออนไลน์ที่ช่วยปกป้องข้อมูลส่วนตัว เช่น VPN หรือ password manager ซึ่งเป็นสิ่งที่สามารถช่วยลดความเสี่ยงจากการถูกโจมตีทางไซเบอร์ได้อย่างมาก ✅ อังกฤษเป็นประเทศที่เก่งที่สุดในกลุ่มภาษาอังกฤษในการจับเว็บฟิชชิ่ง ➡️ ติดอันดับ 5 ของโลกในด้านความรู้ไซเบอร์จากการทดสอบของ NordVPN ➡️ มีความเข้าใจเรื่องมัลแวร์และการตั้งรหัสผ่านที่แข็งแรง (96%) ✅ สหรัฐฯ มีช่องโหว่ด้านการตรวจจับเว็บหลอกลวง ➡️ มีเพียง 31% ของผู้ตอบแบบสอบถามที่สามารถแยกแยะเว็บฟิชชิ่งได้ ➡️ คะแนนรวมของสหรัฐฯ อยู่ที่อันดับ 4 ร่วมกับเยอรมนี ✅ ความรู้เรื่องความเป็นส่วนตัวเมื่อใช้ AI ยังต่ำทั่วโลก ➡️ อังกฤษและสหรัฐฯ มีเพียง 5% ที่ตอบคำถามด้านนี้ได้ถูกต้อง ➡️ ค่าเฉลี่ยทั่วโลกอยู่ที่ 6% เท่านั้น ✅ ช่องโหว่ด้านการจัดการรหัสผ่านยังมีอยู่มาก ➡️ มีเพียง 21% ของชาวอังกฤษที่รู้วิธีเก็บรหัสผ่านอย่างปลอดภัย ➡️ เครื่องมืออย่าง password manager ยังไม่เป็นที่รู้จักแพร่หลาย ✅ เครื่องมือช่วยป้องกันฟิชชิ่งมีบทบาทสำคัญ ➡️ NordVPN Threat Protection Pro สามารถบล็อกเว็บอันตรายและสแกนมัลแวร์ ➡️ ทำงานได้แม้ไม่มีการเชื่อมต่อ VPN โดยตรง https://www.techradar.com/vpn/vpn-privacy-security/brits-are-better-than-americans-at-spotting-phishing-scams-nordvpn-study-shows
    WWW.TECHRADAR.COM
    Brits are better than Americans at spotting phishing scams, NordVPN study shows
    The privacy risks of using AI at work are still a mystery for most
    0 Comments 0 Shares 30 Views 0 Reviews
  • Ryzen AI Max+ 395: ชิป AI ที่อาจเป็นหมัดเด็ดของ AMD พลิกเกมตลาดมินิพีซีและแล็ปท็อปทั่วโลก

    ในปี 2025 AMD ได้เปิดตัวชิป Ryzen AI Max+ 395 ซึ่งเป็นหัวใจของแพลตฟอร์ม Strix Halo ที่รวม CPU, GPU และ NPU ไว้ในตัวเดียวกัน โดยมีจุดเด่นคือการรองรับงาน AI ที่ขอบเครือข่าย (Edge AI) ด้วยพลังประมวลผลสูงถึง 50 TOPS และหน่วยความจำ UMA ที่สามารถใช้ RAM สูงสุดถึง 96GB เป็นหน่วยความจำกราฟิกโดยตรง

    ชิปนี้ถูกนำไปใช้ในมินิพีซีและแล็ปท็อปกว่า 30 รุ่นภายในเวลาเพียง 8 เดือน โดยมีแบรนด์อย่าง Asus, HP, Beelink และ GMKtec ร่วมวงเปิดตัวผลิตภัณฑ์ที่หลากหลาย ตั้งแต่ดีไซน์ทรงลูกบาศก์สุดล้ำ ไปจนถึงเครื่องแบบ tower ขนาดเล็กที่เน้นประสิทธิภาพระดับมืออาชีพ

    หนึ่งในรุ่นที่โดดเด่นคือ GMKtec EVO-X2 ซึ่งมาพร้อม RAM 64–128GB และ Radeon RX 8060S ที่ให้ประสิทธิภาพสูงในการเล่นเกม การเรนเดอร์ 3D และงาน AI แบบ local โดยมีการทดสอบแล้วว่าให้คะแนน multi-core สูงถึง 15,526.6 คะแนนใน CPU-Z

    แม้ AMD จะเคลมว่ากราฟิกในตัวสามารถเทียบชั้นกับ RTX รุ่นพกพา แต่ยังไม่มีการทดสอบในวงกว้างเพื่อยืนยันข้อกล่าวอ้างนี้ และอุปกรณ์ที่ใช้ชิปนี้ยังมีจำกัดในตลาดจริง

    AMD เปิดตัว Ryzen AI Max+ 395 ในแพลตฟอร์ม Strix Halo
    รวม CPU 16 คอร์ Zen 5, GPU RDNA 3.5 40 หน่วย และ NPU XDNA 2
    รองรับหน่วยความจำ UMA สูงสุด 96GB สำหรับงานกราฟิก
    พลังประมวลผล AI สูงถึง 50 TOPS

    มีการเปิดตัวมินิพีซีและแล็ปท็อปกว่า 30 รุ่น
    แบรนด์ที่เข้าร่วม ได้แก่ Asus, HP, Beelink, GMKtec
    ดีไซน์หลากหลาย ตั้งแต่ทรงลูกบาศก์ไปจนถึง tower ขนาดเล็ก
    รุ่นเด่น GMKtec EVO-X2 มาพร้อม Radeon RX 8060S และ RAM สูงสุด 128GB

    ประสิทธิภาพในการใช้งานจริงเริ่มมีการทดสอบ
    CPU-Z ให้คะแนน multi-core สูงถึง 15,526.6
    รองรับงาน AI, เกม และการเรนเดอร์ 3D ได้ดี
    ระบบระบายความร้อนมีประสิทธิภาพและเสียงเงียบ

    ราคาถูกกว่าระบบ AI server แบบเดิม
    มินิพีซี Strix Halo มีราคาประมาณ $1,800–$2,800
    ใช้พลังงานต่ำกว่า 300W และวางบนโต๊ะได้สะดวก

    คำเตือนเกี่ยวกับข้อจำกัดของชิป Ryzen AI Max+ 395
    อุปกรณ์ที่ใช้ชิปนี้ยังมีจำกัดในตลาดจริง
    การเคลมว่า iGPU เทียบชั้น RTX ยังไม่มีการพิสูจน์ในวงกว้าง
    รุ่น Engineering Sample ยังพบปัญหา BIOS และการจัดการพลังงาน
    การบำรุงรักษาอุปกรณ์บางรุ่นยังทำได้ยากเนื่องจากดีไซน์ซับซ้อน

    https://www.techradar.com/pro/ryzen-ai-max-395-cpu-could-be-amds-sleeper-hit-against-nvidias-ai-dominance-as-nearly-30-strix-halo-mini-ai-workstation-models-hit-the-market-including-some-rather-funky-ones
    📰 Ryzen AI Max+ 395: ชิป AI ที่อาจเป็นหมัดเด็ดของ AMD พลิกเกมตลาดมินิพีซีและแล็ปท็อปทั่วโลก ในปี 2025 AMD ได้เปิดตัวชิป Ryzen AI Max+ 395 ซึ่งเป็นหัวใจของแพลตฟอร์ม Strix Halo ที่รวม CPU, GPU และ NPU ไว้ในตัวเดียวกัน โดยมีจุดเด่นคือการรองรับงาน AI ที่ขอบเครือข่าย (Edge AI) ด้วยพลังประมวลผลสูงถึง 50 TOPS และหน่วยความจำ UMA ที่สามารถใช้ RAM สูงสุดถึง 96GB เป็นหน่วยความจำกราฟิกโดยตรง ชิปนี้ถูกนำไปใช้ในมินิพีซีและแล็ปท็อปกว่า 30 รุ่นภายในเวลาเพียง 8 เดือน โดยมีแบรนด์อย่าง Asus, HP, Beelink และ GMKtec ร่วมวงเปิดตัวผลิตภัณฑ์ที่หลากหลาย ตั้งแต่ดีไซน์ทรงลูกบาศก์สุดล้ำ ไปจนถึงเครื่องแบบ tower ขนาดเล็กที่เน้นประสิทธิภาพระดับมืออาชีพ หนึ่งในรุ่นที่โดดเด่นคือ GMKtec EVO-X2 ซึ่งมาพร้อม RAM 64–128GB และ Radeon RX 8060S ที่ให้ประสิทธิภาพสูงในการเล่นเกม การเรนเดอร์ 3D และงาน AI แบบ local โดยมีการทดสอบแล้วว่าให้คะแนน multi-core สูงถึง 15,526.6 คะแนนใน CPU-Z แม้ AMD จะเคลมว่ากราฟิกในตัวสามารถเทียบชั้นกับ RTX รุ่นพกพา แต่ยังไม่มีการทดสอบในวงกว้างเพื่อยืนยันข้อกล่าวอ้างนี้ และอุปกรณ์ที่ใช้ชิปนี้ยังมีจำกัดในตลาดจริง ✅ AMD เปิดตัว Ryzen AI Max+ 395 ในแพลตฟอร์ม Strix Halo ➡️ รวม CPU 16 คอร์ Zen 5, GPU RDNA 3.5 40 หน่วย และ NPU XDNA 2 ➡️ รองรับหน่วยความจำ UMA สูงสุด 96GB สำหรับงานกราฟิก ➡️ พลังประมวลผล AI สูงถึง 50 TOPS ✅ มีการเปิดตัวมินิพีซีและแล็ปท็อปกว่า 30 รุ่น ➡️ แบรนด์ที่เข้าร่วม ได้แก่ Asus, HP, Beelink, GMKtec ➡️ ดีไซน์หลากหลาย ตั้งแต่ทรงลูกบาศก์ไปจนถึง tower ขนาดเล็ก ➡️ รุ่นเด่น GMKtec EVO-X2 มาพร้อม Radeon RX 8060S และ RAM สูงสุด 128GB ✅ ประสิทธิภาพในการใช้งานจริงเริ่มมีการทดสอบ ➡️ CPU-Z ให้คะแนน multi-core สูงถึง 15,526.6 ➡️ รองรับงาน AI, เกม และการเรนเดอร์ 3D ได้ดี ➡️ ระบบระบายความร้อนมีประสิทธิภาพและเสียงเงียบ ✅ ราคาถูกกว่าระบบ AI server แบบเดิม ➡️ มินิพีซี Strix Halo มีราคาประมาณ $1,800–$2,800 ➡️ ใช้พลังงานต่ำกว่า 300W และวางบนโต๊ะได้สะดวก ‼️ คำเตือนเกี่ยวกับข้อจำกัดของชิป Ryzen AI Max+ 395 ⛔ อุปกรณ์ที่ใช้ชิปนี้ยังมีจำกัดในตลาดจริง ⛔ การเคลมว่า iGPU เทียบชั้น RTX ยังไม่มีการพิสูจน์ในวงกว้าง ⛔ รุ่น Engineering Sample ยังพบปัญหา BIOS และการจัดการพลังงาน ⛔ การบำรุงรักษาอุปกรณ์บางรุ่นยังทำได้ยากเนื่องจากดีไซน์ซับซ้อน https://www.techradar.com/pro/ryzen-ai-max-395-cpu-could-be-amds-sleeper-hit-against-nvidias-ai-dominance-as-nearly-30-strix-halo-mini-ai-workstation-models-hit-the-market-including-some-rather-funky-ones
    0 Comments 0 Shares 37 Views 0 Reviews
  • Soft X-Ray Lithography กับความหวังใหม่ของการผลิตชิประดับต่ำกว่า 5 นาโนเมตร — เทคโนโลยี B-EUV กำลังท้าทาย EUV รุ่น Hyper-NA

    ในโลกของการผลิตชิปที่เล็กลงเรื่อย ๆ นักวิจัยจากมหาวิทยาลัย Johns Hopkins ได้เปิดตัวเทคโนโลยีใหม่ที่อาจเปลี่ยนเกมของอุตสาหกรรมเซมิคอนดักเตอร์ นั่นคือ “Beyond EUV” หรือ B-EUV ซึ่งใช้แสงเลเซอร์ในช่วง Soft X-ray ที่มีความยาวคลื่นสั้นเพียง 6.5–6.7 นาโนเมตร เพื่อสร้างลวดลายบนแผ่นซิลิคอนที่ละเอียดระดับต่ำกว่า 5 นาโนเมตร

    เทคโนโลยีนี้มีศักยภาพในการแทนที่ EUV แบบ Hyper-NA ที่ใช้อยู่ในปัจจุบัน ซึ่งแม้จะสามารถผลิตชิปรุ่น 2 นาโนเมตรได้ แต่ก็ต้องใช้ระบบออปติกที่ซับซ้อนและมีราคาสูงถึงหลายร้อยล้านดอลลาร์

    ทีมวิจัยของศาสตราจารย์ Michael Tsapatsis ได้ค้นพบว่าโลหะอย่าง “สังกะสี” สามารถดูดซับแสง Soft X-ray และปล่อยอิเล็กตรอนออกมาเพื่อกระตุ้นปฏิกิริยาเคมีในสารอินทรีย์ที่เรียกว่า “อิมิดาโซล” ซึ่งเป็นวัสดุเรซิสต์ชนิดใหม่ที่สามารถสร้างลวดลายบนแผ่นซิลิคอนได้อย่างแม่นยำ

    นอกจากนี้ยังมีการพัฒนาเทคนิคใหม่ชื่อว่า “Chemical Liquid Deposition” (CLD) ที่สามารถเคลือบฟิล์มบางระดับนาโนเมตรได้อย่างสม่ำเสมอ ซึ่งช่วยให้สามารถทดสอบวัสดุเรซิสต์แบบใหม่ได้รวดเร็วขึ้น และอาจนำไปใช้ในอุตสาหกรรมอื่นนอกเหนือจากเซมิคอนดักเตอร์

    แม้เทคโนโลยี B-EUV จะยังอยู่ในขั้นทดลอง และยังไม่มีเครื่องมือที่พร้อมใช้งานจริง แต่การค้นพบนี้ถือเป็นก้าวสำคัญในการแก้ปัญหาวัสดุเรซิสต์ ซึ่งเป็นหนึ่งในอุปสรรคใหญ่ของการผลิตชิปขนาดเล็กในอนาคต

    นักวิจัยจาก Johns Hopkins พัฒนาเทคโนโลยี B-EUV
    ใช้แสง Soft X-ray ที่มีความยาวคลื่น 6.5–6.7 นาโนเมตร
    สามารถสร้างลวดลายบนชิปที่เล็กกว่า 5 นาโนเมตรได้ในทางทฤษฎี

    ค้นพบวัสดุเรซิสต์ใหม่ที่ตอบสนองต่อแสง Soft X-ray
    ใช้โลหะอย่างสังกะสีร่วมกับสารอินทรีย์อิมิดาโซล
    สังกะสีปล่อยอิเล็กตรอนเพื่อกระตุ้นปฏิกิริยาเคมีที่จำเป็นในการสร้างลวดลาย

    พัฒนาเทคนิค Chemical Liquid Deposition (CLD)
    เคลือบฟิล์มบางระดับนาโนเมตรได้อย่างแม่นยำ
    ช่วยให้ทดสอบวัสดุเรซิสต์ใหม่ได้รวดเร็วและมีประสิทธิภาพ

    B-EUV มีศักยภาพในการแทนที่ Hyper-NA EUV
    ลดความซับซ้อนของระบบออปติก
    อาจช่วยลดต้นทุนการผลิตในอนาคต

    คำเตือนเกี่ยวกับข้อจำกัดของเทคโนโลยี B-EUV
    แหล่งกำเนิดแสง Soft X-ray ยังไม่มีมาตรฐานอุตสาหกรรม
    กระจกสะท้อนแสงสำหรับช่วงคลื่นนี้ยังไม่สามารถผลิตได้
    วัสดุเรซิสต์ทั่วไปไม่ตอบสนองต่อพลังงานโฟตอนสูงของ Soft X-ray
    ยังไม่มีระบบ ecosystem ที่รองรับการผลิตแบบ B-EUV อย่างเต็มรูปแบบ

    https://www.tomshardware.com/tech-industry/semiconductors/beyond-euv-chipmaking-tech-pushes-soft-x-ray-lithography-closer-to-challenging-hyper-na-euv-b-euv-uses-new-resist-chemistry-to-make-smaller-chips
    📰 Soft X-Ray Lithography กับความหวังใหม่ของการผลิตชิประดับต่ำกว่า 5 นาโนเมตร — เทคโนโลยี B-EUV กำลังท้าทาย EUV รุ่น Hyper-NA ในโลกของการผลิตชิปที่เล็กลงเรื่อย ๆ นักวิจัยจากมหาวิทยาลัย Johns Hopkins ได้เปิดตัวเทคโนโลยีใหม่ที่อาจเปลี่ยนเกมของอุตสาหกรรมเซมิคอนดักเตอร์ นั่นคือ “Beyond EUV” หรือ B-EUV ซึ่งใช้แสงเลเซอร์ในช่วง Soft X-ray ที่มีความยาวคลื่นสั้นเพียง 6.5–6.7 นาโนเมตร เพื่อสร้างลวดลายบนแผ่นซิลิคอนที่ละเอียดระดับต่ำกว่า 5 นาโนเมตร เทคโนโลยีนี้มีศักยภาพในการแทนที่ EUV แบบ Hyper-NA ที่ใช้อยู่ในปัจจุบัน ซึ่งแม้จะสามารถผลิตชิปรุ่น 2 นาโนเมตรได้ แต่ก็ต้องใช้ระบบออปติกที่ซับซ้อนและมีราคาสูงถึงหลายร้อยล้านดอลลาร์ ทีมวิจัยของศาสตราจารย์ Michael Tsapatsis ได้ค้นพบว่าโลหะอย่าง “สังกะสี” สามารถดูดซับแสง Soft X-ray และปล่อยอิเล็กตรอนออกมาเพื่อกระตุ้นปฏิกิริยาเคมีในสารอินทรีย์ที่เรียกว่า “อิมิดาโซล” ซึ่งเป็นวัสดุเรซิสต์ชนิดใหม่ที่สามารถสร้างลวดลายบนแผ่นซิลิคอนได้อย่างแม่นยำ นอกจากนี้ยังมีการพัฒนาเทคนิคใหม่ชื่อว่า “Chemical Liquid Deposition” (CLD) ที่สามารถเคลือบฟิล์มบางระดับนาโนเมตรได้อย่างสม่ำเสมอ ซึ่งช่วยให้สามารถทดสอบวัสดุเรซิสต์แบบใหม่ได้รวดเร็วขึ้น และอาจนำไปใช้ในอุตสาหกรรมอื่นนอกเหนือจากเซมิคอนดักเตอร์ แม้เทคโนโลยี B-EUV จะยังอยู่ในขั้นทดลอง และยังไม่มีเครื่องมือที่พร้อมใช้งานจริง แต่การค้นพบนี้ถือเป็นก้าวสำคัญในการแก้ปัญหาวัสดุเรซิสต์ ซึ่งเป็นหนึ่งในอุปสรรคใหญ่ของการผลิตชิปขนาดเล็กในอนาคต ✅ นักวิจัยจาก Johns Hopkins พัฒนาเทคโนโลยี B-EUV ➡️ ใช้แสง Soft X-ray ที่มีความยาวคลื่น 6.5–6.7 นาโนเมตร ➡️ สามารถสร้างลวดลายบนชิปที่เล็กกว่า 5 นาโนเมตรได้ในทางทฤษฎี ✅ ค้นพบวัสดุเรซิสต์ใหม่ที่ตอบสนองต่อแสง Soft X-ray ➡️ ใช้โลหะอย่างสังกะสีร่วมกับสารอินทรีย์อิมิดาโซล ➡️ สังกะสีปล่อยอิเล็กตรอนเพื่อกระตุ้นปฏิกิริยาเคมีที่จำเป็นในการสร้างลวดลาย ✅ พัฒนาเทคนิค Chemical Liquid Deposition (CLD) ➡️ เคลือบฟิล์มบางระดับนาโนเมตรได้อย่างแม่นยำ ➡️ ช่วยให้ทดสอบวัสดุเรซิสต์ใหม่ได้รวดเร็วและมีประสิทธิภาพ ✅ B-EUV มีศักยภาพในการแทนที่ Hyper-NA EUV ➡️ ลดความซับซ้อนของระบบออปติก ➡️ อาจช่วยลดต้นทุนการผลิตในอนาคต ‼️ คำเตือนเกี่ยวกับข้อจำกัดของเทคโนโลยี B-EUV ⛔ แหล่งกำเนิดแสง Soft X-ray ยังไม่มีมาตรฐานอุตสาหกรรม ⛔ กระจกสะท้อนแสงสำหรับช่วงคลื่นนี้ยังไม่สามารถผลิตได้ ⛔ วัสดุเรซิสต์ทั่วไปไม่ตอบสนองต่อพลังงานโฟตอนสูงของ Soft X-ray ⛔ ยังไม่มีระบบ ecosystem ที่รองรับการผลิตแบบ B-EUV อย่างเต็มรูปแบบ https://www.tomshardware.com/tech-industry/semiconductors/beyond-euv-chipmaking-tech-pushes-soft-x-ray-lithography-closer-to-challenging-hyper-na-euv-b-euv-uses-new-resist-chemistry-to-make-smaller-chips
    0 Comments 0 Shares 86 Views 0 Reviews
  • “TARS: ใบเรือสุริยะหมุนได้จากพลังแสง — แนวคิดใหม่จาก David Kipping ที่อาจส่งยานขนาดมือถือออกนอกระบบสุริยะ”

    นักดาราศาสตร์ David Kipping และ Kathryn Lampo จากมหาวิทยาลัยโคลัมเบีย ได้เสนอแนวคิดใหม่ในการขับเคลื่อนยานอวกาศขนาดเล็กสู่การเดินทางระหว่างดาว ด้วยเทคโนโลยีที่เรียกว่า TARS (Torqued Accelerator using Radiation from the Sun) ซึ่งใช้พลังงานจากแสงอาทิตย์ในการสร้างแรงหมุนสะสม แล้วปลดปล่อยเป็นแรงผลักดันให้ยานพุ่งออกจากระบบสุริยะโดยไม่ต้องใช้เชื้อเพลิง

    TARS ประกอบด้วยแผ่นบางสองด้านที่มีค่าการสะท้อนแสง (albedo) ต่างกัน เมื่ออยู่ในวงโคจรแบบ “quasite” รอบดวงอาทิตย์ แรงดันรังสีจากแสงอาทิตย์จะค่อย ๆ ทำให้ระบบหมุนเร็วขึ้นในช่วงหลายสัปดาห์หรือหลายเดือน จากนั้นพลังงานหมุนนี้จะถูกปลดปล่อยออกมาเพื่อเร่งความเร็วให้ payload ขนาดเท่ามือถือทะยานออกไปด้วยความเร็วระดับระหว่างดาว

    แม้จะไม่สามารถทำความเร็วแบบ relativistic ได้ (ใกล้ความเร็วแสง) แต่ TARS ก็สามารถส่งยานขนาดเล็กออกนอกระบบสุริยะภายในเวลาไม่ถึงหนึ่งปี โดยใช้วัสดุที่มีจำหน่ายทั่วไป เช่น แผ่นคาร์บอนนาโนทิวบ์ (CNT) หรือกราฟีน และมีน้ำหนักรวมเพียงไม่กี่กิโลกรัม

    แนวคิดนี้ยังสามารถนำไปประยุกต์ใช้กับการสร้างสนามแม่เหล็กเพื่อป้องกันดาวอังคารจากลมสุริยะ หรือใช้เป็นเครือข่ายสื่อสารระยะไกลในอวกาศผ่านการปล่อยยานเป็นฝูง (swarm) ที่มีต้นทุนต่ำและควบคุมง่าย

    ข้อมูลสำคัญ
    TARS คือระบบใบเรือสุริยะที่ใช้แรงหมุนจากแสงอาทิตย์เพื่อเร่งความเร็ว
    ใช้แผ่นบางสองด้านที่มี albedo ต่างกันเพื่อสร้างแรงหมุน
    อยู่ในวงโคจร quasite รอบดวงอาทิตย์เพื่อสะสมพลังงาน
    สามารถส่ง payload ขนาดมือถือออกนอกระบบสุริยะภายใน 1 ปี

    เทคโนโลยีและการใช้งาน
    ใช้วัสดุทั่วไป เช่น CNT หรือกราฟีน น้ำหนักรวมเพียงไม่กี่กิโลกรัม
    ไม่ต้องใช้เชื้อเพลิง onboard — หลุดจากข้อจำกัดของสมการจรวด
    อาจใช้สร้างสนามแม่เหล็กเพื่อป้องกันดาวอังคาร
    สามารถปล่อยเป็นฝูงเพื่อสร้างเครือข่ายสื่อสารระยะไกล

    ข้อมูลเสริม
    ใบเรือสุริยะแบบเดิมใช้แรงดันรังสีโดยตรง แต่มีข้อจำกัดด้านทิศทาง
    TARS ใช้หลักการคล้าย radiometer และ dipole หมุนเพื่อสร้างแรง
    การใช้ Jupiter เป็นเลนส์บูสต์สัญญาณเป็นแนวคิดเสริมที่กำลังศึกษา
    อาจใช้ TARS เพื่อศึกษาสื่อระหว่างดาว หรือเป็นเครื่องตรวจจับคลื่นความโน้มถ่วง

    คำเตือนและข้อจำกัด
    ความเร็วที่ได้ยังไม่ถึงระดับ relativistic — ไม่เหมาะกับภารกิจที่ต้องการความเร็วสูงมาก
    การออกแบบต้องคำนึงถึงความแข็งแรงของวัสดุเมื่อหมุนด้วยความเร็วสูง
    การควบคุมทิศทางและการปลดปล่อยพลังงานต้องแม่นยำสูง
    การ scale ระบบให้ใหญ่ขึ้นเพื่อเพิ่มความเร็วจะเพิ่มความซับซ้อนแบบ exponential
    ยังไม่มีการทดสอบจริงในอวกาศ — อยู่ในขั้นแนวคิดและการจำลอง

    https://youtu.be/MDM1COWJ2Hc
    🚀 “TARS: ใบเรือสุริยะหมุนได้จากพลังแสง — แนวคิดใหม่จาก David Kipping ที่อาจส่งยานขนาดมือถือออกนอกระบบสุริยะ” นักดาราศาสตร์ David Kipping และ Kathryn Lampo จากมหาวิทยาลัยโคลัมเบีย ได้เสนอแนวคิดใหม่ในการขับเคลื่อนยานอวกาศขนาดเล็กสู่การเดินทางระหว่างดาว ด้วยเทคโนโลยีที่เรียกว่า TARS (Torqued Accelerator using Radiation from the Sun) ซึ่งใช้พลังงานจากแสงอาทิตย์ในการสร้างแรงหมุนสะสม แล้วปลดปล่อยเป็นแรงผลักดันให้ยานพุ่งออกจากระบบสุริยะโดยไม่ต้องใช้เชื้อเพลิง TARS ประกอบด้วยแผ่นบางสองด้านที่มีค่าการสะท้อนแสง (albedo) ต่างกัน เมื่ออยู่ในวงโคจรแบบ “quasite” รอบดวงอาทิตย์ แรงดันรังสีจากแสงอาทิตย์จะค่อย ๆ ทำให้ระบบหมุนเร็วขึ้นในช่วงหลายสัปดาห์หรือหลายเดือน จากนั้นพลังงานหมุนนี้จะถูกปลดปล่อยออกมาเพื่อเร่งความเร็วให้ payload ขนาดเท่ามือถือทะยานออกไปด้วยความเร็วระดับระหว่างดาว แม้จะไม่สามารถทำความเร็วแบบ relativistic ได้ (ใกล้ความเร็วแสง) แต่ TARS ก็สามารถส่งยานขนาดเล็กออกนอกระบบสุริยะภายในเวลาไม่ถึงหนึ่งปี โดยใช้วัสดุที่มีจำหน่ายทั่วไป เช่น แผ่นคาร์บอนนาโนทิวบ์ (CNT) หรือกราฟีน และมีน้ำหนักรวมเพียงไม่กี่กิโลกรัม แนวคิดนี้ยังสามารถนำไปประยุกต์ใช้กับการสร้างสนามแม่เหล็กเพื่อป้องกันดาวอังคารจากลมสุริยะ หรือใช้เป็นเครือข่ายสื่อสารระยะไกลในอวกาศผ่านการปล่อยยานเป็นฝูง (swarm) ที่มีต้นทุนต่ำและควบคุมง่าย ✅ ข้อมูลสำคัญ ➡️ TARS คือระบบใบเรือสุริยะที่ใช้แรงหมุนจากแสงอาทิตย์เพื่อเร่งความเร็ว ➡️ ใช้แผ่นบางสองด้านที่มี albedo ต่างกันเพื่อสร้างแรงหมุน ➡️ อยู่ในวงโคจร quasite รอบดวงอาทิตย์เพื่อสะสมพลังงาน ➡️ สามารถส่ง payload ขนาดมือถือออกนอกระบบสุริยะภายใน 1 ปี ✅ เทคโนโลยีและการใช้งาน ➡️ ใช้วัสดุทั่วไป เช่น CNT หรือกราฟีน น้ำหนักรวมเพียงไม่กี่กิโลกรัม ➡️ ไม่ต้องใช้เชื้อเพลิง onboard — หลุดจากข้อจำกัดของสมการจรวด ➡️ อาจใช้สร้างสนามแม่เหล็กเพื่อป้องกันดาวอังคาร ➡️ สามารถปล่อยเป็นฝูงเพื่อสร้างเครือข่ายสื่อสารระยะไกล ✅ ข้อมูลเสริม ➡️ ใบเรือสุริยะแบบเดิมใช้แรงดันรังสีโดยตรง แต่มีข้อจำกัดด้านทิศทาง ➡️ TARS ใช้หลักการคล้าย radiometer และ dipole หมุนเพื่อสร้างแรง ➡️ การใช้ Jupiter เป็นเลนส์บูสต์สัญญาณเป็นแนวคิดเสริมที่กำลังศึกษา ➡️ อาจใช้ TARS เพื่อศึกษาสื่อระหว่างดาว หรือเป็นเครื่องตรวจจับคลื่นความโน้มถ่วง ‼️ คำเตือนและข้อจำกัด ⛔ ความเร็วที่ได้ยังไม่ถึงระดับ relativistic — ไม่เหมาะกับภารกิจที่ต้องการความเร็วสูงมาก ⛔ การออกแบบต้องคำนึงถึงความแข็งแรงของวัสดุเมื่อหมุนด้วยความเร็วสูง ⛔ การควบคุมทิศทางและการปลดปล่อยพลังงานต้องแม่นยำสูง ⛔ การ scale ระบบให้ใหญ่ขึ้นเพื่อเพิ่มความเร็วจะเพิ่มความซับซ้อนแบบ exponential ⛔ ยังไม่มีการทดสอบจริงในอวกาศ — อยู่ในขั้นแนวคิดและการจำลอง https://youtu.be/MDM1COWJ2Hc
    0 Comments 0 Shares 72 Views 0 Reviews
  • “SMIC ทดสอบเครื่อง DUV ฝีมือจีนครั้งแรก — ความหวังใหม่สู่การผลิตชิป 5nm โดยไม่ต้องพึ่ง ASML”

    ในช่วงกลางเดือนกันยายน 2025 มีรายงานจาก Financial Times ว่า SMIC (Semiconductor Manufacturing International Corporation) ผู้ผลิตชิปรายใหญ่ของจีน กำลังทดสอบเครื่อง lithography แบบ DUV (Deep Ultraviolet) ที่ผลิตโดยบริษัทสตาร์ทอัพในประเทศชื่อ Yuliangsheng ซึ่งตั้งอยู่ในเซี่ยงไฮ้ นี่ถือเป็นครั้งแรกที่จีนสามารถผลิตเครื่อง DUV ได้เอง และอาจเป็นจุดเริ่มต้นของการพึ่งพาตนเองด้านอุปกรณ์ผลิตชิปขั้นสูง

    เดิมที SMIC ต้องพึ่งพาเครื่องจักรจาก ASML บริษัทเนเธอร์แลนด์ที่เป็นผู้นำด้านเทคโนโลยี lithography แต่เนื่องจากข้อจำกัดด้านการส่งออกจากสหรัฐฯ ทำให้จีนไม่สามารถเข้าถึงเครื่อง EUV (Extreme Ultraviolet) ได้ ซึ่งจำเป็นสำหรับการผลิตชิประดับ 5nm และต่ำกว่า

    แม้เครื่อง DUV ของ Yuliangsheng จะยังไม่สามารถเทียบเท่า EUV ได้ แต่มีการระบุว่าสามารถ “scale” การผลิตได้ถึงระดับ 5nm ด้วยเทคนิคการทำ pattern ซ้ำหลายชั้น (multi-patterning) อย่างไรก็ตาม วิธีนี้มีความเสี่ยงด้าน yield หรืออัตราการผลิตชิปที่ใช้งานได้จริง เนื่องจากการจัดตำแหน่งหลายชั้นอาจเกิดข้อผิดพลาดสะสม

    SMIC เคยใช้วิธีนี้ในการผลิตชิป 7nm มาก่อน และยอมรับ yield ที่ต่ำเพื่อให้สามารถผลิตได้ในปริมาณมาก ซึ่งอาจเป็นแนวทางเดียวกันสำหรับการผลิต 5nm ด้วยเครื่อง DUV ภายในประเทศ โดยเฉพาะเมื่อความต้องการชิป AI ในจีนเพิ่มขึ้นอย่างรวดเร็ว

    การพัฒนาเครื่อง DUV นี้ยังมีความท้าทาย เพราะแม้ส่วนใหญ่ของชิ้นส่วนจะผลิตในประเทศ แต่บางส่วนยังต้องนำเข้าจากต่างประเทศ อย่างไรก็ตาม Yuliangsheng กำลังพยายามพัฒนาให้ทุกชิ้นส่วนสามารถผลิตในจีนได้ในอนาคต

    ข้อมูลสำคัญจากข่าว
    SMIC กำลังทดสอบเครื่อง DUV ที่ผลิตโดยบริษัทจีน Yuliangsheng
    เป็นครั้งแรกที่จีนสามารถผลิตเครื่อง lithography แบบ DUV ได้เอง
    เครื่องนี้อาจสามารถ scale การผลิตชิปได้ถึงระดับ 5nm ด้วยเทคนิค multi-patterning
    SMIC เคยใช้วิธีนี้ในการผลิตชิป 7nm โดยยอมรับ yield ต่ำเพื่อให้ผลิตได้

    ความเคลื่อนไหวในอุตสาหกรรม
    ความต้องการชิป AI ในจีนเพิ่มขึ้นอย่างรวดเร็ว ทำให้ต้องเร่งพัฒนาอุปกรณ์ภายในประเทศ
    SMIC ไม่สามารถเข้าถึงเครื่อง EUV จาก ASML เนื่องจากข้อจำกัดด้านการส่งออก
    เครื่อง DUV ของ Yuliangsheng ใช้เทคโนโลยี immersion คล้ายกับของ ASML
    ส่วนประกอบบางส่วนยังนำเข้าจากต่างประเทศ แต่มีแผนพัฒนาให้ผลิตในจีนทั้งหมด

    ข้อมูลเสริมจากภายนอก
    SMIC เคยผลิตชิป 5nm โดยใช้เทคนิค SAQP (Self-Aligned Quadruple Patterning) บนเครื่อง DUV
    Huawei ใช้ชิปจาก SMIC ใน Ascend 920 ที่ผลิตบนกระบวนการ 6nm และให้ประสิทธิภาพสูงถึง 900 TFLOPS1
    บริษัทจีนอย่าง AMEC และ NAURA เริ่มแข่งขันกับ Lam Research และ TEL ในด้านอุปกรณ์ประกอบการผลิตชิป
    จีนตั้งเป้าเป็นผู้ผลิตชิปอันดับหนึ่งของโลกภายในปี 2030 โดยเน้นการพึ่งพาตนเองในทุกขั้นตอน

    https://wccftech.com/china-smic-reportedly-testing-nations-first-self-built-duv-machine/
    🔬 “SMIC ทดสอบเครื่อง DUV ฝีมือจีนครั้งแรก — ความหวังใหม่สู่การผลิตชิป 5nm โดยไม่ต้องพึ่ง ASML” ในช่วงกลางเดือนกันยายน 2025 มีรายงานจาก Financial Times ว่า SMIC (Semiconductor Manufacturing International Corporation) ผู้ผลิตชิปรายใหญ่ของจีน กำลังทดสอบเครื่อง lithography แบบ DUV (Deep Ultraviolet) ที่ผลิตโดยบริษัทสตาร์ทอัพในประเทศชื่อ Yuliangsheng ซึ่งตั้งอยู่ในเซี่ยงไฮ้ นี่ถือเป็นครั้งแรกที่จีนสามารถผลิตเครื่อง DUV ได้เอง และอาจเป็นจุดเริ่มต้นของการพึ่งพาตนเองด้านอุปกรณ์ผลิตชิปขั้นสูง เดิมที SMIC ต้องพึ่งพาเครื่องจักรจาก ASML บริษัทเนเธอร์แลนด์ที่เป็นผู้นำด้านเทคโนโลยี lithography แต่เนื่องจากข้อจำกัดด้านการส่งออกจากสหรัฐฯ ทำให้จีนไม่สามารถเข้าถึงเครื่อง EUV (Extreme Ultraviolet) ได้ ซึ่งจำเป็นสำหรับการผลิตชิประดับ 5nm และต่ำกว่า แม้เครื่อง DUV ของ Yuliangsheng จะยังไม่สามารถเทียบเท่า EUV ได้ แต่มีการระบุว่าสามารถ “scale” การผลิตได้ถึงระดับ 5nm ด้วยเทคนิคการทำ pattern ซ้ำหลายชั้น (multi-patterning) อย่างไรก็ตาม วิธีนี้มีความเสี่ยงด้าน yield หรืออัตราการผลิตชิปที่ใช้งานได้จริง เนื่องจากการจัดตำแหน่งหลายชั้นอาจเกิดข้อผิดพลาดสะสม SMIC เคยใช้วิธีนี้ในการผลิตชิป 7nm มาก่อน และยอมรับ yield ที่ต่ำเพื่อให้สามารถผลิตได้ในปริมาณมาก ซึ่งอาจเป็นแนวทางเดียวกันสำหรับการผลิต 5nm ด้วยเครื่อง DUV ภายในประเทศ โดยเฉพาะเมื่อความต้องการชิป AI ในจีนเพิ่มขึ้นอย่างรวดเร็ว การพัฒนาเครื่อง DUV นี้ยังมีความท้าทาย เพราะแม้ส่วนใหญ่ของชิ้นส่วนจะผลิตในประเทศ แต่บางส่วนยังต้องนำเข้าจากต่างประเทศ อย่างไรก็ตาม Yuliangsheng กำลังพยายามพัฒนาให้ทุกชิ้นส่วนสามารถผลิตในจีนได้ในอนาคต ✅ ข้อมูลสำคัญจากข่าว ➡️ SMIC กำลังทดสอบเครื่อง DUV ที่ผลิตโดยบริษัทจีน Yuliangsheng ➡️ เป็นครั้งแรกที่จีนสามารถผลิตเครื่อง lithography แบบ DUV ได้เอง ➡️ เครื่องนี้อาจสามารถ scale การผลิตชิปได้ถึงระดับ 5nm ด้วยเทคนิค multi-patterning ➡️ SMIC เคยใช้วิธีนี้ในการผลิตชิป 7nm โดยยอมรับ yield ต่ำเพื่อให้ผลิตได้ ✅ ความเคลื่อนไหวในอุตสาหกรรม ➡️ ความต้องการชิป AI ในจีนเพิ่มขึ้นอย่างรวดเร็ว ทำให้ต้องเร่งพัฒนาอุปกรณ์ภายในประเทศ ➡️ SMIC ไม่สามารถเข้าถึงเครื่อง EUV จาก ASML เนื่องจากข้อจำกัดด้านการส่งออก ➡️ เครื่อง DUV ของ Yuliangsheng ใช้เทคโนโลยี immersion คล้ายกับของ ASML ➡️ ส่วนประกอบบางส่วนยังนำเข้าจากต่างประเทศ แต่มีแผนพัฒนาให้ผลิตในจีนทั้งหมด ✅ ข้อมูลเสริมจากภายนอก ➡️ SMIC เคยผลิตชิป 5nm โดยใช้เทคนิค SAQP (Self-Aligned Quadruple Patterning) บนเครื่อง DUV ➡️ Huawei ใช้ชิปจาก SMIC ใน Ascend 920 ที่ผลิตบนกระบวนการ 6nm และให้ประสิทธิภาพสูงถึง 900 TFLOPS1 ➡️ บริษัทจีนอย่าง AMEC และ NAURA เริ่มแข่งขันกับ Lam Research และ TEL ในด้านอุปกรณ์ประกอบการผลิตชิป ➡️ จีนตั้งเป้าเป็นผู้ผลิตชิปอันดับหนึ่งของโลกภายในปี 2030 โดยเน้นการพึ่งพาตนเองในทุกขั้นตอน https://wccftech.com/china-smic-reportedly-testing-nations-first-self-built-duv-machine/
    WCCFTECH.COM
    China's SMIC Reportedly Testing Nation's First Self-Built DUV Machine in a Major Breakthrough That Could Scale Production to 5nm
    China's chip segment might have witnessed another breakthrough, as a new report claims that SMIC is trialing the first in-house DUV machine.
    0 Comments 0 Shares 70 Views 0 Reviews
  • “Phoenix RowHammer โจมตีทะลุ DDR5 ภายใน 109 วินาที — ECC ก็เอาไม่อยู่ นักวิจัยเตือน DRAM ทั่วโลกยังเสี่ยง”

    ช่องโหว่ RowHammer กลับมาอีกครั้งในรูปแบบใหม่ชื่อว่า “Phoenix” (CVE-2025-6202) ซึ่งถูกค้นพบโดยทีมนักวิจัยจาก ETH Zürich และ Google โดยสามารถโจมตีหน่วยความจำ DDR5 ของ SK Hynix ได้สำเร็จภายในเวลาเพียง 109 วินาที บนเครื่องเดสก์ท็อปทั่วไปที่ใช้การตั้งค่ามาตรฐาน

    RowHammer คือเทคนิคที่ใช้การ “เคาะ” แถวหน่วยความจำซ้ำ ๆ เพื่อสร้างการรบกวนทางไฟฟ้าในแถวข้างเคียง ทำให้เกิดการเปลี่ยนแปลงบิตโดยไม่ได้เข้าถึงโดยตรง ซึ่งสามารถนำไปสู่การยกระดับสิทธิ์, ขโมยข้อมูล, หรือแม้แต่การเจาะระบบ VM ที่อยู่ใกล้กัน

    Phoenix ใช้การ reverse engineering เพื่อเจาะระบบป้องกัน TRR (Target Row Refresh) ที่มีอยู่ใน DRAM โดยพบว่าการรีเฟรชมีช่วง sampling ที่ซ้ำทุก 128 tREFI และมีจุดอ่อนในช่วงต้นของแต่ละรอบ นักวิจัยจึงออกแบบ pattern ใหม่ที่เรียกว่า 128-tREFI และ 2608-tREFI พร้อมระบบ “self-correcting refresh synchronization” ที่ช่วยให้การโจมตีแม่นยำแม้เกิดการรีเฟรชผิดพลาด

    จากการทดสอบบนโมดูล DDR5 ของ SK Hynix จำนวน 15 รุ่น พบว่าทุกตัวสามารถถูกโจมตีได้ และสามารถใช้เพื่อขโมยคีย์ RSA-2048 จาก VM ที่อยู่ใกล้กัน หรือยกระดับสิทธิ์ผ่านไฟล์ sudo ได้จริง

    นักวิจัยแนะนำให้เพิ่มอัตราการรีเฟรช DRAM เป็น 3 เท่า ซึ่งช่วยลดการโจมตีได้ แต่แลกกับประสิทธิภาพที่ลดลงถึง 8.4% บน SPEC CPU2017 และเตือนว่า DRAM ที่ใช้งานอยู่ไม่สามารถอัปเดตได้ ทำให้ช่องโหว่นี้จะยังคงอยู่ไปอีกหลายปี

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ “Phoenix” (CVE-2025-6202) เป็น RowHammer รุ่นใหม่ที่โจมตี DDR5 ได้
    ใช้เวลาโจมตีเพียง 109 วินาทีบนเครื่องเดสก์ท็อปทั่วไป
    ใช้ pattern 128-tREFI และ 2608-tREFI พร้อมระบบ sync อัตโนมัติ
    ทดสอบบน DDR5 ของ SK Hynix 15 รุ่น พบว่าทุกตัวมี bit flip

    ผลกระทบและการโจมตี
    สามารถขโมยคีย์ RSA-2048 จาก VM ที่อยู่ใกล้กัน
    ใช้ไฟล์ sudo เพื่อยกระดับสิทธิ์เป็น root ได้
    ECC แบบฝังในชิปไม่สามารถป้องกันการโจมตีได้
    TRR ที่ใช้ใน DRAM มีช่องโหว่ด้าน sampling ที่ถูกเจาะ

    ข้อมูลเสริมจากภายนอก
    RowHammer ถูกค้นพบครั้งแรกในปี 2014 และยังคงพัฒนาอย่างต่อเนื่อง
    ช่องโหว่คล้ายกันในอดีต ได้แก่ TRRespass, SMASH, Half-Double และ Blacksmith
    การเพิ่ม refresh rate เป็นวิธีแก้ชั่วคราวที่มีต้นทุนด้านประสิทธิภาพ
    โค้ดทดสอบ Phoenix ถูกเผยแพร่บน GitHub เพื่อใช้ตรวจสอบ DIMM

    https://www.techradar.com/pro/security/new-phoenix-rowhammer-attack-cracks-open-ddr5-memory-defenses-in-minutes
    ⚠️ “Phoenix RowHammer โจมตีทะลุ DDR5 ภายใน 109 วินาที — ECC ก็เอาไม่อยู่ นักวิจัยเตือน DRAM ทั่วโลกยังเสี่ยง” ช่องโหว่ RowHammer กลับมาอีกครั้งในรูปแบบใหม่ชื่อว่า “Phoenix” (CVE-2025-6202) ซึ่งถูกค้นพบโดยทีมนักวิจัยจาก ETH Zürich และ Google โดยสามารถโจมตีหน่วยความจำ DDR5 ของ SK Hynix ได้สำเร็จภายในเวลาเพียง 109 วินาที บนเครื่องเดสก์ท็อปทั่วไปที่ใช้การตั้งค่ามาตรฐาน RowHammer คือเทคนิคที่ใช้การ “เคาะ” แถวหน่วยความจำซ้ำ ๆ เพื่อสร้างการรบกวนทางไฟฟ้าในแถวข้างเคียง ทำให้เกิดการเปลี่ยนแปลงบิตโดยไม่ได้เข้าถึงโดยตรง ซึ่งสามารถนำไปสู่การยกระดับสิทธิ์, ขโมยข้อมูล, หรือแม้แต่การเจาะระบบ VM ที่อยู่ใกล้กัน Phoenix ใช้การ reverse engineering เพื่อเจาะระบบป้องกัน TRR (Target Row Refresh) ที่มีอยู่ใน DRAM โดยพบว่าการรีเฟรชมีช่วง sampling ที่ซ้ำทุก 128 tREFI และมีจุดอ่อนในช่วงต้นของแต่ละรอบ นักวิจัยจึงออกแบบ pattern ใหม่ที่เรียกว่า 128-tREFI และ 2608-tREFI พร้อมระบบ “self-correcting refresh synchronization” ที่ช่วยให้การโจมตีแม่นยำแม้เกิดการรีเฟรชผิดพลาด จากการทดสอบบนโมดูล DDR5 ของ SK Hynix จำนวน 15 รุ่น พบว่าทุกตัวสามารถถูกโจมตีได้ และสามารถใช้เพื่อขโมยคีย์ RSA-2048 จาก VM ที่อยู่ใกล้กัน หรือยกระดับสิทธิ์ผ่านไฟล์ sudo ได้จริง นักวิจัยแนะนำให้เพิ่มอัตราการรีเฟรช DRAM เป็น 3 เท่า ซึ่งช่วยลดการโจมตีได้ แต่แลกกับประสิทธิภาพที่ลดลงถึง 8.4% บน SPEC CPU2017 และเตือนว่า DRAM ที่ใช้งานอยู่ไม่สามารถอัปเดตได้ ทำให้ช่องโหว่นี้จะยังคงอยู่ไปอีกหลายปี ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ “Phoenix” (CVE-2025-6202) เป็น RowHammer รุ่นใหม่ที่โจมตี DDR5 ได้ ➡️ ใช้เวลาโจมตีเพียง 109 วินาทีบนเครื่องเดสก์ท็อปทั่วไป ➡️ ใช้ pattern 128-tREFI และ 2608-tREFI พร้อมระบบ sync อัตโนมัติ ➡️ ทดสอบบน DDR5 ของ SK Hynix 15 รุ่น พบว่าทุกตัวมี bit flip ✅ ผลกระทบและการโจมตี ➡️ สามารถขโมยคีย์ RSA-2048 จาก VM ที่อยู่ใกล้กัน ➡️ ใช้ไฟล์ sudo เพื่อยกระดับสิทธิ์เป็น root ได้ ➡️ ECC แบบฝังในชิปไม่สามารถป้องกันการโจมตีได้ ➡️ TRR ที่ใช้ใน DRAM มีช่องโหว่ด้าน sampling ที่ถูกเจาะ ✅ ข้อมูลเสริมจากภายนอก ➡️ RowHammer ถูกค้นพบครั้งแรกในปี 2014 และยังคงพัฒนาอย่างต่อเนื่อง ➡️ ช่องโหว่คล้ายกันในอดีต ได้แก่ TRRespass, SMASH, Half-Double และ Blacksmith ➡️ การเพิ่ม refresh rate เป็นวิธีแก้ชั่วคราวที่มีต้นทุนด้านประสิทธิภาพ ➡️ โค้ดทดสอบ Phoenix ถูกเผยแพร่บน GitHub เพื่อใช้ตรวจสอบ DIMM https://www.techradar.com/pro/security/new-phoenix-rowhammer-attack-cracks-open-ddr5-memory-defenses-in-minutes
    WWW.TECHRADAR.COM
    New Phoenix RowHammer Threat Exposes DDR5 Memory to Rapid Attacks
    It took researchers less than two minutes to crack open a computer
    0 Comments 0 Shares 74 Views 0 Reviews
  • “Phoenix Rowhammer โจมตีทะลุ ECC — ช่องโหว่ใหม่ใน DDR5 จาก SK Hynix ที่ใช้เวลาแค่ 109 วินาที!”

    ทีมนักวิจัยจาก ETH Zurich และ Google ได้เปิดเผยช่องโหว่ใหม่ในหน่วยความจำ DDR5 ของ SK Hynix ที่สามารถถูกโจมตีด้วยเทคนิค Rowhammer รุ่นใหม่ชื่อว่า “Phoenix” (CVE-2025-6202) ซึ่งสามารถทะลุการป้องกันแบบ ECC ที่ฝังอยู่ในชิปได้ภายในเวลาเพียง 109 วินาที ถือเป็นการโจมตีระดับ privilege escalation ที่เกิดขึ้นได้จริงบนเครื่องเดสก์ท็อปทั่วไป

    Phoenix ใช้เทคนิค reverse engineering เพื่อเจาะระบบป้องกัน TRR (Target Row Refresh) ที่มีอยู่ใน DRAM โดยพบว่าการรีเฟรชแถวหน่วยความจำมีช่วง sampling ที่ซ้ำทุก 128 tREFI และในช่วงต้นของแต่ละรอบมีการสุ่มตรวจสอบน้อย ทำให้สามารถออกแบบรูปแบบการโจมตีแบบใหม่ที่เรียกว่า 128-tREFI และ 2608-tREFI ซึ่งมีประสิทธิภาพสูงกว่ารุ่นก่อนถึง 2.6 เท่า

    นักวิจัยยังพัฒนาเทคนิค “self-correcting refresh synchronization” ที่ช่วยให้การโจมตีสามารถปรับตัวได้เมื่อเกิดการรีเฟรชผิดพลาด ทำให้สามารถรักษาความแม่นยำในการโจมตีได้แม้จะผ่านหลายพันรอบการรีเฟรช

    จากการทดสอบบนโมดูล DDR5 ของ SK Hynix จำนวน 15 รุ่นที่ผลิตระหว่างปี 2021–2024 พบว่าทุกตัวสามารถถูกโจมตีได้ โดยเกิดการเปลี่ยนแปลงบิตจำนวนมาก ซึ่งสามารถนำไปใช้สร้าง primitive สำหรับการอ่าน/เขียนข้อมูลโดยพลการ, ขโมยคีย์ RSA-2048 จาก VM ที่อยู่ใกล้กัน และยกระดับสิทธิ์โดยการแก้ไขไฟล์ sudo

    เพื่อเพิ่มโอกาสในการโจมตี นักวิจัยใช้เทคนิคการรัน pattern แบบเลื่อนตำแหน่งในแต่ละ bank พร้อมกัน ทำให้โอกาสโจมตีสำเร็จเพิ่มขึ้นจาก 1.56% เป็น 25% และเสนอวิธีแก้เบื้องต้นด้วยการเพิ่มอัตราการรีเฟรช DRAM 3 เท่า ซึ่งช่วยลดการโจมตีได้ แต่แลกกับประสิทธิภาพที่ลดลงถึง 8.4% บน SPEC CPU2017

    ข่าวดีคือทีมงานได้แจ้งช่องโหว่นี้อย่างเป็นทางการกับ SK Hynix, ผู้ผลิต CPU และผู้ให้บริการคลาวด์ ทำให้มีการออก BIOS patch สำหรับเครื่อง AMD บางรุ่นแล้ว และมีโค้ดทดสอบบน GitHub เพื่อให้ผู้ดูแลระบบสามารถตรวจสอบ DIMM ของตนเองได้

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ “Phoenix” (CVE-2025-6202) เป็น Rowhammer รุ่นใหม่ที่ทะลุ ECC ได้
    ใช้เวลาโจมตีเพียง 109 วินาทีบนเครื่องเดสก์ท็อปทั่วไป
    เทคนิคใหม่ใช้ pattern 128-tREFI และ 2608-tREFI พร้อมระบบ sync อัตโนมัติ
    ทดสอบบน DDR5 ของ SK Hynix 15 รุ่น พบว่าทุกตัวมี bit flip

    ผลกระทบและการโจมตี
    เกิดการเปลี่ยนบิตจำนวนมากในหน่วยความจำ
    สร้าง primitive สำหรับการอ่าน/เขียนข้อมูล, ขโมยคีย์ RSA, และยกระดับสิทธิ์
    เพิ่มโอกาสโจมตีจาก 1.56% เป็น 25% ด้วยการรัน pattern แบบเลื่อนตำแหน่ง
    BIOS patch สำหรับ AMD ถูกปล่อยออกมาแล้วในช่วง embargo

    ข้อมูลเสริมจากภายนอก
    Rowhammer เป็นช่องโหว่ที่พบครั้งแรกในปี 2014 และยังคงพัฒนาอย่างต่อเนื่อง
    ECC แบบ on-die ไม่สามารถป้องกัน Rowhammer ได้เท่ากับ ECC แบบ side-band
    การเพิ่ม refresh rate เป็นวิธีแก้ชั่วคราวที่มีต้นทุนด้านประสิทธิภาพ
    โค้ดทดสอบ Phoenix ถูกเผยแพร่บน GitHub เพื่อใช้ตรวจสอบ DIMM

    คำเตือนและข้อจำกัด
    ECC แบบฝังในชิป (on-die ECC) ไม่สามารถป้องกัน Phoenix ได้
    การเพิ่ม refresh rate 3 เท่าทำให้ประสิทธิภาพลดลงถึง 8.4%
    BIOS patch ยังไม่ครอบคลุมทุกระบบ และต้องอัปเดตด้วยตนเอง
    DIMM ที่ผลิตระหว่างปี 2021–2024 มีความเสี่ยงสูง
    โค้ดบน GitHub ใช้สำหรับการตรวจสอบเท่านั้น ไม่ใช่การป้องกันหรือโจมตี

    https://www.techpowerup.com/341059/sk-hynix-ddr5-dimms-vulnerable-to-phoenix-rowhammer-attack-ecc-dimms-exposed-too
    💥 “Phoenix Rowhammer โจมตีทะลุ ECC — ช่องโหว่ใหม่ใน DDR5 จาก SK Hynix ที่ใช้เวลาแค่ 109 วินาที!” ทีมนักวิจัยจาก ETH Zurich และ Google ได้เปิดเผยช่องโหว่ใหม่ในหน่วยความจำ DDR5 ของ SK Hynix ที่สามารถถูกโจมตีด้วยเทคนิค Rowhammer รุ่นใหม่ชื่อว่า “Phoenix” (CVE-2025-6202) ซึ่งสามารถทะลุการป้องกันแบบ ECC ที่ฝังอยู่ในชิปได้ภายในเวลาเพียง 109 วินาที ถือเป็นการโจมตีระดับ privilege escalation ที่เกิดขึ้นได้จริงบนเครื่องเดสก์ท็อปทั่วไป Phoenix ใช้เทคนิค reverse engineering เพื่อเจาะระบบป้องกัน TRR (Target Row Refresh) ที่มีอยู่ใน DRAM โดยพบว่าการรีเฟรชแถวหน่วยความจำมีช่วง sampling ที่ซ้ำทุก 128 tREFI และในช่วงต้นของแต่ละรอบมีการสุ่มตรวจสอบน้อย ทำให้สามารถออกแบบรูปแบบการโจมตีแบบใหม่ที่เรียกว่า 128-tREFI และ 2608-tREFI ซึ่งมีประสิทธิภาพสูงกว่ารุ่นก่อนถึง 2.6 เท่า นักวิจัยยังพัฒนาเทคนิค “self-correcting refresh synchronization” ที่ช่วยให้การโจมตีสามารถปรับตัวได้เมื่อเกิดการรีเฟรชผิดพลาด ทำให้สามารถรักษาความแม่นยำในการโจมตีได้แม้จะผ่านหลายพันรอบการรีเฟรช จากการทดสอบบนโมดูล DDR5 ของ SK Hynix จำนวน 15 รุ่นที่ผลิตระหว่างปี 2021–2024 พบว่าทุกตัวสามารถถูกโจมตีได้ โดยเกิดการเปลี่ยนแปลงบิตจำนวนมาก ซึ่งสามารถนำไปใช้สร้าง primitive สำหรับการอ่าน/เขียนข้อมูลโดยพลการ, ขโมยคีย์ RSA-2048 จาก VM ที่อยู่ใกล้กัน และยกระดับสิทธิ์โดยการแก้ไขไฟล์ sudo เพื่อเพิ่มโอกาสในการโจมตี นักวิจัยใช้เทคนิคการรัน pattern แบบเลื่อนตำแหน่งในแต่ละ bank พร้อมกัน ทำให้โอกาสโจมตีสำเร็จเพิ่มขึ้นจาก 1.56% เป็น 25% และเสนอวิธีแก้เบื้องต้นด้วยการเพิ่มอัตราการรีเฟรช DRAM 3 เท่า ซึ่งช่วยลดการโจมตีได้ แต่แลกกับประสิทธิภาพที่ลดลงถึง 8.4% บน SPEC CPU2017 ข่าวดีคือทีมงานได้แจ้งช่องโหว่นี้อย่างเป็นทางการกับ SK Hynix, ผู้ผลิต CPU และผู้ให้บริการคลาวด์ ทำให้มีการออก BIOS patch สำหรับเครื่อง AMD บางรุ่นแล้ว และมีโค้ดทดสอบบน GitHub เพื่อให้ผู้ดูแลระบบสามารถตรวจสอบ DIMM ของตนเองได้ ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ “Phoenix” (CVE-2025-6202) เป็น Rowhammer รุ่นใหม่ที่ทะลุ ECC ได้ ➡️ ใช้เวลาโจมตีเพียง 109 วินาทีบนเครื่องเดสก์ท็อปทั่วไป ➡️ เทคนิคใหม่ใช้ pattern 128-tREFI และ 2608-tREFI พร้อมระบบ sync อัตโนมัติ ➡️ ทดสอบบน DDR5 ของ SK Hynix 15 รุ่น พบว่าทุกตัวมี bit flip ✅ ผลกระทบและการโจมตี ➡️ เกิดการเปลี่ยนบิตจำนวนมากในหน่วยความจำ ➡️ สร้าง primitive สำหรับการอ่าน/เขียนข้อมูล, ขโมยคีย์ RSA, และยกระดับสิทธิ์ ➡️ เพิ่มโอกาสโจมตีจาก 1.56% เป็น 25% ด้วยการรัน pattern แบบเลื่อนตำแหน่ง ➡️ BIOS patch สำหรับ AMD ถูกปล่อยออกมาแล้วในช่วง embargo ✅ ข้อมูลเสริมจากภายนอก ➡️ Rowhammer เป็นช่องโหว่ที่พบครั้งแรกในปี 2014 และยังคงพัฒนาอย่างต่อเนื่อง ➡️ ECC แบบ on-die ไม่สามารถป้องกัน Rowhammer ได้เท่ากับ ECC แบบ side-band ➡️ การเพิ่ม refresh rate เป็นวิธีแก้ชั่วคราวที่มีต้นทุนด้านประสิทธิภาพ ➡️ โค้ดทดสอบ Phoenix ถูกเผยแพร่บน GitHub เพื่อใช้ตรวจสอบ DIMM ‼️ คำเตือนและข้อจำกัด ⛔ ECC แบบฝังในชิป (on-die ECC) ไม่สามารถป้องกัน Phoenix ได้ ⛔ การเพิ่ม refresh rate 3 เท่าทำให้ประสิทธิภาพลดลงถึง 8.4% ⛔ BIOS patch ยังไม่ครอบคลุมทุกระบบ และต้องอัปเดตด้วยตนเอง ⛔ DIMM ที่ผลิตระหว่างปี 2021–2024 มีความเสี่ยงสูง ⛔ โค้ดบน GitHub ใช้สำหรับการตรวจสอบเท่านั้น ไม่ใช่การป้องกันหรือโจมตี https://www.techpowerup.com/341059/sk-hynix-ddr5-dimms-vulnerable-to-phoenix-rowhammer-attack-ecc-dimms-exposed-too
    WWW.TECHPOWERUP.COM
    SK Hynix DDR5 DIMMs Vulnerable to "Phoenix" Rowhammer Attack, ECC DIMMs Exposed Too
    Researchers from ETH Zurich and Google have shown that SK Hynix DDR5 modules remain vulnerable to a new Rowhammer variant they call Phoenix (CVE-2025-6202), even with on-die ECC memory modules. The attack can be executed in only 109 seconds, making it a very realistic threat. By reverse engineering ...
    0 Comments 0 Shares 74 Views 0 Reviews
  • “FSR 4 หลุดซอร์สโค้ด — เปิดทางให้การ์ดจอเก่าใช้เทคโนโลยีอัปสเกล AI แบบใหม่ โดยไม่ต้องพึ่ง Linux”

    AMD FidelityFX Super Resolution 4 หรือ FSR 4 เป็นเทคโนโลยีอัปสเกลภาพด้วย AI รุ่นล่าสุดจาก AMD ที่เดิมทีรองรับเฉพาะการ์ดจอ Radeon RX 9000 ที่ใช้สถาปัตยกรรม RDNA 4 เท่านั้น แต่เมื่อเดือนกันยายน 2025 มีการ “หลุด” ซอร์สโค้ดของ FSR 4 ออกมาโดยไม่ตั้งใจ ซึ่งเปิดโอกาสให้ผู้ใช้ทั่วไปสามารถนำไปปรับแต่งและใช้งานบนการ์ดจอรุ่นเก่าได้อย่างกว้างขวาง

    ซอร์สโค้ดที่หลุดออกมานั้นรวมถึงเวอร์ชันที่ใช้ INT8 ซึ่งเป็นชนิดข้อมูลที่รองรับโดยเกือบทุก GPU สมัยใหม่ ไม่ว่าจะเป็น Radeon RX 7000, GeForce RTX 30/40 หรือแม้แต่ Intel Arc ทำให้การใช้งาน FSR 4 ไม่จำกัดเฉพาะฮาร์ดแวร์ใหม่อีกต่อไป โดยไม่ต้องใช้ Linux เหมือนวิธีการแฮกในช่วงแรก ๆ

    ผู้ใช้ Reddit นามว่า /u/AthleteDependent926 ได้รวบรวมและคอมไพล์ซอร์สโค้ดให้เป็นไฟล์ DLL ที่สามารถใช้งานได้จริงผ่าน OptiScaler ซึ่งเป็นม็อดแบบ multi-game ที่คล้ายกับ ReShade โดยผู้ใช้สามารถติดตั้ง OptiScaler ลงในโฟลเดอร์เกม แล้วเลือก FSR 4.0.2 จากเมนู UI เพื่อเปิดใช้งาน

    จากการทดสอบในเกม Cyberpunk 2077 พบว่า FSR 4 ให้คุณภาพภาพที่คมชัดกว่า FSR 3 และ Intel XeSS อย่างชัดเจน แม้จะยังไม่เทียบเท่า DLSS 4 ของ NVIDIA แต่ก็ถือว่าเป็นทางเลือกที่ดีสำหรับผู้ใช้ที่ไม่มีการ์ดจอระดับสูง โดยเฉพาะในเกมที่รองรับ FSR 3 อยู่แล้ว

    อย่างไรก็ตาม การใช้งานผ่านม็อดยังมีข้อจำกัด เช่น การตั้งค่าที่ไม่ตรงไปตรงมา และประสิทธิภาพที่ลดลงเล็กน้อยจากการประมวลผลเพิ่มเติม โดยเฉพาะในโหมด Ray Tracing ซึ่งอาจทำให้เฟรมเรตลดลงจาก 60 FPS เหลือประมาณ 48 FPS

    ข้อมูลสำคัญจากข่าว
    AMD เผลอปล่อยซอร์สโค้ด FSR 4 ที่รวมเวอร์ชัน INT8 ซึ่งรองรับ GPU ส่วนใหญ่
    ผู้ใช้ Reddit คอมไพล์ซอร์สโค้ดเป็น DLL ที่ใช้งานได้จริง
    ใช้งานผ่านม็อด OptiScaler โดยเลือก FSR 4.0.2 จาก UI
    รองรับ DirectX 12, DirectX 11 และ Vulkan ในหลายเกม

    ผลการทดสอบและคุณภาพภาพ
    FSR 4 ให้ภาพคมชัดกว่า FSR 3 และ XeSS โดยเฉพาะใน Cyberpunk 2077
    ลดอาการเบลอและ aliasing บนวัตถุระยะไกล
    ใช้เวลาอัปสเกลประมาณ 4.1 ms บน RX 7800 XT และ 2.3 ms บน Radeon 8060S
    เหมาะสำหรับผู้ใช้ที่ต้องการคุณภาพภาพสูงโดยไม่ต้องใช้ DLSS

    ข้อมูลเสริมจากภายนอก
    FSR 4 เวอร์ชัน FP8 ใช้เฉพาะบน RDNA 4 เท่านั้น
    INT8 เป็นชนิดข้อมูลที่ใช้กันทั่วไปในงาน AI inference
    OptiScaler เป็นม็อดที่รองรับหลายเกมและสามารถปรับแต่งได้หลากหลาย
    การใช้งาน FSR 4 ผ่าน DLL ช่วยให้เกมเก่าได้รับคุณภาพภาพที่ดีขึ้นโดยไม่ต้องอัปเกรดฮาร์ดแวร์

    https://www.tomshardware.com/pc-components/gpus/latest-fsr-4-source-code-leak-lets-you-run-amds-ai-upscaling-tech-on-nearly-any-gpu-no-linux-required
    🧠 “FSR 4 หลุดซอร์สโค้ด — เปิดทางให้การ์ดจอเก่าใช้เทคโนโลยีอัปสเกล AI แบบใหม่ โดยไม่ต้องพึ่ง Linux” AMD FidelityFX Super Resolution 4 หรือ FSR 4 เป็นเทคโนโลยีอัปสเกลภาพด้วย AI รุ่นล่าสุดจาก AMD ที่เดิมทีรองรับเฉพาะการ์ดจอ Radeon RX 9000 ที่ใช้สถาปัตยกรรม RDNA 4 เท่านั้น แต่เมื่อเดือนกันยายน 2025 มีการ “หลุด” ซอร์สโค้ดของ FSR 4 ออกมาโดยไม่ตั้งใจ ซึ่งเปิดโอกาสให้ผู้ใช้ทั่วไปสามารถนำไปปรับแต่งและใช้งานบนการ์ดจอรุ่นเก่าได้อย่างกว้างขวาง ซอร์สโค้ดที่หลุดออกมานั้นรวมถึงเวอร์ชันที่ใช้ INT8 ซึ่งเป็นชนิดข้อมูลที่รองรับโดยเกือบทุก GPU สมัยใหม่ ไม่ว่าจะเป็น Radeon RX 7000, GeForce RTX 30/40 หรือแม้แต่ Intel Arc ทำให้การใช้งาน FSR 4 ไม่จำกัดเฉพาะฮาร์ดแวร์ใหม่อีกต่อไป โดยไม่ต้องใช้ Linux เหมือนวิธีการแฮกในช่วงแรก ๆ ผู้ใช้ Reddit นามว่า /u/AthleteDependent926 ได้รวบรวมและคอมไพล์ซอร์สโค้ดให้เป็นไฟล์ DLL ที่สามารถใช้งานได้จริงผ่าน OptiScaler ซึ่งเป็นม็อดแบบ multi-game ที่คล้ายกับ ReShade โดยผู้ใช้สามารถติดตั้ง OptiScaler ลงในโฟลเดอร์เกม แล้วเลือก FSR 4.0.2 จากเมนู UI เพื่อเปิดใช้งาน จากการทดสอบในเกม Cyberpunk 2077 พบว่า FSR 4 ให้คุณภาพภาพที่คมชัดกว่า FSR 3 และ Intel XeSS อย่างชัดเจน แม้จะยังไม่เทียบเท่า DLSS 4 ของ NVIDIA แต่ก็ถือว่าเป็นทางเลือกที่ดีสำหรับผู้ใช้ที่ไม่มีการ์ดจอระดับสูง โดยเฉพาะในเกมที่รองรับ FSR 3 อยู่แล้ว อย่างไรก็ตาม การใช้งานผ่านม็อดยังมีข้อจำกัด เช่น การตั้งค่าที่ไม่ตรงไปตรงมา และประสิทธิภาพที่ลดลงเล็กน้อยจากการประมวลผลเพิ่มเติม โดยเฉพาะในโหมด Ray Tracing ซึ่งอาจทำให้เฟรมเรตลดลงจาก 60 FPS เหลือประมาณ 48 FPS ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เผลอปล่อยซอร์สโค้ด FSR 4 ที่รวมเวอร์ชัน INT8 ซึ่งรองรับ GPU ส่วนใหญ่ ➡️ ผู้ใช้ Reddit คอมไพล์ซอร์สโค้ดเป็น DLL ที่ใช้งานได้จริง ➡️ ใช้งานผ่านม็อด OptiScaler โดยเลือก FSR 4.0.2 จาก UI ➡️ รองรับ DirectX 12, DirectX 11 และ Vulkan ในหลายเกม ✅ ผลการทดสอบและคุณภาพภาพ ➡️ FSR 4 ให้ภาพคมชัดกว่า FSR 3 และ XeSS โดยเฉพาะใน Cyberpunk 2077 ➡️ ลดอาการเบลอและ aliasing บนวัตถุระยะไกล ➡️ ใช้เวลาอัปสเกลประมาณ 4.1 ms บน RX 7800 XT และ 2.3 ms บน Radeon 8060S ➡️ เหมาะสำหรับผู้ใช้ที่ต้องการคุณภาพภาพสูงโดยไม่ต้องใช้ DLSS ✅ ข้อมูลเสริมจากภายนอก ➡️ FSR 4 เวอร์ชัน FP8 ใช้เฉพาะบน RDNA 4 เท่านั้น ➡️ INT8 เป็นชนิดข้อมูลที่ใช้กันทั่วไปในงาน AI inference ➡️ OptiScaler เป็นม็อดที่รองรับหลายเกมและสามารถปรับแต่งได้หลากหลาย ➡️ การใช้งาน FSR 4 ผ่าน DLL ช่วยให้เกมเก่าได้รับคุณภาพภาพที่ดีขึ้นโดยไม่ต้องอัปเกรดฮาร์ดแวร์ https://www.tomshardware.com/pc-components/gpus/latest-fsr-4-source-code-leak-lets-you-run-amds-ai-upscaling-tech-on-nearly-any-gpu-no-linux-required
    WWW.TOMSHARDWARE.COM
    Latest FSR 4 source code 'leak' lets you run AMD's AI upscaling tech on nearly any GPU — no Linux required
    It's a bit hacky, but with some tweaking, older GPUs get a nice new upscaling option. Maybe it'll make Bl4 playable?
    0 Comments 0 Shares 59 Views 0 Reviews
  • “Intel Core Ultra 3 205: ซีพียูระดับเริ่มต้นที่ไม่ธรรมดา — แรงเกินคาด แซง Core i3 และ i5 รุ่นก่อนหน้า”

    Intel กำลังกลับมาอย่างน่าสนใจในตลาดซีพียูระดับเริ่มต้น ด้วยการเปิดตัว Core Ultra 3 205 ซึ่งเป็นรุ่นล่างสุดของตระกูล Arrow Lake สำหรับเดสก์ท็อป แม้ยังไม่วางจำหน่ายอย่างเป็นทางการ แต่รีวิวจาก Bulls Lab ในเกาหลีใต้ได้เผยให้เห็นถึงประสิทธิภาพที่น่าทึ่งเกินคาด

    Core Ultra 3 205 ใช้สถาปัตยกรรมแบบ hybrid มี 4 P-core ที่เร่งได้ถึง 4.9 GHz และ 4 E-core ที่เร่งได้ถึง 4.4 GHz เมื่อจับคู่กับเมนบอร์ด H810 และแรม DDR5 32GB พบว่าสามารถใช้งานทั่วไปได้ลื่นไหล เปิดหลายแท็บเบราว์เซอร์พร้อมกัน และดูวิดีโอ YouTube 8K โดยใช้พลังงานต่ำ

    ผลการทดสอบ Cinebench R23 พบว่าได้คะแนน multi-core สูงถึง 13,394 ซึ่งมากกว่า Core i3-14100 ถึง 48% และคะแนน single-core ที่ 1,983 ก็ยังเหนือกว่า Core i5-14400 ด้วยซ้ำ นอกจากนี้ iGPU ที่ติดมากับชิปยังใช้ Xe-core 2 ตัว ทำให้เล่นเกมเบา ๆ อย่าง DOTA และ Valorant ได้สบาย ๆ

    ราคาที่คาดการณ์อยู่ที่ประมาณ $140 หรือ 199,000 วอน ซึ่งถือว่าเหมาะสำหรับผู้ที่ต้องการประกอบเครื่องราคาประหยัด โดย Bulls Lab ยังพบว่ามีพีซีสำเร็จรูปที่ใช้ชิปนี้พร้อม RAM 8GB และ SSD 500GB วางขายในราคาเพียง $360

    แม้จะดูน่าสนใจ แต่ Intel ยังไม่เปิดตัวชิปนี้ในช่องทางจำหน่ายอย่างเป็นทางการ และอาจวางขายเฉพาะในตลาด OEM หรือพีซีสำเร็จรูปเท่านั้น ซึ่งอาจทำให้ผู้ประกอบเครื่อง DIY เข้าถึงได้ยาก

    ข้อมูลสำคัญจากข่าว
    Core Ultra 3 205 เป็นซีพียูระดับเริ่มต้นในตระกูล Arrow Lake
    ใช้ hybrid architecture: 4 P-core (สูงสุด 4.9 GHz) + 4 E-core (สูงสุด 4.4 GHz)
    ทดสอบกับเมนบอร์ด H810 และ RAM DDR5 32GB
    ใช้งานทั่วไปลื่นไหล ดู YouTube 8K ได้โดยใช้พลังงานต่ำ

    ผลการทดสอบประสิทธิภาพ
    Cinebench R23 multi-core: 13,394 คะแนน (สูงกว่า Core i3-14100 ถึง 48%)
    Single-core: 1,983 คะแนน (เหนือกว่า Core i5-14400)
    iGPU ใช้ Xe-core 2 ตัว เล่นเกมเบา ๆ ได้ดี
    ประสิทธิภาพใกล้เคียงกับ Core Ultra 5 225 ในด้านกราฟิก

    ข้อมูลเสริมจากภายนอก
    ใช้พลังงานสูงสุด 65W — แนะนำให้ใช้ฮีตซิงก์จากผู้ผลิตอื่นแทนของ Intel
    ราคา CPU ประมาณ $140 และพีซีสำเร็จรูปอยู่ที่ $360
    รองรับ DDR5 ความเร็วสูงถึง 6400 MHz และมี L2 cache ขนาด 16MB
    ผลิตบนกระบวนการ 3nm — เล็กกว่า Core i3-14100 ที่ใช้ 10nm

    https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-3-205-delivers-impressive-results-in-early-review-reportedly-surpasses-previous-gen-core-i3-14100-and-core-i5-14400
    ⚙️ “Intel Core Ultra 3 205: ซีพียูระดับเริ่มต้นที่ไม่ธรรมดา — แรงเกินคาด แซง Core i3 และ i5 รุ่นก่อนหน้า” Intel กำลังกลับมาอย่างน่าสนใจในตลาดซีพียูระดับเริ่มต้น ด้วยการเปิดตัว Core Ultra 3 205 ซึ่งเป็นรุ่นล่างสุดของตระกูล Arrow Lake สำหรับเดสก์ท็อป แม้ยังไม่วางจำหน่ายอย่างเป็นทางการ แต่รีวิวจาก Bulls Lab ในเกาหลีใต้ได้เผยให้เห็นถึงประสิทธิภาพที่น่าทึ่งเกินคาด Core Ultra 3 205 ใช้สถาปัตยกรรมแบบ hybrid มี 4 P-core ที่เร่งได้ถึง 4.9 GHz และ 4 E-core ที่เร่งได้ถึง 4.4 GHz เมื่อจับคู่กับเมนบอร์ด H810 และแรม DDR5 32GB พบว่าสามารถใช้งานทั่วไปได้ลื่นไหล เปิดหลายแท็บเบราว์เซอร์พร้อมกัน และดูวิดีโอ YouTube 8K โดยใช้พลังงานต่ำ ผลการทดสอบ Cinebench R23 พบว่าได้คะแนน multi-core สูงถึง 13,394 ซึ่งมากกว่า Core i3-14100 ถึง 48% และคะแนน single-core ที่ 1,983 ก็ยังเหนือกว่า Core i5-14400 ด้วยซ้ำ นอกจากนี้ iGPU ที่ติดมากับชิปยังใช้ Xe-core 2 ตัว ทำให้เล่นเกมเบา ๆ อย่าง DOTA และ Valorant ได้สบาย ๆ ราคาที่คาดการณ์อยู่ที่ประมาณ $140 หรือ 199,000 วอน ซึ่งถือว่าเหมาะสำหรับผู้ที่ต้องการประกอบเครื่องราคาประหยัด โดย Bulls Lab ยังพบว่ามีพีซีสำเร็จรูปที่ใช้ชิปนี้พร้อม RAM 8GB และ SSD 500GB วางขายในราคาเพียง $360 แม้จะดูน่าสนใจ แต่ Intel ยังไม่เปิดตัวชิปนี้ในช่องทางจำหน่ายอย่างเป็นทางการ และอาจวางขายเฉพาะในตลาด OEM หรือพีซีสำเร็จรูปเท่านั้น ซึ่งอาจทำให้ผู้ประกอบเครื่อง DIY เข้าถึงได้ยาก ✅ ข้อมูลสำคัญจากข่าว ➡️ Core Ultra 3 205 เป็นซีพียูระดับเริ่มต้นในตระกูล Arrow Lake ➡️ ใช้ hybrid architecture: 4 P-core (สูงสุด 4.9 GHz) + 4 E-core (สูงสุด 4.4 GHz) ➡️ ทดสอบกับเมนบอร์ด H810 และ RAM DDR5 32GB ➡️ ใช้งานทั่วไปลื่นไหล ดู YouTube 8K ได้โดยใช้พลังงานต่ำ ✅ ผลการทดสอบประสิทธิภาพ ➡️ Cinebench R23 multi-core: 13,394 คะแนน (สูงกว่า Core i3-14100 ถึง 48%) ➡️ Single-core: 1,983 คะแนน (เหนือกว่า Core i5-14400) ➡️ iGPU ใช้ Xe-core 2 ตัว เล่นเกมเบา ๆ ได้ดี ➡️ ประสิทธิภาพใกล้เคียงกับ Core Ultra 5 225 ในด้านกราฟิก ✅ ข้อมูลเสริมจากภายนอก ➡️ ใช้พลังงานสูงสุด 65W — แนะนำให้ใช้ฮีตซิงก์จากผู้ผลิตอื่นแทนของ Intel ➡️ ราคา CPU ประมาณ $140 และพีซีสำเร็จรูปอยู่ที่ $360 ➡️ รองรับ DDR5 ความเร็วสูงถึง 6400 MHz และมี L2 cache ขนาด 16MB ➡️ ผลิตบนกระบวนการ 3nm — เล็กกว่า Core i3-14100 ที่ใช้ 10nm https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-3-205-delivers-impressive-results-in-early-review-reportedly-surpasses-previous-gen-core-i3-14100-and-core-i5-14400
    0 Comments 0 Shares 64 Views 0 Reviews
  • “Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมจากชิปซิลิคอน — จุดเปลี่ยนที่อาจทำให้ควอนตัมกลายเป็นเรื่อง ‘ธรรมดา’”

    Quantum Motion สตาร์ทอัพจากสหราชอาณาจักรที่แยกตัวจากมหาวิทยาลัย Oxford และ UCL ได้ประกาศเปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack เครื่องแรกของโลกที่สร้างขึ้นจากเทคโนโลยีชิปซิลิคอนมาตรฐานแบบเดียวกับที่ใช้ในโน้ตบุ๊กและสมาร์ตโฟน โดยระบบนี้ถูกติดตั้งแล้วที่ศูนย์ National Quantum Computing Centre (NQCC) ของสหราชอาณาจักรเมื่อวันที่ 15 กันยายน 2025

    สิ่งที่ทำให้ระบบนี้โดดเด่นคือการใช้กระบวนการผลิต CMOS ขนาด 300 มม. ซึ่งสามารถผลิตได้ในโรงงานชิปทั่วไป และติดตั้งในตู้เซิร์ฟเวอร์ขนาดมาตรฐาน 19 นิ้วเพียง 3 ตู้เท่านั้น — รวมถึงระบบ cryogenics และอุปกรณ์ควบคุมทั้งหมด ถือเป็น “quantum computing’s silicon moment” ที่อาจเปลี่ยนเกมการผลิตฮาร์ดแวร์ควอนตัมให้สามารถขยายได้ในระดับอุตสาหกรรม

    ระบบนี้ใช้สถาปัตยกรรมแบบ tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต และรองรับเฟรมเวิร์กยอดนิยมอย่าง Qiskit และ Cirq ทำให้นักพัฒนาสามารถสร้างแอปควอนตัมได้โดยไม่ต้องเปลี่ยนเครื่องมือใหม่ทั้งหมด

    แม้จะเป็นก้าวใหญ่ด้านวิศวกรรม แต่ Quantum Motion ยังไม่ได้เปิดเผยข้อมูลสำคัญ เช่น จำนวน qubit, ความแม่นยำของ gate, เวลาคงอยู่ของ qubit หรือ benchmark ใด ๆ ทั้งสิ้น ทำให้ยังไม่สามารถประเมินประสิทธิภาพจริงได้ในตอนนี้ และต้องรอการทดสอบจาก NQCC ในอีกไม่กี่เดือนข้างหน้า

    ข้อมูลสำคัญจากข่าว
    Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack จากชิปซิลิคอนมาตรฐาน
    ใช้กระบวนการผลิต CMOS ขนาด 300 มม. ที่สามารถผลิตในโรงงานทั่วไป
    ติดตั้งในศูนย์ NQCC ของสหราชอาณาจักรเมื่อ 15 กันยายน 2025
    ระบบทั้งหมดอยู่ในตู้เซิร์ฟเวอร์ขนาด 19 นิ้วเพียง 3 ตู้ รวมถึงตู้เย็นควอนตัมและอุปกรณ์ควบคุม

    จุดเด่นด้านเทคโนโลยี
    ใช้สถาปัตยกรรม tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต
    รองรับเฟรมเวิร์กยอดนิยม เช่น Qiskit และ Cirq
    ออกแบบให้สามารถติดตั้งในศูนย์ข้อมูลทั่วไปโดยไม่ต้องปรับโครงสร้าง
    เป็นระบบแรกที่ใช้ชิปซิลิคอนแบบ mass manufacturable สำหรับควอนตัม

    ข้อมูลเสริมจากภายนอก
    Quantum Motion ก่อตั้งในปี 2017 โดยนักวิจัยจาก Oxford และ UCL
    ได้รับเงินทุนกว่า $50.8 ล้านในปี 2023 และเข้าร่วมโครงการ DARPA QBI ในปี 2025
    การใช้ชิปซิลิคอนช่วยลดต้นทุนและเพิ่มความสามารถในการผลิตจำนวนมาก
    หากสำเร็จ อาจนำไปสู่การใช้งานควอนตัมในด้านพลังงาน ยา และการเงินอย่างแพร่หลาย

    https://www.tomshardware.com/tech-industry/supercomputers/uk-start-up-quantum-computer-runs-on-standard-chips
    🧊 “Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมจากชิปซิลิคอน — จุดเปลี่ยนที่อาจทำให้ควอนตัมกลายเป็นเรื่อง ‘ธรรมดา’” Quantum Motion สตาร์ทอัพจากสหราชอาณาจักรที่แยกตัวจากมหาวิทยาลัย Oxford และ UCL ได้ประกาศเปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack เครื่องแรกของโลกที่สร้างขึ้นจากเทคโนโลยีชิปซิลิคอนมาตรฐานแบบเดียวกับที่ใช้ในโน้ตบุ๊กและสมาร์ตโฟน โดยระบบนี้ถูกติดตั้งแล้วที่ศูนย์ National Quantum Computing Centre (NQCC) ของสหราชอาณาจักรเมื่อวันที่ 15 กันยายน 2025 สิ่งที่ทำให้ระบบนี้โดดเด่นคือการใช้กระบวนการผลิต CMOS ขนาด 300 มม. ซึ่งสามารถผลิตได้ในโรงงานชิปทั่วไป และติดตั้งในตู้เซิร์ฟเวอร์ขนาดมาตรฐาน 19 นิ้วเพียง 3 ตู้เท่านั้น — รวมถึงระบบ cryogenics และอุปกรณ์ควบคุมทั้งหมด ถือเป็น “quantum computing’s silicon moment” ที่อาจเปลี่ยนเกมการผลิตฮาร์ดแวร์ควอนตัมให้สามารถขยายได้ในระดับอุตสาหกรรม ระบบนี้ใช้สถาปัตยกรรมแบบ tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต และรองรับเฟรมเวิร์กยอดนิยมอย่าง Qiskit และ Cirq ทำให้นักพัฒนาสามารถสร้างแอปควอนตัมได้โดยไม่ต้องเปลี่ยนเครื่องมือใหม่ทั้งหมด แม้จะเป็นก้าวใหญ่ด้านวิศวกรรม แต่ Quantum Motion ยังไม่ได้เปิดเผยข้อมูลสำคัญ เช่น จำนวน qubit, ความแม่นยำของ gate, เวลาคงอยู่ของ qubit หรือ benchmark ใด ๆ ทั้งสิ้น ทำให้ยังไม่สามารถประเมินประสิทธิภาพจริงได้ในตอนนี้ และต้องรอการทดสอบจาก NQCC ในอีกไม่กี่เดือนข้างหน้า ✅ ข้อมูลสำคัญจากข่าว ➡️ Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack จากชิปซิลิคอนมาตรฐาน ➡️ ใช้กระบวนการผลิต CMOS ขนาด 300 มม. ที่สามารถผลิตในโรงงานทั่วไป ➡️ ติดตั้งในศูนย์ NQCC ของสหราชอาณาจักรเมื่อ 15 กันยายน 2025 ➡️ ระบบทั้งหมดอยู่ในตู้เซิร์ฟเวอร์ขนาด 19 นิ้วเพียง 3 ตู้ รวมถึงตู้เย็นควอนตัมและอุปกรณ์ควบคุม ✅ จุดเด่นด้านเทคโนโลยี ➡️ ใช้สถาปัตยกรรม tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต ➡️ รองรับเฟรมเวิร์กยอดนิยม เช่น Qiskit และ Cirq ➡️ ออกแบบให้สามารถติดตั้งในศูนย์ข้อมูลทั่วไปโดยไม่ต้องปรับโครงสร้าง ➡️ เป็นระบบแรกที่ใช้ชิปซิลิคอนแบบ mass manufacturable สำหรับควอนตัม ✅ ข้อมูลเสริมจากภายนอก ➡️ Quantum Motion ก่อตั้งในปี 2017 โดยนักวิจัยจาก Oxford และ UCL ➡️ ได้รับเงินทุนกว่า $50.8 ล้านในปี 2023 และเข้าร่วมโครงการ DARPA QBI ในปี 2025 ➡️ การใช้ชิปซิลิคอนช่วยลดต้นทุนและเพิ่มความสามารถในการผลิตจำนวนมาก ➡️ หากสำเร็จ อาจนำไปสู่การใช้งานควอนตัมในด้านพลังงาน ยา และการเงินอย่างแพร่หลาย https://www.tomshardware.com/tech-industry/supercomputers/uk-start-up-quantum-computer-runs-on-standard-chips
    WWW.TOMSHARDWARE.COM
    Start-up hails world's first quantum computer made from everyday silicon — fits in three 19-inch server racks and is touted as 'quantum computing's silicon moment'
    Built on a standard CMOS process and packed into three racks, Quantum Motion’s silicon spin-qubit machine is ready to be tested.
    0 Comments 0 Shares 46 Views 0 Reviews
  • “ดู YouTube หนึ่งชั่วโมงใช้เน็ตเท่าไหร่? — เปิดตัวเลขจริง พร้อมเทคนิคประหยัดดาต้าแบบไม่ต้องงดดูคลิป”

    ในยุคที่การดู YouTube กลายเป็นกิจวัตรประจำวันของคนทั่วโลก โดยเฉพาะผู้ใช้มือถือที่ต้องพึ่งพาแพ็กเกจอินเทอร์เน็ตแบบจำกัด การรู้ว่าการดูคลิปหนึ่งชั่วโมงใช้ดาต้าเท่าไหร่จึงเป็นเรื่องสำคัญ ล่าสุดเว็บไซต์ SlashGear ได้ทดสอบการใช้งานจริงโดยเปิดวิดีโอ YouTube ต่อเนื่องหนึ่งชั่วโมงในหลายความละเอียด เพื่อหาค่าการใช้ดาต้าเฉลี่ยต่อชั่วโมง

    ผลการทดสอบพบว่า:
    - 144p ใช้ดาต้าเพียง 27 MB ต่อชั่วโมง
    - 480p ใช้ประมาณ 93 MB
    - 720p ใช้ 107 MB
    - 1080p ใช้ 170 MB
    - 2160p (4K) ใช้สูงถึง 355 MB

    แต่ตัวเลขเหล่านี้อาจเปลี่ยนแปลงได้ตาม bitrate ของวิดีโอ ซึ่ง YouTube ใช้แบบแปรผัน (variable bitrate) หมายความว่าคลิปที่มีภาพเคลื่อนไหวมากหรือเสียงซับซ้อนจะใช้ดาต้ามากกว่าคลิปนิ่ง ๆ เช่น พอดแคสต์หรือวิดีโอสไลด์

    หากต้องการประหยัดดาต้า ผู้ใช้สามารถปรับความละเอียดวิดีโอได้ง่าย ๆ ผ่านไอคอนรูปเฟืองที่มุมขวาล่างของวิดีโอ และเลือกความละเอียดที่เหมาะสมกับขนาดหน้าจอ เช่น 360p หรือ 480p สำหรับมือถือ หรือ 720p สำหรับจอคอมทั่วไป

    นอกจากนี้ YouTube ยังมีฟีเจอร์ “Data Saver Mode” ที่ช่วยลดการใช้ดาต้าโดยอัตโนมัติเมื่อไม่ได้เชื่อมต่อ Wi-Fi โดยจะลดคุณภาพวิดีโอ ปิด autoplay และจำกัดการอัปโหลด ซึ่งสามารถเปิดใช้งานได้ในแอป YouTube ผ่านเมนูการตั้งค่า

    วิธีประหยัดดาต้าในการดู YouTube
    ปรับความละเอียดวิดีโอผ่านไอคอนเฟือง → Quality → เลือกความละเอียด
    ใช้ Data Saver Mode ในแอป YouTube เพื่อลดคุณภาพวิดีโอและปิด autoplay
    บนเบราว์เซอร์สามารถใช้ปลั๊กอิน เช่น YouTube Auto HD + FPS หรือ YouTube High Definition
    ความละเอียด 360p–480p เหมาะกับมือถือ ส่วน 720p เหมาะกับจอคอมทั่วไป

    https://www.slashgear.com/1966598/youtube-data-usage-per-hour/
    📶 “ดู YouTube หนึ่งชั่วโมงใช้เน็ตเท่าไหร่? — เปิดตัวเลขจริง พร้อมเทคนิคประหยัดดาต้าแบบไม่ต้องงดดูคลิป” ในยุคที่การดู YouTube กลายเป็นกิจวัตรประจำวันของคนทั่วโลก โดยเฉพาะผู้ใช้มือถือที่ต้องพึ่งพาแพ็กเกจอินเทอร์เน็ตแบบจำกัด การรู้ว่าการดูคลิปหนึ่งชั่วโมงใช้ดาต้าเท่าไหร่จึงเป็นเรื่องสำคัญ ล่าสุดเว็บไซต์ SlashGear ได้ทดสอบการใช้งานจริงโดยเปิดวิดีโอ YouTube ต่อเนื่องหนึ่งชั่วโมงในหลายความละเอียด เพื่อหาค่าการใช้ดาต้าเฉลี่ยต่อชั่วโมง ผลการทดสอบพบว่า: - 144p ใช้ดาต้าเพียง 27 MB ต่อชั่วโมง - 480p ใช้ประมาณ 93 MB - 720p ใช้ 107 MB - 1080p ใช้ 170 MB - 2160p (4K) ใช้สูงถึง 355 MB แต่ตัวเลขเหล่านี้อาจเปลี่ยนแปลงได้ตาม bitrate ของวิดีโอ ซึ่ง YouTube ใช้แบบแปรผัน (variable bitrate) หมายความว่าคลิปที่มีภาพเคลื่อนไหวมากหรือเสียงซับซ้อนจะใช้ดาต้ามากกว่าคลิปนิ่ง ๆ เช่น พอดแคสต์หรือวิดีโอสไลด์ หากต้องการประหยัดดาต้า ผู้ใช้สามารถปรับความละเอียดวิดีโอได้ง่าย ๆ ผ่านไอคอนรูปเฟืองที่มุมขวาล่างของวิดีโอ และเลือกความละเอียดที่เหมาะสมกับขนาดหน้าจอ เช่น 360p หรือ 480p สำหรับมือถือ หรือ 720p สำหรับจอคอมทั่วไป นอกจากนี้ YouTube ยังมีฟีเจอร์ “Data Saver Mode” ที่ช่วยลดการใช้ดาต้าโดยอัตโนมัติเมื่อไม่ได้เชื่อมต่อ Wi-Fi โดยจะลดคุณภาพวิดีโอ ปิด autoplay และจำกัดการอัปโหลด ซึ่งสามารถเปิดใช้งานได้ในแอป YouTube ผ่านเมนูการตั้งค่า ✅ วิธีประหยัดดาต้าในการดู YouTube ➡️ ปรับความละเอียดวิดีโอผ่านไอคอนเฟือง → Quality → เลือกความละเอียด ➡️ ใช้ Data Saver Mode ในแอป YouTube เพื่อลดคุณภาพวิดีโอและปิด autoplay ➡️ บนเบราว์เซอร์สามารถใช้ปลั๊กอิน เช่น YouTube Auto HD + FPS หรือ YouTube High Definition ➡️ ความละเอียด 360p–480p เหมาะกับมือถือ ส่วน 720p เหมาะกับจอคอมทั่วไป https://www.slashgear.com/1966598/youtube-data-usage-per-hour/
    WWW.SLASHGEAR.COM
    Here's How Much Data YouTube Uses Per Hour - SlashGear
    YouTube has become one of the most popular sources of entertainment in the world, but it can easily use up your mobile plan's data if you're not careful.
    0 Comments 0 Shares 25 Views 0 Reviews
  • “Waymo ได้ไฟเขียวให้วิ่งในสนามบิน SFO — ยกระดับการเดินทางด้วยรถไร้คนขับสู่จุดเริ่มต้นใหม่ของซานฟรานซิสโก”

    Waymo บริษัทเทคโนโลยีรถยนต์ไร้คนขับในเครือ Alphabet ได้รับใบอนุญาตนำร่องให้เริ่มดำเนินการเชิงพาณิชย์ที่สนามบินนานาชาติซานฟรานซิสโก (SFO) แล้วอย่างเป็นทางการ โดยจะเริ่มต้นด้วยการทดสอบภายในก่อนเปิดให้บริการแก่ผู้โดยสารทั่วไปในพื้นที่ Bay Area

    การดำเนินงานจะเริ่มที่จุดรับ-ส่ง “Kiss & Fly” ซึ่งอยู่ห่างจากอาคารผู้โดยสารเล็กน้อยและสามารถเดินทางด้วย AirTrain ได้ โดย Waymo วางแผนจะขยายจุดให้บริการในสนามบินเพิ่มเติมในอนาคต

    นี่ถือเป็นก้าวสำคัญของ Waymo หลังจากประสบความสำเร็จในการให้บริการที่สนามบิน Phoenix Sky Harbor และได้รับอนุญาตให้เริ่มดำเนินการที่สนามบิน San Jose Mineta International Airport เมื่อไม่นานมานี้

    นายกเทศมนตรี Daniel Lurie กล่าวว่านี่คือส่วนหนึ่งของแผนฟื้นฟูเศรษฐกิจและการท่องเที่ยวของเมือง โดยหวังให้ผู้มาเยือนสามารถใช้บริการ Waymo ได้ทันทีเมื่อเดินทางมาถึงซานฟรานซิสโก

    Waymo จะดำเนินงานใน 3 ระยะ ได้แก่
    1️⃣ ทดสอบรถในโหมดอัตโนมัติพร้อมผู้ควบคุม
    2️⃣ ให้บริการแก่พนักงาน Waymo และเจ้าหน้าที่สนามบิน
    3️⃣ เปิดให้บริการเชิงพาณิชย์แก่ผู้โดยสารทั่วไป

    แม้จะยังไม่มีการประกาศกรอบเวลาที่ชัดเจน แต่การอนุมัติครั้งนี้เกิดขึ้นท่ามกลางการเตรียมความพร้อมของเมืองสำหรับงานใหญ่ เช่น Super Bowl LX และ FIFA World Cup ที่จะจัดขึ้นในปีหน้า ซึ่งคาดว่าจะมีผู้เดินทางมากกว่า 500,000 คน

    https://waymo.com/blog/#short-all-systems-go-at-sfo-waymo-has-received-our-pilot-permit
    🚗 “Waymo ได้ไฟเขียวให้วิ่งในสนามบิน SFO — ยกระดับการเดินทางด้วยรถไร้คนขับสู่จุดเริ่มต้นใหม่ของซานฟรานซิสโก” Waymo บริษัทเทคโนโลยีรถยนต์ไร้คนขับในเครือ Alphabet ได้รับใบอนุญาตนำร่องให้เริ่มดำเนินการเชิงพาณิชย์ที่สนามบินนานาชาติซานฟรานซิสโก (SFO) แล้วอย่างเป็นทางการ โดยจะเริ่มต้นด้วยการทดสอบภายในก่อนเปิดให้บริการแก่ผู้โดยสารทั่วไปในพื้นที่ Bay Area การดำเนินงานจะเริ่มที่จุดรับ-ส่ง “Kiss & Fly” ซึ่งอยู่ห่างจากอาคารผู้โดยสารเล็กน้อยและสามารถเดินทางด้วย AirTrain ได้ โดย Waymo วางแผนจะขยายจุดให้บริการในสนามบินเพิ่มเติมในอนาคต นี่ถือเป็นก้าวสำคัญของ Waymo หลังจากประสบความสำเร็จในการให้บริการที่สนามบิน Phoenix Sky Harbor และได้รับอนุญาตให้เริ่มดำเนินการที่สนามบิน San Jose Mineta International Airport เมื่อไม่นานมานี้ นายกเทศมนตรี Daniel Lurie กล่าวว่านี่คือส่วนหนึ่งของแผนฟื้นฟูเศรษฐกิจและการท่องเที่ยวของเมือง โดยหวังให้ผู้มาเยือนสามารถใช้บริการ Waymo ได้ทันทีเมื่อเดินทางมาถึงซานฟรานซิสโก Waymo จะดำเนินงานใน 3 ระยะ ได้แก่ 1️⃣ ทดสอบรถในโหมดอัตโนมัติพร้อมผู้ควบคุม 2️⃣ ให้บริการแก่พนักงาน Waymo และเจ้าหน้าที่สนามบิน 3️⃣ เปิดให้บริการเชิงพาณิชย์แก่ผู้โดยสารทั่วไป แม้จะยังไม่มีการประกาศกรอบเวลาที่ชัดเจน แต่การอนุมัติครั้งนี้เกิดขึ้นท่ามกลางการเตรียมความพร้อมของเมืองสำหรับงานใหญ่ เช่น Super Bowl LX และ FIFA World Cup ที่จะจัดขึ้นในปีหน้า ซึ่งคาดว่าจะมีผู้เดินทางมากกว่า 500,000 คน https://waymo.com/blog/#short-all-systems-go-at-sfo-waymo-has-received-our-pilot-permit
    0 Comments 0 Shares 59 Views 0 Reviews
  • “Intel Arc A750 รุ่นต้นแบบโผล่พร้อมแรม 16GB และบัส 512-bit — การทดลองที่ไม่เคยเปิดตัว แต่สะท้อนความทะเยอทะยานของ Intel”

    แม้ Intel Arc A750 จะเปิดตัวไปตั้งแต่ปี 2022 พร้อมสเปกมาตรฐานคือแรม GDDR6 ขนาด 8GB และบัส 256-bit แต่ล่าสุดมีภาพหลุดของรุ่นต้นแบบจากแบรนด์ Gunnir ที่มาพร้อมแรม 16GB และระบุว่ามีบัส 512-bit ซึ่งสร้างความตื่นเต้นให้กับวงการฮาร์ดแวร์ เพราะนี่คือสเปกที่ไม่เคยถูกเปิดเผยหรือวางขายจริง

    ตัวการ์ดถูกพบโดยผู้ใช้ X (Twitter) ชื่อ @komenezumi1006 ซึ่งระบุว่าเป็นตัวอย่างทางวิศวกรรม (engineering sample) ที่ใช้งานได้จริง โดยสามารถแสดงแรม 16GB ใน Task Manager และมีสติ๊กเกอร์ “Intel Arc Sample” ติดอยู่บนตัวการ์ด

    สิ่งที่น่าสนใจคือการ์ดนี้มีเพียงหนึ่ง GPU core เท่านั้น ซึ่งหักล้างข้อสงสัยว่าอาจเป็นรุ่น dual-GPU ที่รวมแรมจากสองตัวเข้าด้วยกัน อย่างไรก็ตาม ยังไม่มีคำอธิบายชัดเจนว่าทำไมถึงมีการระบุบัส 512-bit ซึ่งอาจเป็นการเข้าใจผิดจากการเพิ่มแรมเป็นสองเท่าแล้วคิดว่าบัสต้องเพิ่มตาม

    นอกจากนี้ ตัวการ์ดยังใช้พลังงานผ่าน 2x 8-pin PCIe connectors ซึ่งต่างจากรุ่นขายจริงที่ใช้ 1x 8-pin และ 1x 6-pin และมีดีไซน์แบบ blower-style cooler ที่ดูพร้อมใช้งานจริง แม้จะไม่มีการทดสอบ benchmark แต่ก็ถือเป็นหลักฐานว่าครั้งหนึ่ง Intel เคยพิจารณาทำ A750 รุ่น 16GB ก่อนจะตัดสินใจไม่เปิดตัว

    ในสายผลิตภัณฑ์จริง Intel มี Arc A770 ที่มีแรม 16GB และ Arc B750 รุ่นใหม่ที่มีแรม 10GB ส่วน B770 ที่กำลังจะเปิดตัวก็มีข่าวลือว่าจะมาพร้อมแรม 16GB เช่นกัน ทำให้ A750 รุ่นต้นแบบนี้กลายเป็น “รุ่นกลาง” เพียงตัวเดียวที่มีแรมระดับสูงในสาย Alchemist

    https://www.tomshardware.com/pc-components/gpus/intel-arc-a750-prototype-spotted-with-16gb-vram-engineering-sample-made-by-gunnir-sports-sticker-claiming-a-512-bit-memory-bus
    🧩 “Intel Arc A750 รุ่นต้นแบบโผล่พร้อมแรม 16GB และบัส 512-bit — การทดลองที่ไม่เคยเปิดตัว แต่สะท้อนความทะเยอทะยานของ Intel” แม้ Intel Arc A750 จะเปิดตัวไปตั้งแต่ปี 2022 พร้อมสเปกมาตรฐานคือแรม GDDR6 ขนาด 8GB และบัส 256-bit แต่ล่าสุดมีภาพหลุดของรุ่นต้นแบบจากแบรนด์ Gunnir ที่มาพร้อมแรม 16GB และระบุว่ามีบัส 512-bit ซึ่งสร้างความตื่นเต้นให้กับวงการฮาร์ดแวร์ เพราะนี่คือสเปกที่ไม่เคยถูกเปิดเผยหรือวางขายจริง ตัวการ์ดถูกพบโดยผู้ใช้ X (Twitter) ชื่อ @komenezumi1006 ซึ่งระบุว่าเป็นตัวอย่างทางวิศวกรรม (engineering sample) ที่ใช้งานได้จริง โดยสามารถแสดงแรม 16GB ใน Task Manager และมีสติ๊กเกอร์ “Intel Arc Sample” ติดอยู่บนตัวการ์ด สิ่งที่น่าสนใจคือการ์ดนี้มีเพียงหนึ่ง GPU core เท่านั้น ซึ่งหักล้างข้อสงสัยว่าอาจเป็นรุ่น dual-GPU ที่รวมแรมจากสองตัวเข้าด้วยกัน อย่างไรก็ตาม ยังไม่มีคำอธิบายชัดเจนว่าทำไมถึงมีการระบุบัส 512-bit ซึ่งอาจเป็นการเข้าใจผิดจากการเพิ่มแรมเป็นสองเท่าแล้วคิดว่าบัสต้องเพิ่มตาม นอกจากนี้ ตัวการ์ดยังใช้พลังงานผ่าน 2x 8-pin PCIe connectors ซึ่งต่างจากรุ่นขายจริงที่ใช้ 1x 8-pin และ 1x 6-pin และมีดีไซน์แบบ blower-style cooler ที่ดูพร้อมใช้งานจริง แม้จะไม่มีการทดสอบ benchmark แต่ก็ถือเป็นหลักฐานว่าครั้งหนึ่ง Intel เคยพิจารณาทำ A750 รุ่น 16GB ก่อนจะตัดสินใจไม่เปิดตัว ในสายผลิตภัณฑ์จริง Intel มี Arc A770 ที่มีแรม 16GB และ Arc B750 รุ่นใหม่ที่มีแรม 10GB ส่วน B770 ที่กำลังจะเปิดตัวก็มีข่าวลือว่าจะมาพร้อมแรม 16GB เช่นกัน ทำให้ A750 รุ่นต้นแบบนี้กลายเป็น “รุ่นกลาง” เพียงตัวเดียวที่มีแรมระดับสูงในสาย Alchemist https://www.tomshardware.com/pc-components/gpus/intel-arc-a750-prototype-spotted-with-16gb-vram-engineering-sample-made-by-gunnir-sports-sticker-claiming-a-512-bit-memory-bus
    0 Comments 0 Shares 70 Views 0 Reviews
  • “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ”

    AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก

    ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด

    อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3

    แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ”

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่
    สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D
    ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p
    ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ

    การจับคู่กับ GPU และผลลัพธ์
    RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D
    Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends
    Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ
    Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ

    ข้อมูลเสริมจากภายนอก
    เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก
    จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC
    การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ
    การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน

    https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    🔥 “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ” AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3 แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ” ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่ ➡️ สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D ➡️ ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p ➡️ ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ ✅ การจับคู่กับ GPU และผลลัพธ์ ➡️ RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D ➡️ Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends ➡️ Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ ➡️ Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ ✅ ข้อมูลเสริมจากภายนอก ➡️ เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก ➡️ จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC ➡️ การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ ➡️ การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    0 Comments 0 Shares 82 Views 0 Reviews
  • “SOC ไม่ใช่แค่เครื่องมือ แต่คือร่มชูชีพ — ถ้าไม่ออกแบบดีพอ วันตกอาจไม่มีโอกาสแก้ตัว”

    Dan Haagman ผู้เชี่ยวชาญด้านความมั่นคงปลอดภัยไซเบอร์ ได้เขียนบทความที่สะท้อนความจริงอันเจ็บปวดของ Security Operations Center (SOC) ในองค์กรยุคใหม่ว่า “เราเชื่อว่า SOC จะช่วยป้องกันทุกอย่างได้ — แต่ความจริงคือมันพังบ่อย และพังเงียบ ๆ”

    เขาเปรียบ SOC กับร่มชูชีพที่องค์กรหวังพึ่งในยามเกิดเหตุ แต่ปัญหาคือ SOC ส่วนใหญ่ถูกออกแบบมาให้ “ตอบสนอง” มากกว่าคาดการณ์ล่วงหน้า เต็มไปด้วยเครื่องมือที่ซับซ้อน แดชบอร์ดที่ล้น และการแจ้งเตือนที่มากเกินไปจนเกิด “alert fatigue” ซึ่งทำให้ทีมงานมองข้ามสัญญาณสำคัญไปโดยไม่รู้ตัว

    Haagman เสนอว่า SOC ต้องเปลี่ยนจากการ “โยนเครื่องมือใส่ปัญหา” มาเป็นการ “ออกแบบระบบให้เรียบง่ายแต่แข็งแรง” เหมือนระบบรถไฟของสวิตเซอร์แลนด์ที่ไม่ใช่แค่ดูดี แต่ผ่านการทดสอบและฝึกซ้อมอย่างหนัก เขาเน้นว่า “ความซับซ้อนคือศัตรูของความยืดหยุ่น” และการพึ่งพา AI โดยไม่เข้าใจบริบทของระบบก็เป็นความเสี่ยงเช่นกัน

    เขายังเตือนว่า “คุณไม่สามารถเอาความคิดไปจ้างคนอื่นได้” — หมายถึงองค์กรต้องเข้าใจระบบของตัวเองอย่างลึกซึ้ง ไม่ใช่หวังให้ vendor หรือ AI มาช่วยคิดแทน เพราะการตอบสนองต่อเหตุการณ์ต้องอาศัยความเข้าใจบริบท ความรู้ภายใน และการฝึกซ้อมอย่างต่อเนื่อง

    สุดท้าย Haagman เสนอว่า SOC ที่ดีต้องมี “muscle memory” เหมือนนักบินที่ฝึกซ้อมการรับมือเหตุฉุกเฉินจนกลายเป็นสัญชาตญาณ ไม่ใช่รอเปิดคู่มือเมื่อเครื่องยนต์ดับกลางอากาศ

    ปัญหาและข้อเสนอจากบทความ
    SOC ส่วนใหญ่ยังเน้นการตอบสนองมากกว่าการคาดการณ์ล่วงหน้า
    Alert fatigue ทำให้ทีมงานมองข้ามสัญญาณสำคัญ
    การออกแบบระบบที่ซับซ้อนเกินไปทำให้ความยืดหยุ่นลดลง
    SOC ต้องเปลี่ยนจากการใช้เครื่องมือมากมาย มาเป็นการออกแบบที่เรียบง่ายแต่แข็งแรง

    แนวคิด “Swiss Engineering” และการฝึกซ้อม
    ระบบที่ดีไม่ใช่แค่มีเครื่องมือเยอะ แต่ต้องผ่านการทดสอบและฝึกซ้อม
    SOC ควรมี “muscle memory” เหมือนนักบิน — ฝึกซ้อมจนตอบสนองได้ทันที
    การตอบสนองต้องมี flow ที่ชัดเจน เช่น “aviate, navigate, communicate”
    การฝึกซ้อมช่วยให้ทีมงานตอบสนองได้แม่นยำในสถานการณ์จริง

    ข้อมูลเสริมจากภายนอก
    Generative AI เริ่มถูกใช้เพื่อช่วยลด alert fatigue โดยคัดกรองข้อมูลก่อนส่งถึงมนุษย์
    SOC ที่ใช้ AI อย่างมีโครงสร้างสามารถลดเวลาในการตรวจจับจาก 1 วันเหลือเพียง 10 วินาที
    การออกแบบระบบที่เน้น context-aware detection ช่วยให้มองเห็นภัยคุกคามที่ซ่อนอยู่ในข้อมูลเล็ก ๆ
    การฝึกซ้อมแบบ live-fire exercise ช่วยให้ทีม SOC เข้าใจช่องโหว่ของตัวเองและปรับปรุงได้จริง



    https://www.csoonline.com/article/4056178/your-soc-is-the-parachute-will-it-open.html
    🪂 “SOC ไม่ใช่แค่เครื่องมือ แต่คือร่มชูชีพ — ถ้าไม่ออกแบบดีพอ วันตกอาจไม่มีโอกาสแก้ตัว” Dan Haagman ผู้เชี่ยวชาญด้านความมั่นคงปลอดภัยไซเบอร์ ได้เขียนบทความที่สะท้อนความจริงอันเจ็บปวดของ Security Operations Center (SOC) ในองค์กรยุคใหม่ว่า “เราเชื่อว่า SOC จะช่วยป้องกันทุกอย่างได้ — แต่ความจริงคือมันพังบ่อย และพังเงียบ ๆ” เขาเปรียบ SOC กับร่มชูชีพที่องค์กรหวังพึ่งในยามเกิดเหตุ แต่ปัญหาคือ SOC ส่วนใหญ่ถูกออกแบบมาให้ “ตอบสนอง” มากกว่าคาดการณ์ล่วงหน้า เต็มไปด้วยเครื่องมือที่ซับซ้อน แดชบอร์ดที่ล้น และการแจ้งเตือนที่มากเกินไปจนเกิด “alert fatigue” ซึ่งทำให้ทีมงานมองข้ามสัญญาณสำคัญไปโดยไม่รู้ตัว Haagman เสนอว่า SOC ต้องเปลี่ยนจากการ “โยนเครื่องมือใส่ปัญหา” มาเป็นการ “ออกแบบระบบให้เรียบง่ายแต่แข็งแรง” เหมือนระบบรถไฟของสวิตเซอร์แลนด์ที่ไม่ใช่แค่ดูดี แต่ผ่านการทดสอบและฝึกซ้อมอย่างหนัก เขาเน้นว่า “ความซับซ้อนคือศัตรูของความยืดหยุ่น” และการพึ่งพา AI โดยไม่เข้าใจบริบทของระบบก็เป็นความเสี่ยงเช่นกัน เขายังเตือนว่า “คุณไม่สามารถเอาความคิดไปจ้างคนอื่นได้” — หมายถึงองค์กรต้องเข้าใจระบบของตัวเองอย่างลึกซึ้ง ไม่ใช่หวังให้ vendor หรือ AI มาช่วยคิดแทน เพราะการตอบสนองต่อเหตุการณ์ต้องอาศัยความเข้าใจบริบท ความรู้ภายใน และการฝึกซ้อมอย่างต่อเนื่อง สุดท้าย Haagman เสนอว่า SOC ที่ดีต้องมี “muscle memory” เหมือนนักบินที่ฝึกซ้อมการรับมือเหตุฉุกเฉินจนกลายเป็นสัญชาตญาณ ไม่ใช่รอเปิดคู่มือเมื่อเครื่องยนต์ดับกลางอากาศ ✅ ปัญหาและข้อเสนอจากบทความ ➡️ SOC ส่วนใหญ่ยังเน้นการตอบสนองมากกว่าการคาดการณ์ล่วงหน้า ➡️ Alert fatigue ทำให้ทีมงานมองข้ามสัญญาณสำคัญ ➡️ การออกแบบระบบที่ซับซ้อนเกินไปทำให้ความยืดหยุ่นลดลง ➡️ SOC ต้องเปลี่ยนจากการใช้เครื่องมือมากมาย มาเป็นการออกแบบที่เรียบง่ายแต่แข็งแรง ✅ แนวคิด “Swiss Engineering” และการฝึกซ้อม ➡️ ระบบที่ดีไม่ใช่แค่มีเครื่องมือเยอะ แต่ต้องผ่านการทดสอบและฝึกซ้อม ➡️ SOC ควรมี “muscle memory” เหมือนนักบิน — ฝึกซ้อมจนตอบสนองได้ทันที ➡️ การตอบสนองต้องมี flow ที่ชัดเจน เช่น “aviate, navigate, communicate” ➡️ การฝึกซ้อมช่วยให้ทีมงานตอบสนองได้แม่นยำในสถานการณ์จริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Generative AI เริ่มถูกใช้เพื่อช่วยลด alert fatigue โดยคัดกรองข้อมูลก่อนส่งถึงมนุษย์ ➡️ SOC ที่ใช้ AI อย่างมีโครงสร้างสามารถลดเวลาในการตรวจจับจาก 1 วันเหลือเพียง 10 วินาที ➡️ การออกแบบระบบที่เน้น context-aware detection ช่วยให้มองเห็นภัยคุกคามที่ซ่อนอยู่ในข้อมูลเล็ก ๆ ➡️ การฝึกซ้อมแบบ live-fire exercise ช่วยให้ทีม SOC เข้าใจช่องโหว่ของตัวเองและปรับปรุงได้จริง https://www.csoonline.com/article/4056178/your-soc-is-the-parachute-will-it-open.html
    WWW.CSOONLINE.COM
    Your SOC is the parachute — Will it open?
    From alert fatigue to not relying on AI to know your systems, how to ensure your SOC is ready for current threats.
    0 Comments 0 Shares 102 Views 0 Reviews
  • “อินเทอร์เน็ตดาวเทียมไม่ได้มีแค่ Starlink — เปิดทางเลือกใหม่สำหรับพื้นที่ห่างไกล พร้อมคู่แข่งที่กำลังไล่ตาม”

    Starlink จาก SpaceX ได้เปลี่ยนโฉมหน้าของอินเทอร์เน็ตดาวเทียมด้วยการใช้ดาวเทียมวงโคจรต่ำ (LEO) จำนวนมาก ทำให้ได้ความเร็วสูงและ latency ต่ำกว่าระบบเดิมอย่างชัดเจน โดยเฉพาะในพื้นที่ชนบทหรือห่างไกลที่ไม่มีโครงสร้างพื้นฐานของอินเทอร์เน็ตแบบสาย อย่างไรก็ตาม แม้ Starlink จะโดดเด่น แต่ก็ไม่ใช่ตัวเลือกเดียวในตลาดนี้

    สองคู่แข่งหลักที่ยังคงอยู่ในสนามคือ Hughesnet และ Viasat ซึ่งใช้ดาวเทียมแบบ geostationary (GEO) ที่อยู่ไกลจากโลกมากกว่า ทำให้มีความครอบคลุมกว้างแต่แลกกับความเร็วและ latency ที่ต่ำกว่า Starlink อย่างเห็นได้ชัด ตัวอย่างเช่น Hughesnet มี latency เฉลี่ย 683 ms และความเร็วดาวน์โหลดเฉลี่ย 47 Mbps ขณะที่ Starlink อยู่ที่ 45 ms และ 104 Mbps

    Viasat ก็มีปัญหาคล้ายกัน แม้จะมีแผน Unleashed ที่โฆษณาว่าความเร็วสูงถึง 150 Mbps แต่การทดสอบจริงได้เพียง 37 Mbps เท่านั้น และ latency อยู่ที่ประมาณ 676 ms ทั้งสองบริษัทยังมีข้อจำกัดเรื่องสัญญาระยะยาว ค่าปรับหากยกเลิกก่อนกำหนด และการลดความเร็วเมื่อใช้เกินโควต้าข้อมูล

    แต่สิ่งที่น่าจับตามองที่สุดคือ Amazon Project Kuiper ซึ่งกำลังพัฒนาเครือข่ายดาวเทียม LEO เช่นเดียวกับ Starlink โดยมีเป้าหมายส่งดาวเทียมกว่า 3,200 ดวงขึ้นสู่วงโคจร และให้ความเร็วสูงถึง 400 Mbps พร้อม latency ต่ำเพียง 20–40 ms หากเปิดให้บริการจริงภายในปี 2025 ก็อาจกลายเป็นคู่แข่งที่น่ากลัวที่สุดของ Starlink

    ตัวเลือกอินเทอร์เน็ตดาวเทียมในปัจจุบัน
    Starlink ใช้ดาวเทียม LEO ให้ความเร็วสูงและ latency ต่ำ เหมาะกับพื้นที่ห่างไกล
    Hughesnet ใช้ดาวเทียม GEO — ความครอบคลุมกว้างแต่ latency สูงและความเร็วต่ำ
    Viasat ใช้ทั้ง GEO และ HEO — มีแผนหลายระดับแต่ความเร็วจริงต่ำกว่าที่โฆษณา
    Amazon Kuiper กำลังพัฒนาเครือข่าย LEO ที่อาจให้ความเร็วสูงถึง 400 Mbps

    ข้อมูลเปรียบเทียบเบื้องต้น
    Starlink: latency ~45 ms / ความเร็ว ~104 Mbps / ไม่มีสัญญาระยะยาว
    Hughesnet: latency ~683 ms / ความเร็ว ~47 Mbps / มีสัญญาและลดความเร็วเมื่อใช้เกิน
    Viasat: latency ~676 ms / ความเร็วจริง ~37 Mbps / มีสัญญาและลดความเร็วเช่นกัน
    Kuiper: latency ~20–40 ms / ความเร็วเป้าหมาย ~400 Mbps / ยังไม่เปิดเผยราคา

    ข้อมูลเสริมจากภายนอก
    ดาวเทียม LEO อยู่ใกล้โลก (~500–1,200 กม.) ทำให้ตอบสนองเร็วกว่า GEO (~35,000 กม.)
    Hughesnet และ Viasat กำลังสูญเสียลูกค้าอย่างต่อเนื่องจากการแข่งขันของ Starlink
    Starlink ใช้จรวดรีไซเคิลจาก SpaceX ทำให้ต้นทุนการขยายเครือข่ายต่ำกว่าคู่แข่ง
    Kuiper มีสัญญาให้บริการ Wi-Fi บนเครื่องบิน JetBlue ในปี 2027 — เริ่มเจาะตลาดเฉพาะทาง

    https://www.slashgear.com/1965463/best-starlink-alternatives-satellite-internet/
    🛰️ “อินเทอร์เน็ตดาวเทียมไม่ได้มีแค่ Starlink — เปิดทางเลือกใหม่สำหรับพื้นที่ห่างไกล พร้อมคู่แข่งที่กำลังไล่ตาม” Starlink จาก SpaceX ได้เปลี่ยนโฉมหน้าของอินเทอร์เน็ตดาวเทียมด้วยการใช้ดาวเทียมวงโคจรต่ำ (LEO) จำนวนมาก ทำให้ได้ความเร็วสูงและ latency ต่ำกว่าระบบเดิมอย่างชัดเจน โดยเฉพาะในพื้นที่ชนบทหรือห่างไกลที่ไม่มีโครงสร้างพื้นฐานของอินเทอร์เน็ตแบบสาย อย่างไรก็ตาม แม้ Starlink จะโดดเด่น แต่ก็ไม่ใช่ตัวเลือกเดียวในตลาดนี้ สองคู่แข่งหลักที่ยังคงอยู่ในสนามคือ Hughesnet และ Viasat ซึ่งใช้ดาวเทียมแบบ geostationary (GEO) ที่อยู่ไกลจากโลกมากกว่า ทำให้มีความครอบคลุมกว้างแต่แลกกับความเร็วและ latency ที่ต่ำกว่า Starlink อย่างเห็นได้ชัด ตัวอย่างเช่น Hughesnet มี latency เฉลี่ย 683 ms และความเร็วดาวน์โหลดเฉลี่ย 47 Mbps ขณะที่ Starlink อยู่ที่ 45 ms และ 104 Mbps Viasat ก็มีปัญหาคล้ายกัน แม้จะมีแผน Unleashed ที่โฆษณาว่าความเร็วสูงถึง 150 Mbps แต่การทดสอบจริงได้เพียง 37 Mbps เท่านั้น และ latency อยู่ที่ประมาณ 676 ms ทั้งสองบริษัทยังมีข้อจำกัดเรื่องสัญญาระยะยาว ค่าปรับหากยกเลิกก่อนกำหนด และการลดความเร็วเมื่อใช้เกินโควต้าข้อมูล แต่สิ่งที่น่าจับตามองที่สุดคือ Amazon Project Kuiper ซึ่งกำลังพัฒนาเครือข่ายดาวเทียม LEO เช่นเดียวกับ Starlink โดยมีเป้าหมายส่งดาวเทียมกว่า 3,200 ดวงขึ้นสู่วงโคจร และให้ความเร็วสูงถึง 400 Mbps พร้อม latency ต่ำเพียง 20–40 ms หากเปิดให้บริการจริงภายในปี 2025 ก็อาจกลายเป็นคู่แข่งที่น่ากลัวที่สุดของ Starlink ✅ ตัวเลือกอินเทอร์เน็ตดาวเทียมในปัจจุบัน ➡️ Starlink ใช้ดาวเทียม LEO ให้ความเร็วสูงและ latency ต่ำ เหมาะกับพื้นที่ห่างไกล ➡️ Hughesnet ใช้ดาวเทียม GEO — ความครอบคลุมกว้างแต่ latency สูงและความเร็วต่ำ ➡️ Viasat ใช้ทั้ง GEO และ HEO — มีแผนหลายระดับแต่ความเร็วจริงต่ำกว่าที่โฆษณา ➡️ Amazon Kuiper กำลังพัฒนาเครือข่าย LEO ที่อาจให้ความเร็วสูงถึง 400 Mbps ✅ ข้อมูลเปรียบเทียบเบื้องต้น ➡️ Starlink: latency ~45 ms / ความเร็ว ~104 Mbps / ไม่มีสัญญาระยะยาว ➡️ Hughesnet: latency ~683 ms / ความเร็ว ~47 Mbps / มีสัญญาและลดความเร็วเมื่อใช้เกิน ➡️ Viasat: latency ~676 ms / ความเร็วจริง ~37 Mbps / มีสัญญาและลดความเร็วเช่นกัน ➡️ Kuiper: latency ~20–40 ms / ความเร็วเป้าหมาย ~400 Mbps / ยังไม่เปิดเผยราคา ✅ ข้อมูลเสริมจากภายนอก ➡️ ดาวเทียม LEO อยู่ใกล้โลก (~500–1,200 กม.) ทำให้ตอบสนองเร็วกว่า GEO (~35,000 กม.) ➡️ Hughesnet และ Viasat กำลังสูญเสียลูกค้าอย่างต่อเนื่องจากการแข่งขันของ Starlink ➡️ Starlink ใช้จรวดรีไซเคิลจาก SpaceX ทำให้ต้นทุนการขยายเครือข่ายต่ำกว่าคู่แข่ง ➡️ Kuiper มีสัญญาให้บริการ Wi-Fi บนเครื่องบิน JetBlue ในปี 2027 — เริ่มเจาะตลาดเฉพาะทาง https://www.slashgear.com/1965463/best-starlink-alternatives-satellite-internet/
    WWW.SLASHGEAR.COM
    These Are The Best (And Only) Starlink Alternative Options Out There - SlashGear
    Starlink dominates satellite internet, but Hughesnet, Viasat, and Amazon’s upcoming Kuiper offer the few real alternatives worth knowing.
    0 Comments 0 Shares 103 Views 0 Reviews
  • “คิดลบซ้ำ ๆ อาจทำให้สมองเสื่อมเร็วขึ้น — งานวิจัยจากจีนชี้ชัด ความเครียดทางใจส่งผลต่อความจำและการตัดสินใจในผู้สูงอายุ”

    ในยุคที่ผู้สูงอายุเผชิญกับความเปลี่ยนแปลงทั้งทางร่างกายและสังคม งานวิจัยล่าสุดจากมหาวิทยาลัยแพทย์จีนแห่งหูเป่ย (Hubei University of Chinese Medicine) ได้เปิดเผยความเชื่อมโยงที่น่าตกใจระหว่าง “การคิดลบซ้ำ ๆ” หรือ Repetitive Negative Thinking (RNT) กับการเสื่อมถอยของสมรรถภาพทางปัญญาในผู้สูงอายุ

    การศึกษานี้เก็บข้อมูลจากผู้เข้าร่วม 424 คน อายุ 60 ปีขึ้นไปในเมืองอู่ฮั่น โดยใช้แบบสอบถาม Perseverative Thinking Questionnaire (PTQ) เพื่อวัดระดับการคิดลบ และใช้แบบทดสอบ Montreal Cognitive Assessment (MoCA) เพื่อประเมินความสามารถทางสมอง เช่น ความจำ ความสนใจ และการตัดสินใจ

    ผลการวิเคราะห์พบว่า ผู้ที่มีคะแนน RNT สูง (กลุ่ม Q3 และ Q4) มีคะแนน MoCA ต่ำกว่ากลุ่มที่มี RNT ต่ำอย่างมีนัยสำคัญ แม้จะควบคุมปัจจัยอื่น ๆ เช่น อายุ รายได้ การศึกษา และโรคประจำตัวแล้วก็ตาม โดยเฉพาะในกลุ่มอายุ 60–79 ปี และผู้ที่มีการศึกษาระดับมัธยมขึ้นไป ความสัมพันธ์นี้ยิ่งชัดเจน

    นักวิจัยอธิบายว่า การคิดลบซ้ำ ๆ เช่น การกังวลเรื่องอนาคต หรือการครุ่นคิดถึงอดีตที่เจ็บปวด จะกระตุ้นระบบความเครียดในร่างกาย ทำให้ระดับฮอร์โมนคอร์ติซอลสูงขึ้น เกิดการอักเสบในสมอง และอาจนำไปสู่การสะสมของโปรตีนอะไมลอยด์และเทา ซึ่งเป็นสัญญาณของโรคอัลไซเมอร์

    นอกจากนี้ยังมีแนวคิด “หนี้สมอง” (Cognitive Debt) ที่อธิบายว่า การใช้ทรัพยากรสมองไปกับความคิดลบอย่างต่อเนื่อง จะลดความสามารถในการจดจำและตัดสินใจในระยะยาว

    ข้อมูลสำคัญจากงานวิจัย
    ศึกษาในผู้สูงอายุ 424 คนในเมืองอู่ฮั่น ประเทศจีน
    ใช้แบบสอบถาม PTQ วัดระดับการคิดลบ และ MoCA วัดความสามารถทางสมอง
    ผู้ที่มี RNT สูงมีคะแนน MoCA ต่ำกว่ากลุ่มที่มี RNT ต่ำ
    ความสัมพันธ์ชัดเจนในกลุ่มอายุ 60–79 ปี และผู้มีการศึกษาระดับมัธยมขึ้นไป

    กลไกที่อธิบายผลกระทบ
    การคิดลบซ้ำ ๆ กระตุ้นระบบความเครียด ทำให้คอร์ติซอลสูงขึ้น
    เกิดการอักเสบในสมอง และอาจนำไปสู่การสะสมโปรตีนอะไมลอยด์และเทา
    แนวคิด “หนี้สมอง” อธิบายว่าความคิดลบใช้ทรัพยากรสมองจนหมด
    ส่งผลต่อความจำ ความสนใจ และการตัดสินใจในระยะยาว

    ข้อมูลเสริมจากภายนอก
    งานวิจัยจาก UCL พบว่า RNT เชื่อมโยงกับการเสื่อมของสมองในระยะ 4 ปี
    RNT เป็นอาการร่วมในโรคซึมเศร้า วิตกกังวล PTSD และโรคนอนไม่หลับ
    การลด RNT ด้วย CBT, mindfulness และกิจกรรมทางสังคมช่วยป้องกันสมองเสื่อม
    การตรวจสอบ RNT ควรเป็นส่วนหนึ่งของการดูแลสุขภาพจิตผู้สูงอายุ

    https://bmcpsychiatry.biomedcentral.com/articles/10.1186/s12888-025-06815-2
    🧠 “คิดลบซ้ำ ๆ อาจทำให้สมองเสื่อมเร็วขึ้น — งานวิจัยจากจีนชี้ชัด ความเครียดทางใจส่งผลต่อความจำและการตัดสินใจในผู้สูงอายุ” ในยุคที่ผู้สูงอายุเผชิญกับความเปลี่ยนแปลงทั้งทางร่างกายและสังคม งานวิจัยล่าสุดจากมหาวิทยาลัยแพทย์จีนแห่งหูเป่ย (Hubei University of Chinese Medicine) ได้เปิดเผยความเชื่อมโยงที่น่าตกใจระหว่าง “การคิดลบซ้ำ ๆ” หรือ Repetitive Negative Thinking (RNT) กับการเสื่อมถอยของสมรรถภาพทางปัญญาในผู้สูงอายุ การศึกษานี้เก็บข้อมูลจากผู้เข้าร่วม 424 คน อายุ 60 ปีขึ้นไปในเมืองอู่ฮั่น โดยใช้แบบสอบถาม Perseverative Thinking Questionnaire (PTQ) เพื่อวัดระดับการคิดลบ และใช้แบบทดสอบ Montreal Cognitive Assessment (MoCA) เพื่อประเมินความสามารถทางสมอง เช่น ความจำ ความสนใจ และการตัดสินใจ ผลการวิเคราะห์พบว่า ผู้ที่มีคะแนน RNT สูง (กลุ่ม Q3 และ Q4) มีคะแนน MoCA ต่ำกว่ากลุ่มที่มี RNT ต่ำอย่างมีนัยสำคัญ แม้จะควบคุมปัจจัยอื่น ๆ เช่น อายุ รายได้ การศึกษา และโรคประจำตัวแล้วก็ตาม โดยเฉพาะในกลุ่มอายุ 60–79 ปี และผู้ที่มีการศึกษาระดับมัธยมขึ้นไป ความสัมพันธ์นี้ยิ่งชัดเจน นักวิจัยอธิบายว่า การคิดลบซ้ำ ๆ เช่น การกังวลเรื่องอนาคต หรือการครุ่นคิดถึงอดีตที่เจ็บปวด จะกระตุ้นระบบความเครียดในร่างกาย ทำให้ระดับฮอร์โมนคอร์ติซอลสูงขึ้น เกิดการอักเสบในสมอง และอาจนำไปสู่การสะสมของโปรตีนอะไมลอยด์และเทา ซึ่งเป็นสัญญาณของโรคอัลไซเมอร์ นอกจากนี้ยังมีแนวคิด “หนี้สมอง” (Cognitive Debt) ที่อธิบายว่า การใช้ทรัพยากรสมองไปกับความคิดลบอย่างต่อเนื่อง จะลดความสามารถในการจดจำและตัดสินใจในระยะยาว ✅ ข้อมูลสำคัญจากงานวิจัย ➡️ ศึกษาในผู้สูงอายุ 424 คนในเมืองอู่ฮั่น ประเทศจีน ➡️ ใช้แบบสอบถาม PTQ วัดระดับการคิดลบ และ MoCA วัดความสามารถทางสมอง ➡️ ผู้ที่มี RNT สูงมีคะแนน MoCA ต่ำกว่ากลุ่มที่มี RNT ต่ำ ➡️ ความสัมพันธ์ชัดเจนในกลุ่มอายุ 60–79 ปี และผู้มีการศึกษาระดับมัธยมขึ้นไป ✅ กลไกที่อธิบายผลกระทบ ➡️ การคิดลบซ้ำ ๆ กระตุ้นระบบความเครียด ทำให้คอร์ติซอลสูงขึ้น ➡️ เกิดการอักเสบในสมอง และอาจนำไปสู่การสะสมโปรตีนอะไมลอยด์และเทา ➡️ แนวคิด “หนี้สมอง” อธิบายว่าความคิดลบใช้ทรัพยากรสมองจนหมด ➡️ ส่งผลต่อความจำ ความสนใจ และการตัดสินใจในระยะยาว ✅ ข้อมูลเสริมจากภายนอก ➡️ งานวิจัยจาก UCL พบว่า RNT เชื่อมโยงกับการเสื่อมของสมองในระยะ 4 ปี ➡️ RNT เป็นอาการร่วมในโรคซึมเศร้า วิตกกังวล PTSD และโรคนอนไม่หลับ ➡️ การลด RNT ด้วย CBT, mindfulness และกิจกรรมทางสังคมช่วยป้องกันสมองเสื่อม ➡️ การตรวจสอบ RNT ควรเป็นส่วนหนึ่งของการดูแลสุขภาพจิตผู้สูงอายุ https://bmcpsychiatry.biomedcentral.com/articles/10.1186/s12888-025-06815-2
    0 Comments 0 Shares 92 Views 0 Reviews
  • “Windows 11 เพิ่มฟีเจอร์ทดสอบความเร็วเน็ตใน Taskbar — กดปุ๊บเปิด Bing ปั๊บ แต่ยังไม่ใช่ระบบในเครื่องจริง”

    Microsoft เตรียมเพิ่มฟีเจอร์ใหม่ใน Windows 11 ที่ให้ผู้ใช้สามารถทดสอบความเร็วอินเทอร์เน็ตได้ทันทีจาก Taskbar โดยไม่ต้องเปิดเว็บไซต์หรือแอปภายนอก โดยในเวอร์ชัน Insider ล่าสุด (Build 26220.6682 และ 26120.6682) มีการเพิ่มปุ่ม “Perform speed test” ทั้งในเมนูคลิกขวาของไอคอนเครือข่าย และในหน้า Quick Settings ของ Wi-Fi

    เมื่อคลิกปุ่มดังกล่าว ระบบจะเปิดเบราว์เซอร์และนำผู้ใช้ไปยัง Bing ซึ่งมีเครื่องมือทดสอบความเร็วเน็ตฝังอยู่ — หมายความว่าฟีเจอร์นี้ยังไม่ใช่การทดสอบแบบ native ภายใน Windows แต่เป็นการเชื่อมต่อไปยังบริการภายนอกที่ Microsoft ควบคุมผ่าน Bing

    นอกจากฟีเจอร์นี้ Microsoft ยังปรับปรุงหน้าการตั้งค่าหลายส่วน เช่น หน้า Mobile Devices ที่รวมการควบคุมโทรศัพท์ไว้ในที่เดียว และหน้า Privacy & Security ที่มีหัวข้อชัดเจนมากขึ้น รวมถึงหน้าใหม่ “Background AI tasks” ที่ยังไม่เสถียรและมีรายงานว่าทำให้ระบบล่มในบางกรณี

    แม้ฟีเจอร์เหล่านี้จะยังอยู่ในเวอร์ชันทดสอบ แต่ก็สะท้อนถึงแนวทางของ Microsoft ที่พยายามเพิ่มความสะดวกในการใช้งาน และเชื่อมโยงบริการของตนเองเข้ากับระบบปฏิบัติการอย่างแนบเนียนมากขึ้น

    ฟีเจอร์ใหม่ใน Windows 11 Insider Build
    เพิ่มปุ่ม “Perform speed test” ในเมนูคลิกขวาของไอคอนเครือข่ายใน Taskbar
    เพิ่มปุ่มทดสอบความเร็วในหน้า Quick Settings ของ Wi-Fi
    เมื่อคลิกแล้วจะเปิด Bing เพื่อทดสอบความเร็วอินเทอร์เน็ตผ่านเบราว์เซอร์
    ฟีเจอร์นี้อยู่ใน Build 26220.6682 และ 26120.6682 (KB5065782) ในช่อง Dev และ Beta

    การปรับปรุงหน้าการตั้งค่า
    หน้า Mobile Devices รวมการควบคุมโทรศัพท์ไว้ในหน้าหลักของ Bluetooth & Devices
    หน้า Privacy & Security ถูกจัดระเบียบใหม่ให้เข้าใจง่ายขึ้น
    เพิ่มหน้า “Background AI tasks” สำหรับควบคุมงานเบื้องหลังของ AI
    การเปลี่ยนแปลงเหล่านี้ยังอยู่ในขั้นตอนการทดสอบกับผู้ใช้ Insider

    https://www.tomshardware.com/software/windows/windows-11-is-getting-a-built-in-internet-speed-test-feature-that-will-take-you-to-bing-along-with-multiple-revamped-settings-pages-latest-insider-channel-builds-reveal-prominent-changes-coming-soon-to-the-os
    📶 “Windows 11 เพิ่มฟีเจอร์ทดสอบความเร็วเน็ตใน Taskbar — กดปุ๊บเปิด Bing ปั๊บ แต่ยังไม่ใช่ระบบในเครื่องจริง” Microsoft เตรียมเพิ่มฟีเจอร์ใหม่ใน Windows 11 ที่ให้ผู้ใช้สามารถทดสอบความเร็วอินเทอร์เน็ตได้ทันทีจาก Taskbar โดยไม่ต้องเปิดเว็บไซต์หรือแอปภายนอก โดยในเวอร์ชัน Insider ล่าสุด (Build 26220.6682 และ 26120.6682) มีการเพิ่มปุ่ม “Perform speed test” ทั้งในเมนูคลิกขวาของไอคอนเครือข่าย และในหน้า Quick Settings ของ Wi-Fi เมื่อคลิกปุ่มดังกล่าว ระบบจะเปิดเบราว์เซอร์และนำผู้ใช้ไปยัง Bing ซึ่งมีเครื่องมือทดสอบความเร็วเน็ตฝังอยู่ — หมายความว่าฟีเจอร์นี้ยังไม่ใช่การทดสอบแบบ native ภายใน Windows แต่เป็นการเชื่อมต่อไปยังบริการภายนอกที่ Microsoft ควบคุมผ่าน Bing นอกจากฟีเจอร์นี้ Microsoft ยังปรับปรุงหน้าการตั้งค่าหลายส่วน เช่น หน้า Mobile Devices ที่รวมการควบคุมโทรศัพท์ไว้ในที่เดียว และหน้า Privacy & Security ที่มีหัวข้อชัดเจนมากขึ้น รวมถึงหน้าใหม่ “Background AI tasks” ที่ยังไม่เสถียรและมีรายงานว่าทำให้ระบบล่มในบางกรณี แม้ฟีเจอร์เหล่านี้จะยังอยู่ในเวอร์ชันทดสอบ แต่ก็สะท้อนถึงแนวทางของ Microsoft ที่พยายามเพิ่มความสะดวกในการใช้งาน และเชื่อมโยงบริการของตนเองเข้ากับระบบปฏิบัติการอย่างแนบเนียนมากขึ้น ✅ ฟีเจอร์ใหม่ใน Windows 11 Insider Build ➡️ เพิ่มปุ่ม “Perform speed test” ในเมนูคลิกขวาของไอคอนเครือข่ายใน Taskbar ➡️ เพิ่มปุ่มทดสอบความเร็วในหน้า Quick Settings ของ Wi-Fi ➡️ เมื่อคลิกแล้วจะเปิด Bing เพื่อทดสอบความเร็วอินเทอร์เน็ตผ่านเบราว์เซอร์ ➡️ ฟีเจอร์นี้อยู่ใน Build 26220.6682 และ 26120.6682 (KB5065782) ในช่อง Dev และ Beta ✅ การปรับปรุงหน้าการตั้งค่า ➡️ หน้า Mobile Devices รวมการควบคุมโทรศัพท์ไว้ในหน้าหลักของ Bluetooth & Devices ➡️ หน้า Privacy & Security ถูกจัดระเบียบใหม่ให้เข้าใจง่ายขึ้น ➡️ เพิ่มหน้า “Background AI tasks” สำหรับควบคุมงานเบื้องหลังของ AI ➡️ การเปลี่ยนแปลงเหล่านี้ยังอยู่ในขั้นตอนการทดสอบกับผู้ใช้ Insider https://www.tomshardware.com/software/windows/windows-11-is-getting-a-built-in-internet-speed-test-feature-that-will-take-you-to-bing-along-with-multiple-revamped-settings-pages-latest-insider-channel-builds-reveal-prominent-changes-coming-soon-to-the-os
    0 Comments 0 Shares 115 Views 0 Reviews
  • “NVIDIA ปรับแผนหน่วยความจำ SOCAMM — ยกเลิกรุ่นแรก หันพัฒนา SOCAMM2 เพื่อรองรับยุค AI เต็มรูปแบบ”

    NVIDIA กำลังเขย่าวงการเซมิคอนดักเตอร์อีกครั้ง เมื่อมีรายงานจากสื่อเกาหลี ETNews ว่าบริษัทได้ยกเลิกการเปิดตัวหน่วยความจำ SOCAMM1 (System-on-Chip Attached Memory Module) รุ่นแรก และหันไปพัฒนา SOCAMM2 แทน โดยมีการทดสอบตัวอย่างร่วมกับผู้ผลิตหน่วยความจำรายใหญ่ทั้งสาม ได้แก่ Micron, Samsung และ SK hynix

    SOCAMM ถูกออกแบบมาเพื่อเป็นหน่วยความจำแบบ LPDDR ที่ติดตั้งโดยตรงกับ SoC สำหรับเซิร์ฟเวอร์ AI โดยมีเป้าหมายเพื่อให้ได้แบนด์วิดท์สูงในราคาที่ต่ำกว่าหน่วยความจำ HBM (High Bandwidth Memory) ซึ่งมีต้นทุนสูงและซับซ้อนกว่า SOCAMM1 เคยถูกวางแผนให้ใช้ในเซิร์ฟเวอร์รุ่น GB300 NVL72 ที่รองรับได้ถึง 18TB และแบนด์วิดท์ 14.3TB/s

    แต่เนื่องจากปัญหาทางเทคนิคและซัพพลายเชน SOCAMM1 จึงถูกยกเลิก และ SOCAMM2 ได้เข้ามาแทนที่ โดยคาดว่าจะเพิ่มความเร็วจาก 8,533 MT/s เป็น 9,600 MT/s และอาจรองรับ LPDDR6 ในอนาคต แม้ยังไม่มีการยืนยันจากผู้ผลิตใด ๆ

    Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ตั้งแต่เดือนมีนาคม ขณะที่ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ซึ่งการเปลี่ยนผ่านไปยัง SOCAMM2 อาจเปิดโอกาสให้สองบริษัทจากเกาหลีไล่ทัน Micron ในการแข่งขันครั้งนี้

    SOCAMM ยังถูกมองว่าเป็นเทคโนโลยีสำคัญในแผนการเปิดตัว GPU รุ่น Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ซึ่งจะใช้ SOCAMM หลายชุดเพื่อรองรับโมเดล AI ขนาดใหญ่ที่ต้องการหน่วยความจำมหาศาล

    ข้อมูลสำคัญจากข่าว
    NVIDIA ยกเลิก SOCAMM1 และหันไปพัฒนา SOCAMM2 แทน
    SOCAMM2 อยู่ระหว่างการทดสอบกับ Micron, Samsung และ SK hynix
    SOCAMM เป็นหน่วยความจำ LPDDR ที่ติดตั้งกับ SoC สำหรับเซิร์ฟเวอร์ AI
    SOCAMM2 คาดว่าจะเพิ่มความเร็วเป็น 9,600 MT/s และอาจรองรับ LPDDR6

    ความเคลื่อนไหวของผู้ผลิตหน่วยความจำ
    Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI
    Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025
    การเปลี่ยนไปใช้ SOCAMM2 อาจเปิดโอกาสให้ Samsung และ SK ไล่ทัน Micron
    SOCAMM จะถูกใช้ใน GPU Rubin และ CPU Vera ของ NVIDIA ในปี 2026

    ข้อมูลเสริมจากภายนอก
    SOCAMM ใช้เทคโนโลยี wire bonding ด้วยทองแดงเพื่อเพิ่มประสิทธิภาพการระบายความร้อน
    SOCAMM มีต้นทุนต่ำกว่า HBM และเหมาะกับการใช้งานในเซิร์ฟเวอร์ AI ที่ต้องการแบนด์วิดท์สูง
    LPDDR5X ที่ใช้ใน SOCAMM มีประสิทธิภาพด้านพลังงานสูงกว่าหน่วยความจำทั่วไป
    การเปลี่ยนแปลงนี้อาจส่งผลต่อการออกแบบเซิร์ฟเวอร์และ AI PC ในปี 2026

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rumored-to-ditch-socamm1-for-socamm2
    🚀 “NVIDIA ปรับแผนหน่วยความจำ SOCAMM — ยกเลิกรุ่นแรก หันพัฒนา SOCAMM2 เพื่อรองรับยุค AI เต็มรูปแบบ” NVIDIA กำลังเขย่าวงการเซมิคอนดักเตอร์อีกครั้ง เมื่อมีรายงานจากสื่อเกาหลี ETNews ว่าบริษัทได้ยกเลิกการเปิดตัวหน่วยความจำ SOCAMM1 (System-on-Chip Attached Memory Module) รุ่นแรก และหันไปพัฒนา SOCAMM2 แทน โดยมีการทดสอบตัวอย่างร่วมกับผู้ผลิตหน่วยความจำรายใหญ่ทั้งสาม ได้แก่ Micron, Samsung และ SK hynix SOCAMM ถูกออกแบบมาเพื่อเป็นหน่วยความจำแบบ LPDDR ที่ติดตั้งโดยตรงกับ SoC สำหรับเซิร์ฟเวอร์ AI โดยมีเป้าหมายเพื่อให้ได้แบนด์วิดท์สูงในราคาที่ต่ำกว่าหน่วยความจำ HBM (High Bandwidth Memory) ซึ่งมีต้นทุนสูงและซับซ้อนกว่า SOCAMM1 เคยถูกวางแผนให้ใช้ในเซิร์ฟเวอร์รุ่น GB300 NVL72 ที่รองรับได้ถึง 18TB และแบนด์วิดท์ 14.3TB/s แต่เนื่องจากปัญหาทางเทคนิคและซัพพลายเชน SOCAMM1 จึงถูกยกเลิก และ SOCAMM2 ได้เข้ามาแทนที่ โดยคาดว่าจะเพิ่มความเร็วจาก 8,533 MT/s เป็น 9,600 MT/s และอาจรองรับ LPDDR6 ในอนาคต แม้ยังไม่มีการยืนยันจากผู้ผลิตใด ๆ Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ตั้งแต่เดือนมีนาคม ขณะที่ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ซึ่งการเปลี่ยนผ่านไปยัง SOCAMM2 อาจเปิดโอกาสให้สองบริษัทจากเกาหลีไล่ทัน Micron ในการแข่งขันครั้งนี้ SOCAMM ยังถูกมองว่าเป็นเทคโนโลยีสำคัญในแผนการเปิดตัว GPU รุ่น Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ซึ่งจะใช้ SOCAMM หลายชุดเพื่อรองรับโมเดล AI ขนาดใหญ่ที่ต้องการหน่วยความจำมหาศาล ✅ ข้อมูลสำคัญจากข่าว ➡️ NVIDIA ยกเลิก SOCAMM1 และหันไปพัฒนา SOCAMM2 แทน ➡️ SOCAMM2 อยู่ระหว่างการทดสอบกับ Micron, Samsung และ SK hynix ➡️ SOCAMM เป็นหน่วยความจำ LPDDR ที่ติดตั้งกับ SoC สำหรับเซิร์ฟเวอร์ AI ➡️ SOCAMM2 คาดว่าจะเพิ่มความเร็วเป็น 9,600 MT/s และอาจรองรับ LPDDR6 ✅ ความเคลื่อนไหวของผู้ผลิตหน่วยความจำ ➡️ Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ➡️ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ➡️ การเปลี่ยนไปใช้ SOCAMM2 อาจเปิดโอกาสให้ Samsung และ SK ไล่ทัน Micron ➡️ SOCAMM จะถูกใช้ใน GPU Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ SOCAMM ใช้เทคโนโลยี wire bonding ด้วยทองแดงเพื่อเพิ่มประสิทธิภาพการระบายความร้อน ➡️ SOCAMM มีต้นทุนต่ำกว่า HBM และเหมาะกับการใช้งานในเซิร์ฟเวอร์ AI ที่ต้องการแบนด์วิดท์สูง ➡️ LPDDR5X ที่ใช้ใน SOCAMM มีประสิทธิภาพด้านพลังงานสูงกว่าหน่วยความจำทั่วไป ➡️ การเปลี่ยนแปลงนี้อาจส่งผลต่อการออกแบบเซิร์ฟเวอร์และ AI PC ในปี 2026 https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rumored-to-ditch-socamm1-for-socamm2
    0 Comments 0 Shares 98 Views 0 Reviews
More Results