• Intel Gaudi 3 ฝ่าด่านตลาด AI ด้วยการจับมือ Dell — เปิดตัวในเซิร์ฟเวอร์ PowerEdge XE7740 พร้อมความหวังใหม่ในยุคที่ NVIDIA ครองเกม

    หลังจากที่ Intel พยายามผลักดันไลน์ผลิตภัณฑ์ด้าน AI มาหลายปีโดยไม่ประสบความสำเร็จเท่าที่ควร ล่าสุด Gaudi 3 ซึ่งเป็นชิปเร่งความเร็ว AI รุ่นใหม่ของ Intel ได้รับการบรรจุในเซิร์ฟเวอร์ Dell PowerEdge XE7740 อย่างเป็นทางการ ถือเป็นหนึ่งใน “ชัยชนะเล็ก ๆ” ที่อาจพลิกเกมให้ Intel กลับมาแข่งขันกับ NVIDIA และ AMD ได้อีกครั้ง

    PowerEdge XE7740 เป็นเซิร์ฟเวอร์ระดับองค์กรที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ รองรับ Gaudi 3 ได้สูงสุด 8 ตัวในระบบเดียว พร้อมระบบเครือข่ายแบบ 1:1 ระหว่าง accelerator และ NIC เพื่อเพิ่มประสิทธิภาพการประมวลผลและการเชื่อมต่อ นอกจากนี้ยังรองรับโมเดล AI ยอดนิยม เช่น Llama4, Deepseek, Phi4 และ Falcon3

    Dell ชูจุดเด่นของ Gaudi 3 ว่า “คุ้มค่า” และ “ปรับขนาดได้ง่าย” โดยเฉพาะในองค์กรที่มีข้อจำกัดด้านพลังงานและระบบระบายความร้อน ซึ่ง Gaudi 3 ถูกออกแบบมาให้ทำงานได้ดีในแร็คขนาด ~10kW ที่พบได้ทั่วไปในดาต้าเซ็นเตอร์

    แม้ Dell ยังไม่เปิดเผยตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่จากการทดสอบก่อนหน้านี้ Gaudi 3 เคยแสดงผลลัพธ์ที่เร็วกว่า NVIDIA H100 และ H200 ในบางงาน inferencing ซึ่งหากเป็นจริง ก็อาจเป็นจุดเปลี่ยนสำคัญของ Intel ในตลาด AI ที่เคยถูกมองว่า “ช้าเกินไป”

    Intel Gaudi 3 ได้รับการบรรจุในเซิร์ฟเวอร์ Dell PowerEdge XE7740
    ถือเป็นการบุกตลาดองค์กรครั้งสำคัญของ Intel
    Dell เป็นหนึ่งในผู้ผลิตรายแรกที่นำ Gaudi 3 มาใช้ในระบบจริง

    PowerEdge XE7740 รองรับงาน AI เต็มรูปแบบ
    รองรับ Gaudi 3 ได้สูงสุด 8 ตัวในระบบเดียว
    มีระบบเครือข่ายแบบ 1:1 ระหว่าง accelerator และ NIC
    รองรับโมเดล AI ยอดนิยม เช่น Llama4, Phi4, Falcon3

    จุดเด่นของ Gaudi 3 คือความคุ้มค่าและความยืดหยุ่น
    เหมาะกับองค์กรที่มีข้อจำกัดด้านพลังงานและระบบระบายความร้อน
    รองรับการเชื่อมต่อแบบ RoCE v2 สำหรับงานขนาดใหญ่

    Dell ชูจุดเด่นด้านการปรับขนาดและการติดตั้งง่าย
    ใช้แชสซีแบบ 4U ที่ระบายความร้อนได้ดี
    รองรับการติดตั้งในแร็คมาตรฐาน ~10kW โดยไม่ต้องปรับโครงสร้าง

    Gaudi 3 เคยแสดงผลลัพธ์ดีกว่า NVIDIA H100/H200 ในบางงาน
    โดยเฉพาะงาน inferencing ที่เน้นประสิทธิภาพต่อวัตต์
    ยังต้องรอผลการทดสอบจาก Dell เพื่อยืนยัน

    https://wccftech.com/intel-gaudi-3-ai-chips-secure-rare-integration-in-dell-poweredge-servers/
    📰 Intel Gaudi 3 ฝ่าด่านตลาด AI ด้วยการจับมือ Dell — เปิดตัวในเซิร์ฟเวอร์ PowerEdge XE7740 พร้อมความหวังใหม่ในยุคที่ NVIDIA ครองเกม หลังจากที่ Intel พยายามผลักดันไลน์ผลิตภัณฑ์ด้าน AI มาหลายปีโดยไม่ประสบความสำเร็จเท่าที่ควร ล่าสุด Gaudi 3 ซึ่งเป็นชิปเร่งความเร็ว AI รุ่นใหม่ของ Intel ได้รับการบรรจุในเซิร์ฟเวอร์ Dell PowerEdge XE7740 อย่างเป็นทางการ ถือเป็นหนึ่งใน “ชัยชนะเล็ก ๆ” ที่อาจพลิกเกมให้ Intel กลับมาแข่งขันกับ NVIDIA และ AMD ได้อีกครั้ง PowerEdge XE7740 เป็นเซิร์ฟเวอร์ระดับองค์กรที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ รองรับ Gaudi 3 ได้สูงสุด 8 ตัวในระบบเดียว พร้อมระบบเครือข่ายแบบ 1:1 ระหว่าง accelerator และ NIC เพื่อเพิ่มประสิทธิภาพการประมวลผลและการเชื่อมต่อ นอกจากนี้ยังรองรับโมเดล AI ยอดนิยม เช่น Llama4, Deepseek, Phi4 และ Falcon3 Dell ชูจุดเด่นของ Gaudi 3 ว่า “คุ้มค่า” และ “ปรับขนาดได้ง่าย” โดยเฉพาะในองค์กรที่มีข้อจำกัดด้านพลังงานและระบบระบายความร้อน ซึ่ง Gaudi 3 ถูกออกแบบมาให้ทำงานได้ดีในแร็คขนาด ~10kW ที่พบได้ทั่วไปในดาต้าเซ็นเตอร์ แม้ Dell ยังไม่เปิดเผยตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่จากการทดสอบก่อนหน้านี้ Gaudi 3 เคยแสดงผลลัพธ์ที่เร็วกว่า NVIDIA H100 และ H200 ในบางงาน inferencing ซึ่งหากเป็นจริง ก็อาจเป็นจุดเปลี่ยนสำคัญของ Intel ในตลาด AI ที่เคยถูกมองว่า “ช้าเกินไป” ✅ Intel Gaudi 3 ได้รับการบรรจุในเซิร์ฟเวอร์ Dell PowerEdge XE7740 ➡️ ถือเป็นการบุกตลาดองค์กรครั้งสำคัญของ Intel ➡️ Dell เป็นหนึ่งในผู้ผลิตรายแรกที่นำ Gaudi 3 มาใช้ในระบบจริง ✅ PowerEdge XE7740 รองรับงาน AI เต็มรูปแบบ ➡️ รองรับ Gaudi 3 ได้สูงสุด 8 ตัวในระบบเดียว ➡️ มีระบบเครือข่ายแบบ 1:1 ระหว่าง accelerator และ NIC ➡️ รองรับโมเดล AI ยอดนิยม เช่น Llama4, Phi4, Falcon3 ✅ จุดเด่นของ Gaudi 3 คือความคุ้มค่าและความยืดหยุ่น ➡️ เหมาะกับองค์กรที่มีข้อจำกัดด้านพลังงานและระบบระบายความร้อน ➡️ รองรับการเชื่อมต่อแบบ RoCE v2 สำหรับงานขนาดใหญ่ ✅ Dell ชูจุดเด่นด้านการปรับขนาดและการติดตั้งง่าย ➡️ ใช้แชสซีแบบ 4U ที่ระบายความร้อนได้ดี ➡️ รองรับการติดตั้งในแร็คมาตรฐาน ~10kW โดยไม่ต้องปรับโครงสร้าง ✅ Gaudi 3 เคยแสดงผลลัพธ์ดีกว่า NVIDIA H100/H200 ในบางงาน ➡️ โดยเฉพาะงาน inferencing ที่เน้นประสิทธิภาพต่อวัตต์ ➡️ ยังต้องรอผลการทดสอบจาก Dell เพื่อยืนยัน https://wccftech.com/intel-gaudi-3-ai-chips-secure-rare-integration-in-dell-poweredge-servers/
    WCCFTECH.COM
    Intel’s Gaudi 3 AI Chips Secure Integration in Dell’s PowerEdge Servers, Marking One of the Few Wins for the Struggling Lineup
    Intel's Gaudi 3 AI chips have seen a rather 'rare' feature from Dell's AI servers, which are claimed to be cost-efficient and scalable.
    0 Comments 0 Shares 19 Views 0 Reviews
  • AMD เปิดตัว Ryzen 9000 PRO — ชิปองค์กร Zen 5 ที่เน้นความปลอดภัยและประสิทธิภาพ พร้อมลดพลังงานลงเหลือ 65W

    ในขณะที่ตลาดซีพียูสำหรับผู้ใช้ทั่วไปกำลังแข่งขันกันด้วยจำนวนคอร์และความเร็ว AMD ก็ไม่ลืมกลุ่มองค์กร ล่าสุดได้เปิดตัวซีรีส์ใหม่ Ryzen PRO 9000 ที่พัฒนาบนสถาปัตยกรรม Zen 5 “Granite Ridge” เช่นเดียวกับ Ryzen 9000 รุ่นทั่วไป แต่มีการปรับแต่งให้เหมาะกับการใช้งานในระดับองค์กร โดยเน้นฟีเจอร์ด้านความปลอดภัย การจัดการระบบ และประสิทธิภาพที่เสถียร

    ซีรีส์นี้ประกอบด้วย 3 รุ่น ได้แก่ Ryzen 5 PRO 9645 (6 คอร์), Ryzen 7 PRO 9745 (8 คอร์) และ Ryzen 9 PRO 9945 (12 คอร์) โดยทั้งหมดมี TDP เพียง 65W ซึ่งถือว่าต่ำมากเมื่อเทียบกับ Ryzen 9 9900X รุ่นทั่วไปที่มี TDP สูงถึง 120W แม้จะมีคอร์มากกว่า แต่ PRO 9945 ก็ยังสามารถทำงานได้ใกล้เคียงในหลายแง่มุม

    แม้จะไม่เน้นตัวเลขดิบ แต่ AMD ก็เผยว่า Ryzen 9 PRO 9945 มีประสิทธิภาพสูงกว่า Intel Core i7-14700 ถึง 44% ในงาน Blender และเร็วขึ้น 22% ในงาน productivity อื่น ๆ ซึ่งถือว่าเป็นตัวเลือกที่น่าสนใจสำหรับองค์กรที่ต้องการประสิทธิภาพสูงแต่ประหยัดพลังงาน

    ที่น่าสนใจคือซีพียูเหล่านี้จะมาพร้อมพัดลม Wraith Stealth ในกล่อง แม้จะเป็นรุ่นองค์กรก็ตาม และจะถูกจำหน่ายผ่าน OEM เท่านั้น ไม่เปิดขายทั่วไป

    AMD เปิดตัว Ryzen PRO 9000 สำหรับองค์กร
    ใช้สถาปัตยกรรม Zen 5 “Granite Ridge”
    เน้นฟีเจอร์ด้านความปลอดภัยและการจัดการระบบ
    จำหน่ายผ่าน OEM เท่านั้น ไม่วางขายทั่วไป

    มีทั้งหมด 3 รุ่นในซีรีส์ PRO 9000
    Ryzen 5 PRO 9645: 6 คอร์ / 12 เธรด / 3.9–5.4 GHz / 38MB cache
    Ryzen 7 PRO 9745: 8 คอร์ / 16 เธรด / 3.8–5.4 GHz / 40MB cache
    Ryzen 9 PRO 9945: 12 คอร์ / 24 เธรด / 3.4–5.4 GHz / 76MB cache

    ทุกตัวมี TDP เพียง 65W
    ลดลงจากรุ่นทั่วไปที่มี TDP สูงถึง 120W–170W
    เหมาะกับองค์กรที่ต้องการประหยัดพลังงานและลดความร้อน

    ประสิทธิภาพเทียบกับ Intel
    Ryzen 9 PRO 9945 เร็วกว่า Core i7-14700 ถึง 44% ใน Blender
    เร็วขึ้น 22% ในงาน productivity อื่น ๆ

    มาพร้อมพัดลม Wraith Stealth ในกล่อง
    แม้จะเป็นรุ่นองค์กร แต่ยังให้ชุดระบายความร้อนมาให้
    ช่วยลดต้นทุนในการติดตั้งระบบ

    คำเตือนเกี่ยวกับข้อจำกัดของซีรีส์ PRO
    ไม่เปิดขายทั่วไป ต้องซื้อผ่าน OEM เท่านั้น
    Ryzen 9 PRO 9945 มีคอร์น้อยกว่ารุ่น 9900X (12 vs 16)
    ความเร็ว base clock ลดลงจากรุ่นก่อนหน้า (3.4 GHz vs 3.7 GHz)
    Ryzen PRO ยังไม่ครบเครื่องเท่า Intel vPro ในบางด้านของการจัดการระบบ

    https://www.tomshardware.com/pc-components/cpus/amd-launches-ryzen-9000-pro-series-flagship-model-tops-out-at-12-cores-new-enterprise-lineup-includes-3-cpus-for-oems-featuring-added-business-and-security-features
    📰 AMD เปิดตัว Ryzen 9000 PRO — ชิปองค์กร Zen 5 ที่เน้นความปลอดภัยและประสิทธิภาพ พร้อมลดพลังงานลงเหลือ 65W ในขณะที่ตลาดซีพียูสำหรับผู้ใช้ทั่วไปกำลังแข่งขันกันด้วยจำนวนคอร์และความเร็ว AMD ก็ไม่ลืมกลุ่มองค์กร ล่าสุดได้เปิดตัวซีรีส์ใหม่ Ryzen PRO 9000 ที่พัฒนาบนสถาปัตยกรรม Zen 5 “Granite Ridge” เช่นเดียวกับ Ryzen 9000 รุ่นทั่วไป แต่มีการปรับแต่งให้เหมาะกับการใช้งานในระดับองค์กร โดยเน้นฟีเจอร์ด้านความปลอดภัย การจัดการระบบ และประสิทธิภาพที่เสถียร ซีรีส์นี้ประกอบด้วย 3 รุ่น ได้แก่ Ryzen 5 PRO 9645 (6 คอร์), Ryzen 7 PRO 9745 (8 คอร์) และ Ryzen 9 PRO 9945 (12 คอร์) โดยทั้งหมดมี TDP เพียง 65W ซึ่งถือว่าต่ำมากเมื่อเทียบกับ Ryzen 9 9900X รุ่นทั่วไปที่มี TDP สูงถึง 120W แม้จะมีคอร์มากกว่า แต่ PRO 9945 ก็ยังสามารถทำงานได้ใกล้เคียงในหลายแง่มุม แม้จะไม่เน้นตัวเลขดิบ แต่ AMD ก็เผยว่า Ryzen 9 PRO 9945 มีประสิทธิภาพสูงกว่า Intel Core i7-14700 ถึง 44% ในงาน Blender และเร็วขึ้น 22% ในงาน productivity อื่น ๆ ซึ่งถือว่าเป็นตัวเลือกที่น่าสนใจสำหรับองค์กรที่ต้องการประสิทธิภาพสูงแต่ประหยัดพลังงาน ที่น่าสนใจคือซีพียูเหล่านี้จะมาพร้อมพัดลม Wraith Stealth ในกล่อง แม้จะเป็นรุ่นองค์กรก็ตาม และจะถูกจำหน่ายผ่าน OEM เท่านั้น ไม่เปิดขายทั่วไป ✅ AMD เปิดตัว Ryzen PRO 9000 สำหรับองค์กร ➡️ ใช้สถาปัตยกรรม Zen 5 “Granite Ridge” ➡️ เน้นฟีเจอร์ด้านความปลอดภัยและการจัดการระบบ ➡️ จำหน่ายผ่าน OEM เท่านั้น ไม่วางขายทั่วไป ✅ มีทั้งหมด 3 รุ่นในซีรีส์ PRO 9000 ➡️ Ryzen 5 PRO 9645: 6 คอร์ / 12 เธรด / 3.9–5.4 GHz / 38MB cache ➡️ Ryzen 7 PRO 9745: 8 คอร์ / 16 เธรด / 3.8–5.4 GHz / 40MB cache ➡️ Ryzen 9 PRO 9945: 12 คอร์ / 24 เธรด / 3.4–5.4 GHz / 76MB cache ✅ ทุกตัวมี TDP เพียง 65W ➡️ ลดลงจากรุ่นทั่วไปที่มี TDP สูงถึง 120W–170W ➡️ เหมาะกับองค์กรที่ต้องการประหยัดพลังงานและลดความร้อน ✅ ประสิทธิภาพเทียบกับ Intel ➡️ Ryzen 9 PRO 9945 เร็วกว่า Core i7-14700 ถึง 44% ใน Blender ➡️ เร็วขึ้น 22% ในงาน productivity อื่น ๆ ✅ มาพร้อมพัดลม Wraith Stealth ในกล่อง ➡️ แม้จะเป็นรุ่นองค์กร แต่ยังให้ชุดระบายความร้อนมาให้ ➡️ ช่วยลดต้นทุนในการติดตั้งระบบ ‼️ คำเตือนเกี่ยวกับข้อจำกัดของซีรีส์ PRO ⛔ ไม่เปิดขายทั่วไป ต้องซื้อผ่าน OEM เท่านั้น ⛔ Ryzen 9 PRO 9945 มีคอร์น้อยกว่ารุ่น 9900X (12 vs 16) ⛔ ความเร็ว base clock ลดลงจากรุ่นก่อนหน้า (3.4 GHz vs 3.7 GHz) ⛔ Ryzen PRO ยังไม่ครบเครื่องเท่า Intel vPro ในบางด้านของการจัดการระบบ https://www.tomshardware.com/pc-components/cpus/amd-launches-ryzen-9000-pro-series-flagship-model-tops-out-at-12-cores-new-enterprise-lineup-includes-3-cpus-for-oems-featuring-added-business-and-security-features
    0 Comments 0 Shares 25 Views 0 Reviews
  • ASRock X870 LiveMixer WiFi: เมนบอร์ดสาย Creator ที่มาพร้อมพอร์ต USB ถึง 25 ช่อง — แต่ยังมีจุดอ่อนที่ไม่ควรมองข้าม

    ในยุคที่อุปกรณ์ต่อพ่วงมีมากมายเกินกว่าจะนับนิ้วได้ ASRock ได้เปิดตัวเมนบอร์ดรุ่นใหม่ X870 LiveMixer WiFi ที่มาพร้อมพอร์ต USB มากถึง 25 ช่อง ซึ่งถือว่าเป็นจำนวนที่ “มากที่สุดในตลาด” ณ ปี 2025 โดยออกแบบมาเพื่อรองรับผู้ใช้งานระดับ Creator ที่ต้องเชื่อมต่ออุปกรณ์หลากหลาย เช่น กล้อง, ไมโครโฟน, DAC, SSD, และอุปกรณ์สตรีมมิ่งต่าง ๆ

    เมนบอร์ดนี้รองรับซีพียู AMD Ryzen รุ่นใหม่ตั้งแต่ซีรีส์ 7000 ถึง 9000 ผ่านซ็อกเก็ต AM5 พร้อมรองรับแรม DDR5 สูงสุดถึง 256GB และความเร็วทะลุ 8000MT/s โดยมีระบบ VRM แบบ 16+2+1 เฟส พร้อมคาปาซิเตอร์ระดับ 20K เพื่อความเสถียรในการโอเวอร์คล็อก

    จุดเด่นที่สุดคือพอร์ต USB ที่แบ่งเป็น:
    - USB4 จำนวน 2 ช่อง
    - USB 3.2 Gen2x2 ความเร็ว 20Gbps จำนวน 1 ช่อง
    - USB 3.2 Gen1 ความเร็ว 5Gbps จำนวน 12 ช่อง
    - USB 2.0 จำนวน 10 ช่อง

    แม้จะดูน่าตื่นเต้น แต่การใส่ USB 2.0 ถึง 10 ช่องในปี 2025 ก็ถูกวิจารณ์ว่า “ย้อนยุคเกินไป” เพราะความเร็วต่ำและไม่เหมาะกับอุปกรณ์สมัยใหม่ อย่างไรก็ตาม หากคุณยังใช้อุปกรณ์เก่าอยู่ ก็อาจเป็นข้อดีที่หาได้ยากในเมนบอร์ดรุ่นใหม่

    ด้านการเชื่อมต่ออื่น ๆ ก็จัดเต็มเช่นกัน ทั้ง Wi-Fi 7, Bluetooth 5.4, LAN 5Gbps, HDMI 2.1, และระบบเสียง Realtek ALC4082 พร้อม Nahimic Audio

    ASRock เปิดตัวเมนบอร์ด X870 LiveMixer WiFi
    รองรับซีพียู AMD Ryzen 7000–9000 ผ่านซ็อกเก็ต AM5
    รองรับแรม DDR5 สูงสุด 256GB ความเร็วถึง 8000MT/s
    ระบบ VRM แบบ 16+2+1 เฟส พร้อมคาปาซิเตอร์ 20K

    จุดเด่นคือพอร์ต USB มากถึง 25 ช่อง
    USB4 จำนวน 2 ช่อง
    USB 3.2 Gen2x2 (20Gbps) จำนวน 1 ช่อง
    USB 3.2 Gen1 (5Gbps) จำนวน 12 ช่อง
    USB 2.0 จำนวน 10 ช่อง

    การเชื่อมต่ออื่น ๆ ครบครัน
    LAN 5Gbps, Wi-Fi 7, Bluetooth 5.4
    HDMI 2.1, ระบบเสียง Realtek ALC4082 + Nahimic
    รองรับ PCIe 5.0 สำหรับกราฟิกและ SSD

    เหมาะสำหรับ Creator และผู้ใช้งานที่ต้องการเชื่อมต่ออุปกรณ์จำนวนมาก
    รองรับอุปกรณ์สตรีมมิ่ง, กล้อง, DAC, และอุปกรณ์เสริมอื่น ๆ
    ลดความจำเป็นในการใช้ USB hub ภายนอก

    https://www.techradar.com/pro/you-can-plug-25-usb-devices-into-this-asrock-atx-motherboard-yes-25-shame-10-of-them-are-usb-2-0-an-abomination-in-2025
    📰 ASRock X870 LiveMixer WiFi: เมนบอร์ดสาย Creator ที่มาพร้อมพอร์ต USB ถึง 25 ช่อง — แต่ยังมีจุดอ่อนที่ไม่ควรมองข้าม ในยุคที่อุปกรณ์ต่อพ่วงมีมากมายเกินกว่าจะนับนิ้วได้ ASRock ได้เปิดตัวเมนบอร์ดรุ่นใหม่ X870 LiveMixer WiFi ที่มาพร้อมพอร์ต USB มากถึง 25 ช่อง ซึ่งถือว่าเป็นจำนวนที่ “มากที่สุดในตลาด” ณ ปี 2025 โดยออกแบบมาเพื่อรองรับผู้ใช้งานระดับ Creator ที่ต้องเชื่อมต่ออุปกรณ์หลากหลาย เช่น กล้อง, ไมโครโฟน, DAC, SSD, และอุปกรณ์สตรีมมิ่งต่าง ๆ เมนบอร์ดนี้รองรับซีพียู AMD Ryzen รุ่นใหม่ตั้งแต่ซีรีส์ 7000 ถึง 9000 ผ่านซ็อกเก็ต AM5 พร้อมรองรับแรม DDR5 สูงสุดถึง 256GB และความเร็วทะลุ 8000MT/s โดยมีระบบ VRM แบบ 16+2+1 เฟส พร้อมคาปาซิเตอร์ระดับ 20K เพื่อความเสถียรในการโอเวอร์คล็อก จุดเด่นที่สุดคือพอร์ต USB ที่แบ่งเป็น: - USB4 จำนวน 2 ช่อง - USB 3.2 Gen2x2 ความเร็ว 20Gbps จำนวน 1 ช่อง - USB 3.2 Gen1 ความเร็ว 5Gbps จำนวน 12 ช่อง - USB 2.0 จำนวน 10 ช่อง แม้จะดูน่าตื่นเต้น แต่การใส่ USB 2.0 ถึง 10 ช่องในปี 2025 ก็ถูกวิจารณ์ว่า “ย้อนยุคเกินไป” เพราะความเร็วต่ำและไม่เหมาะกับอุปกรณ์สมัยใหม่ อย่างไรก็ตาม หากคุณยังใช้อุปกรณ์เก่าอยู่ ก็อาจเป็นข้อดีที่หาได้ยากในเมนบอร์ดรุ่นใหม่ ด้านการเชื่อมต่ออื่น ๆ ก็จัดเต็มเช่นกัน ทั้ง Wi-Fi 7, Bluetooth 5.4, LAN 5Gbps, HDMI 2.1, และระบบเสียง Realtek ALC4082 พร้อม Nahimic Audio ✅ ASRock เปิดตัวเมนบอร์ด X870 LiveMixer WiFi ➡️ รองรับซีพียู AMD Ryzen 7000–9000 ผ่านซ็อกเก็ต AM5 ➡️ รองรับแรม DDR5 สูงสุด 256GB ความเร็วถึง 8000MT/s ➡️ ระบบ VRM แบบ 16+2+1 เฟส พร้อมคาปาซิเตอร์ 20K ✅ จุดเด่นคือพอร์ต USB มากถึง 25 ช่อง ➡️ USB4 จำนวน 2 ช่อง ➡️ USB 3.2 Gen2x2 (20Gbps) จำนวน 1 ช่อง ➡️ USB 3.2 Gen1 (5Gbps) จำนวน 12 ช่อง ➡️ USB 2.0 จำนวน 10 ช่อง ✅ การเชื่อมต่ออื่น ๆ ครบครัน ➡️ LAN 5Gbps, Wi-Fi 7, Bluetooth 5.4 ➡️ HDMI 2.1, ระบบเสียง Realtek ALC4082 + Nahimic ➡️ รองรับ PCIe 5.0 สำหรับกราฟิกและ SSD ✅ เหมาะสำหรับ Creator และผู้ใช้งานที่ต้องการเชื่อมต่ออุปกรณ์จำนวนมาก ➡️ รองรับอุปกรณ์สตรีมมิ่ง, กล้อง, DAC, และอุปกรณ์เสริมอื่น ๆ ➡️ ลดความจำเป็นในการใช้ USB hub ภายนอก https://www.techradar.com/pro/you-can-plug-25-usb-devices-into-this-asrock-atx-motherboard-yes-25-shame-10-of-them-are-usb-2-0-an-abomination-in-2025
    0 Comments 0 Shares 26 Views 0 Reviews
  • Ryzen AI Max+ 395: ชิป AI ที่อาจเป็นหมัดเด็ดของ AMD พลิกเกมตลาดมินิพีซีและแล็ปท็อปทั่วโลก

    ในปี 2025 AMD ได้เปิดตัวชิป Ryzen AI Max+ 395 ซึ่งเป็นหัวใจของแพลตฟอร์ม Strix Halo ที่รวม CPU, GPU และ NPU ไว้ในตัวเดียวกัน โดยมีจุดเด่นคือการรองรับงาน AI ที่ขอบเครือข่าย (Edge AI) ด้วยพลังประมวลผลสูงถึง 50 TOPS และหน่วยความจำ UMA ที่สามารถใช้ RAM สูงสุดถึง 96GB เป็นหน่วยความจำกราฟิกโดยตรง

    ชิปนี้ถูกนำไปใช้ในมินิพีซีและแล็ปท็อปกว่า 30 รุ่นภายในเวลาเพียง 8 เดือน โดยมีแบรนด์อย่าง Asus, HP, Beelink และ GMKtec ร่วมวงเปิดตัวผลิตภัณฑ์ที่หลากหลาย ตั้งแต่ดีไซน์ทรงลูกบาศก์สุดล้ำ ไปจนถึงเครื่องแบบ tower ขนาดเล็กที่เน้นประสิทธิภาพระดับมืออาชีพ

    หนึ่งในรุ่นที่โดดเด่นคือ GMKtec EVO-X2 ซึ่งมาพร้อม RAM 64–128GB และ Radeon RX 8060S ที่ให้ประสิทธิภาพสูงในการเล่นเกม การเรนเดอร์ 3D และงาน AI แบบ local โดยมีการทดสอบแล้วว่าให้คะแนน multi-core สูงถึง 15,526.6 คะแนนใน CPU-Z

    แม้ AMD จะเคลมว่ากราฟิกในตัวสามารถเทียบชั้นกับ RTX รุ่นพกพา แต่ยังไม่มีการทดสอบในวงกว้างเพื่อยืนยันข้อกล่าวอ้างนี้ และอุปกรณ์ที่ใช้ชิปนี้ยังมีจำกัดในตลาดจริง

    AMD เปิดตัว Ryzen AI Max+ 395 ในแพลตฟอร์ม Strix Halo
    รวม CPU 16 คอร์ Zen 5, GPU RDNA 3.5 40 หน่วย และ NPU XDNA 2
    รองรับหน่วยความจำ UMA สูงสุด 96GB สำหรับงานกราฟิก
    พลังประมวลผล AI สูงถึง 50 TOPS

    มีการเปิดตัวมินิพีซีและแล็ปท็อปกว่า 30 รุ่น
    แบรนด์ที่เข้าร่วม ได้แก่ Asus, HP, Beelink, GMKtec
    ดีไซน์หลากหลาย ตั้งแต่ทรงลูกบาศก์ไปจนถึง tower ขนาดเล็ก
    รุ่นเด่น GMKtec EVO-X2 มาพร้อม Radeon RX 8060S และ RAM สูงสุด 128GB

    ประสิทธิภาพในการใช้งานจริงเริ่มมีการทดสอบ
    CPU-Z ให้คะแนน multi-core สูงถึง 15,526.6
    รองรับงาน AI, เกม และการเรนเดอร์ 3D ได้ดี
    ระบบระบายความร้อนมีประสิทธิภาพและเสียงเงียบ

    ราคาถูกกว่าระบบ AI server แบบเดิม
    มินิพีซี Strix Halo มีราคาประมาณ $1,800–$2,800
    ใช้พลังงานต่ำกว่า 300W และวางบนโต๊ะได้สะดวก

    คำเตือนเกี่ยวกับข้อจำกัดของชิป Ryzen AI Max+ 395
    อุปกรณ์ที่ใช้ชิปนี้ยังมีจำกัดในตลาดจริง
    การเคลมว่า iGPU เทียบชั้น RTX ยังไม่มีการพิสูจน์ในวงกว้าง
    รุ่น Engineering Sample ยังพบปัญหา BIOS และการจัดการพลังงาน
    การบำรุงรักษาอุปกรณ์บางรุ่นยังทำได้ยากเนื่องจากดีไซน์ซับซ้อน

    https://www.techradar.com/pro/ryzen-ai-max-395-cpu-could-be-amds-sleeper-hit-against-nvidias-ai-dominance-as-nearly-30-strix-halo-mini-ai-workstation-models-hit-the-market-including-some-rather-funky-ones
    📰 Ryzen AI Max+ 395: ชิป AI ที่อาจเป็นหมัดเด็ดของ AMD พลิกเกมตลาดมินิพีซีและแล็ปท็อปทั่วโลก ในปี 2025 AMD ได้เปิดตัวชิป Ryzen AI Max+ 395 ซึ่งเป็นหัวใจของแพลตฟอร์ม Strix Halo ที่รวม CPU, GPU และ NPU ไว้ในตัวเดียวกัน โดยมีจุดเด่นคือการรองรับงาน AI ที่ขอบเครือข่าย (Edge AI) ด้วยพลังประมวลผลสูงถึง 50 TOPS และหน่วยความจำ UMA ที่สามารถใช้ RAM สูงสุดถึง 96GB เป็นหน่วยความจำกราฟิกโดยตรง ชิปนี้ถูกนำไปใช้ในมินิพีซีและแล็ปท็อปกว่า 30 รุ่นภายในเวลาเพียง 8 เดือน โดยมีแบรนด์อย่าง Asus, HP, Beelink และ GMKtec ร่วมวงเปิดตัวผลิตภัณฑ์ที่หลากหลาย ตั้งแต่ดีไซน์ทรงลูกบาศก์สุดล้ำ ไปจนถึงเครื่องแบบ tower ขนาดเล็กที่เน้นประสิทธิภาพระดับมืออาชีพ หนึ่งในรุ่นที่โดดเด่นคือ GMKtec EVO-X2 ซึ่งมาพร้อม RAM 64–128GB และ Radeon RX 8060S ที่ให้ประสิทธิภาพสูงในการเล่นเกม การเรนเดอร์ 3D และงาน AI แบบ local โดยมีการทดสอบแล้วว่าให้คะแนน multi-core สูงถึง 15,526.6 คะแนนใน CPU-Z แม้ AMD จะเคลมว่ากราฟิกในตัวสามารถเทียบชั้นกับ RTX รุ่นพกพา แต่ยังไม่มีการทดสอบในวงกว้างเพื่อยืนยันข้อกล่าวอ้างนี้ และอุปกรณ์ที่ใช้ชิปนี้ยังมีจำกัดในตลาดจริง ✅ AMD เปิดตัว Ryzen AI Max+ 395 ในแพลตฟอร์ม Strix Halo ➡️ รวม CPU 16 คอร์ Zen 5, GPU RDNA 3.5 40 หน่วย และ NPU XDNA 2 ➡️ รองรับหน่วยความจำ UMA สูงสุด 96GB สำหรับงานกราฟิก ➡️ พลังประมวลผล AI สูงถึง 50 TOPS ✅ มีการเปิดตัวมินิพีซีและแล็ปท็อปกว่า 30 รุ่น ➡️ แบรนด์ที่เข้าร่วม ได้แก่ Asus, HP, Beelink, GMKtec ➡️ ดีไซน์หลากหลาย ตั้งแต่ทรงลูกบาศก์ไปจนถึง tower ขนาดเล็ก ➡️ รุ่นเด่น GMKtec EVO-X2 มาพร้อม Radeon RX 8060S และ RAM สูงสุด 128GB ✅ ประสิทธิภาพในการใช้งานจริงเริ่มมีการทดสอบ ➡️ CPU-Z ให้คะแนน multi-core สูงถึง 15,526.6 ➡️ รองรับงาน AI, เกม และการเรนเดอร์ 3D ได้ดี ➡️ ระบบระบายความร้อนมีประสิทธิภาพและเสียงเงียบ ✅ ราคาถูกกว่าระบบ AI server แบบเดิม ➡️ มินิพีซี Strix Halo มีราคาประมาณ $1,800–$2,800 ➡️ ใช้พลังงานต่ำกว่า 300W และวางบนโต๊ะได้สะดวก ‼️ คำเตือนเกี่ยวกับข้อจำกัดของชิป Ryzen AI Max+ 395 ⛔ อุปกรณ์ที่ใช้ชิปนี้ยังมีจำกัดในตลาดจริง ⛔ การเคลมว่า iGPU เทียบชั้น RTX ยังไม่มีการพิสูจน์ในวงกว้าง ⛔ รุ่น Engineering Sample ยังพบปัญหา BIOS และการจัดการพลังงาน ⛔ การบำรุงรักษาอุปกรณ์บางรุ่นยังทำได้ยากเนื่องจากดีไซน์ซับซ้อน https://www.techradar.com/pro/ryzen-ai-max-395-cpu-could-be-amds-sleeper-hit-against-nvidias-ai-dominance-as-nearly-30-strix-halo-mini-ai-workstation-models-hit-the-market-including-some-rather-funky-ones
    0 Comments 0 Shares 31 Views 0 Reviews
  • “AMD เตรียมปล่อย ROCm 7.0 — ซอฟต์แวร์ AI ที่หวังโค่น CUDA ด้วยประสิทธิภาพทะลุ Blackwell”

    AMD กำลังเตรียมเปิดตัว ROCm 7.0 ซึ่งเป็นเวอร์ชันใหม่ของชุดซอฟต์แวร์สำหรับการประมวลผล AI และ HPC โดยมีเป้าหมายชัดเจน: สร้างทางเลือกที่แท้จริงให้กับนักพัฒนาแทนการพึ่งพา CUDA ของ NVIDIA ที่ครองตลาดมายาวนาน ROCm 7.0 ถูกเพิ่มเข้าใน GitHub แล้ว และคาดว่าจะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า

    ในงาน Advancing AI ล่าสุด AMD ได้เผยว่า ROCm 7.0 จะมาพร้อมการปรับปรุงครั้งใหญ่ โดยเฉพาะด้าน inferencing และ training ซึ่งสามารถเพิ่มประสิทธิภาพได้ถึง 3.5 เท่าเมื่อเทียบกับ ROCm 6 และที่น่าตื่นเต้นที่สุดคือ Instinct MI355X สามารถทำ FP8 throughput ได้สูงกว่า Blackwell B200 ของ NVIDIA ถึง 30% ในโมเดล DeepSeek R1

    ROCm 7.0 ยังรองรับฟีเจอร์ใหม่ เช่น HIP 7.0, การจัดการคลัสเตอร์, และเครื่องมือสำหรับองค์กร พร้อม Docker image ที่ปรับแต่งมาแล้วสำหรับ MI355, MI350, MI325 และ MI300 โดยสามารถใช้งานร่วมกับโมเดลขนาดใหญ่ที่ถูก quantize ด้วย AMD Quark เช่น Llama 3.3 70B และ gpt-oss-120B

    เมื่อเปรียบเทียบกับ CUDA ล่าสุด พบว่า ROCm บน MI325X มีข้อได้เปรียบในหลายด้าน เช่น VRAM ขนาด 256GB ต่อ GPU ที่ช่วยลดความซับซ้อนของ pipeline และรองรับ batch ใหญ่ ๆ ได้ดี รวมถึงการทำงานร่วมกับ Hugging Face และ DeepSpeed ได้แบบ native โดยไม่ต้อง patch เพิ่ม

    แม้ ROCm จะยังตามหลัง CUDA ในบางด้าน เช่น ecosystem ที่ยังไม่สมบูรณ์ และ library เฉพาะบางตัวที่ต้องปรับแต่งเอง แต่ก็ถือว่าเป็นทางเลือกที่จริงจังสำหรับองค์กรที่ต้องการลดต้นทุนและหลีกเลี่ยงการผูกขาดด้านฮาร์ดแวร์

    ข้อมูลสำคัญจากข่าว
    AMD เตรียมเปิดตัว ROCm 7.0 เพื่อเป็นทางเลือกแทน CUDA
    เพิ่มประสิทธิภาพ inferencing และ training สูงถึง 3.5 เท่าเมื่อเทียบกับ ROCm 6
    MI355X ทำ FP8 throughput ได้สูงกว่า Blackwell B200 ถึง 30%
    มี Docker image สำหรับ MI355, MI350, MI325 และ MI300 พร้อมใช้งาน

    ฟีเจอร์ใหม่และการรองรับ
    รองรับ HIP 7.0, การจัดการคลัสเตอร์ และเครื่องมือสำหรับองค์กร
    ใช้งานร่วมกับโมเดล MXFP4 และ FP8 ที่ถูก quantize ด้วย AMD Quark
    รองรับ DeepSeek R1, Llama 3.3 70B, gpt-oss-120B และอื่น ๆ
    ทำงานร่วมกับ Hugging Face และ DeepSpeed ได้แบบ native

    ข้อมูลเสริมจากภายนอก
    MI325X มี VRAM 256GB ต่อ GPU — เหนือกว่า H100 ที่ต้องแบ่งโมเดล
    ROCm ไม่ล็อกผู้ใช้กับฮาร์ดแวร์เฉพาะเหมือน CUDA
    TensorWave และ Scimus เริ่มให้บริการคลัสเตอร์ ROCm สำหรับองค์กร
    ROCm เหมาะกับงาน inference ขนาดใหญ่และ training ที่เน้นต้นทุนต่อ TFLOP

    https://wccftech.com/amd-initiates-work-on-rocm-7-compute-stack/
    🚀 “AMD เตรียมปล่อย ROCm 7.0 — ซอฟต์แวร์ AI ที่หวังโค่น CUDA ด้วยประสิทธิภาพทะลุ Blackwell” AMD กำลังเตรียมเปิดตัว ROCm 7.0 ซึ่งเป็นเวอร์ชันใหม่ของชุดซอฟต์แวร์สำหรับการประมวลผล AI และ HPC โดยมีเป้าหมายชัดเจน: สร้างทางเลือกที่แท้จริงให้กับนักพัฒนาแทนการพึ่งพา CUDA ของ NVIDIA ที่ครองตลาดมายาวนาน ROCm 7.0 ถูกเพิ่มเข้าใน GitHub แล้ว และคาดว่าจะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า ในงาน Advancing AI ล่าสุด AMD ได้เผยว่า ROCm 7.0 จะมาพร้อมการปรับปรุงครั้งใหญ่ โดยเฉพาะด้าน inferencing และ training ซึ่งสามารถเพิ่มประสิทธิภาพได้ถึง 3.5 เท่าเมื่อเทียบกับ ROCm 6 และที่น่าตื่นเต้นที่สุดคือ Instinct MI355X สามารถทำ FP8 throughput ได้สูงกว่า Blackwell B200 ของ NVIDIA ถึง 30% ในโมเดล DeepSeek R1 ROCm 7.0 ยังรองรับฟีเจอร์ใหม่ เช่น HIP 7.0, การจัดการคลัสเตอร์, และเครื่องมือสำหรับองค์กร พร้อม Docker image ที่ปรับแต่งมาแล้วสำหรับ MI355, MI350, MI325 และ MI300 โดยสามารถใช้งานร่วมกับโมเดลขนาดใหญ่ที่ถูก quantize ด้วย AMD Quark เช่น Llama 3.3 70B และ gpt-oss-120B เมื่อเปรียบเทียบกับ CUDA ล่าสุด พบว่า ROCm บน MI325X มีข้อได้เปรียบในหลายด้าน เช่น VRAM ขนาด 256GB ต่อ GPU ที่ช่วยลดความซับซ้อนของ pipeline และรองรับ batch ใหญ่ ๆ ได้ดี รวมถึงการทำงานร่วมกับ Hugging Face และ DeepSpeed ได้แบบ native โดยไม่ต้อง patch เพิ่ม แม้ ROCm จะยังตามหลัง CUDA ในบางด้าน เช่น ecosystem ที่ยังไม่สมบูรณ์ และ library เฉพาะบางตัวที่ต้องปรับแต่งเอง แต่ก็ถือว่าเป็นทางเลือกที่จริงจังสำหรับองค์กรที่ต้องการลดต้นทุนและหลีกเลี่ยงการผูกขาดด้านฮาร์ดแวร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เตรียมเปิดตัว ROCm 7.0 เพื่อเป็นทางเลือกแทน CUDA ➡️ เพิ่มประสิทธิภาพ inferencing และ training สูงถึง 3.5 เท่าเมื่อเทียบกับ ROCm 6 ➡️ MI355X ทำ FP8 throughput ได้สูงกว่า Blackwell B200 ถึง 30% ➡️ มี Docker image สำหรับ MI355, MI350, MI325 และ MI300 พร้อมใช้งาน ✅ ฟีเจอร์ใหม่และการรองรับ ➡️ รองรับ HIP 7.0, การจัดการคลัสเตอร์ และเครื่องมือสำหรับองค์กร ➡️ ใช้งานร่วมกับโมเดล MXFP4 และ FP8 ที่ถูก quantize ด้วย AMD Quark ➡️ รองรับ DeepSeek R1, Llama 3.3 70B, gpt-oss-120B และอื่น ๆ ➡️ ทำงานร่วมกับ Hugging Face และ DeepSpeed ได้แบบ native ✅ ข้อมูลเสริมจากภายนอก ➡️ MI325X มี VRAM 256GB ต่อ GPU — เหนือกว่า H100 ที่ต้องแบ่งโมเดล ➡️ ROCm ไม่ล็อกผู้ใช้กับฮาร์ดแวร์เฉพาะเหมือน CUDA ➡️ TensorWave และ Scimus เริ่มให้บริการคลัสเตอร์ ROCm สำหรับองค์กร ➡️ ROCm เหมาะกับงาน inference ขนาดใหญ่และ training ที่เน้นต้นทุนต่อ TFLOP https://wccftech.com/amd-initiates-work-on-rocm-7-compute-stack/
    WCCFTECH.COM
    AMD Preps To Release the ROCm 7.0 Compute Stack, Aiming to Position It as a Viable Alternative to NVIDIA's CUDA Ecosystem
    AMD has started working on releasing the ROCm 7 software stack, which was being hyped up as a way to break NVIDIA's CUDA 'lock-in' ecosystem.
    0 Comments 0 Shares 52 Views 0 Reviews
  • “MediaTek ปล่อยชิปเรือธงบนเทคโนโลยี 2nm ของ TSMC — ก้าวแรกสู่ยุคใหม่ของ AI, มือถือ และยานยนต์”

    MediaTek ประกาศความสำเร็จในการ tape-out ชิป SoC รุ่นเรือธงตัวใหม่ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรของ TSMC ซึ่งถือเป็นหนึ่งในบริษัทแรกที่เข้าสู่ยุค 2nm อย่างเป็นทางการ โดยชิปนี้จะเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 และพร้อมวางจำหน่ายในช่วงเวลาเดียวกัน

    เทคโนโลยี 2nm ของ TSMC ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ซึ่งช่วยเพิ่มความหนาแน่นของลอจิกได้ถึง 1.2 เท่า เพิ่มประสิทธิภาพสูงสุด 18% ที่พลังงานเท่าเดิม และลดการใช้พลังงานลงถึง 36% ที่ความเร็วเท่าเดิม เมื่อเทียบกับกระบวนการ N3E รุ่นก่อนหน้า

    MediaTek ยังไม่เปิดเผยว่าชิปนี้จะใช้ในผลิตภัณฑ์ใดโดยตรง แต่มีการคาดการณ์ว่าอาจเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC หรือชิปสำหรับดาต้าเซ็นเตอร์ ซึ่งก่อนหน้านี้ทั้งสองบริษัทเคยร่วมมือกันในโปรเจกต์ GB10 “Grace Blackwell” Superchip ที่ใช้กระบวนการ 3nm

    ชิปใหม่นี้จะถูกนำไปใช้ในหลากหลายกลุ่มผลิตภัณฑ์ เช่น มือถือระดับเรือธง, คอมพิวเตอร์ประสิทธิภาพสูง, ยานยนต์อัจฉริยะ และเซิร์ฟเวอร์ edge computing โดย MediaTek ยืนยันว่าการร่วมมือกับ TSMC จะช่วยให้สามารถส่งมอบโซลูชันที่มีประสิทธิภาพสูงและประหยัดพลังงานได้ทั่วโลก

    ข้อมูลสำคัญจากข่าว
    MediaTek ประกาศ tape-out ชิป SoC รุ่นเรือธงที่ใช้เทคโนโลยี 2nm ของ TSMC
    เข้าสู่การผลิตจำนวนมากปลายปี 2026 และวางจำหน่ายช่วงเวลาเดียวกัน
    ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก
    เพิ่ม logic density 1.2 เท่า, เพิ่ม performance 18%, ลดพลังงาน 36% เทียบกับ N3E

    กลุ่มเป้าหมายและการใช้งาน
    ชิปนี้อาจใช้ในมือถือ, คอมพิวเตอร์, ยานยนต์ และ edge computing
    มีความเป็นไปได้ว่าจะเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC
    MediaTek และ TSMC มีความร่วมมือระยะยาวในด้านเทคโนโลยีขั้นสูง
    ชิปนี้จะเป็นตัวแทนของการเปลี่ยนผ่านสู่ยุคใหม่ของการประมวลผลแบบประหยัดพลังงาน

    ข้อมูลเสริมจากภายนอก
    TSMC N2P คือรุ่นพัฒนาต่อจาก N2 ที่เน้นประสิทธิภาพต่อวัตต์
    Apple และ AMD ก็เตรียมใช้เทคโนโลยี 2nm ในชิปของตนในปี 2026 เช่นกัน
    การใช้ nanosheet transistor ช่วยให้สามารถใส่ accelerator และ IP block ได้มากขึ้นในพื้นที่เท่าเดิม
    เหมาะกับงาน on-device AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ

    https://wccftech.com/mediatek-tapes-out-flagship-soc-tsmc-2nm-process-production-availability-end-2026/
    🧠 “MediaTek ปล่อยชิปเรือธงบนเทคโนโลยี 2nm ของ TSMC — ก้าวแรกสู่ยุคใหม่ของ AI, มือถือ และยานยนต์” MediaTek ประกาศความสำเร็จในการ tape-out ชิป SoC รุ่นเรือธงตัวใหม่ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรของ TSMC ซึ่งถือเป็นหนึ่งในบริษัทแรกที่เข้าสู่ยุค 2nm อย่างเป็นทางการ โดยชิปนี้จะเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 และพร้อมวางจำหน่ายในช่วงเวลาเดียวกัน เทคโนโลยี 2nm ของ TSMC ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ซึ่งช่วยเพิ่มความหนาแน่นของลอจิกได้ถึง 1.2 เท่า เพิ่มประสิทธิภาพสูงสุด 18% ที่พลังงานเท่าเดิม และลดการใช้พลังงานลงถึง 36% ที่ความเร็วเท่าเดิม เมื่อเทียบกับกระบวนการ N3E รุ่นก่อนหน้า MediaTek ยังไม่เปิดเผยว่าชิปนี้จะใช้ในผลิตภัณฑ์ใดโดยตรง แต่มีการคาดการณ์ว่าอาจเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC หรือชิปสำหรับดาต้าเซ็นเตอร์ ซึ่งก่อนหน้านี้ทั้งสองบริษัทเคยร่วมมือกันในโปรเจกต์ GB10 “Grace Blackwell” Superchip ที่ใช้กระบวนการ 3nm ชิปใหม่นี้จะถูกนำไปใช้ในหลากหลายกลุ่มผลิตภัณฑ์ เช่น มือถือระดับเรือธง, คอมพิวเตอร์ประสิทธิภาพสูง, ยานยนต์อัจฉริยะ และเซิร์ฟเวอร์ edge computing โดย MediaTek ยืนยันว่าการร่วมมือกับ TSMC จะช่วยให้สามารถส่งมอบโซลูชันที่มีประสิทธิภาพสูงและประหยัดพลังงานได้ทั่วโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ MediaTek ประกาศ tape-out ชิป SoC รุ่นเรือธงที่ใช้เทคโนโลยี 2nm ของ TSMC ➡️ เข้าสู่การผลิตจำนวนมากปลายปี 2026 และวางจำหน่ายช่วงเวลาเดียวกัน ➡️ ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ➡️ เพิ่ม logic density 1.2 เท่า, เพิ่ม performance 18%, ลดพลังงาน 36% เทียบกับ N3E ✅ กลุ่มเป้าหมายและการใช้งาน ➡️ ชิปนี้อาจใช้ในมือถือ, คอมพิวเตอร์, ยานยนต์ และ edge computing ➡️ มีความเป็นไปได้ว่าจะเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC ➡️ MediaTek และ TSMC มีความร่วมมือระยะยาวในด้านเทคโนโลยีขั้นสูง ➡️ ชิปนี้จะเป็นตัวแทนของการเปลี่ยนผ่านสู่ยุคใหม่ของการประมวลผลแบบประหยัดพลังงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC N2P คือรุ่นพัฒนาต่อจาก N2 ที่เน้นประสิทธิภาพต่อวัตต์ ➡️ Apple และ AMD ก็เตรียมใช้เทคโนโลยี 2nm ในชิปของตนในปี 2026 เช่นกัน ➡️ การใช้ nanosheet transistor ช่วยให้สามารถใส่ accelerator และ IP block ได้มากขึ้นในพื้นที่เท่าเดิม ➡️ เหมาะกับงาน on-device AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ https://wccftech.com/mediatek-tapes-out-flagship-soc-tsmc-2nm-process-production-availability-end-2026/
    WCCFTECH.COM
    MediaTek Tapes Out Flagship SoC Using TSMC's 2nm Process, Mass Production & Availability By End of 2026
    MediaTek has announced the tape-out of its flagship SoC, fabricated on TSMC's 2nm process node, which will be available by the end of 2026.
    0 Comments 0 Shares 62 Views 0 Reviews
  • “AMD EPYC Embedded 4005: ซีพียูขอบระบบที่ไม่ธรรมดา — Zen 5 บน AM5 เพื่อโลกที่ต้องการความเร็วและความเสถียร”

    AMD เปิดตัวซีพียูตระกูล EPYC Embedded 4005 อย่างเป็นทางการในเดือนกันยายน 2025 โดยมุ่งเป้าไปที่ตลาด edge computing, ระบบรักษาความปลอดภัยเครือข่าย และเซิร์ฟเวอร์อุตสาหกรรมระดับเริ่มต้น จุดเด่นของซีรีส์นี้คือการนำสถาปัตยกรรม Zen 5 มาใช้บนแพลตฟอร์ม AM5 ซึ่งเป็นซ็อกเก็ตเดียวกับ Ryzen รุ่นทั่วไป แต่ปรับแต่งให้เหมาะกับงานฝังตัวที่ต้องการความเสถียรและอายุการใช้งานยาวนาน

    EPYC Embedded 4005 ใช้เทคโนโลยีการผลิตแบบ chiplet ขนาด 4 นาโนเมตร รองรับสูงสุด 16 คอร์ 32 เธรด พร้อม L3 cache สูงสุด 128MB และ TDP ที่ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อให้เหมาะกับงานที่หลากหลาย ตั้งแต่ไฟร์วอลล์รุ่นใหม่ไปจนถึงระบบควบคุมแบบเรียลไทม์ในโรงงาน

    ซีพียูรุ่นนี้รองรับ DDR5-5600 แบบ ECC, PCIe Gen 5 จำนวน 28 เลน และชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต ซึ่งช่วยเพิ่มประสิทธิภาพในการประมวลผล AI inference และงานที่ต้องการ vector computing เช่น การวิเคราะห์ภาพ, การประมวลผล JSON หรือฐานข้อมูล PostgreSQL

    จุดแข็งอีกด้านคือการรับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS (Reliability, Availability, Serviceability) เช่น ECC บน DRAM และ PCIe, parity บนชิป และการตรวจจับข้อผิดพลาดแบบ built-in ซึ่งเหมาะกับระบบที่ต้องการ uptime สูงและการบำรุงรักษาต่ำ

    AMD ยังออกแบบให้ EPYC Embedded 4005 ใช้ซ็อกเก็ต AM5 ร่วมกับซีพียู Ryzen ทำให้สามารถใช้เมนบอร์ดเดิมได้ ลดต้นทุนการออกแบบ และเพิ่มความยืดหยุ่นในการอัปเกรดระบบในอนาคต โดยเฉพาะในกลุ่ม SMB และผู้ให้บริการ hosting ที่ต้องการระบบที่คุ้มค่าแต่มีความสามารถระดับองค์กร

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว EPYC Embedded 4005 สำหรับงาน edge และระบบฝังตัว
    ใช้ Zen 5 บนแพลตฟอร์ม AM5 พร้อมเทคโนโลยี chiplet ขนาด 4 นาโนเมตร
    รองรับสูงสุด 16 คอร์ 32 เธรด, L3 cache สูงสุด 128MB
    TDP ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อรองรับงานหลากหลาย

    จุดเด่นด้านเทคโนโลยี
    รองรับ DDR5-5600 ECC และ PCIe Gen 5 จำนวน 28 เลน
    มีชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต สำหรับงาน AI และ HPC
    รับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS ครบถ้วน
    ใช้ซ็อกเก็ต AM5 ร่วมกับ Ryzen ทำให้ลดต้นทุนและเพิ่มความยืดหยุ่น

    ข้อมูลเสริมจากภายนอก
    EPYC 4005 เป็นรุ่นต่อยอดจาก EPYC 4004 โดยเพิ่มความเร็วแรมและชุดคำสั่ง
    มีรุ่น 16 คอร์ TDP 65W สำหรับงานที่ต้องการประสิทธิภาพแต่ประหยัดพลังงาน
    เหมาะกับงานไฟร์วอลล์, NAS, เซิร์ฟเวอร์ SMB และระบบควบคุมอุตสาหกรรม
    แข่งกับ Intel Xeon E และ Xeon 6300P ซึ่งยังจำกัดที่ 8 คอร์และ DDR5-4800

    คำเตือนและข้อจำกัด
    แม้จะใช้ AM5 แต่ EPYC Embedded 4005 ต้องใช้ BIOS ที่รองรับ ECC และฟีเจอร์ RAS
    ชุดคำสั่ง AVX-512 อาจไม่ถูกใช้งานเต็มประสิทธิภาพในซอฟต์แวร์ทั่วไป
    การใช้งานในระบบฝังตัวต้องพิจารณาเรื่องความร้อนและการระบายอากาศอย่างรอบคอบ
    แม้จะรับประกันการผลิต 7 ปี แต่การสนับสนุนด้านซอฟต์แวร์อาจขึ้นอยู่กับผู้ผลิตเมนบอร์ด
    ราคาของรุ่นสูงสุดอาจใกล้เคียงกับ Xeon ระดับกลาง ทำให้ต้องเปรียบเทียบอย่างละเอียดก่อนเลือกใช้งาน

    https://www.techpowerup.com/341063/amd-introduces-epyc-embedded-4005-processors-for-low-latency-applications-at-the-edge
    🧩 “AMD EPYC Embedded 4005: ซีพียูขอบระบบที่ไม่ธรรมดา — Zen 5 บน AM5 เพื่อโลกที่ต้องการความเร็วและความเสถียร” AMD เปิดตัวซีพียูตระกูล EPYC Embedded 4005 อย่างเป็นทางการในเดือนกันยายน 2025 โดยมุ่งเป้าไปที่ตลาด edge computing, ระบบรักษาความปลอดภัยเครือข่าย และเซิร์ฟเวอร์อุตสาหกรรมระดับเริ่มต้น จุดเด่นของซีรีส์นี้คือการนำสถาปัตยกรรม Zen 5 มาใช้บนแพลตฟอร์ม AM5 ซึ่งเป็นซ็อกเก็ตเดียวกับ Ryzen รุ่นทั่วไป แต่ปรับแต่งให้เหมาะกับงานฝังตัวที่ต้องการความเสถียรและอายุการใช้งานยาวนาน EPYC Embedded 4005 ใช้เทคโนโลยีการผลิตแบบ chiplet ขนาด 4 นาโนเมตร รองรับสูงสุด 16 คอร์ 32 เธรด พร้อม L3 cache สูงสุด 128MB และ TDP ที่ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อให้เหมาะกับงานที่หลากหลาย ตั้งแต่ไฟร์วอลล์รุ่นใหม่ไปจนถึงระบบควบคุมแบบเรียลไทม์ในโรงงาน ซีพียูรุ่นนี้รองรับ DDR5-5600 แบบ ECC, PCIe Gen 5 จำนวน 28 เลน และชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต ซึ่งช่วยเพิ่มประสิทธิภาพในการประมวลผล AI inference และงานที่ต้องการ vector computing เช่น การวิเคราะห์ภาพ, การประมวลผล JSON หรือฐานข้อมูล PostgreSQL จุดแข็งอีกด้านคือการรับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS (Reliability, Availability, Serviceability) เช่น ECC บน DRAM และ PCIe, parity บนชิป และการตรวจจับข้อผิดพลาดแบบ built-in ซึ่งเหมาะกับระบบที่ต้องการ uptime สูงและการบำรุงรักษาต่ำ AMD ยังออกแบบให้ EPYC Embedded 4005 ใช้ซ็อกเก็ต AM5 ร่วมกับซีพียู Ryzen ทำให้สามารถใช้เมนบอร์ดเดิมได้ ลดต้นทุนการออกแบบ และเพิ่มความยืดหยุ่นในการอัปเกรดระบบในอนาคต โดยเฉพาะในกลุ่ม SMB และผู้ให้บริการ hosting ที่ต้องการระบบที่คุ้มค่าแต่มีความสามารถระดับองค์กร ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว EPYC Embedded 4005 สำหรับงาน edge และระบบฝังตัว ➡️ ใช้ Zen 5 บนแพลตฟอร์ม AM5 พร้อมเทคโนโลยี chiplet ขนาด 4 นาโนเมตร ➡️ รองรับสูงสุด 16 คอร์ 32 เธรด, L3 cache สูงสุด 128MB ➡️ TDP ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อรองรับงานหลากหลาย ✅ จุดเด่นด้านเทคโนโลยี ➡️ รองรับ DDR5-5600 ECC และ PCIe Gen 5 จำนวน 28 เลน ➡️ มีชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต สำหรับงาน AI และ HPC ➡️ รับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS ครบถ้วน ➡️ ใช้ซ็อกเก็ต AM5 ร่วมกับ Ryzen ทำให้ลดต้นทุนและเพิ่มความยืดหยุ่น ✅ ข้อมูลเสริมจากภายนอก ➡️ EPYC 4005 เป็นรุ่นต่อยอดจาก EPYC 4004 โดยเพิ่มความเร็วแรมและชุดคำสั่ง ➡️ มีรุ่น 16 คอร์ TDP 65W สำหรับงานที่ต้องการประสิทธิภาพแต่ประหยัดพลังงาน ➡️ เหมาะกับงานไฟร์วอลล์, NAS, เซิร์ฟเวอร์ SMB และระบบควบคุมอุตสาหกรรม ➡️ แข่งกับ Intel Xeon E และ Xeon 6300P ซึ่งยังจำกัดที่ 8 คอร์และ DDR5-4800 ‼️ คำเตือนและข้อจำกัด ⛔ แม้จะใช้ AM5 แต่ EPYC Embedded 4005 ต้องใช้ BIOS ที่รองรับ ECC และฟีเจอร์ RAS ⛔ ชุดคำสั่ง AVX-512 อาจไม่ถูกใช้งานเต็มประสิทธิภาพในซอฟต์แวร์ทั่วไป ⛔ การใช้งานในระบบฝังตัวต้องพิจารณาเรื่องความร้อนและการระบายอากาศอย่างรอบคอบ ⛔ แม้จะรับประกันการผลิต 7 ปี แต่การสนับสนุนด้านซอฟต์แวร์อาจขึ้นอยู่กับผู้ผลิตเมนบอร์ด ⛔ ราคาของรุ่นสูงสุดอาจใกล้เคียงกับ Xeon ระดับกลาง ทำให้ต้องเปรียบเทียบอย่างละเอียดก่อนเลือกใช้งาน https://www.techpowerup.com/341063/amd-introduces-epyc-embedded-4005-processors-for-low-latency-applications-at-the-edge
    WWW.TECHPOWERUP.COM
    AMD Introduces EPYC Embedded 4005 Processors for Low-Latency Applications at the Edge
    AMD today announced the EPYC Embedded 4005 Series processors, purpose-built to address rising demand for real-time compute performance, optimized system costs and extended deployment lifecycles in network security appliances and entry-level industrial edge servers. Built on proven AMD server technol...
    0 Comments 0 Shares 69 Views 0 Reviews
  • “Phoenix Rowhammer โจมตีทะลุ ECC — ช่องโหว่ใหม่ใน DDR5 จาก SK Hynix ที่ใช้เวลาแค่ 109 วินาที!”

    ทีมนักวิจัยจาก ETH Zurich และ Google ได้เปิดเผยช่องโหว่ใหม่ในหน่วยความจำ DDR5 ของ SK Hynix ที่สามารถถูกโจมตีด้วยเทคนิค Rowhammer รุ่นใหม่ชื่อว่า “Phoenix” (CVE-2025-6202) ซึ่งสามารถทะลุการป้องกันแบบ ECC ที่ฝังอยู่ในชิปได้ภายในเวลาเพียง 109 วินาที ถือเป็นการโจมตีระดับ privilege escalation ที่เกิดขึ้นได้จริงบนเครื่องเดสก์ท็อปทั่วไป

    Phoenix ใช้เทคนิค reverse engineering เพื่อเจาะระบบป้องกัน TRR (Target Row Refresh) ที่มีอยู่ใน DRAM โดยพบว่าการรีเฟรชแถวหน่วยความจำมีช่วง sampling ที่ซ้ำทุก 128 tREFI และในช่วงต้นของแต่ละรอบมีการสุ่มตรวจสอบน้อย ทำให้สามารถออกแบบรูปแบบการโจมตีแบบใหม่ที่เรียกว่า 128-tREFI และ 2608-tREFI ซึ่งมีประสิทธิภาพสูงกว่ารุ่นก่อนถึง 2.6 เท่า

    นักวิจัยยังพัฒนาเทคนิค “self-correcting refresh synchronization” ที่ช่วยให้การโจมตีสามารถปรับตัวได้เมื่อเกิดการรีเฟรชผิดพลาด ทำให้สามารถรักษาความแม่นยำในการโจมตีได้แม้จะผ่านหลายพันรอบการรีเฟรช

    จากการทดสอบบนโมดูล DDR5 ของ SK Hynix จำนวน 15 รุ่นที่ผลิตระหว่างปี 2021–2024 พบว่าทุกตัวสามารถถูกโจมตีได้ โดยเกิดการเปลี่ยนแปลงบิตจำนวนมาก ซึ่งสามารถนำไปใช้สร้าง primitive สำหรับการอ่าน/เขียนข้อมูลโดยพลการ, ขโมยคีย์ RSA-2048 จาก VM ที่อยู่ใกล้กัน และยกระดับสิทธิ์โดยการแก้ไขไฟล์ sudo

    เพื่อเพิ่มโอกาสในการโจมตี นักวิจัยใช้เทคนิคการรัน pattern แบบเลื่อนตำแหน่งในแต่ละ bank พร้อมกัน ทำให้โอกาสโจมตีสำเร็จเพิ่มขึ้นจาก 1.56% เป็น 25% และเสนอวิธีแก้เบื้องต้นด้วยการเพิ่มอัตราการรีเฟรช DRAM 3 เท่า ซึ่งช่วยลดการโจมตีได้ แต่แลกกับประสิทธิภาพที่ลดลงถึง 8.4% บน SPEC CPU2017

    ข่าวดีคือทีมงานได้แจ้งช่องโหว่นี้อย่างเป็นทางการกับ SK Hynix, ผู้ผลิต CPU และผู้ให้บริการคลาวด์ ทำให้มีการออก BIOS patch สำหรับเครื่อง AMD บางรุ่นแล้ว และมีโค้ดทดสอบบน GitHub เพื่อให้ผู้ดูแลระบบสามารถตรวจสอบ DIMM ของตนเองได้

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ “Phoenix” (CVE-2025-6202) เป็น Rowhammer รุ่นใหม่ที่ทะลุ ECC ได้
    ใช้เวลาโจมตีเพียง 109 วินาทีบนเครื่องเดสก์ท็อปทั่วไป
    เทคนิคใหม่ใช้ pattern 128-tREFI และ 2608-tREFI พร้อมระบบ sync อัตโนมัติ
    ทดสอบบน DDR5 ของ SK Hynix 15 รุ่น พบว่าทุกตัวมี bit flip

    ผลกระทบและการโจมตี
    เกิดการเปลี่ยนบิตจำนวนมากในหน่วยความจำ
    สร้าง primitive สำหรับการอ่าน/เขียนข้อมูล, ขโมยคีย์ RSA, และยกระดับสิทธิ์
    เพิ่มโอกาสโจมตีจาก 1.56% เป็น 25% ด้วยการรัน pattern แบบเลื่อนตำแหน่ง
    BIOS patch สำหรับ AMD ถูกปล่อยออกมาแล้วในช่วง embargo

    ข้อมูลเสริมจากภายนอก
    Rowhammer เป็นช่องโหว่ที่พบครั้งแรกในปี 2014 และยังคงพัฒนาอย่างต่อเนื่อง
    ECC แบบ on-die ไม่สามารถป้องกัน Rowhammer ได้เท่ากับ ECC แบบ side-band
    การเพิ่ม refresh rate เป็นวิธีแก้ชั่วคราวที่มีต้นทุนด้านประสิทธิภาพ
    โค้ดทดสอบ Phoenix ถูกเผยแพร่บน GitHub เพื่อใช้ตรวจสอบ DIMM

    คำเตือนและข้อจำกัด
    ECC แบบฝังในชิป (on-die ECC) ไม่สามารถป้องกัน Phoenix ได้
    การเพิ่ม refresh rate 3 เท่าทำให้ประสิทธิภาพลดลงถึง 8.4%
    BIOS patch ยังไม่ครอบคลุมทุกระบบ และต้องอัปเดตด้วยตนเอง
    DIMM ที่ผลิตระหว่างปี 2021–2024 มีความเสี่ยงสูง
    โค้ดบน GitHub ใช้สำหรับการตรวจสอบเท่านั้น ไม่ใช่การป้องกันหรือโจมตี

    https://www.techpowerup.com/341059/sk-hynix-ddr5-dimms-vulnerable-to-phoenix-rowhammer-attack-ecc-dimms-exposed-too
    💥 “Phoenix Rowhammer โจมตีทะลุ ECC — ช่องโหว่ใหม่ใน DDR5 จาก SK Hynix ที่ใช้เวลาแค่ 109 วินาที!” ทีมนักวิจัยจาก ETH Zurich และ Google ได้เปิดเผยช่องโหว่ใหม่ในหน่วยความจำ DDR5 ของ SK Hynix ที่สามารถถูกโจมตีด้วยเทคนิค Rowhammer รุ่นใหม่ชื่อว่า “Phoenix” (CVE-2025-6202) ซึ่งสามารถทะลุการป้องกันแบบ ECC ที่ฝังอยู่ในชิปได้ภายในเวลาเพียง 109 วินาที ถือเป็นการโจมตีระดับ privilege escalation ที่เกิดขึ้นได้จริงบนเครื่องเดสก์ท็อปทั่วไป Phoenix ใช้เทคนิค reverse engineering เพื่อเจาะระบบป้องกัน TRR (Target Row Refresh) ที่มีอยู่ใน DRAM โดยพบว่าการรีเฟรชแถวหน่วยความจำมีช่วง sampling ที่ซ้ำทุก 128 tREFI และในช่วงต้นของแต่ละรอบมีการสุ่มตรวจสอบน้อย ทำให้สามารถออกแบบรูปแบบการโจมตีแบบใหม่ที่เรียกว่า 128-tREFI และ 2608-tREFI ซึ่งมีประสิทธิภาพสูงกว่ารุ่นก่อนถึง 2.6 เท่า นักวิจัยยังพัฒนาเทคนิค “self-correcting refresh synchronization” ที่ช่วยให้การโจมตีสามารถปรับตัวได้เมื่อเกิดการรีเฟรชผิดพลาด ทำให้สามารถรักษาความแม่นยำในการโจมตีได้แม้จะผ่านหลายพันรอบการรีเฟรช จากการทดสอบบนโมดูล DDR5 ของ SK Hynix จำนวน 15 รุ่นที่ผลิตระหว่างปี 2021–2024 พบว่าทุกตัวสามารถถูกโจมตีได้ โดยเกิดการเปลี่ยนแปลงบิตจำนวนมาก ซึ่งสามารถนำไปใช้สร้าง primitive สำหรับการอ่าน/เขียนข้อมูลโดยพลการ, ขโมยคีย์ RSA-2048 จาก VM ที่อยู่ใกล้กัน และยกระดับสิทธิ์โดยการแก้ไขไฟล์ sudo เพื่อเพิ่มโอกาสในการโจมตี นักวิจัยใช้เทคนิคการรัน pattern แบบเลื่อนตำแหน่งในแต่ละ bank พร้อมกัน ทำให้โอกาสโจมตีสำเร็จเพิ่มขึ้นจาก 1.56% เป็น 25% และเสนอวิธีแก้เบื้องต้นด้วยการเพิ่มอัตราการรีเฟรช DRAM 3 เท่า ซึ่งช่วยลดการโจมตีได้ แต่แลกกับประสิทธิภาพที่ลดลงถึง 8.4% บน SPEC CPU2017 ข่าวดีคือทีมงานได้แจ้งช่องโหว่นี้อย่างเป็นทางการกับ SK Hynix, ผู้ผลิต CPU และผู้ให้บริการคลาวด์ ทำให้มีการออก BIOS patch สำหรับเครื่อง AMD บางรุ่นแล้ว และมีโค้ดทดสอบบน GitHub เพื่อให้ผู้ดูแลระบบสามารถตรวจสอบ DIMM ของตนเองได้ ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ “Phoenix” (CVE-2025-6202) เป็น Rowhammer รุ่นใหม่ที่ทะลุ ECC ได้ ➡️ ใช้เวลาโจมตีเพียง 109 วินาทีบนเครื่องเดสก์ท็อปทั่วไป ➡️ เทคนิคใหม่ใช้ pattern 128-tREFI และ 2608-tREFI พร้อมระบบ sync อัตโนมัติ ➡️ ทดสอบบน DDR5 ของ SK Hynix 15 รุ่น พบว่าทุกตัวมี bit flip ✅ ผลกระทบและการโจมตี ➡️ เกิดการเปลี่ยนบิตจำนวนมากในหน่วยความจำ ➡️ สร้าง primitive สำหรับการอ่าน/เขียนข้อมูล, ขโมยคีย์ RSA, และยกระดับสิทธิ์ ➡️ เพิ่มโอกาสโจมตีจาก 1.56% เป็น 25% ด้วยการรัน pattern แบบเลื่อนตำแหน่ง ➡️ BIOS patch สำหรับ AMD ถูกปล่อยออกมาแล้วในช่วง embargo ✅ ข้อมูลเสริมจากภายนอก ➡️ Rowhammer เป็นช่องโหว่ที่พบครั้งแรกในปี 2014 และยังคงพัฒนาอย่างต่อเนื่อง ➡️ ECC แบบ on-die ไม่สามารถป้องกัน Rowhammer ได้เท่ากับ ECC แบบ side-band ➡️ การเพิ่ม refresh rate เป็นวิธีแก้ชั่วคราวที่มีต้นทุนด้านประสิทธิภาพ ➡️ โค้ดทดสอบ Phoenix ถูกเผยแพร่บน GitHub เพื่อใช้ตรวจสอบ DIMM ‼️ คำเตือนและข้อจำกัด ⛔ ECC แบบฝังในชิป (on-die ECC) ไม่สามารถป้องกัน Phoenix ได้ ⛔ การเพิ่ม refresh rate 3 เท่าทำให้ประสิทธิภาพลดลงถึง 8.4% ⛔ BIOS patch ยังไม่ครอบคลุมทุกระบบ และต้องอัปเดตด้วยตนเอง ⛔ DIMM ที่ผลิตระหว่างปี 2021–2024 มีความเสี่ยงสูง ⛔ โค้ดบน GitHub ใช้สำหรับการตรวจสอบเท่านั้น ไม่ใช่การป้องกันหรือโจมตี https://www.techpowerup.com/341059/sk-hynix-ddr5-dimms-vulnerable-to-phoenix-rowhammer-attack-ecc-dimms-exposed-too
    WWW.TECHPOWERUP.COM
    SK Hynix DDR5 DIMMs Vulnerable to "Phoenix" Rowhammer Attack, ECC DIMMs Exposed Too
    Researchers from ETH Zurich and Google have shown that SK Hynix DDR5 modules remain vulnerable to a new Rowhammer variant they call Phoenix (CVE-2025-6202), even with on-die ECC memory modules. The attack can be executed in only 109 seconds, making it a very realistic threat. By reverse engineering ...
    0 Comments 0 Shares 71 Views 0 Reviews
  • “FSR 4 หลุดซอร์สโค้ด — เปิดทางให้การ์ดจอเก่าใช้เทคโนโลยีอัปสเกล AI แบบใหม่ โดยไม่ต้องพึ่ง Linux”

    AMD FidelityFX Super Resolution 4 หรือ FSR 4 เป็นเทคโนโลยีอัปสเกลภาพด้วย AI รุ่นล่าสุดจาก AMD ที่เดิมทีรองรับเฉพาะการ์ดจอ Radeon RX 9000 ที่ใช้สถาปัตยกรรม RDNA 4 เท่านั้น แต่เมื่อเดือนกันยายน 2025 มีการ “หลุด” ซอร์สโค้ดของ FSR 4 ออกมาโดยไม่ตั้งใจ ซึ่งเปิดโอกาสให้ผู้ใช้ทั่วไปสามารถนำไปปรับแต่งและใช้งานบนการ์ดจอรุ่นเก่าได้อย่างกว้างขวาง

    ซอร์สโค้ดที่หลุดออกมานั้นรวมถึงเวอร์ชันที่ใช้ INT8 ซึ่งเป็นชนิดข้อมูลที่รองรับโดยเกือบทุก GPU สมัยใหม่ ไม่ว่าจะเป็น Radeon RX 7000, GeForce RTX 30/40 หรือแม้แต่ Intel Arc ทำให้การใช้งาน FSR 4 ไม่จำกัดเฉพาะฮาร์ดแวร์ใหม่อีกต่อไป โดยไม่ต้องใช้ Linux เหมือนวิธีการแฮกในช่วงแรก ๆ

    ผู้ใช้ Reddit นามว่า /u/AthleteDependent926 ได้รวบรวมและคอมไพล์ซอร์สโค้ดให้เป็นไฟล์ DLL ที่สามารถใช้งานได้จริงผ่าน OptiScaler ซึ่งเป็นม็อดแบบ multi-game ที่คล้ายกับ ReShade โดยผู้ใช้สามารถติดตั้ง OptiScaler ลงในโฟลเดอร์เกม แล้วเลือก FSR 4.0.2 จากเมนู UI เพื่อเปิดใช้งาน

    จากการทดสอบในเกม Cyberpunk 2077 พบว่า FSR 4 ให้คุณภาพภาพที่คมชัดกว่า FSR 3 และ Intel XeSS อย่างชัดเจน แม้จะยังไม่เทียบเท่า DLSS 4 ของ NVIDIA แต่ก็ถือว่าเป็นทางเลือกที่ดีสำหรับผู้ใช้ที่ไม่มีการ์ดจอระดับสูง โดยเฉพาะในเกมที่รองรับ FSR 3 อยู่แล้ว

    อย่างไรก็ตาม การใช้งานผ่านม็อดยังมีข้อจำกัด เช่น การตั้งค่าที่ไม่ตรงไปตรงมา และประสิทธิภาพที่ลดลงเล็กน้อยจากการประมวลผลเพิ่มเติม โดยเฉพาะในโหมด Ray Tracing ซึ่งอาจทำให้เฟรมเรตลดลงจาก 60 FPS เหลือประมาณ 48 FPS

    ข้อมูลสำคัญจากข่าว
    AMD เผลอปล่อยซอร์สโค้ด FSR 4 ที่รวมเวอร์ชัน INT8 ซึ่งรองรับ GPU ส่วนใหญ่
    ผู้ใช้ Reddit คอมไพล์ซอร์สโค้ดเป็น DLL ที่ใช้งานได้จริง
    ใช้งานผ่านม็อด OptiScaler โดยเลือก FSR 4.0.2 จาก UI
    รองรับ DirectX 12, DirectX 11 และ Vulkan ในหลายเกม

    ผลการทดสอบและคุณภาพภาพ
    FSR 4 ให้ภาพคมชัดกว่า FSR 3 และ XeSS โดยเฉพาะใน Cyberpunk 2077
    ลดอาการเบลอและ aliasing บนวัตถุระยะไกล
    ใช้เวลาอัปสเกลประมาณ 4.1 ms บน RX 7800 XT และ 2.3 ms บน Radeon 8060S
    เหมาะสำหรับผู้ใช้ที่ต้องการคุณภาพภาพสูงโดยไม่ต้องใช้ DLSS

    ข้อมูลเสริมจากภายนอก
    FSR 4 เวอร์ชัน FP8 ใช้เฉพาะบน RDNA 4 เท่านั้น
    INT8 เป็นชนิดข้อมูลที่ใช้กันทั่วไปในงาน AI inference
    OptiScaler เป็นม็อดที่รองรับหลายเกมและสามารถปรับแต่งได้หลากหลาย
    การใช้งาน FSR 4 ผ่าน DLL ช่วยให้เกมเก่าได้รับคุณภาพภาพที่ดีขึ้นโดยไม่ต้องอัปเกรดฮาร์ดแวร์

    https://www.tomshardware.com/pc-components/gpus/latest-fsr-4-source-code-leak-lets-you-run-amds-ai-upscaling-tech-on-nearly-any-gpu-no-linux-required
    🧠 “FSR 4 หลุดซอร์สโค้ด — เปิดทางให้การ์ดจอเก่าใช้เทคโนโลยีอัปสเกล AI แบบใหม่ โดยไม่ต้องพึ่ง Linux” AMD FidelityFX Super Resolution 4 หรือ FSR 4 เป็นเทคโนโลยีอัปสเกลภาพด้วย AI รุ่นล่าสุดจาก AMD ที่เดิมทีรองรับเฉพาะการ์ดจอ Radeon RX 9000 ที่ใช้สถาปัตยกรรม RDNA 4 เท่านั้น แต่เมื่อเดือนกันยายน 2025 มีการ “หลุด” ซอร์สโค้ดของ FSR 4 ออกมาโดยไม่ตั้งใจ ซึ่งเปิดโอกาสให้ผู้ใช้ทั่วไปสามารถนำไปปรับแต่งและใช้งานบนการ์ดจอรุ่นเก่าได้อย่างกว้างขวาง ซอร์สโค้ดที่หลุดออกมานั้นรวมถึงเวอร์ชันที่ใช้ INT8 ซึ่งเป็นชนิดข้อมูลที่รองรับโดยเกือบทุก GPU สมัยใหม่ ไม่ว่าจะเป็น Radeon RX 7000, GeForce RTX 30/40 หรือแม้แต่ Intel Arc ทำให้การใช้งาน FSR 4 ไม่จำกัดเฉพาะฮาร์ดแวร์ใหม่อีกต่อไป โดยไม่ต้องใช้ Linux เหมือนวิธีการแฮกในช่วงแรก ๆ ผู้ใช้ Reddit นามว่า /u/AthleteDependent926 ได้รวบรวมและคอมไพล์ซอร์สโค้ดให้เป็นไฟล์ DLL ที่สามารถใช้งานได้จริงผ่าน OptiScaler ซึ่งเป็นม็อดแบบ multi-game ที่คล้ายกับ ReShade โดยผู้ใช้สามารถติดตั้ง OptiScaler ลงในโฟลเดอร์เกม แล้วเลือก FSR 4.0.2 จากเมนู UI เพื่อเปิดใช้งาน จากการทดสอบในเกม Cyberpunk 2077 พบว่า FSR 4 ให้คุณภาพภาพที่คมชัดกว่า FSR 3 และ Intel XeSS อย่างชัดเจน แม้จะยังไม่เทียบเท่า DLSS 4 ของ NVIDIA แต่ก็ถือว่าเป็นทางเลือกที่ดีสำหรับผู้ใช้ที่ไม่มีการ์ดจอระดับสูง โดยเฉพาะในเกมที่รองรับ FSR 3 อยู่แล้ว อย่างไรก็ตาม การใช้งานผ่านม็อดยังมีข้อจำกัด เช่น การตั้งค่าที่ไม่ตรงไปตรงมา และประสิทธิภาพที่ลดลงเล็กน้อยจากการประมวลผลเพิ่มเติม โดยเฉพาะในโหมด Ray Tracing ซึ่งอาจทำให้เฟรมเรตลดลงจาก 60 FPS เหลือประมาณ 48 FPS ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เผลอปล่อยซอร์สโค้ด FSR 4 ที่รวมเวอร์ชัน INT8 ซึ่งรองรับ GPU ส่วนใหญ่ ➡️ ผู้ใช้ Reddit คอมไพล์ซอร์สโค้ดเป็น DLL ที่ใช้งานได้จริง ➡️ ใช้งานผ่านม็อด OptiScaler โดยเลือก FSR 4.0.2 จาก UI ➡️ รองรับ DirectX 12, DirectX 11 และ Vulkan ในหลายเกม ✅ ผลการทดสอบและคุณภาพภาพ ➡️ FSR 4 ให้ภาพคมชัดกว่า FSR 3 และ XeSS โดยเฉพาะใน Cyberpunk 2077 ➡️ ลดอาการเบลอและ aliasing บนวัตถุระยะไกล ➡️ ใช้เวลาอัปสเกลประมาณ 4.1 ms บน RX 7800 XT และ 2.3 ms บน Radeon 8060S ➡️ เหมาะสำหรับผู้ใช้ที่ต้องการคุณภาพภาพสูงโดยไม่ต้องใช้ DLSS ✅ ข้อมูลเสริมจากภายนอก ➡️ FSR 4 เวอร์ชัน FP8 ใช้เฉพาะบน RDNA 4 เท่านั้น ➡️ INT8 เป็นชนิดข้อมูลที่ใช้กันทั่วไปในงาน AI inference ➡️ OptiScaler เป็นม็อดที่รองรับหลายเกมและสามารถปรับแต่งได้หลากหลาย ➡️ การใช้งาน FSR 4 ผ่าน DLL ช่วยให้เกมเก่าได้รับคุณภาพภาพที่ดีขึ้นโดยไม่ต้องอัปเกรดฮาร์ดแวร์ https://www.tomshardware.com/pc-components/gpus/latest-fsr-4-source-code-leak-lets-you-run-amds-ai-upscaling-tech-on-nearly-any-gpu-no-linux-required
    WWW.TOMSHARDWARE.COM
    Latest FSR 4 source code 'leak' lets you run AMD's AI upscaling tech on nearly any GPU — no Linux required
    It's a bit hacky, but with some tweaking, older GPUs get a nice new upscaling option. Maybe it'll make Bl4 playable?
    0 Comments 0 Shares 57 Views 0 Reviews
  • “AMD เปิดตัว Ryzen 9700F, 9500F, 7400 และ 5600F — ซีพียูรุ่นประหยัดที่ซ่อนพลังไว้มากกว่าที่คิด”

    AMD เปิดตัวซีพียูใหม่ 4 รุ่นแบบเงียบ ๆ โดยไม่จัดงานแถลงข่าวหรือประกาศอย่างเป็นทางการ แต่เพิ่มข้อมูลลงในเว็บไซต์ ได้แก่ Ryzen 7 9700F, Ryzen 5 9500F, Ryzen 5 7400 และ Ryzen 5 5600F ซึ่งครอบคลุมตั้งแต่สถาปัตยกรรม Zen 5, Zen 4 ไปจนถึง Zen 3 โดยเน้นกลุ่มผู้ใช้ระดับเริ่มต้นและตลาดต่างประเทศ

    Ryzen 7 9700F และ Ryzen 5 9500F เป็นชิป Zen 5 แบบไม่มีกราฟิกในตัว (iGPU-less) โดย 9700F มี 8 คอร์ 16 เธรด, L3 cache 32MB, TDP 65W และบูสต์สูงสุด 5.5GHz ส่วน 9500F มี 6 คอร์ 12 เธรด และบูสต์สูงสุด 5.0GHz ทั้งคู่ใช้แพลตฟอร์ม AM5 และรองรับ PCIe Gen5 รวมถึง DDR5 สูงสุด 192GB

    Ryzen 5 7400 เป็น Zen 4 รุ่นใหม่ที่มี 6 คอร์ 12 เธรด แต่มี L3 cache เพียง 16MB ซึ่งผิดปกติสำหรับชิปที่ใช้โครงสร้าง chiplet แบบ Raphael โดยคาดว่า AMD ปิดการทำงานของ cache บางส่วนเพื่อใช้ชิปที่มีตำหนิจากการผลิต ลดการสูญเปล่าและต้นทุน

    Ryzen 5 5600F เป็น Zen 3 รุ่นสุดท้ายที่ยังคงอยู่ในตลาด โดยมี 6 คอร์ 12 เธรด, L3 cache 32MB และบูสต์สูงสุด 4.0GHz แม้จะใช้ชื่อ F-series แต่จริง ๆ แล้ว Zen 3 ไม่มี iGPU อยู่แล้ว จึงเป็นการรีแบรนด์เพื่อขายในตลาดเอเชียโดยเฉพาะ

    ชิปเหล่านี้ส่วนใหญ่จะวางขายเฉพาะในภูมิภาค เช่น 9700F ในอเมริกาเหนือ, 5600F ในเอเชียแปซิฟิก และ 7400F เฉพาะในจีน โดยมีเพียง 9500F ที่มีวางจำหน่ายทั่วโลก ซึ่งสะท้อนกลยุทธ์ของ AMD ที่เน้นการใช้ชิปที่มีอยู่ให้เกิดประโยชน์สูงสุดในแต่ละตลาด

    ข้อมูลซีพียูใหม่จาก AMD
    Ryzen 7 9700F: Zen 5, 8 คอร์, 5.5GHz boost, ไม่มี iGPU
    Ryzen 5 9500F: Zen 5, 6 คอร์, 5.0GHz boost, ไม่มี iGPU
    Ryzen 5 7400: Zen 4, 6 คอร์, L3 cache 16MB, ลดต้นทุนจากชิปที่มีตำหนิ
    Ryzen 5 5600F: Zen 3, 6 คอร์, ไม่มี iGPU โดยธรรมชาติ

    จุดเด่นและกลยุทธ์
    ใช้แพลตฟอร์ม AM5 รองรับ PCIe Gen5 และ DDR5 สูงสุด 192GB
    เปิดตัวแบบเงียบ ๆ โดยเพิ่มข้อมูลลงในเว็บไซต์เท่านั้น
    F-series คือรุ่นไม่มีกราฟิกในตัว และบางรุ่นมีสเปกใกล้เคียงกับรุ่น X
    วางจำหน่ายแบบจำกัดภูมิภาคตามความเหมาะสมของตลาด

    ข้อมูลเสริมจากภายนอก
    Ryzen 5 9500F คาดว่าราคาอยู่ที่ประมาณ $218 และ 9700F ที่ $294
    Zen 5 มีการปรับปรุงด้าน branch prediction, ALU และ cache hierarchy
    Ryzen 5 7400F มี L3 cache 32MB และบูสต์สูงกว่า 7400 ถึง 400MHz
    Intel ก็ใช้กลยุทธ์คล้ายกัน โดยนำชิปเก่ากลับมารีแบรนด์ใน Ultra Series 1

    https://www.tomshardware.com/pc-components/cpus/amd-launches-four-new-ryzen-cpus-including-cutdown-zen-4-and-zen-3-models-most-only-available-in-global-markets
    🧠 “AMD เปิดตัว Ryzen 9700F, 9500F, 7400 และ 5600F — ซีพียูรุ่นประหยัดที่ซ่อนพลังไว้มากกว่าที่คิด” AMD เปิดตัวซีพียูใหม่ 4 รุ่นแบบเงียบ ๆ โดยไม่จัดงานแถลงข่าวหรือประกาศอย่างเป็นทางการ แต่เพิ่มข้อมูลลงในเว็บไซต์ ได้แก่ Ryzen 7 9700F, Ryzen 5 9500F, Ryzen 5 7400 และ Ryzen 5 5600F ซึ่งครอบคลุมตั้งแต่สถาปัตยกรรม Zen 5, Zen 4 ไปจนถึง Zen 3 โดยเน้นกลุ่มผู้ใช้ระดับเริ่มต้นและตลาดต่างประเทศ Ryzen 7 9700F และ Ryzen 5 9500F เป็นชิป Zen 5 แบบไม่มีกราฟิกในตัว (iGPU-less) โดย 9700F มี 8 คอร์ 16 เธรด, L3 cache 32MB, TDP 65W และบูสต์สูงสุด 5.5GHz ส่วน 9500F มี 6 คอร์ 12 เธรด และบูสต์สูงสุด 5.0GHz ทั้งคู่ใช้แพลตฟอร์ม AM5 และรองรับ PCIe Gen5 รวมถึง DDR5 สูงสุด 192GB Ryzen 5 7400 เป็น Zen 4 รุ่นใหม่ที่มี 6 คอร์ 12 เธรด แต่มี L3 cache เพียง 16MB ซึ่งผิดปกติสำหรับชิปที่ใช้โครงสร้าง chiplet แบบ Raphael โดยคาดว่า AMD ปิดการทำงานของ cache บางส่วนเพื่อใช้ชิปที่มีตำหนิจากการผลิต ลดการสูญเปล่าและต้นทุน Ryzen 5 5600F เป็น Zen 3 รุ่นสุดท้ายที่ยังคงอยู่ในตลาด โดยมี 6 คอร์ 12 เธรด, L3 cache 32MB และบูสต์สูงสุด 4.0GHz แม้จะใช้ชื่อ F-series แต่จริง ๆ แล้ว Zen 3 ไม่มี iGPU อยู่แล้ว จึงเป็นการรีแบรนด์เพื่อขายในตลาดเอเชียโดยเฉพาะ ชิปเหล่านี้ส่วนใหญ่จะวางขายเฉพาะในภูมิภาค เช่น 9700F ในอเมริกาเหนือ, 5600F ในเอเชียแปซิฟิก และ 7400F เฉพาะในจีน โดยมีเพียง 9500F ที่มีวางจำหน่ายทั่วโลก ซึ่งสะท้อนกลยุทธ์ของ AMD ที่เน้นการใช้ชิปที่มีอยู่ให้เกิดประโยชน์สูงสุดในแต่ละตลาด ✅ ข้อมูลซีพียูใหม่จาก AMD ➡️ Ryzen 7 9700F: Zen 5, 8 คอร์, 5.5GHz boost, ไม่มี iGPU ➡️ Ryzen 5 9500F: Zen 5, 6 คอร์, 5.0GHz boost, ไม่มี iGPU ➡️ Ryzen 5 7400: Zen 4, 6 คอร์, L3 cache 16MB, ลดต้นทุนจากชิปที่มีตำหนิ ➡️ Ryzen 5 5600F: Zen 3, 6 คอร์, ไม่มี iGPU โดยธรรมชาติ ✅ จุดเด่นและกลยุทธ์ ➡️ ใช้แพลตฟอร์ม AM5 รองรับ PCIe Gen5 และ DDR5 สูงสุด 192GB ➡️ เปิดตัวแบบเงียบ ๆ โดยเพิ่มข้อมูลลงในเว็บไซต์เท่านั้น ➡️ F-series คือรุ่นไม่มีกราฟิกในตัว และบางรุ่นมีสเปกใกล้เคียงกับรุ่น X ➡️ วางจำหน่ายแบบจำกัดภูมิภาคตามความเหมาะสมของตลาด ✅ ข้อมูลเสริมจากภายนอก ➡️ Ryzen 5 9500F คาดว่าราคาอยู่ที่ประมาณ $218 และ 9700F ที่ $294 ➡️ Zen 5 มีการปรับปรุงด้าน branch prediction, ALU และ cache hierarchy ➡️ Ryzen 5 7400F มี L3 cache 32MB และบูสต์สูงกว่า 7400 ถึง 400MHz ➡️ Intel ก็ใช้กลยุทธ์คล้ายกัน โดยนำชิปเก่ากลับมารีแบรนด์ใน Ultra Series 1 https://www.tomshardware.com/pc-components/cpus/amd-launches-four-new-ryzen-cpus-including-cutdown-zen-4-and-zen-3-models-most-only-available-in-global-markets
    0 Comments 0 Shares 53 Views 0 Reviews
  • “Loongson 9A1000: ก้าวแรกของ GPU จีนสู่ความเป็นอิสระ — ประสิทธิภาพระดับ RX 550 พร้อมพลัง AI 40 TOPS”

    หลังจากพัฒนาอย่างเงียบ ๆ มาตั้งแต่ปี 2023 บริษัท Loongson Technology ได้ประกาศความคืบหน้าครั้งสำคัญในเดือนกันยายน 2025 กับ GPU รุ่นแรกของบริษัทชื่อว่า “Loongson 9A1000” ซึ่งเตรียมเข้าสู่กระบวนการ tapeout หรือการส่งแบบไปผลิตจริงในไตรมาสที่ 3 ของปีนี้ ถือเป็นการเปิดตัวอย่างเป็นทางการของ Loongson ในตลาดกราฟิกการ์ด หลังจากที่เคยเน้นเฉพาะด้านซีพียูมาก่อน

    9A1000 ถูกวางตำแหน่งเป็นกราฟิกการ์ดระดับเริ่มต้น โดยมีประสิทธิภาพใกล้เคียงกับ AMD Radeon RX 550 ซึ่งเปิดตัวมาตั้งแต่ปี 2017 แต่สิ่งที่น่าสนใจคือการรองรับการเร่งความเร็วด้าน AI ด้วยพลังประมวลผลสูงถึง 40 TOPS ซึ่งใกล้เคียงกับ NPU รุ่นใหม่ของ AMD อย่าง XDNA 2 ที่ให้ได้ถึง 50 TOPS

    Loongson ยังเผยว่าได้ปรับปรุงสถาปัตยกรรมภายในหลายจุด เช่น ลดพื้นที่ของ stream processor ลง 20% เพิ่มความถี่การทำงานขึ้น 25% และลดการใช้พลังงานในโหลดต่ำลงถึง 70% GPU นี้รองรับ API อย่าง OpenGL 4.0 และ OpenCL ES 3.2 และมีประสิทธิภาพสูงกว่ากราฟิกในตัว LG200 ที่อยู่ในซีพียู 2K3000 ถึง 4 เท่า

    แม้จะยังไม่มีข้อมูลสเปกเต็ม แต่ Loongson ก็ประกาศแผนต่อยอดด้วยรุ่น 9A2000 ที่จะเร็วกว่า 9A1000 ถึง 10 เท่า และมีประสิทธิภาพใกล้เคียงกับ NVIDIA RTX 2080 รวมถึงรุ่น 9A3000 ที่อยู่ในแผนพัฒนาแล้วเช่นกัน

    การเปิดตัวนี้สะท้อนความพยายามของจีนในการสร้าง ecosystem ด้าน GPU ที่พึ่งพาตนเองได้ โดยมีบริษัทอื่น ๆ เช่น Moore Threads, Biren และ Lisuan ร่วมแข่งขันในตลาด แม้หลายสตาร์ทอัพจะล้มเหลวไปก่อนหน้านี้ แต่ Loongson ยังคงเดินหน้าด้วยความมั่นคงและเป้าหมายระยะยาว

    ข้อมูลสำคัญจากข่าว
    Loongson 9A1000 เป็น GPU รุ่นแรกของบริษัท เตรียมเข้าสู่ขั้นตอน tapeout ใน Q3 ปี 2025
    พัฒนาเริ่มต้นตั้งแต่ปี 2023 และวางตำแหน่งเป็นกราฟิกการ์ดระดับเริ่มต้น
    ประสิทธิภาพใกล้เคียง AMD RX 550 พร้อมรองรับ AI acceleration
    ให้พลังประมวลผล AI สูงถึง 40 TOPS ใกล้เคียงกับ AMD XDNA 2 NPU

    จุดเด่นด้านสถาปัตยกรรม
    ลดพื้นที่ stream processor ลง 20% เพื่อเพิ่มประสิทธิภาพ
    เพิ่มความถี่การทำงานขึ้น 25% และลดการใช้พลังงานในโหลดต่ำลง 70%
    รองรับ OpenGL 4.0 และ OpenCL ES 3.2
    เร็วกว่กราฟิกในตัว LG200 ถึง 4 เท่า

    แผนพัฒนารุ่นต่อไป
    Loongson 9A2000 จะเร็วกว่า 9A1000 ถึง 10 เท่า และใกล้เคียง RTX 2080
    Loongson 9A3000 อยู่ในแผนพัฒนา แต่ยังไม่มีข้อมูลสเปก
    Loongson เข้าร่วมแข่งขันในตลาด GPU จีนร่วมกับ Moore Threads, Biren และ Lisuan

    ข้อมูลเสริมจากภายนอก
    RX 550 เป็นกราฟิกการ์ดระดับเริ่มต้นที่เปิดตัวในปี 2017
    40 TOPS ถือว่าเพียงพอสำหรับงาน AI inference ระดับเบื้องต้น เช่น การรู้จำภาพหรือเสียง
    การลดพลังงานในโหลดต่ำช่วยให้เหมาะกับงาน edge computing และ embedded systems
    การเข้าสู่ตลาด GPU ถือเป็นการขยายขอบเขตธุรกิจของ Loongson จากเดิมที่เน้นซีพียู

    https://www.tomshardware.com/pc-components/gpus/chinas-entry-level-gpu-with-amd-rx-550-level-of-performance-is-ready-for-tapeout-loongson-9a1000-is-finally-off-the-drawing-board-and-headed-to-fabs
    🎮 “Loongson 9A1000: ก้าวแรกของ GPU จีนสู่ความเป็นอิสระ — ประสิทธิภาพระดับ RX 550 พร้อมพลัง AI 40 TOPS” หลังจากพัฒนาอย่างเงียบ ๆ มาตั้งแต่ปี 2023 บริษัท Loongson Technology ได้ประกาศความคืบหน้าครั้งสำคัญในเดือนกันยายน 2025 กับ GPU รุ่นแรกของบริษัทชื่อว่า “Loongson 9A1000” ซึ่งเตรียมเข้าสู่กระบวนการ tapeout หรือการส่งแบบไปผลิตจริงในไตรมาสที่ 3 ของปีนี้ ถือเป็นการเปิดตัวอย่างเป็นทางการของ Loongson ในตลาดกราฟิกการ์ด หลังจากที่เคยเน้นเฉพาะด้านซีพียูมาก่อน 9A1000 ถูกวางตำแหน่งเป็นกราฟิกการ์ดระดับเริ่มต้น โดยมีประสิทธิภาพใกล้เคียงกับ AMD Radeon RX 550 ซึ่งเปิดตัวมาตั้งแต่ปี 2017 แต่สิ่งที่น่าสนใจคือการรองรับการเร่งความเร็วด้าน AI ด้วยพลังประมวลผลสูงถึง 40 TOPS ซึ่งใกล้เคียงกับ NPU รุ่นใหม่ของ AMD อย่าง XDNA 2 ที่ให้ได้ถึง 50 TOPS Loongson ยังเผยว่าได้ปรับปรุงสถาปัตยกรรมภายในหลายจุด เช่น ลดพื้นที่ของ stream processor ลง 20% เพิ่มความถี่การทำงานขึ้น 25% และลดการใช้พลังงานในโหลดต่ำลงถึง 70% GPU นี้รองรับ API อย่าง OpenGL 4.0 และ OpenCL ES 3.2 และมีประสิทธิภาพสูงกว่ากราฟิกในตัว LG200 ที่อยู่ในซีพียู 2K3000 ถึง 4 เท่า แม้จะยังไม่มีข้อมูลสเปกเต็ม แต่ Loongson ก็ประกาศแผนต่อยอดด้วยรุ่น 9A2000 ที่จะเร็วกว่า 9A1000 ถึง 10 เท่า และมีประสิทธิภาพใกล้เคียงกับ NVIDIA RTX 2080 รวมถึงรุ่น 9A3000 ที่อยู่ในแผนพัฒนาแล้วเช่นกัน การเปิดตัวนี้สะท้อนความพยายามของจีนในการสร้าง ecosystem ด้าน GPU ที่พึ่งพาตนเองได้ โดยมีบริษัทอื่น ๆ เช่น Moore Threads, Biren และ Lisuan ร่วมแข่งขันในตลาด แม้หลายสตาร์ทอัพจะล้มเหลวไปก่อนหน้านี้ แต่ Loongson ยังคงเดินหน้าด้วยความมั่นคงและเป้าหมายระยะยาว ✅ ข้อมูลสำคัญจากข่าว ➡️ Loongson 9A1000 เป็น GPU รุ่นแรกของบริษัท เตรียมเข้าสู่ขั้นตอน tapeout ใน Q3 ปี 2025 ➡️ พัฒนาเริ่มต้นตั้งแต่ปี 2023 และวางตำแหน่งเป็นกราฟิกการ์ดระดับเริ่มต้น ➡️ ประสิทธิภาพใกล้เคียง AMD RX 550 พร้อมรองรับ AI acceleration ➡️ ให้พลังประมวลผล AI สูงถึง 40 TOPS ใกล้เคียงกับ AMD XDNA 2 NPU ✅ จุดเด่นด้านสถาปัตยกรรม ➡️ ลดพื้นที่ stream processor ลง 20% เพื่อเพิ่มประสิทธิภาพ ➡️ เพิ่มความถี่การทำงานขึ้น 25% และลดการใช้พลังงานในโหลดต่ำลง 70% ➡️ รองรับ OpenGL 4.0 และ OpenCL ES 3.2 ➡️ เร็วกว่กราฟิกในตัว LG200 ถึง 4 เท่า ✅ แผนพัฒนารุ่นต่อไป ➡️ Loongson 9A2000 จะเร็วกว่า 9A1000 ถึง 10 เท่า และใกล้เคียง RTX 2080 ➡️ Loongson 9A3000 อยู่ในแผนพัฒนา แต่ยังไม่มีข้อมูลสเปก ➡️ Loongson เข้าร่วมแข่งขันในตลาด GPU จีนร่วมกับ Moore Threads, Biren และ Lisuan ✅ ข้อมูลเสริมจากภายนอก ➡️ RX 550 เป็นกราฟิกการ์ดระดับเริ่มต้นที่เปิดตัวในปี 2017 ➡️ 40 TOPS ถือว่าเพียงพอสำหรับงาน AI inference ระดับเบื้องต้น เช่น การรู้จำภาพหรือเสียง ➡️ การลดพลังงานในโหลดต่ำช่วยให้เหมาะกับงาน edge computing และ embedded systems ➡️ การเข้าสู่ตลาด GPU ถือเป็นการขยายขอบเขตธุรกิจของ Loongson จากเดิมที่เน้นซีพียู https://www.tomshardware.com/pc-components/gpus/chinas-entry-level-gpu-with-amd-rx-550-level-of-performance-is-ready-for-tapeout-loongson-9a1000-is-finally-off-the-drawing-board-and-headed-to-fabs
    0 Comments 0 Shares 68 Views 0 Reviews
  • “ASRock เปิดตัว AI QuickSet WSL — ติดตั้งแอป AI บน Windows ง่ายเหมือนใช้วิซาร์ด พร้อมรองรับ GPU AMD รุ่นใหม่”

    ในยุคที่แอปพลิเคชัน AI ส่วนใหญ่ถูกออกแบบให้ทำงานบน Linux การใช้งานบน Windows กลายเป็นเรื่องยุ่งยากสำหรับผู้ใช้ทั่วไป โดยเฉพาะผู้ที่ไม่มีพื้นฐานด้านการตั้งค่าสภาพแวดล้อม ASRock จึงเปิดตัวเครื่องมือเวอร์ชันใหม่ชื่อว่า “AI QuickSet WSL” ที่ช่วยให้ผู้ใช้สามารถติดตั้งและใช้งานแอป AI บน Windows ได้ง่ายขึ้น ผ่านระบบ Windows Subsystem for Linux (WSL)

    AI QuickSet WSL เป็นการต่อยอดจากเวอร์ชันแรกที่รองรับการติดตั้งแอป AI ทั้งบน Windows และ Linux โดยเวอร์ชันใหม่นี้เน้นการใช้งาน Linux-based AI บน Windows โดยเฉพาะ ด้วยการใช้แพลตฟอร์ม AMD ROCm ที่รองรับการเร่งความเร็วด้วย GPU จาก ASRock Radeon RX 7900 Series หรือใหม่กว่า

    ผู้ใช้สามารถติดตั้งแอป AI ได้ผ่าน GUI แบบวิซาร์ดที่มีขั้นตอนชัดเจน ไม่ต้องตั้งค่าด้วยตนเอง เช่น การเลือก runtime, การปรับแต่ง LLM หรือการจัดการ container โดยแอปจะจัดการให้ทั้งหมด พร้อมแอป AI ที่ติดตั้งมาให้ล่วงหน้า เช่น Audiocraft สำหรับสร้างเสียงจากข้อความ, PixtoonLab สำหรับแปลงภาพเป็นการ์ตูน, และ Video Background Remover สำหรับลบพื้นหลังวิดีโอ

    แม้จะรองรับทั้ง CPU Intel และ AMD แต่เครื่องมือนี้มีข้อกำหนดฮาร์ดแวร์ที่ค่อนข้างสูง เช่น RAM 64GB, Windows 11 เวอร์ชัน 24H2, และพื้นที่ว่างบนไดรฟ์ C: อย่างน้อย 150GB ซึ่งสะท้อนว่าเครื่องมือนี้ออกแบบมาเพื่อผู้ใช้ระดับจริงจังที่ต้องการประสิทธิภาพสูงสุดในการประมวลผล AI

    ข้อมูลสำคัญจากข่าว
    ASRock เปิดตัว AI QuickSet WSL สำหรับติดตั้งแอป AI Linux บน Windows
    ใช้แพลตฟอร์ม AMD ROCm เพื่อเร่งความเร็วด้วย GPU Radeon RX 7900 Series ขึ้นไป
    รองรับการติดตั้งผ่าน GUI แบบวิซาร์ด — ไม่ต้องตั้งค่าด้วยตนเอง
    มีแอป AI ติดตั้งล่วงหน้า เช่น Audiocraft, PixtoonLab, Video Background Remover

    ความสามารถและการใช้งาน
    รองรับ CPU Intel Gen 12 ขึ้นไป และ AMD Ryzen 5000 ขึ้นไป
    ต้องใช้ RAM 64GB และ Windows 11 เวอร์ชัน 24H2
    ต้องติดตั้งบนไดรฟ์ C: โดยมีพื้นที่ว่างอย่างน้อย 150GB
    รองรับเฉพาะ GPU ที่ผลิตโดย ASRock — ไม่รองรับการ์ด MBA จาก AMD

    ข้อมูลเสริมจากภายนอก
    WSL เป็นระบบ virtualization ที่ไม่มี GUI — ทำให้เบาและเร็ว
    ROCm เป็นแพลตฟอร์มของ AMD สำหรับงาน HPC และ AI โดยเฉพาะ
    การใช้ GUI ช่วยลดอุปสรรคสำหรับผู้เริ่มต้นที่ไม่ถนัดคำสั่ง CLI
    แอป AI ที่ติดตั้งล่วงหน้าครอบคลุมงานเสียง ภาพ วิดีโอ และข้อความ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/asrocks-revamped-ai-quickset-wsl-virtualization-tool-makes-it-easy-to-run-linux-ai-apps-on-windows
    🖥️ “ASRock เปิดตัว AI QuickSet WSL — ติดตั้งแอป AI บน Windows ง่ายเหมือนใช้วิซาร์ด พร้อมรองรับ GPU AMD รุ่นใหม่” ในยุคที่แอปพลิเคชัน AI ส่วนใหญ่ถูกออกแบบให้ทำงานบน Linux การใช้งานบน Windows กลายเป็นเรื่องยุ่งยากสำหรับผู้ใช้ทั่วไป โดยเฉพาะผู้ที่ไม่มีพื้นฐานด้านการตั้งค่าสภาพแวดล้อม ASRock จึงเปิดตัวเครื่องมือเวอร์ชันใหม่ชื่อว่า “AI QuickSet WSL” ที่ช่วยให้ผู้ใช้สามารถติดตั้งและใช้งานแอป AI บน Windows ได้ง่ายขึ้น ผ่านระบบ Windows Subsystem for Linux (WSL) AI QuickSet WSL เป็นการต่อยอดจากเวอร์ชันแรกที่รองรับการติดตั้งแอป AI ทั้งบน Windows และ Linux โดยเวอร์ชันใหม่นี้เน้นการใช้งาน Linux-based AI บน Windows โดยเฉพาะ ด้วยการใช้แพลตฟอร์ม AMD ROCm ที่รองรับการเร่งความเร็วด้วย GPU จาก ASRock Radeon RX 7900 Series หรือใหม่กว่า ผู้ใช้สามารถติดตั้งแอป AI ได้ผ่าน GUI แบบวิซาร์ดที่มีขั้นตอนชัดเจน ไม่ต้องตั้งค่าด้วยตนเอง เช่น การเลือก runtime, การปรับแต่ง LLM หรือการจัดการ container โดยแอปจะจัดการให้ทั้งหมด พร้อมแอป AI ที่ติดตั้งมาให้ล่วงหน้า เช่น Audiocraft สำหรับสร้างเสียงจากข้อความ, PixtoonLab สำหรับแปลงภาพเป็นการ์ตูน, และ Video Background Remover สำหรับลบพื้นหลังวิดีโอ แม้จะรองรับทั้ง CPU Intel และ AMD แต่เครื่องมือนี้มีข้อกำหนดฮาร์ดแวร์ที่ค่อนข้างสูง เช่น RAM 64GB, Windows 11 เวอร์ชัน 24H2, และพื้นที่ว่างบนไดรฟ์ C: อย่างน้อย 150GB ซึ่งสะท้อนว่าเครื่องมือนี้ออกแบบมาเพื่อผู้ใช้ระดับจริงจังที่ต้องการประสิทธิภาพสูงสุดในการประมวลผล AI ✅ ข้อมูลสำคัญจากข่าว ➡️ ASRock เปิดตัว AI QuickSet WSL สำหรับติดตั้งแอป AI Linux บน Windows ➡️ ใช้แพลตฟอร์ม AMD ROCm เพื่อเร่งความเร็วด้วย GPU Radeon RX 7900 Series ขึ้นไป ➡️ รองรับการติดตั้งผ่าน GUI แบบวิซาร์ด — ไม่ต้องตั้งค่าด้วยตนเอง ➡️ มีแอป AI ติดตั้งล่วงหน้า เช่น Audiocraft, PixtoonLab, Video Background Remover ✅ ความสามารถและการใช้งาน ➡️ รองรับ CPU Intel Gen 12 ขึ้นไป และ AMD Ryzen 5000 ขึ้นไป ➡️ ต้องใช้ RAM 64GB และ Windows 11 เวอร์ชัน 24H2 ➡️ ต้องติดตั้งบนไดรฟ์ C: โดยมีพื้นที่ว่างอย่างน้อย 150GB ➡️ รองรับเฉพาะ GPU ที่ผลิตโดย ASRock — ไม่รองรับการ์ด MBA จาก AMD ✅ ข้อมูลเสริมจากภายนอก ➡️ WSL เป็นระบบ virtualization ที่ไม่มี GUI — ทำให้เบาและเร็ว ➡️ ROCm เป็นแพลตฟอร์มของ AMD สำหรับงาน HPC และ AI โดยเฉพาะ ➡️ การใช้ GUI ช่วยลดอุปสรรคสำหรับผู้เริ่มต้นที่ไม่ถนัดคำสั่ง CLI ➡️ แอป AI ที่ติดตั้งล่วงหน้าครอบคลุมงานเสียง ภาพ วิดีโอ และข้อความ https://www.tomshardware.com/tech-industry/artificial-intelligence/asrocks-revamped-ai-quickset-wsl-virtualization-tool-makes-it-easy-to-run-linux-ai-apps-on-windows
    WWW.TOMSHARDWARE.COM
    ASRock's revamped AI Quickset WSL virtualization tool makes it easy to run Linux AI apps on Windows
    ASRock's tool takes all the guesswork out of installing AI models on PC, including ones designed to work primarily in Linux.
    0 Comments 0 Shares 91 Views 0 Reviews
  • “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ”

    AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก

    ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด

    อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3

    แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ”

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่
    สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D
    ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p
    ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ

    การจับคู่กับ GPU และผลลัพธ์
    RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D
    Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends
    Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ
    Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ

    ข้อมูลเสริมจากภายนอก
    เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก
    จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC
    การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ
    การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน

    https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    🔥 “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ” AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3 แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ” ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่ ➡️ สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D ➡️ ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p ➡️ ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ ✅ การจับคู่กับ GPU และผลลัพธ์ ➡️ RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D ➡️ Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends ➡️ Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ ➡️ Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ ✅ ข้อมูลเสริมจากภายนอก ➡️ เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก ➡️ จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC ➡️ การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ ➡️ การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    0 Comments 0 Shares 82 Views 0 Reviews
  • หยุด #ทุ่นระเบิด ! ทหาร-ชาวบ้าน ขาไม่ขาด!! หยุดอย่างไร? พูดคุยกับ ลุงเฉียบ,ลุงหยัด #บ้านน้อยป่าไร่ จ. #สระแก้ว , พล.ท. #กนกเนตระคเวสนะ อดีตรองแม่ทัพภาค 2 และ #วีระสมความคิด ประธานเครือข่าย #ประชาชน ต้าน #คอรัปชั่น
    #ชัดเจนเปลี่ยนbyสภากาแฟ 16-09-68 #News1
    https://www.youtube.com/live/vNsDaMDlNAQ?
    หยุด #ทุ่นระเบิด ! ทหาร-ชาวบ้าน ขาไม่ขาด!! หยุดอย่างไร? พูดคุยกับ ลุงเฉียบ,ลุงหยัด #บ้านน้อยป่าไร่ จ. #สระแก้ว , พล.ท. #กนกเนตระคเวสนะ อดีตรองแม่ทัพภาค 2 และ #วีระสมความคิด ประธานเครือข่าย #ประชาชน ต้าน #คอรัปชั่น #ชัดเจนเปลี่ยนbyสภากาแฟ 16-09-68 #News1 https://www.youtube.com/live/vNsDaMDlNAQ?
    - YouTube
    เพลิดเพลินไปกับวิดีโอและเพลงที่คุณชอบ อัปโหลดเนื้อหาต้นฉบับ และแชร์เนื้อหาทั้งหมดกับเพื่อน ครอบครัว และผู้คนทั่วโลกบน YouTube
    0 Comments 0 Shares 58 Views 0 Reviews
  • “Intel ขายหุ้น Altera ลดต้นทุนปี 2025 — พลิกเกมการเงินหลังขาดทุนหนักในยุคก่อน”

    หลังจากเผชิญกับภาวะขาดทุนครั้งใหญ่ที่สุดในรอบหลายทศวรรษ Intel ได้ตัดสินใจขายหุ้น 51% ของธุรกิจชิปแบบปรับแต่งได้ Altera ให้กับบริษัทเอกชน Silver Lake ด้วยมูลค่า 3.3 พันล้านดอลลาร์ ซึ่งต่ำกว่าราคาที่ Intel เคยซื้อไว้ในปี 2015 ถึงครึ่งหนึ่ง การขายครั้งนี้ไม่ใช่แค่การปลดภาระ แต่เป็นการปรับโครงสร้างองค์กรครั้งใหญ่ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan

    ผลจากการขายทำให้ Intel ปรับลดเป้าหมายค่าใช้จ่ายในการดำเนินงานปี 2025 ลงเหลือ 16.8 พันล้านดอลลาร์ จากเดิม 17 พันล้านดอลลาร์ โดยยังคงเป้าหมายปี 2026 ไว้ที่ 16 พันล้านดอลลาร์ การลดค่าใช้จ่ายนี้ช่วยให้ราคาหุ้น Intel พุ่งขึ้นเกือบ 6% และสร้างความมั่นใจให้กับนักลงทุนที่เคยกังวลกับการขาดทุนสะสมกว่า 18.8 พันล้านดอลลาร์ในปี 2024

    Altera ซึ่งเคยเป็นหนึ่งในธุรกิจที่ Intel หวังจะใช้ขยายตลาดด้าน programmable chips รายงานรายได้ 816 ล้านดอลลาร์ในครึ่งปีแรกของ 2025 พร้อมกำไรขั้นต้น 55% และค่าใช้จ่ายในการดำเนินงาน 356 ล้านดอลลาร์ การขายหุ้นให้ Silver Lake ทำให้ Intel ไม่ต้องแบกรับค่าใช้จ่ายเหล่านี้อีกต่อไป และสามารถโฟกัสกับธุรกิจหลักได้มากขึ้น

    นอกจากนี้ Intel ยังมีการปรับโครงสร้างองค์กร เช่น ลดจำนวนพนักงานลงกว่า 20% และเปลี่ยนแปลงทีมบริหาร พร้อมกับการที่รัฐบาลสหรัฐฯ แปลงเงินสนับสนุนในยุค Biden เป็นหุ้น 10% ในบริษัท ซึ่งสะท้อนถึงความพยายามในการฟื้นฟูสถานะทางการเงินและความสามารถในการแข่งขันในตลาดชิปที่ร้อนแรงขึ้นทุกวัน

    ข้อมูลสำคัญจากข่าว
    Intel ขายหุ้น 51% ของ Altera ให้ Silver Lake มูลค่า 3.3 พันล้านดอลลาร์
    ปรับลดเป้าหมายค่าใช้จ่ายปี 2025 เหลือ 16.8 พันล้านดอลลาร์ จากเดิม 17 พันล้าน
    ราคาหุ้น Intel พุ่งขึ้นเกือบ 6% หลังประกาศข่าว
    Altera เคยมีรายได้ 816 ล้านดอลลาร์ในครึ่งปีแรก และกำไรขั้นต้น 55%

    การปรับโครงสร้างองค์กร
    CEO คนใหม่ Lip-Bu Tan เน้นลดต้นทุนและปรับโครงสร้าง
    ลดจำนวนพนักงานลงกว่า 20% ภายในสิ้นปี
    รัฐบาลสหรัฐฯ ถือหุ้น 10% ผ่านการแปลงเงินสนับสนุนเป็นทุน
    เป้าหมายปี 2026 ยังคงไว้ที่ 16 พันล้านดอลลาร์

    ข้อมูลเสริมจากภายนอก
    Altera เป็นผู้นำด้าน FPGA ซึ่งมีบทบาทสำคัญในตลาด AI และ embedded systems
    Silver Lake เป็นบริษัทลงทุนที่มีประสบการณ์ในการพลิกฟื้นธุรกิจเทคโนโลยี
    การขายหุ้นช่วยลดภาระค่าใช้จ่ายกว่า 356 ล้านดอลลาร์ต่อปี
    Intel ยังถือหุ้น 49% ใน Altera — มีสิทธิ์ร่วมรับผลประโยชน์ในอนาคต

    คำเตือนและข้อจำกัด
    มูลค่าการขาย Altera ต่ำกว่าราคาที่ Intel เคยซื้อไว้ในปี 2015 ถึงเกือบครึ่ง
    การลดพนักงานอาจกระทบต่อขวัญกำลังใจและความสามารถในการดำเนินงาน
    การพึ่งพาการสนับสนุนจากรัฐบาลอาจมีข้อจำกัดด้านนโยบายในอนาคต
    หาก Intel ไม่สามารถหาลูกค้ารายใหญ่สำหรับเทคโนโลยี 14A ได้ อาจต้องยกเลิกสายการผลิต
    ตลาดชิปยังแข่งขันสูงจากคู่แข่งอย่าง AMD, Nvidia และ TSMC — Intel ต้องเร่งปรับตัว

    https://www.thestar.com.my/tech/tech-news/2025/09/15/intel-lowers-full-year-expense-target
    💸 “Intel ขายหุ้น Altera ลดต้นทุนปี 2025 — พลิกเกมการเงินหลังขาดทุนหนักในยุคก่อน” หลังจากเผชิญกับภาวะขาดทุนครั้งใหญ่ที่สุดในรอบหลายทศวรรษ Intel ได้ตัดสินใจขายหุ้น 51% ของธุรกิจชิปแบบปรับแต่งได้ Altera ให้กับบริษัทเอกชน Silver Lake ด้วยมูลค่า 3.3 พันล้านดอลลาร์ ซึ่งต่ำกว่าราคาที่ Intel เคยซื้อไว้ในปี 2015 ถึงครึ่งหนึ่ง การขายครั้งนี้ไม่ใช่แค่การปลดภาระ แต่เป็นการปรับโครงสร้างองค์กรครั้งใหญ่ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan ผลจากการขายทำให้ Intel ปรับลดเป้าหมายค่าใช้จ่ายในการดำเนินงานปี 2025 ลงเหลือ 16.8 พันล้านดอลลาร์ จากเดิม 17 พันล้านดอลลาร์ โดยยังคงเป้าหมายปี 2026 ไว้ที่ 16 พันล้านดอลลาร์ การลดค่าใช้จ่ายนี้ช่วยให้ราคาหุ้น Intel พุ่งขึ้นเกือบ 6% และสร้างความมั่นใจให้กับนักลงทุนที่เคยกังวลกับการขาดทุนสะสมกว่า 18.8 พันล้านดอลลาร์ในปี 2024 Altera ซึ่งเคยเป็นหนึ่งในธุรกิจที่ Intel หวังจะใช้ขยายตลาดด้าน programmable chips รายงานรายได้ 816 ล้านดอลลาร์ในครึ่งปีแรกของ 2025 พร้อมกำไรขั้นต้น 55% และค่าใช้จ่ายในการดำเนินงาน 356 ล้านดอลลาร์ การขายหุ้นให้ Silver Lake ทำให้ Intel ไม่ต้องแบกรับค่าใช้จ่ายเหล่านี้อีกต่อไป และสามารถโฟกัสกับธุรกิจหลักได้มากขึ้น นอกจากนี้ Intel ยังมีการปรับโครงสร้างองค์กร เช่น ลดจำนวนพนักงานลงกว่า 20% และเปลี่ยนแปลงทีมบริหาร พร้อมกับการที่รัฐบาลสหรัฐฯ แปลงเงินสนับสนุนในยุค Biden เป็นหุ้น 10% ในบริษัท ซึ่งสะท้อนถึงความพยายามในการฟื้นฟูสถานะทางการเงินและความสามารถในการแข่งขันในตลาดชิปที่ร้อนแรงขึ้นทุกวัน ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ขายหุ้น 51% ของ Altera ให้ Silver Lake มูลค่า 3.3 พันล้านดอลลาร์ ➡️ ปรับลดเป้าหมายค่าใช้จ่ายปี 2025 เหลือ 16.8 พันล้านดอลลาร์ จากเดิม 17 พันล้าน ➡️ ราคาหุ้น Intel พุ่งขึ้นเกือบ 6% หลังประกาศข่าว ➡️ Altera เคยมีรายได้ 816 ล้านดอลลาร์ในครึ่งปีแรก และกำไรขั้นต้น 55% ✅ การปรับโครงสร้างองค์กร ➡️ CEO คนใหม่ Lip-Bu Tan เน้นลดต้นทุนและปรับโครงสร้าง ➡️ ลดจำนวนพนักงานลงกว่า 20% ภายในสิ้นปี ➡️ รัฐบาลสหรัฐฯ ถือหุ้น 10% ผ่านการแปลงเงินสนับสนุนเป็นทุน ➡️ เป้าหมายปี 2026 ยังคงไว้ที่ 16 พันล้านดอลลาร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Altera เป็นผู้นำด้าน FPGA ซึ่งมีบทบาทสำคัญในตลาด AI และ embedded systems ➡️ Silver Lake เป็นบริษัทลงทุนที่มีประสบการณ์ในการพลิกฟื้นธุรกิจเทคโนโลยี ➡️ การขายหุ้นช่วยลดภาระค่าใช้จ่ายกว่า 356 ล้านดอลลาร์ต่อปี ➡️ Intel ยังถือหุ้น 49% ใน Altera — มีสิทธิ์ร่วมรับผลประโยชน์ในอนาคต ‼️ คำเตือนและข้อจำกัด ⛔ มูลค่าการขาย Altera ต่ำกว่าราคาที่ Intel เคยซื้อไว้ในปี 2015 ถึงเกือบครึ่ง ⛔ การลดพนักงานอาจกระทบต่อขวัญกำลังใจและความสามารถในการดำเนินงาน ⛔ การพึ่งพาการสนับสนุนจากรัฐบาลอาจมีข้อจำกัดด้านนโยบายในอนาคต ⛔ หาก Intel ไม่สามารถหาลูกค้ารายใหญ่สำหรับเทคโนโลยี 14A ได้ อาจต้องยกเลิกสายการผลิต ⛔ ตลาดชิปยังแข่งขันสูงจากคู่แข่งอย่าง AMD, Nvidia และ TSMC — Intel ต้องเร่งปรับตัว https://www.thestar.com.my/tech/tech-news/2025/09/15/intel-lowers-full-year-expense-target
    WWW.THESTAR.COM.MY
    Intel trims full-year expense outlook following Altera stake sale
    (Reuters) - Intel said on Monday it has lowered its full-year 2025 adjusted operating expense target to $16.8 billion, from $17 billion earlier, to reflect the deconsolidation of its programmable chip business, Altera.
    0 Comments 0 Shares 94 Views 0 Reviews
  • “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่”

    Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu

    CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง

    ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน

    แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก

    ความร่วมมือระหว่าง Canonical และ NVIDIA
    Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง
    นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager
    ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA
    รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library

    ผลกระทบต่อวงการพัฒนา AI
    CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning
    การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล
    Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ
    รองรับการใช้งานใน data center, edge computing และ cloud infrastructure

    ข้อมูลเสริมจากภายนอก
    CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด
    Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด
    NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux
    AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน

    https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    🚀 “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่” Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก ✅ ความร่วมมือระหว่าง Canonical และ NVIDIA ➡️ Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง ➡️ นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager ➡️ ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA ➡️ รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library ✅ ผลกระทบต่อวงการพัฒนา AI ➡️ CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning ➡️ การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล ➡️ Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ ➡️ รองรับการใช้งานใน data center, edge computing และ cloud infrastructure ✅ ข้อมูลเสริมจากภายนอก ➡️ CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด ➡️ Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด ➡️ NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux ➡️ AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    9TO5LINUX.COM
    Canonical to Package and Distribute NVIDIA CUDA within Ubuntu's Repositories - 9to5Linux
    Ubuntu maker Canonical announced that it will package and distribute the NVIDIA CUDA toolkit within Ubuntu’s repositories.
    0 Comments 0 Shares 77 Views 0 Reviews
  • เรื่องเล่าจาก Google ในหอพักถึง Searcha Page ข้างเครื่องซักผ้า

    ย้อนกลับไปเมื่อปี 1998 Google เริ่มต้นจากเซิร์ฟเวอร์ที่ประกอบด้วย Duplo blocks ในหอพักมหาวิทยาลัย Stanford และมีฐานข้อมูลเพียง 24 ล้านหน้าเว็บ วันนี้ Google มีดัชนีมากกว่า 400 พันล้านรายการ และต้องใช้ศูนย์ข้อมูลขนาดมหึมาเพื่อรองรับการค้นหาทั่วโลก

    แต่ Ryan Pearce นักพัฒนาที่เคยทำงานด้าน enterprise software และเกม กลับเลือกเส้นทางที่ต่างออกไป—เขาสร้าง Searcha Page และ Seek Ninja ซึ่งเป็น search engine แบบ self-hosted ที่ตั้งอยู่ในห้องซักผ้าของบ้านตัวเอง โดยใช้เซิร์ฟเวอร์เก่าที่ประกอบจากชิ้นส่วนมือสอง และ CPU AMD EPYC 7532 รุ่นปี 2020 ที่ตอนนี้หาซื้อได้ในราคาต่ำกว่า $200

    ระบบของเขาไม่ใช้ cloud และไม่พึ่ง AI แบบสรุปผลลัพธ์ แต่ใช้ machine learning เพื่อขยายคำค้นหาและเข้าใจบริบทของผู้ใช้ ทำให้สามารถให้ผลลัพธ์ที่แม่นยำโดยใช้ทรัพยากรเพียงเศษเสี้ยวของ Google

    แม้จะเริ่มจากเซิร์ฟเวอร์สองตัวที่วางบนเก้าอี้ในห้องซักผ้า และต้องเจาะผนังเพื่อเดินสาย LAN แต่ Pearce ก็สามารถสร้างฐานข้อมูลกว่า 2 พันล้านรายการ และตั้งเป้าจะเพิ่มเป็น 4 พันล้านภายใน 6 เดือน โดยเขาเขียนโค้ดไปแล้วกว่า 150,000 บรรทัด และปรับแต่งมากกว่า 500,000 บรรทัดเพื่อให้ระบบทำงานได้โดยไม่ต้องพึ่ง LLM

    การสร้าง Searcha Page และ Seek Ninja
    เป็น search engine แบบ self-hosted ที่ตั้งอยู่ในห้องซักผ้า
    ใช้เซิร์ฟเวอร์เก่าพร้อม CPU AMD EPYC 7532 จำนวน 32 คอร์
    มีฐานข้อมูลกว่า 2 พันล้านรายการ และตั้งเป้าเพิ่มเป็น 4 พันล้าน

    แนวทางการใช้ AI
    ไม่ใช้ LLM หรือ AI ที่สรุปผลลัพธ์
    ใช้ machine learning เพื่อขยายคำค้นหาและเข้าใจบริบท
    ลดการพึ่งพาโมเดลใหญ่เพื่อให้ระบบเบาและควบคุมได้

    การออกแบบระบบและการตั้งค่า
    เซิร์ฟเวอร์วางบนเก้าอี้ในห้องซักผ้า พร้อมเจาะผนังเดินสาย LAN
    มีระบบระบายความร้อนแบบ DIY ด้วยท่ออากาศ
    เคยวางในห้องนอนแต่ร้อนเกินไปจนต้องย้าย

    ความสามารถของระบบ
    ให้ผลลัพธ์ที่แม่นยำแม้ใช้ทรัพยากรน้อย
    มีความเร็วในการค้นหาที่ดีขึ้นในช่วงหลัง
    รองรับการใช้งานจริงผ่านเว็บไซต์ Searcha Page และ Seek Ninja

    แผนในอนาคต
    อาจย้ายระบบไปยังศูนย์ข้อมูลขนาดเล็กใกล้บ้าน
    ไม่ต้องการใช้ cloud และต้องการควบคุมระบบเอง
    ใช้รายได้จาก affiliate ads เพื่อสนับสนุนการพัฒนา

    https://www.tomshardware.com/software/search-engines/ai-driven-search-engine-running-inside-a-laundry-room-aims-to-rival-google-and-you-can-try-it-yourself-programmer-harnesses-old-server-parts-and-ai-to-deliver-quality-results
    🎙️ เรื่องเล่าจาก Google ในหอพักถึง Searcha Page ข้างเครื่องซักผ้า ย้อนกลับไปเมื่อปี 1998 Google เริ่มต้นจากเซิร์ฟเวอร์ที่ประกอบด้วย Duplo blocks ในหอพักมหาวิทยาลัย Stanford และมีฐานข้อมูลเพียง 24 ล้านหน้าเว็บ วันนี้ Google มีดัชนีมากกว่า 400 พันล้านรายการ และต้องใช้ศูนย์ข้อมูลขนาดมหึมาเพื่อรองรับการค้นหาทั่วโลก แต่ Ryan Pearce นักพัฒนาที่เคยทำงานด้าน enterprise software และเกม กลับเลือกเส้นทางที่ต่างออกไป—เขาสร้าง Searcha Page และ Seek Ninja ซึ่งเป็น search engine แบบ self-hosted ที่ตั้งอยู่ในห้องซักผ้าของบ้านตัวเอง โดยใช้เซิร์ฟเวอร์เก่าที่ประกอบจากชิ้นส่วนมือสอง และ CPU AMD EPYC 7532 รุ่นปี 2020 ที่ตอนนี้หาซื้อได้ในราคาต่ำกว่า $200 ระบบของเขาไม่ใช้ cloud และไม่พึ่ง AI แบบสรุปผลลัพธ์ แต่ใช้ machine learning เพื่อขยายคำค้นหาและเข้าใจบริบทของผู้ใช้ ทำให้สามารถให้ผลลัพธ์ที่แม่นยำโดยใช้ทรัพยากรเพียงเศษเสี้ยวของ Google แม้จะเริ่มจากเซิร์ฟเวอร์สองตัวที่วางบนเก้าอี้ในห้องซักผ้า และต้องเจาะผนังเพื่อเดินสาย LAN แต่ Pearce ก็สามารถสร้างฐานข้อมูลกว่า 2 พันล้านรายการ และตั้งเป้าจะเพิ่มเป็น 4 พันล้านภายใน 6 เดือน โดยเขาเขียนโค้ดไปแล้วกว่า 150,000 บรรทัด และปรับแต่งมากกว่า 500,000 บรรทัดเพื่อให้ระบบทำงานได้โดยไม่ต้องพึ่ง LLM ✅ การสร้าง Searcha Page และ Seek Ninja ➡️ เป็น search engine แบบ self-hosted ที่ตั้งอยู่ในห้องซักผ้า ➡️ ใช้เซิร์ฟเวอร์เก่าพร้อม CPU AMD EPYC 7532 จำนวน 32 คอร์ ➡️ มีฐานข้อมูลกว่า 2 พันล้านรายการ และตั้งเป้าเพิ่มเป็น 4 พันล้าน ✅ แนวทางการใช้ AI ➡️ ไม่ใช้ LLM หรือ AI ที่สรุปผลลัพธ์ ➡️ ใช้ machine learning เพื่อขยายคำค้นหาและเข้าใจบริบท ➡️ ลดการพึ่งพาโมเดลใหญ่เพื่อให้ระบบเบาและควบคุมได้ ✅ การออกแบบระบบและการตั้งค่า ➡️ เซิร์ฟเวอร์วางบนเก้าอี้ในห้องซักผ้า พร้อมเจาะผนังเดินสาย LAN ➡️ มีระบบระบายความร้อนแบบ DIY ด้วยท่ออากาศ ➡️ เคยวางในห้องนอนแต่ร้อนเกินไปจนต้องย้าย ✅ ความสามารถของระบบ ➡️ ให้ผลลัพธ์ที่แม่นยำแม้ใช้ทรัพยากรน้อย ➡️ มีความเร็วในการค้นหาที่ดีขึ้นในช่วงหลัง ➡️ รองรับการใช้งานจริงผ่านเว็บไซต์ Searcha Page และ Seek Ninja ✅ แผนในอนาคต ➡️ อาจย้ายระบบไปยังศูนย์ข้อมูลขนาดเล็กใกล้บ้าน ➡️ ไม่ต้องการใช้ cloud และต้องการควบคุมระบบเอง ➡️ ใช้รายได้จาก affiliate ads เพื่อสนับสนุนการพัฒนา https://www.tomshardware.com/software/search-engines/ai-driven-search-engine-running-inside-a-laundry-room-aims-to-rival-google-and-you-can-try-it-yourself-programmer-harnesses-old-server-parts-and-ai-to-deliver-quality-results
    0 Comments 0 Shares 121 Views 0 Reviews
  • เรื่องเล่าจาก XMP ถึงศาลกลาง: เมื่อความเร็ว RAM กลายเป็นเรื่องฟ้องร้อง

    หลายคนที่ซื้อ RAM รุ่น Vengeance หรือ Dominator ของ Corsair ระหว่างปี 2018–2025 อาจเคยเห็นตัวเลขสวย ๆ อย่าง DDR4-3600 หรือ DDR5-6400 บนกล่อง แล้วคาดหวังว่าเสียบแล้วจะได้ความเร็วตามนั้นทันที แต่ความจริงคือ RAM เหล่านี้ทำงานที่ความเร็วมาตรฐาน JEDEC (เช่น DDR4-2133 หรือ DDR5-4800) โดยค่าเริ่มต้น และต้องเข้าไปเปิดโปรไฟล์ XMP หรือ EXPO ใน BIOS เพื่อให้ได้ความเร็วที่โฆษณาไว้

    คดี McKinney v. Corsair Gaming, Inc. ถูกฟ้องในปี 2022 โดยกล่าวหาว่า Corsair โฆษณา RAM ด้วยความเร็วที่ต้องใช้การโอเวอร์คล็อกโดยไม่แจ้งให้ชัดเจน ทำให้ผู้บริโภคเข้าใจผิดและจ่ายเงินแพงขึ้นโดยไม่รู้ว่าอาจไม่ได้ความเร็วตามที่ระบุไว้เลย หากระบบของตนไม่รองรับหรือไม่เสถียรพอ

    แม้ Corsair จะปฏิเสธว่าไม่ได้ทำผิด แต่สุดท้ายก็ยอมตกลงจ่ายเงินชดเชย และจะปรับข้อความบนกล่องและหน้าเว็บให้ชัดเจนขึ้น เช่น การใช้คำว่า “up to” และเพิ่มคำเตือนว่าเป็นความเร็วจากการโอเวอร์คล็อก

    ผู้ซื้อในสหรัฐฯ ที่เคยซื้อ RAM รุ่นที่เข้าข่ายสามารถยื่นขอเงินชดเชยได้สูงสุด 5 รายการ โดยไม่ต้องมีใบเสร็จสำหรับเคลมเล็ก ๆ และสามารถยื่นได้จนถึงวันที่ 28 ตุลาคม 2025 ผ่านเว็บไซต์

    รายละเอียดของคดีความ
    คดี McKinney v. Corsair Gaming, Inc. เริ่มในปี 2022
    Corsair ถูกกล่าวหาว่าโฆษณาความเร็ว RAM แบบ XMP โดยไม่แจ้งว่าเป็นการโอเวอร์คล็อก
    RAM ทำงานที่ความเร็ว JEDEC โดยค่าเริ่มต้น ต้องเปิด XMP/EXPO ใน BIOS

    ผลการตกลงและการชดเชย
    Corsair ยอมจ่ายเงินชดเชยรวม $5.5 ล้าน
    จะปรับข้อความบนกล่องและหน้าเว็บให้ชัดเจนขึ้น
    ผู้ซื้อในสหรัฐฯ ระหว่างปี 2018–2025 สามารถยื่นขอเงินคืนได้

    วิธีการยื่นเคลม
    ยื่นได้สูงสุด 5 รายการต่อคน
    ไม่ต้องใช้ใบเสร็จสำหรับเคลมเล็ก ๆ
    ยื่นผ่านเว็บไซต์ที่ศาลแต่งตั้งภายในวันที่ 28 ตุลาคม 2025

    ข้อมูลเพิ่มเติมเกี่ยวกับ XMP/EXPO
    XMP (Intel) และ EXPO (AMD) เป็นโปรไฟล์โอเวอร์คล็อกที่ต้องเปิดใช้งานใน BIOS
    ความเร็วที่โฆษณาไม่ใช่ความเร็วที่ได้ทันทีหลังติดตั้ง
    ความเสถียรขึ้นอยู่กับ CPU, เมนบอร์ด และคุณภาพของ RAM

    https://www.tomshardware.com/pc-components/ram/corsair-lost-a-lawsuit-over-advertising-overclocked-memory-speeds-and-you-could-get-paid-the-settlement-covers-u-s-purchases-between-2018-and-2025
    🎙️ เรื่องเล่าจาก XMP ถึงศาลกลาง: เมื่อความเร็ว RAM กลายเป็นเรื่องฟ้องร้อง หลายคนที่ซื้อ RAM รุ่น Vengeance หรือ Dominator ของ Corsair ระหว่างปี 2018–2025 อาจเคยเห็นตัวเลขสวย ๆ อย่าง DDR4-3600 หรือ DDR5-6400 บนกล่อง แล้วคาดหวังว่าเสียบแล้วจะได้ความเร็วตามนั้นทันที แต่ความจริงคือ RAM เหล่านี้ทำงานที่ความเร็วมาตรฐาน JEDEC (เช่น DDR4-2133 หรือ DDR5-4800) โดยค่าเริ่มต้น และต้องเข้าไปเปิดโปรไฟล์ XMP หรือ EXPO ใน BIOS เพื่อให้ได้ความเร็วที่โฆษณาไว้ คดี McKinney v. Corsair Gaming, Inc. ถูกฟ้องในปี 2022 โดยกล่าวหาว่า Corsair โฆษณา RAM ด้วยความเร็วที่ต้องใช้การโอเวอร์คล็อกโดยไม่แจ้งให้ชัดเจน ทำให้ผู้บริโภคเข้าใจผิดและจ่ายเงินแพงขึ้นโดยไม่รู้ว่าอาจไม่ได้ความเร็วตามที่ระบุไว้เลย หากระบบของตนไม่รองรับหรือไม่เสถียรพอ แม้ Corsair จะปฏิเสธว่าไม่ได้ทำผิด แต่สุดท้ายก็ยอมตกลงจ่ายเงินชดเชย และจะปรับข้อความบนกล่องและหน้าเว็บให้ชัดเจนขึ้น เช่น การใช้คำว่า “up to” และเพิ่มคำเตือนว่าเป็นความเร็วจากการโอเวอร์คล็อก ผู้ซื้อในสหรัฐฯ ที่เคยซื้อ RAM รุ่นที่เข้าข่ายสามารถยื่นขอเงินชดเชยได้สูงสุด 5 รายการ โดยไม่ต้องมีใบเสร็จสำหรับเคลมเล็ก ๆ และสามารถยื่นได้จนถึงวันที่ 28 ตุลาคม 2025 ผ่านเว็บไซต์ ✅ รายละเอียดของคดีความ ➡️ คดี McKinney v. Corsair Gaming, Inc. เริ่มในปี 2022 ➡️ Corsair ถูกกล่าวหาว่าโฆษณาความเร็ว RAM แบบ XMP โดยไม่แจ้งว่าเป็นการโอเวอร์คล็อก ➡️ RAM ทำงานที่ความเร็ว JEDEC โดยค่าเริ่มต้น ต้องเปิด XMP/EXPO ใน BIOS ✅ ผลการตกลงและการชดเชย ➡️ Corsair ยอมจ่ายเงินชดเชยรวม $5.5 ล้าน ➡️ จะปรับข้อความบนกล่องและหน้าเว็บให้ชัดเจนขึ้น ➡️ ผู้ซื้อในสหรัฐฯ ระหว่างปี 2018–2025 สามารถยื่นขอเงินคืนได้ ✅ วิธีการยื่นเคลม ➡️ ยื่นได้สูงสุด 5 รายการต่อคน ➡️ ไม่ต้องใช้ใบเสร็จสำหรับเคลมเล็ก ๆ ➡️ ยื่นผ่านเว็บไซต์ที่ศาลแต่งตั้งภายในวันที่ 28 ตุลาคม 2025 ✅ ข้อมูลเพิ่มเติมเกี่ยวกับ XMP/EXPO ➡️ XMP (Intel) และ EXPO (AMD) เป็นโปรไฟล์โอเวอร์คล็อกที่ต้องเปิดใช้งานใน BIOS ➡️ ความเร็วที่โฆษณาไม่ใช่ความเร็วที่ได้ทันทีหลังติดตั้ง ➡️ ความเสถียรขึ้นอยู่กับ CPU, เมนบอร์ด และคุณภาพของ RAM https://www.tomshardware.com/pc-components/ram/corsair-lost-a-lawsuit-over-advertising-overclocked-memory-speeds-and-you-could-get-paid-the-settlement-covers-u-s-purchases-between-2018-and-2025
    0 Comments 0 Shares 103 Views 0 Reviews
  • เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี”

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน

    ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่

    แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure

    AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป

    Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง
    กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning
    xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload
    Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware

    จุดแข็งของ AMD ในตลาด AI
    MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7
    มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s
    ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน

    การขยาย ecosystem ของ AMD
    ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก
    มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ
    OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid

    แผนการเปิดตัว MI450 และ Helios rack
    ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G
    รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps
    ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput

    https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    🎙️ เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี” Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่ แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป ✅ Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง ➡️ กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning ➡️ xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload ➡️ Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware ✅ จุดแข็งของ AMD ในตลาด AI ➡️ MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7 ➡️ มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s ➡️ ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน ✅ การขยาย ecosystem ของ AMD ➡️ ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก ➡️ มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ ➡️ OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid ✅ แผนการเปิดตัว MI450 และ Helios rack ➡️ ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G ➡️ รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps ➡️ ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    WCCFTECH.COM
    Elon Musk ‘Endorses’ AMD's AI Hardware for Small to Medium AI Models, Implying That There's Potential to Ease Reliance on NVIDIA
    Billionaire Elon Musk has tweeted on the performance of AMD's AI hardware, claiming that it is sufficient for small and medium AI models.
    0 Comments 0 Shares 132 Views 0 Reviews
  • เรื่องเล่าจาก MI355X สู่ MI450: เมื่อ AMD ประกาศว่า “ไม่มีข้ออ้าง” สำหรับการเลือกใช้ AI ของตน

    ในงาน Goldman Sachs Communacopia Technology Conference ปี 2025 Forrest Norrod รองประธานฝ่าย Data Center ของ AMD ได้ประกาศอย่างมั่นใจว่า Instinct MI450 จะเป็นจุดเปลี่ยนของ AMD ในตลาด AI โดยเปรียบเทียบว่าเป็น “Milan Moment” เหมือนที่ EPYC Milan เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์

    ที่ผ่านมา AMD ทำได้ดีในด้าน inference ด้วย MI300, MI325 และ MI355 แต่ยังตามหลัง NVIDIA ในด้าน training เพราะเปิดตัวช้ากว่า แต่ MI450 จะเปลี่ยนสิ่งนั้น โดยมาพร้อมสถาปัตยกรรมใหม่, HBM4 สูงสุด 432 GB ต่อ GPU, และการเชื่อมต่อแบบ rack-scale ผ่าน Helios rack ที่ให้แบนด์วิดธ์สูงถึง 1.4 PBps

    Helios rack จะใช้ GPU MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU รุ่นใหม่ที่มีถึง 256 คอร์ และ NIC Vulcano 800G ซึ่งทั้งหมดนี้จะทำงานร่วมกันผ่าน ROCm software stack ที่ AMD พัฒนาขึ้นเพื่อให้เทียบเท่ากับ CUDA ของ NVIDIA

    AMD ยังเน้นว่า Helios rack จะให้ประสิทธิภาพการฝึกโมเดล AI สูงกว่า Vera Rubin ของ NVIDIA ถึง 50% ในด้าน memory capacity และ bandwidth โดยใช้ดีไซน์แบบ double-wide rack เพื่อเพิ่มความหนาแน่นและประสิทธิภาพการระบายความร้อน

    การเปิดตัว Instinct MI450 และ Helios rack
    MI450 เป็น GPU สำหรับ AI training ที่ใช้ HBM4 สูงสุด 432 GB
    Helios rack ใช้ MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU และ Vulcano NIC
    ให้แบนด์วิดธ์รวม 1.4 PBps และ tensor performance สูงถึง 31 exaflops

    จุดเปลี่ยนของ AMD ในตลาด AI
    MI450 ถูกเปรียบเทียบว่าเป็น “Milan Moment” ของฝั่ง AI
    ROCm software stack ได้รับการปรับปรุงเพื่อเทียบเท่า CUDA
    AMD ตั้งเป้าให้ลูกค้าไม่มีข้ออ้างในการเลือก NVIDIA อีกต่อไป

    การออกแบบเพื่อ hyperscale และ rack-scale
    Helios rack ใช้ดีไซน์ double-wide เพื่อเพิ่มความหนาแน่น
    รองรับ memory capacity มากกว่า Vera Rubin ถึง 50%
    ใช้ระบบแบบ unified platform ที่รวม CPU, GPU, NIC และ software stack

    https://wccftech.com/with-the-mi450-amd-says-there-will-be-no-excuses-no-hesitation-in-choosing-team-red-over-nvidia/
    🎙️ เรื่องเล่าจาก MI355X สู่ MI450: เมื่อ AMD ประกาศว่า “ไม่มีข้ออ้าง” สำหรับการเลือกใช้ AI ของตน ในงาน Goldman Sachs Communacopia Technology Conference ปี 2025 Forrest Norrod รองประธานฝ่าย Data Center ของ AMD ได้ประกาศอย่างมั่นใจว่า Instinct MI450 จะเป็นจุดเปลี่ยนของ AMD ในตลาด AI โดยเปรียบเทียบว่าเป็น “Milan Moment” เหมือนที่ EPYC Milan เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์ ที่ผ่านมา AMD ทำได้ดีในด้าน inference ด้วย MI300, MI325 และ MI355 แต่ยังตามหลัง NVIDIA ในด้าน training เพราะเปิดตัวช้ากว่า แต่ MI450 จะเปลี่ยนสิ่งนั้น โดยมาพร้อมสถาปัตยกรรมใหม่, HBM4 สูงสุด 432 GB ต่อ GPU, และการเชื่อมต่อแบบ rack-scale ผ่าน Helios rack ที่ให้แบนด์วิดธ์สูงถึง 1.4 PBps Helios rack จะใช้ GPU MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU รุ่นใหม่ที่มีถึง 256 คอร์ และ NIC Vulcano 800G ซึ่งทั้งหมดนี้จะทำงานร่วมกันผ่าน ROCm software stack ที่ AMD พัฒนาขึ้นเพื่อให้เทียบเท่ากับ CUDA ของ NVIDIA AMD ยังเน้นว่า Helios rack จะให้ประสิทธิภาพการฝึกโมเดล AI สูงกว่า Vera Rubin ของ NVIDIA ถึง 50% ในด้าน memory capacity และ bandwidth โดยใช้ดีไซน์แบบ double-wide rack เพื่อเพิ่มความหนาแน่นและประสิทธิภาพการระบายความร้อน ✅ การเปิดตัว Instinct MI450 และ Helios rack ➡️ MI450 เป็น GPU สำหรับ AI training ที่ใช้ HBM4 สูงสุด 432 GB ➡️ Helios rack ใช้ MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU และ Vulcano NIC ➡️ ให้แบนด์วิดธ์รวม 1.4 PBps และ tensor performance สูงถึง 31 exaflops ✅ จุดเปลี่ยนของ AMD ในตลาด AI ➡️ MI450 ถูกเปรียบเทียบว่าเป็น “Milan Moment” ของฝั่ง AI ➡️ ROCm software stack ได้รับการปรับปรุงเพื่อเทียบเท่า CUDA ➡️ AMD ตั้งเป้าให้ลูกค้าไม่มีข้ออ้างในการเลือก NVIDIA อีกต่อไป ✅ การออกแบบเพื่อ hyperscale และ rack-scale ➡️ Helios rack ใช้ดีไซน์ double-wide เพื่อเพิ่มความหนาแน่น ➡️ รองรับ memory capacity มากกว่า Vera Rubin ถึง 50% ➡️ ใช้ระบบแบบ unified platform ที่รวม CPU, GPU, NIC และ software stack https://wccftech.com/with-the-mi450-amd-says-there-will-be-no-excuses-no-hesitation-in-choosing-team-red-over-nvidia/
    WCCFTECH.COM
    With the Next-Gen MI450 AI Lineup, AMD Says There Will Be ‘No Excuses, No Hesitation’ in Choosing Team Red Over NVIDIA In AI Workloads
    AMD's Instinct MI450 will be a 'decisive' release, as according to the firm's executive, the AI playground would be leveled with NVIDIA.
    0 Comments 0 Shares 132 Views 0 Reviews
  • เรื่องเล่าจาก VM สู่ VMSCAPE: เมื่อแขกในระบบกลายเป็นขโมยข้อมูลของเจ้าบ้าน

    นักวิจัยจาก ETH Zurich ได้ค้นพบช่องโหว่ใหม่ในกลุ่มการโจมตีแบบ Spectre-BTI (Branch Target Injection) ที่ชื่อว่า VMSCAPE ซึ่งเปิดทางให้ virtual machine (VM) ที่เป็น guest สามารถขโมยข้อมูลจาก host ได้โดยไม่ต้องแก้ไขซอฟต์แวร์ของ host เลย

    ช่องโหว่นี้เกิดจากการที่ branch predictor ของ CPU ไม่ถูกแยกอย่างปลอดภัยระหว่าง guest กับ host ทำให้ VM สามารถใช้การคาดเดาเส้นทางการทำงานของ CPU เพื่อเข้าถึงข้อมูลลับ เช่น disk encryption keys หรือ session credentials ได้

    VMSCAPE ส่งผลกระทบต่อระบบคลาวด์ที่ใช้ KVM/QEMU บน CPU ของ AMD Zen 1–5 และ Intel Coffee Lake ซึ่งเป็นสถาปัตยกรรมที่ยังคงใช้ branch prediction แบบเดิม โดยช่องโหว่นี้ได้รับการลงทะเบียนเป็น CVE-2025-40300 แล้ว แต่ยังไม่มีคะแนนความรุนแรงอย่างเป็นทางการ

    นักวิจัยเสนอวิธีแก้ไขที่เรียบง่ายแต่ได้ผล คือการ “flush” branch predictor ทุกครั้งที่ VM ออกจากการทำงาน (VMEXIT) โดยใช้คำสั่ง IBPB ซึ่งสามารถป้องกันการโจมตีได้โดยไม่กระทบต่อประสิทธิภาพของระบบ

    แม้ Intel และ AMD จะเตรียมออกเอกสารและแพตช์เพื่อแก้ไข แต่ช่องโหว่นี้แสดงให้เห็นว่าการป้องกัน Spectre ที่มีอยู่ในปัจจุบันยังไม่เพียงพอ โดยเฉพาะในระบบที่มีการใช้งาน VM อย่างแพร่หลาย

    ช่องโหว่ VMSCAPE ที่ค้นพบโดย ETH Zurich
    เป็นการโจมตีแบบ Spectre-BTI ที่ใช้ branch predictor เพื่อขโมยข้อมูล
    ไม่ต้องแก้ไข host software ก็สามารถเจาะข้อมูลได้
    ส่งผลกระทบต่อระบบที่ใช้ KVM/QEMU บน AMD Zen 1–5 และ Intel Coffee Lake

    การลงทะเบียนและการตอบสนอง
    ช่องโหว่นี้ได้รับรหัส CVE-2025-40300
    AMD และ Intel เตรียมออกเอกสารและแพตช์เพื่อแก้ไข
    Linux community เตรียมออก mitigation พร้อมกับการเปิดเผยช่องโหว่

    วิธีแก้ไขที่เสนอโดยนักวิจัย
    ใช้ IBPB เพื่อ flush branch predictor ทุกครั้งที่ VMEXIT
    ทดสอบแล้วพบว่าไม่มีผลกระทบต่อประสิทธิภาพ
    เป็นวิธีที่สามารถนำไปใช้ได้จริงในระบบคลาวด์

    ความหมายต่อวงการคลาวด์และความปลอดภัย
    แสดงให้เห็นว่า VM isolation ยังไม่ปลอดภัยพอ
    การป้องกัน Spectre ที่มีอยู่ยังไม่ครอบคลุมทุกกรณี
    จำเป็นต้องมีการปรับปรุงระบบความปลอดภัยในระดับสถาปัตยกรรม

    https://www.techradar.com/pro/security/new-spectre-based-cpu-vulnerability-allows-guests-to-steal-sensitive-data-from-the-cloud
    🎙️ เรื่องเล่าจาก VM สู่ VMSCAPE: เมื่อแขกในระบบกลายเป็นขโมยข้อมูลของเจ้าบ้าน นักวิจัยจาก ETH Zurich ได้ค้นพบช่องโหว่ใหม่ในกลุ่มการโจมตีแบบ Spectre-BTI (Branch Target Injection) ที่ชื่อว่า VMSCAPE ซึ่งเปิดทางให้ virtual machine (VM) ที่เป็น guest สามารถขโมยข้อมูลจาก host ได้โดยไม่ต้องแก้ไขซอฟต์แวร์ของ host เลย ช่องโหว่นี้เกิดจากการที่ branch predictor ของ CPU ไม่ถูกแยกอย่างปลอดภัยระหว่าง guest กับ host ทำให้ VM สามารถใช้การคาดเดาเส้นทางการทำงานของ CPU เพื่อเข้าถึงข้อมูลลับ เช่น disk encryption keys หรือ session credentials ได้ VMSCAPE ส่งผลกระทบต่อระบบคลาวด์ที่ใช้ KVM/QEMU บน CPU ของ AMD Zen 1–5 และ Intel Coffee Lake ซึ่งเป็นสถาปัตยกรรมที่ยังคงใช้ branch prediction แบบเดิม โดยช่องโหว่นี้ได้รับการลงทะเบียนเป็น CVE-2025-40300 แล้ว แต่ยังไม่มีคะแนนความรุนแรงอย่างเป็นทางการ นักวิจัยเสนอวิธีแก้ไขที่เรียบง่ายแต่ได้ผล คือการ “flush” branch predictor ทุกครั้งที่ VM ออกจากการทำงาน (VMEXIT) โดยใช้คำสั่ง IBPB ซึ่งสามารถป้องกันการโจมตีได้โดยไม่กระทบต่อประสิทธิภาพของระบบ แม้ Intel และ AMD จะเตรียมออกเอกสารและแพตช์เพื่อแก้ไข แต่ช่องโหว่นี้แสดงให้เห็นว่าการป้องกัน Spectre ที่มีอยู่ในปัจจุบันยังไม่เพียงพอ โดยเฉพาะในระบบที่มีการใช้งาน VM อย่างแพร่หลาย ✅ ช่องโหว่ VMSCAPE ที่ค้นพบโดย ETH Zurich ➡️ เป็นการโจมตีแบบ Spectre-BTI ที่ใช้ branch predictor เพื่อขโมยข้อมูล ➡️ ไม่ต้องแก้ไข host software ก็สามารถเจาะข้อมูลได้ ➡️ ส่งผลกระทบต่อระบบที่ใช้ KVM/QEMU บน AMD Zen 1–5 และ Intel Coffee Lake ✅ การลงทะเบียนและการตอบสนอง ➡️ ช่องโหว่นี้ได้รับรหัส CVE-2025-40300 ➡️ AMD และ Intel เตรียมออกเอกสารและแพตช์เพื่อแก้ไข ➡️ Linux community เตรียมออก mitigation พร้อมกับการเปิดเผยช่องโหว่ ✅ วิธีแก้ไขที่เสนอโดยนักวิจัย ➡️ ใช้ IBPB เพื่อ flush branch predictor ทุกครั้งที่ VMEXIT ➡️ ทดสอบแล้วพบว่าไม่มีผลกระทบต่อประสิทธิภาพ ➡️ เป็นวิธีที่สามารถนำไปใช้ได้จริงในระบบคลาวด์ ✅ ความหมายต่อวงการคลาวด์และความปลอดภัย ➡️ แสดงให้เห็นว่า VM isolation ยังไม่ปลอดภัยพอ ➡️ การป้องกัน Spectre ที่มีอยู่ยังไม่ครอบคลุมทุกกรณี ➡️ จำเป็นต้องมีการปรับปรุงระบบความปลอดภัยในระดับสถาปัตยกรรม https://www.techradar.com/pro/security/new-spectre-based-cpu-vulnerability-allows-guests-to-steal-sensitive-data-from-the-cloud
    0 Comments 0 Shares 163 Views 0 Reviews
  • “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล”

    SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน

    HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ

    SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้

    นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น

    การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง

    จุดเด่นของ HBM4 จาก SK hynix
    เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน
    เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า
    ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40%
    เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69%

    เทคโนโลยีการผลิตและมาตรฐาน
    ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน
    ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต
    ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps
    พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้

    ข้อมูลเสริมจากภายนอก
    HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E
    ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD
    ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล
    SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด

    https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    🚀 “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล” SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้ นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง ✅ จุดเด่นของ HBM4 จาก SK hynix ➡️ เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน ➡️ เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40% ➡️ เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% ✅ เทคโนโลยีการผลิตและมาตรฐาน ➡️ ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน ➡️ ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต ➡️ ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps ➡️ พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้ ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E ➡️ ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD ➡️ ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล ➡️ SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    WWW.TECHPOWERUP.COM
    SK Hynix Completes World's First HBM4 Development and Readies Mass Production
    SK hynix Inc. announced today that it has completed development and finished preparation of HBM4, a next generation memory product for ultra-high performance AI, mass production for the world's first time. SK hynix said that the company has successfully completed development and based on this tec...
    0 Comments 0 Shares 186 Views 0 Reviews
  • “จีนควรเลิกใช้ GPU จากสหรัฐฯ — ผู้เชี่ยวชาญเตือนโมเดลพัฒนา AI ปัจจุบันอาจ ‘อันตรายถึงชีวิต’ หากไม่เปลี่ยนแนวทาง”

    Wei Shaojun รองประธานสมาคมอุตสาหกรรมเซมิคอนดักเตอร์จีน และที่ปรึกษาระดับสูงของรัฐบาลจีน ได้ออกมาเรียกร้องให้จีนและประเทศในเอเชียหยุดพึ่งพา GPU จาก Nvidia และ AMD ในการพัฒนา AI โดยเฉพาะการฝึกโมเดลภาษาใหญ่ (LLM) เช่น ChatGPT และ DeepSeek ซึ่งเขาเห็นว่าเป็นการเลียนแบบแนวทางของสหรัฐฯ ที่อาจนำไปสู่ความเสี่ยงระยะยาวทั้งด้านเทคโนโลยีและความมั่นคง

    Wei กล่าวในเวทีที่สิงคโปร์ว่า โมเดลการพัฒนา AI แบบอิง GPU นั้น “อาจถึงขั้นอันตราย” หากไม่เปลี่ยนแนวทาง เพราะมันทำให้ประเทศในเอเชียขาดอำนาจในการควบคุมโครงสร้างพื้นฐานของตนเอง และติดกับดักการพึ่งพาเทคโนโลยีจากต่างชาติ โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิป AI ประสิทธิภาพสูงไปยังจีนตั้งแต่ปี 2023

    แม้จีนจะยังตามหลังสหรัฐฯ และไต้หวันในด้านการผลิตเซมิคอนดักเตอร์ แต่ Wei ยกตัวอย่าง DeepSeek ซึ่งสามารถพัฒนาโมเดล AI ที่แข่งขันกับ OpenAI ได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูงเป็นหลักฐานว่า “อัลกอริธึมที่ดี” สำคัญกว่าฮาร์ดแวร์ล้ำสมัย

    เขาเสนอให้จีนพัฒนาโปรเซสเซอร์เฉพาะทางสำหรับการฝึกโมเดล AI แทนการใช้ GPU ที่เดิมออกแบบมาเพื่อกราฟิก พร้อมย้ำว่าจีนมีเงินทุนและความมุ่งมั่นเพียงพอที่จะสร้างระบบนิเวศด้านเซมิคอนดักเตอร์ของตนเอง แม้จะเผชิญแรงกดดันจากการควบคุมการส่งออกของสหรัฐฯ มาหลายปี

    ข้อมูลสำคัญจากคำแถลงของ Wei Shaojun
    เรียกร้องให้จีนและเอเชียหยุดใช้ GPU จาก Nvidia และ AMD ในการพัฒนา AI
    วิจารณ์ว่าการเลียนแบบแนวทางสหรัฐฯ ทำให้ขาดอำนาจควบคุมเทคโนโลยี
    เสนอให้พัฒนาโปรเซสเซอร์เฉพาะทางสำหรับ LLM แทน GPU ที่ออกแบบเพื่อกราฟิก
    ยกตัวอย่าง DeepSeek เป็นหลักฐานว่าจีนสามารถพัฒนาอัลกอริธึมได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูง

    สถานการณ์ด้านฮาร์ดแวร์และการส่งออก
    สหรัฐฯ จำกัดการส่งออกชิป AI และ HPC ไปยังจีนตั้งแต่ปี 2023
    Nvidia H20 ถูกลดสเปกเพื่อให้ผ่านข้อจำกัด แต่จีนยังไม่ไว้วางใจ
    จีนมีความคืบหน้าในการผลิตชิป แต่ยังตามหลังสหรัฐฯ และไต้หวันหลายปี
    รัฐบาลจีนผลักดันให้บริษัทในประเทศหลีกเลี่ยงการใช้ GPU จากสหรัฐฯ

    ข้อมูลเสริมจากภายนอก
    Nvidia ครองตลาด AI ด้วย CUDA และ Tensor Core ที่ออกแบบมาเพื่อ deep learning
    GPU ของ Nvidia กลายเป็นมาตรฐานในวงการ AI เพราะประสิทธิภาพสูงและ ecosystem ครบ
    ASIC เฉพาะทางสำหรับ AI ยังไม่แพร่หลาย แต่มีแนวโน้มเติบโตในอนาคต
    DeepSeek และ Meituan เป็นตัวอย่างของบริษัทจีนที่พัฒนาโมเดล AI โดยเน้นอัลกอริธึมมากกว่าฮาร์ดแวร์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/top-china-silicon-figure-calls-on-country-to-stop-using-nvidia-gpus-for-ai-says-current-ai-development-model-could-become-lethal-if-not-addressed
    🇨🇳 “จีนควรเลิกใช้ GPU จากสหรัฐฯ — ผู้เชี่ยวชาญเตือนโมเดลพัฒนา AI ปัจจุบันอาจ ‘อันตรายถึงชีวิต’ หากไม่เปลี่ยนแนวทาง” Wei Shaojun รองประธานสมาคมอุตสาหกรรมเซมิคอนดักเตอร์จีน และที่ปรึกษาระดับสูงของรัฐบาลจีน ได้ออกมาเรียกร้องให้จีนและประเทศในเอเชียหยุดพึ่งพา GPU จาก Nvidia และ AMD ในการพัฒนา AI โดยเฉพาะการฝึกโมเดลภาษาใหญ่ (LLM) เช่น ChatGPT และ DeepSeek ซึ่งเขาเห็นว่าเป็นการเลียนแบบแนวทางของสหรัฐฯ ที่อาจนำไปสู่ความเสี่ยงระยะยาวทั้งด้านเทคโนโลยีและความมั่นคง Wei กล่าวในเวทีที่สิงคโปร์ว่า โมเดลการพัฒนา AI แบบอิง GPU นั้น “อาจถึงขั้นอันตราย” หากไม่เปลี่ยนแนวทาง เพราะมันทำให้ประเทศในเอเชียขาดอำนาจในการควบคุมโครงสร้างพื้นฐานของตนเอง และติดกับดักการพึ่งพาเทคโนโลยีจากต่างชาติ โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิป AI ประสิทธิภาพสูงไปยังจีนตั้งแต่ปี 2023 แม้จีนจะยังตามหลังสหรัฐฯ และไต้หวันในด้านการผลิตเซมิคอนดักเตอร์ แต่ Wei ยกตัวอย่าง DeepSeek ซึ่งสามารถพัฒนาโมเดล AI ที่แข่งขันกับ OpenAI ได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูงเป็นหลักฐานว่า “อัลกอริธึมที่ดี” สำคัญกว่าฮาร์ดแวร์ล้ำสมัย เขาเสนอให้จีนพัฒนาโปรเซสเซอร์เฉพาะทางสำหรับการฝึกโมเดล AI แทนการใช้ GPU ที่เดิมออกแบบมาเพื่อกราฟิก พร้อมย้ำว่าจีนมีเงินทุนและความมุ่งมั่นเพียงพอที่จะสร้างระบบนิเวศด้านเซมิคอนดักเตอร์ของตนเอง แม้จะเผชิญแรงกดดันจากการควบคุมการส่งออกของสหรัฐฯ มาหลายปี ✅ ข้อมูลสำคัญจากคำแถลงของ Wei Shaojun ➡️ เรียกร้องให้จีนและเอเชียหยุดใช้ GPU จาก Nvidia และ AMD ในการพัฒนา AI ➡️ วิจารณ์ว่าการเลียนแบบแนวทางสหรัฐฯ ทำให้ขาดอำนาจควบคุมเทคโนโลยี ➡️ เสนอให้พัฒนาโปรเซสเซอร์เฉพาะทางสำหรับ LLM แทน GPU ที่ออกแบบเพื่อกราฟิก ➡️ ยกตัวอย่าง DeepSeek เป็นหลักฐานว่าจีนสามารถพัฒนาอัลกอริธึมได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูง ✅ สถานการณ์ด้านฮาร์ดแวร์และการส่งออก ➡️ สหรัฐฯ จำกัดการส่งออกชิป AI และ HPC ไปยังจีนตั้งแต่ปี 2023 ➡️ Nvidia H20 ถูกลดสเปกเพื่อให้ผ่านข้อจำกัด แต่จีนยังไม่ไว้วางใจ ➡️ จีนมีความคืบหน้าในการผลิตชิป แต่ยังตามหลังสหรัฐฯ และไต้หวันหลายปี ➡️ รัฐบาลจีนผลักดันให้บริษัทในประเทศหลีกเลี่ยงการใช้ GPU จากสหรัฐฯ ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia ครองตลาด AI ด้วย CUDA และ Tensor Core ที่ออกแบบมาเพื่อ deep learning ➡️ GPU ของ Nvidia กลายเป็นมาตรฐานในวงการ AI เพราะประสิทธิภาพสูงและ ecosystem ครบ ➡️ ASIC เฉพาะทางสำหรับ AI ยังไม่แพร่หลาย แต่มีแนวโน้มเติบโตในอนาคต ➡️ DeepSeek และ Meituan เป็นตัวอย่างของบริษัทจีนที่พัฒนาโมเดล AI โดยเน้นอัลกอริธึมมากกว่าฮาร์ดแวร์ https://www.tomshardware.com/tech-industry/artificial-intelligence/top-china-silicon-figure-calls-on-country-to-stop-using-nvidia-gpus-for-ai-says-current-ai-development-model-could-become-lethal-if-not-addressed
    0 Comments 0 Shares 214 Views 0 Reviews
  • “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว”

    Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6

    A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3%

    ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD

    แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10%

    ประสิทธิภาพของ A19 Pro
    คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4
    คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro
    ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50%
    ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน

    ประสิทธิภาพด้านกราฟิก
    GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน
    ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec
    ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M
    รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี

    ข้อมูลเสริมจากภายนอก
    A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling
    Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด
    ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้
    เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ

    คำเตือนและข้อจำกัด
    คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน
    A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน
    Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์
    การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน
    การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน

    https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    🚀 “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว” Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6 A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3% ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10% ✅ ประสิทธิภาพของ A19 Pro ➡️ คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4 ➡️ คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro ➡️ ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50% ➡️ ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน ✅ ประสิทธิภาพด้านกราฟิก ➡️ GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน ➡️ ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec ➡️ ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M ➡️ รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี ✅ ข้อมูลเสริมจากภายนอก ➡️ A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling ➡️ Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด ➡️ ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้ ➡️ เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ ‼️ คำเตือนและข้อจำกัด ⛔ คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน ⛔ A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน ⛔ Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์ ⛔ การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน ⛔ การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    0 Comments 0 Shares 155 Views 0 Reviews
  • “KDE Gear 25.08.1 อัปเดตชุดแอป KDE ครั้งใหญ่ — แก้บั๊ก เสริมฟีเจอร์ พร้อมรองรับ Wayland และ GPU AMD ดีขึ้น”

    KDE Gear 25.08.1 ได้รับการปล่อยออกมาแล้วในฐานะอัปเดตบำรุงรักษาชุดแอป KDE ประจำเดือนกันยายน 2025 โดยเน้นการแก้ไขบั๊กและปรับปรุงประสบการณ์ใช้งานในหลายแอปยอดนิยม เช่น Dolphin, Kdenlive, Kate, Ark, Dragon Player, KMail และอีกมากมาย

    หนึ่งในการแก้ไขสำคัญคือการปรับปรุง Dolphin ให้แก้ปัญหา scroll ซ้ำซ้อน และการแครชเมื่อใช้งานโหมดเลือกไฟล์ร่วมกับการเปลี่ยนไอคอนโฟลเดอร์ ส่วน Kdenlive ก็ได้รับการปรับปรุงให้รองรับ curve editor แบบเต็มหน้าจอและไอคอนความละเอียดสูง

    Kate แก้ปัญหา loop ไม่สิ้นสุดเมื่อใช้ git blame ในเวอร์ชัน Flatpak และ Ark ปรับ API ให้ซ่อนการแจ้งเตือนที่เสร็จสิ้นได้อย่างถูกต้อง Dragon Player ได้รับ workaround สำหรับปัญหา texture บน GPU AMD และ ffmpegthumbs ได้รับการ backport จาก FFmpeg 8.0 เพื่อแก้ปัญหา build

    นอกจากนี้ยังมีการปรับปรุงในแอปอื่น ๆ เช่น Gwenview แก้ fade-out bug ในโหมดเปรียบเทียบวิดีโอ, Umbrello ป้องกันการแครชเมื่อเปิดไฟล์ใหม่หลังยกเลิกเอกสารที่แก้ไข, Konqueror ปรับเมนู sidebar ให้ทำงานบน Wayland ได้ดีขึ้น และ KDE Itinerary ปรับ heuristic การตรวจจับ rich text ให้แม่นยำขึ้น

    แอปอื่น ๆ ที่ได้รับการอัปเดตในเวอร์ชันนี้ ได้แก่ AudioTube, Kamoso, KDevelop, Kleopatra, KolourPaint, KOrganizer, Merkuro, NeoChat, KRDC, Kontact และ KTouch รวมถึงไลบรารีและคอมโพเนนต์ที่เกี่ยวข้อง

    การปรับปรุงแอปหลักใน KDE Gear 25.08.1
    Dolphin แก้ปัญหา scroll ซ้ำและแครชจากโหมดเลือกไฟล์
    Kdenlive รองรับ curve editor แบบเต็มหน้าจอและไอคอนความละเอียดสูง
    Kate แก้ loop ไม่สิ้นสุดจาก git blame ในเวอร์ชัน Flatpak
    Ark ใช้ API ที่ถูกต้องในการซ่อนการแจ้งเตือนที่เสร็จสิ้น

    การแก้ไขปัญหาเฉพาะด้านระบบและ GPU
    Dragon Player ได้ workaround สำหรับ texture บน GPU AMD
    ffmpegthumbs ได้รับ build fix จาก FFmpeg 8.0
    Gwenview แก้ fade-out bug ใน video player controls
    Umbrello ป้องกันแครชเมื่อเปิดไฟล์ใหม่หลังยกเลิกเอกสาร

    การปรับปรุงด้าน UI และ Wayland
    Konqueror ปรับ sidebar context menu ให้ทำงานบน Wayland
    KDE Itinerary ปรับ heuristic การตรวจจับ rich text ให้แม่นยำขึ้น
    เพิ่มความเสถียรในการใช้งาน screencast และการแสดงผล
    ปรับปรุงการแสดงผลข้อมูลใน status bar และ export file

    ข้อมูลเสริมจากภายนอก
    KDE Gear เป็นชุดแอปที่ปล่อยพร้อม KDE Plasma แต่สามารถใช้แยกได้
    การรองรับ Wayland ดีขึ้นเรื่อย ๆ ใน KDE Gear เวอร์ชันใหม่
    Flatpak ยังมีข้อจำกัดด้าน integration กับระบบไฟล์และ session
    KDE Gear 25.08.1 รองรับ Linux distros หลัก เช่น Fedora, Arch, openSUSE

    https://9to5linux.com/kde-gear-25-08-1-released-with-more-improvements-for-your-favorite-kde-apps
    🛠️ “KDE Gear 25.08.1 อัปเดตชุดแอป KDE ครั้งใหญ่ — แก้บั๊ก เสริมฟีเจอร์ พร้อมรองรับ Wayland และ GPU AMD ดีขึ้น” KDE Gear 25.08.1 ได้รับการปล่อยออกมาแล้วในฐานะอัปเดตบำรุงรักษาชุดแอป KDE ประจำเดือนกันยายน 2025 โดยเน้นการแก้ไขบั๊กและปรับปรุงประสบการณ์ใช้งานในหลายแอปยอดนิยม เช่น Dolphin, Kdenlive, Kate, Ark, Dragon Player, KMail และอีกมากมาย หนึ่งในการแก้ไขสำคัญคือการปรับปรุง Dolphin ให้แก้ปัญหา scroll ซ้ำซ้อน และการแครชเมื่อใช้งานโหมดเลือกไฟล์ร่วมกับการเปลี่ยนไอคอนโฟลเดอร์ ส่วน Kdenlive ก็ได้รับการปรับปรุงให้รองรับ curve editor แบบเต็มหน้าจอและไอคอนความละเอียดสูง Kate แก้ปัญหา loop ไม่สิ้นสุดเมื่อใช้ git blame ในเวอร์ชัน Flatpak และ Ark ปรับ API ให้ซ่อนการแจ้งเตือนที่เสร็จสิ้นได้อย่างถูกต้อง Dragon Player ได้รับ workaround สำหรับปัญหา texture บน GPU AMD และ ffmpegthumbs ได้รับการ backport จาก FFmpeg 8.0 เพื่อแก้ปัญหา build นอกจากนี้ยังมีการปรับปรุงในแอปอื่น ๆ เช่น Gwenview แก้ fade-out bug ในโหมดเปรียบเทียบวิดีโอ, Umbrello ป้องกันการแครชเมื่อเปิดไฟล์ใหม่หลังยกเลิกเอกสารที่แก้ไข, Konqueror ปรับเมนู sidebar ให้ทำงานบน Wayland ได้ดีขึ้น และ KDE Itinerary ปรับ heuristic การตรวจจับ rich text ให้แม่นยำขึ้น แอปอื่น ๆ ที่ได้รับการอัปเดตในเวอร์ชันนี้ ได้แก่ AudioTube, Kamoso, KDevelop, Kleopatra, KolourPaint, KOrganizer, Merkuro, NeoChat, KRDC, Kontact และ KTouch รวมถึงไลบรารีและคอมโพเนนต์ที่เกี่ยวข้อง ✅ การปรับปรุงแอปหลักใน KDE Gear 25.08.1 ➡️ Dolphin แก้ปัญหา scroll ซ้ำและแครชจากโหมดเลือกไฟล์ ➡️ Kdenlive รองรับ curve editor แบบเต็มหน้าจอและไอคอนความละเอียดสูง ➡️ Kate แก้ loop ไม่สิ้นสุดจาก git blame ในเวอร์ชัน Flatpak ➡️ Ark ใช้ API ที่ถูกต้องในการซ่อนการแจ้งเตือนที่เสร็จสิ้น ✅ การแก้ไขปัญหาเฉพาะด้านระบบและ GPU ➡️ Dragon Player ได้ workaround สำหรับ texture บน GPU AMD ➡️ ffmpegthumbs ได้รับ build fix จาก FFmpeg 8.0 ➡️ Gwenview แก้ fade-out bug ใน video player controls ➡️ Umbrello ป้องกันแครชเมื่อเปิดไฟล์ใหม่หลังยกเลิกเอกสาร ✅ การปรับปรุงด้าน UI และ Wayland ➡️ Konqueror ปรับ sidebar context menu ให้ทำงานบน Wayland ➡️ KDE Itinerary ปรับ heuristic การตรวจจับ rich text ให้แม่นยำขึ้น ➡️ เพิ่มความเสถียรในการใช้งาน screencast และการแสดงผล ➡️ ปรับปรุงการแสดงผลข้อมูลใน status bar และ export file ✅ ข้อมูลเสริมจากภายนอก ➡️ KDE Gear เป็นชุดแอปที่ปล่อยพร้อม KDE Plasma แต่สามารถใช้แยกได้ ➡️ การรองรับ Wayland ดีขึ้นเรื่อย ๆ ใน KDE Gear เวอร์ชันใหม่ ➡️ Flatpak ยังมีข้อจำกัดด้าน integration กับระบบไฟล์และ session ➡️ KDE Gear 25.08.1 รองรับ Linux distros หลัก เช่น Fedora, Arch, openSUSE https://9to5linux.com/kde-gear-25-08-1-released-with-more-improvements-for-your-favorite-kde-apps
    9TO5LINUX.COM
    KDE Gear 25.08.1 Released with More Improvements for Your Favorite KDE Apps - 9to5Linux
    KDE Gear 25.08.1 is now available as the first maintenance update to the latest KDE Gear 25.08 open-source software suite series with fixes.
    0 Comments 0 Shares 192 Views 0 Reviews
More Results