• เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี”

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน

    ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่

    แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure

    AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป

    Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง
    กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning
    xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload
    Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware

    จุดแข็งของ AMD ในตลาด AI
    MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7
    มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s
    ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน

    การขยาย ecosystem ของ AMD
    ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก
    มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ
    OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid

    แผนการเปิดตัว MI450 และ Helios rack
    ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G
    รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps
    ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput

    https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    🎙️ เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี” Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่ แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป ✅ Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง ➡️ กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning ➡️ xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload ➡️ Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware ✅ จุดแข็งของ AMD ในตลาด AI ➡️ MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7 ➡️ มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s ➡️ ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน ✅ การขยาย ecosystem ของ AMD ➡️ ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก ➡️ มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ ➡️ OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid ✅ แผนการเปิดตัว MI450 และ Helios rack ➡️ ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G ➡️ รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps ➡️ ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    WCCFTECH.COM
    Elon Musk ‘Endorses’ AMD's AI Hardware for Small to Medium AI Models, Implying That There's Potential to Ease Reliance on NVIDIA
    Billionaire Elon Musk has tweeted on the performance of AMD's AI hardware, claiming that it is sufficient for small and medium AI models.
    0 ความคิดเห็น 0 การแบ่งปัน 40 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก MI355X สู่ MI450: เมื่อ AMD ประกาศว่า “ไม่มีข้ออ้าง” สำหรับการเลือกใช้ AI ของตน

    ในงาน Goldman Sachs Communacopia Technology Conference ปี 2025 Forrest Norrod รองประธานฝ่าย Data Center ของ AMD ได้ประกาศอย่างมั่นใจว่า Instinct MI450 จะเป็นจุดเปลี่ยนของ AMD ในตลาด AI โดยเปรียบเทียบว่าเป็น “Milan Moment” เหมือนที่ EPYC Milan เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์

    ที่ผ่านมา AMD ทำได้ดีในด้าน inference ด้วย MI300, MI325 และ MI355 แต่ยังตามหลัง NVIDIA ในด้าน training เพราะเปิดตัวช้ากว่า แต่ MI450 จะเปลี่ยนสิ่งนั้น โดยมาพร้อมสถาปัตยกรรมใหม่, HBM4 สูงสุด 432 GB ต่อ GPU, และการเชื่อมต่อแบบ rack-scale ผ่าน Helios rack ที่ให้แบนด์วิดธ์สูงถึง 1.4 PBps

    Helios rack จะใช้ GPU MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU รุ่นใหม่ที่มีถึง 256 คอร์ และ NIC Vulcano 800G ซึ่งทั้งหมดนี้จะทำงานร่วมกันผ่าน ROCm software stack ที่ AMD พัฒนาขึ้นเพื่อให้เทียบเท่ากับ CUDA ของ NVIDIA

    AMD ยังเน้นว่า Helios rack จะให้ประสิทธิภาพการฝึกโมเดล AI สูงกว่า Vera Rubin ของ NVIDIA ถึง 50% ในด้าน memory capacity และ bandwidth โดยใช้ดีไซน์แบบ double-wide rack เพื่อเพิ่มความหนาแน่นและประสิทธิภาพการระบายความร้อน

    การเปิดตัว Instinct MI450 และ Helios rack
    MI450 เป็น GPU สำหรับ AI training ที่ใช้ HBM4 สูงสุด 432 GB
    Helios rack ใช้ MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU และ Vulcano NIC
    ให้แบนด์วิดธ์รวม 1.4 PBps และ tensor performance สูงถึง 31 exaflops

    จุดเปลี่ยนของ AMD ในตลาด AI
    MI450 ถูกเปรียบเทียบว่าเป็น “Milan Moment” ของฝั่ง AI
    ROCm software stack ได้รับการปรับปรุงเพื่อเทียบเท่า CUDA
    AMD ตั้งเป้าให้ลูกค้าไม่มีข้ออ้างในการเลือก NVIDIA อีกต่อไป

    การออกแบบเพื่อ hyperscale และ rack-scale
    Helios rack ใช้ดีไซน์ double-wide เพื่อเพิ่มความหนาแน่น
    รองรับ memory capacity มากกว่า Vera Rubin ถึง 50%
    ใช้ระบบแบบ unified platform ที่รวม CPU, GPU, NIC และ software stack

    https://wccftech.com/with-the-mi450-amd-says-there-will-be-no-excuses-no-hesitation-in-choosing-team-red-over-nvidia/
    🎙️ เรื่องเล่าจาก MI355X สู่ MI450: เมื่อ AMD ประกาศว่า “ไม่มีข้ออ้าง” สำหรับการเลือกใช้ AI ของตน ในงาน Goldman Sachs Communacopia Technology Conference ปี 2025 Forrest Norrod รองประธานฝ่าย Data Center ของ AMD ได้ประกาศอย่างมั่นใจว่า Instinct MI450 จะเป็นจุดเปลี่ยนของ AMD ในตลาด AI โดยเปรียบเทียบว่าเป็น “Milan Moment” เหมือนที่ EPYC Milan เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์ ที่ผ่านมา AMD ทำได้ดีในด้าน inference ด้วย MI300, MI325 และ MI355 แต่ยังตามหลัง NVIDIA ในด้าน training เพราะเปิดตัวช้ากว่า แต่ MI450 จะเปลี่ยนสิ่งนั้น โดยมาพร้อมสถาปัตยกรรมใหม่, HBM4 สูงสุด 432 GB ต่อ GPU, และการเชื่อมต่อแบบ rack-scale ผ่าน Helios rack ที่ให้แบนด์วิดธ์สูงถึง 1.4 PBps Helios rack จะใช้ GPU MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU รุ่นใหม่ที่มีถึง 256 คอร์ และ NIC Vulcano 800G ซึ่งทั้งหมดนี้จะทำงานร่วมกันผ่าน ROCm software stack ที่ AMD พัฒนาขึ้นเพื่อให้เทียบเท่ากับ CUDA ของ NVIDIA AMD ยังเน้นว่า Helios rack จะให้ประสิทธิภาพการฝึกโมเดล AI สูงกว่า Vera Rubin ของ NVIDIA ถึง 50% ในด้าน memory capacity และ bandwidth โดยใช้ดีไซน์แบบ double-wide rack เพื่อเพิ่มความหนาแน่นและประสิทธิภาพการระบายความร้อน ✅ การเปิดตัว Instinct MI450 และ Helios rack ➡️ MI450 เป็น GPU สำหรับ AI training ที่ใช้ HBM4 สูงสุด 432 GB ➡️ Helios rack ใช้ MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU และ Vulcano NIC ➡️ ให้แบนด์วิดธ์รวม 1.4 PBps และ tensor performance สูงถึง 31 exaflops ✅ จุดเปลี่ยนของ AMD ในตลาด AI ➡️ MI450 ถูกเปรียบเทียบว่าเป็น “Milan Moment” ของฝั่ง AI ➡️ ROCm software stack ได้รับการปรับปรุงเพื่อเทียบเท่า CUDA ➡️ AMD ตั้งเป้าให้ลูกค้าไม่มีข้ออ้างในการเลือก NVIDIA อีกต่อไป ✅ การออกแบบเพื่อ hyperscale และ rack-scale ➡️ Helios rack ใช้ดีไซน์ double-wide เพื่อเพิ่มความหนาแน่น ➡️ รองรับ memory capacity มากกว่า Vera Rubin ถึง 50% ➡️ ใช้ระบบแบบ unified platform ที่รวม CPU, GPU, NIC และ software stack https://wccftech.com/with-the-mi450-amd-says-there-will-be-no-excuses-no-hesitation-in-choosing-team-red-over-nvidia/
    WCCFTECH.COM
    With the Next-Gen MI450 AI Lineup, AMD Says There Will Be ‘No Excuses, No Hesitation’ in Choosing Team Red Over NVIDIA In AI Workloads
    AMD's Instinct MI450 will be a 'decisive' release, as according to the firm's executive, the AI playground would be leveled with NVIDIA.
    0 ความคิดเห็น 0 การแบ่งปัน 42 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก VM สู่ VMSCAPE: เมื่อแขกในระบบกลายเป็นขโมยข้อมูลของเจ้าบ้าน

    นักวิจัยจาก ETH Zurich ได้ค้นพบช่องโหว่ใหม่ในกลุ่มการโจมตีแบบ Spectre-BTI (Branch Target Injection) ที่ชื่อว่า VMSCAPE ซึ่งเปิดทางให้ virtual machine (VM) ที่เป็น guest สามารถขโมยข้อมูลจาก host ได้โดยไม่ต้องแก้ไขซอฟต์แวร์ของ host เลย

    ช่องโหว่นี้เกิดจากการที่ branch predictor ของ CPU ไม่ถูกแยกอย่างปลอดภัยระหว่าง guest กับ host ทำให้ VM สามารถใช้การคาดเดาเส้นทางการทำงานของ CPU เพื่อเข้าถึงข้อมูลลับ เช่น disk encryption keys หรือ session credentials ได้

    VMSCAPE ส่งผลกระทบต่อระบบคลาวด์ที่ใช้ KVM/QEMU บน CPU ของ AMD Zen 1–5 และ Intel Coffee Lake ซึ่งเป็นสถาปัตยกรรมที่ยังคงใช้ branch prediction แบบเดิม โดยช่องโหว่นี้ได้รับการลงทะเบียนเป็น CVE-2025-40300 แล้ว แต่ยังไม่มีคะแนนความรุนแรงอย่างเป็นทางการ

    นักวิจัยเสนอวิธีแก้ไขที่เรียบง่ายแต่ได้ผล คือการ “flush” branch predictor ทุกครั้งที่ VM ออกจากการทำงาน (VMEXIT) โดยใช้คำสั่ง IBPB ซึ่งสามารถป้องกันการโจมตีได้โดยไม่กระทบต่อประสิทธิภาพของระบบ

    แม้ Intel และ AMD จะเตรียมออกเอกสารและแพตช์เพื่อแก้ไข แต่ช่องโหว่นี้แสดงให้เห็นว่าการป้องกัน Spectre ที่มีอยู่ในปัจจุบันยังไม่เพียงพอ โดยเฉพาะในระบบที่มีการใช้งาน VM อย่างแพร่หลาย

    ช่องโหว่ VMSCAPE ที่ค้นพบโดย ETH Zurich
    เป็นการโจมตีแบบ Spectre-BTI ที่ใช้ branch predictor เพื่อขโมยข้อมูล
    ไม่ต้องแก้ไข host software ก็สามารถเจาะข้อมูลได้
    ส่งผลกระทบต่อระบบที่ใช้ KVM/QEMU บน AMD Zen 1–5 และ Intel Coffee Lake

    การลงทะเบียนและการตอบสนอง
    ช่องโหว่นี้ได้รับรหัส CVE-2025-40300
    AMD และ Intel เตรียมออกเอกสารและแพตช์เพื่อแก้ไข
    Linux community เตรียมออก mitigation พร้อมกับการเปิดเผยช่องโหว่

    วิธีแก้ไขที่เสนอโดยนักวิจัย
    ใช้ IBPB เพื่อ flush branch predictor ทุกครั้งที่ VMEXIT
    ทดสอบแล้วพบว่าไม่มีผลกระทบต่อประสิทธิภาพ
    เป็นวิธีที่สามารถนำไปใช้ได้จริงในระบบคลาวด์

    ความหมายต่อวงการคลาวด์และความปลอดภัย
    แสดงให้เห็นว่า VM isolation ยังไม่ปลอดภัยพอ
    การป้องกัน Spectre ที่มีอยู่ยังไม่ครอบคลุมทุกกรณี
    จำเป็นต้องมีการปรับปรุงระบบความปลอดภัยในระดับสถาปัตยกรรม

    https://www.techradar.com/pro/security/new-spectre-based-cpu-vulnerability-allows-guests-to-steal-sensitive-data-from-the-cloud
    🎙️ เรื่องเล่าจาก VM สู่ VMSCAPE: เมื่อแขกในระบบกลายเป็นขโมยข้อมูลของเจ้าบ้าน นักวิจัยจาก ETH Zurich ได้ค้นพบช่องโหว่ใหม่ในกลุ่มการโจมตีแบบ Spectre-BTI (Branch Target Injection) ที่ชื่อว่า VMSCAPE ซึ่งเปิดทางให้ virtual machine (VM) ที่เป็น guest สามารถขโมยข้อมูลจาก host ได้โดยไม่ต้องแก้ไขซอฟต์แวร์ของ host เลย ช่องโหว่นี้เกิดจากการที่ branch predictor ของ CPU ไม่ถูกแยกอย่างปลอดภัยระหว่าง guest กับ host ทำให้ VM สามารถใช้การคาดเดาเส้นทางการทำงานของ CPU เพื่อเข้าถึงข้อมูลลับ เช่น disk encryption keys หรือ session credentials ได้ VMSCAPE ส่งผลกระทบต่อระบบคลาวด์ที่ใช้ KVM/QEMU บน CPU ของ AMD Zen 1–5 และ Intel Coffee Lake ซึ่งเป็นสถาปัตยกรรมที่ยังคงใช้ branch prediction แบบเดิม โดยช่องโหว่นี้ได้รับการลงทะเบียนเป็น CVE-2025-40300 แล้ว แต่ยังไม่มีคะแนนความรุนแรงอย่างเป็นทางการ นักวิจัยเสนอวิธีแก้ไขที่เรียบง่ายแต่ได้ผล คือการ “flush” branch predictor ทุกครั้งที่ VM ออกจากการทำงาน (VMEXIT) โดยใช้คำสั่ง IBPB ซึ่งสามารถป้องกันการโจมตีได้โดยไม่กระทบต่อประสิทธิภาพของระบบ แม้ Intel และ AMD จะเตรียมออกเอกสารและแพตช์เพื่อแก้ไข แต่ช่องโหว่นี้แสดงให้เห็นว่าการป้องกัน Spectre ที่มีอยู่ในปัจจุบันยังไม่เพียงพอ โดยเฉพาะในระบบที่มีการใช้งาน VM อย่างแพร่หลาย ✅ ช่องโหว่ VMSCAPE ที่ค้นพบโดย ETH Zurich ➡️ เป็นการโจมตีแบบ Spectre-BTI ที่ใช้ branch predictor เพื่อขโมยข้อมูล ➡️ ไม่ต้องแก้ไข host software ก็สามารถเจาะข้อมูลได้ ➡️ ส่งผลกระทบต่อระบบที่ใช้ KVM/QEMU บน AMD Zen 1–5 และ Intel Coffee Lake ✅ การลงทะเบียนและการตอบสนอง ➡️ ช่องโหว่นี้ได้รับรหัส CVE-2025-40300 ➡️ AMD และ Intel เตรียมออกเอกสารและแพตช์เพื่อแก้ไข ➡️ Linux community เตรียมออก mitigation พร้อมกับการเปิดเผยช่องโหว่ ✅ วิธีแก้ไขที่เสนอโดยนักวิจัย ➡️ ใช้ IBPB เพื่อ flush branch predictor ทุกครั้งที่ VMEXIT ➡️ ทดสอบแล้วพบว่าไม่มีผลกระทบต่อประสิทธิภาพ ➡️ เป็นวิธีที่สามารถนำไปใช้ได้จริงในระบบคลาวด์ ✅ ความหมายต่อวงการคลาวด์และความปลอดภัย ➡️ แสดงให้เห็นว่า VM isolation ยังไม่ปลอดภัยพอ ➡️ การป้องกัน Spectre ที่มีอยู่ยังไม่ครอบคลุมทุกกรณี ➡️ จำเป็นต้องมีการปรับปรุงระบบความปลอดภัยในระดับสถาปัตยกรรม https://www.techradar.com/pro/security/new-spectre-based-cpu-vulnerability-allows-guests-to-steal-sensitive-data-from-the-cloud
    0 ความคิดเห็น 0 การแบ่งปัน 50 มุมมอง 0 รีวิว
  • เรื่องเล่าจากกล่องเล็ก ๆ ที่ซ่อนพลังระดับเดสก์ท็อป: เมื่อ eGPU กลายเป็นศูนย์กลางของการเล่นเกมและทำงาน AI

    ในงาน Beyond Edge ล่าสุด GIGABYTE ได้เปิดตัว AORUS RTX 5060 Ti AI BOX ซึ่งเป็น eGPU ที่ใช้ GPU เดสก์ท็อปจริง ไม่ใช่ชิปโน้ตบุ๊กแบบที่ eGPU ส่วนใหญ่ใช้ โดยมาพร้อมกับ RTX 5060 Ti รุ่น 16 GB ที่ใช้สถาปัตยกรรม Blackwell และ DLSS 4 ทำให้สามารถเร่งงานกราฟิกและ AI ได้อย่างเต็มประสิทธิภาพ

    ตัวกล่องมีขนาดเล็กเพียง 117 x 243 x 45 mm แต่ใส่ระบบระบายความร้อน WINDFORCE มาเต็มรูปแบบ พร้อมพอร์ต Thunderbolt 5 ที่ให้แบนด์วิดธ์ PCIe 4.0 x4 ซึ่งช้ากว่า PCIe 4.0 x16 บนเดสก์ท็อปเพียง 5% เท่านั้น

    นอกจากการเร่งกราฟิกแล้ว กล่องนี้ยังทำหน้าที่เป็น docking station โดยมีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง รองรับ Power Delivery 3.0 สำหรับชาร์จเร็ว, พอร์ต Ethernet สำหรับเชื่อมต่อเครือข่าย และสามารถ daisy-chain ผ่าน Thunderbolt 5 ได้อีกด้วย

    ที่น่าสนใจคือการรองรับโหมด USB4 ซึ่งสามารถทำงานร่วมกับกราฟิกในตัวของโน้ตบุ๊กผ่าน Project G-Assist เพื่อแบ่งโหลดงานระหว่าง GPU ภายนอกและภายในได้อย่างชาญฉลาด

    แม้ยังไม่มีการประกาศราคาหรือวันวางจำหน่าย แต่คาดว่าราคาจะสูงกว่าการ์ดเดสก์ท็อป RTX 5060 Ti ที่อยู่ราว $460 เนื่องจากมีฟีเจอร์เสริมมากมายและการใช้ GPU เต็มตัว

    การเปิดตัว AORUS RTX 5060 Ti AI BOX
    ใช้ GPU เดสก์ท็อป RTX 5060 Ti 16 GB พร้อม DLSS 4 และ Blackwell architecture
    ขนาดกะทัดรัด 117 x 243 x 45 mm พร้อมระบบระบายความร้อน WINDFORCE
    เชื่อมต่อผ่าน Thunderbolt 5 ให้แบนด์วิดธ์ PCIe 4.0 x4

    ความสามารถในการทำงานแบบ docking station
    มีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง พร้อม Power Delivery 3.0
    มีพอร์ต Ethernet และรองรับ Thunderbolt 5 daisy-chain
    รองรับโหมด USB4 สำหรับการทำงานร่วมกับกราฟิกในตัวผ่าน Project G-Assist

    จุดเด่นด้านการใช้งานและประสิทธิภาพ
    ประสิทธิภาพใกล้เคียงกับการ์ดเดสก์ท็อป แม้ใช้ PCIe 4.0 x4
    เพิ่ม VRAM เป็น 16 GB มากกว่ารุ่นโน้ตบุ๊กที่มีแค่ 8 GB
    รองรับงานกราฟิก, เกม, และ AI ได้ในระดับสูง

    https://www.techpowerup.com/340944/gigabyte-introduces-aorus-rtx-5060-ti-ai-box-egpu
    🎙️ เรื่องเล่าจากกล่องเล็ก ๆ ที่ซ่อนพลังระดับเดสก์ท็อป: เมื่อ eGPU กลายเป็นศูนย์กลางของการเล่นเกมและทำงาน AI ในงาน Beyond Edge ล่าสุด GIGABYTE ได้เปิดตัว AORUS RTX 5060 Ti AI BOX ซึ่งเป็น eGPU ที่ใช้ GPU เดสก์ท็อปจริง ไม่ใช่ชิปโน้ตบุ๊กแบบที่ eGPU ส่วนใหญ่ใช้ โดยมาพร้อมกับ RTX 5060 Ti รุ่น 16 GB ที่ใช้สถาปัตยกรรม Blackwell และ DLSS 4 ทำให้สามารถเร่งงานกราฟิกและ AI ได้อย่างเต็มประสิทธิภาพ ตัวกล่องมีขนาดเล็กเพียง 117 x 243 x 45 mm แต่ใส่ระบบระบายความร้อน WINDFORCE มาเต็มรูปแบบ พร้อมพอร์ต Thunderbolt 5 ที่ให้แบนด์วิดธ์ PCIe 4.0 x4 ซึ่งช้ากว่า PCIe 4.0 x16 บนเดสก์ท็อปเพียง 5% เท่านั้น นอกจากการเร่งกราฟิกแล้ว กล่องนี้ยังทำหน้าที่เป็น docking station โดยมีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง รองรับ Power Delivery 3.0 สำหรับชาร์จเร็ว, พอร์ต Ethernet สำหรับเชื่อมต่อเครือข่าย และสามารถ daisy-chain ผ่าน Thunderbolt 5 ได้อีกด้วย ที่น่าสนใจคือการรองรับโหมด USB4 ซึ่งสามารถทำงานร่วมกับกราฟิกในตัวของโน้ตบุ๊กผ่าน Project G-Assist เพื่อแบ่งโหลดงานระหว่าง GPU ภายนอกและภายในได้อย่างชาญฉลาด แม้ยังไม่มีการประกาศราคาหรือวันวางจำหน่าย แต่คาดว่าราคาจะสูงกว่าการ์ดเดสก์ท็อป RTX 5060 Ti ที่อยู่ราว $460 เนื่องจากมีฟีเจอร์เสริมมากมายและการใช้ GPU เต็มตัว ✅ การเปิดตัว AORUS RTX 5060 Ti AI BOX ➡️ ใช้ GPU เดสก์ท็อป RTX 5060 Ti 16 GB พร้อม DLSS 4 และ Blackwell architecture ➡️ ขนาดกะทัดรัด 117 x 243 x 45 mm พร้อมระบบระบายความร้อน WINDFORCE ➡️ เชื่อมต่อผ่าน Thunderbolt 5 ให้แบนด์วิดธ์ PCIe 4.0 x4 ✅ ความสามารถในการทำงานแบบ docking station ➡️ มีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง พร้อม Power Delivery 3.0 ➡️ มีพอร์ต Ethernet และรองรับ Thunderbolt 5 daisy-chain ➡️ รองรับโหมด USB4 สำหรับการทำงานร่วมกับกราฟิกในตัวผ่าน Project G-Assist ✅ จุดเด่นด้านการใช้งานและประสิทธิภาพ ➡️ ประสิทธิภาพใกล้เคียงกับการ์ดเดสก์ท็อป แม้ใช้ PCIe 4.0 x4 ➡️ เพิ่ม VRAM เป็น 16 GB มากกว่ารุ่นโน้ตบุ๊กที่มีแค่ 8 GB ➡️ รองรับงานกราฟิก, เกม, และ AI ได้ในระดับสูง https://www.techpowerup.com/340944/gigabyte-introduces-aorus-rtx-5060-ti-ai-box-egpu
    WWW.TECHPOWERUP.COM
    GIGABYTE Introduces AORUS RTX 5060 Ti AI BOX eGPU
    GIGABYTE has unveiled the AORUS RTX 5060 Ti AI BOX eGPU during today's Beyond Edge online event. This external graphics solution features NVIDIA's desktop-grade GeForce RTX 5060 Ti with 16 GB VRAM in a compact 117 x 243 x 45 mm form factor. Unlike most existing eGPUs that rely on mobile AMD Radeon R...
    0 ความคิดเห็น 0 การแบ่งปัน 39 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Nehalem ถึง Nova Lake: เมื่อผู้นำด้านสถาปัตยกรรมของ Xeon ตัดสินใจเดินออกจาก Intel

    Ronak Singhal ซึ่งอยู่กับ Intel มานานถึง 28 ปี และเป็นผู้มีบทบาทสำคัญในการออกแบบ CPU ระดับตำนานอย่าง Nehalem, Haswell และ Broadwell ได้ลาออกจากตำแหน่ง Chief Architect ของ Xeon หลังจากรับตำแหน่งได้เพียง 8 เดือน โดยเขาเป็นคนที่สองที่รับตำแหน่งนี้ต่อจาก Sailesh Kottapalli ซึ่งก็ลาออกไปก่อนหน้านี้เพื่อร่วมทีมเซิร์ฟเวอร์ของ Qualcomm

    การลาออกของ Singhal เกิดขึ้นในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรครั้งใหญ่ โดย CEO คนใหม่ Lip-Bu Tan ได้แต่งตั้ง Kevork Kechichian อดีตผู้บริหารจาก Arm ให้เป็นหัวหน้ากลุ่ม Data Center Group (DCG) เพื่อเร่งการเปลี่ยนแปลงและเน้นการพัฒนา CPU เป็นแกนหลักของธุรกิจศูนย์ข้อมูล

    Singhal เคยดูแลทั้งแผนกลยุทธ์ Xeon, การออกแบบแพลตฟอร์ม, ระบบหน่วยความจำ, ความปลอดภัย และการเร่ง AI ซึ่งถือว่าเป็นบทบาทที่ครอบคลุมมากกว่าการออกแบบชิปทั่วไป และเขายังถือสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับสถาปัตยกรรม CPU

    การเปลี่ยนแปลงนี้สะท้อนถึงแรงสั่นสะเทือนในทีม Data Center ของ Intel ที่มีการเปลี่ยนตัวผู้บริหารหลายคนในเวลาไม่ถึงปี เช่น Justin Hotard ที่ลาออกไปเป็น CEO ของ Nokia และ Sandra Rivera ที่ย้ายไปเป็น CEO ของ Altera ซึ่งถูกแยกออกจาก Intel ในปี 2024

    การลาออกของ Ronak Singhal
    ลาออกหลังรับตำแหน่ง Chief Architect ของ Xeon ได้เพียง 8 เดือน
    เป็นผู้นำด้านสถาปัตยกรรมที่อยู่กับ Intel มานาน 28 ปี
    เคยดูแล Nehalem, Haswell, Broadwell และระบบ AI acceleration

    การปรับโครงสร้างองค์กรของ Intel
    CEO Lip-Bu Tan เร่งปรับโครงสร้างเพื่อเน้น CPU เป็นแกนหลัก
    แต่งตั้ง Kevork Kechichian จาก Arm เป็นหัวหน้า DCG
    ย้ายทีม accelerator ไปอยู่ภายใต้การดูแลของ Sachin Katti

    การเปลี่ยนแปลงในทีม Data Center
    Sailesh Kottapalli ลาออกไปอยู่กับ Qualcomm
    Justin Hotard ลาออกไปเป็น CEO ของ Nokia
    Sandra Rivera ย้ายไปเป็น CEO ของ Altera ที่ถูก spin-off

    บทบาทของ Singhal ที่มีผลต่อ Intel
    ดูแลกลยุทธ์ Xeon และการออกแบบแพลตฟอร์มระดับองค์กร
    มีสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับ CPU architecture
    เป็นสถาปนิกที่ครอบคลุมทั้งด้าน core, memory, security และ AI

    https://www.tomshardware.com/pc-components/cpus/intel-xeon-chief-architect-leaves-just-8-months-after-appointment-ronak-singhal-latest-departure-in-ongoing-shakeup
    🎙️ เรื่องเล่าจาก Nehalem ถึง Nova Lake: เมื่อผู้นำด้านสถาปัตยกรรมของ Xeon ตัดสินใจเดินออกจาก Intel Ronak Singhal ซึ่งอยู่กับ Intel มานานถึง 28 ปี และเป็นผู้มีบทบาทสำคัญในการออกแบบ CPU ระดับตำนานอย่าง Nehalem, Haswell และ Broadwell ได้ลาออกจากตำแหน่ง Chief Architect ของ Xeon หลังจากรับตำแหน่งได้เพียง 8 เดือน โดยเขาเป็นคนที่สองที่รับตำแหน่งนี้ต่อจาก Sailesh Kottapalli ซึ่งก็ลาออกไปก่อนหน้านี้เพื่อร่วมทีมเซิร์ฟเวอร์ของ Qualcomm การลาออกของ Singhal เกิดขึ้นในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรครั้งใหญ่ โดย CEO คนใหม่ Lip-Bu Tan ได้แต่งตั้ง Kevork Kechichian อดีตผู้บริหารจาก Arm ให้เป็นหัวหน้ากลุ่ม Data Center Group (DCG) เพื่อเร่งการเปลี่ยนแปลงและเน้นการพัฒนา CPU เป็นแกนหลักของธุรกิจศูนย์ข้อมูล Singhal เคยดูแลทั้งแผนกลยุทธ์ Xeon, การออกแบบแพลตฟอร์ม, ระบบหน่วยความจำ, ความปลอดภัย และการเร่ง AI ซึ่งถือว่าเป็นบทบาทที่ครอบคลุมมากกว่าการออกแบบชิปทั่วไป และเขายังถือสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับสถาปัตยกรรม CPU การเปลี่ยนแปลงนี้สะท้อนถึงแรงสั่นสะเทือนในทีม Data Center ของ Intel ที่มีการเปลี่ยนตัวผู้บริหารหลายคนในเวลาไม่ถึงปี เช่น Justin Hotard ที่ลาออกไปเป็น CEO ของ Nokia และ Sandra Rivera ที่ย้ายไปเป็น CEO ของ Altera ซึ่งถูกแยกออกจาก Intel ในปี 2024 ✅ การลาออกของ Ronak Singhal ➡️ ลาออกหลังรับตำแหน่ง Chief Architect ของ Xeon ได้เพียง 8 เดือน ➡️ เป็นผู้นำด้านสถาปัตยกรรมที่อยู่กับ Intel มานาน 28 ปี ➡️ เคยดูแล Nehalem, Haswell, Broadwell และระบบ AI acceleration ✅ การปรับโครงสร้างองค์กรของ Intel ➡️ CEO Lip-Bu Tan เร่งปรับโครงสร้างเพื่อเน้น CPU เป็นแกนหลัก ➡️ แต่งตั้ง Kevork Kechichian จาก Arm เป็นหัวหน้า DCG ➡️ ย้ายทีม accelerator ไปอยู่ภายใต้การดูแลของ Sachin Katti ✅ การเปลี่ยนแปลงในทีม Data Center ➡️ Sailesh Kottapalli ลาออกไปอยู่กับ Qualcomm ➡️ Justin Hotard ลาออกไปเป็น CEO ของ Nokia ➡️ Sandra Rivera ย้ายไปเป็น CEO ของ Altera ที่ถูก spin-off ✅ บทบาทของ Singhal ที่มีผลต่อ Intel ➡️ ดูแลกลยุทธ์ Xeon และการออกแบบแพลตฟอร์มระดับองค์กร ➡️ มีสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับ CPU architecture ➡️ เป็นสถาปนิกที่ครอบคลุมทั้งด้าน core, memory, security และ AI https://www.tomshardware.com/pc-components/cpus/intel-xeon-chief-architect-leaves-just-8-months-after-appointment-ronak-singhal-latest-departure-in-ongoing-shakeup
    0 ความคิดเห็น 0 การแบ่งปัน 39 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก LongCat ถึง Xiaomei: เมื่อ AI กลายเป็นพนักงานส่งอาหารที่พูดได้และคิดแทนคุณ

    Meituan ซึ่งเป็นหนึ่งในแพลตฟอร์มส่งอาหารและบริการท้องถิ่นที่ใหญ่ที่สุดในจีน ได้เปิดตัว “Xiaomei” แอปผู้ช่วย AI ที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า LongCat โดย Xiaomei สามารถรับคำสั่งเสียงจากผู้ใช้เพื่อสั่งอาหาร จองร้านอาหาร และแนะนำเมนูที่เหมาะกับความชอบของแต่ละคนได้แบบเรียลไทม์2

    LongCat ไม่ใช่แค่โมเดลทั่วไป แต่เป็นโมเดลขนาดมหึมาที่มีพารามิเตอร์ถึง 560 พันล้านตัว และใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่เปิดใช้งานเฉพาะส่วนที่จำเป็นในแต่ละบริบท ทำให้สามารถให้คำตอบได้เร็วและแม่นยำโดยใช้พลังงานน้อยลง

    การเปิดตัว Xiaomei เป็นการตอบโต้โดยตรงต่อการรุกคืบของ Alibaba ที่เพิ่งปรับปรุงระบบแผนที่และแนะนำร้านอาหารด้วย AI เช่นกัน รวมถึง JD.com ที่กำลังลงทุนหนักในบริการส่งอาหารแบบทันใจ

    แม้ Meituan จะได้เปรียบในด้านฐานผู้ใช้กว่า 770 ล้านคนต่อปี แต่การแข่งขันที่รุนแรงทำให้ทุกบริษัทต้องทุ่มงบมหาศาล เช่น Alibaba ที่เพิ่งประกาศงบส่งเสริมการขายกว่า 140 ล้านดอลลาร์ในสัปดาห์เดียว เพื่อดึงดูดผู้ใช้ใหม่

    นักวิเคราะห์มองว่า Xiaomei เป็นตัวอย่างของการใช้ AI เพื่อเพิ่ม engagement และลดต้นทุนการบริการในระยะยาว แต่ก็เตือนว่าการแข่งขันที่รุนแรงอาจทำให้กำไรของทุกฝ่ายลดลง แม้ผู้ใช้จะได้ประโยชน์จากบริการที่ดีขึ้นก็ตาม

    การเปิดตัว Xiaomei โดย Meituan
    เป็น AI agent ที่ใช้สั่งอาหาร จองร้าน และแนะนำเมนูผ่านเสียง
    ขับเคลื่อนด้วยโมเดล LongCat ที่พัฒนาโดย Meituan เอง
    ใช้เทคโนโลยี MoE เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน

    ความสามารถของ LongCat
    มีพารามิเตอร์ 560 พันล้านตัว
    ใช้ dynamic computation เปิดใช้งานเฉพาะส่วนที่จำเป็น
    ออกแบบให้รองรับข้อความยาวและตอบสนองเร็ว

    การแข่งขันในตลาดส่งอาหารจีน
    Alibaba ปรับปรุงระบบแผนที่และแนะนำร้านด้วย AI
    JD.com ลงทุนหนักในบริการส่งอาหารทันใจ
    Meituan มีฐานผู้ใช้กว่า 770 ล้านคนต่อปี

    ผลกระทบต่อธุรกิจและผู้บริโภค
    ผู้ใช้ได้รับบริการที่ฉลาดขึ้นและสะดวกขึ้น
    บริษัทต้องลงทุนมหาศาลเพื่อรักษาส่วนแบ่งตลาด
    การใช้ AI อาจช่วยลดต้นทุนในระยะยาว

    https://www.thestar.com.my/tech/tech-news/2025/09/12/meituan-launches-ai-agent-to-boost-food-delivery-business
    🎙️ เรื่องเล่าจาก LongCat ถึง Xiaomei: เมื่อ AI กลายเป็นพนักงานส่งอาหารที่พูดได้และคิดแทนคุณ Meituan ซึ่งเป็นหนึ่งในแพลตฟอร์มส่งอาหารและบริการท้องถิ่นที่ใหญ่ที่สุดในจีน ได้เปิดตัว “Xiaomei” แอปผู้ช่วย AI ที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า LongCat โดย Xiaomei สามารถรับคำสั่งเสียงจากผู้ใช้เพื่อสั่งอาหาร จองร้านอาหาร และแนะนำเมนูที่เหมาะกับความชอบของแต่ละคนได้แบบเรียลไทม์2 LongCat ไม่ใช่แค่โมเดลทั่วไป แต่เป็นโมเดลขนาดมหึมาที่มีพารามิเตอร์ถึง 560 พันล้านตัว และใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่เปิดใช้งานเฉพาะส่วนที่จำเป็นในแต่ละบริบท ทำให้สามารถให้คำตอบได้เร็วและแม่นยำโดยใช้พลังงานน้อยลง การเปิดตัว Xiaomei เป็นการตอบโต้โดยตรงต่อการรุกคืบของ Alibaba ที่เพิ่งปรับปรุงระบบแผนที่และแนะนำร้านอาหารด้วย AI เช่นกัน รวมถึง JD.com ที่กำลังลงทุนหนักในบริการส่งอาหารแบบทันใจ แม้ Meituan จะได้เปรียบในด้านฐานผู้ใช้กว่า 770 ล้านคนต่อปี แต่การแข่งขันที่รุนแรงทำให้ทุกบริษัทต้องทุ่มงบมหาศาล เช่น Alibaba ที่เพิ่งประกาศงบส่งเสริมการขายกว่า 140 ล้านดอลลาร์ในสัปดาห์เดียว เพื่อดึงดูดผู้ใช้ใหม่ นักวิเคราะห์มองว่า Xiaomei เป็นตัวอย่างของการใช้ AI เพื่อเพิ่ม engagement และลดต้นทุนการบริการในระยะยาว แต่ก็เตือนว่าการแข่งขันที่รุนแรงอาจทำให้กำไรของทุกฝ่ายลดลง แม้ผู้ใช้จะได้ประโยชน์จากบริการที่ดีขึ้นก็ตาม ✅ การเปิดตัว Xiaomei โดย Meituan ➡️ เป็น AI agent ที่ใช้สั่งอาหาร จองร้าน และแนะนำเมนูผ่านเสียง ➡️ ขับเคลื่อนด้วยโมเดล LongCat ที่พัฒนาโดย Meituan เอง ➡️ ใช้เทคโนโลยี MoE เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน ✅ ความสามารถของ LongCat ➡️ มีพารามิเตอร์ 560 พันล้านตัว ➡️ ใช้ dynamic computation เปิดใช้งานเฉพาะส่วนที่จำเป็น ➡️ ออกแบบให้รองรับข้อความยาวและตอบสนองเร็ว ✅ การแข่งขันในตลาดส่งอาหารจีน ➡️ Alibaba ปรับปรุงระบบแผนที่และแนะนำร้านด้วย AI ➡️ JD.com ลงทุนหนักในบริการส่งอาหารทันใจ ➡️ Meituan มีฐานผู้ใช้กว่า 770 ล้านคนต่อปี ✅ ผลกระทบต่อธุรกิจและผู้บริโภค ➡️ ผู้ใช้ได้รับบริการที่ฉลาดขึ้นและสะดวกขึ้น ➡️ บริษัทต้องลงทุนมหาศาลเพื่อรักษาส่วนแบ่งตลาด ➡️ การใช้ AI อาจช่วยลดต้นทุนในระยะยาว https://www.thestar.com.my/tech/tech-news/2025/09/12/meituan-launches-ai-agent-to-boost-food-delivery-business
    WWW.THESTAR.COM.MY
    Meituan launches AI agent to boost food delivery business
    Meituan has launched a new AI agent app that aims to boost its food delivery and local services business, as its battle with Alibaba Group Holding Ltd for Chinese consumers heats up.
    0 ความคิดเห็น 0 การแบ่งปัน 39 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Qwen3 สู่ Qwen3-Next: เมื่อโมเดล 80B ทำงานได้เท่ากับ 235B โดยใช้พลังแค่ 3B

    ในเดือนกันยายน 2025 ทีม Qwen จาก Alibaba ได้เปิดตัวสถาปัตยกรรมใหม่ชื่อว่า Qwen3-Next ซึ่งเป็นการพัฒนาโมเดลขนาดใหญ่ที่เน้น “ประสิทธิภาพต่อพารามิเตอร์” และ “ความเร็วในการประมวลผลข้อความยาว” โดยใช้แนวคิดใหม่ทั้งในด้าน attention, sparsity และการพยากรณ์หลาย token พร้อมกัน

    Qwen3-Next มีพารามิเตอร์รวม 80 พันล้าน แต่เปิดใช้งานจริงเพียง 3 พันล้านระหว่างการ inference ซึ่งทำให้สามารถเทียบเคียงกับ Qwen3-235B ได้ในหลายงาน โดยใช้ต้นทุนการฝึกเพียง 9.3% ของ Qwen3-32B2

    หัวใจของ Qwen3-Next คือการผสมผสานระหว่าง Gated DeltaNet (linear attention ที่เร็วแต่แม่น) กับ standard attention (ที่แม่นแต่ช้า) ในอัตราส่วน 3:1 พร้อมเพิ่ม gating, rotary encoding แบบบางส่วน และการขยายขนาด head dimension เพื่อรองรับข้อความยาวถึง 256K tokens ได้อย่างเสถียร

    ในส่วนของ MoE (Mixture-of-Experts) Qwen3-Next ใช้โครงสร้าง ultra-sparse โดยมี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ซึ่งทำให้ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่าเมื่อเทียบกับรุ่นก่อน

    นอกจากนี้ยังมีการออกแบบเพื่อความเสถียร เช่น Zero-Centered RMSNorm, weight decay เฉพาะ norm weights และการ normalize router parameters ตั้งแต่เริ่มต้น เพื่อให้การฝึกมีความนิ่งและไม่เกิดปัญหา activation ผิดปกติ

    Qwen3-Next ยังมาพร้อม Multi-Token Prediction (MTP) ที่ช่วยให้การ inference แบบ speculative decoding มีความแม่นยำและเร็วขึ้น โดยสามารถใช้งานผ่าน Hugging Face, ModelScope, SGLang และ vLLM ได้ทันที

    สถาปัตยกรรมใหม่ของ Qwen3-Next
    ใช้ hybrid attention: Gated DeltaNet + standard attention (อัตราส่วน 3:1)
    เพิ่ม gating, rotary encoding เฉพาะ 25% ของ position dimension
    ขยาย head dimension จาก 128 เป็น 256 เพื่อรองรับข้อความยาว

    โครงสร้าง MoE แบบ ultra-sparse
    มี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step
    ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่า
    ใช้ global load balancing เพื่อเพิ่มประสิทธิภาพการฝึก

    การออกแบบเพื่อความเสถียรในการฝึก
    ใช้ Zero-Centered RMSNorm แทน QK-Norm
    เพิ่ม weight decay เฉพาะ norm weights เพื่อป้องกันการโตผิดปกติ
    normalize router parameters ตั้งแต่เริ่มต้นเพื่อความนิ่ง

    ประสิทธิภาพของโมเดล
    Qwen3-Next-80B-A3B-Base เทียบเท่าหรือดีกว่า Qwen3-32B โดยใช้พลังแค่ 10%
    Qwen3-Next-Instruct เทียบเคียง Qwen3-235B-A22B-Instruct-2507 ในงาน context ยาว
    Qwen3-Next-Thinking ชนะ Gemini-2.5-Flash-Thinking ในหลาย benchmark

    การใช้งานและ deployment
    รองรับ context สูงสุด 256K tokens และสามารถขยายถึง 1M ด้วยเทคนิค YaRN
    ใช้งานผ่าน Hugging Face, ModelScope, SGLang, vLLM ได้ทันที
    รองรับ speculative decoding ผ่าน MTP module

    https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
    🎙️ เรื่องเล่าจาก Qwen3 สู่ Qwen3-Next: เมื่อโมเดล 80B ทำงานได้เท่ากับ 235B โดยใช้พลังแค่ 3B ในเดือนกันยายน 2025 ทีม Qwen จาก Alibaba ได้เปิดตัวสถาปัตยกรรมใหม่ชื่อว่า Qwen3-Next ซึ่งเป็นการพัฒนาโมเดลขนาดใหญ่ที่เน้น “ประสิทธิภาพต่อพารามิเตอร์” และ “ความเร็วในการประมวลผลข้อความยาว” โดยใช้แนวคิดใหม่ทั้งในด้าน attention, sparsity และการพยากรณ์หลาย token พร้อมกัน Qwen3-Next มีพารามิเตอร์รวม 80 พันล้าน แต่เปิดใช้งานจริงเพียง 3 พันล้านระหว่างการ inference ซึ่งทำให้สามารถเทียบเคียงกับ Qwen3-235B ได้ในหลายงาน โดยใช้ต้นทุนการฝึกเพียง 9.3% ของ Qwen3-32B2 หัวใจของ Qwen3-Next คือการผสมผสานระหว่าง Gated DeltaNet (linear attention ที่เร็วแต่แม่น) กับ standard attention (ที่แม่นแต่ช้า) ในอัตราส่วน 3:1 พร้อมเพิ่ม gating, rotary encoding แบบบางส่วน และการขยายขนาด head dimension เพื่อรองรับข้อความยาวถึง 256K tokens ได้อย่างเสถียร ในส่วนของ MoE (Mixture-of-Experts) Qwen3-Next ใช้โครงสร้าง ultra-sparse โดยมี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ซึ่งทำให้ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่าเมื่อเทียบกับรุ่นก่อน นอกจากนี้ยังมีการออกแบบเพื่อความเสถียร เช่น Zero-Centered RMSNorm, weight decay เฉพาะ norm weights และการ normalize router parameters ตั้งแต่เริ่มต้น เพื่อให้การฝึกมีความนิ่งและไม่เกิดปัญหา activation ผิดปกติ Qwen3-Next ยังมาพร้อม Multi-Token Prediction (MTP) ที่ช่วยให้การ inference แบบ speculative decoding มีความแม่นยำและเร็วขึ้น โดยสามารถใช้งานผ่าน Hugging Face, ModelScope, SGLang และ vLLM ได้ทันที ✅ สถาปัตยกรรมใหม่ของ Qwen3-Next ➡️ ใช้ hybrid attention: Gated DeltaNet + standard attention (อัตราส่วน 3:1) ➡️ เพิ่ม gating, rotary encoding เฉพาะ 25% ของ position dimension ➡️ ขยาย head dimension จาก 128 เป็น 256 เพื่อรองรับข้อความยาว ✅ โครงสร้าง MoE แบบ ultra-sparse ➡️ มี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ➡️ ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่า ➡️ ใช้ global load balancing เพื่อเพิ่มประสิทธิภาพการฝึก ✅ การออกแบบเพื่อความเสถียรในการฝึก ➡️ ใช้ Zero-Centered RMSNorm แทน QK-Norm ➡️ เพิ่ม weight decay เฉพาะ norm weights เพื่อป้องกันการโตผิดปกติ ➡️ normalize router parameters ตั้งแต่เริ่มต้นเพื่อความนิ่ง ✅ ประสิทธิภาพของโมเดล ➡️ Qwen3-Next-80B-A3B-Base เทียบเท่าหรือดีกว่า Qwen3-32B โดยใช้พลังแค่ 10% ➡️ Qwen3-Next-Instruct เทียบเคียง Qwen3-235B-A22B-Instruct-2507 ในงาน context ยาว ➡️ Qwen3-Next-Thinking ชนะ Gemini-2.5-Flash-Thinking ในหลาย benchmark ✅ การใช้งานและ deployment ➡️ รองรับ context สูงสุด 256K tokens และสามารถขยายถึง 1M ด้วยเทคนิค YaRN ➡️ ใช้งานผ่าน Hugging Face, ModelScope, SGLang, vLLM ได้ทันที ➡️ รองรับ speculative decoding ผ่าน MTP module https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
    0 ความคิดเห็น 0 การแบ่งปัน 37 มุมมอง 0 รีวิว
  • “Intel Panther Lake Xe3 เพิ่มเฟรมเกมสูงสุด 18% — แต่ต้องแลกกับเวลา compile shader ที่นานขึ้น”

    Intel กำลังเตรียมเปิดตัวแพลตฟอร์มกราฟิกใหม่ Panther Lake พร้อม GPU สถาปัตยกรรม Xe3 ซึ่งจะเป็นครั้งแรกที่ใช้กระบวนการผลิตระดับ 18A node โดยล่าสุดทีมวิศวกรของ Intel ได้ปล่อยชุดแพตช์ 14 รายการสำหรับ Mesa 3D graphics driver บน Linux เพื่อปรับปรุงประสิทธิภาพของ Xe3 โดยเฉพาะด้านการเล่นเกม

    ผลการทดสอบภายในพบว่าแพตช์เหล่านี้ช่วยเพิ่มประสิทธิภาพในการเล่นเกมได้สูงสุดถึง 18% โดยเฉลี่ยอยู่ที่ 4–9% ในหลายเกม เช่น Hogwarts Legacy และ Warhammer แม้ Cyberpunk 2077 จะถูกตัดออกจากการทดสอบเนื่องจากพบปัญหา GPU hang แต่ผลรวมถือว่าน่าประทับใจสำหรับแพลตฟอร์มที่ยังไม่เปิดตัว

    การปรับปรุงครั้งนี้เน้นไปที่การจัดการการทำงานแบบขนานของ thread และการวางตารางการทำงานของ compiler ซึ่งช่วยให้การประมวลผล shader มีประสิทธิภาพมากขึ้น อย่างไรก็ตาม ต้องแลกกับเวลาในการ compile shader ที่เพิ่มขึ้นประมาณ 25% ซึ่ง Intel มองว่าเป็นการแลกเปลี่ยนที่คุ้มค่าเพื่อให้ได้เฟรมเรตที่สูงขึ้น

    แพตช์ทั้งหมดถูกรวมไว้ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2 เพื่อให้ผู้ใช้ Linux ที่วางแผนจะใช้ Panther Lake ได้รับประโยชน์เต็มที่ โดย Intel ยังอยู่ระหว่างการปรับปรุงเสถียรภาพของ GPU ซึ่งยังพบปัญหา hang เป็นระยะในบางเกม

    จุดเด่นของการอัปเดต Panther Lake Xe3
    เพิ่มประสิทธิภาพการเล่นเกมสูงสุด 18% จากการปรับ compiler บน Linux
    ปรับปรุงการจัดการ thread และการวางตารางการทำงานของ shader compiler
    แพตช์รวมอยู่ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2
    ใช้สถาปัตยกรรม Xe3 และกระบวนการผลิต 18A node เป็นครั้งแรกของ Intel

    ผลการทดสอบและการใช้งานจริง
    เกมที่ได้ผลดี ได้แก่ Hogwarts Legacy และ Warhammer
    Cyberpunk 2077 ถูกตัดออกจากการทดสอบเนื่องจาก GPU hang
    การ compile shader ใช้เวลานานขึ้น ~25% แต่ได้เฟรมเรตที่สูงขึ้น
    เหมาะกับผู้ใช้ Linux ที่ต้องการประสิทธิภาพกราฟิกสูงในเกม

    ข้อมูลเสริมจากภายนอก
    Panther Lake เป็น Core Ultra Series 3 รุ่นใหม่ที่เตรียมเปิดตัวปลายปีนี้
    Xe3 เป็นการต่อยอดจาก Xe-LP และ Xe-HPG โดยเน้นประสิทธิภาพแบบฝังตัว
    การใช้ 18A node เป็นก้าวสำคัญของ Intel ในการแข่งขันกับ TSMC และ Samsung
    Windows ยังไม่มีผลการทดสอบที่เปิดเผย เนื่องจาก driver เป็น proprietary

    https://wccftech.com/intel-panther-lake-xe3-graphics-platform-witnesses-up-to-18-better-higher-performance/
    🎮 “Intel Panther Lake Xe3 เพิ่มเฟรมเกมสูงสุด 18% — แต่ต้องแลกกับเวลา compile shader ที่นานขึ้น” Intel กำลังเตรียมเปิดตัวแพลตฟอร์มกราฟิกใหม่ Panther Lake พร้อม GPU สถาปัตยกรรม Xe3 ซึ่งจะเป็นครั้งแรกที่ใช้กระบวนการผลิตระดับ 18A node โดยล่าสุดทีมวิศวกรของ Intel ได้ปล่อยชุดแพตช์ 14 รายการสำหรับ Mesa 3D graphics driver บน Linux เพื่อปรับปรุงประสิทธิภาพของ Xe3 โดยเฉพาะด้านการเล่นเกม ผลการทดสอบภายในพบว่าแพตช์เหล่านี้ช่วยเพิ่มประสิทธิภาพในการเล่นเกมได้สูงสุดถึง 18% โดยเฉลี่ยอยู่ที่ 4–9% ในหลายเกม เช่น Hogwarts Legacy และ Warhammer แม้ Cyberpunk 2077 จะถูกตัดออกจากการทดสอบเนื่องจากพบปัญหา GPU hang แต่ผลรวมถือว่าน่าประทับใจสำหรับแพลตฟอร์มที่ยังไม่เปิดตัว การปรับปรุงครั้งนี้เน้นไปที่การจัดการการทำงานแบบขนานของ thread และการวางตารางการทำงานของ compiler ซึ่งช่วยให้การประมวลผล shader มีประสิทธิภาพมากขึ้น อย่างไรก็ตาม ต้องแลกกับเวลาในการ compile shader ที่เพิ่มขึ้นประมาณ 25% ซึ่ง Intel มองว่าเป็นการแลกเปลี่ยนที่คุ้มค่าเพื่อให้ได้เฟรมเรตที่สูงขึ้น แพตช์ทั้งหมดถูกรวมไว้ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2 เพื่อให้ผู้ใช้ Linux ที่วางแผนจะใช้ Panther Lake ได้รับประโยชน์เต็มที่ โดย Intel ยังอยู่ระหว่างการปรับปรุงเสถียรภาพของ GPU ซึ่งยังพบปัญหา hang เป็นระยะในบางเกม ✅ จุดเด่นของการอัปเดต Panther Lake Xe3 ➡️ เพิ่มประสิทธิภาพการเล่นเกมสูงสุด 18% จากการปรับ compiler บน Linux ➡️ ปรับปรุงการจัดการ thread และการวางตารางการทำงานของ shader compiler ➡️ แพตช์รวมอยู่ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2 ➡️ ใช้สถาปัตยกรรม Xe3 และกระบวนการผลิต 18A node เป็นครั้งแรกของ Intel ✅ ผลการทดสอบและการใช้งานจริง ➡️ เกมที่ได้ผลดี ได้แก่ Hogwarts Legacy และ Warhammer ➡️ Cyberpunk 2077 ถูกตัดออกจากการทดสอบเนื่องจาก GPU hang ➡️ การ compile shader ใช้เวลานานขึ้น ~25% แต่ได้เฟรมเรตที่สูงขึ้น ➡️ เหมาะกับผู้ใช้ Linux ที่ต้องการประสิทธิภาพกราฟิกสูงในเกม ✅ ข้อมูลเสริมจากภายนอก ➡️ Panther Lake เป็น Core Ultra Series 3 รุ่นใหม่ที่เตรียมเปิดตัวปลายปีนี้ ➡️ Xe3 เป็นการต่อยอดจาก Xe-LP และ Xe-HPG โดยเน้นประสิทธิภาพแบบฝังตัว ➡️ การใช้ 18A node เป็นก้าวสำคัญของ Intel ในการแข่งขันกับ TSMC และ Samsung ➡️ Windows ยังไม่มีผลการทดสอบที่เปิดเผย เนื่องจาก driver เป็น proprietary https://wccftech.com/intel-panther-lake-xe3-graphics-platform-witnesses-up-to-18-better-higher-performance/
    WCCFTECH.COM
    Intel's Panther Lake 'Xe3' Graphics Platform Witnesses Up To 18% Higher Gaming Performance, Courtesy of Few Optimizations
    Intel is preparing for Panther Lake launch and has released a new set of Linux-based optimizations that have boosted gaming performance.
    0 ความคิดเห็น 0 การแบ่งปัน 125 มุมมอง 0 รีวิว
  • “Oboe เปิดตัวแพลตฟอร์มเรียนรู้ด้วย AI — สร้างคอร์สได้ทันทีจากแค่คำถามเดียว”

    Oboe คือแพลตฟอร์มการเรียนรู้ด้วย AI ที่เพิ่งเปิดตัวโดยผู้ร่วมก่อตั้ง Anchor ซึ่งเคยขายกิจการให้ Spotify ไปก่อนหน้านี้ โดยมีเป้าหมายในการเปลี่ยนวิธีการเรียนรู้ให้สนุก ยืดหยุ่น และเป็นส่วนตัวมากขึ้น ผู้ใช้สามารถสร้างคอร์สเรียนรู้ได้ทันทีจากแค่การพิมพ์คำถามหรือหัวข้อที่สนใจ เช่น “ประวัติของข้าว” หรือ “วิธีออกเสียง pain au chocolat” แล้วระบบจะสร้างบทเรียนที่ประกอบด้วยบทความ เสียงพอดแคสต์ เกม และแบบทดสอบให้ทันที

    Oboe ใช้สถาปัตยกรรม AI แบบ multi-agent ที่ซับซ้อน โดยแต่ละ agent ทำหน้าที่เฉพาะ เช่น สร้างโครงสร้างบทเรียน เขียนสคริปต์พอดแคสต์ ดึงภาพจริงจากอินเทอร์เน็ต และตรวจสอบความถูกต้องของเนื้อหา ซึ่งทั้งหมดนี้เกิดขึ้นภายในไม่กี่วินาที ทำให้ผู้ใช้สามารถเริ่มเรียนรู้ได้ทันทีโดยไม่ต้องรอ

    แพลตฟอร์มนี้มีรูปแบบการเรียนรู้ให้เลือกถึง 9 แบบ เช่น บทความเชิงลึก พอดแคสต์แบบสนทนา เกม Word Quest ที่คล้าย Wordle และแบบทดสอบที่ออกแบบให้เบาสมองและเหมาะกับผู้เรียนแต่ละคน โดยไม่มีโฆษณาแทรก และมีระบบแนะนำคอร์สต่อเนื่องตามหัวข้อที่เรียนจบ

    Oboe เปิดให้สร้างคอร์สฟรีได้ 5 ครั้ง และมีแผนสมาชิกแบบเสียเงินสำหรับผู้ที่ต้องการสร้างคอร์สเพิ่มถึง 30 หรือ 100 คอร์สต่อเดือน เหมาะกับทั้งผู้เรียนทั่วไปและผู้จัดการเรียนการสอนแบบโฮมสคูล

    จุดเด่นของแพลตฟอร์ม Oboe
    สร้างคอร์สเรียนรู้ได้ทันทีจากคำถามหรือหัวข้อใดก็ได้
    ใช้ AI แบบ multi-agent ที่ทำงานแบบขนานเพื่อสร้างเนื้อหาอย่างรวดเร็ว
    มีรูปแบบการเรียนรู้ให้เลือกถึง 9 แบบ เช่น บทความ เสียง เกม และแบบทดสอบ
    ไม่มีโฆษณา และมีระบบแนะนำคอร์สต่อเนื่องตามความสนใจ

    ความสามารถของระบบ AI
    agent แต่ละตัวรับผิดชอบด้านต่าง ๆ เช่น เขียนสคริปต์ ดึงภาพจริง ตรวจสอบเนื้อหา
    ใช้ภาพจริงจากอินเทอร์เน็ต ไม่ใช่ภาพที่สร้างจาก AI
    ตรวจสอบความถูกต้องของเนื้อหาเพื่อป้องกันข้อผิดพลาด
    สร้างคอร์สได้ภายในไม่กี่วินาที — เหมาะกับการเรียนรู้แบบทันใจ

    ข้อมูลเสริมจากภายนอก
    ผู้ก่อตั้งเคยมีบทบาทสำคัญในการพัฒนา Spotify audiobooks
    Oboe ได้รับเงินลงทุนกว่า $4 ล้านจาก Eniac Ventures
    มีระบบพอดแคสต์แบบสนทนา 2 คน คล้าย Google NotebookLM
    เหมาะกับผู้เรียนทั่วไป นักเรียน นักวิจัย หรือผู้จัดการเรียนการสอน

    https://www.techradar.com/ai-platforms-assistants/gemini/oboe-just-launched-its-an-ai-powered-platform-that-helps-you-learn-anything
    🎓 “Oboe เปิดตัวแพลตฟอร์มเรียนรู้ด้วย AI — สร้างคอร์สได้ทันทีจากแค่คำถามเดียว” Oboe คือแพลตฟอร์มการเรียนรู้ด้วย AI ที่เพิ่งเปิดตัวโดยผู้ร่วมก่อตั้ง Anchor ซึ่งเคยขายกิจการให้ Spotify ไปก่อนหน้านี้ โดยมีเป้าหมายในการเปลี่ยนวิธีการเรียนรู้ให้สนุก ยืดหยุ่น และเป็นส่วนตัวมากขึ้น ผู้ใช้สามารถสร้างคอร์สเรียนรู้ได้ทันทีจากแค่การพิมพ์คำถามหรือหัวข้อที่สนใจ เช่น “ประวัติของข้าว” หรือ “วิธีออกเสียง pain au chocolat” แล้วระบบจะสร้างบทเรียนที่ประกอบด้วยบทความ เสียงพอดแคสต์ เกม และแบบทดสอบให้ทันที Oboe ใช้สถาปัตยกรรม AI แบบ multi-agent ที่ซับซ้อน โดยแต่ละ agent ทำหน้าที่เฉพาะ เช่น สร้างโครงสร้างบทเรียน เขียนสคริปต์พอดแคสต์ ดึงภาพจริงจากอินเทอร์เน็ต และตรวจสอบความถูกต้องของเนื้อหา ซึ่งทั้งหมดนี้เกิดขึ้นภายในไม่กี่วินาที ทำให้ผู้ใช้สามารถเริ่มเรียนรู้ได้ทันทีโดยไม่ต้องรอ แพลตฟอร์มนี้มีรูปแบบการเรียนรู้ให้เลือกถึง 9 แบบ เช่น บทความเชิงลึก พอดแคสต์แบบสนทนา เกม Word Quest ที่คล้าย Wordle และแบบทดสอบที่ออกแบบให้เบาสมองและเหมาะกับผู้เรียนแต่ละคน โดยไม่มีโฆษณาแทรก และมีระบบแนะนำคอร์สต่อเนื่องตามหัวข้อที่เรียนจบ Oboe เปิดให้สร้างคอร์สฟรีได้ 5 ครั้ง และมีแผนสมาชิกแบบเสียเงินสำหรับผู้ที่ต้องการสร้างคอร์สเพิ่มถึง 30 หรือ 100 คอร์สต่อเดือน เหมาะกับทั้งผู้เรียนทั่วไปและผู้จัดการเรียนการสอนแบบโฮมสคูล ✅ จุดเด่นของแพลตฟอร์ม Oboe ➡️ สร้างคอร์สเรียนรู้ได้ทันทีจากคำถามหรือหัวข้อใดก็ได้ ➡️ ใช้ AI แบบ multi-agent ที่ทำงานแบบขนานเพื่อสร้างเนื้อหาอย่างรวดเร็ว ➡️ มีรูปแบบการเรียนรู้ให้เลือกถึง 9 แบบ เช่น บทความ เสียง เกม และแบบทดสอบ ➡️ ไม่มีโฆษณา และมีระบบแนะนำคอร์สต่อเนื่องตามความสนใจ ✅ ความสามารถของระบบ AI ➡️ agent แต่ละตัวรับผิดชอบด้านต่าง ๆ เช่น เขียนสคริปต์ ดึงภาพจริง ตรวจสอบเนื้อหา ➡️ ใช้ภาพจริงจากอินเทอร์เน็ต ไม่ใช่ภาพที่สร้างจาก AI ➡️ ตรวจสอบความถูกต้องของเนื้อหาเพื่อป้องกันข้อผิดพลาด ➡️ สร้างคอร์สได้ภายในไม่กี่วินาที — เหมาะกับการเรียนรู้แบบทันใจ ✅ ข้อมูลเสริมจากภายนอก ➡️ ผู้ก่อตั้งเคยมีบทบาทสำคัญในการพัฒนา Spotify audiobooks ➡️ Oboe ได้รับเงินลงทุนกว่า $4 ล้านจาก Eniac Ventures ➡️ มีระบบพอดแคสต์แบบสนทนา 2 คน คล้าย Google NotebookLM ➡️ เหมาะกับผู้เรียนทั่วไป นักเรียน นักวิจัย หรือผู้จัดการเรียนการสอน https://www.techradar.com/ai-platforms-assistants/gemini/oboe-just-launched-its-an-ai-powered-platform-that-helps-you-learn-anything
    WWW.TECHRADAR.COM
    Oboe's AI makes everyday curiosity into interactive lessons.
    Choose how you learn using everything from games to podcasts
    0 ความคิดเห็น 0 การแบ่งปัน 158 มุมมอง 0 รีวิว
  • “Intel ปลุกชีพ Comet Lake อีกครั้งในปี 2025 — เปิดตัว Core i5-110 บนสถาปัตยกรรม 14nm+++ ที่ไม่มีอะไรใหม่เลย”

    ในยุคที่โลกกำลังมุ่งหน้าสู่ชิปขนาดเล็กระดับ 3 นาโนเมตร Intel กลับสร้างความประหลาดใจด้วยการเปิดตัว Core i5-110 ซึ่งเป็นการนำชิป Comet Lake จากปี 2020 กลับมารีแบรนด์ใหม่ในชื่อ Core Series 1 โดยไม่มีการเปลี่ยนแปลงใด ๆ ทั้งด้านสเปกหรือเทคโนโลยีการผลิต

    Core i5-110 ใช้สถาปัตยกรรม Skylake บนกระบวนการผลิต 14nm+++ มี 6 คอร์ 12 เธรด ความเร็วพื้นฐาน 2.9 GHz และบูสต์สูงสุด 4.3 GHz พร้อมแคช L3 ขนาด 12MB และ TDP 65W ซึ่งเหมือนกับ Core i5-10400 ทุกประการ แม้แต่กราฟิกในตัวก็ยังเป็น Intel UHD 630 ตัวเดิม

    Intel เปิดตัวชิปนี้ในไตรมาส 3 ปี 2025 โดยวางราคาไว้ที่ $200 เท่ากับราคาตอนเปิดตัว Core i5-10400 เมื่อ 5 ปีก่อน ซึ่งสร้างคำถามว่า “นี่คือการรีแบรนด์เพื่ออะไร?” เพราะ LGA1200 ซึ่งเป็นซ็อกเก็ตที่รองรับชิปนี้ก็ถูกแทนที่ไปแล้วถึงสองรุ่น

    แม้ Intel จะพยายามรวมชิปนี้ไว้ใน Core Series 1 ซึ่งเดิมใช้กับ Raptor Lake แบบฝังตัวและโน้ตบุ๊ก แต่การนำชิปเก่ากลับมาโดยไม่มีการปรับปรุงใด ๆ ทำให้หลายฝ่ายมองว่าเป็นการเคลื่อนไหวที่ไร้เหตุผล และอาจสร้างความสับสนให้กับผู้บริโภค

    รายละเอียดของ Core i5-110
    เปิดตัวในไตรมาส 3 ปี 2025 บนสถาปัตยกรรม Comet Lake (Skylake)
    ใช้กระบวนการผลิต 14nm+++ แบบเดิมจากปี 2020
    สเปกเหมือนกับ Core i5-10400 ทุกประการ: 6 คอร์ 12 เธรด, 2.9–4.3 GHz, 12MB L3 cache
    รองรับ LGA1200 และเมนบอร์ดซีรีส์ 400/500

    การรีแบรนด์และการตลาด
    Intel รวมชิปนี้ไว้ใน Core Series 1 ซึ่งเดิมใช้กับ Raptor Lake แบบฝังตัว
    เปิดตัวพร้อมกับ Core 5 120 ซึ่งก็เป็นการรีแบรนด์เช่นกัน
    ไม่มีการปรับปรุงด้านประสิทธิภาพหรือฟีเจอร์ใหม่
    ราคาเปิดตัว $200 เท่ากับ Core i5-10400 เมื่อ 5 ปีก่อน

    ข้อมูลเสริมจากภายนอก
    Comet Lake เป็นรุ่นที่ใช้สถาปัตยกรรม Skylake ซึ่งเปิดตัวครั้งแรกในปี 2015
    ชิป 14nm+++ ควรมีต้นทุนการผลิตต่ำมากในปี 2025
    LGA1200 ถูกแทนที่ด้วย LGA1700 และ LGA1851 แล้ว
    ชิปใหม่อย่าง Arrow Lake และ Nova Lake ใช้เทคโนโลยีที่ล้ำหน้ากว่าหลายเท่า

    คำเตือนและข้อจำกัด
    Core i5-110 เป็นการรีแบรนด์แบบไม่มีการปรับปรุงใด ๆ — ไม่ใช่ชิปรุ่นใหม่จริง
    LGA1200 เป็นซ็อกเก็ตที่เลิกใช้แล้ว — ผู้ใช้ทั่วไปอาจไม่มีเมนบอร์ดที่รองรับ
    ราคา $200 ถือว่าแพงเกินไปสำหรับชิปที่ไม่มีอะไรใหม่
    ไม่มีฟีเจอร์ใหม่ เช่น PCIe 5.0, DDR5 หรือ AI acceleration
    การรวมชิปเก่าไว้ในซีรีส์ใหม่อาจทำให้ผู้บริโภคสับสนเรื่องรุ่นและความสามารถ

    https://www.tomshardware.com/pc-components/cpus/intels-14nm-desktop-cpus-are-making-a-comeback-chipmaker-inexplicably-resurrects-comet-lake-from-five-years-ago-with-new-core-i5-110
    🧊 “Intel ปลุกชีพ Comet Lake อีกครั้งในปี 2025 — เปิดตัว Core i5-110 บนสถาปัตยกรรม 14nm+++ ที่ไม่มีอะไรใหม่เลย” ในยุคที่โลกกำลังมุ่งหน้าสู่ชิปขนาดเล็กระดับ 3 นาโนเมตร Intel กลับสร้างความประหลาดใจด้วยการเปิดตัว Core i5-110 ซึ่งเป็นการนำชิป Comet Lake จากปี 2020 กลับมารีแบรนด์ใหม่ในชื่อ Core Series 1 โดยไม่มีการเปลี่ยนแปลงใด ๆ ทั้งด้านสเปกหรือเทคโนโลยีการผลิต Core i5-110 ใช้สถาปัตยกรรม Skylake บนกระบวนการผลิต 14nm+++ มี 6 คอร์ 12 เธรด ความเร็วพื้นฐาน 2.9 GHz และบูสต์สูงสุด 4.3 GHz พร้อมแคช L3 ขนาด 12MB และ TDP 65W ซึ่งเหมือนกับ Core i5-10400 ทุกประการ แม้แต่กราฟิกในตัวก็ยังเป็น Intel UHD 630 ตัวเดิม Intel เปิดตัวชิปนี้ในไตรมาส 3 ปี 2025 โดยวางราคาไว้ที่ $200 เท่ากับราคาตอนเปิดตัว Core i5-10400 เมื่อ 5 ปีก่อน ซึ่งสร้างคำถามว่า “นี่คือการรีแบรนด์เพื่ออะไร?” เพราะ LGA1200 ซึ่งเป็นซ็อกเก็ตที่รองรับชิปนี้ก็ถูกแทนที่ไปแล้วถึงสองรุ่น แม้ Intel จะพยายามรวมชิปนี้ไว้ใน Core Series 1 ซึ่งเดิมใช้กับ Raptor Lake แบบฝังตัวและโน้ตบุ๊ก แต่การนำชิปเก่ากลับมาโดยไม่มีการปรับปรุงใด ๆ ทำให้หลายฝ่ายมองว่าเป็นการเคลื่อนไหวที่ไร้เหตุผล และอาจสร้างความสับสนให้กับผู้บริโภค ✅ รายละเอียดของ Core i5-110 ➡️ เปิดตัวในไตรมาส 3 ปี 2025 บนสถาปัตยกรรม Comet Lake (Skylake) ➡️ ใช้กระบวนการผลิต 14nm+++ แบบเดิมจากปี 2020 ➡️ สเปกเหมือนกับ Core i5-10400 ทุกประการ: 6 คอร์ 12 เธรด, 2.9–4.3 GHz, 12MB L3 cache ➡️ รองรับ LGA1200 และเมนบอร์ดซีรีส์ 400/500 ✅ การรีแบรนด์และการตลาด ➡️ Intel รวมชิปนี้ไว้ใน Core Series 1 ซึ่งเดิมใช้กับ Raptor Lake แบบฝังตัว ➡️ เปิดตัวพร้อมกับ Core 5 120 ซึ่งก็เป็นการรีแบรนด์เช่นกัน ➡️ ไม่มีการปรับปรุงด้านประสิทธิภาพหรือฟีเจอร์ใหม่ ➡️ ราคาเปิดตัว $200 เท่ากับ Core i5-10400 เมื่อ 5 ปีก่อน ✅ ข้อมูลเสริมจากภายนอก ➡️ Comet Lake เป็นรุ่นที่ใช้สถาปัตยกรรม Skylake ซึ่งเปิดตัวครั้งแรกในปี 2015 ➡️ ชิป 14nm+++ ควรมีต้นทุนการผลิตต่ำมากในปี 2025 ➡️ LGA1200 ถูกแทนที่ด้วย LGA1700 และ LGA1851 แล้ว ➡️ ชิปใหม่อย่าง Arrow Lake และ Nova Lake ใช้เทคโนโลยีที่ล้ำหน้ากว่าหลายเท่า ‼️ คำเตือนและข้อจำกัด ⛔ Core i5-110 เป็นการรีแบรนด์แบบไม่มีการปรับปรุงใด ๆ — ไม่ใช่ชิปรุ่นใหม่จริง ⛔ LGA1200 เป็นซ็อกเก็ตที่เลิกใช้แล้ว — ผู้ใช้ทั่วไปอาจไม่มีเมนบอร์ดที่รองรับ ⛔ ราคา $200 ถือว่าแพงเกินไปสำหรับชิปที่ไม่มีอะไรใหม่ ⛔ ไม่มีฟีเจอร์ใหม่ เช่น PCIe 5.0, DDR5 หรือ AI acceleration ⛔ การรวมชิปเก่าไว้ในซีรีส์ใหม่อาจทำให้ผู้บริโภคสับสนเรื่องรุ่นและความสามารถ https://www.tomshardware.com/pc-components/cpus/intels-14nm-desktop-cpus-are-making-a-comeback-chipmaker-inexplicably-resurrects-comet-lake-from-five-years-ago-with-new-core-i5-110
    0 ความคิดเห็น 0 การแบ่งปัน 118 มุมมอง 0 รีวิว
  • “DOOMQL: เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — เมื่อฐานข้อมูลกลายเป็นเครื่องมือสร้างโลก 3D”

    ใครจะคิดว่า SQL ซึ่งเป็นภาษาที่ใช้จัดการฐานข้อมูล จะสามารถใช้สร้างเกมยิงแบบ DOOM ได้ ล่าสุด Lukas Vogel นักวิทยาศาสตร์คอมพิวเตอร์และผู้ร่วมก่อตั้ง CedarDB ได้สร้างเกมชื่อ “DOOMQL” ซึ่งเป็นเกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย “pure SQL” ทั้งหมด โดยใช้เวลาเพียงหนึ่งเดือนระหว่างการลาคลอด

    DOOMQL ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตจากผู้เล่นและแสดงภาพ ส่วนการประมวลผลทั้งหมด — ตั้งแต่การเรนเดอร์ภาพ 3D, การเคลื่อนไหวของศัตรู, ไปจนถึงการจัดการสถานะเกม — ถูกเขียนด้วย SQL ล้วน ๆ บนฐานข้อมูล CedarDB ซึ่งทำให้เกมสามารถรันได้ที่ 30 FPS บนความละเอียด 128x64 พิกเซล

    ความพิเศษของ DOOMQL คือการใช้ฐานข้อมูลเป็น “เซิร์ฟเวอร์เกม” โดยอาศัยคุณสมบัติของ SQL เช่น transaction isolation เพื่อให้ผู้เล่นแต่ละคนเห็นสถานะเกมที่สอดคล้องกัน แม้จะมีผู้เล่นหลายคนพร้อมกัน และยังสามารถ “โกง” ได้โดยการส่งคำสั่ง SQL ตรงเข้าไปในฐานข้อมูล

    Vogel ได้แรงบันดาลใจจากโปรเจกต์ DuckDB-DOOM ซึ่งใช้ SQL ร่วมกับ JavaScript ในการเรนเดอร์ภาพ แต่เขามองว่าการใช้ JavaScript เป็น “การโกง” และต้องการพิสูจน์ว่า SQL เพียงอย่างเดียวก็สามารถสร้างเกมได้จริง แม้จะยอมรับว่า “มันอาจจะเป็นไอเดียที่แย่” ในแง่ของการดูแลรักษาและดีบัก

    จุดเด่นของ DOOMQL
    เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — ไม่มี JavaScript หรือ engine ภายนอก
    ใช้ CedarDB เป็นฐานข้อมูลหลักในการจัดการสถานะและเรนเดอร์ภาพ
    รันที่ 30 FPS บนความละเอียด 128x64 พิกเซล — เร็วกว่ารุ่น DuckDB ที่รันได้เพียง 8 FPS
    ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตและแสดงภาพ

    สถาปัตยกรรมของเกม
    ข้อมูลทั้งหมดอยู่ในตาราง SQL เช่น map, players, mobs, inputs, sprites
    การเรนเดอร์ใช้ stack ของ SQL views ที่ทำ raycasting และ sprite projection
    game loop เป็น shell script ที่รัน SQL file ประมาณ 30 ครั้งต่อวินาที
    ผู้เล่นสามารถส่งคำสั่ง SQL เพื่อเปลี่ยนสถานะเกมหรือ “โกง” ได้โดยตรง

    ข้อมูลเสริมจากภายนอก
    DuckDB-DOOM เป็นโปรเจกต์ก่อนหน้า ที่ใช้ SQL ร่วมกับ JavaScript และ WebAssembly
    DOOMQL ได้รับความสนใจจากนักพัฒนาและนักวิจัยด้านฐานข้อมูล
    CedarDB เป็นฐานข้อมูลที่ออกแบบมาเพื่อประสิทธิภาพสูงในการ query แบบ real-time
    Vogel วางแผนเพิ่มฟีเจอร์ เช่น power-ups, อาวุธหลายแบบ, AI ฝ่ายตรงข้าม และระบบ sprite ที่ดีขึ้น

    https://www.tomshardware.com/video-games/retro-gaming/doom-multiplayer-tribute-gets-coded-in-pure-sql-and-runs-at-30fps-made-from-just-150-lines-of-code-in-less-than-a-month
    🧠 “DOOMQL: เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — เมื่อฐานข้อมูลกลายเป็นเครื่องมือสร้างโลก 3D” ใครจะคิดว่า SQL ซึ่งเป็นภาษาที่ใช้จัดการฐานข้อมูล จะสามารถใช้สร้างเกมยิงแบบ DOOM ได้ ล่าสุด Lukas Vogel นักวิทยาศาสตร์คอมพิวเตอร์และผู้ร่วมก่อตั้ง CedarDB ได้สร้างเกมชื่อ “DOOMQL” ซึ่งเป็นเกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย “pure SQL” ทั้งหมด โดยใช้เวลาเพียงหนึ่งเดือนระหว่างการลาคลอด DOOMQL ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตจากผู้เล่นและแสดงภาพ ส่วนการประมวลผลทั้งหมด — ตั้งแต่การเรนเดอร์ภาพ 3D, การเคลื่อนไหวของศัตรู, ไปจนถึงการจัดการสถานะเกม — ถูกเขียนด้วย SQL ล้วน ๆ บนฐานข้อมูล CedarDB ซึ่งทำให้เกมสามารถรันได้ที่ 30 FPS บนความละเอียด 128x64 พิกเซล ความพิเศษของ DOOMQL คือการใช้ฐานข้อมูลเป็น “เซิร์ฟเวอร์เกม” โดยอาศัยคุณสมบัติของ SQL เช่น transaction isolation เพื่อให้ผู้เล่นแต่ละคนเห็นสถานะเกมที่สอดคล้องกัน แม้จะมีผู้เล่นหลายคนพร้อมกัน และยังสามารถ “โกง” ได้โดยการส่งคำสั่ง SQL ตรงเข้าไปในฐานข้อมูล Vogel ได้แรงบันดาลใจจากโปรเจกต์ DuckDB-DOOM ซึ่งใช้ SQL ร่วมกับ JavaScript ในการเรนเดอร์ภาพ แต่เขามองว่าการใช้ JavaScript เป็น “การโกง” และต้องการพิสูจน์ว่า SQL เพียงอย่างเดียวก็สามารถสร้างเกมได้จริง แม้จะยอมรับว่า “มันอาจจะเป็นไอเดียที่แย่” ในแง่ของการดูแลรักษาและดีบัก ✅ จุดเด่นของ DOOMQL ➡️ เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — ไม่มี JavaScript หรือ engine ภายนอก ➡️ ใช้ CedarDB เป็นฐานข้อมูลหลักในการจัดการสถานะและเรนเดอร์ภาพ ➡️ รันที่ 30 FPS บนความละเอียด 128x64 พิกเซล — เร็วกว่ารุ่น DuckDB ที่รันได้เพียง 8 FPS ➡️ ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตและแสดงภาพ ✅ สถาปัตยกรรมของเกม ➡️ ข้อมูลทั้งหมดอยู่ในตาราง SQL เช่น map, players, mobs, inputs, sprites ➡️ การเรนเดอร์ใช้ stack ของ SQL views ที่ทำ raycasting และ sprite projection ➡️ game loop เป็น shell script ที่รัน SQL file ประมาณ 30 ครั้งต่อวินาที ➡️ ผู้เล่นสามารถส่งคำสั่ง SQL เพื่อเปลี่ยนสถานะเกมหรือ “โกง” ได้โดยตรง ✅ ข้อมูลเสริมจากภายนอก ➡️ DuckDB-DOOM เป็นโปรเจกต์ก่อนหน้า ที่ใช้ SQL ร่วมกับ JavaScript และ WebAssembly ➡️ DOOMQL ได้รับความสนใจจากนักพัฒนาและนักวิจัยด้านฐานข้อมูล ➡️ CedarDB เป็นฐานข้อมูลที่ออกแบบมาเพื่อประสิทธิภาพสูงในการ query แบบ real-time ➡️ Vogel วางแผนเพิ่มฟีเจอร์ เช่น power-ups, อาวุธหลายแบบ, AI ฝ่ายตรงข้าม และระบบ sprite ที่ดีขึ้น https://www.tomshardware.com/video-games/retro-gaming/doom-multiplayer-tribute-gets-coded-in-pure-sql-and-runs-at-30fps-made-from-just-150-lines-of-code-in-less-than-a-month
    0 ความคิดเห็น 0 การแบ่งปัน 145 มุมมอง 0 รีวิว
  • “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว”

    Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6

    A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3%

    ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD

    แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10%

    ประสิทธิภาพของ A19 Pro
    คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4
    คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro
    ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50%
    ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน

    ประสิทธิภาพด้านกราฟิก
    GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน
    ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec
    ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M
    รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี

    ข้อมูลเสริมจากภายนอก
    A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling
    Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด
    ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้
    เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ

    คำเตือนและข้อจำกัด
    คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน
    A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน
    Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์
    การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน
    การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน

    https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    🚀 “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว” Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6 A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3% ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10% ✅ ประสิทธิภาพของ A19 Pro ➡️ คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4 ➡️ คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro ➡️ ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50% ➡️ ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน ✅ ประสิทธิภาพด้านกราฟิก ➡️ GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน ➡️ ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec ➡️ ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M ➡️ รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี ✅ ข้อมูลเสริมจากภายนอก ➡️ A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling ➡️ Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด ➡️ ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้ ➡️ เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ ‼️ คำเตือนและข้อจำกัด ⛔ คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน ⛔ A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน ⛔ Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์ ⛔ การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน ⛔ การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    0 ความคิดเห็น 0 การแบ่งปัน 89 มุมมอง 0 รีวิว
  • “ByteDance เปิดตัว Seedream 4.0 ท้าชน Nano Banana ของ Google — เมื่อ AI สร้างภาพกลายเป็นสนามแข่งระดับโลก”

    ByteDance เจ้าของ TikTok เปิดตัวเครื่องมือ AI สร้างภาพรุ่นใหม่ชื่อว่า “Seedream 4.0” โดยตั้งเป้าแข่งขันโดยตรงกับ Gemini 2.5 Flash Image ของ Google DeepMind ซึ่งเป็นที่รู้จักในชื่อเล่นว่า “Nano Banana” ที่โด่งดังจากการสร้างภาพ 3D สุดสร้างสรรค์บนโซเชียล Seedream 4.0 ได้รับการพัฒนาโดยแผนก Seed ของ ByteDance และเปิดตัวเมื่อวันที่ 10 กันยายน 2025

    ByteDance อ้างว่า Seedream 4.0 มีประสิทธิภาพเหนือกว่า Nano Banana ในการสร้างภาพและแก้ไขภาพ โดยเฉพาะด้านความแม่นยำของ prompt, ความสอดคล้องขององค์ประกอบ และความสวยงามของภาพ ซึ่งวัดจาก benchmark ภายในชื่อว่า MagicBench แม้ผลการทดสอบจะยังไม่ถูกเผยแพร่ในรายงานทางเทคนิคอย่างเป็นทางการ

    Seedream 4.0 เป็นการรวมจุดแข็งของ Seedream 3.0 (ด้าน text-to-image) และ SeedEdit 3.0 (ด้าน image editing) เข้าด้วยกัน พร้อมปรับสถาปัตยกรรมใหม่ให้ inference เร็วขึ้นกว่าเดิมถึง 10 เท่า โดยยังคงราคาเดิมที่ $30 ต่อ 1,000 ภาพ และมีราคาต่อภาพต่ำกว่า Gemini 2.5 Flash Image บนแพลตฟอร์ม Fal.ai

    เครื่องมือนี้เปิดให้ใช้งานแล้วในจีนผ่านแอป Jimeng และ Doubao รวมถึงลูกค้าองค์กรผ่าน Volcano Engine ขณะที่ตลาด AI สร้างภาพในจีนกำลังร้อนแรง โดยมีคู่แข่งอย่าง Tencent, Kuaishou และ Vidu จาก Tsinghua University ที่เพิ่งเปิดตัวฟีเจอร์ใหม่สำหรับการสร้างภาพจากหลาย reference

    จุดเด่นของ Seedream 4.0 จาก ByteDance
    เปิดตัวเมื่อ 10 กันยายน 2025 โดยแผนก Seed ของ ByteDance
    รวมความสามารถของ Seedream 3.0 และ SeedEdit 3.0 เข้าด้วยกัน
    ปรับสถาปัตยกรรมใหม่ ทำให้ inference เร็วขึ้นกว่าเดิม 10 เท่า
    ราคา $30 ต่อ 1,000 ภาพ หรือ $0.03 ต่อภาพ บน Fal.ai — ถูกกว่า Nano Banana

    การเปรียบเทียบกับ Gemini 2.5 Flash Image (Nano Banana)
    ByteDance อ้างว่า Seedream 4.0 เหนือกว่าใน prompt adherence, alignment และ aesthetics
    ใช้ benchmark ภายในชื่อ MagicBench แต่ยังไม่มีรายงานเทคนิคเผยแพร่
    Nano Banana ได้รับความนิยมจากการสร้างภาพ 3D ที่แชร์ได้ง่ายและสนุก
    Gemini 2.5 ยังครองอันดับสูงสุดใน text-to-image และ image editing บน Artificial Analysis

    การใช้งานและการเข้าถึง
    เปิดให้ใช้งานในจีนผ่านแอป Jimeng และ Doubao
    ลูกค้าองค์กรสามารถใช้ผ่าน Volcano Engine ของ ByteDance
    ได้รับคำชมจากผู้ใช้เรื่องความแม่นยำในการแก้ไขภาพผ่าน text prompt
    รองรับการใช้งานแบบ bulk สำหรับลูกค้าเชิงพาณิชย์

    ข้อมูลเสริมจากภายนอก
    ตลาด AI สร้างภาพในจีนเติบโตอย่างรวดเร็ว โดยมีผู้เล่นหลายราย
    Vidu จาก Tsinghua University เปิดตัวฟีเจอร์สร้างภาพจาก 7 reference
    Gemini 2.5 รองรับการสร้างภาพจาก 9 reference
    รัฐบาลจีนรับรองลิขสิทธิ์ของภาพที่สร้างด้วย AI ตั้งแต่ปลายปี 2023 พร้อมบังคับติดป้ายกำกับ

    https://www.thestar.com.my/tech/tech-news/2025/09/12/bytedance-unveils-new-ai-image-model-to-rival-google-deepminds-nano-banana
    🖼️ “ByteDance เปิดตัว Seedream 4.0 ท้าชน Nano Banana ของ Google — เมื่อ AI สร้างภาพกลายเป็นสนามแข่งระดับโลก” ByteDance เจ้าของ TikTok เปิดตัวเครื่องมือ AI สร้างภาพรุ่นใหม่ชื่อว่า “Seedream 4.0” โดยตั้งเป้าแข่งขันโดยตรงกับ Gemini 2.5 Flash Image ของ Google DeepMind ซึ่งเป็นที่รู้จักในชื่อเล่นว่า “Nano Banana” ที่โด่งดังจากการสร้างภาพ 3D สุดสร้างสรรค์บนโซเชียล Seedream 4.0 ได้รับการพัฒนาโดยแผนก Seed ของ ByteDance และเปิดตัวเมื่อวันที่ 10 กันยายน 2025 ByteDance อ้างว่า Seedream 4.0 มีประสิทธิภาพเหนือกว่า Nano Banana ในการสร้างภาพและแก้ไขภาพ โดยเฉพาะด้านความแม่นยำของ prompt, ความสอดคล้องขององค์ประกอบ และความสวยงามของภาพ ซึ่งวัดจาก benchmark ภายในชื่อว่า MagicBench แม้ผลการทดสอบจะยังไม่ถูกเผยแพร่ในรายงานทางเทคนิคอย่างเป็นทางการ Seedream 4.0 เป็นการรวมจุดแข็งของ Seedream 3.0 (ด้าน text-to-image) และ SeedEdit 3.0 (ด้าน image editing) เข้าด้วยกัน พร้อมปรับสถาปัตยกรรมใหม่ให้ inference เร็วขึ้นกว่าเดิมถึง 10 เท่า โดยยังคงราคาเดิมที่ $30 ต่อ 1,000 ภาพ และมีราคาต่อภาพต่ำกว่า Gemini 2.5 Flash Image บนแพลตฟอร์ม Fal.ai เครื่องมือนี้เปิดให้ใช้งานแล้วในจีนผ่านแอป Jimeng และ Doubao รวมถึงลูกค้าองค์กรผ่าน Volcano Engine ขณะที่ตลาด AI สร้างภาพในจีนกำลังร้อนแรง โดยมีคู่แข่งอย่าง Tencent, Kuaishou และ Vidu จาก Tsinghua University ที่เพิ่งเปิดตัวฟีเจอร์ใหม่สำหรับการสร้างภาพจากหลาย reference ✅ จุดเด่นของ Seedream 4.0 จาก ByteDance ➡️ เปิดตัวเมื่อ 10 กันยายน 2025 โดยแผนก Seed ของ ByteDance ➡️ รวมความสามารถของ Seedream 3.0 และ SeedEdit 3.0 เข้าด้วยกัน ➡️ ปรับสถาปัตยกรรมใหม่ ทำให้ inference เร็วขึ้นกว่าเดิม 10 เท่า ➡️ ราคา $30 ต่อ 1,000 ภาพ หรือ $0.03 ต่อภาพ บน Fal.ai — ถูกกว่า Nano Banana ✅ การเปรียบเทียบกับ Gemini 2.5 Flash Image (Nano Banana) ➡️ ByteDance อ้างว่า Seedream 4.0 เหนือกว่าใน prompt adherence, alignment และ aesthetics ➡️ ใช้ benchmark ภายในชื่อ MagicBench แต่ยังไม่มีรายงานเทคนิคเผยแพร่ ➡️ Nano Banana ได้รับความนิยมจากการสร้างภาพ 3D ที่แชร์ได้ง่ายและสนุก ➡️ Gemini 2.5 ยังครองอันดับสูงสุดใน text-to-image และ image editing บน Artificial Analysis ✅ การใช้งานและการเข้าถึง ➡️ เปิดให้ใช้งานในจีนผ่านแอป Jimeng และ Doubao ➡️ ลูกค้าองค์กรสามารถใช้ผ่าน Volcano Engine ของ ByteDance ➡️ ได้รับคำชมจากผู้ใช้เรื่องความแม่นยำในการแก้ไขภาพผ่าน text prompt ➡️ รองรับการใช้งานแบบ bulk สำหรับลูกค้าเชิงพาณิชย์ ✅ ข้อมูลเสริมจากภายนอก ➡️ ตลาด AI สร้างภาพในจีนเติบโตอย่างรวดเร็ว โดยมีผู้เล่นหลายราย ➡️ Vidu จาก Tsinghua University เปิดตัวฟีเจอร์สร้างภาพจาก 7 reference ➡️ Gemini 2.5 รองรับการสร้างภาพจาก 9 reference ➡️ รัฐบาลจีนรับรองลิขสิทธิ์ของภาพที่สร้างด้วย AI ตั้งแต่ปลายปี 2023 พร้อมบังคับติดป้ายกำกับ https://www.thestar.com.my/tech/tech-news/2025/09/12/bytedance-unveils-new-ai-image-model-to-rival-google-deepminds-nano-banana
    WWW.THESTAR.COM.MY
    ByteDance unveils new AI image model to rival Google DeepMind’s ‘Nano Banana’
    ByteDance claims that Seedream 4.0 beat Gemini 2.5 Flash Image for image generation and editing on its internal evaluation benchmark.
    0 ความคิดเห็น 0 การแบ่งปัน 142 มุมมอง 0 รีวิว
  • “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ”

    AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576.

    MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency

    แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ

    AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM

    โครงสร้างของ AMD MegaPod
    ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking
    มีทั้งหมด 64 CPU Verano และ 256 GPU MI500
    ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm
    ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ

    จุดเด่นด้านเทคโนโลยี
    MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine
    Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery
    ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads
    ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload

    การเปรียบเทียบกับ Nvidia SuperPod
    MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576
    Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว
    AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency
    การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU

    ข้อมูลเสริมจากภายนอก
    AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice
    MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging
    ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS
    Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray

    https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    🚀 “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ” AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576. MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM ✅ โครงสร้างของ AMD MegaPod ➡️ ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking ➡️ มีทั้งหมด 64 CPU Verano และ 256 GPU MI500 ➡️ ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm ➡️ ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ ✅ จุดเด่นด้านเทคโนโลยี ➡️ MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine ➡️ Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery ➡️ ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads ➡️ ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload ✅ การเปรียบเทียบกับ Nvidia SuperPod ➡️ MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576 ➡️ Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว ➡️ AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency ➡️ การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU ✅ ข้อมูลเสริมจากภายนอก ➡️ AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice ➡️ MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging ➡️ ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS ➡️ Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    0 ความคิดเห็น 0 การแบ่งปัน 114 มุมมอง 0 รีวิว
  • “Intel Arc Pro B50 พลิกเกมเวิร์กสเตชัน — แซงหน้า Nvidia RTX A1000 ทั้งด้าน AI และงานสร้างสรรค์ ด้วยราคาที่จับต้องได้”

    Intel สร้างความประหลาดใจให้กับวงการเวิร์กสเตชันด้วยการเปิดตัว Arc Pro B50 การ์ดจอระดับมืออาชีพรุ่นใหม่ที่แม้จะมีขนาดเล็กและราคาย่อมเยา แต่กลับสามารถเอาชนะ Nvidia RTX A1000 ได้ในหลายด้าน ทั้งงาน AI, การเรนเดอร์ Blender และแอป Adobe ที่ใช้ GPU หนัก ๆ

    Arc Pro B50 ใช้สถาปัตยกรรม Xe2 รุ่นใหม่ ซึ่งเป็นพื้นฐานเดียวกับซีรีส์ Battlemage สำหรับผู้บริโภค โดยมี 16 Xe2 cores และ 128 XMX matrix engines พร้อมหน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ที่มีเพียง 8GB และให้แบนด์วิดท์สูงถึง 224GB/s

    การ์ดนี้ออกแบบมาให้มีขนาดเล็กเพียง 168 มม. ใช้พลังงานแค่ 70W ไม่ต้องต่อไฟเพิ่ม และมาพร้อมพอร์ต Mini DisplayPort 2.1 ถึง 4 ช่อง ซึ่งเหนือกว่าพอร์ต 1.4a ของ A1000 อย่างชัดเจน

    ในการทดสอบจริง Arc Pro B50 ทำคะแนนเหนือกว่า A1000 ในหลายแอป เช่น Photoshop (ดีกว่า 7%), Premiere Pro (ดีกว่า 20%) และ Blender (ดีกว่า 20%) ซึ่งเป็นพื้นที่ที่ Nvidia เคยครองตลาดมาโดยตลอด นอกจากนี้ยังทำคะแนนสูงกว่าใน MLPerf และ Procyon AI benchmarks โดยเฉพาะด้าน computer vision และ text generation

    แม้จะมีจุดอ่อนในบางแอป เช่น Revit และ Inventor ที่ A1000 ยังทำงานได้เร็วกว่า แต่ในภาพรวม Arc Pro B50 ถือเป็นการ์ดที่ให้ความคุ้มค่าสูงมากในราคาเพียง $350 และได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ

    จุดเด่นของ Intel Arc Pro B50
    ใช้สถาปัตยกรรม Xe2 พร้อม 16 Xe2 cores และ 128 XMX engines
    หน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ถึง 2 เท่า
    แบนด์วิดท์ 224GB/s และ FP8 compute สูงถึง 170 TOPS
    ขนาดเล็ก 168 มม. ใช้พลังงานเพียง 70W ไม่ต้องต่อไฟเพิ่ม

    ประสิทธิภาพในการใช้งานจริง
    Photoshop ดีกว่า A1000 ประมาณ 7% โดยเฉพาะงาน GPU-heavy
    Premiere Pro ดีกว่าเกือบ 20% ในงานตัดต่อวิดีโอ
    Blender เรนเดอร์เร็วกว่า A1000 ถึง 20% — พลิกเกมจากเดิมที่ Nvidia ครอง
    MLPerf และ Procyon AI แสดงผลลัพธ์ดีกว่าในงาน computer vision และ text generation

    ความเหมาะสมกับงานมืออาชีพ
    ได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ เช่น Adobe, Autodesk
    มีพอร์ต Mini DisplayPort 2.1 จำนวน 4 ช่อง — รองรับจอความละเอียดสูง
    เหมาะกับงาน CAD, การตัดต่อ, โมเดล AI ขนาดเล็ก และงานสร้างสรรค์
    ราคาขายเพียง $350 — คุ้มค่ากว่าการ์ดระดับเดียวกัน

    ข้อมูลเสริมจากภายนอก
    Xe2 cores รองรับ SIMD16 — ดีกว่ารุ่นก่อนที่รองรับแค่ SIMD8
    มี dual media engine รองรับการเข้ารหัส/ถอดรหัสวิดีโอ 8K 10-bit
    มีการพัฒนา containerized Linux สำหรับงาน LLM โดยเฉพาะ
    Arc Pro B50 ใช้ GPU BMG-G21 ที่ Intel ปรับแต่งให้เหมาะกับต้นทุน

    https://www.techradar.com/pro/an-impressive-little-gpu-reviewers-surprised-by-intel-arc-pro-b50-gpus-superior-display-against-nvidias-rtx-a1000
    🎨 “Intel Arc Pro B50 พลิกเกมเวิร์กสเตชัน — แซงหน้า Nvidia RTX A1000 ทั้งด้าน AI และงานสร้างสรรค์ ด้วยราคาที่จับต้องได้” Intel สร้างความประหลาดใจให้กับวงการเวิร์กสเตชันด้วยการเปิดตัว Arc Pro B50 การ์ดจอระดับมืออาชีพรุ่นใหม่ที่แม้จะมีขนาดเล็กและราคาย่อมเยา แต่กลับสามารถเอาชนะ Nvidia RTX A1000 ได้ในหลายด้าน ทั้งงาน AI, การเรนเดอร์ Blender และแอป Adobe ที่ใช้ GPU หนัก ๆ Arc Pro B50 ใช้สถาปัตยกรรม Xe2 รุ่นใหม่ ซึ่งเป็นพื้นฐานเดียวกับซีรีส์ Battlemage สำหรับผู้บริโภค โดยมี 16 Xe2 cores และ 128 XMX matrix engines พร้อมหน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ที่มีเพียง 8GB และให้แบนด์วิดท์สูงถึง 224GB/s การ์ดนี้ออกแบบมาให้มีขนาดเล็กเพียง 168 มม. ใช้พลังงานแค่ 70W ไม่ต้องต่อไฟเพิ่ม และมาพร้อมพอร์ต Mini DisplayPort 2.1 ถึง 4 ช่อง ซึ่งเหนือกว่าพอร์ต 1.4a ของ A1000 อย่างชัดเจน ในการทดสอบจริง Arc Pro B50 ทำคะแนนเหนือกว่า A1000 ในหลายแอป เช่น Photoshop (ดีกว่า 7%), Premiere Pro (ดีกว่า 20%) และ Blender (ดีกว่า 20%) ซึ่งเป็นพื้นที่ที่ Nvidia เคยครองตลาดมาโดยตลอด นอกจากนี้ยังทำคะแนนสูงกว่าใน MLPerf และ Procyon AI benchmarks โดยเฉพาะด้าน computer vision และ text generation แม้จะมีจุดอ่อนในบางแอป เช่น Revit และ Inventor ที่ A1000 ยังทำงานได้เร็วกว่า แต่ในภาพรวม Arc Pro B50 ถือเป็นการ์ดที่ให้ความคุ้มค่าสูงมากในราคาเพียง $350 และได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ ✅ จุดเด่นของ Intel Arc Pro B50 ➡️ ใช้สถาปัตยกรรม Xe2 พร้อม 16 Xe2 cores และ 128 XMX engines ➡️ หน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ถึง 2 เท่า ➡️ แบนด์วิดท์ 224GB/s และ FP8 compute สูงถึง 170 TOPS ➡️ ขนาดเล็ก 168 มม. ใช้พลังงานเพียง 70W ไม่ต้องต่อไฟเพิ่ม ✅ ประสิทธิภาพในการใช้งานจริง ➡️ Photoshop ดีกว่า A1000 ประมาณ 7% โดยเฉพาะงาน GPU-heavy ➡️ Premiere Pro ดีกว่าเกือบ 20% ในงานตัดต่อวิดีโอ ➡️ Blender เรนเดอร์เร็วกว่า A1000 ถึง 20% — พลิกเกมจากเดิมที่ Nvidia ครอง ➡️ MLPerf และ Procyon AI แสดงผลลัพธ์ดีกว่าในงาน computer vision และ text generation ✅ ความเหมาะสมกับงานมืออาชีพ ➡️ ได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ เช่น Adobe, Autodesk ➡️ มีพอร์ต Mini DisplayPort 2.1 จำนวน 4 ช่อง — รองรับจอความละเอียดสูง ➡️ เหมาะกับงาน CAD, การตัดต่อ, โมเดล AI ขนาดเล็ก และงานสร้างสรรค์ ➡️ ราคาขายเพียง $350 — คุ้มค่ากว่าการ์ดระดับเดียวกัน ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe2 cores รองรับ SIMD16 — ดีกว่ารุ่นก่อนที่รองรับแค่ SIMD8 ➡️ มี dual media engine รองรับการเข้ารหัส/ถอดรหัสวิดีโอ 8K 10-bit ➡️ มีการพัฒนา containerized Linux สำหรับงาน LLM โดยเฉพาะ ➡️ Arc Pro B50 ใช้ GPU BMG-G21 ที่ Intel ปรับแต่งให้เหมาะกับต้นทุน https://www.techradar.com/pro/an-impressive-little-gpu-reviewers-surprised-by-intel-arc-pro-b50-gpus-superior-display-against-nvidias-rtx-a1000
    0 ความคิดเห็น 0 การแบ่งปัน 129 มุมมอง 0 รีวิว
  • “Intel ยืนยันรีเฟรช Arrow Lake ปี 2026 ก่อนเปิดตัว Nova Lake ปลายปี — ยอมรับมีช่องโหว่ในตลาดเดสก์ท็อป แต่มั่นใจแผนระยะยาว”

    ในงานประชุมเทคโนโลยีของ Goldman Sachs ล่าสุด Intel ได้ออกมายืนยันแผนการเปิดตัวซีพียูรุ่นใหม่ โดยจะเริ่มจากการรีเฟรช Arrow Lake ในช่วงครึ่งแรกของปี 2026 ก่อนจะเปิดตัว Nova Lake ซึ่งเป็นสถาปัตยกรรมใหม่อย่างแท้จริงในช่วงปลายปีเดียวกัน และอาจลากยาวไปถึงต้นปี 2027

    John Pitzer รองประธานฝ่ายนักลงทุนสัมพันธ์ของ Intel ยอมรับว่า “มีช่องโหว่ที่ต้องเติมเต็มในตลาดเดสก์ท็อป” โดยเฉพาะเมื่อ AMD ยังคงครองตำแหน่งผู้นำด้านประสิทธิภาพการเล่นเกมด้วย Ryzen 9000 และเตรียมเปิดตัว Zen 6 ภายในปีหน้า ซึ่งอาจทำให้ Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake รุ่นรีเฟรชให้มากขึ้น

    Arrow Lake Refresh จะยังคงใช้แพลตฟอร์ม LGA1851 เดิม และคาดว่าจะอยู่ในตระกูล Core Ultra Series 2 โดยมีการปรับปรุงด้าน binning และความเร็ว boost clock แต่ยังไม่เปลี่ยนแปลงจำนวนคอร์หลักมากนัก ส่วน Nova Lake จะใช้ซ็อกเก็ตใหม่ LGA1954 และเป็น Core Ultra Series 4 ที่มาพร้อมสถาปัตยกรรมใหม่ทั้งหมด เช่น Coyote Cove P-core และ Arctic Wolf E-core รวมถึงการรองรับการประมวลผลแบบ multi-tile

    แม้จะมีข่าวลือว่า Nova Lake จะใช้เทคโนโลยีการผลิตระดับ 2nm จาก TSMC แต่ Intel ก็ยังคงใช้ 18A node สำหรับบางรุ่น และเตรียมเปิดตัวเวอร์ชันโมบายในปี 2027 ตามหลังรุ่นเดสก์ท็อป

    แผนการเปิดตัวซีพียูของ Intel
    Arrow Lake Refresh เปิดตัวครึ่งแรกของปี 2026
    Nova Lake เปิดตัวปลายปี 2026 และต่อเนื่องถึงต้นปี 2027
    Arrow Lake ใช้แพลตฟอร์ม LGA1851 เดิม
    Nova Lake ใช้ซ็อกเก็ตใหม่ LGA1954 และสถาปัตยกรรมใหม่ทั้งหมด

    รายละเอียดทางเทคนิค
    Arrow Lake Refresh ปรับปรุง binning และ boost clock
    Nova Lake ใช้ Coyote Cove P-core และ Arctic Wolf E-core
    รองรับ multi-tile และกราฟิก Xe3 “Celestial”
    คาดว่าจะมีรุ่นสูงสุดถึง 52 คอร์ในเวอร์ชันเดสก์ท็อป

    สถานการณ์การแข่งขันกับ AMD
    AMD Ryzen 9000 ยังคงครองตำแหน่งผู้นำด้านเกม
    Zen 6 คาดว่าจะเปิดตัวก่อนสิ้นปี 2026
    AMD อาจเปิดตัวเวอร์ชันโมบายในปี 2027
    Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake Refresh

    ข้อมูลเสริมจากภายนอก
    Panther Lake จะเปิดตัวก่อน Arrow Lake Refresh สำหรับตลาดโน้ตบุ๊ก
    Nova Lake จะเป็นซีพียูรุ่นแรกของ Intel ที่ใช้ multi-compute die
    Intel อาจใช้ 14A node สำหรับลูกค้าภายนอกในอนาคต
    Core Ultra Series 3 จะใช้กับ Panther Lake และ Series 4 กับ Nova Lake

    https://www.tomshardware.com/pc-components/cpus/intel-confirms-arrow-lake-refresh-set-for-2026-nova-lake-later-that-year-company-admits-there-are-holes-to-fill-on-the-desktop-front-says-it-is-confident-in-the-roadmap
    🧩 “Intel ยืนยันรีเฟรช Arrow Lake ปี 2026 ก่อนเปิดตัว Nova Lake ปลายปี — ยอมรับมีช่องโหว่ในตลาดเดสก์ท็อป แต่มั่นใจแผนระยะยาว” ในงานประชุมเทคโนโลยีของ Goldman Sachs ล่าสุด Intel ได้ออกมายืนยันแผนการเปิดตัวซีพียูรุ่นใหม่ โดยจะเริ่มจากการรีเฟรช Arrow Lake ในช่วงครึ่งแรกของปี 2026 ก่อนจะเปิดตัว Nova Lake ซึ่งเป็นสถาปัตยกรรมใหม่อย่างแท้จริงในช่วงปลายปีเดียวกัน และอาจลากยาวไปถึงต้นปี 2027 John Pitzer รองประธานฝ่ายนักลงทุนสัมพันธ์ของ Intel ยอมรับว่า “มีช่องโหว่ที่ต้องเติมเต็มในตลาดเดสก์ท็อป” โดยเฉพาะเมื่อ AMD ยังคงครองตำแหน่งผู้นำด้านประสิทธิภาพการเล่นเกมด้วย Ryzen 9000 และเตรียมเปิดตัว Zen 6 ภายในปีหน้า ซึ่งอาจทำให้ Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake รุ่นรีเฟรชให้มากขึ้น Arrow Lake Refresh จะยังคงใช้แพลตฟอร์ม LGA1851 เดิม และคาดว่าจะอยู่ในตระกูล Core Ultra Series 2 โดยมีการปรับปรุงด้าน binning และความเร็ว boost clock แต่ยังไม่เปลี่ยนแปลงจำนวนคอร์หลักมากนัก ส่วน Nova Lake จะใช้ซ็อกเก็ตใหม่ LGA1954 และเป็น Core Ultra Series 4 ที่มาพร้อมสถาปัตยกรรมใหม่ทั้งหมด เช่น Coyote Cove P-core และ Arctic Wolf E-core รวมถึงการรองรับการประมวลผลแบบ multi-tile แม้จะมีข่าวลือว่า Nova Lake จะใช้เทคโนโลยีการผลิตระดับ 2nm จาก TSMC แต่ Intel ก็ยังคงใช้ 18A node สำหรับบางรุ่น และเตรียมเปิดตัวเวอร์ชันโมบายในปี 2027 ตามหลังรุ่นเดสก์ท็อป ✅ แผนการเปิดตัวซีพียูของ Intel ➡️ Arrow Lake Refresh เปิดตัวครึ่งแรกของปี 2026 ➡️ Nova Lake เปิดตัวปลายปี 2026 และต่อเนื่องถึงต้นปี 2027 ➡️ Arrow Lake ใช้แพลตฟอร์ม LGA1851 เดิม ➡️ Nova Lake ใช้ซ็อกเก็ตใหม่ LGA1954 และสถาปัตยกรรมใหม่ทั้งหมด ✅ รายละเอียดทางเทคนิค ➡️ Arrow Lake Refresh ปรับปรุง binning และ boost clock ➡️ Nova Lake ใช้ Coyote Cove P-core และ Arctic Wolf E-core ➡️ รองรับ multi-tile และกราฟิก Xe3 “Celestial” ➡️ คาดว่าจะมีรุ่นสูงสุดถึง 52 คอร์ในเวอร์ชันเดสก์ท็อป ✅ สถานการณ์การแข่งขันกับ AMD ➡️ AMD Ryzen 9000 ยังคงครองตำแหน่งผู้นำด้านเกม ➡️ Zen 6 คาดว่าจะเปิดตัวก่อนสิ้นปี 2026 ➡️ AMD อาจเปิดตัวเวอร์ชันโมบายในปี 2027 ➡️ Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake Refresh ✅ ข้อมูลเสริมจากภายนอก ➡️ Panther Lake จะเปิดตัวก่อน Arrow Lake Refresh สำหรับตลาดโน้ตบุ๊ก ➡️ Nova Lake จะเป็นซีพียูรุ่นแรกของ Intel ที่ใช้ multi-compute die ➡️ Intel อาจใช้ 14A node สำหรับลูกค้าภายนอกในอนาคต ➡️ Core Ultra Series 3 จะใช้กับ Panther Lake และ Series 4 กับ Nova Lake https://www.tomshardware.com/pc-components/cpus/intel-confirms-arrow-lake-refresh-set-for-2026-nova-lake-later-that-year-company-admits-there-are-holes-to-fill-on-the-desktop-front-says-it-is-confident-in-the-roadmap
    0 ความคิดเห็น 0 การแบ่งปัน 108 มุมมอง 0 รีวิว
  • “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ”

    ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase)

    Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง

    แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน

    Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า

    Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ

    สถาปัตยกรรม Disaggregated Inference
    แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound)
    เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล
    เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ
    ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์

    ข้อมูลทางเทคนิคของ Rubin CPX
    พลังประมวลผล 30 petaFLOPs ด้วย NVFP4
    หน่วยความจำ GDDR7 ขนาด 128 GB
    ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet
    ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง

    ระบบ Vera Rubin NVL144 CPX
    ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว
    หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s
    พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า
    รองรับการประมวลผล AI ระดับโรงงาน (AI Factory)

    ข้อมูลเสริมจากภายนอก
    Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis
    ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out
    NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ
    ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    🧠 “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ” ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase) Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ ✅ สถาปัตยกรรม Disaggregated Inference ➡️ แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound) ➡️ เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล ➡️ เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ ➡️ ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์ ✅ ข้อมูลทางเทคนิคของ Rubin CPX ➡️ พลังประมวลผล 30 petaFLOPs ด้วย NVFP4 ➡️ หน่วยความจำ GDDR7 ขนาด 128 GB ➡️ ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet ➡️ ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง ✅ ระบบ Vera Rubin NVL144 CPX ➡️ ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว ➡️ หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s ➡️ พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า ➡️ รองรับการประมวลผล AI ระดับโรงงาน (AI Factory) ✅ ข้อมูลเสริมจากภายนอก ➡️ Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis ➡️ ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out ➡️ NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ ➡️ ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    0 ความคิดเห็น 0 การแบ่งปัน 111 มุมมอง 0 รีวิว
  • สลามเมืองไทย EP30 | มัสยิดบางอ้อ งดงามสมคำร่ำลือ

    มัสยิดบางอ้อ เป็นหนึ่งในมัสยิดที่มีชื่อเสียงด้านความงดงามและเอกลักษณ์ทางสถาปัตยกรรมในเขตกรุงเทพมหานคร โดดเด่นด้วยโครงสร้างที่ผสมผสานศิลปะอิสลามเข้ากับความประณีตของช่างไทยได้อย่างลงตัว

    ไม่เพียงเป็นสถานที่ประกอบศาสนกิจของพี่น้องมุสลิมในย่านบางอ้อเท่านั้น แต่มัสยิดแห่งนี้ยังเป็นศูนย์กลางของการเรียนรู้ การรวมตัว และการเชื่อมโยงชุมชนด้วยศรัทธา

    ความสงบ ความเรียบง่าย และความศรัทธาที่แทรกอยู่ในทุกองค์ประกอบของมัสยิดบางอ้อ ทำให้ที่นี่เป็นมากกว่าสถานที่ทางศาสนา แต่เป็นสัญลักษณ์ของความงดงามทั้งในด้านจิตวิญญาณและวัฒนธรรม

    ติดตามเรื่องราวและเบื้องหลังของมัสยิดบางอ้อ พร้อมมุมมองจากผู้ศรัทธาในพื้นที่ ที่สะท้อนคุณค่าของมัสยิดแห่งนี้อย่างลึกซึ้ง

    #สลามเมืองไทย #EP30 #มัสยิดบางอ้อ #มัสยิดในกรุงเทพ #มัสยิดงดงาม #ศรัทธาและสถาปัตยกรรม #MuslimCommunity #IslamicHeritage #ThaiMuslimCulture #ThaiTimes
    สลามเมืองไทย EP30 | มัสยิดบางอ้อ งดงามสมคำร่ำลือ มัสยิดบางอ้อ เป็นหนึ่งในมัสยิดที่มีชื่อเสียงด้านความงดงามและเอกลักษณ์ทางสถาปัตยกรรมในเขตกรุงเทพมหานคร โดดเด่นด้วยโครงสร้างที่ผสมผสานศิลปะอิสลามเข้ากับความประณีตของช่างไทยได้อย่างลงตัว ไม่เพียงเป็นสถานที่ประกอบศาสนกิจของพี่น้องมุสลิมในย่านบางอ้อเท่านั้น แต่มัสยิดแห่งนี้ยังเป็นศูนย์กลางของการเรียนรู้ การรวมตัว และการเชื่อมโยงชุมชนด้วยศรัทธา ความสงบ ความเรียบง่าย และความศรัทธาที่แทรกอยู่ในทุกองค์ประกอบของมัสยิดบางอ้อ ทำให้ที่นี่เป็นมากกว่าสถานที่ทางศาสนา แต่เป็นสัญลักษณ์ของความงดงามทั้งในด้านจิตวิญญาณและวัฒนธรรม ติดตามเรื่องราวและเบื้องหลังของมัสยิดบางอ้อ พร้อมมุมมองจากผู้ศรัทธาในพื้นที่ ที่สะท้อนคุณค่าของมัสยิดแห่งนี้อย่างลึกซึ้ง #สลามเมืองไทย #EP30 #มัสยิดบางอ้อ #มัสยิดในกรุงเทพ #มัสยิดงดงาม #ศรัทธาและสถาปัตยกรรม #MuslimCommunity #IslamicHeritage #ThaiMuslimCulture #ThaiTimes
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 133 มุมมอง 0 0 รีวิว
  • “Apple เปิดตัวชิป A19 และ A19 Pro สำหรับ iPhone 17 และ iPhone Air — เร็วขึ้น ฉลาดขึ้น เย็นขึ้น พร้อม AI แบบ MacBook ในมือถือ!”

    Apple เปิดตัว iPhone รุ่นใหม่ 4 รุ่น ได้แก่ iPhone 17, iPhone Air, iPhone 17 Pro และ iPhone 17 Pro Max พร้อมชิปใหม่ล่าสุด A19 และ A19 Pro ที่ถูกออกแบบมาเพื่อรองรับยุคของ Apple Intelligence และการประมวลผล AI บนอุปกรณ์โดยตรง

    ชิป A19 ใช้ใน iPhone 17 รุ่นพื้นฐาน มี CPU แบบ 6-core (2 performance + 4 efficiency) และ GPU 5-core รองรับ ray tracing, mesh shading และ MetalFX upscaling ส่วน A19 Pro ใช้ใน iPhone Air และรุ่น Pro โดยมี GPU 5-core สำหรับ Air และ 6-core สำหรับรุ่น Pro พร้อม Neural Accelerators ในแต่ละ core เพื่อเร่งการประมวลผล AI แบบ on-device

    A19 Pro ยังมีการปรับปรุงสถาปัตยกรรม CPU เช่น branch prediction ที่แม่นยำขึ้น, front-end bandwidth ที่กว้างขึ้น และ cache ขนาดใหญ่ขึ้นถึง 50% ใน efficiency core ทำให้สามารถรักษาประสิทธิภาพได้สูงขึ้นถึง 40% เมื่อเทียบกับ A18 Pro รุ่นก่อนหน้า

    iPhone 17 Pro และ Pro Max ยังมาพร้อมระบบระบายความร้อนแบบ vapor chamber ที่ใช้ดีไอออนไนซ์วอเตอร์ในโครงสร้าง unibody อะลูมิเนียม ซึ่ง Apple เคลมว่าระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า — ช่วยให้ชิปทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป

    นอกจากนี้ Apple ยังเปิดตัวชิป N1 สำหรับการเชื่อมต่อไร้สาย รองรับ Wi-Fi 7, Bluetooth 6 และ Thread รวมถึงโมเด็ม C1X ที่เร็วขึ้น 2 เท่าแต่ยังไม่รองรับ mmWave โดย iPhone 17 และ Pro รุ่นใหม่ยังใช้โมเด็ม Qualcomm เพื่อรองรับ 5G แบบเต็มรูปแบบ

    ชิป A19 และ A19 Pro
    A19: CPU 6-core (2P + 4E), GPU 5-core, รองรับ ray tracing และ MetalFX
    A19 Pro: GPU 5-core (Air) / 6-core (Pro), มี Neural Accelerators ในแต่ละ core
    ปรับปรุง branch prediction, bandwidth และ cache ใน efficiency core
    ประสิทธิภาพสูงขึ้น 40% เมื่อเทียบกับ A18 Pro

    ระบบระบายความร้อนใหม่
    ใช้ vapor chamber filled with deionized water
    โครงสร้าง unibody อะลูมิเนียม ระบายความร้อนได้ดีกว่าไทเทเนียม 20 เท่า
    ช่วยให้ iPhone Pro รุ่นใหม่รักษาความเร็วได้ต่อเนื่อง

    ชิปเชื่อมต่อ N1 และโมเด็ม C1X
    N1 รองรับ Wi-Fi 7, Bluetooth 6 และ Thread
    เพิ่มประสิทธิภาพ AirDrop และ Personal Hotspot
    C1X เร็วขึ้น 2 เท่า แต่ไม่รองรับ mmWave
    iPhone 17 และ Pro ยังใช้โมเด็ม Qualcomm สำหรับ 5G เต็มรูปแบบ

    การใช้งาน AI บนอุปกรณ์
    Neural Accelerators ช่วยให้ประมวลผล Apple Intelligence ได้เร็วขึ้น
    รองรับฟีเจอร์ใหม่ใน iOS 26 เช่น การแปลภาษา, การจัดการข้อความ, และการวิเคราะห์ภาพ
    iPhone Air มีประสิทธิภาพระดับ MacBook Pro ในขนาดมือถือ

    ราคาและการวางจำหน่าย
    iPhone 17 เริ่มต้นที่ $799, iPhone Air เริ่มต้นที่ $999
    iPhone 17 Pro และ Pro Max เริ่มต้นที่ $1,099 และ $1,199
    เปิดพรีออเดอร์วันที่ 12 กันยายน และวางขายวันที่ 19 กันยายน
    รุ่น Pro Max มีตัวเลือกความจุสูงสุดถึง 2TB

    https://www.tomshardware.com/tech-industry/semiconductors/apple-debuts-a19-and-a19-pro-processors-for-iphone-17-iphone-air-and-iphone-17-pro
    📱 “Apple เปิดตัวชิป A19 และ A19 Pro สำหรับ iPhone 17 และ iPhone Air — เร็วขึ้น ฉลาดขึ้น เย็นขึ้น พร้อม AI แบบ MacBook ในมือถือ!” Apple เปิดตัว iPhone รุ่นใหม่ 4 รุ่น ได้แก่ iPhone 17, iPhone Air, iPhone 17 Pro และ iPhone 17 Pro Max พร้อมชิปใหม่ล่าสุด A19 และ A19 Pro ที่ถูกออกแบบมาเพื่อรองรับยุคของ Apple Intelligence และการประมวลผล AI บนอุปกรณ์โดยตรง ชิป A19 ใช้ใน iPhone 17 รุ่นพื้นฐาน มี CPU แบบ 6-core (2 performance + 4 efficiency) และ GPU 5-core รองรับ ray tracing, mesh shading และ MetalFX upscaling ส่วน A19 Pro ใช้ใน iPhone Air และรุ่น Pro โดยมี GPU 5-core สำหรับ Air และ 6-core สำหรับรุ่น Pro พร้อม Neural Accelerators ในแต่ละ core เพื่อเร่งการประมวลผล AI แบบ on-device A19 Pro ยังมีการปรับปรุงสถาปัตยกรรม CPU เช่น branch prediction ที่แม่นยำขึ้น, front-end bandwidth ที่กว้างขึ้น และ cache ขนาดใหญ่ขึ้นถึง 50% ใน efficiency core ทำให้สามารถรักษาประสิทธิภาพได้สูงขึ้นถึง 40% เมื่อเทียบกับ A18 Pro รุ่นก่อนหน้า iPhone 17 Pro และ Pro Max ยังมาพร้อมระบบระบายความร้อนแบบ vapor chamber ที่ใช้ดีไอออนไนซ์วอเตอร์ในโครงสร้าง unibody อะลูมิเนียม ซึ่ง Apple เคลมว่าระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า — ช่วยให้ชิปทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป นอกจากนี้ Apple ยังเปิดตัวชิป N1 สำหรับการเชื่อมต่อไร้สาย รองรับ Wi-Fi 7, Bluetooth 6 และ Thread รวมถึงโมเด็ม C1X ที่เร็วขึ้น 2 เท่าแต่ยังไม่รองรับ mmWave โดย iPhone 17 และ Pro รุ่นใหม่ยังใช้โมเด็ม Qualcomm เพื่อรองรับ 5G แบบเต็มรูปแบบ ✅ ชิป A19 และ A19 Pro ➡️ A19: CPU 6-core (2P + 4E), GPU 5-core, รองรับ ray tracing และ MetalFX ➡️ A19 Pro: GPU 5-core (Air) / 6-core (Pro), มี Neural Accelerators ในแต่ละ core ➡️ ปรับปรุง branch prediction, bandwidth และ cache ใน efficiency core ➡️ ประสิทธิภาพสูงขึ้น 40% เมื่อเทียบกับ A18 Pro ✅ ระบบระบายความร้อนใหม่ ➡️ ใช้ vapor chamber filled with deionized water ➡️ โครงสร้าง unibody อะลูมิเนียม ระบายความร้อนได้ดีกว่าไทเทเนียม 20 เท่า ➡️ ช่วยให้ iPhone Pro รุ่นใหม่รักษาความเร็วได้ต่อเนื่อง ✅ ชิปเชื่อมต่อ N1 และโมเด็ม C1X ➡️ N1 รองรับ Wi-Fi 7, Bluetooth 6 และ Thread ➡️ เพิ่มประสิทธิภาพ AirDrop และ Personal Hotspot ➡️ C1X เร็วขึ้น 2 เท่า แต่ไม่รองรับ mmWave ➡️ iPhone 17 และ Pro ยังใช้โมเด็ม Qualcomm สำหรับ 5G เต็มรูปแบบ ✅ การใช้งาน AI บนอุปกรณ์ ➡️ Neural Accelerators ช่วยให้ประมวลผล Apple Intelligence ได้เร็วขึ้น ➡️ รองรับฟีเจอร์ใหม่ใน iOS 26 เช่น การแปลภาษา, การจัดการข้อความ, และการวิเคราะห์ภาพ ➡️ iPhone Air มีประสิทธิภาพระดับ MacBook Pro ในขนาดมือถือ ✅ ราคาและการวางจำหน่าย ➡️ iPhone 17 เริ่มต้นที่ $799, iPhone Air เริ่มต้นที่ $999 ➡️ iPhone 17 Pro และ Pro Max เริ่มต้นที่ $1,099 และ $1,199 ➡️ เปิดพรีออเดอร์วันที่ 12 กันยายน และวางขายวันที่ 19 กันยายน ➡️ รุ่น Pro Max มีตัวเลือกความจุสูงสุดถึง 2TB https://www.tomshardware.com/tech-industry/semiconductors/apple-debuts-a19-and-a19-pro-processors-for-iphone-17-iphone-air-and-iphone-17-pro
    0 ความคิดเห็น 0 การแบ่งปัน 134 มุมมอง 0 รีวิว
  • “Debian 13.1 ‘Trixie’ มาแล้ว! อัปเดตแรกของดิสโทรสายเสถียร พร้อม 71 แพตช์บั๊กและ 16 ช่องโหว่ความปลอดภัย”

    ถ้าคุณเป็นสาย Linux ที่รักความเสถียรและความปลอดภัยเป็นหลัก — ข่าวนี้คือสิ่งที่คุณรอคอย: Debian 13.1 “Trixie” ได้รับการปล่อยออกมาอย่างเป็นทางการแล้วในวันที่ 6 กันยายน 2025 โดยเป็นอัปเดตแรกของ Debian 13 ที่เพิ่งเปิดตัวไปเมื่อเดือนก่อน

    Debian 13.1 ไม่ใช่เวอร์ชันใหม่ แต่เป็น “point release” ที่รวมการแก้ไขบั๊กจำนวน 71 รายการ และอัปเดตด้านความปลอดภัยอีก 16 รายการ เพื่อให้ผู้ใช้สามารถติดตั้งระบบได้จาก ISO ที่ใหม่กว่า โดยไม่ต้องดาวน์โหลดแพตช์จำนวนมากหลังติดตั้ง

    สำหรับผู้ใช้ที่ติดตั้ง Debian 13 ไปแล้ว ไม่จำเป็นต้องดาวน์โหลด ISO ใหม่ เพียงแค่รันคำสั่ง sudo apt update && sudo apt full-upgrade ก็จะได้รับอัปเดตทั้งหมดทันที

    Debian 13.1 รองรับสถาปัตยกรรมหลากหลาย เช่น amd64, arm64, riscv64, ppc64el, s390x และ armhf โดยมี Live ISO สำหรับ 64-bit ที่มาพร้อมเดสก์ท็อปยอดนิยม เช่น KDE Plasma 6.3, GNOME 48, Xfce 4.20, Cinnamon 6.4, LXQt 2.1, MATE 1.26.1 และ LXDE 13 รวมถึงรุ่น “Junior” ที่ใช้ IceWM และรุ่น “Standard” ที่ไม่มี GUI

    นอกจากนี้ Debian ยังปล่อย Debian 12.12 “Bookworm” ออกมาพร้อมกัน โดยมีการแก้ไขบั๊กถึง 135 รายการ และอัปเดตความปลอดภัยอีก 83 รายการ — สะท้อนถึงความมุ่งมั่นในการดูแลทั้งเวอร์ชันใหม่และเก่าอย่างต่อเนื่อง

    การเปิดตัว Debian 13.1 “Trixie”
    เป็น point release แรกของ Debian 13
    รวม 71 bug fixes และ 16 security updates
    ปล่อยออกมาเพื่อให้ผู้ใช้ติดตั้งจาก ISO ที่อัปเดตแล้ว

    วิธีอัปเดตสำหรับผู้ใช้เดิม
    ใช้คำสั่ง sudo apt update && sudo apt full-upgrade
    ไม่จำเป็นต้องดาวน์โหลด ISO ใหม่
    สามารถตรวจสอบเวอร์ชันด้วย cat /etc/debian_version

    สถาปัตยกรรมและเดสก์ท็อปที่รองรับ
    รองรับ amd64, arm64, riscv64, ppc64el, s390x, armhf
    Live ISO มีเฉพาะสำหรับ 64-bit
    เดสก์ท็อปที่มีให้เลือก: KDE, GNOME, Xfce, Cinnamon, LXQt, MATE, LXDE
    รุ่น Junior ใช้ IceWM และรุ่น Standard ไม่มี GUI

    การอัปเดต Debian 12.12 “Bookworm”
    รวม 135 bug fixes และ 83 security updates
    เป็นการดูแลเวอร์ชันก่อนหน้าอย่างต่อเนื่อง

    ข้อมูลเสริมจากภายนอก
    Debian เป็นหนึ่งในดิสโทรที่มีอายุยาวนานที่สุดในโลก Linux
    ใช้เป็นฐานให้กับดิสโทรยอดนิยม เช่น Ubuntu, Kali Linux และ Raspbian
    จุดเด่นคือความเสถียร ความปลอดภัย และการควบคุมแพ็กเกจแบบละเอียด

    https://9to5linux.com/debian-13-1-trixie-released-with-71-bug-fixes-and-16-security-updates
    🐧 “Debian 13.1 ‘Trixie’ มาแล้ว! อัปเดตแรกของดิสโทรสายเสถียร พร้อม 71 แพตช์บั๊กและ 16 ช่องโหว่ความปลอดภัย” ถ้าคุณเป็นสาย Linux ที่รักความเสถียรและความปลอดภัยเป็นหลัก — ข่าวนี้คือสิ่งที่คุณรอคอย: Debian 13.1 “Trixie” ได้รับการปล่อยออกมาอย่างเป็นทางการแล้วในวันที่ 6 กันยายน 2025 โดยเป็นอัปเดตแรกของ Debian 13 ที่เพิ่งเปิดตัวไปเมื่อเดือนก่อน Debian 13.1 ไม่ใช่เวอร์ชันใหม่ แต่เป็น “point release” ที่รวมการแก้ไขบั๊กจำนวน 71 รายการ และอัปเดตด้านความปลอดภัยอีก 16 รายการ เพื่อให้ผู้ใช้สามารถติดตั้งระบบได้จาก ISO ที่ใหม่กว่า โดยไม่ต้องดาวน์โหลดแพตช์จำนวนมากหลังติดตั้ง สำหรับผู้ใช้ที่ติดตั้ง Debian 13 ไปแล้ว ไม่จำเป็นต้องดาวน์โหลด ISO ใหม่ เพียงแค่รันคำสั่ง sudo apt update && sudo apt full-upgrade ก็จะได้รับอัปเดตทั้งหมดทันที Debian 13.1 รองรับสถาปัตยกรรมหลากหลาย เช่น amd64, arm64, riscv64, ppc64el, s390x และ armhf โดยมี Live ISO สำหรับ 64-bit ที่มาพร้อมเดสก์ท็อปยอดนิยม เช่น KDE Plasma 6.3, GNOME 48, Xfce 4.20, Cinnamon 6.4, LXQt 2.1, MATE 1.26.1 และ LXDE 13 รวมถึงรุ่น “Junior” ที่ใช้ IceWM และรุ่น “Standard” ที่ไม่มี GUI นอกจากนี้ Debian ยังปล่อย Debian 12.12 “Bookworm” ออกมาพร้อมกัน โดยมีการแก้ไขบั๊กถึง 135 รายการ และอัปเดตความปลอดภัยอีก 83 รายการ — สะท้อนถึงความมุ่งมั่นในการดูแลทั้งเวอร์ชันใหม่และเก่าอย่างต่อเนื่อง ✅ การเปิดตัว Debian 13.1 “Trixie” ➡️ เป็น point release แรกของ Debian 13 ➡️ รวม 71 bug fixes และ 16 security updates ➡️ ปล่อยออกมาเพื่อให้ผู้ใช้ติดตั้งจาก ISO ที่อัปเดตแล้ว ✅ วิธีอัปเดตสำหรับผู้ใช้เดิม ➡️ ใช้คำสั่ง sudo apt update && sudo apt full-upgrade ➡️ ไม่จำเป็นต้องดาวน์โหลด ISO ใหม่ ➡️ สามารถตรวจสอบเวอร์ชันด้วย cat /etc/debian_version ✅ สถาปัตยกรรมและเดสก์ท็อปที่รองรับ ➡️ รองรับ amd64, arm64, riscv64, ppc64el, s390x, armhf ➡️ Live ISO มีเฉพาะสำหรับ 64-bit ➡️ เดสก์ท็อปที่มีให้เลือก: KDE, GNOME, Xfce, Cinnamon, LXQt, MATE, LXDE ➡️ รุ่น Junior ใช้ IceWM และรุ่น Standard ไม่มี GUI ✅ การอัปเดต Debian 12.12 “Bookworm” ➡️ รวม 135 bug fixes และ 83 security updates ➡️ เป็นการดูแลเวอร์ชันก่อนหน้าอย่างต่อเนื่อง ✅ ข้อมูลเสริมจากภายนอก ➡️ Debian เป็นหนึ่งในดิสโทรที่มีอายุยาวนานที่สุดในโลก Linux ➡️ ใช้เป็นฐานให้กับดิสโทรยอดนิยม เช่น Ubuntu, Kali Linux และ Raspbian ➡️ จุดเด่นคือความเสถียร ความปลอดภัย และการควบคุมแพ็กเกจแบบละเอียด https://9to5linux.com/debian-13-1-trixie-released-with-71-bug-fixes-and-16-security-updates
    9TO5LINUX.COM
    Debian 13.1 “Trixie” Released with 71 Bug Fixes and 16 Security Updates - 9to5Linux
    Debian 13.1 is now available for download as a new point release to Debian 13 “Trixie” with 71 bug fixes and 16 security updates.
    0 ความคิดเห็น 0 การแบ่งปัน 158 มุมมอง 0 รีวิว
  • “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!”

    ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด

    SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center

    X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ

    ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน

    SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด

    การเปิดตัว IP ใหม่ของ SiFive
    เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM
    X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT
    X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน
    รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว

    จุดเด่นด้านเทคโนโลยี
    XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่
    Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar
    รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions
    มี memory subsystem ที่ลด latency และเพิ่ม throughput

    การใช้งานในโลกจริง
    X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ
    X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s
    ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก
    ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor

    ข้อมูลเสริมจากภายนอก
    Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้
    SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ
    IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026
    SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara

    คำเตือนสำหรับผู้พัฒนาและองค์กร
    IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์
    การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ
    การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX
    หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่
    การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน

    https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    🧠 “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!” ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด ✅ การเปิดตัว IP ใหม่ของ SiFive ➡️ เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM ➡️ X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT ➡️ X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน ➡️ รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว ✅ จุดเด่นด้านเทคโนโลยี ➡️ XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่ ➡️ Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar ➡️ รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions ➡️ มี memory subsystem ที่ลด latency และเพิ่ม throughput ✅ การใช้งานในโลกจริง ➡️ X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ ➡️ X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s ➡️ ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก ➡️ ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor ✅ ข้อมูลเสริมจากภายนอก ➡️ Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้ ➡️ SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ ➡️ IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026 ➡️ SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara ‼️ คำเตือนสำหรับผู้พัฒนาและองค์กร ⛔ IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์ ⛔ การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ ⛔ การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX ⛔ หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่ ⛔ การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    WWW.TECHPOWERUP.COM
    SiFive's New RISC-V IP Combines Scalar, Vector and Matrix Compute to Accelerate AI from the Far Edge IoT to the Data Center
    Further expanding SiFive's lead in RISC-V AI IP, the company today launched its 2nd Generation Intelligence family, featuring five new RISC-V-based products designed to accelerate AI workloads across thousands of potential applications. The lineup includes two entirely new products—the X160 Gen 2 an...
    0 ความคิดเห็น 0 การแบ่งปัน 143 มุมมอง 0 รีวิว
  • “JetStream จาก d-Matrix: การ์ด I/O ที่เปลี่ยนเกม AI inference ให้เร็วขึ้น 10 เท่า!”

    ลองจินตนาการว่าคุณกำลังรันโมเดล AI ขนาดมหึมา เช่น Llama70B หรือ GPT-4 บนเซิร์ฟเวอร์หลายเครื่องพร้อมกัน แล้วพบว่าแม้จะมีชิปประมวลผลแรงแค่ไหน ก็ยังติดคอขวดที่ระบบเครือข่าย — นั่นคือปัญหาที่ JetStream จาก d-Matrix เข้ามาแก้แบบตรงจุด

    JetStream คือการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบมาเพื่อเร่งความเร็วการสื่อสารระหว่างเซิร์ฟเวอร์ในงาน AI inference โดยเฉพาะ โดยสามารถส่งข้อมูลได้สูงสุดถึง 400Gbps และทำงานร่วมกับ Corsair compute accelerator และ Aviator software ของ d-Matrix ได้อย่างไร้รอยต่อ

    จุดเด่นของ JetStream คือการเป็น “Transparent NIC” ที่ใช้การสื่อสารแบบ peer-to-peer ระหว่างอุปกรณ์โดยไม่ต้องผ่าน CPU หรือระบบปฏิบัติการ — ลด latency ได้อย่างมหาศาล และทำให้การ inference ข้ามเครื่องเป็นไปอย่างลื่นไหล

    เมื่อใช้งานร่วมกับ Corsair และ Aviator แล้ว JetStream สามารถเพิ่มความเร็วได้ถึง 10 เท่า ลดต้นทุนต่อคำตอบ (cost-per-token) ได้ 3 เท่า และประหยัดพลังงานได้อีก 3 เท่า เมื่อเทียบกับระบบที่ใช้ GPU แบบเดิมในการ inference โมเดลขนาด 100B+ parameters

    ที่สำคัญคือ JetStream ใช้พอร์ต Ethernet มาตรฐานทั่วไป ทำให้สามารถติดตั้งใน data center ที่มีอยู่แล้วได้ทันที โดยไม่ต้องเปลี่ยนโครงสร้างเครือข่าย — ถือเป็นการออกแบบที่ “พร้อมใช้งานจริง” ไม่ใช่แค่แนวคิดในห้องแล็บ

    JetStream คืออะไร
    เป็นการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบเพื่อ AI inference โดยเฉพาะ
    รองรับความเร็วสูงสุด 400Gbps ต่อการ์ด
    ทำงานร่วมกับ Corsair accelerator และ Aviator software ของ d-Matrix
    ใช้การสื่อสารแบบ peer-to-peer โดยไม่ผ่าน CPU หรือ OS

    ประสิทธิภาพที่ได้จาก JetStream
    เพิ่มความเร็วการ inference ได้ถึง 10 เท่า
    ลดต้นทุนต่อคำตอบได้ 3 เท่า
    ประหยัดพลังงานได้ 3 เท่า เมื่อเทียบกับ GPU-based solutions
    รองรับโมเดลขนาดใหญ่กว่า 100B parameters เช่น Llama70B

    การติดตั้งและใช้งาน
    มาในรูปแบบ PCIe full-height card ขนาดมาตรฐาน
    ใช้พอร์ต Ethernet ทั่วไป — ไม่ต้องเปลี่ยนโครงสร้าง data center
    เหมาะกับการใช้งานใน hyperscale cloud และ private cloud
    ตัวอย่างพร้อมใช้งานแล้ว และจะเริ่มผลิตจริงภายในสิ้นปี 2025

    ข้อมูลเสริมจากภายนอก
    d-Matrix เป็นผู้บุกเบิกด้าน Digital In-Memory Computing (DIMC)
    Corsair ใช้สถาปัตยกรรม chiplet ที่ออกแบบมาเพื่อ inference โดยเฉพาะ
    Aviator เป็น software stack ที่ช่วยจัดการ pipeline inference แบบ multi-node
    JetStream ช่วยลด bottleneck ด้านเครือข่ายที่มักเกิดในงาน AI ขนาดใหญ่

    https://www.techpowerup.com/340786/d-matrix-announces-jetstream-i-o-accelerators-enabling-ultra-low-latency-for-ai-inference-at-scale
    🚀 “JetStream จาก d-Matrix: การ์ด I/O ที่เปลี่ยนเกม AI inference ให้เร็วขึ้น 10 เท่า!” ลองจินตนาการว่าคุณกำลังรันโมเดล AI ขนาดมหึมา เช่น Llama70B หรือ GPT-4 บนเซิร์ฟเวอร์หลายเครื่องพร้อมกัน แล้วพบว่าแม้จะมีชิปประมวลผลแรงแค่ไหน ก็ยังติดคอขวดที่ระบบเครือข่าย — นั่นคือปัญหาที่ JetStream จาก d-Matrix เข้ามาแก้แบบตรงจุด JetStream คือการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบมาเพื่อเร่งความเร็วการสื่อสารระหว่างเซิร์ฟเวอร์ในงาน AI inference โดยเฉพาะ โดยสามารถส่งข้อมูลได้สูงสุดถึง 400Gbps และทำงานร่วมกับ Corsair compute accelerator และ Aviator software ของ d-Matrix ได้อย่างไร้รอยต่อ จุดเด่นของ JetStream คือการเป็น “Transparent NIC” ที่ใช้การสื่อสารแบบ peer-to-peer ระหว่างอุปกรณ์โดยไม่ต้องผ่าน CPU หรือระบบปฏิบัติการ — ลด latency ได้อย่างมหาศาล และทำให้การ inference ข้ามเครื่องเป็นไปอย่างลื่นไหล เมื่อใช้งานร่วมกับ Corsair และ Aviator แล้ว JetStream สามารถเพิ่มความเร็วได้ถึง 10 เท่า ลดต้นทุนต่อคำตอบ (cost-per-token) ได้ 3 เท่า และประหยัดพลังงานได้อีก 3 เท่า เมื่อเทียบกับระบบที่ใช้ GPU แบบเดิมในการ inference โมเดลขนาด 100B+ parameters ที่สำคัญคือ JetStream ใช้พอร์ต Ethernet มาตรฐานทั่วไป ทำให้สามารถติดตั้งใน data center ที่มีอยู่แล้วได้ทันที โดยไม่ต้องเปลี่ยนโครงสร้างเครือข่าย — ถือเป็นการออกแบบที่ “พร้อมใช้งานจริง” ไม่ใช่แค่แนวคิดในห้องแล็บ ✅ JetStream คืออะไร ➡️ เป็นการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบเพื่อ AI inference โดยเฉพาะ ➡️ รองรับความเร็วสูงสุด 400Gbps ต่อการ์ด ➡️ ทำงานร่วมกับ Corsair accelerator และ Aviator software ของ d-Matrix ➡️ ใช้การสื่อสารแบบ peer-to-peer โดยไม่ผ่าน CPU หรือ OS ✅ ประสิทธิภาพที่ได้จาก JetStream ➡️ เพิ่มความเร็วการ inference ได้ถึง 10 เท่า ➡️ ลดต้นทุนต่อคำตอบได้ 3 เท่า ➡️ ประหยัดพลังงานได้ 3 เท่า เมื่อเทียบกับ GPU-based solutions ➡️ รองรับโมเดลขนาดใหญ่กว่า 100B parameters เช่น Llama70B ✅ การติดตั้งและใช้งาน ➡️ มาในรูปแบบ PCIe full-height card ขนาดมาตรฐาน ➡️ ใช้พอร์ต Ethernet ทั่วไป — ไม่ต้องเปลี่ยนโครงสร้าง data center ➡️ เหมาะกับการใช้งานใน hyperscale cloud และ private cloud ➡️ ตัวอย่างพร้อมใช้งานแล้ว และจะเริ่มผลิตจริงภายในสิ้นปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ d-Matrix เป็นผู้บุกเบิกด้าน Digital In-Memory Computing (DIMC) ➡️ Corsair ใช้สถาปัตยกรรม chiplet ที่ออกแบบมาเพื่อ inference โดยเฉพาะ ➡️ Aviator เป็น software stack ที่ช่วยจัดการ pipeline inference แบบ multi-node ➡️ JetStream ช่วยลด bottleneck ด้านเครือข่ายที่มักเกิดในงาน AI ขนาดใหญ่ https://www.techpowerup.com/340786/d-matrix-announces-jetstream-i-o-accelerators-enabling-ultra-low-latency-for-ai-inference-at-scale
    WWW.TECHPOWERUP.COM
    d-Matrix Announces JetStream I/O Accelerators Enabling Ultra-Low Latency for AI Inference at Scale
    d-Matrix today announced the expansion of its AI product portfolio with d-Matrix JetStream, a custom I/O card designed from the ground up to deliver industry-leading, data center-scale AI inference. With millions of people now using AI services - and the rise of agentic AI, reasoning, and multi-moda...
    0 ความคิดเห็น 0 การแบ่งปัน 131 มุมมอง 0 รีวิว
  • “OneXGPU Lite เปิดตัว eGPU ขนาดพกพา พร้อมพอร์ต ‘USB 5.0’ ที่แท้คือ USB4 v2 — แรงระดับ RTX 4060 ในขนาดใส่กระเป๋า!”

    ลองนึกภาพว่าคุณใช้แล็ปท็อปบางเบาอย่าง Surface Pro หรือ Steam Deck แล้วอยากเล่นเกม AAA หรือเรนเดอร์งาน 3D หนักๆ แบบลื่นไหล…แต่ไม่อยากแบกเครื่องใหญ่หรือซื้อโน้ตบุ๊กเกมมิ่งราคาแพง ตอนนี้มีทางเลือกใหม่ที่น่าสนใจมาก — OneXGPU Lite คือ eGPU ขนาดเล็กจาก One-Netbook ที่เปิดตัวในงาน Fall Launch 2025 พร้อมชิป AMD Radeon RX 7600M XT และพอร์ตเชื่อมต่อที่เรียกว่า “USB 5.0” ซึ่งจริงๆ แล้วคือ USB4 v2 หรือ Thunderbolt 5

    แม้ชื่อ USB 5.0 จะยังไม่ใช่มาตรฐานที่ประกาศอย่างเป็นทางการ แต่ One-Netbook อาจกำลังใช้ชื่อเรียกล่วงหน้าเพื่อสื่อถึงความเร็วสูงสุด 80 Gbps ที่พอร์ตนี้รองรับ ซึ่งมากพอสำหรับการส่งข้อมูลกราฟิกระดับ PCIe ได้อย่างมีประสิทธิภาพ

    ตัวเครื่องมีขนาดเพียง 114 x 116 x 34.5 มม. และหนักแค่ 493.5 กรัม — เล็กกว่าการ์ดจอ mini-ITX ทั่วไป และสามารถใส่ในกระเป๋ากางเกงได้จริง CEO ของบริษัทถึงกับโชว์การหยิบออกจากกระเป๋าตัวเองกลางเวที

    ด้านประสิทธิภาพ RX 7600M XT ที่ใช้สถาปัตยกรรม RDNA3 พร้อม VRAM 8GB และ Infinity Cache 32MB สามารถรันที่ 120W และให้คะแนน Time Spy สูงถึง 10,245 ซึ่งใกล้เคียงกับ RTX 4060 รุ่นโน้ตบุ๊ก และแรงกว่ากราฟิกใน Steam Deck ถึง 3 เท่า

    ยังมีพอร์ต OCuLink สำหรับผู้ใช้ที่ต้องการความเร็ว PCIe เต็มรูปแบบ และพอร์ต HDMI 2.1 + DisplayPort 2.0 ที่รองรับ 4K 120Hz พร้อมระบบระบายความร้อนแบบ vapor chamber ที่เงียบไม่เกิน 42dBA

    การเปิดตัว OneXGPU Lite
    เปิดตัวในงาน Fall Launch 2025 โดย One-Netbook
    ใช้ GPU AMD Radeon RX 7600M XT สถาปัตยกรรม RDNA3
    ขนาด 114 x 116 x 34.5 มม. น้ำหนัก 493.5 กรัม
    มี RGB, พอร์ต HDMI 2.1 และ DisplayPort 2.0 รองรับ 4K 120Hz

    พอร์ตเชื่อมต่อและความเร็ว
    ใช้พอร์ต “USB 5.0” ที่แท้คือ USB4 v2 หรือ Thunderbolt 5
    รองรับความเร็วสูงสุด 80 Gbps แบบ bidirectional
    มีพอร์ต OCuLink สำหรับการเชื่อมต่อ PCIe โดยตรง
    รองรับ reverse charging สูงสุด 65W สำหรับโน้ตบุ๊กหรือ handheld

    ประสิทธิภาพของ GPU
    RX 7600M XT มี 2048 Stream Processors, VRAM 8GB GDDR6
    Infinity Cache 32MB และ TDP สูงสุด 120W
    คะแนน Time Spy 10,245 ใกล้เคียง RTX 4060
    แรงกว่ากราฟิกใน Steam Deck หรือ ROG Ally ถึง 3 เท่า

    ระบบระบายความร้อน
    ใช้ vapor chamber cooling พร้อมเสียงรบกวนต่ำกว่า 42dBA
    ตัวเครื่องทำจากอลูมิเนียม CNC พร้อมรูระบายอากาศกว่า 15,000 จุด

    ราคาและการวางจำหน่าย
    เปิดราคาที่ 3,899 หยวน (~$535 USD)
    มีสาย “USB 5.0” แถมในกล่อง มูลค่า 199 หยวน (~$27 USD)
    เริ่มจัดส่งวันที่ 25 กันยายน 2025
    ยังไม่มีข้อมูลการวางจำหน่ายนอกประเทศจีน

    https://www.tomshardware.com/pc-components/gpus/usb-5-0-connection-touted-on-new-slim-egpu-with-rx-7600m-xt-compact-onexgpu-lite-unveiled-likely-using-usb4-v2
    🔌 “OneXGPU Lite เปิดตัว eGPU ขนาดพกพา พร้อมพอร์ต ‘USB 5.0’ ที่แท้คือ USB4 v2 — แรงระดับ RTX 4060 ในขนาดใส่กระเป๋า!” ลองนึกภาพว่าคุณใช้แล็ปท็อปบางเบาอย่าง Surface Pro หรือ Steam Deck แล้วอยากเล่นเกม AAA หรือเรนเดอร์งาน 3D หนักๆ แบบลื่นไหล…แต่ไม่อยากแบกเครื่องใหญ่หรือซื้อโน้ตบุ๊กเกมมิ่งราคาแพง ตอนนี้มีทางเลือกใหม่ที่น่าสนใจมาก — OneXGPU Lite คือ eGPU ขนาดเล็กจาก One-Netbook ที่เปิดตัวในงาน Fall Launch 2025 พร้อมชิป AMD Radeon RX 7600M XT และพอร์ตเชื่อมต่อที่เรียกว่า “USB 5.0” ซึ่งจริงๆ แล้วคือ USB4 v2 หรือ Thunderbolt 5 แม้ชื่อ USB 5.0 จะยังไม่ใช่มาตรฐานที่ประกาศอย่างเป็นทางการ แต่ One-Netbook อาจกำลังใช้ชื่อเรียกล่วงหน้าเพื่อสื่อถึงความเร็วสูงสุด 80 Gbps ที่พอร์ตนี้รองรับ ซึ่งมากพอสำหรับการส่งข้อมูลกราฟิกระดับ PCIe ได้อย่างมีประสิทธิภาพ ตัวเครื่องมีขนาดเพียง 114 x 116 x 34.5 มม. และหนักแค่ 493.5 กรัม — เล็กกว่าการ์ดจอ mini-ITX ทั่วไป และสามารถใส่ในกระเป๋ากางเกงได้จริง CEO ของบริษัทถึงกับโชว์การหยิบออกจากกระเป๋าตัวเองกลางเวที ด้านประสิทธิภาพ RX 7600M XT ที่ใช้สถาปัตยกรรม RDNA3 พร้อม VRAM 8GB และ Infinity Cache 32MB สามารถรันที่ 120W และให้คะแนน Time Spy สูงถึง 10,245 ซึ่งใกล้เคียงกับ RTX 4060 รุ่นโน้ตบุ๊ก และแรงกว่ากราฟิกใน Steam Deck ถึง 3 เท่า ยังมีพอร์ต OCuLink สำหรับผู้ใช้ที่ต้องการความเร็ว PCIe เต็มรูปแบบ และพอร์ต HDMI 2.1 + DisplayPort 2.0 ที่รองรับ 4K 120Hz พร้อมระบบระบายความร้อนแบบ vapor chamber ที่เงียบไม่เกิน 42dBA ✅ การเปิดตัว OneXGPU Lite ➡️ เปิดตัวในงาน Fall Launch 2025 โดย One-Netbook ➡️ ใช้ GPU AMD Radeon RX 7600M XT สถาปัตยกรรม RDNA3 ➡️ ขนาด 114 x 116 x 34.5 มม. น้ำหนัก 493.5 กรัม ➡️ มี RGB, พอร์ต HDMI 2.1 และ DisplayPort 2.0 รองรับ 4K 120Hz ✅ พอร์ตเชื่อมต่อและความเร็ว ➡️ ใช้พอร์ต “USB 5.0” ที่แท้คือ USB4 v2 หรือ Thunderbolt 5 ➡️ รองรับความเร็วสูงสุด 80 Gbps แบบ bidirectional ➡️ มีพอร์ต OCuLink สำหรับการเชื่อมต่อ PCIe โดยตรง ➡️ รองรับ reverse charging สูงสุด 65W สำหรับโน้ตบุ๊กหรือ handheld ✅ ประสิทธิภาพของ GPU ➡️ RX 7600M XT มี 2048 Stream Processors, VRAM 8GB GDDR6 ➡️ Infinity Cache 32MB และ TDP สูงสุด 120W ➡️ คะแนน Time Spy 10,245 ใกล้เคียง RTX 4060 ➡️ แรงกว่ากราฟิกใน Steam Deck หรือ ROG Ally ถึง 3 เท่า ✅ ระบบระบายความร้อน ➡️ ใช้ vapor chamber cooling พร้อมเสียงรบกวนต่ำกว่า 42dBA ➡️ ตัวเครื่องทำจากอลูมิเนียม CNC พร้อมรูระบายอากาศกว่า 15,000 จุด ✅ ราคาและการวางจำหน่าย ➡️ เปิดราคาที่ 3,899 หยวน (~$535 USD) ➡️ มีสาย “USB 5.0” แถมในกล่อง มูลค่า 199 หยวน (~$27 USD) ➡️ เริ่มจัดส่งวันที่ 25 กันยายน 2025 ➡️ ยังไม่มีข้อมูลการวางจำหน่ายนอกประเทศจีน https://www.tomshardware.com/pc-components/gpus/usb-5-0-connection-touted-on-new-slim-egpu-with-rx-7600m-xt-compact-onexgpu-lite-unveiled-likely-using-usb4-v2
    WWW.TOMSHARDWARE.COM
    ‘USB 5.0’ connection touted on new slim eGPU with RX 7600M XT — Compact OneXGPU Lite unveiled, likely using USB4 v2
    Though it has a fancy 80 Gbps Type-C connector, its performance is a step back from last year’s OneXGPU 2.
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Navi 44 ถึง XL: เมื่อชื่อที่ไม่ควรมีอยู่ กลับกลายเป็นจุดเริ่มต้นของการคาดเดา

    ในเอกสาร ROCm 6.4.2 ซึ่งเป็นซอฟต์แวร์โอเพ่นซอร์สสำหรับการประมวลผล GPU ของ AMD มีการระบุชื่อ Radeon RX 9060 XL ว่าเป็นหนึ่งในรุ่นที่รองรับ แม้ว่า AMD จะยังไม่เคยประกาศ GPU รุ่นนี้อย่างเป็นทางการ และไม่มีข้อมูลใด ๆ ปรากฏในเว็บไซต์หรือข่าวเปิดตัว

    สิ่งที่ทำให้เรื่องนี้น่าสนใจคือ ROCm ระบุชื่อรุ่น RX 9070 XT, RX 9070, RX 9070 GRE, RX 9060 XT และ RX 9060 XL แต่กลับไม่มี RX 9060 รุ่นธรรมดา ซึ่งทำให้หลายคนสงสัยว่า “XL” อาจเป็นชื่อที่ใช้แทน RX 9060 ธรรมดา หรือเป็นการพิมพ์ผิดที่เกิดจากการสับสนระหว่างชื่อรุ่นกับชื่อชิป

    AMD เคยใช้คำว่า “XL” ในอดีต เช่น Radeon X1800XL หรือในชิป OEM-only แต่ได้เลิกใช้คำนี้ในชื่อผลิตภัณฑ์ตั้งแต่ยุค HD 3000 เป็นต้นมา อย่างไรก็ตาม ชิป Navi 31 XL ก็ยังใช้คำนี้เพื่อระบุรุ่นที่ถูกลดสเปก ซึ่งทำให้เกิดความเป็นไปได้ว่า RX 9060 XL อาจหมายถึงรุ่นที่ใช้ชิป Navi 44 XL

    นอกจากนี้ ยังมีข้อผิดพลาดในเอกสาร ROCm ที่ระบุว่า GPU ตระกูล RX 9000 ใช้สถาปัตยกรรม RDNA 3 ทั้งที่จริงแล้วเป็น RDNA 4 ซึ่งมีการเปลี่ยนแปลงสำคัญ เช่น matrix accelerator ที่รองรับ FP8, ระบบ cache ใหม่, และ ray tracing engine ที่ปรับปรุงใหม่ทั้งหมด

    แม้จะมีความเป็นไปได้ว่า RX 9060 XL คือชื่อจริงของ GPU ที่ยังไม่เปิดตัว แต่หลายฝ่าย—including VideoCardz และ Wccftech—มองว่าอาจเป็นแค่การพิมพ์ผิดจาก RX 9060 ธรรมดา ซึ่งใช้ชิป Navi 44 แบบลดสเปก และไม่มีความจำเป็นที่ AMD จะเปิดตัว SKU ใหม่ในช่วงที่ยอดขาย GPU ยังไม่สูงมาก

    การปรากฏของชื่อ Radeon RX 9060 XL
    พบในเอกสาร ROCm 6.4.2 ของ AMD
    ไม่มีการประกาศหรือเปิดตัวอย่างเป็นทางการ
    อาจเป็นการพิมพ์ผิดจาก RX 9060 ธรรมดา

    ความเป็นไปได้ของชื่อ “XL”
    เคยใช้ในอดีตกับรุ่น OEM หรือรุ่นลดสเปก
    ปัจจุบันยังใช้ในชื่อชิป เช่น Navi 31 XL
    RX 9060 XL อาจหมายถึงรุ่นที่ใช้ Navi 44 XL

    ข้อผิดพลาดในเอกสาร ROCm
    ระบุว่า RX 9000 ใช้ RDNA 3 ทั้งที่จริงเป็น RDNA 4
    RDNA 4 มีฟีเจอร์ใหม่ เช่น matrix accelerator FP8 และ ray tracing engine ใหม่
    เป็นการเปลี่ยนแปลงระดับ instruction set architecture

    สถานการณ์ตลาด GPU ของ AMD
    AMD ขาย GPU desktop ได้ประมาณ 700,000–750,000 ตัวในครึ่งปีแรก
    อาจไม่มีซิลิคอนเหลือพอสำหรับการผลิตรุ่นลดสเปกเพิ่ม
    ไม่มีข่าวว่าจะเปิดตัว RX 9000 รุ่นใหม่ในเร็ว ๆ นี้

    https://www.tomshardware.com/pc-components/gpus/amd-lists-mystery-radeon-9060-xl-model-in-rocm-documents-but-it-is-more-likely-to-be-a-typo-than-a-new-sku
    🎙️ เรื่องเล่าจาก Navi 44 ถึง XL: เมื่อชื่อที่ไม่ควรมีอยู่ กลับกลายเป็นจุดเริ่มต้นของการคาดเดา ในเอกสาร ROCm 6.4.2 ซึ่งเป็นซอฟต์แวร์โอเพ่นซอร์สสำหรับการประมวลผล GPU ของ AMD มีการระบุชื่อ Radeon RX 9060 XL ว่าเป็นหนึ่งในรุ่นที่รองรับ แม้ว่า AMD จะยังไม่เคยประกาศ GPU รุ่นนี้อย่างเป็นทางการ และไม่มีข้อมูลใด ๆ ปรากฏในเว็บไซต์หรือข่าวเปิดตัว สิ่งที่ทำให้เรื่องนี้น่าสนใจคือ ROCm ระบุชื่อรุ่น RX 9070 XT, RX 9070, RX 9070 GRE, RX 9060 XT และ RX 9060 XL แต่กลับไม่มี RX 9060 รุ่นธรรมดา ซึ่งทำให้หลายคนสงสัยว่า “XL” อาจเป็นชื่อที่ใช้แทน RX 9060 ธรรมดา หรือเป็นการพิมพ์ผิดที่เกิดจากการสับสนระหว่างชื่อรุ่นกับชื่อชิป AMD เคยใช้คำว่า “XL” ในอดีต เช่น Radeon X1800XL หรือในชิป OEM-only แต่ได้เลิกใช้คำนี้ในชื่อผลิตภัณฑ์ตั้งแต่ยุค HD 3000 เป็นต้นมา อย่างไรก็ตาม ชิป Navi 31 XL ก็ยังใช้คำนี้เพื่อระบุรุ่นที่ถูกลดสเปก ซึ่งทำให้เกิดความเป็นไปได้ว่า RX 9060 XL อาจหมายถึงรุ่นที่ใช้ชิป Navi 44 XL นอกจากนี้ ยังมีข้อผิดพลาดในเอกสาร ROCm ที่ระบุว่า GPU ตระกูล RX 9000 ใช้สถาปัตยกรรม RDNA 3 ทั้งที่จริงแล้วเป็น RDNA 4 ซึ่งมีการเปลี่ยนแปลงสำคัญ เช่น matrix accelerator ที่รองรับ FP8, ระบบ cache ใหม่, และ ray tracing engine ที่ปรับปรุงใหม่ทั้งหมด แม้จะมีความเป็นไปได้ว่า RX 9060 XL คือชื่อจริงของ GPU ที่ยังไม่เปิดตัว แต่หลายฝ่าย—including VideoCardz และ Wccftech—มองว่าอาจเป็นแค่การพิมพ์ผิดจาก RX 9060 ธรรมดา ซึ่งใช้ชิป Navi 44 แบบลดสเปก และไม่มีความจำเป็นที่ AMD จะเปิดตัว SKU ใหม่ในช่วงที่ยอดขาย GPU ยังไม่สูงมาก ✅ การปรากฏของชื่อ Radeon RX 9060 XL ➡️ พบในเอกสาร ROCm 6.4.2 ของ AMD ➡️ ไม่มีการประกาศหรือเปิดตัวอย่างเป็นทางการ ➡️ อาจเป็นการพิมพ์ผิดจาก RX 9060 ธรรมดา ✅ ความเป็นไปได้ของชื่อ “XL” ➡️ เคยใช้ในอดีตกับรุ่น OEM หรือรุ่นลดสเปก ➡️ ปัจจุบันยังใช้ในชื่อชิป เช่น Navi 31 XL ➡️ RX 9060 XL อาจหมายถึงรุ่นที่ใช้ Navi 44 XL ✅ ข้อผิดพลาดในเอกสาร ROCm ➡️ ระบุว่า RX 9000 ใช้ RDNA 3 ทั้งที่จริงเป็น RDNA 4 ➡️ RDNA 4 มีฟีเจอร์ใหม่ เช่น matrix accelerator FP8 และ ray tracing engine ใหม่ ➡️ เป็นการเปลี่ยนแปลงระดับ instruction set architecture ✅ สถานการณ์ตลาด GPU ของ AMD ➡️ AMD ขาย GPU desktop ได้ประมาณ 700,000–750,000 ตัวในครึ่งปีแรก ➡️ อาจไม่มีซิลิคอนเหลือพอสำหรับการผลิตรุ่นลดสเปกเพิ่ม ➡️ ไม่มีข่าวว่าจะเปิดตัว RX 9000 รุ่นใหม่ในเร็ว ๆ นี้ https://www.tomshardware.com/pc-components/gpus/amd-lists-mystery-radeon-9060-xl-model-in-rocm-documents-but-it-is-more-likely-to-be-a-typo-than-a-new-sku
    WWW.TOMSHARDWARE.COM
    AMD lists mystery Radeon 9060 XL model in ROCm documents, but it is more likely to be a typo than a new SKU
    This non-existent Radeon RX 9060 XL GPU is listed in AMD's ROCm 6.4.2 software stack.
    0 ความคิดเห็น 0 การแบ่งปัน 140 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก NPU ถึง Perfect PC: เมื่อ AMD บอกว่า AI ยังไม่ถึงจุดเปลี่ยน และ PC ที่ดีคือรากฐานของทุกอย่าง

    ในงาน IFA 2025 AMD ไม่ได้เปิดตัวชิปใหม่ แต่กลับใช้เวทีนี้เพื่ออธิบายแนวคิดเบื้องหลังกลยุทธ์ AI ของบริษัท โดย Jack Huynh รองประธานอาวุโสของ AMD กล่าวอย่างตรงไปตรงมาว่า “AI ยัง underhyped” เพราะสิ่งที่เราเห็นในวันนี้ เช่น generative AI หรือแชตบอท ยังเป็นแค่จุดเริ่มต้นเท่านั้น

    Huynh เปรียบเทียบการเปลี่ยนแปลงของ AI กับยุคแรกของอินเทอร์เน็ต—เป็นการเปลี่ยนแปลงเชิงโครงสร้างที่ต้องใช้เวลาหลายปี และ AMD เชื่อว่าเมื่อการเปลี่ยนแปลงนั้นมาถึง สถาปัตยกรรมแบบ edge-first ที่เน้นการประมวลผลในเครื่องจะเป็นคำตอบที่พร้อมที่สุด

    AMD ย้ำว่า NPU (Neural Processing Unit) ไม่ได้มาแทน CPU หรือ GPU แต่เป็นส่วนเสริมที่ช่วยให้ระบบสามารถรันแอป AI ได้อย่างปลอดภัยและมีประสิทธิภาพ โดยไม่ต้องพึ่งพาคลาวด์ ซึ่งสอดคล้องกับแนวทางของ AMD ที่เน้น performance-per-watt และการออกแบบที่ปรับขนาดได้

    Huynh กล่าวอย่างชัดเจนว่า “คุณจะไม่มี AI PC ถ้าไม่ได้เริ่มจากการสร้าง PC ที่ดีเสียก่อน” ซึ่งสะท้อนถึงแนวคิดที่ว่า AI ไม่ใช่ฟีเจอร์ที่แปะเข้าไปทีหลัง แต่ต้องฝังอยู่ในโครงสร้างของเครื่องตั้งแต่ต้น

    AMD ยังปฏิเสธแนวคิดการสร้างบริการสตรีมเกมแบบ GeForce Now โดยบอกว่า “จะไม่มี Radeon Now” และยืนยันว่าจะยังคงเป็นผู้ผลิตชิปให้กับพันธมิตรต่อไป—แม้แต่ Nvidia ก็ใช้ Threadripper ของ AMD ในโครงสร้างพื้นฐานของ GeForce Now

    อย่างไรก็ตาม AMD ยังเผชิญกับคำถามเรื่องส่วนแบ่งตลาด GPU ที่ลดลงเหลือเพียง 6% ในไตรมาสล่าสุด ซึ่งบริษัทเลือกที่จะอ้างอิงข้อมูลจาก Mercury Research แทนที่จะตอบตรง ๆ พร้อมยืนยันว่า Radeon ยังมีดีมานด์สูง และการผลิตยังตามไม่ทันหลังเปิดตัว RDNA 4

    วิสัยทัศน์ AI ของ AMD
    AI ยัง underhyped เพราะการเปลี่ยนแปลงที่แท้จริงยังมาไม่ถึง
    เปรียบเทียบกับยุคแรกของอินเทอร์เน็ต—ต้องใช้เวลาหลายปี
    AMD เน้นสถาปัตยกรรม edge-first ที่ไม่พึ่งคลาวด์

    บทบาทของ NPU
    ไม่ได้มาแทน CPU หรือ GPU แต่เป็นส่วนเสริม
    ช่วยให้ระบบรันแอป AI ได้อย่างปลอดภัยและมีประสิทธิภาพ
    สอดคล้องกับแนวทาง performance-per-watt และ scalable design

    จุดยืนของ AMD ต่อ AI PC
    “คุณจะไม่มี AI PC ถ้าไม่ได้เริ่มจากการสร้าง PC ที่ดีเสียก่อน”
    เน้นการออกแบบเครื่องให้รองรับ AI ตั้งแต่โครงสร้าง
    ไม่เน้นการเปิดตัวสเปกแรงเพื่อเรียกกระแส แต่เน้นความสมดุล

    การปฏิเสธบริการสตรีมเกม
    AMD จะไม่เปิดตัว “Radeon Now”
    ยืนยันบทบาทเป็นผู้ผลิตชิปให้พันธมิตร
    Nvidia ใช้ Threadripper ของ AMD ใน GeForce Now

    สถานการณ์ตลาด GPU
    ส่วนแบ่งตลาด GPU ลดลงเหลือ 6% ใน Q2 2025
    AMD อ้างอิงข้อมูลจาก Mercury Research แทน Jon Peddie
    ยืนยันว่า Radeon ยังมีดีมานด์ และการผลิตยังตามไม่ทัน

    https://www.tomshardware.com/tech-industry/amd-calls-ai-underhyped-says-perfect-pc-comes-first
    🎙️ เรื่องเล่าจาก NPU ถึง Perfect PC: เมื่อ AMD บอกว่า AI ยังไม่ถึงจุดเปลี่ยน และ PC ที่ดีคือรากฐานของทุกอย่าง ในงาน IFA 2025 AMD ไม่ได้เปิดตัวชิปใหม่ แต่กลับใช้เวทีนี้เพื่ออธิบายแนวคิดเบื้องหลังกลยุทธ์ AI ของบริษัท โดย Jack Huynh รองประธานอาวุโสของ AMD กล่าวอย่างตรงไปตรงมาว่า “AI ยัง underhyped” เพราะสิ่งที่เราเห็นในวันนี้ เช่น generative AI หรือแชตบอท ยังเป็นแค่จุดเริ่มต้นเท่านั้น Huynh เปรียบเทียบการเปลี่ยนแปลงของ AI กับยุคแรกของอินเทอร์เน็ต—เป็นการเปลี่ยนแปลงเชิงโครงสร้างที่ต้องใช้เวลาหลายปี และ AMD เชื่อว่าเมื่อการเปลี่ยนแปลงนั้นมาถึง สถาปัตยกรรมแบบ edge-first ที่เน้นการประมวลผลในเครื่องจะเป็นคำตอบที่พร้อมที่สุด AMD ย้ำว่า NPU (Neural Processing Unit) ไม่ได้มาแทน CPU หรือ GPU แต่เป็นส่วนเสริมที่ช่วยให้ระบบสามารถรันแอป AI ได้อย่างปลอดภัยและมีประสิทธิภาพ โดยไม่ต้องพึ่งพาคลาวด์ ซึ่งสอดคล้องกับแนวทางของ AMD ที่เน้น performance-per-watt และการออกแบบที่ปรับขนาดได้ Huynh กล่าวอย่างชัดเจนว่า “คุณจะไม่มี AI PC ถ้าไม่ได้เริ่มจากการสร้าง PC ที่ดีเสียก่อน” ซึ่งสะท้อนถึงแนวคิดที่ว่า AI ไม่ใช่ฟีเจอร์ที่แปะเข้าไปทีหลัง แต่ต้องฝังอยู่ในโครงสร้างของเครื่องตั้งแต่ต้น AMD ยังปฏิเสธแนวคิดการสร้างบริการสตรีมเกมแบบ GeForce Now โดยบอกว่า “จะไม่มี Radeon Now” และยืนยันว่าจะยังคงเป็นผู้ผลิตชิปให้กับพันธมิตรต่อไป—แม้แต่ Nvidia ก็ใช้ Threadripper ของ AMD ในโครงสร้างพื้นฐานของ GeForce Now อย่างไรก็ตาม AMD ยังเผชิญกับคำถามเรื่องส่วนแบ่งตลาด GPU ที่ลดลงเหลือเพียง 6% ในไตรมาสล่าสุด ซึ่งบริษัทเลือกที่จะอ้างอิงข้อมูลจาก Mercury Research แทนที่จะตอบตรง ๆ พร้อมยืนยันว่า Radeon ยังมีดีมานด์สูง และการผลิตยังตามไม่ทันหลังเปิดตัว RDNA 4 ✅ วิสัยทัศน์ AI ของ AMD ➡️ AI ยัง underhyped เพราะการเปลี่ยนแปลงที่แท้จริงยังมาไม่ถึง ➡️ เปรียบเทียบกับยุคแรกของอินเทอร์เน็ต—ต้องใช้เวลาหลายปี ➡️ AMD เน้นสถาปัตยกรรม edge-first ที่ไม่พึ่งคลาวด์ ✅ บทบาทของ NPU ➡️ ไม่ได้มาแทน CPU หรือ GPU แต่เป็นส่วนเสริม ➡️ ช่วยให้ระบบรันแอป AI ได้อย่างปลอดภัยและมีประสิทธิภาพ ➡️ สอดคล้องกับแนวทาง performance-per-watt และ scalable design ✅ จุดยืนของ AMD ต่อ AI PC ➡️ “คุณจะไม่มี AI PC ถ้าไม่ได้เริ่มจากการสร้าง PC ที่ดีเสียก่อน” ➡️ เน้นการออกแบบเครื่องให้รองรับ AI ตั้งแต่โครงสร้าง ➡️ ไม่เน้นการเปิดตัวสเปกแรงเพื่อเรียกกระแส แต่เน้นความสมดุล ✅ การปฏิเสธบริการสตรีมเกม ➡️ AMD จะไม่เปิดตัว “Radeon Now” ➡️ ยืนยันบทบาทเป็นผู้ผลิตชิปให้พันธมิตร ➡️ Nvidia ใช้ Threadripper ของ AMD ใน GeForce Now ✅ สถานการณ์ตลาด GPU ➡️ ส่วนแบ่งตลาด GPU ลดลงเหลือ 6% ใน Q2 2025 ➡️ AMD อ้างอิงข้อมูลจาก Mercury Research แทน Jon Peddie ➡️ ยืนยันว่า Radeon ยังมีดีมานด์ และการผลิตยังตามไม่ทัน https://www.tomshardware.com/tech-industry/amd-calls-ai-underhyped-says-perfect-pc-comes-first
    WWW.TOMSHARDWARE.COM
    AMD calls AI ‘underhyped’ at IFA Berlin — chipmaker says the ‘perfect PC’ comes first
    AMD outlines its AI roadmap at IFA 2025, prioritizing local performance and a PC-first approach over cloud-based promises.
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
Pages Boosts