• เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี”

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน

    ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่

    แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure

    AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป

    Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง
    กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning
    xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload
    Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware

    จุดแข็งของ AMD ในตลาด AI
    MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7
    มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s
    ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน

    การขยาย ecosystem ของ AMD
    ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก
    มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ
    OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid

    แผนการเปิดตัว MI450 และ Helios rack
    ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G
    รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps
    ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput

    https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    🎙️ เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี” Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่ แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป ✅ Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง ➡️ กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning ➡️ xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload ➡️ Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware ✅ จุดแข็งของ AMD ในตลาด AI ➡️ MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7 ➡️ มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s ➡️ ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน ✅ การขยาย ecosystem ของ AMD ➡️ ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก ➡️ มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ ➡️ OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid ✅ แผนการเปิดตัว MI450 และ Helios rack ➡️ ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G ➡️ รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps ➡️ ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    WCCFTECH.COM
    Elon Musk ‘Endorses’ AMD's AI Hardware for Small to Medium AI Models, Implying That There's Potential to Ease Reliance on NVIDIA
    Billionaire Elon Musk has tweeted on the performance of AMD's AI hardware, claiming that it is sufficient for small and medium AI models.
    0 Comments 0 Shares 49 Views 0 Reviews
  • “จีนควรเลิกใช้ GPU จากสหรัฐฯ — ผู้เชี่ยวชาญเตือนโมเดลพัฒนา AI ปัจจุบันอาจ ‘อันตรายถึงชีวิต’ หากไม่เปลี่ยนแนวทาง”

    Wei Shaojun รองประธานสมาคมอุตสาหกรรมเซมิคอนดักเตอร์จีน และที่ปรึกษาระดับสูงของรัฐบาลจีน ได้ออกมาเรียกร้องให้จีนและประเทศในเอเชียหยุดพึ่งพา GPU จาก Nvidia และ AMD ในการพัฒนา AI โดยเฉพาะการฝึกโมเดลภาษาใหญ่ (LLM) เช่น ChatGPT และ DeepSeek ซึ่งเขาเห็นว่าเป็นการเลียนแบบแนวทางของสหรัฐฯ ที่อาจนำไปสู่ความเสี่ยงระยะยาวทั้งด้านเทคโนโลยีและความมั่นคง

    Wei กล่าวในเวทีที่สิงคโปร์ว่า โมเดลการพัฒนา AI แบบอิง GPU นั้น “อาจถึงขั้นอันตราย” หากไม่เปลี่ยนแนวทาง เพราะมันทำให้ประเทศในเอเชียขาดอำนาจในการควบคุมโครงสร้างพื้นฐานของตนเอง และติดกับดักการพึ่งพาเทคโนโลยีจากต่างชาติ โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิป AI ประสิทธิภาพสูงไปยังจีนตั้งแต่ปี 2023

    แม้จีนจะยังตามหลังสหรัฐฯ และไต้หวันในด้านการผลิตเซมิคอนดักเตอร์ แต่ Wei ยกตัวอย่าง DeepSeek ซึ่งสามารถพัฒนาโมเดล AI ที่แข่งขันกับ OpenAI ได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูงเป็นหลักฐานว่า “อัลกอริธึมที่ดี” สำคัญกว่าฮาร์ดแวร์ล้ำสมัย

    เขาเสนอให้จีนพัฒนาโปรเซสเซอร์เฉพาะทางสำหรับการฝึกโมเดล AI แทนการใช้ GPU ที่เดิมออกแบบมาเพื่อกราฟิก พร้อมย้ำว่าจีนมีเงินทุนและความมุ่งมั่นเพียงพอที่จะสร้างระบบนิเวศด้านเซมิคอนดักเตอร์ของตนเอง แม้จะเผชิญแรงกดดันจากการควบคุมการส่งออกของสหรัฐฯ มาหลายปี

    ข้อมูลสำคัญจากคำแถลงของ Wei Shaojun
    เรียกร้องให้จีนและเอเชียหยุดใช้ GPU จาก Nvidia และ AMD ในการพัฒนา AI
    วิจารณ์ว่าการเลียนแบบแนวทางสหรัฐฯ ทำให้ขาดอำนาจควบคุมเทคโนโลยี
    เสนอให้พัฒนาโปรเซสเซอร์เฉพาะทางสำหรับ LLM แทน GPU ที่ออกแบบเพื่อกราฟิก
    ยกตัวอย่าง DeepSeek เป็นหลักฐานว่าจีนสามารถพัฒนาอัลกอริธึมได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูง

    สถานการณ์ด้านฮาร์ดแวร์และการส่งออก
    สหรัฐฯ จำกัดการส่งออกชิป AI และ HPC ไปยังจีนตั้งแต่ปี 2023
    Nvidia H20 ถูกลดสเปกเพื่อให้ผ่านข้อจำกัด แต่จีนยังไม่ไว้วางใจ
    จีนมีความคืบหน้าในการผลิตชิป แต่ยังตามหลังสหรัฐฯ และไต้หวันหลายปี
    รัฐบาลจีนผลักดันให้บริษัทในประเทศหลีกเลี่ยงการใช้ GPU จากสหรัฐฯ

    ข้อมูลเสริมจากภายนอก
    Nvidia ครองตลาด AI ด้วย CUDA และ Tensor Core ที่ออกแบบมาเพื่อ deep learning
    GPU ของ Nvidia กลายเป็นมาตรฐานในวงการ AI เพราะประสิทธิภาพสูงและ ecosystem ครบ
    ASIC เฉพาะทางสำหรับ AI ยังไม่แพร่หลาย แต่มีแนวโน้มเติบโตในอนาคต
    DeepSeek และ Meituan เป็นตัวอย่างของบริษัทจีนที่พัฒนาโมเดล AI โดยเน้นอัลกอริธึมมากกว่าฮาร์ดแวร์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/top-china-silicon-figure-calls-on-country-to-stop-using-nvidia-gpus-for-ai-says-current-ai-development-model-could-become-lethal-if-not-addressed
    🇨🇳 “จีนควรเลิกใช้ GPU จากสหรัฐฯ — ผู้เชี่ยวชาญเตือนโมเดลพัฒนา AI ปัจจุบันอาจ ‘อันตรายถึงชีวิต’ หากไม่เปลี่ยนแนวทาง” Wei Shaojun รองประธานสมาคมอุตสาหกรรมเซมิคอนดักเตอร์จีน และที่ปรึกษาระดับสูงของรัฐบาลจีน ได้ออกมาเรียกร้องให้จีนและประเทศในเอเชียหยุดพึ่งพา GPU จาก Nvidia และ AMD ในการพัฒนา AI โดยเฉพาะการฝึกโมเดลภาษาใหญ่ (LLM) เช่น ChatGPT และ DeepSeek ซึ่งเขาเห็นว่าเป็นการเลียนแบบแนวทางของสหรัฐฯ ที่อาจนำไปสู่ความเสี่ยงระยะยาวทั้งด้านเทคโนโลยีและความมั่นคง Wei กล่าวในเวทีที่สิงคโปร์ว่า โมเดลการพัฒนา AI แบบอิง GPU นั้น “อาจถึงขั้นอันตราย” หากไม่เปลี่ยนแนวทาง เพราะมันทำให้ประเทศในเอเชียขาดอำนาจในการควบคุมโครงสร้างพื้นฐานของตนเอง และติดกับดักการพึ่งพาเทคโนโลยีจากต่างชาติ โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิป AI ประสิทธิภาพสูงไปยังจีนตั้งแต่ปี 2023 แม้จีนจะยังตามหลังสหรัฐฯ และไต้หวันในด้านการผลิตเซมิคอนดักเตอร์ แต่ Wei ยกตัวอย่าง DeepSeek ซึ่งสามารถพัฒนาโมเดล AI ที่แข่งขันกับ OpenAI ได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูงเป็นหลักฐานว่า “อัลกอริธึมที่ดี” สำคัญกว่าฮาร์ดแวร์ล้ำสมัย เขาเสนอให้จีนพัฒนาโปรเซสเซอร์เฉพาะทางสำหรับการฝึกโมเดล AI แทนการใช้ GPU ที่เดิมออกแบบมาเพื่อกราฟิก พร้อมย้ำว่าจีนมีเงินทุนและความมุ่งมั่นเพียงพอที่จะสร้างระบบนิเวศด้านเซมิคอนดักเตอร์ของตนเอง แม้จะเผชิญแรงกดดันจากการควบคุมการส่งออกของสหรัฐฯ มาหลายปี ✅ ข้อมูลสำคัญจากคำแถลงของ Wei Shaojun ➡️ เรียกร้องให้จีนและเอเชียหยุดใช้ GPU จาก Nvidia และ AMD ในการพัฒนา AI ➡️ วิจารณ์ว่าการเลียนแบบแนวทางสหรัฐฯ ทำให้ขาดอำนาจควบคุมเทคโนโลยี ➡️ เสนอให้พัฒนาโปรเซสเซอร์เฉพาะทางสำหรับ LLM แทน GPU ที่ออกแบบเพื่อกราฟิก ➡️ ยกตัวอย่าง DeepSeek เป็นหลักฐานว่าจีนสามารถพัฒนาอัลกอริธึมได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูง ✅ สถานการณ์ด้านฮาร์ดแวร์และการส่งออก ➡️ สหรัฐฯ จำกัดการส่งออกชิป AI และ HPC ไปยังจีนตั้งแต่ปี 2023 ➡️ Nvidia H20 ถูกลดสเปกเพื่อให้ผ่านข้อจำกัด แต่จีนยังไม่ไว้วางใจ ➡️ จีนมีความคืบหน้าในการผลิตชิป แต่ยังตามหลังสหรัฐฯ และไต้หวันหลายปี ➡️ รัฐบาลจีนผลักดันให้บริษัทในประเทศหลีกเลี่ยงการใช้ GPU จากสหรัฐฯ ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia ครองตลาด AI ด้วย CUDA และ Tensor Core ที่ออกแบบมาเพื่อ deep learning ➡️ GPU ของ Nvidia กลายเป็นมาตรฐานในวงการ AI เพราะประสิทธิภาพสูงและ ecosystem ครบ ➡️ ASIC เฉพาะทางสำหรับ AI ยังไม่แพร่หลาย แต่มีแนวโน้มเติบโตในอนาคต ➡️ DeepSeek และ Meituan เป็นตัวอย่างของบริษัทจีนที่พัฒนาโมเดล AI โดยเน้นอัลกอริธึมมากกว่าฮาร์ดแวร์ https://www.tomshardware.com/tech-industry/artificial-intelligence/top-china-silicon-figure-calls-on-country-to-stop-using-nvidia-gpus-for-ai-says-current-ai-development-model-could-become-lethal-if-not-addressed
    0 Comments 0 Shares 150 Views 0 Reviews
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 Comments 0 Shares 108 Views 0 Reviews
  • “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม”

    ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร

    NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50%

    ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า

    NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด

    การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง

    ผลการทดสอบ MLPerf v5.1
    GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server
    MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B
    GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL
    ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput

    จุดเด่นของ Blackwell Ultra GB300
    มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน
    ใช้ HBM3e สูงสุด 288GB ต่อ GPU
    ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1
    ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark

    จุดเด่นของ AMD Instinct MI355X
    ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป
    เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป
    เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1
    มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน

    ข้อมูลเสริมจากภายนอก
    MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3
    NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive
    Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก

    https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
    ⚙️ “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม” ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50% ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server ➡️ MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B ➡️ GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL ➡️ ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput ✅ จุดเด่นของ Blackwell Ultra GB300 ➡️ มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน ➡️ ใช้ HBM3e สูงสุด 288GB ต่อ GPU ➡️ ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1 ➡️ ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark ✅ จุดเด่นของ AMD Instinct MI355X ➡️ ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป ➡️ เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป ➡️ เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1 ➡️ มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3 ➡️ NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 ➡️ การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive ➡️ Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
    WCCFTECH.COM
    MLPerf v5.1 AI Inference Benchmark Showdown: NVIDIA Blackwell Ultra GB300 & AMD Instinct MI355X In The Spotlight
    NVIDIA's Blackwell Ultra GB300 & AMD's Instinct MI355X have finally appeared in the latest MLPerf v3.1 AI inference benchmarks.
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจาก Youtu-Agent ถึง Coze Studio: เมื่อจีนไม่รอใคร และกำลังสร้างระบบนิเวศของ AI agentic tools

    ในช่วงครึ่งหลังของปี 2025 จีนเริ่มเปิดตัวชุดเครื่องมือสร้าง AI agent แบบโอเพ่นซอร์สอย่างต่อเนื่อง โดยมี Tencent, ByteDance และ Alibaba เป็นหัวหอกหลักในการผลักดัน “agentic frameworks”—ซอฟต์แวร์ที่ช่วยให้ผู้ใช้สามารถสร้างและจัดการ AI agents ที่ทำงานอัตโนมัติได้

    ล่าสุด Tencent เปิดตัว Youtu-Agent บน GitHub ซึ่งเป็นเฟรมเวิร์กที่พัฒนาโดย Youtu Labs และใช้โมเดล DeepSeek-V3.1 เป็นฐาน โดยสามารถทำคะแนนได้ถึง 71.47% บน WebWalkerQA ซึ่งเป็น benchmark สำหรับการเดินทางในเว็บแบบอัตโนมัติ

    ก่อนหน้านี้ ByteDance ได้เปิดตัว Coze Studio ในเดือนกรกฎาคม และ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม โดยทั้งสองเฟรมเวิร์กได้รับดาวบน GitHub มากกว่า 10,000 ดวงแล้ว ถือเป็นสัญญาณว่าเครื่องมือจากจีนเริ่มได้รับความนิยมในระดับโลก แม้จะยังตามหลัง LangChain ที่มีมากกว่า 115,000 ดาวอยู่มาก

    สิ่งที่ทำให้ Youtu-Agent น่าสนใจคือการใช้ YAML (Yet Another Markup Language) แทนการเขียนโค้ด เพื่อกำหนดพฤติกรรมของเอเจนต์ และมี “meta-agent” ที่สามารถพูดคุยกับผู้ใช้เพื่อสร้าง YAML ให้โดยอัตโนมัติ—ลดภาระของนักพัฒนา และเปิดโอกาสให้ผู้เริ่มต้นสามารถสร้างเอเจนต์ได้ง่ายขึ้น

    Tencent ยังเปิดตัวโมเดลแปลภาษาแบบโอเพ่นซอร์สที่ชนะการแข่งขันระดับโลก และปล่อยเวอร์ชันย่อยของโมเดล Hunyuan ที่สามารถรันบน GPU ระดับ consumer ได้ ซึ่งสะท้อนถึงแนวทาง “ประชาธิปไตยของ AI” ที่จีนกำลังผลักดัน

    การเปิดตัว agentic frameworks จากจีน
    Tencent เปิดตัว Youtu-Agent บน GitHub โดยใช้ DeepSeek-V3.1
    ByteDance เปิดตัว Coze Studio ในเดือนกรกฎาคม
    Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม

    ความสามารถของ Youtu-Agent
    ทำคะแนน 71.47% บน WebWalkerQA benchmark
    ใช้ YAML ในการกำหนดพฤติกรรมของเอเจนต์
    มี meta-agent ที่ช่วยสร้าง YAML โดยอัตโนมัติ

    ความนิยมและการเปรียบเทียบ
    Coze Studio และ Qwen-Agent มีดาวบน GitHub มากกว่า 10,000 ดวง
    LangChain จากสหรัฐฯ มีมากกว่า 115,000 ดาว
    IBM จัดอันดับว่าเฟรมเวิร์กยอดนิยมยังเป็นของฝั่งสหรัฐฯ เช่น AutoGen, CrewAI

    การขยาย ecosystem ของ Tencent
    เปิดตัวโมเดลแปลภาษาที่ชนะการแข่งขันระดับโลก
    ปล่อยเวอร์ชันย่อยของ Hunyuan ที่รันบน GPU ระดับ consumer
    เปิดตัวเอเจนต์เฉพาะทางสำหรับงาน coding และ marketing ในงาน WAIC

    https://www.thestar.com.my/tech/tech-news/2025/09/05/china-advances-in-ai-agentic-tools-as-tencent-bytedance-weigh-in
    🎙️ เรื่องเล่าจาก Youtu-Agent ถึง Coze Studio: เมื่อจีนไม่รอใคร และกำลังสร้างระบบนิเวศของ AI agentic tools ในช่วงครึ่งหลังของปี 2025 จีนเริ่มเปิดตัวชุดเครื่องมือสร้าง AI agent แบบโอเพ่นซอร์สอย่างต่อเนื่อง โดยมี Tencent, ByteDance และ Alibaba เป็นหัวหอกหลักในการผลักดัน “agentic frameworks”—ซอฟต์แวร์ที่ช่วยให้ผู้ใช้สามารถสร้างและจัดการ AI agents ที่ทำงานอัตโนมัติได้ ล่าสุด Tencent เปิดตัว Youtu-Agent บน GitHub ซึ่งเป็นเฟรมเวิร์กที่พัฒนาโดย Youtu Labs และใช้โมเดล DeepSeek-V3.1 เป็นฐาน โดยสามารถทำคะแนนได้ถึง 71.47% บน WebWalkerQA ซึ่งเป็น benchmark สำหรับการเดินทางในเว็บแบบอัตโนมัติ ก่อนหน้านี้ ByteDance ได้เปิดตัว Coze Studio ในเดือนกรกฎาคม และ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม โดยทั้งสองเฟรมเวิร์กได้รับดาวบน GitHub มากกว่า 10,000 ดวงแล้ว ถือเป็นสัญญาณว่าเครื่องมือจากจีนเริ่มได้รับความนิยมในระดับโลก แม้จะยังตามหลัง LangChain ที่มีมากกว่า 115,000 ดาวอยู่มาก สิ่งที่ทำให้ Youtu-Agent น่าสนใจคือการใช้ YAML (Yet Another Markup Language) แทนการเขียนโค้ด เพื่อกำหนดพฤติกรรมของเอเจนต์ และมี “meta-agent” ที่สามารถพูดคุยกับผู้ใช้เพื่อสร้าง YAML ให้โดยอัตโนมัติ—ลดภาระของนักพัฒนา และเปิดโอกาสให้ผู้เริ่มต้นสามารถสร้างเอเจนต์ได้ง่ายขึ้น Tencent ยังเปิดตัวโมเดลแปลภาษาแบบโอเพ่นซอร์สที่ชนะการแข่งขันระดับโลก และปล่อยเวอร์ชันย่อยของโมเดล Hunyuan ที่สามารถรันบน GPU ระดับ consumer ได้ ซึ่งสะท้อนถึงแนวทาง “ประชาธิปไตยของ AI” ที่จีนกำลังผลักดัน ✅ การเปิดตัว agentic frameworks จากจีน ➡️ Tencent เปิดตัว Youtu-Agent บน GitHub โดยใช้ DeepSeek-V3.1 ➡️ ByteDance เปิดตัว Coze Studio ในเดือนกรกฎาคม ➡️ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม ✅ ความสามารถของ Youtu-Agent ➡️ ทำคะแนน 71.47% บน WebWalkerQA benchmark ➡️ ใช้ YAML ในการกำหนดพฤติกรรมของเอเจนต์ ➡️ มี meta-agent ที่ช่วยสร้าง YAML โดยอัตโนมัติ ✅ ความนิยมและการเปรียบเทียบ ➡️ Coze Studio และ Qwen-Agent มีดาวบน GitHub มากกว่า 10,000 ดวง ➡️ LangChain จากสหรัฐฯ มีมากกว่า 115,000 ดาว ➡️ IBM จัดอันดับว่าเฟรมเวิร์กยอดนิยมยังเป็นของฝั่งสหรัฐฯ เช่น AutoGen, CrewAI ✅ การขยาย ecosystem ของ Tencent ➡️ เปิดตัวโมเดลแปลภาษาที่ชนะการแข่งขันระดับโลก ➡️ ปล่อยเวอร์ชันย่อยของ Hunyuan ที่รันบน GPU ระดับ consumer ➡️ เปิดตัวเอเจนต์เฉพาะทางสำหรับงาน coding และ marketing ในงาน WAIC https://www.thestar.com.my/tech/tech-news/2025/09/05/china-advances-in-ai-agentic-tools-as-tencent-bytedance-weigh-in
    WWW.THESTAR.COM.MY
    China advances in AI agentic tools as Tencent, ByteDance weigh in
    Tencent is the latest to join the fray after the Shenzhen-based company open-sourced its new Youtu-Agent agentic framework on Tuesday.
    0 Comments 0 Shares 188 Views 0 Reviews
  • เรื่องเล่าจากบัตรเครดิตที่พูดได้: เมื่อ Alibaba เปลี่ยนเครื่องบันทึกเสียงให้กลายเป็นผู้ช่วยอัจฉริยะ

    ในงานครบรอบ 10 ปีของ DingTalk เมื่อปลายเดือนสิงหาคม 2025 Alibaba เปิดตัว DingTalk A1 ซึ่งเป็นเครื่องบันทึกเสียงขนาดเท่าบัตรเครดิตที่อัดแน่นด้วยความสามารถด้าน AI โดยใช้โมเดลจาก Tongyi AI Lab ที่เทรนด้วยเสียงกว่า 100 ล้านชั่วโมง ทำให้สามารถเข้าใจได้มากกว่า 100 ภาษาและ 30 สำเนียงจีน รวมถึงศัพท์เฉพาะจากกว่า 200 อุตสาหกรรม

    A1 ไม่ได้แค่บันทึกเสียง แต่สามารถสรุปประชุม, แปลภาษาแบบเรียลไทม์, วิเคราะห์เนื้อหา และสร้างเอกสารในรูปแบบต่าง ๆ เช่น minutes, to-do list หรือแม้แต่ mindmap โดยไม่ต้องพึ่งมนุษย์เลยแม้แต่นิดเดียว

    เมื่อเปรียบเทียบกับคู่แข่งอย่าง Plaud Note Pro (US$179) และ Mobvoi TicNote (US$159.99) แล้ว DingTalk A1 มีราคาถูกกว่าอย่างเห็นได้ชัดที่ 499–799 หยวน (US$69.98–111.8) และยังมีฟีเจอร์ที่โดดเด่น เช่น OLED สี, USB-C, การเชื่อมต่อกับแอป DingTalk โดยตรง และการรองรับโมเดล AI ชั้นนำจากจีน เช่น Qwen3-235B, DeepSeek-V3

    ตลาด AI hardware ในจีนกำลังเติบโตอย่างรวดเร็ว โดยคาดว่าจะมีมูลค่าถึง 1.1 ล้านล้านหยวนในปีนี้ และเพิ่มเป็น 2.5 ล้านล้านภายในปี 2030 ซึ่งเป็นผลจากนโยบายสนับสนุนของรัฐบาล, การพึ่งพาเทคโนโลยีภายในประเทศ และการนำ AI ไปใช้ในอุตสาหกรรมแบบกว้างขวาง

    การเปิดตัว DingTalk A1
    เปิดตัวในงานครบรอบ 10 ปีของ DingTalk
    ขนาดเท่าบัตรเครดิต หนาเพียง 3.8 มม. น้ำหนัก ~40 กรัม
    มี OLED สี, USB-C, รองรับการสรุป, แปล, วิเคราะห์, สร้าง mindmap

    ความสามารถด้าน AI
    เทรนด้วยเสียงกว่า 100 ล้านชั่วโมงจาก Tongyi AI Lab
    รองรับมากกว่า 100 ภาษา, 30 สำเนียงจีน, และศัพท์เฉพาะจาก 200 อุตสาหกรรม
    ใช้โมเดล AI ชั้นนำ เช่น Qwen, DeepSeek, QwQ-plus

    การเปรียบเทียบกับคู่แข่ง
    Plaud Note Pro ราคา US$179, ใช้ GPT-4.1, Claude 4, Gemini 2.5
    TicNote ราคา US$159.99, ใช้ DeepSeek-V3, Kimi-k2, รองรับ mindmap และ insight
    DingTalk A1 ถูกกว่า, เชื่อมกับแอป DingTalk โดยตรง, ไม่ต้องติดตั้งแยก

    แนวโน้มตลาด AI hardware ในจีน
    มูลค่าตลาดปี 2025 อยู่ที่ 1.1 ล้านล้านหยวน
    คาดว่าจะเพิ่มเป็น 2.5 ล้านล้านหยวนภายในปี 2030
    การเติบโตมาจากนโยบายรัฐ, การพึ่งพาเทคโนโลยีในประเทศ, และการนำ AI ไปใช้ในอุตสาหกรรมต่าง ๆ

    https://www.thestar.com.my/tech/tech-news/2025/09/04/chinas-latest-ai-gadget-is-a-credit-card-sized-recorder-from-alibabas-dingtalk
    🎙️ เรื่องเล่าจากบัตรเครดิตที่พูดได้: เมื่อ Alibaba เปลี่ยนเครื่องบันทึกเสียงให้กลายเป็นผู้ช่วยอัจฉริยะ ในงานครบรอบ 10 ปีของ DingTalk เมื่อปลายเดือนสิงหาคม 2025 Alibaba เปิดตัว DingTalk A1 ซึ่งเป็นเครื่องบันทึกเสียงขนาดเท่าบัตรเครดิตที่อัดแน่นด้วยความสามารถด้าน AI โดยใช้โมเดลจาก Tongyi AI Lab ที่เทรนด้วยเสียงกว่า 100 ล้านชั่วโมง ทำให้สามารถเข้าใจได้มากกว่า 100 ภาษาและ 30 สำเนียงจีน รวมถึงศัพท์เฉพาะจากกว่า 200 อุตสาหกรรม A1 ไม่ได้แค่บันทึกเสียง แต่สามารถสรุปประชุม, แปลภาษาแบบเรียลไทม์, วิเคราะห์เนื้อหา และสร้างเอกสารในรูปแบบต่าง ๆ เช่น minutes, to-do list หรือแม้แต่ mindmap โดยไม่ต้องพึ่งมนุษย์เลยแม้แต่นิดเดียว เมื่อเปรียบเทียบกับคู่แข่งอย่าง Plaud Note Pro (US$179) และ Mobvoi TicNote (US$159.99) แล้ว DingTalk A1 มีราคาถูกกว่าอย่างเห็นได้ชัดที่ 499–799 หยวน (US$69.98–111.8) และยังมีฟีเจอร์ที่โดดเด่น เช่น OLED สี, USB-C, การเชื่อมต่อกับแอป DingTalk โดยตรง และการรองรับโมเดล AI ชั้นนำจากจีน เช่น Qwen3-235B, DeepSeek-V3 ตลาด AI hardware ในจีนกำลังเติบโตอย่างรวดเร็ว โดยคาดว่าจะมีมูลค่าถึง 1.1 ล้านล้านหยวนในปีนี้ และเพิ่มเป็น 2.5 ล้านล้านภายในปี 2030 ซึ่งเป็นผลจากนโยบายสนับสนุนของรัฐบาล, การพึ่งพาเทคโนโลยีภายในประเทศ และการนำ AI ไปใช้ในอุตสาหกรรมแบบกว้างขวาง ✅ การเปิดตัว DingTalk A1 ➡️ เปิดตัวในงานครบรอบ 10 ปีของ DingTalk ➡️ ขนาดเท่าบัตรเครดิต หนาเพียง 3.8 มม. น้ำหนัก ~40 กรัม ➡️ มี OLED สี, USB-C, รองรับการสรุป, แปล, วิเคราะห์, สร้าง mindmap ✅ ความสามารถด้าน AI ➡️ เทรนด้วยเสียงกว่า 100 ล้านชั่วโมงจาก Tongyi AI Lab ➡️ รองรับมากกว่า 100 ภาษา, 30 สำเนียงจีน, และศัพท์เฉพาะจาก 200 อุตสาหกรรม ➡️ ใช้โมเดล AI ชั้นนำ เช่น Qwen, DeepSeek, QwQ-plus ✅ การเปรียบเทียบกับคู่แข่ง ➡️ Plaud Note Pro ราคา US$179, ใช้ GPT-4.1, Claude 4, Gemini 2.5 ➡️ TicNote ราคา US$159.99, ใช้ DeepSeek-V3, Kimi-k2, รองรับ mindmap และ insight ➡️ DingTalk A1 ถูกกว่า, เชื่อมกับแอป DingTalk โดยตรง, ไม่ต้องติดตั้งแยก ✅ แนวโน้มตลาด AI hardware ในจีน ➡️ มูลค่าตลาดปี 2025 อยู่ที่ 1.1 ล้านล้านหยวน ➡️ คาดว่าจะเพิ่มเป็น 2.5 ล้านล้านหยวนภายในปี 2030 ➡️ การเติบโตมาจากนโยบายรัฐ, การพึ่งพาเทคโนโลยีในประเทศ, และการนำ AI ไปใช้ในอุตสาหกรรมต่าง ๆ https://www.thestar.com.my/tech/tech-news/2025/09/04/chinas-latest-ai-gadget-is-a-credit-card-sized-recorder-from-alibabas-dingtalk
    WWW.THESTAR.COM.MY
    China’s latest AI gadget is a credit card-sized recorder from Alibaba’s DingTalk
    Transcription capability developed with Alibaba's Tongyi AI lab, using over 100 million hours of audio content for training.
    0 Comments 0 Shares 170 Views 0 Reviews
  • เรื่องเล่าจาก SGLang: เมื่อ DeepSeek ถูกเสิร์ฟด้วยศิลปะของการแยกงานและแบ่งผู้เชี่ยวชาญ

    DeepSeek เป็นโมเดล LLM ที่ทรงพลังและซับซ้อน ด้วยสถาปัตยกรรมที่ใช้ Multi-head Latent Attention (MLA) และ Mixture of Experts (MoE) ซึ่งทำให้การรัน inference แบบ real-time กลายเป็นความท้าทายระดับสูง แต่ทีม SGLang ได้โชว์ว่า ถ้าออกแบบระบบดีพอ ก็สามารถรัน DeepSeek-V3 บน 96 H100 GPUs ได้อย่างมีประสิทธิภาพสูงสุด

    หัวใจของความสำเร็จนี้คือการใช้เทคนิค PD Disaggregation (แยกงานระหว่าง prefill และ decode) ร่วมกับ Expert Parallelism (EP) ที่ปรับแต่งอย่างละเอียดผ่าน DeepEP, DeepGEMM และ EPLB เพื่อให้การจัดการ memory, communication และ workload balance เป็นไปอย่างไร้รอยต่อ

    ผลลัพธ์คือ throughput สูงถึง 52.3k input tokens/sec และ 22.3k output tokens/sec ต่อ node ซึ่งใกล้เคียงกับระบบ production ของ DeepSeek เอง แต่ใช้ต้นทุนเพียง 20% ของ API ทางการ

    สถาปัตยกรรมการรัน DeepSeek บน SGLang
    ใช้ 12 nodes × 8 H100 GPUs รวม 96 GPUs
    throughput สูงถึง 52.3k input และ 22.3k output tokens/sec ต่อ node
    ต้นทุน inference อยู่ที่ ~$0.20 ต่อ 1M output tokens

    เทคนิค Prefill-Decode Disaggregation (PD)
    แยกการรัน prefill และ decode ออกจากกันเพื่อเพิ่มประสิทธิภาพ
    ลดปัญหา prefill interrupt และ latency จากการจัด batch แบบรวม
    รองรับ dispatch mode ที่ต่างกันสำหรับแต่ละ phase

    Expert Parallelism (EP) ด้วย DeepEP
    ใช้ normal dispatch สำหรับ prefill และ low-latency dispatch สำหรับ decode
    รองรับ auto mode ที่เลือก dispatch ตาม workload
    ลด latency และเพิ่ม throughput โดยใช้ expert routing ที่ปรับแต่งได้

    DeepGEMM สำหรับ MoE computation
    ใช้ Grouped GEMMs แบบ contiguous และ masked layout
    รองรับ CUDA Graph สำหรับ decode phase
    ใช้ Triton kernel เพื่อจัดเรียงข้อมูลให้เหมาะกับ GEMM kernel

    Two-Batch Overlap (TBO)
    แบ่ง batch เป็นสองส่วนเพื่อให้ computation และ communication overlap
    เพิ่ม throughput ได้ถึง 35% และลด peak memory usage
    ใช้ abstraction layer เพื่อจัดการ micro-batch อย่างสะอาดและ maintainable

    Expert Parallelism Load Balancer (EPLB)
    ใช้ expert redundancy เพื่อจัดวาง expert ให้สมดุล
    รองรับ parallelism size ที่ไม่จำกัดแค่ power-of-two เช่น 12 หรือ 72
    เพิ่ม utilization rate และลดการรอ GPU ที่ช้า

    Toolkits เสริมใน SGLang
    DisposableTensor สำหรับจัดการ memory ใน PyTorch โดยตรง
    Expert workload simulator เพื่อประเมิน performance ก่อน deploy จริง
    รองรับการ rebalancing แบบ staged เพื่อไม่ให้รบกวนระบบขณะทำงาน

    https://lmsys.org/blog/2025-05-05-large-scale-ep/
    🎙️ เรื่องเล่าจาก SGLang: เมื่อ DeepSeek ถูกเสิร์ฟด้วยศิลปะของการแยกงานและแบ่งผู้เชี่ยวชาญ DeepSeek เป็นโมเดล LLM ที่ทรงพลังและซับซ้อน ด้วยสถาปัตยกรรมที่ใช้ Multi-head Latent Attention (MLA) และ Mixture of Experts (MoE) ซึ่งทำให้การรัน inference แบบ real-time กลายเป็นความท้าทายระดับสูง แต่ทีม SGLang ได้โชว์ว่า ถ้าออกแบบระบบดีพอ ก็สามารถรัน DeepSeek-V3 บน 96 H100 GPUs ได้อย่างมีประสิทธิภาพสูงสุด หัวใจของความสำเร็จนี้คือการใช้เทคนิค PD Disaggregation (แยกงานระหว่าง prefill และ decode) ร่วมกับ Expert Parallelism (EP) ที่ปรับแต่งอย่างละเอียดผ่าน DeepEP, DeepGEMM และ EPLB เพื่อให้การจัดการ memory, communication และ workload balance เป็นไปอย่างไร้รอยต่อ ผลลัพธ์คือ throughput สูงถึง 52.3k input tokens/sec และ 22.3k output tokens/sec ต่อ node ซึ่งใกล้เคียงกับระบบ production ของ DeepSeek เอง แต่ใช้ต้นทุนเพียง 20% ของ API ทางการ ✅ สถาปัตยกรรมการรัน DeepSeek บน SGLang ➡️ ใช้ 12 nodes × 8 H100 GPUs รวม 96 GPUs ➡️ throughput สูงถึง 52.3k input และ 22.3k output tokens/sec ต่อ node ➡️ ต้นทุน inference อยู่ที่ ~$0.20 ต่อ 1M output tokens ✅ เทคนิค Prefill-Decode Disaggregation (PD) ➡️ แยกการรัน prefill และ decode ออกจากกันเพื่อเพิ่มประสิทธิภาพ ➡️ ลดปัญหา prefill interrupt และ latency จากการจัด batch แบบรวม ➡️ รองรับ dispatch mode ที่ต่างกันสำหรับแต่ละ phase ✅ Expert Parallelism (EP) ด้วย DeepEP ➡️ ใช้ normal dispatch สำหรับ prefill และ low-latency dispatch สำหรับ decode ➡️ รองรับ auto mode ที่เลือก dispatch ตาม workload ➡️ ลด latency และเพิ่ม throughput โดยใช้ expert routing ที่ปรับแต่งได้ ✅ DeepGEMM สำหรับ MoE computation ➡️ ใช้ Grouped GEMMs แบบ contiguous และ masked layout ➡️ รองรับ CUDA Graph สำหรับ decode phase ➡️ ใช้ Triton kernel เพื่อจัดเรียงข้อมูลให้เหมาะกับ GEMM kernel ✅ Two-Batch Overlap (TBO) ➡️ แบ่ง batch เป็นสองส่วนเพื่อให้ computation และ communication overlap ➡️ เพิ่ม throughput ได้ถึง 35% และลด peak memory usage ➡️ ใช้ abstraction layer เพื่อจัดการ micro-batch อย่างสะอาดและ maintainable ✅ Expert Parallelism Load Balancer (EPLB) ➡️ ใช้ expert redundancy เพื่อจัดวาง expert ให้สมดุล ➡️ รองรับ parallelism size ที่ไม่จำกัดแค่ power-of-two เช่น 12 หรือ 72 ➡️ เพิ่ม utilization rate และลดการรอ GPU ที่ช้า ✅ Toolkits เสริมใน SGLang ➡️ DisposableTensor สำหรับจัดการ memory ใน PyTorch โดยตรง ➡️ Expert workload simulator เพื่อประเมิน performance ก่อน deploy จริง ➡️ รองรับการ rebalancing แบบ staged เพื่อไม่ให้รบกวนระบบขณะทำงาน https://lmsys.org/blog/2025-05-05-large-scale-ep/
    LMSYS.ORG
    Deploying DeepSeek with PD Disaggregation and Large-Scale Expert Parallelism on 96 H100 GPUs | LMSYS Org
    DeepSeek is a popular open-source large language model (LLM) praised for its strong performance. However, its large size and unique architecture, which us...
    0 Comments 0 Shares 169 Views 0 Reviews
  • เรื่องเล่าจากเบื้องหลัง AI: ต้นทุนจริงของการรันโมเดลใหญ่

    ช่วงนี้มีเสียงลือกันหนาหูว่า AI โดยเฉพาะการ “รัน inference” คือเครื่องเผาเงินชั้นดี หลายคนเชื่อว่าบริษัทอย่าง OpenAI และ Anthropic กำลังขาดทุนยับเยินจากการให้บริการโมเดลขนาดใหญ่ แต่บทความนี้พาเราไปเจาะลึกแบบ “napkin math” หรือคำนวณคร่าว ๆ จากหลักการพื้นฐาน เพื่อหาคำตอบว่าเรื่องนี้จริงแค่ไหน

    ผู้เขียนใช้ DeepSeek R1 เป็นโมเดลตัวอย่าง ซึ่งมี 671 พารามิเตอร์ทั้งหมด แต่ใช้แค่ 37B ผ่านเทคนิค mixture of experts (MoE) ที่ช่วยลดต้นทุนได้มาก โดยใช้ GPU H100 จำนวน 72 ตัว คิดราคาที่ $2 ต่อชั่วโมงต่อ GPU ซึ่งสูงกว่าราคาจริงในตลาดเสียอีก

    สิ่งที่น่าสนใจคือ “ต้นทุนของ input tokens” กับ “output tokens” ต่างกันมหาศาล! การประมวลผล input tokens สามารถทำได้แบบขนานและเร็วมาก ในขณะที่การสร้าง output tokens ต้องทำแบบลำดับทีละตัว ทำให้ต้นทุนสูงกว่าเป็นพันเท่า

    ยิ่งไปกว่านั้น การใช้งานจริงของผู้ใช้ เช่น นักพัฒนา หรือ power users กลับอยู่ในรูปแบบที่ใช้ input เยอะมาก แต่ output น้อย เช่น การส่งโค้ดทั้งไฟล์เพื่อให้ AI วิเคราะห์ แล้วให้มันตอบกลับแค่ไม่กี่บรรทัด ซึ่งเป็นรูปแบบที่ “คุ้มค่ามาก” สำหรับผู้ให้บริการ

    ต้นทุนการรัน inference ของโมเดล AI
    ใช้ GPU H100 จำนวน 72 ตัว คิดต้นทุน $144/ชั่วโมง
    input tokens ประมวลผลได้เร็วมากถึง ~46.8 พันล้าน tokens/ชั่วโมง
    output tokens สร้างได้เพียง ~46.7 ล้าน tokens/ชั่วโมง
    ต้นทุนต่อ input token อยู่ที่ ~$0.003 ต่อ 1 ล้าน tokens
    ต้นทุนต่อ output token สูงถึง ~$3 ต่อ 1 ล้าน tokens

    ความแตกต่างระหว่าง input และ output
    input สามารถประมวลผลแบบขนานได้
    output ต้องสร้างทีละ token ทำให้ช้ากว่าและแพงกว่า
    ความไม่สมมาตรนี้ทำให้บาง use case คุ้มค่ามาก เช่น coding assistant

    ตัวอย่างการใช้งานจริง
    ผู้ใช้ระดับนักพัฒนาใช้ input เยอะมาก เช่น โค้ดหลายไฟล์
    แต่ต้องการ output น้อย เช่น คำอธิบายหรือโค้ดสั้น ๆ
    ทำให้ต้นทุนจริงต่ำมากเมื่อเทียบกับราคาที่เรียกเก็บ

    โมเดลธุรกิจของ API
    ราคาขายต่อ 1 ล้าน tokens อยู่ที่ ~$3 สำหรับ output
    แต่ต้นทุนจริงอยู่ที่ ~$0.01 สำหรับ input และ ~$3 สำหรับ output
    ทำให้มี margin สูงถึง 80–95%

    ความเข้าใจผิดเกี่ยวกับต้นทุน AI
    หลายคนเชื่อว่า inference ขาดทุนเสมอ ซึ่งไม่จริงในหลายกรณี
    การพูดถึงต้นทุนสูงอาจเป็นกลยุทธ์ของผู้เล่นรายใหญ่เพื่อกันคู่แข่ง

    ความเสี่ยงจาก context ยาว
    เมื่อ context ยาวเกิน 128k tokens จะเปลี่ยนจาก memory-bound เป็น compute-bound
    ทำให้ต้นทุนเพิ่มขึ้น 2–10 เท่า
    บางโมเดลจึงจำกัด context window เพื่อควบคุมต้นทุน

    การตั้งราคาที่ไม่สอดคล้องกับมูลค่าจริง
    การคิดราคาตาม input อาจทำให้ผู้ใช้ลดรายละเอียดใน prompt
    การคิดราคาตาม output อาจทำให้ผู้ใช้รู้สึกว่าไม่คุ้มถ้าได้คำตอบสั้น

    https://martinalderson.com/posts/are-openai-and-anthropic-really-losing-money-on-inference/
    🎙️ เรื่องเล่าจากเบื้องหลัง AI: ต้นทุนจริงของการรันโมเดลใหญ่ ช่วงนี้มีเสียงลือกันหนาหูว่า AI โดยเฉพาะการ “รัน inference” คือเครื่องเผาเงินชั้นดี หลายคนเชื่อว่าบริษัทอย่าง OpenAI และ Anthropic กำลังขาดทุนยับเยินจากการให้บริการโมเดลขนาดใหญ่ แต่บทความนี้พาเราไปเจาะลึกแบบ “napkin math” หรือคำนวณคร่าว ๆ จากหลักการพื้นฐาน เพื่อหาคำตอบว่าเรื่องนี้จริงแค่ไหน ผู้เขียนใช้ DeepSeek R1 เป็นโมเดลตัวอย่าง ซึ่งมี 671 พารามิเตอร์ทั้งหมด แต่ใช้แค่ 37B ผ่านเทคนิค mixture of experts (MoE) ที่ช่วยลดต้นทุนได้มาก โดยใช้ GPU H100 จำนวน 72 ตัว คิดราคาที่ $2 ต่อชั่วโมงต่อ GPU ซึ่งสูงกว่าราคาจริงในตลาดเสียอีก สิ่งที่น่าสนใจคือ “ต้นทุนของ input tokens” กับ “output tokens” ต่างกันมหาศาล! การประมวลผล input tokens สามารถทำได้แบบขนานและเร็วมาก ในขณะที่การสร้าง output tokens ต้องทำแบบลำดับทีละตัว ทำให้ต้นทุนสูงกว่าเป็นพันเท่า ยิ่งไปกว่านั้น การใช้งานจริงของผู้ใช้ เช่น นักพัฒนา หรือ power users กลับอยู่ในรูปแบบที่ใช้ input เยอะมาก แต่ output น้อย เช่น การส่งโค้ดทั้งไฟล์เพื่อให้ AI วิเคราะห์ แล้วให้มันตอบกลับแค่ไม่กี่บรรทัด ซึ่งเป็นรูปแบบที่ “คุ้มค่ามาก” สำหรับผู้ให้บริการ ✅ ต้นทุนการรัน inference ของโมเดล AI ➡️ ใช้ GPU H100 จำนวน 72 ตัว คิดต้นทุน $144/ชั่วโมง ➡️ input tokens ประมวลผลได้เร็วมากถึง ~46.8 พันล้าน tokens/ชั่วโมง ➡️ output tokens สร้างได้เพียง ~46.7 ล้าน tokens/ชั่วโมง ➡️ ต้นทุนต่อ input token อยู่ที่ ~$0.003 ต่อ 1 ล้าน tokens ➡️ ต้นทุนต่อ output token สูงถึง ~$3 ต่อ 1 ล้าน tokens ✅ ความแตกต่างระหว่าง input และ output ➡️ input สามารถประมวลผลแบบขนานได้ ➡️ output ต้องสร้างทีละ token ทำให้ช้ากว่าและแพงกว่า ➡️ ความไม่สมมาตรนี้ทำให้บาง use case คุ้มค่ามาก เช่น coding assistant ✅ ตัวอย่างการใช้งานจริง ➡️ ผู้ใช้ระดับนักพัฒนาใช้ input เยอะมาก เช่น โค้ดหลายไฟล์ ➡️ แต่ต้องการ output น้อย เช่น คำอธิบายหรือโค้ดสั้น ๆ ➡️ ทำให้ต้นทุนจริงต่ำมากเมื่อเทียบกับราคาที่เรียกเก็บ ✅ โมเดลธุรกิจของ API ➡️ ราคาขายต่อ 1 ล้าน tokens อยู่ที่ ~$3 สำหรับ output ➡️ แต่ต้นทุนจริงอยู่ที่ ~$0.01 สำหรับ input และ ~$3 สำหรับ output ➡️ ทำให้มี margin สูงถึง 80–95% ‼️ ความเข้าใจผิดเกี่ยวกับต้นทุน AI ⛔ หลายคนเชื่อว่า inference ขาดทุนเสมอ ซึ่งไม่จริงในหลายกรณี ⛔ การพูดถึงต้นทุนสูงอาจเป็นกลยุทธ์ของผู้เล่นรายใหญ่เพื่อกันคู่แข่ง ‼️ ความเสี่ยงจาก context ยาว ⛔ เมื่อ context ยาวเกิน 128k tokens จะเปลี่ยนจาก memory-bound เป็น compute-bound ⛔ ทำให้ต้นทุนเพิ่มขึ้น 2–10 เท่า ⛔ บางโมเดลจึงจำกัด context window เพื่อควบคุมต้นทุน ‼️ การตั้งราคาที่ไม่สอดคล้องกับมูลค่าจริง ⛔ การคิดราคาตาม input อาจทำให้ผู้ใช้ลดรายละเอียดใน prompt ⛔ การคิดราคาตาม output อาจทำให้ผู้ใช้รู้สึกว่าไม่คุ้มถ้าได้คำตอบสั้น https://martinalderson.com/posts/are-openai-and-anthropic-really-losing-money-on-inference/
    MARTINALDERSON.COM
    Are OpenAI and Anthropic Really Losing Money on Inference?
    Deconstructing the real costs of running AI inference at scale. My napkin math suggests the economics might be far more profitable than commonly claimed.
    0 Comments 0 Shares 120 Views 0 Reviews
  • GB10 Superchip – สมองกลระดับซูเปอร์คอมพิวเตอร์ในร่าง Mini PC

    ลองนึกภาพว่าคุณสามารถฝึกโมเดล AI ขนาด 200 พันล้านพารามิเตอร์ได้จากโต๊ะทำงานของคุณเอง โดยไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ขนาดใหญ่ นั่นคือสิ่งที่ NVIDIA พยายามทำให้เป็นจริงผ่าน DGX Spark ที่ใช้ GB10 Superchip ซึ่งรวม CPU และ GPU ไว้ในแพ็กเกจเดียวกันด้วยเทคโนโลยี 2.5D packaging บนสถาปัตยกรรม 3nm

    GB10 ประกอบด้วย 20 คอร์ ARM v9.2 แบ่งเป็น 2 กลุ่ม พร้อมแคช L2 ส่วนตัวและ L3 ขนาด 32MB รวม GPU Blackwell รุ่นใหม่ที่ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และรองรับ DLSS 4 กับ Ray Tracing ในตัว

    หน่วยความจำ LPDDR5x แบบ Unified Memory Architecture (UMA) ขนาด 128GB ทำให้ CPU และ GPU เข้าถึงข้อมูลร่วมกันได้อย่างรวดเร็ว โดยมีแบนด์วิดท์รวมสูงถึง 600 GB/s ผ่าน NVLINK C2C

    DGX Spark ยังรองรับการเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 NIC เพื่อขยายการประมวลผล AI ไปถึงโมเดลขนาด 405 พันล้านพารามิเตอร์ และสามารถใช้งานร่วมกับซอฟต์แวร์ AI เต็มรูปแบบของ NVIDIA เช่น CUDA, TensorRT, vLLM และ GR00T N1.5

    สรุปเนื้อหาเป็นหัวข้อ
    NVIDIA เปิดตัว GB10 Superchip ในงาน Hot Chips 2025 สำหรับ DGX Spark – AI PC ขนาดเล็ก
    ใช้เทคโนโลยี 3nm จาก TSMC และ 2.5D packaging รวม CPU และ GPU ในแพ็กเกจเดียว
    CPU มี 20 คอร์ ARM v9.2 พร้อมแคช L2 และ L3 รวม 32MB
    GPU ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core Gen 5 และ Ray Tracing
    ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และ 31 TFLOPs (FP32)
    รองรับ LPDDR5x ความเร็ว 9400 MT/s ความจุสูงสุด 128GB แบบ UMA
    แบนด์วิดท์รวมของระบบสูงถึง 600 GB/s ผ่าน NVLINK C2C
    มี System Level Cache ขนาด 16MB สำหรับการแชร์ข้อมูลระหว่าง CPU และ GPU
    รองรับการเชื่อมต่อ PCIe Gen5, USB, Ethernet และแสดงผล 4K/8K ได้หลายจอ
    ระบบความปลอดภัยมี Dual Secure Root, fTPM และ discrete TPM
    TDP ของชิปอยู่ที่ 140W เหมาะกับการใช้งานบนโต๊ะทำงานทั่วไป
    DGX Spark สามารถเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 เพื่อรองรับโมเดล AI ขนาดใหญ่
    รองรับการใช้งานร่วมกับโมเดล AI จาก Meta, Google, DeepSeek และ NVIDIA Cosmos

    ข้อมูลเสริมจากภายนอก
    DGX Spark เป็นการต่อยอดจาก Project DIGITS และใช้แพลตฟอร์มเดียวกับ DGX Cloud
    ขนาดเครื่องเล็กเพียง 150 x 150 x 50.5 มม. เหมาะกับการวางบนโต๊ะทำงาน
    NVIDIA เตรียมขยาย GB10 ไปสู่แพลตฟอร์มผู้บริโภค เช่น N1X และ N1 SoC สำหรับโน้ตบุ๊ก
    DGX Spark รองรับการใช้งานกับแพลตฟอร์ม Isaac, Metropolis และ Holoscan
    ใช้ ConnectX NIC ผ่าน PCIe Gen5 x8 เพื่อเชื่อมต่อหลายระบบแบบ low-latency

    https://wccftech.com/nvidia-gb10-superchip-soc-3nm-20-arm-v9-2-cpu-cores-nvfp4-blackwell-gpu-lpddr5x-9400-memory-140w-tdp/
    🧠 GB10 Superchip – สมองกลระดับซูเปอร์คอมพิวเตอร์ในร่าง Mini PC ลองนึกภาพว่าคุณสามารถฝึกโมเดล AI ขนาด 200 พันล้านพารามิเตอร์ได้จากโต๊ะทำงานของคุณเอง โดยไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ขนาดใหญ่ นั่นคือสิ่งที่ NVIDIA พยายามทำให้เป็นจริงผ่าน DGX Spark ที่ใช้ GB10 Superchip ซึ่งรวม CPU และ GPU ไว้ในแพ็กเกจเดียวกันด้วยเทคโนโลยี 2.5D packaging บนสถาปัตยกรรม 3nm GB10 ประกอบด้วย 20 คอร์ ARM v9.2 แบ่งเป็น 2 กลุ่ม พร้อมแคช L2 ส่วนตัวและ L3 ขนาด 32MB รวม GPU Blackwell รุ่นใหม่ที่ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และรองรับ DLSS 4 กับ Ray Tracing ในตัว หน่วยความจำ LPDDR5x แบบ Unified Memory Architecture (UMA) ขนาด 128GB ทำให้ CPU และ GPU เข้าถึงข้อมูลร่วมกันได้อย่างรวดเร็ว โดยมีแบนด์วิดท์รวมสูงถึง 600 GB/s ผ่าน NVLINK C2C DGX Spark ยังรองรับการเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 NIC เพื่อขยายการประมวลผล AI ไปถึงโมเดลขนาด 405 พันล้านพารามิเตอร์ และสามารถใช้งานร่วมกับซอฟต์แวร์ AI เต็มรูปแบบของ NVIDIA เช่น CUDA, TensorRT, vLLM และ GR00T N1.5 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ NVIDIA เปิดตัว GB10 Superchip ในงาน Hot Chips 2025 สำหรับ DGX Spark – AI PC ขนาดเล็ก ➡️ ใช้เทคโนโลยี 3nm จาก TSMC และ 2.5D packaging รวม CPU และ GPU ในแพ็กเกจเดียว ➡️ CPU มี 20 คอร์ ARM v9.2 พร้อมแคช L2 และ L3 รวม 32MB ➡️ GPU ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core Gen 5 และ Ray Tracing ➡️ ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และ 31 TFLOPs (FP32) ➡️ รองรับ LPDDR5x ความเร็ว 9400 MT/s ความจุสูงสุด 128GB แบบ UMA ➡️ แบนด์วิดท์รวมของระบบสูงถึง 600 GB/s ผ่าน NVLINK C2C ➡️ มี System Level Cache ขนาด 16MB สำหรับการแชร์ข้อมูลระหว่าง CPU และ GPU ➡️ รองรับการเชื่อมต่อ PCIe Gen5, USB, Ethernet และแสดงผล 4K/8K ได้หลายจอ ➡️ ระบบความปลอดภัยมี Dual Secure Root, fTPM และ discrete TPM ➡️ TDP ของชิปอยู่ที่ 140W เหมาะกับการใช้งานบนโต๊ะทำงานทั่วไป ➡️ DGX Spark สามารถเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 เพื่อรองรับโมเดล AI ขนาดใหญ่ ➡️ รองรับการใช้งานร่วมกับโมเดล AI จาก Meta, Google, DeepSeek และ NVIDIA Cosmos ✅ ข้อมูลเสริมจากภายนอก ➡️ DGX Spark เป็นการต่อยอดจาก Project DIGITS และใช้แพลตฟอร์มเดียวกับ DGX Cloud ➡️ ขนาดเครื่องเล็กเพียง 150 x 150 x 50.5 มม. เหมาะกับการวางบนโต๊ะทำงาน ➡️ NVIDIA เตรียมขยาย GB10 ไปสู่แพลตฟอร์มผู้บริโภค เช่น N1X และ N1 SoC สำหรับโน้ตบุ๊ก ➡️ DGX Spark รองรับการใช้งานกับแพลตฟอร์ม Isaac, Metropolis และ Holoscan ➡️ ใช้ ConnectX NIC ผ่าน PCIe Gen5 x8 เพื่อเชื่อมต่อหลายระบบแบบ low-latency https://wccftech.com/nvidia-gb10-superchip-soc-3nm-20-arm-v9-2-cpu-cores-nvfp4-blackwell-gpu-lpddr5x-9400-memory-140w-tdp/
    WCCFTECH.COM
    NVIDIA Dissects Its GB10 Superchip For DGX AI PCs: 3nm With 20 ARM v9.2 CPU Cores, 1000 TOPS NVFP4 Blackwell GPU, LPDDR5x-9400 Memory Support, 140W TDP
    NVIDIA has just detailed its GB10 Superchip with Blackwell GPU, which is being used to power several DGX AI Mini supercomputers.
    0 Comments 0 Shares 219 Views 0 Reviews
  • เมื่อ Tesla ต้องปรับตัวเพื่ออยู่รอดในตลาดจีน ด้วย AI ที่พูดภาษาท้องถิ่น

    Tesla กำลังเผชิญกับการแข่งขันที่ดุเดือดในตลาดรถยนต์ไฟฟ้าจีน ซึ่งเต็มไปด้วยแบรนด์ท้องถิ่นที่ใส่เทคโนโลยีล้ำหน้าเข้าไปในรถอย่างไม่หยุดยั้ง เพื่อรับมือกับสถานการณ์นี้ Tesla จึงตัดสินใจเปลี่ยนกลยุทธ์ด้านซอฟต์แวร์ โดยนำโมเดล AI สัญชาติจีนอย่าง DeepSeek และ Doubao มาใช้ในระบบผู้ช่วยเสียงภายในรถยนต์

    Doubao ซึ่งพัฒนาโดย ByteDance จะรับหน้าที่ประมวลผลคำสั่งเสียง เช่น การนำทาง การควบคุมอุณหภูมิ และการเล่นเพลง ส่วน DeepSeek จะทำหน้าที่เป็นผู้ช่วยสนทนาอัจฉริยะที่สามารถตอบคำถามหลายขั้นตอนและเข้าใจบริบทได้ลึกขึ้น ทั้งสองโมเดลจะทำงานผ่านคลาวด์ของ Volcano Engine ซึ่งเป็นบริการของ ByteDance เช่นกัน

    การเปลี่ยนแปลงนี้เกิดขึ้นเพราะข้อจำกัดด้านกฎหมายของจีนที่ไม่อนุญาตให้ส่งข้อมูลผู้ใช้ไปยังเซิร์ฟเวอร์ต่างประเทศ ทำให้ Tesla ไม่สามารถใช้ Grok ซึ่งเป็นโมเดลของ xAI ที่ใช้ในสหรัฐฯ ได้

    นอกจากนี้ Tesla ยังเปิดตัว Model Y L รุ่นใหม่แบบ 6 ที่นั่งในจีน ซึ่งเป็นรุ่นแรกที่รองรับผู้ช่วยเสียงแบบ “Hey, Tesla” โดยไม่ต้องกดปุ่มบนพวงมาลัยเหมือนรุ่นก่อน ๆ

    การเคลื่อนไหวนี้สะท้อนถึงความจำเป็นที่ Tesla ต้องปรับตัวให้เข้ากับวัฒนธรรมเทคโนโลยีของจีน ซึ่งผู้ใช้คุ้นเคยกับระบบผู้ช่วยเสียงที่ตอบสนองได้รวดเร็วและเชื่อมโยงกับบริการท้องถิ่น เช่น แผนที่จีน แอปส่งอาหาร และระบบชำระเงิน

    สรุปเนื้อหาเป็นหัวข้อ
    Tesla เตรียมใช้ AI สัญชาติจีน DeepSeek และ Doubao ในรถยนต์ที่จำหน่ายในจีน
    Doubao รับหน้าที่ประมวลผลคำสั่งเสียง เช่น นำทาง เพลง อุณหภูมิ
    DeepSeek ทำหน้าที่สนทนาอัจฉริยะ ตอบคำถามหลายขั้นตอน
    ทั้งสองโมเดลทำงานผ่านคลาวด์ Volcano Engine ของ ByteDance
    Tesla ไม่สามารถใช้ Grok ในจีนเพราะข้อจำกัดด้านกฎหมายและการจัดการข้อมูล
    ผู้ใช้สามารถเรียกผู้ช่วยเสียงด้วยคำว่า “Hey, Tesla” หรือกำหนดเองได้
    Tesla เปิดตัว Model Y L รุ่นใหม่แบบ 6 ที่นั่งในจีน รองรับระบบ AI เต็มรูปแบบ
    การเปลี่ยนแปลงนี้เกิดจากการแข่งขันกับแบรนด์จีน เช่น BYD และ Geely
    BMW ก็ใช้โมเดล Qwen จาก Alibaba ในรถรุ่นใหม่ที่จำหน่ายในจีน
    ยังไม่มีการยืนยันว่า AI ทั้งสองถูกติดตั้งในรถทุกคันแล้ว

    ข้อมูลเสริมจากภายนอก
    DeepSeek ได้รับความนิยมในจีนหลังเปิดตัวรุ่น R1 และ V3.1 ที่มีความสามารถด้าน reasoning สูง
    ระบบผู้ช่วยเสียงในรถยนต์จีนสามารถเชื่อมต่อกับบริการท้องถิ่น เช่น Alipay, Meituan, Gaode Maps
    LLMs เช่น ChatGPT, Qwen, และ DeepSeek ถูกนำมาใช้ในรถยนต์มากขึ้นทั่วโลก
    การใช้ AI ในรถยนต์ช่วยเพิ่มความปลอดภัยและความสะดวกในการขับขี่
    การใช้โมเดลท้องถิ่นช่วยให้ตอบสนองต่อภาษาถิ่นและพฤติกรรมผู้ใช้ได้แม่นยำกว่าโมเดลสากล

    https://www.thestar.com.my/tech/tech-news/2025/08/22/tesla-to-integrate-deepseek-doubao-ai-voice-controls-in-china
    🎙️ เมื่อ Tesla ต้องปรับตัวเพื่ออยู่รอดในตลาดจีน ด้วย AI ที่พูดภาษาท้องถิ่น Tesla กำลังเผชิญกับการแข่งขันที่ดุเดือดในตลาดรถยนต์ไฟฟ้าจีน ซึ่งเต็มไปด้วยแบรนด์ท้องถิ่นที่ใส่เทคโนโลยีล้ำหน้าเข้าไปในรถอย่างไม่หยุดยั้ง เพื่อรับมือกับสถานการณ์นี้ Tesla จึงตัดสินใจเปลี่ยนกลยุทธ์ด้านซอฟต์แวร์ โดยนำโมเดล AI สัญชาติจีนอย่าง DeepSeek และ Doubao มาใช้ในระบบผู้ช่วยเสียงภายในรถยนต์ Doubao ซึ่งพัฒนาโดย ByteDance จะรับหน้าที่ประมวลผลคำสั่งเสียง เช่น การนำทาง การควบคุมอุณหภูมิ และการเล่นเพลง ส่วน DeepSeek จะทำหน้าที่เป็นผู้ช่วยสนทนาอัจฉริยะที่สามารถตอบคำถามหลายขั้นตอนและเข้าใจบริบทได้ลึกขึ้น ทั้งสองโมเดลจะทำงานผ่านคลาวด์ของ Volcano Engine ซึ่งเป็นบริการของ ByteDance เช่นกัน การเปลี่ยนแปลงนี้เกิดขึ้นเพราะข้อจำกัดด้านกฎหมายของจีนที่ไม่อนุญาตให้ส่งข้อมูลผู้ใช้ไปยังเซิร์ฟเวอร์ต่างประเทศ ทำให้ Tesla ไม่สามารถใช้ Grok ซึ่งเป็นโมเดลของ xAI ที่ใช้ในสหรัฐฯ ได้ นอกจากนี้ Tesla ยังเปิดตัว Model Y L รุ่นใหม่แบบ 6 ที่นั่งในจีน ซึ่งเป็นรุ่นแรกที่รองรับผู้ช่วยเสียงแบบ “Hey, Tesla” โดยไม่ต้องกดปุ่มบนพวงมาลัยเหมือนรุ่นก่อน ๆ การเคลื่อนไหวนี้สะท้อนถึงความจำเป็นที่ Tesla ต้องปรับตัวให้เข้ากับวัฒนธรรมเทคโนโลยีของจีน ซึ่งผู้ใช้คุ้นเคยกับระบบผู้ช่วยเสียงที่ตอบสนองได้รวดเร็วและเชื่อมโยงกับบริการท้องถิ่น เช่น แผนที่จีน แอปส่งอาหาร และระบบชำระเงิน 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Tesla เตรียมใช้ AI สัญชาติจีน DeepSeek และ Doubao ในรถยนต์ที่จำหน่ายในจีน ➡️ Doubao รับหน้าที่ประมวลผลคำสั่งเสียง เช่น นำทาง เพลง อุณหภูมิ ➡️ DeepSeek ทำหน้าที่สนทนาอัจฉริยะ ตอบคำถามหลายขั้นตอน ➡️ ทั้งสองโมเดลทำงานผ่านคลาวด์ Volcano Engine ของ ByteDance ➡️ Tesla ไม่สามารถใช้ Grok ในจีนเพราะข้อจำกัดด้านกฎหมายและการจัดการข้อมูล ➡️ ผู้ใช้สามารถเรียกผู้ช่วยเสียงด้วยคำว่า “Hey, Tesla” หรือกำหนดเองได้ ➡️ Tesla เปิดตัว Model Y L รุ่นใหม่แบบ 6 ที่นั่งในจีน รองรับระบบ AI เต็มรูปแบบ ➡️ การเปลี่ยนแปลงนี้เกิดจากการแข่งขันกับแบรนด์จีน เช่น BYD และ Geely ➡️ BMW ก็ใช้โมเดล Qwen จาก Alibaba ในรถรุ่นใหม่ที่จำหน่ายในจีน ➡️ ยังไม่มีการยืนยันว่า AI ทั้งสองถูกติดตั้งในรถทุกคันแล้ว ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek ได้รับความนิยมในจีนหลังเปิดตัวรุ่น R1 และ V3.1 ที่มีความสามารถด้าน reasoning สูง ➡️ ระบบผู้ช่วยเสียงในรถยนต์จีนสามารถเชื่อมต่อกับบริการท้องถิ่น เช่น Alipay, Meituan, Gaode Maps ➡️ LLMs เช่น ChatGPT, Qwen, และ DeepSeek ถูกนำมาใช้ในรถยนต์มากขึ้นทั่วโลก ➡️ การใช้ AI ในรถยนต์ช่วยเพิ่มความปลอดภัยและความสะดวกในการขับขี่ ➡️ การใช้โมเดลท้องถิ่นช่วยให้ตอบสนองต่อภาษาถิ่นและพฤติกรรมผู้ใช้ได้แม่นยำกว่าโมเดลสากล https://www.thestar.com.my/tech/tech-news/2025/08/22/tesla-to-integrate-deepseek-doubao-ai-voice-controls-in-china
    WWW.THESTAR.COM.MY
    Tesla to integrate Deepseek, Doubao AI voice controls in China
    Tesla Inc plans to introduce in-car voice assistant functions powered by Deepseek and Bytedance Ltd's Doubao artificial intelligence as it aims to catch local rivals who offer similar features.
    0 Comments 0 Shares 267 Views 0 Reviews
  • MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร

    MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB

    การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ

    จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว

    แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก

    สเปกและการออกแบบของ Arc Pro B60 Dual
    ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6
    มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s
    ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21
    เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน
    ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate

    จุดเด่นด้านการใช้งาน
    เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง
    รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV
    ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation
    ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์

    การวางจำหน่ายและราคา
    เปิดตัววันที่ 18 สิงหาคม 2025
    ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU
    ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป
    หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090

    Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด
    ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด
    ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น
    การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป
    หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์

    https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    🧠 MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก ✅ สเปกและการออกแบบของ Arc Pro B60 Dual ➡️ ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6 ➡️ มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s ➡️ ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 ➡️ เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน ➡️ ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate ✅ จุดเด่นด้านการใช้งาน ➡️ เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง ➡️ รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV ➡️ ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation ➡️ ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์ ✅ การวางจำหน่ายและราคา ➡️ เปิดตัววันที่ 18 สิงหาคม 2025 ➡️ ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU ➡️ ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป ➡️ หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090 ⛔ Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด ⛔ ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด ⛔ ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น ⛔ การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป ⛔ หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์ https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    WCCFTECH.COM
    As MAXSUN Prepares To Launch Arc Pro B60 Dual GPU Next Week, Intel Is Supposedly Facing Inventory Issues With B60
    According to a conversation between a company and MAXSUN's manager, the GPU manufacturer is expected to launch the Arc Pro B60 Dual next week
    0 Comments 0 Shares 262 Views 0 Reviews
  • DeepSeek R2: โมเดล AI ที่สะดุดเพราะชิป Huawei

    DeepSeek บริษัท AI สัญชาติจีนที่เคยสร้างชื่อจากโมเดล R1 กำลังเผชิญกับความท้าทายครั้งใหญ่ในการพัฒนา R2 ซึ่งเดิมทีตั้งใจจะใช้ชิป Ascend 910C ของ Huawei ในการฝึกโมเดล เพื่อสนับสนุนแนวทาง “พึ่งพาตนเอง” ของรัฐบาลจีน แต่ผลลัพธ์กลับไม่เป็นไปตามแผน

    แม้ Huawei จะส่งทีมวิศวกรไปช่วย DeepSeek โดยตรง แต่ชิป Ascend กลับมีปัญหาหลายด้าน เช่น ความร้อนสูง, การเชื่อมต่อระหว่างชิปที่ช้า, และซอฟต์แวร์ที่ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ทำให้ DeepSeek ไม่สามารถฝึกโมเดล R2 ได้สำเร็จ

    สุดท้าย DeepSeek ต้องหันกลับมาใช้ชิป NVIDIA H20 ในการฝึกโมเดล และใช้ชิป Huawei เฉพาะในขั้นตอน inference เท่านั้น ซึ่งเป็นการประนีประนอมระหว่างประสิทธิภาพและนโยบายรัฐ

    นอกจากนี้ ยังมีปัจจัยอื่นที่ทำให้ R2 ล่าช้า เช่น การติดป้ายข้อมูล (data labeling) ที่ใช้เวลานานกว่าคาด และความกังวลเรื่องความปลอดภัยของชิป NVIDIA ที่อาจมีระบบติดตามตำแหน่ง ทำให้รัฐบาลจีนลังเลที่จะอนุมัติการใช้งานในวงกว้าง

    แม้ DeepSeek จะยังไม่ประกาศวันเปิดตัวใหม่อย่างเป็นทางการ แต่คาดว่าโมเดล R2 จะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า โดยต้องแข่งกับคู่แข่งอย่าง Qwen3 จาก Alibaba ที่กำลังมาแรง

    DeepSeek ล่าช้าในการเปิดตัวโมเดล R2
    เดิมตั้งใจเปิดตัวในเดือนพฤษภาคม แต่เลื่อนออกไปไม่มีกำหนด
    ปัจจุบันยังอยู่ในขั้นตอนปรับปรุงและทดสอบประสิทธิภาพ

    ปัญหาจากการใช้ชิป Huawei Ascend 910C
    มีปัญหาความร้อนสูงและการเชื่อมต่อระหว่างชิปที่ช้า
    ซอฟต์แวร์ CANN ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA
    ไม่สามารถฝึกโมเดลขนาดใหญ่ได้สำเร็จ

    การเปลี่ยนกลับมาใช้ชิป NVIDIA
    ใช้ NVIDIA H20 ในการฝึกโมเดล R2
    ใช้ Huawei เฉพาะในขั้นตอน inference เพื่อประหยัดต้นทุน
    เป็นแนวทางแบบ hybrid ที่หลายบริษัทจีนเริ่มนำมาใช้

    ปัจจัยอื่นที่ทำให้ R2 ล่าช้า
    การติดป้ายข้อมูลใช้เวลานานกว่าคาด
    ผู้ก่อตั้งไม่พอใจกับความก้าวหน้า และต้องการคุณภาพสูงกว่าคู่แข่ง
    รัฐบาลจีนยังลังเลเรื่องการอนุมัติชิป NVIDIA เพราะข้อกังวลด้านความปลอดภัย

    https://wccftech.com/deepseek-r2-ai-model-is-reportedly-delayed-after-chinese-authorities-encouraged-the-firm-to-use-huawei-ai-chips/
    🧠 DeepSeek R2: โมเดล AI ที่สะดุดเพราะชิป Huawei DeepSeek บริษัท AI สัญชาติจีนที่เคยสร้างชื่อจากโมเดล R1 กำลังเผชิญกับความท้าทายครั้งใหญ่ในการพัฒนา R2 ซึ่งเดิมทีตั้งใจจะใช้ชิป Ascend 910C ของ Huawei ในการฝึกโมเดล เพื่อสนับสนุนแนวทาง “พึ่งพาตนเอง” ของรัฐบาลจีน แต่ผลลัพธ์กลับไม่เป็นไปตามแผน แม้ Huawei จะส่งทีมวิศวกรไปช่วย DeepSeek โดยตรง แต่ชิป Ascend กลับมีปัญหาหลายด้าน เช่น ความร้อนสูง, การเชื่อมต่อระหว่างชิปที่ช้า, และซอฟต์แวร์ที่ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ทำให้ DeepSeek ไม่สามารถฝึกโมเดล R2 ได้สำเร็จ สุดท้าย DeepSeek ต้องหันกลับมาใช้ชิป NVIDIA H20 ในการฝึกโมเดล และใช้ชิป Huawei เฉพาะในขั้นตอน inference เท่านั้น ซึ่งเป็นการประนีประนอมระหว่างประสิทธิภาพและนโยบายรัฐ นอกจากนี้ ยังมีปัจจัยอื่นที่ทำให้ R2 ล่าช้า เช่น การติดป้ายข้อมูล (data labeling) ที่ใช้เวลานานกว่าคาด และความกังวลเรื่องความปลอดภัยของชิป NVIDIA ที่อาจมีระบบติดตามตำแหน่ง ทำให้รัฐบาลจีนลังเลที่จะอนุมัติการใช้งานในวงกว้าง แม้ DeepSeek จะยังไม่ประกาศวันเปิดตัวใหม่อย่างเป็นทางการ แต่คาดว่าโมเดล R2 จะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า โดยต้องแข่งกับคู่แข่งอย่าง Qwen3 จาก Alibaba ที่กำลังมาแรง ✅ DeepSeek ล่าช้าในการเปิดตัวโมเดล R2 ➡️ เดิมตั้งใจเปิดตัวในเดือนพฤษภาคม แต่เลื่อนออกไปไม่มีกำหนด ➡️ ปัจจุบันยังอยู่ในขั้นตอนปรับปรุงและทดสอบประสิทธิภาพ ✅ ปัญหาจากการใช้ชิป Huawei Ascend 910C ➡️ มีปัญหาความร้อนสูงและการเชื่อมต่อระหว่างชิปที่ช้า ➡️ ซอฟต์แวร์ CANN ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ➡️ ไม่สามารถฝึกโมเดลขนาดใหญ่ได้สำเร็จ ✅ การเปลี่ยนกลับมาใช้ชิป NVIDIA ➡️ ใช้ NVIDIA H20 ในการฝึกโมเดล R2 ➡️ ใช้ Huawei เฉพาะในขั้นตอน inference เพื่อประหยัดต้นทุน ➡️ เป็นแนวทางแบบ hybrid ที่หลายบริษัทจีนเริ่มนำมาใช้ ✅ ปัจจัยอื่นที่ทำให้ R2 ล่าช้า ➡️ การติดป้ายข้อมูลใช้เวลานานกว่าคาด ➡️ ผู้ก่อตั้งไม่พอใจกับความก้าวหน้า และต้องการคุณภาพสูงกว่าคู่แข่ง ➡️ รัฐบาลจีนยังลังเลเรื่องการอนุมัติชิป NVIDIA เพราะข้อกังวลด้านความปลอดภัย https://wccftech.com/deepseek-r2-ai-model-is-reportedly-delayed-after-chinese-authorities-encouraged-the-firm-to-use-huawei-ai-chips/
    WCCFTECH.COM
    DeepSeek's R2 AI Model Is Reportedly Delayed After Chinese Authorities Encouraged the Firm to Use Huawei's AI Chips; Beijing Is Still in Need of NVIDIA's Alternatives
    Well, relying on Huawei's AI chips didn't go well for DeepSeek, as the AI firm has failed to train the R2 model on Chinese chips.
    0 Comments 0 Shares 288 Views 0 Reviews
  • เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน

    ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง

    CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี

    Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น

    แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์

    การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ

    Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend
    เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia

    CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia
    ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น

    CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง
    เป็นทางเลือกใหม่สำหรับนักพัฒนา AI

    Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน
    เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend

    มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี
    เช่น DeepSeek R1 บน CloudMatrix 384

    การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน
    ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ

    https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    🚀🇨🇳 เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์ การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ ✅ Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend ➡️ เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia ✅ CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia ➡️ ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น ✅ CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง ➡️ เป็นทางเลือกใหม่สำหรับนักพัฒนา AI ✅ Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน ➡️ เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend ✅ มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี ➡️ เช่น DeepSeek R1 บน CloudMatrix 384 ✅ การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน ➡️ ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    0 Comments 0 Shares 270 Views 0 Reviews
  • เรื่องเล่าจากวิวัฒนาการของโมเดล GPT: จาก GPT-2 สู่ gpt-oss ยุคใหม่ของ AI แบบเปิด

    ย้อนกลับไปปี 2019 OpenAI เคยเปิดตัว GPT-2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ที่ใช้สถาปัตยกรรม Transformer และได้รับความนิยมอย่างมากในวงการ AI แต่หลังจากนั้น OpenAI ก็หันไปพัฒนาโมเดลแบบปิด เช่น GPT-3 และ ChatGPT โดยไม่เปิดเผยน้ำหนักโมเดลอีกเลย จนกระทั่งสิงหาคม 2025 พวกเขากลับมาอีกครั้งด้วย gpt-oss-20B และ gpt-oss-120B ซึ่งเป็นโมเดลแบบ “open-weight” ที่เปิดให้ดาวน์โหลด ใช้งาน และปรับแต่งได้อย่างเสรีภายใต้ Apache 2.0 license

    โมเดล gpt-oss ใช้เทคนิคใหม่ ๆ เช่น Mixture-of-Experts (MoE), Sliding Window Attention, RMSNorm และ SwiGLU เพื่อเพิ่มประสิทธิภาพและลดต้นทุนการประมวลผล โดยสามารถรันบน GPU ทั่วไปได้ เช่น 20B ใช้แค่ 16GB RAM ส่วน 120B ใช้ H100 GPU ตัวเดียว

    แม้สถาปัตยกรรมโดยรวมยังคงใช้ Transformer เหมือนเดิม แต่การปรับแต่งภายในทำให้โมเดลเหล่านี้มีประสิทธิภาพสูงขึ้นมาก และสามารถแข่งขันกับโมเดลจากจีน เช่น Qwen3 ได้อย่างสูสี

    อย่างไรก็ตาม ยังมีข้อกังวลเรื่องความแม่นยำของข้อมูล (hallucination rate สูงถึง 49–53%) และความโปร่งใสของชุดข้อมูลที่ใช้ฝึก ซึ่ง OpenAI ยังไม่เปิดเผยเพราะเกรงปัญหาด้านลิขสิทธิ์

    OpenAI เปิดตัว gpt-oss-20B และ gpt-oss-120B เป็นโมเดล open-weight ครั้งแรกในรอบ 6 ปี
    ใช้ Apache 2.0 license เปิดให้ใช้งานและปรับแต่งได้อย่างเสรี

    โมเดลใช้สถาปัตยกรรม Transformer แบบ decoder-only
    เหมือน GPT-2 แต่มีการปรับแต่งภายในหลายจุด

    ใช้เทคนิค Mixture-of-Experts (MoE) เพื่อเพิ่มประสิทธิภาพ
    เปิดใช้งานเฉพาะบางส่วนของโมเดลในแต่ละ token

    gpt-oss-20B รันได้บน GPU ทั่วไป (16GB RAM)
    ส่วน gpt-oss-120B ใช้ H100 GPU ตัวเดียว

    โมเดลมี benchmark สูง เช่น Codeforces score 2622 (120B)
    สูงกว่า DeepSeek R1 แต่ยังต่ำกว่า o3 และ o4-mini

    ใช้ Sliding Window Attention, RMSNorm, SwiGLU แทนเทคนิคเก่า
    ลดต้นทุนการคำนวณและเพิ่มความเร็วในการ inference

    เปรียบเทียบกับ Qwen3 พบว่า gpt-oss เน้น “กว้าง” มากกว่า “ลึก”
    มี embedding และ FFN ขนาดใหญ่ แต่ layer น้อยกว่า

    การเปิดโมเดลแบบ open-weight ช่วยให้นักพัฒนาสามารถปรับแต่งได้ตามต้องการ
    เหมาะกับงานเฉพาะทาง เช่น การฝึกบนข้อมูลภายในองค์กร

    Apache 2.0 license ช่วยให้ startup และองค์กรขนาดเล็กเข้าถึง AI ขั้นสูง
    โดยไม่ต้องเสียค่าใช้จ่ายหรือขออนุญาต

    โมเดลสามารถใช้ในระบบ agent เช่น การเรียกใช้เครื่องมือหรือ API
    รองรับการใช้งานแบบ hybrid ระหว่าง local และ cloud

    OpenAI หวังใช้ gpt-oss เพื่อแข่งขันกับโมเดลจากจีน เช่น DeepSeek และ Qwen
    และฟื้นความเชื่อมั่นจากชุมชน open-source

    โมเดล gpt-oss มี hallucination rate สูง (49–53%)
    อาจให้ข้อมูลผิดพลาดในงานที่ต้องการความแม่นยำสูง

    OpenAI ไม่เปิดเผยชุดข้อมูลที่ใช้ฝึกโมเดล
    เกิดข้อกังวลเรื่องลิขสิทธิ์และความโปร่งใส

    แม้จะเปิดน้ำหนักโมเดล แต่ยังต้องใช้ hardware ขั้นสูงสำหรับรุ่นใหญ่
    อาจไม่เหมาะกับผู้ใช้ทั่วไปที่ไม่มี GPU ระดับ enterprise

    การใช้ MoE ทำให้การฝึกและ deploy ซับซ้อนขึ้น
    ต้องมีระบบ routing และการจัดการ expert ที่แม่นยำ

    https://magazine.sebastianraschka.com/p/from-gpt-2-to-gpt-oss-analyzing-the
    🧠💡 เรื่องเล่าจากวิวัฒนาการของโมเดล GPT: จาก GPT-2 สู่ gpt-oss ยุคใหม่ของ AI แบบเปิด ย้อนกลับไปปี 2019 OpenAI เคยเปิดตัว GPT-2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ที่ใช้สถาปัตยกรรม Transformer และได้รับความนิยมอย่างมากในวงการ AI แต่หลังจากนั้น OpenAI ก็หันไปพัฒนาโมเดลแบบปิด เช่น GPT-3 และ ChatGPT โดยไม่เปิดเผยน้ำหนักโมเดลอีกเลย จนกระทั่งสิงหาคม 2025 พวกเขากลับมาอีกครั้งด้วย gpt-oss-20B และ gpt-oss-120B ซึ่งเป็นโมเดลแบบ “open-weight” ที่เปิดให้ดาวน์โหลด ใช้งาน และปรับแต่งได้อย่างเสรีภายใต้ Apache 2.0 license โมเดล gpt-oss ใช้เทคนิคใหม่ ๆ เช่น Mixture-of-Experts (MoE), Sliding Window Attention, RMSNorm และ SwiGLU เพื่อเพิ่มประสิทธิภาพและลดต้นทุนการประมวลผล โดยสามารถรันบน GPU ทั่วไปได้ เช่น 20B ใช้แค่ 16GB RAM ส่วน 120B ใช้ H100 GPU ตัวเดียว แม้สถาปัตยกรรมโดยรวมยังคงใช้ Transformer เหมือนเดิม แต่การปรับแต่งภายในทำให้โมเดลเหล่านี้มีประสิทธิภาพสูงขึ้นมาก และสามารถแข่งขันกับโมเดลจากจีน เช่น Qwen3 ได้อย่างสูสี อย่างไรก็ตาม ยังมีข้อกังวลเรื่องความแม่นยำของข้อมูล (hallucination rate สูงถึง 49–53%) และความโปร่งใสของชุดข้อมูลที่ใช้ฝึก ซึ่ง OpenAI ยังไม่เปิดเผยเพราะเกรงปัญหาด้านลิขสิทธิ์ ✅ OpenAI เปิดตัว gpt-oss-20B และ gpt-oss-120B เป็นโมเดล open-weight ครั้งแรกในรอบ 6 ปี ➡️ ใช้ Apache 2.0 license เปิดให้ใช้งานและปรับแต่งได้อย่างเสรี ✅ โมเดลใช้สถาปัตยกรรม Transformer แบบ decoder-only ➡️ เหมือน GPT-2 แต่มีการปรับแต่งภายในหลายจุด ✅ ใช้เทคนิค Mixture-of-Experts (MoE) เพื่อเพิ่มประสิทธิภาพ ➡️ เปิดใช้งานเฉพาะบางส่วนของโมเดลในแต่ละ token ✅ gpt-oss-20B รันได้บน GPU ทั่วไป (16GB RAM) ➡️ ส่วน gpt-oss-120B ใช้ H100 GPU ตัวเดียว ✅ โมเดลมี benchmark สูง เช่น Codeforces score 2622 (120B) ➡️ สูงกว่า DeepSeek R1 แต่ยังต่ำกว่า o3 และ o4-mini ✅ ใช้ Sliding Window Attention, RMSNorm, SwiGLU แทนเทคนิคเก่า ➡️ ลดต้นทุนการคำนวณและเพิ่มความเร็วในการ inference ✅ เปรียบเทียบกับ Qwen3 พบว่า gpt-oss เน้น “กว้าง” มากกว่า “ลึก” ➡️ มี embedding และ FFN ขนาดใหญ่ แต่ layer น้อยกว่า ✅ การเปิดโมเดลแบบ open-weight ช่วยให้นักพัฒนาสามารถปรับแต่งได้ตามต้องการ ➡️ เหมาะกับงานเฉพาะทาง เช่น การฝึกบนข้อมูลภายในองค์กร ✅ Apache 2.0 license ช่วยให้ startup และองค์กรขนาดเล็กเข้าถึง AI ขั้นสูง ➡️ โดยไม่ต้องเสียค่าใช้จ่ายหรือขออนุญาต ✅ โมเดลสามารถใช้ในระบบ agent เช่น การเรียกใช้เครื่องมือหรือ API ➡️ รองรับการใช้งานแบบ hybrid ระหว่าง local และ cloud ✅ OpenAI หวังใช้ gpt-oss เพื่อแข่งขันกับโมเดลจากจีน เช่น DeepSeek และ Qwen ➡️ และฟื้นความเชื่อมั่นจากชุมชน open-source ‼️ โมเดล gpt-oss มี hallucination rate สูง (49–53%) ⛔ อาจให้ข้อมูลผิดพลาดในงานที่ต้องการความแม่นยำสูง ‼️ OpenAI ไม่เปิดเผยชุดข้อมูลที่ใช้ฝึกโมเดล ⛔ เกิดข้อกังวลเรื่องลิขสิทธิ์และความโปร่งใส ‼️ แม้จะเปิดน้ำหนักโมเดล แต่ยังต้องใช้ hardware ขั้นสูงสำหรับรุ่นใหญ่ ⛔ อาจไม่เหมาะกับผู้ใช้ทั่วไปที่ไม่มี GPU ระดับ enterprise ‼️ การใช้ MoE ทำให้การฝึกและ deploy ซับซ้อนขึ้น ⛔ ต้องมีระบบ routing และการจัดการ expert ที่แม่นยำ https://magazine.sebastianraschka.com/p/from-gpt-2-to-gpt-oss-analyzing-the
    0 Comments 0 Shares 265 Views 0 Reviews
  • เรื่องเล่าจากข่าว: Huawei CloudMatrix 384—AI ซูเปอร์คลัสเตอร์ที่ท้าชน Nvidia ด้วยพลังแห่งการรวมชิป

    ในงาน World Artificial Intelligence Conference 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นซูเปอร์คลัสเตอร์ AI ที่ประกอบด้วยชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อกันด้วยโครงสร้างแบบ “all-to-all mesh” ผ่านสายออปติกความเร็วสูง

    แม้ชิปแต่ละตัวจะมีประสิทธิภาพต่ำกว่า Nvidia H100 แต่ Huawei ใช้กลยุทธ์ “จำนวนมาก + การออกแบบระบบ” เพื่อชดเชยข้อเสีย และสามารถให้ประสิทธิภาพรวมสูงกว่าระบบ Nvidia GB200 NVL72 ได้ในหลายด้าน เช่น:
    - ความเร็วในการประมวลผล BF16 สูงกว่า 1.7 เท่า
    - ความจุหน่วยความจำสูงกว่า 3.6 เท่า
    - แบนด์วิดธ์หน่วยความจำสูงกว่า 2.1 เท่า

    อย่างไรก็ตาม ระบบนี้ใช้พลังงานมากกว่าถึง 3.9 เท่า และมีประสิทธิภาพต่อวัตต์ต่ำกว่าถึง 2.3 เท่า ซึ่งอาจเป็นข้อจำกัดสำคัญในตลาดโลก แต่สำหรับจีนที่มีแหล่งพลังงานหลากหลายและราคาถูก นี่อาจไม่ใช่ปัญหา

    Huawei เปิดตัวระบบ CloudMatrix 384 ในงาน WAIC 2025 ที่เซี่ยงไฮ้
    ใช้ชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อแบบ all-to-all mesh ด้วยสายออปติก
    ออกแบบมาเพื่อแข่งขันกับ Nvidia GB200 NVL72

    ระบบสามารถประมวลผลได้ถึง 300 PFLOPs แบบ BF16
    สูงกว่า Nvidia GB200 NVL72 ที่ทำได้ 180 PFLOPs
    เหมาะสำหรับงาน inference ของโมเดลขนาดใหญ่

    Ascend 910C มีประสิทธิภาพประมาณ 60% ของ Nvidia H100 ในงาน inference
    ใช้เทคนิค dual-chiplet และหน่วยความจำ HBM2E ขนาด 128 GB
    ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm รุ่นใหม่

    ระบบมีความจุหน่วยความจำรวม 49.2 TB และแบนด์วิดธ์รวม 1229 TB/s
    สูงกว่า Nvidia GB200 NVL72 ถึง 3.6 เท่าในด้านความจุ และ 2.1 เท่าในด้านแบนด์วิดธ์
    รองรับการเชื่อมต่อแบบ scale-out ได้ถึง 165,000 NPU

    ระบบ CloudMatrix 384 ถูกติดตั้งแล้วบน Huawei Cloud และพร้อมใช้งานจริง
    ใช้ในงาน AI training และ inference ระดับองค์กร
    เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีต่างชาติ

    Nvidia GB200 NVL72 ใช้ชิป Grace CPU 36 ตัว และ Blackwell GPU 72 ตัว
    ออกแบบให้ทำงานร่วมกันเป็น “GPU ขนาดยักษ์” สำหรับโมเดลระดับล้านล้านพารามิเตอร์
    มีข้อจำกัดด้านการส่งออกไปยังจีน

    Huawei ใช้สายออปติก 800G LPO จำนวน 6,912 เส้นในการเชื่อมต่อภายในระบบ
    ลด latency และเพิ่ม bandwidth ได้อย่างมหาศาล
    เป็นการออกแบบที่เน้น “ระบบ” มากกว่าชิปเดี่ยว

    DeepSeek AI ใช้ Ascend 910C สำหรับ inference และพบว่าประสิทธิภาพ “เกินคาด”
    ใช้เทคนิคแปลง CUDA เป็น CUNN ด้วยโค้ดเพียงบรรทัดเดียว
    ช่วยลดต้นทุนและลดการพึ่งพา Nvidia

    จีนกำลังผลักดัน ecosystem ด้าน AI แบบครบวงจร ตั้งแต่ชิปถึงโมเดล
    มีการตั้งพันธมิตรระหว่างผู้ผลิตชิปและนักพัฒนา LLM
    เป้าหมายคือสร้างระบบ AI ที่ไม่ต้องพึ่งพาตะวันตก

    ระบบ CloudMatrix 384 ใช้พลังงานมากกว่าระบบ Nvidia ถึง 3.9 เท่า
    ประสิทธิภาพต่อวัตต์ต่ำกว่า Nvidia ถึง 2.3 เท่า
    อาจไม่เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงาน

    ชิป Ascend 910C ยังไม่สามารถเทียบเท่า Nvidia H100 ในงาน training
    เหมาะกับ inference มากกว่า training ที่ต้องใช้ความเสถียรสูง
    ยังขาด ecosystem ด้านซอฟต์แวร์ที่เทียบเท่า CUDA

    ระบบ CloudMatrix ยังไม่มี benchmark สาธารณะหรือการทดสอบจากองค์กรอิสระ
    ข้อมูลส่วนใหญ่มาจาก Huawei และ SemiAnalysis
    ต้องรอการพิสูจน์จากการใช้งานจริงในระยะยาว

    รัฐบาลสหรัฐฯ เตรียมออกมาตรการลงโทษบริษัทที่ใช้ชิป Ascend 910C ทั่วโลก
    อ้างว่าใช้เทคโนโลยีที่มีต้นกำเนิดจากสหรัฐฯ
    อาจส่งผลต่อบริษัทต่างชาติที่ร่วมใช้งานระบบนี้

    https://www.techspot.com/news/108891-huawei-cloudmatrix-384-ai-system-poised-challenge-nvidia.html
    🎙️ เรื่องเล่าจากข่าว: Huawei CloudMatrix 384—AI ซูเปอร์คลัสเตอร์ที่ท้าชน Nvidia ด้วยพลังแห่งการรวมชิป ในงาน World Artificial Intelligence Conference 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นซูเปอร์คลัสเตอร์ AI ที่ประกอบด้วยชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อกันด้วยโครงสร้างแบบ “all-to-all mesh” ผ่านสายออปติกความเร็วสูง แม้ชิปแต่ละตัวจะมีประสิทธิภาพต่ำกว่า Nvidia H100 แต่ Huawei ใช้กลยุทธ์ “จำนวนมาก + การออกแบบระบบ” เพื่อชดเชยข้อเสีย และสามารถให้ประสิทธิภาพรวมสูงกว่าระบบ Nvidia GB200 NVL72 ได้ในหลายด้าน เช่น: - ความเร็วในการประมวลผล BF16 สูงกว่า 1.7 เท่า - ความจุหน่วยความจำสูงกว่า 3.6 เท่า - แบนด์วิดธ์หน่วยความจำสูงกว่า 2.1 เท่า อย่างไรก็ตาม ระบบนี้ใช้พลังงานมากกว่าถึง 3.9 เท่า และมีประสิทธิภาพต่อวัตต์ต่ำกว่าถึง 2.3 เท่า ซึ่งอาจเป็นข้อจำกัดสำคัญในตลาดโลก แต่สำหรับจีนที่มีแหล่งพลังงานหลากหลายและราคาถูก นี่อาจไม่ใช่ปัญหา ✅ Huawei เปิดตัวระบบ CloudMatrix 384 ในงาน WAIC 2025 ที่เซี่ยงไฮ้ ➡️ ใช้ชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อแบบ all-to-all mesh ด้วยสายออปติก ➡️ ออกแบบมาเพื่อแข่งขันกับ Nvidia GB200 NVL72 ✅ ระบบสามารถประมวลผลได้ถึง 300 PFLOPs แบบ BF16 ➡️ สูงกว่า Nvidia GB200 NVL72 ที่ทำได้ 180 PFLOPs ➡️ เหมาะสำหรับงาน inference ของโมเดลขนาดใหญ่ ✅ Ascend 910C มีประสิทธิภาพประมาณ 60% ของ Nvidia H100 ในงาน inference ➡️ ใช้เทคนิค dual-chiplet และหน่วยความจำ HBM2E ขนาด 128 GB ➡️ ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm รุ่นใหม่ ✅ ระบบมีความจุหน่วยความจำรวม 49.2 TB และแบนด์วิดธ์รวม 1229 TB/s ➡️ สูงกว่า Nvidia GB200 NVL72 ถึง 3.6 เท่าในด้านความจุ และ 2.1 เท่าในด้านแบนด์วิดธ์ ➡️ รองรับการเชื่อมต่อแบบ scale-out ได้ถึง 165,000 NPU ✅ ระบบ CloudMatrix 384 ถูกติดตั้งแล้วบน Huawei Cloud และพร้อมใช้งานจริง ➡️ ใช้ในงาน AI training และ inference ระดับองค์กร ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีต่างชาติ ✅ Nvidia GB200 NVL72 ใช้ชิป Grace CPU 36 ตัว และ Blackwell GPU 72 ตัว ➡️ ออกแบบให้ทำงานร่วมกันเป็น “GPU ขนาดยักษ์” สำหรับโมเดลระดับล้านล้านพารามิเตอร์ ➡️ มีข้อจำกัดด้านการส่งออกไปยังจีน ✅ Huawei ใช้สายออปติก 800G LPO จำนวน 6,912 เส้นในการเชื่อมต่อภายในระบบ ➡️ ลด latency และเพิ่ม bandwidth ได้อย่างมหาศาล ➡️ เป็นการออกแบบที่เน้น “ระบบ” มากกว่าชิปเดี่ยว ✅ DeepSeek AI ใช้ Ascend 910C สำหรับ inference และพบว่าประสิทธิภาพ “เกินคาด” ➡️ ใช้เทคนิคแปลง CUDA เป็น CUNN ด้วยโค้ดเพียงบรรทัดเดียว ➡️ ช่วยลดต้นทุนและลดการพึ่งพา Nvidia ✅ จีนกำลังผลักดัน ecosystem ด้าน AI แบบครบวงจร ตั้งแต่ชิปถึงโมเดล ➡️ มีการตั้งพันธมิตรระหว่างผู้ผลิตชิปและนักพัฒนา LLM ➡️ เป้าหมายคือสร้างระบบ AI ที่ไม่ต้องพึ่งพาตะวันตก ‼️ ระบบ CloudMatrix 384 ใช้พลังงานมากกว่าระบบ Nvidia ถึง 3.9 เท่า ⛔ ประสิทธิภาพต่อวัตต์ต่ำกว่า Nvidia ถึง 2.3 เท่า ⛔ อาจไม่เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงาน ‼️ ชิป Ascend 910C ยังไม่สามารถเทียบเท่า Nvidia H100 ในงาน training ⛔ เหมาะกับ inference มากกว่า training ที่ต้องใช้ความเสถียรสูง ⛔ ยังขาด ecosystem ด้านซอฟต์แวร์ที่เทียบเท่า CUDA ‼️ ระบบ CloudMatrix ยังไม่มี benchmark สาธารณะหรือการทดสอบจากองค์กรอิสระ ⛔ ข้อมูลส่วนใหญ่มาจาก Huawei และ SemiAnalysis ⛔ ต้องรอการพิสูจน์จากการใช้งานจริงในระยะยาว ‼️ รัฐบาลสหรัฐฯ เตรียมออกมาตรการลงโทษบริษัทที่ใช้ชิป Ascend 910C ทั่วโลก ⛔ อ้างว่าใช้เทคโนโลยีที่มีต้นกำเนิดจากสหรัฐฯ ⛔ อาจส่งผลต่อบริษัทต่างชาติที่ร่วมใช้งานระบบนี้ https://www.techspot.com/news/108891-huawei-cloudmatrix-384-ai-system-poised-challenge-nvidia.html
    WWW.TECHSPOT.COM
    Huawei's CloudMatrix 384 could outpace Nvidia in the AI race, study suggests
    As newly appointed US tech czar David Sacks predicted just a month ago, Trump's tariffs appear to be backfiring in spectacular fashion. Chinese tech giant Huawei is...
    0 Comments 0 Shares 362 Views 0 Reviews
  • เรื่องเล่าจากข่าว: “Man in the Prompt” เมื่อ AI กลายเป็นผู้ช่วยโจรกรรมข้อมูล

    นักวิจัยจากบริษัท LayerX ค้นพบช่องโหว่ใหม่ที่เรียกว่า “Man in the Prompt” ซึ่งอาศัยความจริงที่ว่า ช่องใส่คำสั่ง (prompt input) ของ AI บนเว็บเบราว์เซอร์เป็นส่วนหนึ่งของโครงสร้างหน้าเว็บ (Document Object Model หรือ DOM) นั่นหมายความว่า ส่วนเสริมใด ๆ ที่เข้าถึง DOM ได้ ก็สามารถอ่านหรือเขียนคำสั่งลงในช่อง prompt ได้ทันที—even ถ้าไม่มีสิทธิ์พิเศษ!

    แฮกเกอร์สามารถใช้ส่วนเสริมที่เป็นอันตราย (หรือซื้อสิทธิ์จากส่วนเสริมที่มีอยู่แล้ว) เพื่อแอบแฝงคำสั่งลับ, ดึงข้อมูลจากคำตอบของ AI, หรือแม้แต่ลบประวัติการสนทนาเพื่อไม่ให้ผู้ใช้รู้ตัว

    LayerX ได้ทดลองโจมตีจริงกับ ChatGPT และ Google Gemini โดยใช้ส่วนเสริมที่ดูไม่มีพิษภัย แต่สามารถเปิดแท็บลับ, ส่งคำสั่งไปยัง AI, ดึงข้อมูลออก และลบหลักฐานทั้งหมด

    สิ่งที่น่ากลัวคือ AI เหล่านี้มักถูกใช้ในองค์กรเพื่อประมวลผลข้อมูลลับ เช่น เอกสารภายใน, แผนธุรกิจ, หรือรหัสโปรแกรม—ซึ่งอาจถูกขโมยไปโดยไม่รู้ตัว

    “Man in the Prompt” คือการโจมตีผ่านส่วนเสริมเบราว์เซอร์ที่แอบแฝงคำสั่งในช่อง prompt ของ AI
    ใช้ช่องโหว่ของ DOM ที่เปิดให้ส่วนเสริมเข้าถึงข้อมูลในหน้าเว็บ
    ไม่ต้องใช้สิทธิ์พิเศษก็สามารถอ่าน/เขียนคำสั่งได้

    AI ที่ได้รับผลกระทบ ได้แก่ ChatGPT, Gemini, Claude, Copilot และ Deepseek
    ทั้ง AI เชิงพาณิชย์และ AI ภายในองค์กร
    มีการทดสอบจริงและแสดงผลสำเร็จ

    ส่วนเสริมสามารถแอบส่งคำสั่ง, ดึงข้อมูล, และลบประวัติการสนทนาได้
    เช่น เปิดแท็บลับ, ส่งคำสั่งไปยัง ChatGPT, ดึงผลลัพธ์, แล้วลบแชท
    Gemini สามารถถูกโจมตีผ่าน sidebar ที่เชื่อมกับ Google Workspace

    ข้อมูลที่เสี่ยงต่อการรั่วไหล ได้แก่ อีเมล, เอกสาร, รหัส, แผนธุรกิจ และทรัพย์สินทางปัญญา
    โดยเฉพาะ AI ภายในองค์กรที่ฝึกด้วยข้อมูลลับ
    มีความเชื่อมั่นสูงแต่ขาดระบบป้องกันคำสั่งแฝง

    LayerX แนะนำให้ตรวจสอบพฤติกรรม DOM ของส่วนเสริมแทนการดูแค่สิทธิ์ที่ประกาศไว้
    ปรับระบบความปลอดภัยให้มองเห็นการเปลี่ยนแปลงใน DOM
    ป้องกันการแอบแฝงคำสั่งและการดึงข้อมูลแบบเรียลไทม์

    ส่วนเสริมที่ดูปลอดภัยอาจถูกแฮกหรือซื้อสิทธิ์ไปใช้โจมตีได้
    เช่น ส่วนเสริมที่มีฟีเจอร์จัดการ prompt อาจถูกใช้เพื่อแอบแฝงคำสั่ง
    ไม่ต้องมีการติดตั้งใหม่หรืออนุญาตใด ๆ จากผู้ใช้

    ระบบความปลอดภัยแบบเดิมไม่สามารถตรวจจับการโจมตีในระดับ DOM ได้
    เช่น DLP หรือ Secure Web Gateway ไม่เห็นการเปลี่ยนแปลงใน DOM
    การบล็อก URL ของ AI ไม่ช่วยป้องกันการโจมตีภายในเบราว์เซอร์

    องค์กรที่อนุญาตให้ติดตั้งส่วนเสริมอย่างเสรีมีความเสี่ยงสูงมาก
    พนักงานอาจติดตั้งส่วนเสริมที่เป็นอันตรายโดยไม่รู้ตัว
    ข้อมูลภายในองค์กรอาจถูกขโมยผ่าน AI ที่เชื่อมกับเบราว์เซอร์

    AI ที่ฝึกด้วยข้อมูลลับภายในองค์กรมีความเสี่ยงสูงสุด
    เช่น ข้อมูลทางกฎหมาย, การเงิน, หรือกลยุทธ์
    หากถูกดึงออกผ่าน prompt จะไม่มีทางรู้ตัวเลย

    https://hackread.com/browser-extensions-exploit-chatgpt-gemini-man-in-the-prompt/
    🧠 เรื่องเล่าจากข่าว: “Man in the Prompt” เมื่อ AI กลายเป็นผู้ช่วยโจรกรรมข้อมูล นักวิจัยจากบริษัท LayerX ค้นพบช่องโหว่ใหม่ที่เรียกว่า “Man in the Prompt” ซึ่งอาศัยความจริงที่ว่า ช่องใส่คำสั่ง (prompt input) ของ AI บนเว็บเบราว์เซอร์เป็นส่วนหนึ่งของโครงสร้างหน้าเว็บ (Document Object Model หรือ DOM) นั่นหมายความว่า ส่วนเสริมใด ๆ ที่เข้าถึง DOM ได้ ก็สามารถอ่านหรือเขียนคำสั่งลงในช่อง prompt ได้ทันที—even ถ้าไม่มีสิทธิ์พิเศษ! แฮกเกอร์สามารถใช้ส่วนเสริมที่เป็นอันตราย (หรือซื้อสิทธิ์จากส่วนเสริมที่มีอยู่แล้ว) เพื่อแอบแฝงคำสั่งลับ, ดึงข้อมูลจากคำตอบของ AI, หรือแม้แต่ลบประวัติการสนทนาเพื่อไม่ให้ผู้ใช้รู้ตัว LayerX ได้ทดลองโจมตีจริงกับ ChatGPT และ Google Gemini โดยใช้ส่วนเสริมที่ดูไม่มีพิษภัย แต่สามารถเปิดแท็บลับ, ส่งคำสั่งไปยัง AI, ดึงข้อมูลออก และลบหลักฐานทั้งหมด สิ่งที่น่ากลัวคือ AI เหล่านี้มักถูกใช้ในองค์กรเพื่อประมวลผลข้อมูลลับ เช่น เอกสารภายใน, แผนธุรกิจ, หรือรหัสโปรแกรม—ซึ่งอาจถูกขโมยไปโดยไม่รู้ตัว ✅ “Man in the Prompt” คือการโจมตีผ่านส่วนเสริมเบราว์เซอร์ที่แอบแฝงคำสั่งในช่อง prompt ของ AI ➡️ ใช้ช่องโหว่ของ DOM ที่เปิดให้ส่วนเสริมเข้าถึงข้อมูลในหน้าเว็บ ➡️ ไม่ต้องใช้สิทธิ์พิเศษก็สามารถอ่าน/เขียนคำสั่งได้ ✅ AI ที่ได้รับผลกระทบ ได้แก่ ChatGPT, Gemini, Claude, Copilot และ Deepseek ➡️ ทั้ง AI เชิงพาณิชย์และ AI ภายในองค์กร ➡️ มีการทดสอบจริงและแสดงผลสำเร็จ ✅ ส่วนเสริมสามารถแอบส่งคำสั่ง, ดึงข้อมูล, และลบประวัติการสนทนาได้ ➡️ เช่น เปิดแท็บลับ, ส่งคำสั่งไปยัง ChatGPT, ดึงผลลัพธ์, แล้วลบแชท ➡️ Gemini สามารถถูกโจมตีผ่าน sidebar ที่เชื่อมกับ Google Workspace ✅ ข้อมูลที่เสี่ยงต่อการรั่วไหล ได้แก่ อีเมล, เอกสาร, รหัส, แผนธุรกิจ และทรัพย์สินทางปัญญา ➡️ โดยเฉพาะ AI ภายในองค์กรที่ฝึกด้วยข้อมูลลับ ➡️ มีความเชื่อมั่นสูงแต่ขาดระบบป้องกันคำสั่งแฝง ✅ LayerX แนะนำให้ตรวจสอบพฤติกรรม DOM ของส่วนเสริมแทนการดูแค่สิทธิ์ที่ประกาศไว้ ➡️ ปรับระบบความปลอดภัยให้มองเห็นการเปลี่ยนแปลงใน DOM ➡️ ป้องกันการแอบแฝงคำสั่งและการดึงข้อมูลแบบเรียลไทม์ ‼️ ส่วนเสริมที่ดูปลอดภัยอาจถูกแฮกหรือซื้อสิทธิ์ไปใช้โจมตีได้ ⛔ เช่น ส่วนเสริมที่มีฟีเจอร์จัดการ prompt อาจถูกใช้เพื่อแอบแฝงคำสั่ง ⛔ ไม่ต้องมีการติดตั้งใหม่หรืออนุญาตใด ๆ จากผู้ใช้ ‼️ ระบบความปลอดภัยแบบเดิมไม่สามารถตรวจจับการโจมตีในระดับ DOM ได้ ⛔ เช่น DLP หรือ Secure Web Gateway ไม่เห็นการเปลี่ยนแปลงใน DOM ⛔ การบล็อก URL ของ AI ไม่ช่วยป้องกันการโจมตีภายในเบราว์เซอร์ ‼️ องค์กรที่อนุญาตให้ติดตั้งส่วนเสริมอย่างเสรีมีความเสี่ยงสูงมาก ⛔ พนักงานอาจติดตั้งส่วนเสริมที่เป็นอันตรายโดยไม่รู้ตัว ⛔ ข้อมูลภายในองค์กรอาจถูกขโมยผ่าน AI ที่เชื่อมกับเบราว์เซอร์ ‼️ AI ที่ฝึกด้วยข้อมูลลับภายในองค์กรมีความเสี่ยงสูงสุด ⛔ เช่น ข้อมูลทางกฎหมาย, การเงิน, หรือกลยุทธ์ ⛔ หากถูกดึงออกผ่าน prompt จะไม่มีทางรู้ตัวเลย https://hackread.com/browser-extensions-exploit-chatgpt-gemini-man-in-the-prompt/
    HACKREAD.COM
    Browser Extensions Can Exploit ChatGPT, Gemini in ‘Man in the Prompt’ Attack
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 304 Views 0 Reviews
  • เรื่องเล่าจากโลก LLMs: พาไปส่องโครงสร้างภายในของโมเดล AI ยักษ์ยุคใหม่

    7 ปีผ่านไปจาก GPT-2 ถึงวันนี้ แม้โมเดลจะดูคล้ายกันมาก แต่ภายใต้ “กลไกเล็ก ๆ” กลับมีการเปลี่ยนแปลงครั้งใหญ่ในเรื่องประสิทธิภาพและหน่วยความจำ เช่น:
    - เปลี่ยนจาก Multi-Head Attention (MHA) เป็น Grouped-Query Attention (GQA)
    - ใช้ Multi-Head Latent Attention (MLA) ในบางโมเดล เช่น DeepSeek V3
    - การใช้ Mixture-of-Experts (MoE) เพื่อเพิ่มพารามิเตอร์โดยไม่เพิ่มต้นทุน inference
    - การปรับตำแหน่งของ Normalization Layer เพื่อให้โมเดลเสถียรขึ้น
    - ใช้ Sliding Window Attention และ QK-Norm เพื่อประหยัด KV cache และเร่งการเรียนรู้
    - ลดขนาดโมเดลโดยยังให้ความสามารถสูง เช่น SmolLM3 กับ Gemma 3n

    DeepSeek V3 ใช้ Multi-Head Latent Attention (MLA) แทน GQA เพื่อประหยัด KV cache
    ขณะเดียวกันยังให้ผลลัพธ์ดีกว่า MHA และใช้พารามิเตอร์น้อยลง
    MLA แม้มีผลดี แต่ยังใหม่และซับซ้อนในการ implement
    ต้องใช้การบีบอัดและ projection ซึ่งเพิ่มขั้นตอนในการ inference

    DeepSeek V3 ใช้ Mixture-of-Experts (MoE) ที่มี 256 expert layers
    ใช้เพียง 9 expert ต่อ token ขณะ inference ทำให้ประหยัดพลังงาน
    การใช้ MoE ทำให้ parameter ทั้งหมดเยอะมาก แม้จะใช้จริงเพียงส่วนน้อย
    หากระบบ routing ไม่ดีหรือไม่เสถียร อาจเกิด undertraining ในบาง expert

    OLMo 2 ใช้ Post-Norm แบบใหม่ และเพิ่ม QK-Norm ภายใน attention block
    ช่วยเสถียรภาพในการฝึกและลด loss
    QK-Norm และการสลับ Pre/Post-Norm ต้องทดลองอย่างระวัง
    ถ้าใช้ผิดจังหวะอาจทำให้ training loss แปรปรวน

    Gemma 3 ใช้ Sliding Window Attention เพื่อลดการใช้หน่วยความจำ
    ลดขนาด window เหลือ 1024 token และมี Global Attention เฉพาะบางชั้น
    Sliding Window Attention ลด memory แต่ไม่ลด latency เสมอไป
    เพราะยังต้องประมวลผลแบบ local ซึ่งไม่สามารถใช้ FlashAttention ได้เต็มที่

    Gemma 3n ใช้ Per-Layer Embedding เพื่อให้ inference บนอุปกรณ์เล็ก
    แยก parameter บางส่วนไว้บน CPU หรือ SSD แล้วโหลดตามต้องการ
    Per-Layer Embedding ทำให้พารามิเตอร์ถูกสตรีมจากอุปกรณ์ภายนอก
    ถ้า bandwidth หรือ latency สูงเกินไปจะกระทบต่อการ inference อย่างหนัก

    Mistral Small 3.1 เลิกใช้ Sliding Attention เพื่อรองรับ FlashAttention แบบเต็ม
    ทำให้ inference เร็วขึ้นแม้จะมีพารามิเตอร์ใกล้เคียงกับ Gemma 3

    Llama 4 ใช้ MoE แบบ alternated (สลับชั้น MoE กับ Dense)
    Active parameter มีแค่ 17B แม้ model จะมี 400B

    Qwen3 มีรุ่น dense ขนาดเล็กมาก (เช่น 0.6B) และ MoE ขนาดใหญ่ถึง 235B
    รุ่น MoE ไม่มี shared expert แต่ยังใช้ GQA เหมือนรุ่นก่อน

    SmolLM3 ใช้ NoPE (No Positional Embeddings) แบบไม่ระบุตำแหน่งเลย
    แสดงให้เห็นว่าไม่ต้องใช้ embedding ก็สามารถเรียนรู้ลำดับได้บางส่วน
    การไม่มี Positional Embedding (เช่น NoPE) อาจกระทบโมเดลใน task ที่ต้องอิงลำดับ
    เช่นการสรุปเนื้อหายาว หรือการจัดเรียงข้อมูลตามเวลา

    https://magazine.sebastianraschka.com/p/the-big-llm-architecture-comparison
    🎙️ เรื่องเล่าจากโลก LLMs: พาไปส่องโครงสร้างภายในของโมเดล AI ยักษ์ยุคใหม่ 7 ปีผ่านไปจาก GPT-2 ถึงวันนี้ แม้โมเดลจะดูคล้ายกันมาก แต่ภายใต้ “กลไกเล็ก ๆ” กลับมีการเปลี่ยนแปลงครั้งใหญ่ในเรื่องประสิทธิภาพและหน่วยความจำ เช่น: - เปลี่ยนจาก Multi-Head Attention (MHA) เป็น Grouped-Query Attention (GQA) - ใช้ Multi-Head Latent Attention (MLA) ในบางโมเดล เช่น DeepSeek V3 - การใช้ Mixture-of-Experts (MoE) เพื่อเพิ่มพารามิเตอร์โดยไม่เพิ่มต้นทุน inference - การปรับตำแหน่งของ Normalization Layer เพื่อให้โมเดลเสถียรขึ้น - ใช้ Sliding Window Attention และ QK-Norm เพื่อประหยัด KV cache และเร่งการเรียนรู้ - ลดขนาดโมเดลโดยยังให้ความสามารถสูง เช่น SmolLM3 กับ Gemma 3n ✅ DeepSeek V3 ใช้ Multi-Head Latent Attention (MLA) แทน GQA เพื่อประหยัด KV cache ➡️ ขณะเดียวกันยังให้ผลลัพธ์ดีกว่า MHA และใช้พารามิเตอร์น้อยลง ‼️ MLA แม้มีผลดี แต่ยังใหม่และซับซ้อนในการ implement ⛔ ต้องใช้การบีบอัดและ projection ซึ่งเพิ่มขั้นตอนในการ inference ✅ DeepSeek V3 ใช้ Mixture-of-Experts (MoE) ที่มี 256 expert layers ➡️ ใช้เพียง 9 expert ต่อ token ขณะ inference ทำให้ประหยัดพลังงาน ‼️ การใช้ MoE ทำให้ parameter ทั้งหมดเยอะมาก แม้จะใช้จริงเพียงส่วนน้อย ⛔ หากระบบ routing ไม่ดีหรือไม่เสถียร อาจเกิด undertraining ในบาง expert ✅ OLMo 2 ใช้ Post-Norm แบบใหม่ และเพิ่ม QK-Norm ภายใน attention block ➡️ ช่วยเสถียรภาพในการฝึกและลด loss ‼️ QK-Norm และการสลับ Pre/Post-Norm ต้องทดลองอย่างระวัง ⛔ ถ้าใช้ผิดจังหวะอาจทำให้ training loss แปรปรวน ✅ Gemma 3 ใช้ Sliding Window Attention เพื่อลดการใช้หน่วยความจำ ➡️ ลดขนาด window เหลือ 1024 token และมี Global Attention เฉพาะบางชั้น ‼️ Sliding Window Attention ลด memory แต่ไม่ลด latency เสมอไป ⛔ เพราะยังต้องประมวลผลแบบ local ซึ่งไม่สามารถใช้ FlashAttention ได้เต็มที่ ✅ Gemma 3n ใช้ Per-Layer Embedding เพื่อให้ inference บนอุปกรณ์เล็ก ➡️ แยก parameter บางส่วนไว้บน CPU หรือ SSD แล้วโหลดตามต้องการ ‼️ Per-Layer Embedding ทำให้พารามิเตอร์ถูกสตรีมจากอุปกรณ์ภายนอก ⛔ ถ้า bandwidth หรือ latency สูงเกินไปจะกระทบต่อการ inference อย่างหนัก ✅ Mistral Small 3.1 เลิกใช้ Sliding Attention เพื่อรองรับ FlashAttention แบบเต็ม ➡️ ทำให้ inference เร็วขึ้นแม้จะมีพารามิเตอร์ใกล้เคียงกับ Gemma 3 ✅ Llama 4 ใช้ MoE แบบ alternated (สลับชั้น MoE กับ Dense) ➡️ Active parameter มีแค่ 17B แม้ model จะมี 400B ✅ Qwen3 มีรุ่น dense ขนาดเล็กมาก (เช่น 0.6B) และ MoE ขนาดใหญ่ถึง 235B ➡️ รุ่น MoE ไม่มี shared expert แต่ยังใช้ GQA เหมือนรุ่นก่อน ✅ SmolLM3 ใช้ NoPE (No Positional Embeddings) แบบไม่ระบุตำแหน่งเลย ➡️ แสดงให้เห็นว่าไม่ต้องใช้ embedding ก็สามารถเรียนรู้ลำดับได้บางส่วน ‼️ การไม่มี Positional Embedding (เช่น NoPE) อาจกระทบโมเดลใน task ที่ต้องอิงลำดับ ⛔ เช่นการสรุปเนื้อหายาว หรือการจัดเรียงข้อมูลตามเวลา https://magazine.sebastianraschka.com/p/the-big-llm-architecture-comparison
    MAGAZINE.SEBASTIANRASCHKA.COM
    The Big LLM Architecture Comparison
    From DeepSeek-V3 to Kimi K2: A Look At Modern LLM Architecture Design
    0 Comments 0 Shares 317 Views 0 Reviews
  • DeepSeek ถูกแบนในเช็ก – เพราะอาจส่งข้อมูลผู้ใช้ให้รัฐบาลจีน

    DeepSeek เป็นบริษัท AI จากจีนที่เปิดตัวในปี 2023 และได้รับความนิยมอย่างรวดเร็วหลังเปิดตัวแอปบน iOS และ Android ในเดือนมกราคม 2025 โดยสามารถแซง ChatGPT ขึ้นอันดับหนึ่งใน App Store ได้ในหลายประเทศ

    แต่ความนิยมนี้กลับมาพร้อมกับความกังวลด้านความมั่นคง เมื่อหน่วยงานความมั่นคงไซเบอร์แห่งชาติของเช็ก (NÚKIB) ออกรายงานเมื่อวันที่ 9 กรกฎาคม 2025 ระบุว่า DeepSeek และบริษัทแม่ High-Flyer มี “ความเชื่อมโยงลึก” กับรัฐบาลจีน และอาจถูกใช้เป็นเครื่องมือในการจารกรรมข้อมูล

    รายงานอ้างถึงกฎหมายจีนหลายฉบับ เช่น:
    - กฎหมายความมั่นคงแห่งชาติ
    - กฎหมายข่าวกรองแห่งชาติ
    - กฎหมายต่อต้านการจารกรรม

    ซึ่งทั้งหมดบังคับให้บริษัทจีนต้องให้ข้อมูลผู้ใช้แก่รัฐบาล ไม่ว่าผู้ใช้นั้นจะอยู่ประเทศใดก็ตาม

    ผลคือ Czechia ประกาศแบนการใช้งาน DeepSeek ในเกือบทุกกรณี ยกเว้นสำหรับนักวิจัยด้านความปลอดภัย และการใช้งานโมเดลโอเพนซอร์สที่ไม่เชื่อมต่อกับเซิร์ฟเวอร์ของบริษัท

    ประเทศอื่น ๆ ที่ออกมาตรการคล้ายกัน ได้แก่ สหรัฐฯ (รวมถึงกองทัพเรือและ NASA), แคนาดา, ออสเตรเลีย, อินเดีย, อิตาลี, เดนมาร์ก, เนเธอร์แลนด์, นอร์เวย์, เกาหลีใต้ และไต้หวัน

    NÚKIB ระบุว่า “ความกังวลต่อ DeepSeek ไม่ได้เกิดจากวัฒนธรรมร่วมกันหรือภูมิศาสตร์ แต่เป็นผลจากการประเมินความเสี่ยงอย่างเป็นกลาง” และคาดว่าประเทศอื่น ๆ จะออกมาตรการเพิ่มเติมในอีกไม่กี่เดือนข้างหน้า

    ข้อมูลจากข่าว
    - รัฐบาลเช็กประกาศแบนการใช้งาน DeepSeek เนื่องจากความเสี่ยงด้านความมั่นคงไซเบอร์
    - DeepSeek เป็นบริษัท AI จากจีนที่เปิดตัวในปี 2023 และได้รับความนิยมในปี 2025
    - หน่วยงาน NÚKIB ระบุว่า DeepSeek มีความเชื่อมโยงกับรัฐบาลจีน
    - อ้างถึงกฎหมายจีนที่บังคับให้บริษัทต้องให้ข้อมูลผู้ใช้แก่รัฐบาล
    - การแบนครอบคลุมทุกกรณี ยกเว้นนักวิจัยและการใช้งานแบบ self-host ที่ไม่เชื่อมต่อกับเซิร์ฟเวอร์ของบริษัท
    - ประเทศอื่นที่ออกมาตรการคล้ายกัน ได้แก่ สหรัฐฯ, แคนาดา, ออสเตรเลีย, อินเดีย, อิตาลี, เดนมาร์ก, เนเธอร์แลนด์, นอร์เวย์, เกาหลีใต้ และไต้หวัน

    คำเตือนและข้อควรระวัง
    - ผู้ใช้ DeepSeek อาจเสี่ยงต่อการถูกเก็บข้อมูลและส่งต่อให้รัฐบาลจีนโดยไม่รู้ตัว
    - กฎหมายจีนมีอำนาจเหนือบริษัทจีนแม้จะให้บริการในต่างประเทศ
    - การใช้งานโมเดล AI ที่เชื่อมต่อกับเซิร์ฟเวอร์จีนอาจเปิดช่องให้เกิดการจารกรรมข้อมูล
    - องค์กรควรหลีกเลี่ยงการใช้บริการจากบริษัทที่มีความเชื่อมโยงกับรัฐบาลต่างชาติในงานที่เกี่ยวข้องกับข้อมูลสำคัญ
    - การใช้งานโมเดลโอเพนซอร์สควรทำแบบ self-host เพื่อป้องกันการส่งข้อมูลออกนอกองค์กร

    https://www.tomshardware.com/tech-industry/cyber-security/czechia-warns-that-deepseek-can-share-all-user-information-with-the-chinese-government
    DeepSeek ถูกแบนในเช็ก – เพราะอาจส่งข้อมูลผู้ใช้ให้รัฐบาลจีน DeepSeek เป็นบริษัท AI จากจีนที่เปิดตัวในปี 2023 และได้รับความนิยมอย่างรวดเร็วหลังเปิดตัวแอปบน iOS และ Android ในเดือนมกราคม 2025 โดยสามารถแซง ChatGPT ขึ้นอันดับหนึ่งใน App Store ได้ในหลายประเทศ แต่ความนิยมนี้กลับมาพร้อมกับความกังวลด้านความมั่นคง เมื่อหน่วยงานความมั่นคงไซเบอร์แห่งชาติของเช็ก (NÚKIB) ออกรายงานเมื่อวันที่ 9 กรกฎาคม 2025 ระบุว่า DeepSeek และบริษัทแม่ High-Flyer มี “ความเชื่อมโยงลึก” กับรัฐบาลจีน และอาจถูกใช้เป็นเครื่องมือในการจารกรรมข้อมูล รายงานอ้างถึงกฎหมายจีนหลายฉบับ เช่น: - กฎหมายความมั่นคงแห่งชาติ - กฎหมายข่าวกรองแห่งชาติ - กฎหมายต่อต้านการจารกรรม ซึ่งทั้งหมดบังคับให้บริษัทจีนต้องให้ข้อมูลผู้ใช้แก่รัฐบาล ไม่ว่าผู้ใช้นั้นจะอยู่ประเทศใดก็ตาม ผลคือ Czechia ประกาศแบนการใช้งาน DeepSeek ในเกือบทุกกรณี ยกเว้นสำหรับนักวิจัยด้านความปลอดภัย และการใช้งานโมเดลโอเพนซอร์สที่ไม่เชื่อมต่อกับเซิร์ฟเวอร์ของบริษัท ประเทศอื่น ๆ ที่ออกมาตรการคล้ายกัน ได้แก่ สหรัฐฯ (รวมถึงกองทัพเรือและ NASA), แคนาดา, ออสเตรเลีย, อินเดีย, อิตาลี, เดนมาร์ก, เนเธอร์แลนด์, นอร์เวย์, เกาหลีใต้ และไต้หวัน NÚKIB ระบุว่า “ความกังวลต่อ DeepSeek ไม่ได้เกิดจากวัฒนธรรมร่วมกันหรือภูมิศาสตร์ แต่เป็นผลจากการประเมินความเสี่ยงอย่างเป็นกลาง” และคาดว่าประเทศอื่น ๆ จะออกมาตรการเพิ่มเติมในอีกไม่กี่เดือนข้างหน้า ✅ ข้อมูลจากข่าว - รัฐบาลเช็กประกาศแบนการใช้งาน DeepSeek เนื่องจากความเสี่ยงด้านความมั่นคงไซเบอร์ - DeepSeek เป็นบริษัท AI จากจีนที่เปิดตัวในปี 2023 และได้รับความนิยมในปี 2025 - หน่วยงาน NÚKIB ระบุว่า DeepSeek มีความเชื่อมโยงกับรัฐบาลจีน - อ้างถึงกฎหมายจีนที่บังคับให้บริษัทต้องให้ข้อมูลผู้ใช้แก่รัฐบาล - การแบนครอบคลุมทุกกรณี ยกเว้นนักวิจัยและการใช้งานแบบ self-host ที่ไม่เชื่อมต่อกับเซิร์ฟเวอร์ของบริษัท - ประเทศอื่นที่ออกมาตรการคล้ายกัน ได้แก่ สหรัฐฯ, แคนาดา, ออสเตรเลีย, อินเดีย, อิตาลี, เดนมาร์ก, เนเธอร์แลนด์, นอร์เวย์, เกาหลีใต้ และไต้หวัน ‼️ คำเตือนและข้อควรระวัง - ผู้ใช้ DeepSeek อาจเสี่ยงต่อการถูกเก็บข้อมูลและส่งต่อให้รัฐบาลจีนโดยไม่รู้ตัว - กฎหมายจีนมีอำนาจเหนือบริษัทจีนแม้จะให้บริการในต่างประเทศ - การใช้งานโมเดล AI ที่เชื่อมต่อกับเซิร์ฟเวอร์จีนอาจเปิดช่องให้เกิดการจารกรรมข้อมูล - องค์กรควรหลีกเลี่ยงการใช้บริการจากบริษัทที่มีความเชื่อมโยงกับรัฐบาลต่างชาติในงานที่เกี่ยวข้องกับข้อมูลสำคัญ - การใช้งานโมเดลโอเพนซอร์สควรทำแบบ self-host เพื่อป้องกันการส่งข้อมูลออกนอกองค์กร https://www.tomshardware.com/tech-industry/cyber-security/czechia-warns-that-deepseek-can-share-all-user-information-with-the-chinese-government
    WWW.TOMSHARDWARE.COM
    Czechia warns that DeepSeek can share all user information with the Chinese government
    U.S. lawmakers issued similar warnings after the China-based AI company released its eponymous chatbot.
    0 Comments 0 Shares 520 Views 0 Reviews
  • AI สร้างมัลแวร์หลบหลีก Microsoft Defender ได้ – แค่ฝึกสามเดือนก็แฮกทะลุ

    นักวิจัยจาก Outflank ซึ่งเป็นทีม red team ด้านความปลอดภัย เปิดเผยว่า พวกเขาสามารถฝึกโมเดล Qwen 2.5 (โมเดล LLM แบบโอเพนซอร์สจาก Alibaba) ให้สร้างมัลแวร์ที่สามารถหลบหลีก Microsoft Defender for Endpoint ได้สำเร็จประมาณ 8% ของกรณี หลังใช้เวลาเพียง 3 เดือนและงบประมาณราว $1,500

    ผลลัพธ์นี้จะถูกนำเสนอในงาน Black Hat 2025 ซึ่งเป็นงานสัมมนาด้านความปลอดภัยระดับโลก โดยถือเป็น “proof of concept” ที่แสดงให้เห็นว่า AI สามารถถูกนำมาใช้สร้างภัยคุกคามไซเบอร์ได้จริง

    เมื่อเปรียบเทียบกับโมเดลอื่น:
    - Anthropic’s AI ทำได้ <1%
    - DeepSeek ทำได้ <0.5%
    - Qwen 2.5 จึงถือว่ามีประสิทธิภาพสูงกว่ามากในบริบทนี้

    นักวิจัยยังระบุว่า หากมีทรัพยากร GPU มากกว่านี้ และใช้ reinforcement learning อย่างจริงจัง ประสิทธิภาพของโมเดลอาจเพิ่มขึ้นอีกมาก ซึ่งเป็นสัญญาณเตือนสำหรับอนาคตของการโจมตีแบบอัตโนมัติ

    แม้ Microsoft Defender จะยังคงเป็นเครื่องมือที่มีประสิทธิภาพในภาพรวม แต่การพัฒนา AI ฝั่งรุก (offensive AI) กำลังไล่ตามอย่างรวดเร็ว และอาจทำให้ระบบป้องกันต้องปรับตัวอย่างหนักในอนาคต

    ข้อมูลจากข่าว
    - นักวิจัยจาก Outflank ฝึกโมเดล Qwen 2.5 ให้สร้างมัลแวร์ที่หลบหลีก Microsoft Defender ได้
    - ใช้เวลา 3 เดือนและงบประมาณ $1,500 ในการฝึกโมเดล
    - ประสิทธิภาพของโมเดลอยู่ที่ 8% ซึ่งสูงกว่าโมเดลอื่น ๆ ที่ทดสอบ
    - จะมีการนำเสนอผลการทดลองในงาน Black Hat 2025
    - ใช้เทคนิค reinforcement learning เพื่อปรับปรุงความสามารถของโมเดล
    - ถือเป็น proof of concept ที่แสดงให้เห็นว่า AI สามารถสร้างภัยไซเบอร์ได้จริง

    คำเตือนและข้อควรระวัง
    - การใช้ AI สร้างมัลแวร์อาจกลายเป็นเครื่องมือใหม่ของแฮกเกอร์ในอนาคต
    - โมเดลโอเพนซอร์สสามารถถูกนำไปใช้ในทางร้ายได้ หากไม่มีการควบคุม
    - Microsoft Defender อาจต้องปรับปรุงอย่างต่อเนื่องเพื่อรับมือกับภัยคุกคามจาก AI
    - การมี GPU และทรัพยากรเพียงพออาจทำให้บุคคลทั่วไปสามารถฝึกโมเดลโจมตีได้
    - การพึ่งพาเครื่องมือป้องกันเพียงอย่างเดียวไม่เพียงพอ ต้องมีการฝึกอบรมและวางระบบความปลอดภัยเชิงรุก
    - องค์กรควรเริ่มรวม AI threat modeling เข้าในแผนความปลอดภัยไซเบอร์

    https://www.tomshardware.com/tech-industry/cyber-security/ai-malware-can-now-evade-microsoft-defender-open-source-llm-outsmarts-tool-around-8-percent-of-the-time-after-three-months-of-training
    AI สร้างมัลแวร์หลบหลีก Microsoft Defender ได้ – แค่ฝึกสามเดือนก็แฮกทะลุ นักวิจัยจาก Outflank ซึ่งเป็นทีม red team ด้านความปลอดภัย เปิดเผยว่า พวกเขาสามารถฝึกโมเดล Qwen 2.5 (โมเดล LLM แบบโอเพนซอร์สจาก Alibaba) ให้สร้างมัลแวร์ที่สามารถหลบหลีก Microsoft Defender for Endpoint ได้สำเร็จประมาณ 8% ของกรณี หลังใช้เวลาเพียง 3 เดือนและงบประมาณราว $1,500 ผลลัพธ์นี้จะถูกนำเสนอในงาน Black Hat 2025 ซึ่งเป็นงานสัมมนาด้านความปลอดภัยระดับโลก โดยถือเป็น “proof of concept” ที่แสดงให้เห็นว่า AI สามารถถูกนำมาใช้สร้างภัยคุกคามไซเบอร์ได้จริง เมื่อเปรียบเทียบกับโมเดลอื่น: - Anthropic’s AI ทำได้ <1% - DeepSeek ทำได้ <0.5% - Qwen 2.5 จึงถือว่ามีประสิทธิภาพสูงกว่ามากในบริบทนี้ นักวิจัยยังระบุว่า หากมีทรัพยากร GPU มากกว่านี้ และใช้ reinforcement learning อย่างจริงจัง ประสิทธิภาพของโมเดลอาจเพิ่มขึ้นอีกมาก ซึ่งเป็นสัญญาณเตือนสำหรับอนาคตของการโจมตีแบบอัตโนมัติ แม้ Microsoft Defender จะยังคงเป็นเครื่องมือที่มีประสิทธิภาพในภาพรวม แต่การพัฒนา AI ฝั่งรุก (offensive AI) กำลังไล่ตามอย่างรวดเร็ว และอาจทำให้ระบบป้องกันต้องปรับตัวอย่างหนักในอนาคต ✅ ข้อมูลจากข่าว - นักวิจัยจาก Outflank ฝึกโมเดล Qwen 2.5 ให้สร้างมัลแวร์ที่หลบหลีก Microsoft Defender ได้ - ใช้เวลา 3 เดือนและงบประมาณ $1,500 ในการฝึกโมเดล - ประสิทธิภาพของโมเดลอยู่ที่ 8% ซึ่งสูงกว่าโมเดลอื่น ๆ ที่ทดสอบ - จะมีการนำเสนอผลการทดลองในงาน Black Hat 2025 - ใช้เทคนิค reinforcement learning เพื่อปรับปรุงความสามารถของโมเดล - ถือเป็น proof of concept ที่แสดงให้เห็นว่า AI สามารถสร้างภัยไซเบอร์ได้จริง ‼️ คำเตือนและข้อควรระวัง - การใช้ AI สร้างมัลแวร์อาจกลายเป็นเครื่องมือใหม่ของแฮกเกอร์ในอนาคต - โมเดลโอเพนซอร์สสามารถถูกนำไปใช้ในทางร้ายได้ หากไม่มีการควบคุม - Microsoft Defender อาจต้องปรับปรุงอย่างต่อเนื่องเพื่อรับมือกับภัยคุกคามจาก AI - การมี GPU และทรัพยากรเพียงพออาจทำให้บุคคลทั่วไปสามารถฝึกโมเดลโจมตีได้ - การพึ่งพาเครื่องมือป้องกันเพียงอย่างเดียวไม่เพียงพอ ต้องมีการฝึกอบรมและวางระบบความปลอดภัยเชิงรุก - องค์กรควรเริ่มรวม AI threat modeling เข้าในแผนความปลอดภัยไซเบอร์ https://www.tomshardware.com/tech-industry/cyber-security/ai-malware-can-now-evade-microsoft-defender-open-source-llm-outsmarts-tool-around-8-percent-of-the-time-after-three-months-of-training
    WWW.TOMSHARDWARE.COM
    AI malware can now evade Microsoft Defender — open-source LLM outsmarts tool around 8% of the time after three months of training
    Researchers plan to show off a model that successfully outsmarts Microsoft's security tooling about 8% of the time at Black Hat 2025.
    0 Comments 0 Shares 357 Views 0 Reviews
  • จีนกำลังสร้างเมืองแห่ง AI กลางทะเลทรายตะวันตก — โครงการนี้ถูกพัฒนาในเมืองอี้อู (Yiwu) โดยมีแผนจะวางระบบดาต้าเซ็นเตอร์ 36 แห่ง เชื่อมต่อกันผ่านโครงข่ายความเร็วสูง → ที่เด็ดคือจำนวนชิป H100/H200 ที่จะใช้งานรวมกันเกิน 115,000 ตัว! → เทียบเท่ากับกริดของบริษัทคลาวด์ขนาดใหญ่ระดับโลกในบางประเทศเลยทีเดียว

    แต่ปัญหาใหญ่อยู่ที่ข้อจำกัดของสหรัฐฯ ที่ห้ามส่งออก NVIDIA รุ่นสูง (H100/H200) ไปยังจีน → แล้ว “จีนจะหาชิปจากไหน?” Bloomberg รายงานว่ามีช่องทางหลายรูปแบบ ทั้ง:
    - การขนย้ายผ่านประเทศในเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซีย–สิงคโปร์
    - การใช้ชิป H20 ที่ยังไม่ถูกควบคุมแบบเข้มข้น
    - และการใช้ loophole ด้านเทรดเพื่อเข้าสู่ระบบภายใน → แสดงให้เห็นว่า มาตรการคุมส่งออกยังไม่สามารถปิดทุกช่องทางได้ 100%

    บริษัทคลื่นลูกใหม่เช่น Zhipu AI และ DeepSeek เริ่มใช้คลัสเตอร์ระดับ Sovereign AI — ที่รัฐบาลสนับสนุนให้สร้าง AI ด้วยทรัพยากรภายในประเทศ → ซึ่งถ้าโครงการนี้เดินหน้าได้จริง = จีนจะมี compute power ที่ใกล้เคียงกับสหรัฐฯ โดยไม่ต้องพึ่งบริษัทตะวันตกเลย

    จีนกำลังสร้างโครงสร้างพื้นฐาน AI ขนาด hyperscale ที่ Yiwu → ครอบคลุม 36 ดาต้าเซ็นเตอร์
    • มีแผนใช้ NVIDIA H100 / H200 รวมกว่า 115,000 ตัว  
    • เป็นหนึ่งในโครงการใหญ่ที่สุดที่เคยสร้างในจีนด้าน AI

    แม้ถูกสหรัฐฯ จำกัดการเข้าถึง H-series → ยังมีการขนย้ายผ่านช่องทางระดับ SEA (เช่น สิงคโปร์–มาเลเซีย)

    จีนยังมีคลัง H20 ที่บริษัท Big Tech ภายในประเทศใช้งานอยู่แล้ว → อาจใช้ทดแทนการขาด H100 ได้ระดับหนึ่ง

    ดาต้าเซ็นเตอร์จีนเติบโตอย่างรวดเร็ว → คาดว่ามูลค่าตลาดจะอยู่ที่ 300 พันล้านหยวนภายในปีนี้

    โครงการยังไม่ได้รับการยืนยันจากฝ่ายสหรัฐฯ → อาจอยู่ในระยะลับหรือวางแผนต้นแบบ

    จีนยังไม่หันไปใช้ชิป Huawei หรือทางเลือกในประเทศสำหรับระบบ hyperscale → แสดงถึงการพึ่ง NVIDIA เป็นหลัก

    https://wccftech.com/chinese-ai-firms-plans-massive-domestic-data-center-with-100000-nvidia-ai-chips/
    จีนกำลังสร้างเมืองแห่ง AI กลางทะเลทรายตะวันตก — โครงการนี้ถูกพัฒนาในเมืองอี้อู (Yiwu) โดยมีแผนจะวางระบบดาต้าเซ็นเตอร์ 36 แห่ง เชื่อมต่อกันผ่านโครงข่ายความเร็วสูง → ที่เด็ดคือจำนวนชิป H100/H200 ที่จะใช้งานรวมกันเกิน 115,000 ตัว! → เทียบเท่ากับกริดของบริษัทคลาวด์ขนาดใหญ่ระดับโลกในบางประเทศเลยทีเดียว แต่ปัญหาใหญ่อยู่ที่ข้อจำกัดของสหรัฐฯ ที่ห้ามส่งออก NVIDIA รุ่นสูง (H100/H200) ไปยังจีน → แล้ว “จีนจะหาชิปจากไหน?” Bloomberg รายงานว่ามีช่องทางหลายรูปแบบ ทั้ง: - การขนย้ายผ่านประเทศในเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซีย–สิงคโปร์ - การใช้ชิป H20 ที่ยังไม่ถูกควบคุมแบบเข้มข้น - และการใช้ loophole ด้านเทรดเพื่อเข้าสู่ระบบภายใน → แสดงให้เห็นว่า มาตรการคุมส่งออกยังไม่สามารถปิดทุกช่องทางได้ 100% บริษัทคลื่นลูกใหม่เช่น Zhipu AI และ DeepSeek เริ่มใช้คลัสเตอร์ระดับ Sovereign AI — ที่รัฐบาลสนับสนุนให้สร้าง AI ด้วยทรัพยากรภายในประเทศ → ซึ่งถ้าโครงการนี้เดินหน้าได้จริง = จีนจะมี compute power ที่ใกล้เคียงกับสหรัฐฯ โดยไม่ต้องพึ่งบริษัทตะวันตกเลย ✅ จีนกำลังสร้างโครงสร้างพื้นฐาน AI ขนาด hyperscale ที่ Yiwu → ครอบคลุม 36 ดาต้าเซ็นเตอร์ • มีแผนใช้ NVIDIA H100 / H200 รวมกว่า 115,000 ตัว   • เป็นหนึ่งในโครงการใหญ่ที่สุดที่เคยสร้างในจีนด้าน AI ✅ แม้ถูกสหรัฐฯ จำกัดการเข้าถึง H-series → ยังมีการขนย้ายผ่านช่องทางระดับ SEA (เช่น สิงคโปร์–มาเลเซีย) ✅ จีนยังมีคลัง H20 ที่บริษัท Big Tech ภายในประเทศใช้งานอยู่แล้ว → อาจใช้ทดแทนการขาด H100 ได้ระดับหนึ่ง ✅ ดาต้าเซ็นเตอร์จีนเติบโตอย่างรวดเร็ว → คาดว่ามูลค่าตลาดจะอยู่ที่ 300 พันล้านหยวนภายในปีนี้ ✅ โครงการยังไม่ได้รับการยืนยันจากฝ่ายสหรัฐฯ → อาจอยู่ในระยะลับหรือวางแผนต้นแบบ ✅ จีนยังไม่หันไปใช้ชิป Huawei หรือทางเลือกในประเทศสำหรับระบบ hyperscale → แสดงถึงการพึ่ง NVIDIA เป็นหลัก https://wccftech.com/chinese-ai-firms-plans-massive-domestic-data-center-with-100000-nvidia-ai-chips/
    WCCFTECH.COM
    Chinese AI Firms Plan Massive Domestic Data Centers With 100,000+ NVIDIA AI Chips — But Where Will the Chips Come From?
    It is reported that China's AI companies have put up a big ambition of installing a "hyperscale" level facility in the nation.
    0 Comments 0 Shares 330 Views 0 Reviews
  • อยู่ดี ๆ บน GitHub ก็มีรายงานจากกลุ่มชื่อ HonestAGI โพสต์งานวิเคราะห์ที่ชี้ว่า → Huawei ใช้ โมเดล Qwen 2.5–14B ของ Alibaba เป็นพื้นฐาน → แล้ว “ปรับแต่ง–ฝึกต่อ (incremental training)” กลายเป็น Pangu Pro MOE ที่เปิดตัวเมื่อเร็ว ๆ นี้ → รายงานนี้บอกว่าโมเดลสองตัวมี “ความคล้ายอย่างผิดปกติ” จนไม่น่าเกิดจากแค่บังเอิญ

    ประเด็นร้อนคือ:
    - ถ้าจริง = Huawei อาจ ละเมิดลิขสิทธิ์โมเดล + ใส่ข้อมูลเท็จในรายงานทางเทคนิค
    - ถ้าไม่จริง = HonestAGI เองก็ไม่มีโปร่งใส และไม่รู้ว่าเบื้องหลังเป็นใคร

    Huawei ไม่รอช้า ออกแถลงการณ์ผ่านห้องวิจัย AI “Noah’s Ark Lab” → ยืนยันว่า Pangu Pro Moe ฝึกจากศูนย์ (from scratch) → ชี้ว่าโมเดลนี้ใช้ Huawei Ascend chip ทุกขั้นตอน และ “ออกแบบโครงสร้างเองทั้งหมด” → ยอมรับว่าอ้างอิง open-source แต่ ปฏิบัติตามเงื่อนไขลิขสิทธิ์อย่างเคร่งครัด

    Alibaba ปฏิเสธให้ความเห็น และยังไม่มีตัวตนของ HonestAGI เปิดเผยอย่างชัดเจน

    หลายฝ่ายมองว่าเรื่องนี้สะท้อน “การแข่งขันและความกดดันสูง” ในวงการ LLM จีน ที่ตอนนี้ Qwen–DeepSeek–Pangu–Baichuan ต่างเปิดโมเดลแข่งกันอย่างดุเดือด

    กลุ่ม HonestAGI เผยแพร่งานวิเคราะห์โมเดล Huawei ว่า “มีความสัมพันธ์สูงผิดปกติกับ Qwen 2.5”  
    • คาดว่าฝึกต่อจากโมเดล Alibaba โดยไม่ฝึกเองตั้งแต่ต้น  
    • ชี้ว่าอาจมีการใส่ข้อมูลเท็จ–ละเมิด open source license

    Huawei ออกแถลงการณ์โต้ทันทีว่า “ไม่ได้ลอก”  
    • โมเดล Pangu Pro MOE ใช้ชิป Ascend ทั้งหมด  
    • พัฒนาเองทุกด้าน ทั้งสถาปัตยกรรมและข้อมูล  
    • ยอมรับใช้อ้างอิง open source แต่ไม่ระบุว่าใช้อะไรบ้าง

    Huawei เปิด source โมเดลนี้บน GitCode ตั้งแต่ปลาย มิ.ย. 2025 เพื่อให้เข้าถึงง่ายขึ้น  
    • พยายามผลักดันการใช้งานในสายรัฐบาล, การเงิน, อุตสาหกรรม

    โมเดล Qwen ของ Alibaba ถูกออกแบบมาเน้นใช้งานฝั่ง consumer เช่น chatbot เหมือน GPT

    จนถึงขณะนี้ Alibaba ยังไม่มีแถลงอย่างเป็นทางการ

    https://www.thestar.com.my/tech/tech-news/2025/07/07/huawei039s-ai-lab-denies-that-one-of-its-pangu-models-copied-alibaba039s-qwen
    อยู่ดี ๆ บน GitHub ก็มีรายงานจากกลุ่มชื่อ HonestAGI โพสต์งานวิเคราะห์ที่ชี้ว่า → Huawei ใช้ โมเดล Qwen 2.5–14B ของ Alibaba เป็นพื้นฐาน → แล้ว “ปรับแต่ง–ฝึกต่อ (incremental training)” กลายเป็น Pangu Pro MOE ที่เปิดตัวเมื่อเร็ว ๆ นี้ → รายงานนี้บอกว่าโมเดลสองตัวมี “ความคล้ายอย่างผิดปกติ” จนไม่น่าเกิดจากแค่บังเอิญ ประเด็นร้อนคือ: - ถ้าจริง = Huawei อาจ ละเมิดลิขสิทธิ์โมเดล + ใส่ข้อมูลเท็จในรายงานทางเทคนิค - ถ้าไม่จริง = HonestAGI เองก็ไม่มีโปร่งใส และไม่รู้ว่าเบื้องหลังเป็นใคร Huawei ไม่รอช้า ออกแถลงการณ์ผ่านห้องวิจัย AI “Noah’s Ark Lab” → ยืนยันว่า Pangu Pro Moe ฝึกจากศูนย์ (from scratch) → ชี้ว่าโมเดลนี้ใช้ Huawei Ascend chip ทุกขั้นตอน และ “ออกแบบโครงสร้างเองทั้งหมด” → ยอมรับว่าอ้างอิง open-source แต่ ปฏิบัติตามเงื่อนไขลิขสิทธิ์อย่างเคร่งครัด Alibaba ปฏิเสธให้ความเห็น และยังไม่มีตัวตนของ HonestAGI เปิดเผยอย่างชัดเจน หลายฝ่ายมองว่าเรื่องนี้สะท้อน “การแข่งขันและความกดดันสูง” ในวงการ LLM จีน ที่ตอนนี้ Qwen–DeepSeek–Pangu–Baichuan ต่างเปิดโมเดลแข่งกันอย่างดุเดือด ✅ กลุ่ม HonestAGI เผยแพร่งานวิเคราะห์โมเดล Huawei ว่า “มีความสัมพันธ์สูงผิดปกติกับ Qwen 2.5”   • คาดว่าฝึกต่อจากโมเดล Alibaba โดยไม่ฝึกเองตั้งแต่ต้น   • ชี้ว่าอาจมีการใส่ข้อมูลเท็จ–ละเมิด open source license ✅ Huawei ออกแถลงการณ์โต้ทันทีว่า “ไม่ได้ลอก”   • โมเดล Pangu Pro MOE ใช้ชิป Ascend ทั้งหมด   • พัฒนาเองทุกด้าน ทั้งสถาปัตยกรรมและข้อมูล   • ยอมรับใช้อ้างอิง open source แต่ไม่ระบุว่าใช้อะไรบ้าง ✅ Huawei เปิด source โมเดลนี้บน GitCode ตั้งแต่ปลาย มิ.ย. 2025 เพื่อให้เข้าถึงง่ายขึ้น   • พยายามผลักดันการใช้งานในสายรัฐบาล, การเงิน, อุตสาหกรรม ✅ โมเดล Qwen ของ Alibaba ถูกออกแบบมาเน้นใช้งานฝั่ง consumer เช่น chatbot เหมือน GPT ✅ จนถึงขณะนี้ Alibaba ยังไม่มีแถลงอย่างเป็นทางการ https://www.thestar.com.my/tech/tech-news/2025/07/07/huawei039s-ai-lab-denies-that-one-of-its-pangu-models-copied-alibaba039s-qwen
    WWW.THESTAR.COM.MY
    Huawei's AI lab denies that one of its Pangu models copied Alibaba's Qwen
    Huawei's artificial intelligence research division has rejected claims that a version of its Pangu Pro large language model has copied elements from an Alibaba model, saying that it was independently developed and trained.
    0 Comments 0 Shares 325 Views 0 Reviews
  • ก่อนหน้านี้ เรามักนึกถึง Alibaba, Huawei, Tencent ว่าเป็น “ยักษ์ใหญ่จีนในจีน” แต่วันนี้พวกเขามีเป้าหมายชัดเจนว่าจะขยายตัวสู่ตลาดโลก โดยเฉพาะในช่วงที่เทรนด์ AI Infrastructure กำลังระเบิด → ทุกประเทศต่างแย่งกันสร้างศูนย์ข้อมูล รัน LLMs และติดอาวุธให้ธุรกิจด้วย AI

    จากรายงานของ Taiwan Economic Daily ระบุว่า:
    - Alibaba Cloud ลงทุนกว่า ¥400 ล้านหยวนเพื่อขยายฐาน AI ทั่วโลก
    - Huawei เริ่มปักหมุด Ascend Chips ในมาเลเซีย
    - Tencent ก็เตรียมเปิดศูนย์ข้อมูลในต่างประเทศเพิ่มเติม

    แม้จะสู้ Big Tech อย่าง AWS, Azure, Google Cloud ในเรื่อง CapEx ยังไม่ได้ แต่ ฝั่งจีนชูจุดขายด้าน “นวัตกรรมวิศวกรรม” และราคาย่อมเยา แถมมีโมเดล AI ที่เริ่มตีตื้น LLM ฝั่งตะวันตก เช่น Qwen2.5-Max, DeepSeek R1/R2

    โดยเฉพาะในตลาดเอเชียตะวันออกเฉียงใต้และตะวันออกกลาง ซึ่งยังเปิดกว้าง และไม่ยึดติดกับเทคโนโลยีจากฝั่งสหรัฐฯ → กลายเป็นสนามประลองใหม่ของ CSP จีนและอเมริกา

    Alibaba Cloud ลงทุนกว่า 400 ล้านหยวน (ราว 2 พันล้านบาท) ขยายบริการ AI Infrastructure สู่ต่างประเทศ  
    • เปิดศูนย์ข้อมูลในกว่า 29 ภูมิภาคนอกจีน  
    • เจาะตลาดเอเชียตะวันออกเฉียงใต้ ตะวันออกกลาง อย่างมาเลเซีย ไทย ฯลฯ

    Huawei ส่งชิป AI “Ascend” ลงพื้นที่ เช่นในมาเลเซีย เพื่อทดแทน GPU จากตะวันตก  
    • ใช้เป็นทางเลือกในการฝึกและรัน LLM แบบ sovereign AI

    Tencent และ Alibaba มี LLM รุ่นล่าสุดที่แข่งขันกับ GPT–Claude ได้ในบาง benchmark
    • เช่น Qwen2.5-Max, DeepSeek R1/R2  
    • แม้จะใช้ฮาร์ดแวร์ที่ “ด้อยกว่า” แต่ยังสร้างผลงานเทียบเคียงกันได้

    วิศวกรรม + ราคา ถูกชูเป็นข้อได้เปรียบเพื่อเจาะตลาดต่างประเทศ  
    • ไม่เน้น CapEx หนักแบบ AWS แต่ใช้ “โซลูชันเฉพาะกลุ่ม”

    ตลาดเป้าหมายหลักคือ: เอเชียตะวันออกเฉียงใต้, อ่าวเปอร์เซีย, ประเทศกำลังพัฒนา

    https://wccftech.com/china-big-tech-csp-are-accelerating-their-overseas-expansion/
    ก่อนหน้านี้ เรามักนึกถึง Alibaba, Huawei, Tencent ว่าเป็น “ยักษ์ใหญ่จีนในจีน” แต่วันนี้พวกเขามีเป้าหมายชัดเจนว่าจะขยายตัวสู่ตลาดโลก โดยเฉพาะในช่วงที่เทรนด์ AI Infrastructure กำลังระเบิด → ทุกประเทศต่างแย่งกันสร้างศูนย์ข้อมูล รัน LLMs และติดอาวุธให้ธุรกิจด้วย AI 📌 จากรายงานของ Taiwan Economic Daily ระบุว่า: - Alibaba Cloud ลงทุนกว่า ¥400 ล้านหยวนเพื่อขยายฐาน AI ทั่วโลก - Huawei เริ่มปักหมุด Ascend Chips ในมาเลเซีย - Tencent ก็เตรียมเปิดศูนย์ข้อมูลในต่างประเทศเพิ่มเติม แม้จะสู้ Big Tech อย่าง AWS, Azure, Google Cloud ในเรื่อง CapEx ยังไม่ได้ แต่ ฝั่งจีนชูจุดขายด้าน “นวัตกรรมวิศวกรรม” และราคาย่อมเยา แถมมีโมเดล AI ที่เริ่มตีตื้น LLM ฝั่งตะวันตก เช่น Qwen2.5-Max, DeepSeek R1/R2 📍 โดยเฉพาะในตลาดเอเชียตะวันออกเฉียงใต้และตะวันออกกลาง ซึ่งยังเปิดกว้าง และไม่ยึดติดกับเทคโนโลยีจากฝั่งสหรัฐฯ → กลายเป็นสนามประลองใหม่ของ CSP จีนและอเมริกา ✅ Alibaba Cloud ลงทุนกว่า 400 ล้านหยวน (ราว 2 พันล้านบาท) ขยายบริการ AI Infrastructure สู่ต่างประเทศ   • เปิดศูนย์ข้อมูลในกว่า 29 ภูมิภาคนอกจีน   • เจาะตลาดเอเชียตะวันออกเฉียงใต้ ตะวันออกกลาง อย่างมาเลเซีย ไทย ฯลฯ ✅ Huawei ส่งชิป AI “Ascend” ลงพื้นที่ เช่นในมาเลเซีย เพื่อทดแทน GPU จากตะวันตก   • ใช้เป็นทางเลือกในการฝึกและรัน LLM แบบ sovereign AI ✅ Tencent และ Alibaba มี LLM รุ่นล่าสุดที่แข่งขันกับ GPT–Claude ได้ในบาง benchmark • เช่น Qwen2.5-Max, DeepSeek R1/R2   • แม้จะใช้ฮาร์ดแวร์ที่ “ด้อยกว่า” แต่ยังสร้างผลงานเทียบเคียงกันได้ ✅ วิศวกรรม + ราคา ถูกชูเป็นข้อได้เปรียบเพื่อเจาะตลาดต่างประเทศ   • ไม่เน้น CapEx หนักแบบ AWS แต่ใช้ “โซลูชันเฉพาะกลุ่ม” ✅ ตลาดเป้าหมายหลักคือ: เอเชียตะวันออกเฉียงใต้, อ่าวเปอร์เซีย, ประเทศกำลังพัฒนา https://wccftech.com/china-big-tech-csp-are-accelerating-their-overseas-expansion/
    WCCFTECH.COM
    China's "Big Tech" CSPs Are Accelerating Their Overseas Expansion; Alibaba, Huawei & Tencent To Spend Billions On Global AI Infrastructure
    Major Chinese CSPs are now pushing towards making moves in the global AI markets, as Huawei, Tencent, and others allocate massive capital.
    0 Comments 0 Shares 364 Views 0 Reviews
  • ตอนแรกไม่มีใครเอะใจว่าทำไม ยอดขายของ NVIDIA ในสิงคโปร์ปี 2024 พุ่งถึง 28% ทั้งที่จัดส่งจริงในประเทศมีแค่ 1% — จนกระทั่ง DeepSeek เปิดตัวโมเดล LLM ระดับเทพในจีน… แล้วคำถามเริ่มตามมาว่า “GPU ที่ใช้เทรนได้มายังไง?”

    คำตอบอาจอยู่ที่คน 3 คนที่โดนจับในสิงคโปร์:
    - Woon Guo Jie (สิงคโปร์, 41 ปี)
    - Alan Wei Zhaolun (สิงคโปร์, 49 ปี)
    - Li Ming (จีน, 51 ปี)

    พวกเขาถูกกล่าวหาว่า แสดงข้อมูลปลอมเกี่ยวกับปลายทางของเซิร์ฟเวอร์ที่ซื้อจากสหรัฐฯ แล้วส่งต่อเข้าแดนจีน — ข้ามข้อกำหนดการส่งออกของสหรัฐฯ ที่ห้ามส่งอุปกรณ์ AI ขั้นสูงเข้าจีนโดยตรง

    การสืบสวนถูกเร่งด่วนขึ้นหลัง DeepSeek เปิดตัว และพบว่า บริษัทใช้ GPU ระดับสูงที่ถูกควบคุมการส่งออก แต่ด้าน NVIDIA ปฏิเสธว่า “ไม่เคยขายให้ผู้ต้องห้าม” และ CEO Jensen Huang ก็ออกมาบอกชัดว่า “ไม่มีหลักฐานชิปหลุดไปถึงมือผิด”

    ปัญหาคือ ช่องทางผ่าน “บริษัทบิลจากสิงคโปร์” แต่จัดส่งสินค้ากลับไปยังจีนหรือมาเลเซีย เป็นสิ่งที่พบได้ทั่วไปในอุตสาหกรรมการค้า → ทำให้สหรัฐฯ เตรียมร่างกฎหมายใหม่ที่บังคับให้ GPU ชั้นสูงต้องมี “ระบบติดตาม GPS” ตลอดการขนส่ง

    สามผู้ต้องหาในสิงคโปร์ถูกตั้งข้อหาฉ้อโกงในปี 2023–2024  
    • แสดงข้อมูลเท็จเกี่ยวกับปลายทางจริงของเซิร์ฟเวอร์ที่ซื้อ  
    • เชื่อมโยงกับการส่งมอบชิปให้บริษัทจีน DeepSeek ซึ่งอยู่ระหว่างจับตามอง

    DeepSeek เป็นบริษัท AI สัญชาติจีนที่เปิดตัวโมเดลขนาดใหญ่ปลายปี 2024  
    • เทียบระดับ GPT-4 และ Claude  
    • สหรัฐสงสัยว่า GPU ที่ใช้มาจากแหล่งผิดกฎหมายผ่านชาติที่ 3

    NVIDIA รายงานว่าสิงคโปร์คิดเป็น 28% ของรายได้ในช่วงเวลาดังกล่าว แต่จัดส่งจริงแค่ 1%  
    • จุดชนวนให้เริ่มสืบสวนช่องทางการส่งต่อ

    NVIDIA ปฏิเสธว่าไม่ได้ขายให้รายชื่อที่ถูกแบน และไม่รู้เห็นการลักลอบ  
    • CEO ยืนยัน “ไม่มีหลักฐาน GPU หลุดไปถึง DeepSeek”

    สหรัฐฯ เตรียมออกกฎหมายให้ติดระบบติดตาม (tracking tech) กับ GPU ขั้นสูงที่ส่งออก  
    • เพื่อป้องกันการถูก “เบี่ยงปลายทาง” (diversion) ไปยังประเทศต้องห้าม

    สิงคโปร์ถือเป็นศูนย์กลางการค้าในภูมิภาค → การใช้ billing address จากที่นี่แต่จัดส่งที่อื่นเป็นเรื่องปกติ

    https://www.tomshardware.com/tech-industry/singapore-ai-chip-court-case-adjourned-until-august-trio-accused-of-illegally-smuggling-nvidia-chips-to-china-for-use-by-ai-firm-deepseek
    ตอนแรกไม่มีใครเอะใจว่าทำไม ยอดขายของ NVIDIA ในสิงคโปร์ปี 2024 พุ่งถึง 28% ทั้งที่จัดส่งจริงในประเทศมีแค่ 1% — จนกระทั่ง DeepSeek เปิดตัวโมเดล LLM ระดับเทพในจีน… แล้วคำถามเริ่มตามมาว่า “GPU ที่ใช้เทรนได้มายังไง?” คำตอบอาจอยู่ที่คน 3 คนที่โดนจับในสิงคโปร์: - Woon Guo Jie (สิงคโปร์, 41 ปี) - Alan Wei Zhaolun (สิงคโปร์, 49 ปี) - Li Ming (จีน, 51 ปี) พวกเขาถูกกล่าวหาว่า แสดงข้อมูลปลอมเกี่ยวกับปลายทางของเซิร์ฟเวอร์ที่ซื้อจากสหรัฐฯ แล้วส่งต่อเข้าแดนจีน — ข้ามข้อกำหนดการส่งออกของสหรัฐฯ ที่ห้ามส่งอุปกรณ์ AI ขั้นสูงเข้าจีนโดยตรง การสืบสวนถูกเร่งด่วนขึ้นหลัง DeepSeek เปิดตัว และพบว่า บริษัทใช้ GPU ระดับสูงที่ถูกควบคุมการส่งออก แต่ด้าน NVIDIA ปฏิเสธว่า “ไม่เคยขายให้ผู้ต้องห้าม” และ CEO Jensen Huang ก็ออกมาบอกชัดว่า “ไม่มีหลักฐานชิปหลุดไปถึงมือผิด” ปัญหาคือ ช่องทางผ่าน “บริษัทบิลจากสิงคโปร์” แต่จัดส่งสินค้ากลับไปยังจีนหรือมาเลเซีย เป็นสิ่งที่พบได้ทั่วไปในอุตสาหกรรมการค้า → ทำให้สหรัฐฯ เตรียมร่างกฎหมายใหม่ที่บังคับให้ GPU ชั้นสูงต้องมี “ระบบติดตาม GPS” ตลอดการขนส่ง ✅ สามผู้ต้องหาในสิงคโปร์ถูกตั้งข้อหาฉ้อโกงในปี 2023–2024   • แสดงข้อมูลเท็จเกี่ยวกับปลายทางจริงของเซิร์ฟเวอร์ที่ซื้อ   • เชื่อมโยงกับการส่งมอบชิปให้บริษัทจีน DeepSeek ซึ่งอยู่ระหว่างจับตามอง ✅ DeepSeek เป็นบริษัท AI สัญชาติจีนที่เปิดตัวโมเดลขนาดใหญ่ปลายปี 2024   • เทียบระดับ GPT-4 และ Claude   • สหรัฐสงสัยว่า GPU ที่ใช้มาจากแหล่งผิดกฎหมายผ่านชาติที่ 3 ✅ NVIDIA รายงานว่าสิงคโปร์คิดเป็น 28% ของรายได้ในช่วงเวลาดังกล่าว แต่จัดส่งจริงแค่ 1%   • จุดชนวนให้เริ่มสืบสวนช่องทางการส่งต่อ ✅ NVIDIA ปฏิเสธว่าไม่ได้ขายให้รายชื่อที่ถูกแบน และไม่รู้เห็นการลักลอบ   • CEO ยืนยัน “ไม่มีหลักฐาน GPU หลุดไปถึง DeepSeek” ✅ สหรัฐฯ เตรียมออกกฎหมายให้ติดระบบติดตาม (tracking tech) กับ GPU ขั้นสูงที่ส่งออก   • เพื่อป้องกันการถูก “เบี่ยงปลายทาง” (diversion) ไปยังประเทศต้องห้าม ✅ สิงคโปร์ถือเป็นศูนย์กลางการค้าในภูมิภาค → การใช้ billing address จากที่นี่แต่จัดส่งที่อื่นเป็นเรื่องปกติ https://www.tomshardware.com/tech-industry/singapore-ai-chip-court-case-adjourned-until-august-trio-accused-of-illegally-smuggling-nvidia-chips-to-china-for-use-by-ai-firm-deepseek
    0 Comments 0 Shares 445 Views 0 Reviews
  • ในขณะที่หลายคนเพิ่งเริ่มได้ยินชื่อ DeepSeek (อีกหนึ่งสตาร์ทอัพจีนที่โตเร็วมาก) — แต่เบื้องหลังกลับมีผู้เล่นที่น่ากลัวกว่าคือ Zhipu AI

    Zhipu ไม่ได้เน้นทำโมเดลมาโชว์เหมือน OpenAI หรือ Baidu แต่ “ลงลึกกับรัฐบาล” โดยร่วมมือกับประเทศอย่างซาอุฯ, สหรัฐอาหรับเอมิเรตส์, มาเลเซีย และสิงคโปร์ เพื่อ:
    - สร้าง ระบบโครงสร้างพื้นฐาน AI ที่เป็นของรัฐ (sovereign LLM infrastructure)
    - วางขายโมเดลที่รันในคลาวด์ปิด ใช้ได้เฉพาะในประเทศ
    - ใช้ฮาร์ดแวร์จาก Huawei เป็นเบื้องหลัง

    หนึ่งในผลงานเด่นคือ AutoGLM Rumination Agent ซึ่งเก่งเรื่องการวิเคราะห์บริบทซับซ้อนและควบคุมเบราว์เซอร์จากคำสั่งได้

    นอกจากนี้ Zhipu ยังได้รับเงินสนับสนุนจากภาครัฐจีนกว่า $1.4 พันล้าน และทุนเอกชนจากซาอุฯ อีกราว $400 ล้าน → สะท้อนว่าโมเดลธุรกิจของเขาไม่ได้แค่ขายโมเดล แต่ขาย “เอกราชทางดิจิทัล” ให้ประเทศพันธมิตรเลยทีเดียว

    Zhipu AI คือสตาร์ทอัพจากจีนที่เน้นพัฒนา ‘sovereign AI infrastructure’ สำหรับรัฐบาลต่างประเทศ  
    • สร้างคลาวด์และโมเดล LLM ที่รันภายในประเทศลูกค้าโดยเฉพาะ  
    • แตกต่างจาก DeepSeek ที่เน้นแข่งขันเชิงโมเดล LLM โดยตรง

    ได้รับเงินลงทุนกว่า $1.8 พันล้าน จากทั้งรัฐจีนและนักลงทุนในตะวันออกกลาง (เช่น Prosperity7 จากซาอุฯ)  
    • สะท้อนความเชื่อมั่นในโมเดลธุรกิจลึกเชิงโครงสร้างมากกว่าบริการแอปพลิเคชันทั่วไป

    มีพันธมิตรร่วมพัฒนาโครงสร้างพื้นฐานกับ Huawei  
    • นำเสนอทางเลือกใหม่สำหรับประเทศที่ไม่ต้องการพึ่งพา OpenAI หรือ Nvidia

    โมเดล AutoGLM มีความสามารถเทียบเท่ากับโมเดลระดับบนในเรื่องการสั่งงานอัตโนมัติและ long-context reasoning

    กลุ่มเป้าหมายหลักของ Zhipu ได้แก่ประเทศในตะวันออกกลางและเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซียและสิงคโปร์  
    • ชี้ว่าจีนพยายามขยายอิทธิพลทางดิจิทัลนอกประเทศอย่างชัดเจน

    https://wccftech.com/chinese-startup-zhipu-ai-seen-as-a-much-greater-threat-than-deepseek-to-us-ai-dominance/
    ในขณะที่หลายคนเพิ่งเริ่มได้ยินชื่อ DeepSeek (อีกหนึ่งสตาร์ทอัพจีนที่โตเร็วมาก) — แต่เบื้องหลังกลับมีผู้เล่นที่น่ากลัวกว่าคือ Zhipu AI Zhipu ไม่ได้เน้นทำโมเดลมาโชว์เหมือน OpenAI หรือ Baidu แต่ “ลงลึกกับรัฐบาล” โดยร่วมมือกับประเทศอย่างซาอุฯ, สหรัฐอาหรับเอมิเรตส์, มาเลเซีย และสิงคโปร์ เพื่อ: - สร้าง ระบบโครงสร้างพื้นฐาน AI ที่เป็นของรัฐ (sovereign LLM infrastructure) - วางขายโมเดลที่รันในคลาวด์ปิด ใช้ได้เฉพาะในประเทศ - ใช้ฮาร์ดแวร์จาก Huawei เป็นเบื้องหลัง หนึ่งในผลงานเด่นคือ AutoGLM Rumination Agent ซึ่งเก่งเรื่องการวิเคราะห์บริบทซับซ้อนและควบคุมเบราว์เซอร์จากคำสั่งได้ นอกจากนี้ Zhipu ยังได้รับเงินสนับสนุนจากภาครัฐจีนกว่า $1.4 พันล้าน และทุนเอกชนจากซาอุฯ อีกราว $400 ล้าน → สะท้อนว่าโมเดลธุรกิจของเขาไม่ได้แค่ขายโมเดล แต่ขาย “เอกราชทางดิจิทัล” ให้ประเทศพันธมิตรเลยทีเดียว ✅ Zhipu AI คือสตาร์ทอัพจากจีนที่เน้นพัฒนา ‘sovereign AI infrastructure’ สำหรับรัฐบาลต่างประเทศ   • สร้างคลาวด์และโมเดล LLM ที่รันภายในประเทศลูกค้าโดยเฉพาะ   • แตกต่างจาก DeepSeek ที่เน้นแข่งขันเชิงโมเดล LLM โดยตรง ✅ ได้รับเงินลงทุนกว่า $1.8 พันล้าน จากทั้งรัฐจีนและนักลงทุนในตะวันออกกลาง (เช่น Prosperity7 จากซาอุฯ)   • สะท้อนความเชื่อมั่นในโมเดลธุรกิจลึกเชิงโครงสร้างมากกว่าบริการแอปพลิเคชันทั่วไป ✅ มีพันธมิตรร่วมพัฒนาโครงสร้างพื้นฐานกับ Huawei   • นำเสนอทางเลือกใหม่สำหรับประเทศที่ไม่ต้องการพึ่งพา OpenAI หรือ Nvidia ✅ โมเดล AutoGLM มีความสามารถเทียบเท่ากับโมเดลระดับบนในเรื่องการสั่งงานอัตโนมัติและ long-context reasoning ✅ กลุ่มเป้าหมายหลักของ Zhipu ได้แก่ประเทศในตะวันออกกลางและเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซียและสิงคโปร์   • ชี้ว่าจีนพยายามขยายอิทธิพลทางดิจิทัลนอกประเทศอย่างชัดเจน https://wccftech.com/chinese-startup-zhipu-ai-seen-as-a-much-greater-threat-than-deepseek-to-us-ai-dominance/
    WCCFTECH.COM
    Chinese Startup Zhipu AI Seen as a Much Greater Threat Than DeepSeek to U.S. AI Dominance, Making Massive Moves in the Realm of Sovereign AI
    DeepSeek has just got a new competitor, and the Chinese startup Zhipu AI is on a broader and impactful mission.
    0 Comments 0 Shares 291 Views 0 Reviews
  • DeepSeek เป็นบริษัท AI สัญชาติจีนที่สร้างชื่อจากโมเดลภาษาขั้นสูง “R1” ซึ่งเคยเทรนด้วย GPU มากถึง 50,000 ตัว (รวม H20, H800, H100) ที่ได้มาจากกองทุน High-Flyer Capital

    แต่ตอนนี้ปัญหาคือ H20 กลายเป็นชิปต้องห้าม จากมาตรการคุมส่งออกของรัฐบาลสหรัฐฯ — ซึ่งเกิดขึ้นตั้งแต่กลางเดือนเมษายนที่ผ่านมา ทำให้ DeepSeek ไม่สามารถหา GPU ใหม่มาใช้งานได้อีก

    สิ่งที่น่าห่วงคือ:
    - ผู้ใช้งานของ R1 จำนวนมากรันอยู่บน H20 → ตอนนี้เริ่มใช้งานติดขัด
    - R2 ยังไม่เสร็จดี ซีอีโอของ DeepSeek ก็ยังไม่พอใจผลลัพธ์เท่าที่ควร
    - ถ้า R2 เปิดตัวได้ไม่แรงพอ อาจเสียจังหวะให้คู่แข่งคนอื่นแซงในตลาด LLM จีน

    นี่สะท้อนว่าบริษัท AI จีนยังพึ่งพา ฮาร์ดแวร์ + ซอฟต์แวร์จากสหรัฐฯ อย่างลึกซึ้งมาก โดยเฉพาะ CUDA stack ของ Nvidia ที่ยังไม่มีทางออกที่เทียบเท่าได้ง่าย ๆ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-disruptor-deepseeks-next-gen-model-delayed-by-nvidia-h20-restrictions-short-supply-of-accelerators-hinders-development
    DeepSeek เป็นบริษัท AI สัญชาติจีนที่สร้างชื่อจากโมเดลภาษาขั้นสูง “R1” ซึ่งเคยเทรนด้วย GPU มากถึง 50,000 ตัว (รวม H20, H800, H100) ที่ได้มาจากกองทุน High-Flyer Capital แต่ตอนนี้ปัญหาคือ H20 กลายเป็นชิปต้องห้าม จากมาตรการคุมส่งออกของรัฐบาลสหรัฐฯ — ซึ่งเกิดขึ้นตั้งแต่กลางเดือนเมษายนที่ผ่านมา ทำให้ DeepSeek ไม่สามารถหา GPU ใหม่มาใช้งานได้อีก สิ่งที่น่าห่วงคือ: - ผู้ใช้งานของ R1 จำนวนมากรันอยู่บน H20 → ตอนนี้เริ่มใช้งานติดขัด - R2 ยังไม่เสร็จดี ซีอีโอของ DeepSeek ก็ยังไม่พอใจผลลัพธ์เท่าที่ควร - ถ้า R2 เปิดตัวได้ไม่แรงพอ อาจเสียจังหวะให้คู่แข่งคนอื่นแซงในตลาด LLM จีน นี่สะท้อนว่าบริษัท AI จีนยังพึ่งพา ฮาร์ดแวร์ + ซอฟต์แวร์จากสหรัฐฯ อย่างลึกซึ้งมาก โดยเฉพาะ CUDA stack ของ Nvidia ที่ยังไม่มีทางออกที่เทียบเท่าได้ง่าย ๆ https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-disruptor-deepseeks-next-gen-model-delayed-by-nvidia-h20-restrictions-short-supply-of-accelerators-hinders-development
    0 Comments 0 Shares 281 Views 0 Reviews
More Results