• เมื่อ Tesla ต้องปรับตัวเพื่ออยู่รอดในตลาดจีน ด้วย AI ที่พูดภาษาท้องถิ่น

    Tesla กำลังเผชิญกับการแข่งขันที่ดุเดือดในตลาดรถยนต์ไฟฟ้าจีน ซึ่งเต็มไปด้วยแบรนด์ท้องถิ่นที่ใส่เทคโนโลยีล้ำหน้าเข้าไปในรถอย่างไม่หยุดยั้ง เพื่อรับมือกับสถานการณ์นี้ Tesla จึงตัดสินใจเปลี่ยนกลยุทธ์ด้านซอฟต์แวร์ โดยนำโมเดล AI สัญชาติจีนอย่าง DeepSeek และ Doubao มาใช้ในระบบผู้ช่วยเสียงภายในรถยนต์

    Doubao ซึ่งพัฒนาโดย ByteDance จะรับหน้าที่ประมวลผลคำสั่งเสียง เช่น การนำทาง การควบคุมอุณหภูมิ และการเล่นเพลง ส่วน DeepSeek จะทำหน้าที่เป็นผู้ช่วยสนทนาอัจฉริยะที่สามารถตอบคำถามหลายขั้นตอนและเข้าใจบริบทได้ลึกขึ้น ทั้งสองโมเดลจะทำงานผ่านคลาวด์ของ Volcano Engine ซึ่งเป็นบริการของ ByteDance เช่นกัน

    การเปลี่ยนแปลงนี้เกิดขึ้นเพราะข้อจำกัดด้านกฎหมายของจีนที่ไม่อนุญาตให้ส่งข้อมูลผู้ใช้ไปยังเซิร์ฟเวอร์ต่างประเทศ ทำให้ Tesla ไม่สามารถใช้ Grok ซึ่งเป็นโมเดลของ xAI ที่ใช้ในสหรัฐฯ ได้

    นอกจากนี้ Tesla ยังเปิดตัว Model Y L รุ่นใหม่แบบ 6 ที่นั่งในจีน ซึ่งเป็นรุ่นแรกที่รองรับผู้ช่วยเสียงแบบ “Hey, Tesla” โดยไม่ต้องกดปุ่มบนพวงมาลัยเหมือนรุ่นก่อน ๆ

    การเคลื่อนไหวนี้สะท้อนถึงความจำเป็นที่ Tesla ต้องปรับตัวให้เข้ากับวัฒนธรรมเทคโนโลยีของจีน ซึ่งผู้ใช้คุ้นเคยกับระบบผู้ช่วยเสียงที่ตอบสนองได้รวดเร็วและเชื่อมโยงกับบริการท้องถิ่น เช่น แผนที่จีน แอปส่งอาหาร และระบบชำระเงิน

    สรุปเนื้อหาเป็นหัวข้อ
    Tesla เตรียมใช้ AI สัญชาติจีน DeepSeek และ Doubao ในรถยนต์ที่จำหน่ายในจีน
    Doubao รับหน้าที่ประมวลผลคำสั่งเสียง เช่น นำทาง เพลง อุณหภูมิ
    DeepSeek ทำหน้าที่สนทนาอัจฉริยะ ตอบคำถามหลายขั้นตอน
    ทั้งสองโมเดลทำงานผ่านคลาวด์ Volcano Engine ของ ByteDance
    Tesla ไม่สามารถใช้ Grok ในจีนเพราะข้อจำกัดด้านกฎหมายและการจัดการข้อมูล
    ผู้ใช้สามารถเรียกผู้ช่วยเสียงด้วยคำว่า “Hey, Tesla” หรือกำหนดเองได้
    Tesla เปิดตัว Model Y L รุ่นใหม่แบบ 6 ที่นั่งในจีน รองรับระบบ AI เต็มรูปแบบ
    การเปลี่ยนแปลงนี้เกิดจากการแข่งขันกับแบรนด์จีน เช่น BYD และ Geely
    BMW ก็ใช้โมเดล Qwen จาก Alibaba ในรถรุ่นใหม่ที่จำหน่ายในจีน
    ยังไม่มีการยืนยันว่า AI ทั้งสองถูกติดตั้งในรถทุกคันแล้ว

    ข้อมูลเสริมจากภายนอก
    DeepSeek ได้รับความนิยมในจีนหลังเปิดตัวรุ่น R1 และ V3.1 ที่มีความสามารถด้าน reasoning สูง
    ระบบผู้ช่วยเสียงในรถยนต์จีนสามารถเชื่อมต่อกับบริการท้องถิ่น เช่น Alipay, Meituan, Gaode Maps
    LLMs เช่น ChatGPT, Qwen, และ DeepSeek ถูกนำมาใช้ในรถยนต์มากขึ้นทั่วโลก
    การใช้ AI ในรถยนต์ช่วยเพิ่มความปลอดภัยและความสะดวกในการขับขี่
    การใช้โมเดลท้องถิ่นช่วยให้ตอบสนองต่อภาษาถิ่นและพฤติกรรมผู้ใช้ได้แม่นยำกว่าโมเดลสากล

    https://www.thestar.com.my/tech/tech-news/2025/08/22/tesla-to-integrate-deepseek-doubao-ai-voice-controls-in-china
    🎙️ เมื่อ Tesla ต้องปรับตัวเพื่ออยู่รอดในตลาดจีน ด้วย AI ที่พูดภาษาท้องถิ่น Tesla กำลังเผชิญกับการแข่งขันที่ดุเดือดในตลาดรถยนต์ไฟฟ้าจีน ซึ่งเต็มไปด้วยแบรนด์ท้องถิ่นที่ใส่เทคโนโลยีล้ำหน้าเข้าไปในรถอย่างไม่หยุดยั้ง เพื่อรับมือกับสถานการณ์นี้ Tesla จึงตัดสินใจเปลี่ยนกลยุทธ์ด้านซอฟต์แวร์ โดยนำโมเดล AI สัญชาติจีนอย่าง DeepSeek และ Doubao มาใช้ในระบบผู้ช่วยเสียงภายในรถยนต์ Doubao ซึ่งพัฒนาโดย ByteDance จะรับหน้าที่ประมวลผลคำสั่งเสียง เช่น การนำทาง การควบคุมอุณหภูมิ และการเล่นเพลง ส่วน DeepSeek จะทำหน้าที่เป็นผู้ช่วยสนทนาอัจฉริยะที่สามารถตอบคำถามหลายขั้นตอนและเข้าใจบริบทได้ลึกขึ้น ทั้งสองโมเดลจะทำงานผ่านคลาวด์ของ Volcano Engine ซึ่งเป็นบริการของ ByteDance เช่นกัน การเปลี่ยนแปลงนี้เกิดขึ้นเพราะข้อจำกัดด้านกฎหมายของจีนที่ไม่อนุญาตให้ส่งข้อมูลผู้ใช้ไปยังเซิร์ฟเวอร์ต่างประเทศ ทำให้ Tesla ไม่สามารถใช้ Grok ซึ่งเป็นโมเดลของ xAI ที่ใช้ในสหรัฐฯ ได้ นอกจากนี้ Tesla ยังเปิดตัว Model Y L รุ่นใหม่แบบ 6 ที่นั่งในจีน ซึ่งเป็นรุ่นแรกที่รองรับผู้ช่วยเสียงแบบ “Hey, Tesla” โดยไม่ต้องกดปุ่มบนพวงมาลัยเหมือนรุ่นก่อน ๆ การเคลื่อนไหวนี้สะท้อนถึงความจำเป็นที่ Tesla ต้องปรับตัวให้เข้ากับวัฒนธรรมเทคโนโลยีของจีน ซึ่งผู้ใช้คุ้นเคยกับระบบผู้ช่วยเสียงที่ตอบสนองได้รวดเร็วและเชื่อมโยงกับบริการท้องถิ่น เช่น แผนที่จีน แอปส่งอาหาร และระบบชำระเงิน 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Tesla เตรียมใช้ AI สัญชาติจีน DeepSeek และ Doubao ในรถยนต์ที่จำหน่ายในจีน ➡️ Doubao รับหน้าที่ประมวลผลคำสั่งเสียง เช่น นำทาง เพลง อุณหภูมิ ➡️ DeepSeek ทำหน้าที่สนทนาอัจฉริยะ ตอบคำถามหลายขั้นตอน ➡️ ทั้งสองโมเดลทำงานผ่านคลาวด์ Volcano Engine ของ ByteDance ➡️ Tesla ไม่สามารถใช้ Grok ในจีนเพราะข้อจำกัดด้านกฎหมายและการจัดการข้อมูล ➡️ ผู้ใช้สามารถเรียกผู้ช่วยเสียงด้วยคำว่า “Hey, Tesla” หรือกำหนดเองได้ ➡️ Tesla เปิดตัว Model Y L รุ่นใหม่แบบ 6 ที่นั่งในจีน รองรับระบบ AI เต็มรูปแบบ ➡️ การเปลี่ยนแปลงนี้เกิดจากการแข่งขันกับแบรนด์จีน เช่น BYD และ Geely ➡️ BMW ก็ใช้โมเดล Qwen จาก Alibaba ในรถรุ่นใหม่ที่จำหน่ายในจีน ➡️ ยังไม่มีการยืนยันว่า AI ทั้งสองถูกติดตั้งในรถทุกคันแล้ว ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek ได้รับความนิยมในจีนหลังเปิดตัวรุ่น R1 และ V3.1 ที่มีความสามารถด้าน reasoning สูง ➡️ ระบบผู้ช่วยเสียงในรถยนต์จีนสามารถเชื่อมต่อกับบริการท้องถิ่น เช่น Alipay, Meituan, Gaode Maps ➡️ LLMs เช่น ChatGPT, Qwen, และ DeepSeek ถูกนำมาใช้ในรถยนต์มากขึ้นทั่วโลก ➡️ การใช้ AI ในรถยนต์ช่วยเพิ่มความปลอดภัยและความสะดวกในการขับขี่ ➡️ การใช้โมเดลท้องถิ่นช่วยให้ตอบสนองต่อภาษาถิ่นและพฤติกรรมผู้ใช้ได้แม่นยำกว่าโมเดลสากล https://www.thestar.com.my/tech/tech-news/2025/08/22/tesla-to-integrate-deepseek-doubao-ai-voice-controls-in-china
    WWW.THESTAR.COM.MY
    Tesla to integrate Deepseek, Doubao AI voice controls in China
    Tesla Inc plans to introduce in-car voice assistant functions powered by Deepseek and Bytedance Ltd's Doubao artificial intelligence as it aims to catch local rivals who offer similar features.
    0 Comments 0 Shares 88 Views 0 Reviews
  • MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร

    MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB

    การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ

    จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว

    แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก

    สเปกและการออกแบบของ Arc Pro B60 Dual
    ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6
    มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s
    ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21
    เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน
    ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate

    จุดเด่นด้านการใช้งาน
    เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง
    รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV
    ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation
    ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์

    การวางจำหน่ายและราคา
    เปิดตัววันที่ 18 สิงหาคม 2025
    ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU
    ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป
    หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090

    Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด
    ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด
    ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น
    การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป
    หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์

    https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    🧠 MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก ✅ สเปกและการออกแบบของ Arc Pro B60 Dual ➡️ ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6 ➡️ มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s ➡️ ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 ➡️ เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน ➡️ ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate ✅ จุดเด่นด้านการใช้งาน ➡️ เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง ➡️ รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV ➡️ ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation ➡️ ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์ ✅ การวางจำหน่ายและราคา ➡️ เปิดตัววันที่ 18 สิงหาคม 2025 ➡️ ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU ➡️ ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป ➡️ หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090 ⛔ Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด ⛔ ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด ⛔ ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น ⛔ การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป ⛔ หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์ https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    WCCFTECH.COM
    As MAXSUN Prepares To Launch Arc Pro B60 Dual GPU Next Week, Intel Is Supposedly Facing Inventory Issues With B60
    According to a conversation between a company and MAXSUN's manager, the GPU manufacturer is expected to launch the Arc Pro B60 Dual next week
    0 Comments 0 Shares 201 Views 0 Reviews
  • DeepSeek R2: โมเดล AI ที่สะดุดเพราะชิป Huawei

    DeepSeek บริษัท AI สัญชาติจีนที่เคยสร้างชื่อจากโมเดล R1 กำลังเผชิญกับความท้าทายครั้งใหญ่ในการพัฒนา R2 ซึ่งเดิมทีตั้งใจจะใช้ชิป Ascend 910C ของ Huawei ในการฝึกโมเดล เพื่อสนับสนุนแนวทาง “พึ่งพาตนเอง” ของรัฐบาลจีน แต่ผลลัพธ์กลับไม่เป็นไปตามแผน

    แม้ Huawei จะส่งทีมวิศวกรไปช่วย DeepSeek โดยตรง แต่ชิป Ascend กลับมีปัญหาหลายด้าน เช่น ความร้อนสูง, การเชื่อมต่อระหว่างชิปที่ช้า, และซอฟต์แวร์ที่ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ทำให้ DeepSeek ไม่สามารถฝึกโมเดล R2 ได้สำเร็จ

    สุดท้าย DeepSeek ต้องหันกลับมาใช้ชิป NVIDIA H20 ในการฝึกโมเดล และใช้ชิป Huawei เฉพาะในขั้นตอน inference เท่านั้น ซึ่งเป็นการประนีประนอมระหว่างประสิทธิภาพและนโยบายรัฐ

    นอกจากนี้ ยังมีปัจจัยอื่นที่ทำให้ R2 ล่าช้า เช่น การติดป้ายข้อมูล (data labeling) ที่ใช้เวลานานกว่าคาด และความกังวลเรื่องความปลอดภัยของชิป NVIDIA ที่อาจมีระบบติดตามตำแหน่ง ทำให้รัฐบาลจีนลังเลที่จะอนุมัติการใช้งานในวงกว้าง

    แม้ DeepSeek จะยังไม่ประกาศวันเปิดตัวใหม่อย่างเป็นทางการ แต่คาดว่าโมเดล R2 จะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า โดยต้องแข่งกับคู่แข่งอย่าง Qwen3 จาก Alibaba ที่กำลังมาแรง

    DeepSeek ล่าช้าในการเปิดตัวโมเดล R2
    เดิมตั้งใจเปิดตัวในเดือนพฤษภาคม แต่เลื่อนออกไปไม่มีกำหนด
    ปัจจุบันยังอยู่ในขั้นตอนปรับปรุงและทดสอบประสิทธิภาพ

    ปัญหาจากการใช้ชิป Huawei Ascend 910C
    มีปัญหาความร้อนสูงและการเชื่อมต่อระหว่างชิปที่ช้า
    ซอฟต์แวร์ CANN ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA
    ไม่สามารถฝึกโมเดลขนาดใหญ่ได้สำเร็จ

    การเปลี่ยนกลับมาใช้ชิป NVIDIA
    ใช้ NVIDIA H20 ในการฝึกโมเดล R2
    ใช้ Huawei เฉพาะในขั้นตอน inference เพื่อประหยัดต้นทุน
    เป็นแนวทางแบบ hybrid ที่หลายบริษัทจีนเริ่มนำมาใช้

    ปัจจัยอื่นที่ทำให้ R2 ล่าช้า
    การติดป้ายข้อมูลใช้เวลานานกว่าคาด
    ผู้ก่อตั้งไม่พอใจกับความก้าวหน้า และต้องการคุณภาพสูงกว่าคู่แข่ง
    รัฐบาลจีนยังลังเลเรื่องการอนุมัติชิป NVIDIA เพราะข้อกังวลด้านความปลอดภัย

    https://wccftech.com/deepseek-r2-ai-model-is-reportedly-delayed-after-chinese-authorities-encouraged-the-firm-to-use-huawei-ai-chips/
    🧠 DeepSeek R2: โมเดล AI ที่สะดุดเพราะชิป Huawei DeepSeek บริษัท AI สัญชาติจีนที่เคยสร้างชื่อจากโมเดล R1 กำลังเผชิญกับความท้าทายครั้งใหญ่ในการพัฒนา R2 ซึ่งเดิมทีตั้งใจจะใช้ชิป Ascend 910C ของ Huawei ในการฝึกโมเดล เพื่อสนับสนุนแนวทาง “พึ่งพาตนเอง” ของรัฐบาลจีน แต่ผลลัพธ์กลับไม่เป็นไปตามแผน แม้ Huawei จะส่งทีมวิศวกรไปช่วย DeepSeek โดยตรง แต่ชิป Ascend กลับมีปัญหาหลายด้าน เช่น ความร้อนสูง, การเชื่อมต่อระหว่างชิปที่ช้า, และซอฟต์แวร์ที่ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ทำให้ DeepSeek ไม่สามารถฝึกโมเดล R2 ได้สำเร็จ สุดท้าย DeepSeek ต้องหันกลับมาใช้ชิป NVIDIA H20 ในการฝึกโมเดล และใช้ชิป Huawei เฉพาะในขั้นตอน inference เท่านั้น ซึ่งเป็นการประนีประนอมระหว่างประสิทธิภาพและนโยบายรัฐ นอกจากนี้ ยังมีปัจจัยอื่นที่ทำให้ R2 ล่าช้า เช่น การติดป้ายข้อมูล (data labeling) ที่ใช้เวลานานกว่าคาด และความกังวลเรื่องความปลอดภัยของชิป NVIDIA ที่อาจมีระบบติดตามตำแหน่ง ทำให้รัฐบาลจีนลังเลที่จะอนุมัติการใช้งานในวงกว้าง แม้ DeepSeek จะยังไม่ประกาศวันเปิดตัวใหม่อย่างเป็นทางการ แต่คาดว่าโมเดล R2 จะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า โดยต้องแข่งกับคู่แข่งอย่าง Qwen3 จาก Alibaba ที่กำลังมาแรง ✅ DeepSeek ล่าช้าในการเปิดตัวโมเดล R2 ➡️ เดิมตั้งใจเปิดตัวในเดือนพฤษภาคม แต่เลื่อนออกไปไม่มีกำหนด ➡️ ปัจจุบันยังอยู่ในขั้นตอนปรับปรุงและทดสอบประสิทธิภาพ ✅ ปัญหาจากการใช้ชิป Huawei Ascend 910C ➡️ มีปัญหาความร้อนสูงและการเชื่อมต่อระหว่างชิปที่ช้า ➡️ ซอฟต์แวร์ CANN ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ➡️ ไม่สามารถฝึกโมเดลขนาดใหญ่ได้สำเร็จ ✅ การเปลี่ยนกลับมาใช้ชิป NVIDIA ➡️ ใช้ NVIDIA H20 ในการฝึกโมเดล R2 ➡️ ใช้ Huawei เฉพาะในขั้นตอน inference เพื่อประหยัดต้นทุน ➡️ เป็นแนวทางแบบ hybrid ที่หลายบริษัทจีนเริ่มนำมาใช้ ✅ ปัจจัยอื่นที่ทำให้ R2 ล่าช้า ➡️ การติดป้ายข้อมูลใช้เวลานานกว่าคาด ➡️ ผู้ก่อตั้งไม่พอใจกับความก้าวหน้า และต้องการคุณภาพสูงกว่าคู่แข่ง ➡️ รัฐบาลจีนยังลังเลเรื่องการอนุมัติชิป NVIDIA เพราะข้อกังวลด้านความปลอดภัย https://wccftech.com/deepseek-r2-ai-model-is-reportedly-delayed-after-chinese-authorities-encouraged-the-firm-to-use-huawei-ai-chips/
    WCCFTECH.COM
    DeepSeek's R2 AI Model Is Reportedly Delayed After Chinese Authorities Encouraged the Firm to Use Huawei's AI Chips; Beijing Is Still in Need of NVIDIA's Alternatives
    Well, relying on Huawei's AI chips didn't go well for DeepSeek, as the AI firm has failed to train the R2 model on Chinese chips.
    0 Comments 0 Shares 182 Views 0 Reviews
  • เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน

    ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง

    CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี

    Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น

    แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์

    การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ

    Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend
    เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia

    CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia
    ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น

    CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง
    เป็นทางเลือกใหม่สำหรับนักพัฒนา AI

    Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน
    เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend

    มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี
    เช่น DeepSeek R1 บน CloudMatrix 384

    การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน
    ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ

    https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    🚀🇨🇳 เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์ การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ ✅ Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend ➡️ เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia ✅ CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia ➡️ ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น ✅ CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง ➡️ เป็นทางเลือกใหม่สำหรับนักพัฒนา AI ✅ Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน ➡️ เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend ✅ มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี ➡️ เช่น DeepSeek R1 บน CloudMatrix 384 ✅ การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน ➡️ ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    0 Comments 0 Shares 199 Views 0 Reviews
  • เรื่องเล่าจากวิวัฒนาการของโมเดล GPT: จาก GPT-2 สู่ gpt-oss ยุคใหม่ของ AI แบบเปิด

    ย้อนกลับไปปี 2019 OpenAI เคยเปิดตัว GPT-2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ที่ใช้สถาปัตยกรรม Transformer และได้รับความนิยมอย่างมากในวงการ AI แต่หลังจากนั้น OpenAI ก็หันไปพัฒนาโมเดลแบบปิด เช่น GPT-3 และ ChatGPT โดยไม่เปิดเผยน้ำหนักโมเดลอีกเลย จนกระทั่งสิงหาคม 2025 พวกเขากลับมาอีกครั้งด้วย gpt-oss-20B และ gpt-oss-120B ซึ่งเป็นโมเดลแบบ “open-weight” ที่เปิดให้ดาวน์โหลด ใช้งาน และปรับแต่งได้อย่างเสรีภายใต้ Apache 2.0 license

    โมเดล gpt-oss ใช้เทคนิคใหม่ ๆ เช่น Mixture-of-Experts (MoE), Sliding Window Attention, RMSNorm และ SwiGLU เพื่อเพิ่มประสิทธิภาพและลดต้นทุนการประมวลผล โดยสามารถรันบน GPU ทั่วไปได้ เช่น 20B ใช้แค่ 16GB RAM ส่วน 120B ใช้ H100 GPU ตัวเดียว

    แม้สถาปัตยกรรมโดยรวมยังคงใช้ Transformer เหมือนเดิม แต่การปรับแต่งภายในทำให้โมเดลเหล่านี้มีประสิทธิภาพสูงขึ้นมาก และสามารถแข่งขันกับโมเดลจากจีน เช่น Qwen3 ได้อย่างสูสี

    อย่างไรก็ตาม ยังมีข้อกังวลเรื่องความแม่นยำของข้อมูล (hallucination rate สูงถึง 49–53%) และความโปร่งใสของชุดข้อมูลที่ใช้ฝึก ซึ่ง OpenAI ยังไม่เปิดเผยเพราะเกรงปัญหาด้านลิขสิทธิ์

    OpenAI เปิดตัว gpt-oss-20B และ gpt-oss-120B เป็นโมเดล open-weight ครั้งแรกในรอบ 6 ปี
    ใช้ Apache 2.0 license เปิดให้ใช้งานและปรับแต่งได้อย่างเสรี

    โมเดลใช้สถาปัตยกรรม Transformer แบบ decoder-only
    เหมือน GPT-2 แต่มีการปรับแต่งภายในหลายจุด

    ใช้เทคนิค Mixture-of-Experts (MoE) เพื่อเพิ่มประสิทธิภาพ
    เปิดใช้งานเฉพาะบางส่วนของโมเดลในแต่ละ token

    gpt-oss-20B รันได้บน GPU ทั่วไป (16GB RAM)
    ส่วน gpt-oss-120B ใช้ H100 GPU ตัวเดียว

    โมเดลมี benchmark สูง เช่น Codeforces score 2622 (120B)
    สูงกว่า DeepSeek R1 แต่ยังต่ำกว่า o3 และ o4-mini

    ใช้ Sliding Window Attention, RMSNorm, SwiGLU แทนเทคนิคเก่า
    ลดต้นทุนการคำนวณและเพิ่มความเร็วในการ inference

    เปรียบเทียบกับ Qwen3 พบว่า gpt-oss เน้น “กว้าง” มากกว่า “ลึก”
    มี embedding และ FFN ขนาดใหญ่ แต่ layer น้อยกว่า

    การเปิดโมเดลแบบ open-weight ช่วยให้นักพัฒนาสามารถปรับแต่งได้ตามต้องการ
    เหมาะกับงานเฉพาะทาง เช่น การฝึกบนข้อมูลภายในองค์กร

    Apache 2.0 license ช่วยให้ startup และองค์กรขนาดเล็กเข้าถึง AI ขั้นสูง
    โดยไม่ต้องเสียค่าใช้จ่ายหรือขออนุญาต

    โมเดลสามารถใช้ในระบบ agent เช่น การเรียกใช้เครื่องมือหรือ API
    รองรับการใช้งานแบบ hybrid ระหว่าง local และ cloud

    OpenAI หวังใช้ gpt-oss เพื่อแข่งขันกับโมเดลจากจีน เช่น DeepSeek และ Qwen
    และฟื้นความเชื่อมั่นจากชุมชน open-source

    โมเดล gpt-oss มี hallucination rate สูง (49–53%)
    อาจให้ข้อมูลผิดพลาดในงานที่ต้องการความแม่นยำสูง

    OpenAI ไม่เปิดเผยชุดข้อมูลที่ใช้ฝึกโมเดล
    เกิดข้อกังวลเรื่องลิขสิทธิ์และความโปร่งใส

    แม้จะเปิดน้ำหนักโมเดล แต่ยังต้องใช้ hardware ขั้นสูงสำหรับรุ่นใหญ่
    อาจไม่เหมาะกับผู้ใช้ทั่วไปที่ไม่มี GPU ระดับ enterprise

    การใช้ MoE ทำให้การฝึกและ deploy ซับซ้อนขึ้น
    ต้องมีระบบ routing และการจัดการ expert ที่แม่นยำ

    https://magazine.sebastianraschka.com/p/from-gpt-2-to-gpt-oss-analyzing-the
    🧠💡 เรื่องเล่าจากวิวัฒนาการของโมเดล GPT: จาก GPT-2 สู่ gpt-oss ยุคใหม่ของ AI แบบเปิด ย้อนกลับไปปี 2019 OpenAI เคยเปิดตัว GPT-2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ที่ใช้สถาปัตยกรรม Transformer และได้รับความนิยมอย่างมากในวงการ AI แต่หลังจากนั้น OpenAI ก็หันไปพัฒนาโมเดลแบบปิด เช่น GPT-3 และ ChatGPT โดยไม่เปิดเผยน้ำหนักโมเดลอีกเลย จนกระทั่งสิงหาคม 2025 พวกเขากลับมาอีกครั้งด้วย gpt-oss-20B และ gpt-oss-120B ซึ่งเป็นโมเดลแบบ “open-weight” ที่เปิดให้ดาวน์โหลด ใช้งาน และปรับแต่งได้อย่างเสรีภายใต้ Apache 2.0 license โมเดล gpt-oss ใช้เทคนิคใหม่ ๆ เช่น Mixture-of-Experts (MoE), Sliding Window Attention, RMSNorm และ SwiGLU เพื่อเพิ่มประสิทธิภาพและลดต้นทุนการประมวลผล โดยสามารถรันบน GPU ทั่วไปได้ เช่น 20B ใช้แค่ 16GB RAM ส่วน 120B ใช้ H100 GPU ตัวเดียว แม้สถาปัตยกรรมโดยรวมยังคงใช้ Transformer เหมือนเดิม แต่การปรับแต่งภายในทำให้โมเดลเหล่านี้มีประสิทธิภาพสูงขึ้นมาก และสามารถแข่งขันกับโมเดลจากจีน เช่น Qwen3 ได้อย่างสูสี อย่างไรก็ตาม ยังมีข้อกังวลเรื่องความแม่นยำของข้อมูล (hallucination rate สูงถึง 49–53%) และความโปร่งใสของชุดข้อมูลที่ใช้ฝึก ซึ่ง OpenAI ยังไม่เปิดเผยเพราะเกรงปัญหาด้านลิขสิทธิ์ ✅ OpenAI เปิดตัว gpt-oss-20B และ gpt-oss-120B เป็นโมเดล open-weight ครั้งแรกในรอบ 6 ปี ➡️ ใช้ Apache 2.0 license เปิดให้ใช้งานและปรับแต่งได้อย่างเสรี ✅ โมเดลใช้สถาปัตยกรรม Transformer แบบ decoder-only ➡️ เหมือน GPT-2 แต่มีการปรับแต่งภายในหลายจุด ✅ ใช้เทคนิค Mixture-of-Experts (MoE) เพื่อเพิ่มประสิทธิภาพ ➡️ เปิดใช้งานเฉพาะบางส่วนของโมเดลในแต่ละ token ✅ gpt-oss-20B รันได้บน GPU ทั่วไป (16GB RAM) ➡️ ส่วน gpt-oss-120B ใช้ H100 GPU ตัวเดียว ✅ โมเดลมี benchmark สูง เช่น Codeforces score 2622 (120B) ➡️ สูงกว่า DeepSeek R1 แต่ยังต่ำกว่า o3 และ o4-mini ✅ ใช้ Sliding Window Attention, RMSNorm, SwiGLU แทนเทคนิคเก่า ➡️ ลดต้นทุนการคำนวณและเพิ่มความเร็วในการ inference ✅ เปรียบเทียบกับ Qwen3 พบว่า gpt-oss เน้น “กว้าง” มากกว่า “ลึก” ➡️ มี embedding และ FFN ขนาดใหญ่ แต่ layer น้อยกว่า ✅ การเปิดโมเดลแบบ open-weight ช่วยให้นักพัฒนาสามารถปรับแต่งได้ตามต้องการ ➡️ เหมาะกับงานเฉพาะทาง เช่น การฝึกบนข้อมูลภายในองค์กร ✅ Apache 2.0 license ช่วยให้ startup และองค์กรขนาดเล็กเข้าถึง AI ขั้นสูง ➡️ โดยไม่ต้องเสียค่าใช้จ่ายหรือขออนุญาต ✅ โมเดลสามารถใช้ในระบบ agent เช่น การเรียกใช้เครื่องมือหรือ API ➡️ รองรับการใช้งานแบบ hybrid ระหว่าง local และ cloud ✅ OpenAI หวังใช้ gpt-oss เพื่อแข่งขันกับโมเดลจากจีน เช่น DeepSeek และ Qwen ➡️ และฟื้นความเชื่อมั่นจากชุมชน open-source ‼️ โมเดล gpt-oss มี hallucination rate สูง (49–53%) ⛔ อาจให้ข้อมูลผิดพลาดในงานที่ต้องการความแม่นยำสูง ‼️ OpenAI ไม่เปิดเผยชุดข้อมูลที่ใช้ฝึกโมเดล ⛔ เกิดข้อกังวลเรื่องลิขสิทธิ์และความโปร่งใส ‼️ แม้จะเปิดน้ำหนักโมเดล แต่ยังต้องใช้ hardware ขั้นสูงสำหรับรุ่นใหญ่ ⛔ อาจไม่เหมาะกับผู้ใช้ทั่วไปที่ไม่มี GPU ระดับ enterprise ‼️ การใช้ MoE ทำให้การฝึกและ deploy ซับซ้อนขึ้น ⛔ ต้องมีระบบ routing และการจัดการ expert ที่แม่นยำ https://magazine.sebastianraschka.com/p/from-gpt-2-to-gpt-oss-analyzing-the
    0 Comments 0 Shares 212 Views 0 Reviews
  • เรื่องเล่าจากข่าว: Huawei CloudMatrix 384—AI ซูเปอร์คลัสเตอร์ที่ท้าชน Nvidia ด้วยพลังแห่งการรวมชิป

    ในงาน World Artificial Intelligence Conference 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นซูเปอร์คลัสเตอร์ AI ที่ประกอบด้วยชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อกันด้วยโครงสร้างแบบ “all-to-all mesh” ผ่านสายออปติกความเร็วสูง

    แม้ชิปแต่ละตัวจะมีประสิทธิภาพต่ำกว่า Nvidia H100 แต่ Huawei ใช้กลยุทธ์ “จำนวนมาก + การออกแบบระบบ” เพื่อชดเชยข้อเสีย และสามารถให้ประสิทธิภาพรวมสูงกว่าระบบ Nvidia GB200 NVL72 ได้ในหลายด้าน เช่น:
    - ความเร็วในการประมวลผล BF16 สูงกว่า 1.7 เท่า
    - ความจุหน่วยความจำสูงกว่า 3.6 เท่า
    - แบนด์วิดธ์หน่วยความจำสูงกว่า 2.1 เท่า

    อย่างไรก็ตาม ระบบนี้ใช้พลังงานมากกว่าถึง 3.9 เท่า และมีประสิทธิภาพต่อวัตต์ต่ำกว่าถึง 2.3 เท่า ซึ่งอาจเป็นข้อจำกัดสำคัญในตลาดโลก แต่สำหรับจีนที่มีแหล่งพลังงานหลากหลายและราคาถูก นี่อาจไม่ใช่ปัญหา

    Huawei เปิดตัวระบบ CloudMatrix 384 ในงาน WAIC 2025 ที่เซี่ยงไฮ้
    ใช้ชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อแบบ all-to-all mesh ด้วยสายออปติก
    ออกแบบมาเพื่อแข่งขันกับ Nvidia GB200 NVL72

    ระบบสามารถประมวลผลได้ถึง 300 PFLOPs แบบ BF16
    สูงกว่า Nvidia GB200 NVL72 ที่ทำได้ 180 PFLOPs
    เหมาะสำหรับงาน inference ของโมเดลขนาดใหญ่

    Ascend 910C มีประสิทธิภาพประมาณ 60% ของ Nvidia H100 ในงาน inference
    ใช้เทคนิค dual-chiplet และหน่วยความจำ HBM2E ขนาด 128 GB
    ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm รุ่นใหม่

    ระบบมีความจุหน่วยความจำรวม 49.2 TB และแบนด์วิดธ์รวม 1229 TB/s
    สูงกว่า Nvidia GB200 NVL72 ถึง 3.6 เท่าในด้านความจุ และ 2.1 เท่าในด้านแบนด์วิดธ์
    รองรับการเชื่อมต่อแบบ scale-out ได้ถึง 165,000 NPU

    ระบบ CloudMatrix 384 ถูกติดตั้งแล้วบน Huawei Cloud และพร้อมใช้งานจริง
    ใช้ในงาน AI training และ inference ระดับองค์กร
    เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีต่างชาติ

    Nvidia GB200 NVL72 ใช้ชิป Grace CPU 36 ตัว และ Blackwell GPU 72 ตัว
    ออกแบบให้ทำงานร่วมกันเป็น “GPU ขนาดยักษ์” สำหรับโมเดลระดับล้านล้านพารามิเตอร์
    มีข้อจำกัดด้านการส่งออกไปยังจีน

    Huawei ใช้สายออปติก 800G LPO จำนวน 6,912 เส้นในการเชื่อมต่อภายในระบบ
    ลด latency และเพิ่ม bandwidth ได้อย่างมหาศาล
    เป็นการออกแบบที่เน้น “ระบบ” มากกว่าชิปเดี่ยว

    DeepSeek AI ใช้ Ascend 910C สำหรับ inference และพบว่าประสิทธิภาพ “เกินคาด”
    ใช้เทคนิคแปลง CUDA เป็น CUNN ด้วยโค้ดเพียงบรรทัดเดียว
    ช่วยลดต้นทุนและลดการพึ่งพา Nvidia

    จีนกำลังผลักดัน ecosystem ด้าน AI แบบครบวงจร ตั้งแต่ชิปถึงโมเดล
    มีการตั้งพันธมิตรระหว่างผู้ผลิตชิปและนักพัฒนา LLM
    เป้าหมายคือสร้างระบบ AI ที่ไม่ต้องพึ่งพาตะวันตก

    ระบบ CloudMatrix 384 ใช้พลังงานมากกว่าระบบ Nvidia ถึง 3.9 เท่า
    ประสิทธิภาพต่อวัตต์ต่ำกว่า Nvidia ถึง 2.3 เท่า
    อาจไม่เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงาน

    ชิป Ascend 910C ยังไม่สามารถเทียบเท่า Nvidia H100 ในงาน training
    เหมาะกับ inference มากกว่า training ที่ต้องใช้ความเสถียรสูง
    ยังขาด ecosystem ด้านซอฟต์แวร์ที่เทียบเท่า CUDA

    ระบบ CloudMatrix ยังไม่มี benchmark สาธารณะหรือการทดสอบจากองค์กรอิสระ
    ข้อมูลส่วนใหญ่มาจาก Huawei และ SemiAnalysis
    ต้องรอการพิสูจน์จากการใช้งานจริงในระยะยาว

    รัฐบาลสหรัฐฯ เตรียมออกมาตรการลงโทษบริษัทที่ใช้ชิป Ascend 910C ทั่วโลก
    อ้างว่าใช้เทคโนโลยีที่มีต้นกำเนิดจากสหรัฐฯ
    อาจส่งผลต่อบริษัทต่างชาติที่ร่วมใช้งานระบบนี้

    https://www.techspot.com/news/108891-huawei-cloudmatrix-384-ai-system-poised-challenge-nvidia.html
    🎙️ เรื่องเล่าจากข่าว: Huawei CloudMatrix 384—AI ซูเปอร์คลัสเตอร์ที่ท้าชน Nvidia ด้วยพลังแห่งการรวมชิป ในงาน World Artificial Intelligence Conference 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นซูเปอร์คลัสเตอร์ AI ที่ประกอบด้วยชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อกันด้วยโครงสร้างแบบ “all-to-all mesh” ผ่านสายออปติกความเร็วสูง แม้ชิปแต่ละตัวจะมีประสิทธิภาพต่ำกว่า Nvidia H100 แต่ Huawei ใช้กลยุทธ์ “จำนวนมาก + การออกแบบระบบ” เพื่อชดเชยข้อเสีย และสามารถให้ประสิทธิภาพรวมสูงกว่าระบบ Nvidia GB200 NVL72 ได้ในหลายด้าน เช่น: - ความเร็วในการประมวลผล BF16 สูงกว่า 1.7 เท่า - ความจุหน่วยความจำสูงกว่า 3.6 เท่า - แบนด์วิดธ์หน่วยความจำสูงกว่า 2.1 เท่า อย่างไรก็ตาม ระบบนี้ใช้พลังงานมากกว่าถึง 3.9 เท่า และมีประสิทธิภาพต่อวัตต์ต่ำกว่าถึง 2.3 เท่า ซึ่งอาจเป็นข้อจำกัดสำคัญในตลาดโลก แต่สำหรับจีนที่มีแหล่งพลังงานหลากหลายและราคาถูก นี่อาจไม่ใช่ปัญหา ✅ Huawei เปิดตัวระบบ CloudMatrix 384 ในงาน WAIC 2025 ที่เซี่ยงไฮ้ ➡️ ใช้ชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อแบบ all-to-all mesh ด้วยสายออปติก ➡️ ออกแบบมาเพื่อแข่งขันกับ Nvidia GB200 NVL72 ✅ ระบบสามารถประมวลผลได้ถึง 300 PFLOPs แบบ BF16 ➡️ สูงกว่า Nvidia GB200 NVL72 ที่ทำได้ 180 PFLOPs ➡️ เหมาะสำหรับงาน inference ของโมเดลขนาดใหญ่ ✅ Ascend 910C มีประสิทธิภาพประมาณ 60% ของ Nvidia H100 ในงาน inference ➡️ ใช้เทคนิค dual-chiplet และหน่วยความจำ HBM2E ขนาด 128 GB ➡️ ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm รุ่นใหม่ ✅ ระบบมีความจุหน่วยความจำรวม 49.2 TB และแบนด์วิดธ์รวม 1229 TB/s ➡️ สูงกว่า Nvidia GB200 NVL72 ถึง 3.6 เท่าในด้านความจุ และ 2.1 เท่าในด้านแบนด์วิดธ์ ➡️ รองรับการเชื่อมต่อแบบ scale-out ได้ถึง 165,000 NPU ✅ ระบบ CloudMatrix 384 ถูกติดตั้งแล้วบน Huawei Cloud และพร้อมใช้งานจริง ➡️ ใช้ในงาน AI training และ inference ระดับองค์กร ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีต่างชาติ ✅ Nvidia GB200 NVL72 ใช้ชิป Grace CPU 36 ตัว และ Blackwell GPU 72 ตัว ➡️ ออกแบบให้ทำงานร่วมกันเป็น “GPU ขนาดยักษ์” สำหรับโมเดลระดับล้านล้านพารามิเตอร์ ➡️ มีข้อจำกัดด้านการส่งออกไปยังจีน ✅ Huawei ใช้สายออปติก 800G LPO จำนวน 6,912 เส้นในการเชื่อมต่อภายในระบบ ➡️ ลด latency และเพิ่ม bandwidth ได้อย่างมหาศาล ➡️ เป็นการออกแบบที่เน้น “ระบบ” มากกว่าชิปเดี่ยว ✅ DeepSeek AI ใช้ Ascend 910C สำหรับ inference และพบว่าประสิทธิภาพ “เกินคาด” ➡️ ใช้เทคนิคแปลง CUDA เป็น CUNN ด้วยโค้ดเพียงบรรทัดเดียว ➡️ ช่วยลดต้นทุนและลดการพึ่งพา Nvidia ✅ จีนกำลังผลักดัน ecosystem ด้าน AI แบบครบวงจร ตั้งแต่ชิปถึงโมเดล ➡️ มีการตั้งพันธมิตรระหว่างผู้ผลิตชิปและนักพัฒนา LLM ➡️ เป้าหมายคือสร้างระบบ AI ที่ไม่ต้องพึ่งพาตะวันตก ‼️ ระบบ CloudMatrix 384 ใช้พลังงานมากกว่าระบบ Nvidia ถึง 3.9 เท่า ⛔ ประสิทธิภาพต่อวัตต์ต่ำกว่า Nvidia ถึง 2.3 เท่า ⛔ อาจไม่เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงาน ‼️ ชิป Ascend 910C ยังไม่สามารถเทียบเท่า Nvidia H100 ในงาน training ⛔ เหมาะกับ inference มากกว่า training ที่ต้องใช้ความเสถียรสูง ⛔ ยังขาด ecosystem ด้านซอฟต์แวร์ที่เทียบเท่า CUDA ‼️ ระบบ CloudMatrix ยังไม่มี benchmark สาธารณะหรือการทดสอบจากองค์กรอิสระ ⛔ ข้อมูลส่วนใหญ่มาจาก Huawei และ SemiAnalysis ⛔ ต้องรอการพิสูจน์จากการใช้งานจริงในระยะยาว ‼️ รัฐบาลสหรัฐฯ เตรียมออกมาตรการลงโทษบริษัทที่ใช้ชิป Ascend 910C ทั่วโลก ⛔ อ้างว่าใช้เทคโนโลยีที่มีต้นกำเนิดจากสหรัฐฯ ⛔ อาจส่งผลต่อบริษัทต่างชาติที่ร่วมใช้งานระบบนี้ https://www.techspot.com/news/108891-huawei-cloudmatrix-384-ai-system-poised-challenge-nvidia.html
    WWW.TECHSPOT.COM
    Huawei's CloudMatrix 384 could outpace Nvidia in the AI race, study suggests
    As newly appointed US tech czar David Sacks predicted just a month ago, Trump's tariffs appear to be backfiring in spectacular fashion. Chinese tech giant Huawei is...
    0 Comments 0 Shares 305 Views 0 Reviews
  • เรื่องเล่าจากข่าว: “Man in the Prompt” เมื่อ AI กลายเป็นผู้ช่วยโจรกรรมข้อมูล

    นักวิจัยจากบริษัท LayerX ค้นพบช่องโหว่ใหม่ที่เรียกว่า “Man in the Prompt” ซึ่งอาศัยความจริงที่ว่า ช่องใส่คำสั่ง (prompt input) ของ AI บนเว็บเบราว์เซอร์เป็นส่วนหนึ่งของโครงสร้างหน้าเว็บ (Document Object Model หรือ DOM) นั่นหมายความว่า ส่วนเสริมใด ๆ ที่เข้าถึง DOM ได้ ก็สามารถอ่านหรือเขียนคำสั่งลงในช่อง prompt ได้ทันที—even ถ้าไม่มีสิทธิ์พิเศษ!

    แฮกเกอร์สามารถใช้ส่วนเสริมที่เป็นอันตราย (หรือซื้อสิทธิ์จากส่วนเสริมที่มีอยู่แล้ว) เพื่อแอบแฝงคำสั่งลับ, ดึงข้อมูลจากคำตอบของ AI, หรือแม้แต่ลบประวัติการสนทนาเพื่อไม่ให้ผู้ใช้รู้ตัว

    LayerX ได้ทดลองโจมตีจริงกับ ChatGPT และ Google Gemini โดยใช้ส่วนเสริมที่ดูไม่มีพิษภัย แต่สามารถเปิดแท็บลับ, ส่งคำสั่งไปยัง AI, ดึงข้อมูลออก และลบหลักฐานทั้งหมด

    สิ่งที่น่ากลัวคือ AI เหล่านี้มักถูกใช้ในองค์กรเพื่อประมวลผลข้อมูลลับ เช่น เอกสารภายใน, แผนธุรกิจ, หรือรหัสโปรแกรม—ซึ่งอาจถูกขโมยไปโดยไม่รู้ตัว

    “Man in the Prompt” คือการโจมตีผ่านส่วนเสริมเบราว์เซอร์ที่แอบแฝงคำสั่งในช่อง prompt ของ AI
    ใช้ช่องโหว่ของ DOM ที่เปิดให้ส่วนเสริมเข้าถึงข้อมูลในหน้าเว็บ
    ไม่ต้องใช้สิทธิ์พิเศษก็สามารถอ่าน/เขียนคำสั่งได้

    AI ที่ได้รับผลกระทบ ได้แก่ ChatGPT, Gemini, Claude, Copilot และ Deepseek
    ทั้ง AI เชิงพาณิชย์และ AI ภายในองค์กร
    มีการทดสอบจริงและแสดงผลสำเร็จ

    ส่วนเสริมสามารถแอบส่งคำสั่ง, ดึงข้อมูล, และลบประวัติการสนทนาได้
    เช่น เปิดแท็บลับ, ส่งคำสั่งไปยัง ChatGPT, ดึงผลลัพธ์, แล้วลบแชท
    Gemini สามารถถูกโจมตีผ่าน sidebar ที่เชื่อมกับ Google Workspace

    ข้อมูลที่เสี่ยงต่อการรั่วไหล ได้แก่ อีเมล, เอกสาร, รหัส, แผนธุรกิจ และทรัพย์สินทางปัญญา
    โดยเฉพาะ AI ภายในองค์กรที่ฝึกด้วยข้อมูลลับ
    มีความเชื่อมั่นสูงแต่ขาดระบบป้องกันคำสั่งแฝง

    LayerX แนะนำให้ตรวจสอบพฤติกรรม DOM ของส่วนเสริมแทนการดูแค่สิทธิ์ที่ประกาศไว้
    ปรับระบบความปลอดภัยให้มองเห็นการเปลี่ยนแปลงใน DOM
    ป้องกันการแอบแฝงคำสั่งและการดึงข้อมูลแบบเรียลไทม์

    ส่วนเสริมที่ดูปลอดภัยอาจถูกแฮกหรือซื้อสิทธิ์ไปใช้โจมตีได้
    เช่น ส่วนเสริมที่มีฟีเจอร์จัดการ prompt อาจถูกใช้เพื่อแอบแฝงคำสั่ง
    ไม่ต้องมีการติดตั้งใหม่หรืออนุญาตใด ๆ จากผู้ใช้

    ระบบความปลอดภัยแบบเดิมไม่สามารถตรวจจับการโจมตีในระดับ DOM ได้
    เช่น DLP หรือ Secure Web Gateway ไม่เห็นการเปลี่ยนแปลงใน DOM
    การบล็อก URL ของ AI ไม่ช่วยป้องกันการโจมตีภายในเบราว์เซอร์

    องค์กรที่อนุญาตให้ติดตั้งส่วนเสริมอย่างเสรีมีความเสี่ยงสูงมาก
    พนักงานอาจติดตั้งส่วนเสริมที่เป็นอันตรายโดยไม่รู้ตัว
    ข้อมูลภายในองค์กรอาจถูกขโมยผ่าน AI ที่เชื่อมกับเบราว์เซอร์

    AI ที่ฝึกด้วยข้อมูลลับภายในองค์กรมีความเสี่ยงสูงสุด
    เช่น ข้อมูลทางกฎหมาย, การเงิน, หรือกลยุทธ์
    หากถูกดึงออกผ่าน prompt จะไม่มีทางรู้ตัวเลย

    https://hackread.com/browser-extensions-exploit-chatgpt-gemini-man-in-the-prompt/
    🧠 เรื่องเล่าจากข่าว: “Man in the Prompt” เมื่อ AI กลายเป็นผู้ช่วยโจรกรรมข้อมูล นักวิจัยจากบริษัท LayerX ค้นพบช่องโหว่ใหม่ที่เรียกว่า “Man in the Prompt” ซึ่งอาศัยความจริงที่ว่า ช่องใส่คำสั่ง (prompt input) ของ AI บนเว็บเบราว์เซอร์เป็นส่วนหนึ่งของโครงสร้างหน้าเว็บ (Document Object Model หรือ DOM) นั่นหมายความว่า ส่วนเสริมใด ๆ ที่เข้าถึง DOM ได้ ก็สามารถอ่านหรือเขียนคำสั่งลงในช่อง prompt ได้ทันที—even ถ้าไม่มีสิทธิ์พิเศษ! แฮกเกอร์สามารถใช้ส่วนเสริมที่เป็นอันตราย (หรือซื้อสิทธิ์จากส่วนเสริมที่มีอยู่แล้ว) เพื่อแอบแฝงคำสั่งลับ, ดึงข้อมูลจากคำตอบของ AI, หรือแม้แต่ลบประวัติการสนทนาเพื่อไม่ให้ผู้ใช้รู้ตัว LayerX ได้ทดลองโจมตีจริงกับ ChatGPT และ Google Gemini โดยใช้ส่วนเสริมที่ดูไม่มีพิษภัย แต่สามารถเปิดแท็บลับ, ส่งคำสั่งไปยัง AI, ดึงข้อมูลออก และลบหลักฐานทั้งหมด สิ่งที่น่ากลัวคือ AI เหล่านี้มักถูกใช้ในองค์กรเพื่อประมวลผลข้อมูลลับ เช่น เอกสารภายใน, แผนธุรกิจ, หรือรหัสโปรแกรม—ซึ่งอาจถูกขโมยไปโดยไม่รู้ตัว ✅ “Man in the Prompt” คือการโจมตีผ่านส่วนเสริมเบราว์เซอร์ที่แอบแฝงคำสั่งในช่อง prompt ของ AI ➡️ ใช้ช่องโหว่ของ DOM ที่เปิดให้ส่วนเสริมเข้าถึงข้อมูลในหน้าเว็บ ➡️ ไม่ต้องใช้สิทธิ์พิเศษก็สามารถอ่าน/เขียนคำสั่งได้ ✅ AI ที่ได้รับผลกระทบ ได้แก่ ChatGPT, Gemini, Claude, Copilot และ Deepseek ➡️ ทั้ง AI เชิงพาณิชย์และ AI ภายในองค์กร ➡️ มีการทดสอบจริงและแสดงผลสำเร็จ ✅ ส่วนเสริมสามารถแอบส่งคำสั่ง, ดึงข้อมูล, และลบประวัติการสนทนาได้ ➡️ เช่น เปิดแท็บลับ, ส่งคำสั่งไปยัง ChatGPT, ดึงผลลัพธ์, แล้วลบแชท ➡️ Gemini สามารถถูกโจมตีผ่าน sidebar ที่เชื่อมกับ Google Workspace ✅ ข้อมูลที่เสี่ยงต่อการรั่วไหล ได้แก่ อีเมล, เอกสาร, รหัส, แผนธุรกิจ และทรัพย์สินทางปัญญา ➡️ โดยเฉพาะ AI ภายในองค์กรที่ฝึกด้วยข้อมูลลับ ➡️ มีความเชื่อมั่นสูงแต่ขาดระบบป้องกันคำสั่งแฝง ✅ LayerX แนะนำให้ตรวจสอบพฤติกรรม DOM ของส่วนเสริมแทนการดูแค่สิทธิ์ที่ประกาศไว้ ➡️ ปรับระบบความปลอดภัยให้มองเห็นการเปลี่ยนแปลงใน DOM ➡️ ป้องกันการแอบแฝงคำสั่งและการดึงข้อมูลแบบเรียลไทม์ ‼️ ส่วนเสริมที่ดูปลอดภัยอาจถูกแฮกหรือซื้อสิทธิ์ไปใช้โจมตีได้ ⛔ เช่น ส่วนเสริมที่มีฟีเจอร์จัดการ prompt อาจถูกใช้เพื่อแอบแฝงคำสั่ง ⛔ ไม่ต้องมีการติดตั้งใหม่หรืออนุญาตใด ๆ จากผู้ใช้ ‼️ ระบบความปลอดภัยแบบเดิมไม่สามารถตรวจจับการโจมตีในระดับ DOM ได้ ⛔ เช่น DLP หรือ Secure Web Gateway ไม่เห็นการเปลี่ยนแปลงใน DOM ⛔ การบล็อก URL ของ AI ไม่ช่วยป้องกันการโจมตีภายในเบราว์เซอร์ ‼️ องค์กรที่อนุญาตให้ติดตั้งส่วนเสริมอย่างเสรีมีความเสี่ยงสูงมาก ⛔ พนักงานอาจติดตั้งส่วนเสริมที่เป็นอันตรายโดยไม่รู้ตัว ⛔ ข้อมูลภายในองค์กรอาจถูกขโมยผ่าน AI ที่เชื่อมกับเบราว์เซอร์ ‼️ AI ที่ฝึกด้วยข้อมูลลับภายในองค์กรมีความเสี่ยงสูงสุด ⛔ เช่น ข้อมูลทางกฎหมาย, การเงิน, หรือกลยุทธ์ ⛔ หากถูกดึงออกผ่าน prompt จะไม่มีทางรู้ตัวเลย https://hackread.com/browser-extensions-exploit-chatgpt-gemini-man-in-the-prompt/
    HACKREAD.COM
    Browser Extensions Can Exploit ChatGPT, Gemini in ‘Man in the Prompt’ Attack
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 263 Views 0 Reviews
  • เรื่องเล่าจากโลก LLMs: พาไปส่องโครงสร้างภายในของโมเดล AI ยักษ์ยุคใหม่

    7 ปีผ่านไปจาก GPT-2 ถึงวันนี้ แม้โมเดลจะดูคล้ายกันมาก แต่ภายใต้ “กลไกเล็ก ๆ” กลับมีการเปลี่ยนแปลงครั้งใหญ่ในเรื่องประสิทธิภาพและหน่วยความจำ เช่น:
    - เปลี่ยนจาก Multi-Head Attention (MHA) เป็น Grouped-Query Attention (GQA)
    - ใช้ Multi-Head Latent Attention (MLA) ในบางโมเดล เช่น DeepSeek V3
    - การใช้ Mixture-of-Experts (MoE) เพื่อเพิ่มพารามิเตอร์โดยไม่เพิ่มต้นทุน inference
    - การปรับตำแหน่งของ Normalization Layer เพื่อให้โมเดลเสถียรขึ้น
    - ใช้ Sliding Window Attention และ QK-Norm เพื่อประหยัด KV cache และเร่งการเรียนรู้
    - ลดขนาดโมเดลโดยยังให้ความสามารถสูง เช่น SmolLM3 กับ Gemma 3n

    DeepSeek V3 ใช้ Multi-Head Latent Attention (MLA) แทน GQA เพื่อประหยัด KV cache
    ขณะเดียวกันยังให้ผลลัพธ์ดีกว่า MHA และใช้พารามิเตอร์น้อยลง
    MLA แม้มีผลดี แต่ยังใหม่และซับซ้อนในการ implement
    ต้องใช้การบีบอัดและ projection ซึ่งเพิ่มขั้นตอนในการ inference

    DeepSeek V3 ใช้ Mixture-of-Experts (MoE) ที่มี 256 expert layers
    ใช้เพียง 9 expert ต่อ token ขณะ inference ทำให้ประหยัดพลังงาน
    การใช้ MoE ทำให้ parameter ทั้งหมดเยอะมาก แม้จะใช้จริงเพียงส่วนน้อย
    หากระบบ routing ไม่ดีหรือไม่เสถียร อาจเกิด undertraining ในบาง expert

    OLMo 2 ใช้ Post-Norm แบบใหม่ และเพิ่ม QK-Norm ภายใน attention block
    ช่วยเสถียรภาพในการฝึกและลด loss
    QK-Norm และการสลับ Pre/Post-Norm ต้องทดลองอย่างระวัง
    ถ้าใช้ผิดจังหวะอาจทำให้ training loss แปรปรวน

    Gemma 3 ใช้ Sliding Window Attention เพื่อลดการใช้หน่วยความจำ
    ลดขนาด window เหลือ 1024 token และมี Global Attention เฉพาะบางชั้น
    Sliding Window Attention ลด memory แต่ไม่ลด latency เสมอไป
    เพราะยังต้องประมวลผลแบบ local ซึ่งไม่สามารถใช้ FlashAttention ได้เต็มที่

    Gemma 3n ใช้ Per-Layer Embedding เพื่อให้ inference บนอุปกรณ์เล็ก
    แยก parameter บางส่วนไว้บน CPU หรือ SSD แล้วโหลดตามต้องการ
    Per-Layer Embedding ทำให้พารามิเตอร์ถูกสตรีมจากอุปกรณ์ภายนอก
    ถ้า bandwidth หรือ latency สูงเกินไปจะกระทบต่อการ inference อย่างหนัก

    Mistral Small 3.1 เลิกใช้ Sliding Attention เพื่อรองรับ FlashAttention แบบเต็ม
    ทำให้ inference เร็วขึ้นแม้จะมีพารามิเตอร์ใกล้เคียงกับ Gemma 3

    Llama 4 ใช้ MoE แบบ alternated (สลับชั้น MoE กับ Dense)
    Active parameter มีแค่ 17B แม้ model จะมี 400B

    Qwen3 มีรุ่น dense ขนาดเล็กมาก (เช่น 0.6B) และ MoE ขนาดใหญ่ถึง 235B
    รุ่น MoE ไม่มี shared expert แต่ยังใช้ GQA เหมือนรุ่นก่อน

    SmolLM3 ใช้ NoPE (No Positional Embeddings) แบบไม่ระบุตำแหน่งเลย
    แสดงให้เห็นว่าไม่ต้องใช้ embedding ก็สามารถเรียนรู้ลำดับได้บางส่วน
    การไม่มี Positional Embedding (เช่น NoPE) อาจกระทบโมเดลใน task ที่ต้องอิงลำดับ
    เช่นการสรุปเนื้อหายาว หรือการจัดเรียงข้อมูลตามเวลา

    https://magazine.sebastianraschka.com/p/the-big-llm-architecture-comparison
    🎙️ เรื่องเล่าจากโลก LLMs: พาไปส่องโครงสร้างภายในของโมเดล AI ยักษ์ยุคใหม่ 7 ปีผ่านไปจาก GPT-2 ถึงวันนี้ แม้โมเดลจะดูคล้ายกันมาก แต่ภายใต้ “กลไกเล็ก ๆ” กลับมีการเปลี่ยนแปลงครั้งใหญ่ในเรื่องประสิทธิภาพและหน่วยความจำ เช่น: - เปลี่ยนจาก Multi-Head Attention (MHA) เป็น Grouped-Query Attention (GQA) - ใช้ Multi-Head Latent Attention (MLA) ในบางโมเดล เช่น DeepSeek V3 - การใช้ Mixture-of-Experts (MoE) เพื่อเพิ่มพารามิเตอร์โดยไม่เพิ่มต้นทุน inference - การปรับตำแหน่งของ Normalization Layer เพื่อให้โมเดลเสถียรขึ้น - ใช้ Sliding Window Attention และ QK-Norm เพื่อประหยัด KV cache และเร่งการเรียนรู้ - ลดขนาดโมเดลโดยยังให้ความสามารถสูง เช่น SmolLM3 กับ Gemma 3n ✅ DeepSeek V3 ใช้ Multi-Head Latent Attention (MLA) แทน GQA เพื่อประหยัด KV cache ➡️ ขณะเดียวกันยังให้ผลลัพธ์ดีกว่า MHA และใช้พารามิเตอร์น้อยลง ‼️ MLA แม้มีผลดี แต่ยังใหม่และซับซ้อนในการ implement ⛔ ต้องใช้การบีบอัดและ projection ซึ่งเพิ่มขั้นตอนในการ inference ✅ DeepSeek V3 ใช้ Mixture-of-Experts (MoE) ที่มี 256 expert layers ➡️ ใช้เพียง 9 expert ต่อ token ขณะ inference ทำให้ประหยัดพลังงาน ‼️ การใช้ MoE ทำให้ parameter ทั้งหมดเยอะมาก แม้จะใช้จริงเพียงส่วนน้อย ⛔ หากระบบ routing ไม่ดีหรือไม่เสถียร อาจเกิด undertraining ในบาง expert ✅ OLMo 2 ใช้ Post-Norm แบบใหม่ และเพิ่ม QK-Norm ภายใน attention block ➡️ ช่วยเสถียรภาพในการฝึกและลด loss ‼️ QK-Norm และการสลับ Pre/Post-Norm ต้องทดลองอย่างระวัง ⛔ ถ้าใช้ผิดจังหวะอาจทำให้ training loss แปรปรวน ✅ Gemma 3 ใช้ Sliding Window Attention เพื่อลดการใช้หน่วยความจำ ➡️ ลดขนาด window เหลือ 1024 token และมี Global Attention เฉพาะบางชั้น ‼️ Sliding Window Attention ลด memory แต่ไม่ลด latency เสมอไป ⛔ เพราะยังต้องประมวลผลแบบ local ซึ่งไม่สามารถใช้ FlashAttention ได้เต็มที่ ✅ Gemma 3n ใช้ Per-Layer Embedding เพื่อให้ inference บนอุปกรณ์เล็ก ➡️ แยก parameter บางส่วนไว้บน CPU หรือ SSD แล้วโหลดตามต้องการ ‼️ Per-Layer Embedding ทำให้พารามิเตอร์ถูกสตรีมจากอุปกรณ์ภายนอก ⛔ ถ้า bandwidth หรือ latency สูงเกินไปจะกระทบต่อการ inference อย่างหนัก ✅ Mistral Small 3.1 เลิกใช้ Sliding Attention เพื่อรองรับ FlashAttention แบบเต็ม ➡️ ทำให้ inference เร็วขึ้นแม้จะมีพารามิเตอร์ใกล้เคียงกับ Gemma 3 ✅ Llama 4 ใช้ MoE แบบ alternated (สลับชั้น MoE กับ Dense) ➡️ Active parameter มีแค่ 17B แม้ model จะมี 400B ✅ Qwen3 มีรุ่น dense ขนาดเล็กมาก (เช่น 0.6B) และ MoE ขนาดใหญ่ถึง 235B ➡️ รุ่น MoE ไม่มี shared expert แต่ยังใช้ GQA เหมือนรุ่นก่อน ✅ SmolLM3 ใช้ NoPE (No Positional Embeddings) แบบไม่ระบุตำแหน่งเลย ➡️ แสดงให้เห็นว่าไม่ต้องใช้ embedding ก็สามารถเรียนรู้ลำดับได้บางส่วน ‼️ การไม่มี Positional Embedding (เช่น NoPE) อาจกระทบโมเดลใน task ที่ต้องอิงลำดับ ⛔ เช่นการสรุปเนื้อหายาว หรือการจัดเรียงข้อมูลตามเวลา https://magazine.sebastianraschka.com/p/the-big-llm-architecture-comparison
    MAGAZINE.SEBASTIANRASCHKA.COM
    The Big LLM Architecture Comparison
    From DeepSeek-V3 to Kimi K2: A Look At Modern LLM Architecture Design
    0 Comments 0 Shares 265 Views 0 Reviews
  • DeepSeek ถูกแบนในเช็ก – เพราะอาจส่งข้อมูลผู้ใช้ให้รัฐบาลจีน

    DeepSeek เป็นบริษัท AI จากจีนที่เปิดตัวในปี 2023 และได้รับความนิยมอย่างรวดเร็วหลังเปิดตัวแอปบน iOS และ Android ในเดือนมกราคม 2025 โดยสามารถแซง ChatGPT ขึ้นอันดับหนึ่งใน App Store ได้ในหลายประเทศ

    แต่ความนิยมนี้กลับมาพร้อมกับความกังวลด้านความมั่นคง เมื่อหน่วยงานความมั่นคงไซเบอร์แห่งชาติของเช็ก (NÚKIB) ออกรายงานเมื่อวันที่ 9 กรกฎาคม 2025 ระบุว่า DeepSeek และบริษัทแม่ High-Flyer มี “ความเชื่อมโยงลึก” กับรัฐบาลจีน และอาจถูกใช้เป็นเครื่องมือในการจารกรรมข้อมูล

    รายงานอ้างถึงกฎหมายจีนหลายฉบับ เช่น:
    - กฎหมายความมั่นคงแห่งชาติ
    - กฎหมายข่าวกรองแห่งชาติ
    - กฎหมายต่อต้านการจารกรรม

    ซึ่งทั้งหมดบังคับให้บริษัทจีนต้องให้ข้อมูลผู้ใช้แก่รัฐบาล ไม่ว่าผู้ใช้นั้นจะอยู่ประเทศใดก็ตาม

    ผลคือ Czechia ประกาศแบนการใช้งาน DeepSeek ในเกือบทุกกรณี ยกเว้นสำหรับนักวิจัยด้านความปลอดภัย และการใช้งานโมเดลโอเพนซอร์สที่ไม่เชื่อมต่อกับเซิร์ฟเวอร์ของบริษัท

    ประเทศอื่น ๆ ที่ออกมาตรการคล้ายกัน ได้แก่ สหรัฐฯ (รวมถึงกองทัพเรือและ NASA), แคนาดา, ออสเตรเลีย, อินเดีย, อิตาลี, เดนมาร์ก, เนเธอร์แลนด์, นอร์เวย์, เกาหลีใต้ และไต้หวัน

    NÚKIB ระบุว่า “ความกังวลต่อ DeepSeek ไม่ได้เกิดจากวัฒนธรรมร่วมกันหรือภูมิศาสตร์ แต่เป็นผลจากการประเมินความเสี่ยงอย่างเป็นกลาง” และคาดว่าประเทศอื่น ๆ จะออกมาตรการเพิ่มเติมในอีกไม่กี่เดือนข้างหน้า

    ข้อมูลจากข่าว
    - รัฐบาลเช็กประกาศแบนการใช้งาน DeepSeek เนื่องจากความเสี่ยงด้านความมั่นคงไซเบอร์
    - DeepSeek เป็นบริษัท AI จากจีนที่เปิดตัวในปี 2023 และได้รับความนิยมในปี 2025
    - หน่วยงาน NÚKIB ระบุว่า DeepSeek มีความเชื่อมโยงกับรัฐบาลจีน
    - อ้างถึงกฎหมายจีนที่บังคับให้บริษัทต้องให้ข้อมูลผู้ใช้แก่รัฐบาล
    - การแบนครอบคลุมทุกกรณี ยกเว้นนักวิจัยและการใช้งานแบบ self-host ที่ไม่เชื่อมต่อกับเซิร์ฟเวอร์ของบริษัท
    - ประเทศอื่นที่ออกมาตรการคล้ายกัน ได้แก่ สหรัฐฯ, แคนาดา, ออสเตรเลีย, อินเดีย, อิตาลี, เดนมาร์ก, เนเธอร์แลนด์, นอร์เวย์, เกาหลีใต้ และไต้หวัน

    คำเตือนและข้อควรระวัง
    - ผู้ใช้ DeepSeek อาจเสี่ยงต่อการถูกเก็บข้อมูลและส่งต่อให้รัฐบาลจีนโดยไม่รู้ตัว
    - กฎหมายจีนมีอำนาจเหนือบริษัทจีนแม้จะให้บริการในต่างประเทศ
    - การใช้งานโมเดล AI ที่เชื่อมต่อกับเซิร์ฟเวอร์จีนอาจเปิดช่องให้เกิดการจารกรรมข้อมูล
    - องค์กรควรหลีกเลี่ยงการใช้บริการจากบริษัทที่มีความเชื่อมโยงกับรัฐบาลต่างชาติในงานที่เกี่ยวข้องกับข้อมูลสำคัญ
    - การใช้งานโมเดลโอเพนซอร์สควรทำแบบ self-host เพื่อป้องกันการส่งข้อมูลออกนอกองค์กร

    https://www.tomshardware.com/tech-industry/cyber-security/czechia-warns-that-deepseek-can-share-all-user-information-with-the-chinese-government
    DeepSeek ถูกแบนในเช็ก – เพราะอาจส่งข้อมูลผู้ใช้ให้รัฐบาลจีน DeepSeek เป็นบริษัท AI จากจีนที่เปิดตัวในปี 2023 และได้รับความนิยมอย่างรวดเร็วหลังเปิดตัวแอปบน iOS และ Android ในเดือนมกราคม 2025 โดยสามารถแซง ChatGPT ขึ้นอันดับหนึ่งใน App Store ได้ในหลายประเทศ แต่ความนิยมนี้กลับมาพร้อมกับความกังวลด้านความมั่นคง เมื่อหน่วยงานความมั่นคงไซเบอร์แห่งชาติของเช็ก (NÚKIB) ออกรายงานเมื่อวันที่ 9 กรกฎาคม 2025 ระบุว่า DeepSeek และบริษัทแม่ High-Flyer มี “ความเชื่อมโยงลึก” กับรัฐบาลจีน และอาจถูกใช้เป็นเครื่องมือในการจารกรรมข้อมูล รายงานอ้างถึงกฎหมายจีนหลายฉบับ เช่น: - กฎหมายความมั่นคงแห่งชาติ - กฎหมายข่าวกรองแห่งชาติ - กฎหมายต่อต้านการจารกรรม ซึ่งทั้งหมดบังคับให้บริษัทจีนต้องให้ข้อมูลผู้ใช้แก่รัฐบาล ไม่ว่าผู้ใช้นั้นจะอยู่ประเทศใดก็ตาม ผลคือ Czechia ประกาศแบนการใช้งาน DeepSeek ในเกือบทุกกรณี ยกเว้นสำหรับนักวิจัยด้านความปลอดภัย และการใช้งานโมเดลโอเพนซอร์สที่ไม่เชื่อมต่อกับเซิร์ฟเวอร์ของบริษัท ประเทศอื่น ๆ ที่ออกมาตรการคล้ายกัน ได้แก่ สหรัฐฯ (รวมถึงกองทัพเรือและ NASA), แคนาดา, ออสเตรเลีย, อินเดีย, อิตาลี, เดนมาร์ก, เนเธอร์แลนด์, นอร์เวย์, เกาหลีใต้ และไต้หวัน NÚKIB ระบุว่า “ความกังวลต่อ DeepSeek ไม่ได้เกิดจากวัฒนธรรมร่วมกันหรือภูมิศาสตร์ แต่เป็นผลจากการประเมินความเสี่ยงอย่างเป็นกลาง” และคาดว่าประเทศอื่น ๆ จะออกมาตรการเพิ่มเติมในอีกไม่กี่เดือนข้างหน้า ✅ ข้อมูลจากข่าว - รัฐบาลเช็กประกาศแบนการใช้งาน DeepSeek เนื่องจากความเสี่ยงด้านความมั่นคงไซเบอร์ - DeepSeek เป็นบริษัท AI จากจีนที่เปิดตัวในปี 2023 และได้รับความนิยมในปี 2025 - หน่วยงาน NÚKIB ระบุว่า DeepSeek มีความเชื่อมโยงกับรัฐบาลจีน - อ้างถึงกฎหมายจีนที่บังคับให้บริษัทต้องให้ข้อมูลผู้ใช้แก่รัฐบาล - การแบนครอบคลุมทุกกรณี ยกเว้นนักวิจัยและการใช้งานแบบ self-host ที่ไม่เชื่อมต่อกับเซิร์ฟเวอร์ของบริษัท - ประเทศอื่นที่ออกมาตรการคล้ายกัน ได้แก่ สหรัฐฯ, แคนาดา, ออสเตรเลีย, อินเดีย, อิตาลี, เดนมาร์ก, เนเธอร์แลนด์, นอร์เวย์, เกาหลีใต้ และไต้หวัน ‼️ คำเตือนและข้อควรระวัง - ผู้ใช้ DeepSeek อาจเสี่ยงต่อการถูกเก็บข้อมูลและส่งต่อให้รัฐบาลจีนโดยไม่รู้ตัว - กฎหมายจีนมีอำนาจเหนือบริษัทจีนแม้จะให้บริการในต่างประเทศ - การใช้งานโมเดล AI ที่เชื่อมต่อกับเซิร์ฟเวอร์จีนอาจเปิดช่องให้เกิดการจารกรรมข้อมูล - องค์กรควรหลีกเลี่ยงการใช้บริการจากบริษัทที่มีความเชื่อมโยงกับรัฐบาลต่างชาติในงานที่เกี่ยวข้องกับข้อมูลสำคัญ - การใช้งานโมเดลโอเพนซอร์สควรทำแบบ self-host เพื่อป้องกันการส่งข้อมูลออกนอกองค์กร https://www.tomshardware.com/tech-industry/cyber-security/czechia-warns-that-deepseek-can-share-all-user-information-with-the-chinese-government
    WWW.TOMSHARDWARE.COM
    Czechia warns that DeepSeek can share all user information with the Chinese government
    U.S. lawmakers issued similar warnings after the China-based AI company released its eponymous chatbot.
    0 Comments 0 Shares 475 Views 0 Reviews
  • AI สร้างมัลแวร์หลบหลีก Microsoft Defender ได้ – แค่ฝึกสามเดือนก็แฮกทะลุ

    นักวิจัยจาก Outflank ซึ่งเป็นทีม red team ด้านความปลอดภัย เปิดเผยว่า พวกเขาสามารถฝึกโมเดล Qwen 2.5 (โมเดล LLM แบบโอเพนซอร์สจาก Alibaba) ให้สร้างมัลแวร์ที่สามารถหลบหลีก Microsoft Defender for Endpoint ได้สำเร็จประมาณ 8% ของกรณี หลังใช้เวลาเพียง 3 เดือนและงบประมาณราว $1,500

    ผลลัพธ์นี้จะถูกนำเสนอในงาน Black Hat 2025 ซึ่งเป็นงานสัมมนาด้านความปลอดภัยระดับโลก โดยถือเป็น “proof of concept” ที่แสดงให้เห็นว่า AI สามารถถูกนำมาใช้สร้างภัยคุกคามไซเบอร์ได้จริง

    เมื่อเปรียบเทียบกับโมเดลอื่น:
    - Anthropic’s AI ทำได้ <1%
    - DeepSeek ทำได้ <0.5%
    - Qwen 2.5 จึงถือว่ามีประสิทธิภาพสูงกว่ามากในบริบทนี้

    นักวิจัยยังระบุว่า หากมีทรัพยากร GPU มากกว่านี้ และใช้ reinforcement learning อย่างจริงจัง ประสิทธิภาพของโมเดลอาจเพิ่มขึ้นอีกมาก ซึ่งเป็นสัญญาณเตือนสำหรับอนาคตของการโจมตีแบบอัตโนมัติ

    แม้ Microsoft Defender จะยังคงเป็นเครื่องมือที่มีประสิทธิภาพในภาพรวม แต่การพัฒนา AI ฝั่งรุก (offensive AI) กำลังไล่ตามอย่างรวดเร็ว และอาจทำให้ระบบป้องกันต้องปรับตัวอย่างหนักในอนาคต

    ข้อมูลจากข่าว
    - นักวิจัยจาก Outflank ฝึกโมเดล Qwen 2.5 ให้สร้างมัลแวร์ที่หลบหลีก Microsoft Defender ได้
    - ใช้เวลา 3 เดือนและงบประมาณ $1,500 ในการฝึกโมเดล
    - ประสิทธิภาพของโมเดลอยู่ที่ 8% ซึ่งสูงกว่าโมเดลอื่น ๆ ที่ทดสอบ
    - จะมีการนำเสนอผลการทดลองในงาน Black Hat 2025
    - ใช้เทคนิค reinforcement learning เพื่อปรับปรุงความสามารถของโมเดล
    - ถือเป็น proof of concept ที่แสดงให้เห็นว่า AI สามารถสร้างภัยไซเบอร์ได้จริง

    คำเตือนและข้อควรระวัง
    - การใช้ AI สร้างมัลแวร์อาจกลายเป็นเครื่องมือใหม่ของแฮกเกอร์ในอนาคต
    - โมเดลโอเพนซอร์สสามารถถูกนำไปใช้ในทางร้ายได้ หากไม่มีการควบคุม
    - Microsoft Defender อาจต้องปรับปรุงอย่างต่อเนื่องเพื่อรับมือกับภัยคุกคามจาก AI
    - การมี GPU และทรัพยากรเพียงพออาจทำให้บุคคลทั่วไปสามารถฝึกโมเดลโจมตีได้
    - การพึ่งพาเครื่องมือป้องกันเพียงอย่างเดียวไม่เพียงพอ ต้องมีการฝึกอบรมและวางระบบความปลอดภัยเชิงรุก
    - องค์กรควรเริ่มรวม AI threat modeling เข้าในแผนความปลอดภัยไซเบอร์

    https://www.tomshardware.com/tech-industry/cyber-security/ai-malware-can-now-evade-microsoft-defender-open-source-llm-outsmarts-tool-around-8-percent-of-the-time-after-three-months-of-training
    AI สร้างมัลแวร์หลบหลีก Microsoft Defender ได้ – แค่ฝึกสามเดือนก็แฮกทะลุ นักวิจัยจาก Outflank ซึ่งเป็นทีม red team ด้านความปลอดภัย เปิดเผยว่า พวกเขาสามารถฝึกโมเดล Qwen 2.5 (โมเดล LLM แบบโอเพนซอร์สจาก Alibaba) ให้สร้างมัลแวร์ที่สามารถหลบหลีก Microsoft Defender for Endpoint ได้สำเร็จประมาณ 8% ของกรณี หลังใช้เวลาเพียง 3 เดือนและงบประมาณราว $1,500 ผลลัพธ์นี้จะถูกนำเสนอในงาน Black Hat 2025 ซึ่งเป็นงานสัมมนาด้านความปลอดภัยระดับโลก โดยถือเป็น “proof of concept” ที่แสดงให้เห็นว่า AI สามารถถูกนำมาใช้สร้างภัยคุกคามไซเบอร์ได้จริง เมื่อเปรียบเทียบกับโมเดลอื่น: - Anthropic’s AI ทำได้ <1% - DeepSeek ทำได้ <0.5% - Qwen 2.5 จึงถือว่ามีประสิทธิภาพสูงกว่ามากในบริบทนี้ นักวิจัยยังระบุว่า หากมีทรัพยากร GPU มากกว่านี้ และใช้ reinforcement learning อย่างจริงจัง ประสิทธิภาพของโมเดลอาจเพิ่มขึ้นอีกมาก ซึ่งเป็นสัญญาณเตือนสำหรับอนาคตของการโจมตีแบบอัตโนมัติ แม้ Microsoft Defender จะยังคงเป็นเครื่องมือที่มีประสิทธิภาพในภาพรวม แต่การพัฒนา AI ฝั่งรุก (offensive AI) กำลังไล่ตามอย่างรวดเร็ว และอาจทำให้ระบบป้องกันต้องปรับตัวอย่างหนักในอนาคต ✅ ข้อมูลจากข่าว - นักวิจัยจาก Outflank ฝึกโมเดล Qwen 2.5 ให้สร้างมัลแวร์ที่หลบหลีก Microsoft Defender ได้ - ใช้เวลา 3 เดือนและงบประมาณ $1,500 ในการฝึกโมเดล - ประสิทธิภาพของโมเดลอยู่ที่ 8% ซึ่งสูงกว่าโมเดลอื่น ๆ ที่ทดสอบ - จะมีการนำเสนอผลการทดลองในงาน Black Hat 2025 - ใช้เทคนิค reinforcement learning เพื่อปรับปรุงความสามารถของโมเดล - ถือเป็น proof of concept ที่แสดงให้เห็นว่า AI สามารถสร้างภัยไซเบอร์ได้จริง ‼️ คำเตือนและข้อควรระวัง - การใช้ AI สร้างมัลแวร์อาจกลายเป็นเครื่องมือใหม่ของแฮกเกอร์ในอนาคต - โมเดลโอเพนซอร์สสามารถถูกนำไปใช้ในทางร้ายได้ หากไม่มีการควบคุม - Microsoft Defender อาจต้องปรับปรุงอย่างต่อเนื่องเพื่อรับมือกับภัยคุกคามจาก AI - การมี GPU และทรัพยากรเพียงพออาจทำให้บุคคลทั่วไปสามารถฝึกโมเดลโจมตีได้ - การพึ่งพาเครื่องมือป้องกันเพียงอย่างเดียวไม่เพียงพอ ต้องมีการฝึกอบรมและวางระบบความปลอดภัยเชิงรุก - องค์กรควรเริ่มรวม AI threat modeling เข้าในแผนความปลอดภัยไซเบอร์ https://www.tomshardware.com/tech-industry/cyber-security/ai-malware-can-now-evade-microsoft-defender-open-source-llm-outsmarts-tool-around-8-percent-of-the-time-after-three-months-of-training
    WWW.TOMSHARDWARE.COM
    AI malware can now evade Microsoft Defender — open-source LLM outsmarts tool around 8% of the time after three months of training
    Researchers plan to show off a model that successfully outsmarts Microsoft's security tooling about 8% of the time at Black Hat 2025.
    0 Comments 0 Shares 334 Views 0 Reviews
  • จีนกำลังสร้างเมืองแห่ง AI กลางทะเลทรายตะวันตก — โครงการนี้ถูกพัฒนาในเมืองอี้อู (Yiwu) โดยมีแผนจะวางระบบดาต้าเซ็นเตอร์ 36 แห่ง เชื่อมต่อกันผ่านโครงข่ายความเร็วสูง → ที่เด็ดคือจำนวนชิป H100/H200 ที่จะใช้งานรวมกันเกิน 115,000 ตัว! → เทียบเท่ากับกริดของบริษัทคลาวด์ขนาดใหญ่ระดับโลกในบางประเทศเลยทีเดียว

    แต่ปัญหาใหญ่อยู่ที่ข้อจำกัดของสหรัฐฯ ที่ห้ามส่งออก NVIDIA รุ่นสูง (H100/H200) ไปยังจีน → แล้ว “จีนจะหาชิปจากไหน?” Bloomberg รายงานว่ามีช่องทางหลายรูปแบบ ทั้ง:
    - การขนย้ายผ่านประเทศในเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซีย–สิงคโปร์
    - การใช้ชิป H20 ที่ยังไม่ถูกควบคุมแบบเข้มข้น
    - และการใช้ loophole ด้านเทรดเพื่อเข้าสู่ระบบภายใน → แสดงให้เห็นว่า มาตรการคุมส่งออกยังไม่สามารถปิดทุกช่องทางได้ 100%

    บริษัทคลื่นลูกใหม่เช่น Zhipu AI และ DeepSeek เริ่มใช้คลัสเตอร์ระดับ Sovereign AI — ที่รัฐบาลสนับสนุนให้สร้าง AI ด้วยทรัพยากรภายในประเทศ → ซึ่งถ้าโครงการนี้เดินหน้าได้จริง = จีนจะมี compute power ที่ใกล้เคียงกับสหรัฐฯ โดยไม่ต้องพึ่งบริษัทตะวันตกเลย

    จีนกำลังสร้างโครงสร้างพื้นฐาน AI ขนาด hyperscale ที่ Yiwu → ครอบคลุม 36 ดาต้าเซ็นเตอร์
    • มีแผนใช้ NVIDIA H100 / H200 รวมกว่า 115,000 ตัว  
    • เป็นหนึ่งในโครงการใหญ่ที่สุดที่เคยสร้างในจีนด้าน AI

    แม้ถูกสหรัฐฯ จำกัดการเข้าถึง H-series → ยังมีการขนย้ายผ่านช่องทางระดับ SEA (เช่น สิงคโปร์–มาเลเซีย)

    จีนยังมีคลัง H20 ที่บริษัท Big Tech ภายในประเทศใช้งานอยู่แล้ว → อาจใช้ทดแทนการขาด H100 ได้ระดับหนึ่ง

    ดาต้าเซ็นเตอร์จีนเติบโตอย่างรวดเร็ว → คาดว่ามูลค่าตลาดจะอยู่ที่ 300 พันล้านหยวนภายในปีนี้

    โครงการยังไม่ได้รับการยืนยันจากฝ่ายสหรัฐฯ → อาจอยู่ในระยะลับหรือวางแผนต้นแบบ

    จีนยังไม่หันไปใช้ชิป Huawei หรือทางเลือกในประเทศสำหรับระบบ hyperscale → แสดงถึงการพึ่ง NVIDIA เป็นหลัก

    https://wccftech.com/chinese-ai-firms-plans-massive-domestic-data-center-with-100000-nvidia-ai-chips/
    จีนกำลังสร้างเมืองแห่ง AI กลางทะเลทรายตะวันตก — โครงการนี้ถูกพัฒนาในเมืองอี้อู (Yiwu) โดยมีแผนจะวางระบบดาต้าเซ็นเตอร์ 36 แห่ง เชื่อมต่อกันผ่านโครงข่ายความเร็วสูง → ที่เด็ดคือจำนวนชิป H100/H200 ที่จะใช้งานรวมกันเกิน 115,000 ตัว! → เทียบเท่ากับกริดของบริษัทคลาวด์ขนาดใหญ่ระดับโลกในบางประเทศเลยทีเดียว แต่ปัญหาใหญ่อยู่ที่ข้อจำกัดของสหรัฐฯ ที่ห้ามส่งออก NVIDIA รุ่นสูง (H100/H200) ไปยังจีน → แล้ว “จีนจะหาชิปจากไหน?” Bloomberg รายงานว่ามีช่องทางหลายรูปแบบ ทั้ง: - การขนย้ายผ่านประเทศในเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซีย–สิงคโปร์ - การใช้ชิป H20 ที่ยังไม่ถูกควบคุมแบบเข้มข้น - และการใช้ loophole ด้านเทรดเพื่อเข้าสู่ระบบภายใน → แสดงให้เห็นว่า มาตรการคุมส่งออกยังไม่สามารถปิดทุกช่องทางได้ 100% บริษัทคลื่นลูกใหม่เช่น Zhipu AI และ DeepSeek เริ่มใช้คลัสเตอร์ระดับ Sovereign AI — ที่รัฐบาลสนับสนุนให้สร้าง AI ด้วยทรัพยากรภายในประเทศ → ซึ่งถ้าโครงการนี้เดินหน้าได้จริง = จีนจะมี compute power ที่ใกล้เคียงกับสหรัฐฯ โดยไม่ต้องพึ่งบริษัทตะวันตกเลย ✅ จีนกำลังสร้างโครงสร้างพื้นฐาน AI ขนาด hyperscale ที่ Yiwu → ครอบคลุม 36 ดาต้าเซ็นเตอร์ • มีแผนใช้ NVIDIA H100 / H200 รวมกว่า 115,000 ตัว   • เป็นหนึ่งในโครงการใหญ่ที่สุดที่เคยสร้างในจีนด้าน AI ✅ แม้ถูกสหรัฐฯ จำกัดการเข้าถึง H-series → ยังมีการขนย้ายผ่านช่องทางระดับ SEA (เช่น สิงคโปร์–มาเลเซีย) ✅ จีนยังมีคลัง H20 ที่บริษัท Big Tech ภายในประเทศใช้งานอยู่แล้ว → อาจใช้ทดแทนการขาด H100 ได้ระดับหนึ่ง ✅ ดาต้าเซ็นเตอร์จีนเติบโตอย่างรวดเร็ว → คาดว่ามูลค่าตลาดจะอยู่ที่ 300 พันล้านหยวนภายในปีนี้ ✅ โครงการยังไม่ได้รับการยืนยันจากฝ่ายสหรัฐฯ → อาจอยู่ในระยะลับหรือวางแผนต้นแบบ ✅ จีนยังไม่หันไปใช้ชิป Huawei หรือทางเลือกในประเทศสำหรับระบบ hyperscale → แสดงถึงการพึ่ง NVIDIA เป็นหลัก https://wccftech.com/chinese-ai-firms-plans-massive-domestic-data-center-with-100000-nvidia-ai-chips/
    WCCFTECH.COM
    Chinese AI Firms Plan Massive Domestic Data Centers With 100,000+ NVIDIA AI Chips — But Where Will the Chips Come From?
    It is reported that China's AI companies have put up a big ambition of installing a "hyperscale" level facility in the nation.
    0 Comments 0 Shares 296 Views 0 Reviews
  • อยู่ดี ๆ บน GitHub ก็มีรายงานจากกลุ่มชื่อ HonestAGI โพสต์งานวิเคราะห์ที่ชี้ว่า → Huawei ใช้ โมเดล Qwen 2.5–14B ของ Alibaba เป็นพื้นฐาน → แล้ว “ปรับแต่ง–ฝึกต่อ (incremental training)” กลายเป็น Pangu Pro MOE ที่เปิดตัวเมื่อเร็ว ๆ นี้ → รายงานนี้บอกว่าโมเดลสองตัวมี “ความคล้ายอย่างผิดปกติ” จนไม่น่าเกิดจากแค่บังเอิญ

    ประเด็นร้อนคือ:
    - ถ้าจริง = Huawei อาจ ละเมิดลิขสิทธิ์โมเดล + ใส่ข้อมูลเท็จในรายงานทางเทคนิค
    - ถ้าไม่จริง = HonestAGI เองก็ไม่มีโปร่งใส และไม่รู้ว่าเบื้องหลังเป็นใคร

    Huawei ไม่รอช้า ออกแถลงการณ์ผ่านห้องวิจัย AI “Noah’s Ark Lab” → ยืนยันว่า Pangu Pro Moe ฝึกจากศูนย์ (from scratch) → ชี้ว่าโมเดลนี้ใช้ Huawei Ascend chip ทุกขั้นตอน และ “ออกแบบโครงสร้างเองทั้งหมด” → ยอมรับว่าอ้างอิง open-source แต่ ปฏิบัติตามเงื่อนไขลิขสิทธิ์อย่างเคร่งครัด

    Alibaba ปฏิเสธให้ความเห็น และยังไม่มีตัวตนของ HonestAGI เปิดเผยอย่างชัดเจน

    หลายฝ่ายมองว่าเรื่องนี้สะท้อน “การแข่งขันและความกดดันสูง” ในวงการ LLM จีน ที่ตอนนี้ Qwen–DeepSeek–Pangu–Baichuan ต่างเปิดโมเดลแข่งกันอย่างดุเดือด

    กลุ่ม HonestAGI เผยแพร่งานวิเคราะห์โมเดล Huawei ว่า “มีความสัมพันธ์สูงผิดปกติกับ Qwen 2.5”  
    • คาดว่าฝึกต่อจากโมเดล Alibaba โดยไม่ฝึกเองตั้งแต่ต้น  
    • ชี้ว่าอาจมีการใส่ข้อมูลเท็จ–ละเมิด open source license

    Huawei ออกแถลงการณ์โต้ทันทีว่า “ไม่ได้ลอก”  
    • โมเดล Pangu Pro MOE ใช้ชิป Ascend ทั้งหมด  
    • พัฒนาเองทุกด้าน ทั้งสถาปัตยกรรมและข้อมูล  
    • ยอมรับใช้อ้างอิง open source แต่ไม่ระบุว่าใช้อะไรบ้าง

    Huawei เปิด source โมเดลนี้บน GitCode ตั้งแต่ปลาย มิ.ย. 2025 เพื่อให้เข้าถึงง่ายขึ้น  
    • พยายามผลักดันการใช้งานในสายรัฐบาล, การเงิน, อุตสาหกรรม

    โมเดล Qwen ของ Alibaba ถูกออกแบบมาเน้นใช้งานฝั่ง consumer เช่น chatbot เหมือน GPT

    จนถึงขณะนี้ Alibaba ยังไม่มีแถลงอย่างเป็นทางการ

    https://www.thestar.com.my/tech/tech-news/2025/07/07/huawei039s-ai-lab-denies-that-one-of-its-pangu-models-copied-alibaba039s-qwen
    อยู่ดี ๆ บน GitHub ก็มีรายงานจากกลุ่มชื่อ HonestAGI โพสต์งานวิเคราะห์ที่ชี้ว่า → Huawei ใช้ โมเดล Qwen 2.5–14B ของ Alibaba เป็นพื้นฐาน → แล้ว “ปรับแต่ง–ฝึกต่อ (incremental training)” กลายเป็น Pangu Pro MOE ที่เปิดตัวเมื่อเร็ว ๆ นี้ → รายงานนี้บอกว่าโมเดลสองตัวมี “ความคล้ายอย่างผิดปกติ” จนไม่น่าเกิดจากแค่บังเอิญ ประเด็นร้อนคือ: - ถ้าจริง = Huawei อาจ ละเมิดลิขสิทธิ์โมเดล + ใส่ข้อมูลเท็จในรายงานทางเทคนิค - ถ้าไม่จริง = HonestAGI เองก็ไม่มีโปร่งใส และไม่รู้ว่าเบื้องหลังเป็นใคร Huawei ไม่รอช้า ออกแถลงการณ์ผ่านห้องวิจัย AI “Noah’s Ark Lab” → ยืนยันว่า Pangu Pro Moe ฝึกจากศูนย์ (from scratch) → ชี้ว่าโมเดลนี้ใช้ Huawei Ascend chip ทุกขั้นตอน และ “ออกแบบโครงสร้างเองทั้งหมด” → ยอมรับว่าอ้างอิง open-source แต่ ปฏิบัติตามเงื่อนไขลิขสิทธิ์อย่างเคร่งครัด Alibaba ปฏิเสธให้ความเห็น และยังไม่มีตัวตนของ HonestAGI เปิดเผยอย่างชัดเจน หลายฝ่ายมองว่าเรื่องนี้สะท้อน “การแข่งขันและความกดดันสูง” ในวงการ LLM จีน ที่ตอนนี้ Qwen–DeepSeek–Pangu–Baichuan ต่างเปิดโมเดลแข่งกันอย่างดุเดือด ✅ กลุ่ม HonestAGI เผยแพร่งานวิเคราะห์โมเดล Huawei ว่า “มีความสัมพันธ์สูงผิดปกติกับ Qwen 2.5”   • คาดว่าฝึกต่อจากโมเดล Alibaba โดยไม่ฝึกเองตั้งแต่ต้น   • ชี้ว่าอาจมีการใส่ข้อมูลเท็จ–ละเมิด open source license ✅ Huawei ออกแถลงการณ์โต้ทันทีว่า “ไม่ได้ลอก”   • โมเดล Pangu Pro MOE ใช้ชิป Ascend ทั้งหมด   • พัฒนาเองทุกด้าน ทั้งสถาปัตยกรรมและข้อมูล   • ยอมรับใช้อ้างอิง open source แต่ไม่ระบุว่าใช้อะไรบ้าง ✅ Huawei เปิด source โมเดลนี้บน GitCode ตั้งแต่ปลาย มิ.ย. 2025 เพื่อให้เข้าถึงง่ายขึ้น   • พยายามผลักดันการใช้งานในสายรัฐบาล, การเงิน, อุตสาหกรรม ✅ โมเดล Qwen ของ Alibaba ถูกออกแบบมาเน้นใช้งานฝั่ง consumer เช่น chatbot เหมือน GPT ✅ จนถึงขณะนี้ Alibaba ยังไม่มีแถลงอย่างเป็นทางการ https://www.thestar.com.my/tech/tech-news/2025/07/07/huawei039s-ai-lab-denies-that-one-of-its-pangu-models-copied-alibaba039s-qwen
    WWW.THESTAR.COM.MY
    Huawei's AI lab denies that one of its Pangu models copied Alibaba's Qwen
    Huawei's artificial intelligence research division has rejected claims that a version of its Pangu Pro large language model has copied elements from an Alibaba model, saying that it was independently developed and trained.
    0 Comments 0 Shares 288 Views 0 Reviews
  • ก่อนหน้านี้ เรามักนึกถึง Alibaba, Huawei, Tencent ว่าเป็น “ยักษ์ใหญ่จีนในจีน” แต่วันนี้พวกเขามีเป้าหมายชัดเจนว่าจะขยายตัวสู่ตลาดโลก โดยเฉพาะในช่วงที่เทรนด์ AI Infrastructure กำลังระเบิด → ทุกประเทศต่างแย่งกันสร้างศูนย์ข้อมูล รัน LLMs และติดอาวุธให้ธุรกิจด้วย AI

    จากรายงานของ Taiwan Economic Daily ระบุว่า:
    - Alibaba Cloud ลงทุนกว่า ¥400 ล้านหยวนเพื่อขยายฐาน AI ทั่วโลก
    - Huawei เริ่มปักหมุด Ascend Chips ในมาเลเซีย
    - Tencent ก็เตรียมเปิดศูนย์ข้อมูลในต่างประเทศเพิ่มเติม

    แม้จะสู้ Big Tech อย่าง AWS, Azure, Google Cloud ในเรื่อง CapEx ยังไม่ได้ แต่ ฝั่งจีนชูจุดขายด้าน “นวัตกรรมวิศวกรรม” และราคาย่อมเยา แถมมีโมเดล AI ที่เริ่มตีตื้น LLM ฝั่งตะวันตก เช่น Qwen2.5-Max, DeepSeek R1/R2

    โดยเฉพาะในตลาดเอเชียตะวันออกเฉียงใต้และตะวันออกกลาง ซึ่งยังเปิดกว้าง และไม่ยึดติดกับเทคโนโลยีจากฝั่งสหรัฐฯ → กลายเป็นสนามประลองใหม่ของ CSP จีนและอเมริกา

    Alibaba Cloud ลงทุนกว่า 400 ล้านหยวน (ราว 2 พันล้านบาท) ขยายบริการ AI Infrastructure สู่ต่างประเทศ  
    • เปิดศูนย์ข้อมูลในกว่า 29 ภูมิภาคนอกจีน  
    • เจาะตลาดเอเชียตะวันออกเฉียงใต้ ตะวันออกกลาง อย่างมาเลเซีย ไทย ฯลฯ

    Huawei ส่งชิป AI “Ascend” ลงพื้นที่ เช่นในมาเลเซีย เพื่อทดแทน GPU จากตะวันตก  
    • ใช้เป็นทางเลือกในการฝึกและรัน LLM แบบ sovereign AI

    Tencent และ Alibaba มี LLM รุ่นล่าสุดที่แข่งขันกับ GPT–Claude ได้ในบาง benchmark
    • เช่น Qwen2.5-Max, DeepSeek R1/R2  
    • แม้จะใช้ฮาร์ดแวร์ที่ “ด้อยกว่า” แต่ยังสร้างผลงานเทียบเคียงกันได้

    วิศวกรรม + ราคา ถูกชูเป็นข้อได้เปรียบเพื่อเจาะตลาดต่างประเทศ  
    • ไม่เน้น CapEx หนักแบบ AWS แต่ใช้ “โซลูชันเฉพาะกลุ่ม”

    ตลาดเป้าหมายหลักคือ: เอเชียตะวันออกเฉียงใต้, อ่าวเปอร์เซีย, ประเทศกำลังพัฒนา

    https://wccftech.com/china-big-tech-csp-are-accelerating-their-overseas-expansion/
    ก่อนหน้านี้ เรามักนึกถึง Alibaba, Huawei, Tencent ว่าเป็น “ยักษ์ใหญ่จีนในจีน” แต่วันนี้พวกเขามีเป้าหมายชัดเจนว่าจะขยายตัวสู่ตลาดโลก โดยเฉพาะในช่วงที่เทรนด์ AI Infrastructure กำลังระเบิด → ทุกประเทศต่างแย่งกันสร้างศูนย์ข้อมูล รัน LLMs และติดอาวุธให้ธุรกิจด้วย AI 📌 จากรายงานของ Taiwan Economic Daily ระบุว่า: - Alibaba Cloud ลงทุนกว่า ¥400 ล้านหยวนเพื่อขยายฐาน AI ทั่วโลก - Huawei เริ่มปักหมุด Ascend Chips ในมาเลเซีย - Tencent ก็เตรียมเปิดศูนย์ข้อมูลในต่างประเทศเพิ่มเติม แม้จะสู้ Big Tech อย่าง AWS, Azure, Google Cloud ในเรื่อง CapEx ยังไม่ได้ แต่ ฝั่งจีนชูจุดขายด้าน “นวัตกรรมวิศวกรรม” และราคาย่อมเยา แถมมีโมเดล AI ที่เริ่มตีตื้น LLM ฝั่งตะวันตก เช่น Qwen2.5-Max, DeepSeek R1/R2 📍 โดยเฉพาะในตลาดเอเชียตะวันออกเฉียงใต้และตะวันออกกลาง ซึ่งยังเปิดกว้าง และไม่ยึดติดกับเทคโนโลยีจากฝั่งสหรัฐฯ → กลายเป็นสนามประลองใหม่ของ CSP จีนและอเมริกา ✅ Alibaba Cloud ลงทุนกว่า 400 ล้านหยวน (ราว 2 พันล้านบาท) ขยายบริการ AI Infrastructure สู่ต่างประเทศ   • เปิดศูนย์ข้อมูลในกว่า 29 ภูมิภาคนอกจีน   • เจาะตลาดเอเชียตะวันออกเฉียงใต้ ตะวันออกกลาง อย่างมาเลเซีย ไทย ฯลฯ ✅ Huawei ส่งชิป AI “Ascend” ลงพื้นที่ เช่นในมาเลเซีย เพื่อทดแทน GPU จากตะวันตก   • ใช้เป็นทางเลือกในการฝึกและรัน LLM แบบ sovereign AI ✅ Tencent และ Alibaba มี LLM รุ่นล่าสุดที่แข่งขันกับ GPT–Claude ได้ในบาง benchmark • เช่น Qwen2.5-Max, DeepSeek R1/R2   • แม้จะใช้ฮาร์ดแวร์ที่ “ด้อยกว่า” แต่ยังสร้างผลงานเทียบเคียงกันได้ ✅ วิศวกรรม + ราคา ถูกชูเป็นข้อได้เปรียบเพื่อเจาะตลาดต่างประเทศ   • ไม่เน้น CapEx หนักแบบ AWS แต่ใช้ “โซลูชันเฉพาะกลุ่ม” ✅ ตลาดเป้าหมายหลักคือ: เอเชียตะวันออกเฉียงใต้, อ่าวเปอร์เซีย, ประเทศกำลังพัฒนา https://wccftech.com/china-big-tech-csp-are-accelerating-their-overseas-expansion/
    WCCFTECH.COM
    China's "Big Tech" CSPs Are Accelerating Their Overseas Expansion; Alibaba, Huawei & Tencent To Spend Billions On Global AI Infrastructure
    Major Chinese CSPs are now pushing towards making moves in the global AI markets, as Huawei, Tencent, and others allocate massive capital.
    0 Comments 0 Shares 327 Views 0 Reviews
  • ตอนแรกไม่มีใครเอะใจว่าทำไม ยอดขายของ NVIDIA ในสิงคโปร์ปี 2024 พุ่งถึง 28% ทั้งที่จัดส่งจริงในประเทศมีแค่ 1% — จนกระทั่ง DeepSeek เปิดตัวโมเดล LLM ระดับเทพในจีน… แล้วคำถามเริ่มตามมาว่า “GPU ที่ใช้เทรนได้มายังไง?”

    คำตอบอาจอยู่ที่คน 3 คนที่โดนจับในสิงคโปร์:
    - Woon Guo Jie (สิงคโปร์, 41 ปี)
    - Alan Wei Zhaolun (สิงคโปร์, 49 ปี)
    - Li Ming (จีน, 51 ปี)

    พวกเขาถูกกล่าวหาว่า แสดงข้อมูลปลอมเกี่ยวกับปลายทางของเซิร์ฟเวอร์ที่ซื้อจากสหรัฐฯ แล้วส่งต่อเข้าแดนจีน — ข้ามข้อกำหนดการส่งออกของสหรัฐฯ ที่ห้ามส่งอุปกรณ์ AI ขั้นสูงเข้าจีนโดยตรง

    การสืบสวนถูกเร่งด่วนขึ้นหลัง DeepSeek เปิดตัว และพบว่า บริษัทใช้ GPU ระดับสูงที่ถูกควบคุมการส่งออก แต่ด้าน NVIDIA ปฏิเสธว่า “ไม่เคยขายให้ผู้ต้องห้าม” และ CEO Jensen Huang ก็ออกมาบอกชัดว่า “ไม่มีหลักฐานชิปหลุดไปถึงมือผิด”

    ปัญหาคือ ช่องทางผ่าน “บริษัทบิลจากสิงคโปร์” แต่จัดส่งสินค้ากลับไปยังจีนหรือมาเลเซีย เป็นสิ่งที่พบได้ทั่วไปในอุตสาหกรรมการค้า → ทำให้สหรัฐฯ เตรียมร่างกฎหมายใหม่ที่บังคับให้ GPU ชั้นสูงต้องมี “ระบบติดตาม GPS” ตลอดการขนส่ง

    สามผู้ต้องหาในสิงคโปร์ถูกตั้งข้อหาฉ้อโกงในปี 2023–2024  
    • แสดงข้อมูลเท็จเกี่ยวกับปลายทางจริงของเซิร์ฟเวอร์ที่ซื้อ  
    • เชื่อมโยงกับการส่งมอบชิปให้บริษัทจีน DeepSeek ซึ่งอยู่ระหว่างจับตามอง

    DeepSeek เป็นบริษัท AI สัญชาติจีนที่เปิดตัวโมเดลขนาดใหญ่ปลายปี 2024  
    • เทียบระดับ GPT-4 และ Claude  
    • สหรัฐสงสัยว่า GPU ที่ใช้มาจากแหล่งผิดกฎหมายผ่านชาติที่ 3

    NVIDIA รายงานว่าสิงคโปร์คิดเป็น 28% ของรายได้ในช่วงเวลาดังกล่าว แต่จัดส่งจริงแค่ 1%  
    • จุดชนวนให้เริ่มสืบสวนช่องทางการส่งต่อ

    NVIDIA ปฏิเสธว่าไม่ได้ขายให้รายชื่อที่ถูกแบน และไม่รู้เห็นการลักลอบ  
    • CEO ยืนยัน “ไม่มีหลักฐาน GPU หลุดไปถึง DeepSeek”

    สหรัฐฯ เตรียมออกกฎหมายให้ติดระบบติดตาม (tracking tech) กับ GPU ขั้นสูงที่ส่งออก  
    • เพื่อป้องกันการถูก “เบี่ยงปลายทาง” (diversion) ไปยังประเทศต้องห้าม

    สิงคโปร์ถือเป็นศูนย์กลางการค้าในภูมิภาค → การใช้ billing address จากที่นี่แต่จัดส่งที่อื่นเป็นเรื่องปกติ

    https://www.tomshardware.com/tech-industry/singapore-ai-chip-court-case-adjourned-until-august-trio-accused-of-illegally-smuggling-nvidia-chips-to-china-for-use-by-ai-firm-deepseek
    ตอนแรกไม่มีใครเอะใจว่าทำไม ยอดขายของ NVIDIA ในสิงคโปร์ปี 2024 พุ่งถึง 28% ทั้งที่จัดส่งจริงในประเทศมีแค่ 1% — จนกระทั่ง DeepSeek เปิดตัวโมเดล LLM ระดับเทพในจีน… แล้วคำถามเริ่มตามมาว่า “GPU ที่ใช้เทรนได้มายังไง?” คำตอบอาจอยู่ที่คน 3 คนที่โดนจับในสิงคโปร์: - Woon Guo Jie (สิงคโปร์, 41 ปี) - Alan Wei Zhaolun (สิงคโปร์, 49 ปี) - Li Ming (จีน, 51 ปี) พวกเขาถูกกล่าวหาว่า แสดงข้อมูลปลอมเกี่ยวกับปลายทางของเซิร์ฟเวอร์ที่ซื้อจากสหรัฐฯ แล้วส่งต่อเข้าแดนจีน — ข้ามข้อกำหนดการส่งออกของสหรัฐฯ ที่ห้ามส่งอุปกรณ์ AI ขั้นสูงเข้าจีนโดยตรง การสืบสวนถูกเร่งด่วนขึ้นหลัง DeepSeek เปิดตัว และพบว่า บริษัทใช้ GPU ระดับสูงที่ถูกควบคุมการส่งออก แต่ด้าน NVIDIA ปฏิเสธว่า “ไม่เคยขายให้ผู้ต้องห้าม” และ CEO Jensen Huang ก็ออกมาบอกชัดว่า “ไม่มีหลักฐานชิปหลุดไปถึงมือผิด” ปัญหาคือ ช่องทางผ่าน “บริษัทบิลจากสิงคโปร์” แต่จัดส่งสินค้ากลับไปยังจีนหรือมาเลเซีย เป็นสิ่งที่พบได้ทั่วไปในอุตสาหกรรมการค้า → ทำให้สหรัฐฯ เตรียมร่างกฎหมายใหม่ที่บังคับให้ GPU ชั้นสูงต้องมี “ระบบติดตาม GPS” ตลอดการขนส่ง ✅ สามผู้ต้องหาในสิงคโปร์ถูกตั้งข้อหาฉ้อโกงในปี 2023–2024   • แสดงข้อมูลเท็จเกี่ยวกับปลายทางจริงของเซิร์ฟเวอร์ที่ซื้อ   • เชื่อมโยงกับการส่งมอบชิปให้บริษัทจีน DeepSeek ซึ่งอยู่ระหว่างจับตามอง ✅ DeepSeek เป็นบริษัท AI สัญชาติจีนที่เปิดตัวโมเดลขนาดใหญ่ปลายปี 2024   • เทียบระดับ GPT-4 และ Claude   • สหรัฐสงสัยว่า GPU ที่ใช้มาจากแหล่งผิดกฎหมายผ่านชาติที่ 3 ✅ NVIDIA รายงานว่าสิงคโปร์คิดเป็น 28% ของรายได้ในช่วงเวลาดังกล่าว แต่จัดส่งจริงแค่ 1%   • จุดชนวนให้เริ่มสืบสวนช่องทางการส่งต่อ ✅ NVIDIA ปฏิเสธว่าไม่ได้ขายให้รายชื่อที่ถูกแบน และไม่รู้เห็นการลักลอบ   • CEO ยืนยัน “ไม่มีหลักฐาน GPU หลุดไปถึง DeepSeek” ✅ สหรัฐฯ เตรียมออกกฎหมายให้ติดระบบติดตาม (tracking tech) กับ GPU ขั้นสูงที่ส่งออก   • เพื่อป้องกันการถูก “เบี่ยงปลายทาง” (diversion) ไปยังประเทศต้องห้าม ✅ สิงคโปร์ถือเป็นศูนย์กลางการค้าในภูมิภาค → การใช้ billing address จากที่นี่แต่จัดส่งที่อื่นเป็นเรื่องปกติ https://www.tomshardware.com/tech-industry/singapore-ai-chip-court-case-adjourned-until-august-trio-accused-of-illegally-smuggling-nvidia-chips-to-china-for-use-by-ai-firm-deepseek
    0 Comments 0 Shares 411 Views 0 Reviews
  • ในขณะที่หลายคนเพิ่งเริ่มได้ยินชื่อ DeepSeek (อีกหนึ่งสตาร์ทอัพจีนที่โตเร็วมาก) — แต่เบื้องหลังกลับมีผู้เล่นที่น่ากลัวกว่าคือ Zhipu AI

    Zhipu ไม่ได้เน้นทำโมเดลมาโชว์เหมือน OpenAI หรือ Baidu แต่ “ลงลึกกับรัฐบาล” โดยร่วมมือกับประเทศอย่างซาอุฯ, สหรัฐอาหรับเอมิเรตส์, มาเลเซีย และสิงคโปร์ เพื่อ:
    - สร้าง ระบบโครงสร้างพื้นฐาน AI ที่เป็นของรัฐ (sovereign LLM infrastructure)
    - วางขายโมเดลที่รันในคลาวด์ปิด ใช้ได้เฉพาะในประเทศ
    - ใช้ฮาร์ดแวร์จาก Huawei เป็นเบื้องหลัง

    หนึ่งในผลงานเด่นคือ AutoGLM Rumination Agent ซึ่งเก่งเรื่องการวิเคราะห์บริบทซับซ้อนและควบคุมเบราว์เซอร์จากคำสั่งได้

    นอกจากนี้ Zhipu ยังได้รับเงินสนับสนุนจากภาครัฐจีนกว่า $1.4 พันล้าน และทุนเอกชนจากซาอุฯ อีกราว $400 ล้าน → สะท้อนว่าโมเดลธุรกิจของเขาไม่ได้แค่ขายโมเดล แต่ขาย “เอกราชทางดิจิทัล” ให้ประเทศพันธมิตรเลยทีเดียว

    Zhipu AI คือสตาร์ทอัพจากจีนที่เน้นพัฒนา ‘sovereign AI infrastructure’ สำหรับรัฐบาลต่างประเทศ  
    • สร้างคลาวด์และโมเดล LLM ที่รันภายในประเทศลูกค้าโดยเฉพาะ  
    • แตกต่างจาก DeepSeek ที่เน้นแข่งขันเชิงโมเดล LLM โดยตรง

    ได้รับเงินลงทุนกว่า $1.8 พันล้าน จากทั้งรัฐจีนและนักลงทุนในตะวันออกกลาง (เช่น Prosperity7 จากซาอุฯ)  
    • สะท้อนความเชื่อมั่นในโมเดลธุรกิจลึกเชิงโครงสร้างมากกว่าบริการแอปพลิเคชันทั่วไป

    มีพันธมิตรร่วมพัฒนาโครงสร้างพื้นฐานกับ Huawei  
    • นำเสนอทางเลือกใหม่สำหรับประเทศที่ไม่ต้องการพึ่งพา OpenAI หรือ Nvidia

    โมเดล AutoGLM มีความสามารถเทียบเท่ากับโมเดลระดับบนในเรื่องการสั่งงานอัตโนมัติและ long-context reasoning

    กลุ่มเป้าหมายหลักของ Zhipu ได้แก่ประเทศในตะวันออกกลางและเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซียและสิงคโปร์  
    • ชี้ว่าจีนพยายามขยายอิทธิพลทางดิจิทัลนอกประเทศอย่างชัดเจน

    https://wccftech.com/chinese-startup-zhipu-ai-seen-as-a-much-greater-threat-than-deepseek-to-us-ai-dominance/
    ในขณะที่หลายคนเพิ่งเริ่มได้ยินชื่อ DeepSeek (อีกหนึ่งสตาร์ทอัพจีนที่โตเร็วมาก) — แต่เบื้องหลังกลับมีผู้เล่นที่น่ากลัวกว่าคือ Zhipu AI Zhipu ไม่ได้เน้นทำโมเดลมาโชว์เหมือน OpenAI หรือ Baidu แต่ “ลงลึกกับรัฐบาล” โดยร่วมมือกับประเทศอย่างซาอุฯ, สหรัฐอาหรับเอมิเรตส์, มาเลเซีย และสิงคโปร์ เพื่อ: - สร้าง ระบบโครงสร้างพื้นฐาน AI ที่เป็นของรัฐ (sovereign LLM infrastructure) - วางขายโมเดลที่รันในคลาวด์ปิด ใช้ได้เฉพาะในประเทศ - ใช้ฮาร์ดแวร์จาก Huawei เป็นเบื้องหลัง หนึ่งในผลงานเด่นคือ AutoGLM Rumination Agent ซึ่งเก่งเรื่องการวิเคราะห์บริบทซับซ้อนและควบคุมเบราว์เซอร์จากคำสั่งได้ นอกจากนี้ Zhipu ยังได้รับเงินสนับสนุนจากภาครัฐจีนกว่า $1.4 พันล้าน และทุนเอกชนจากซาอุฯ อีกราว $400 ล้าน → สะท้อนว่าโมเดลธุรกิจของเขาไม่ได้แค่ขายโมเดล แต่ขาย “เอกราชทางดิจิทัล” ให้ประเทศพันธมิตรเลยทีเดียว ✅ Zhipu AI คือสตาร์ทอัพจากจีนที่เน้นพัฒนา ‘sovereign AI infrastructure’ สำหรับรัฐบาลต่างประเทศ   • สร้างคลาวด์และโมเดล LLM ที่รันภายในประเทศลูกค้าโดยเฉพาะ   • แตกต่างจาก DeepSeek ที่เน้นแข่งขันเชิงโมเดล LLM โดยตรง ✅ ได้รับเงินลงทุนกว่า $1.8 พันล้าน จากทั้งรัฐจีนและนักลงทุนในตะวันออกกลาง (เช่น Prosperity7 จากซาอุฯ)   • สะท้อนความเชื่อมั่นในโมเดลธุรกิจลึกเชิงโครงสร้างมากกว่าบริการแอปพลิเคชันทั่วไป ✅ มีพันธมิตรร่วมพัฒนาโครงสร้างพื้นฐานกับ Huawei   • นำเสนอทางเลือกใหม่สำหรับประเทศที่ไม่ต้องการพึ่งพา OpenAI หรือ Nvidia ✅ โมเดล AutoGLM มีความสามารถเทียบเท่ากับโมเดลระดับบนในเรื่องการสั่งงานอัตโนมัติและ long-context reasoning ✅ กลุ่มเป้าหมายหลักของ Zhipu ได้แก่ประเทศในตะวันออกกลางและเอเชียตะวันออกเฉียงใต้ เช่น มาเลเซียและสิงคโปร์   • ชี้ว่าจีนพยายามขยายอิทธิพลทางดิจิทัลนอกประเทศอย่างชัดเจน https://wccftech.com/chinese-startup-zhipu-ai-seen-as-a-much-greater-threat-than-deepseek-to-us-ai-dominance/
    WCCFTECH.COM
    Chinese Startup Zhipu AI Seen as a Much Greater Threat Than DeepSeek to U.S. AI Dominance, Making Massive Moves in the Realm of Sovereign AI
    DeepSeek has just got a new competitor, and the Chinese startup Zhipu AI is on a broader and impactful mission.
    0 Comments 0 Shares 264 Views 0 Reviews
  • DeepSeek เป็นบริษัท AI สัญชาติจีนที่สร้างชื่อจากโมเดลภาษาขั้นสูง “R1” ซึ่งเคยเทรนด้วย GPU มากถึง 50,000 ตัว (รวม H20, H800, H100) ที่ได้มาจากกองทุน High-Flyer Capital

    แต่ตอนนี้ปัญหาคือ H20 กลายเป็นชิปต้องห้าม จากมาตรการคุมส่งออกของรัฐบาลสหรัฐฯ — ซึ่งเกิดขึ้นตั้งแต่กลางเดือนเมษายนที่ผ่านมา ทำให้ DeepSeek ไม่สามารถหา GPU ใหม่มาใช้งานได้อีก

    สิ่งที่น่าห่วงคือ:
    - ผู้ใช้งานของ R1 จำนวนมากรันอยู่บน H20 → ตอนนี้เริ่มใช้งานติดขัด
    - R2 ยังไม่เสร็จดี ซีอีโอของ DeepSeek ก็ยังไม่พอใจผลลัพธ์เท่าที่ควร
    - ถ้า R2 เปิดตัวได้ไม่แรงพอ อาจเสียจังหวะให้คู่แข่งคนอื่นแซงในตลาด LLM จีน

    นี่สะท้อนว่าบริษัท AI จีนยังพึ่งพา ฮาร์ดแวร์ + ซอฟต์แวร์จากสหรัฐฯ อย่างลึกซึ้งมาก โดยเฉพาะ CUDA stack ของ Nvidia ที่ยังไม่มีทางออกที่เทียบเท่าได้ง่าย ๆ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-disruptor-deepseeks-next-gen-model-delayed-by-nvidia-h20-restrictions-short-supply-of-accelerators-hinders-development
    DeepSeek เป็นบริษัท AI สัญชาติจีนที่สร้างชื่อจากโมเดลภาษาขั้นสูง “R1” ซึ่งเคยเทรนด้วย GPU มากถึง 50,000 ตัว (รวม H20, H800, H100) ที่ได้มาจากกองทุน High-Flyer Capital แต่ตอนนี้ปัญหาคือ H20 กลายเป็นชิปต้องห้าม จากมาตรการคุมส่งออกของรัฐบาลสหรัฐฯ — ซึ่งเกิดขึ้นตั้งแต่กลางเดือนเมษายนที่ผ่านมา ทำให้ DeepSeek ไม่สามารถหา GPU ใหม่มาใช้งานได้อีก สิ่งที่น่าห่วงคือ: - ผู้ใช้งานของ R1 จำนวนมากรันอยู่บน H20 → ตอนนี้เริ่มใช้งานติดขัด - R2 ยังไม่เสร็จดี ซีอีโอของ DeepSeek ก็ยังไม่พอใจผลลัพธ์เท่าที่ควร - ถ้า R2 เปิดตัวได้ไม่แรงพอ อาจเสียจังหวะให้คู่แข่งคนอื่นแซงในตลาด LLM จีน นี่สะท้อนว่าบริษัท AI จีนยังพึ่งพา ฮาร์ดแวร์ + ซอฟต์แวร์จากสหรัฐฯ อย่างลึกซึ้งมาก โดยเฉพาะ CUDA stack ของ Nvidia ที่ยังไม่มีทางออกที่เทียบเท่าได้ง่าย ๆ https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-disruptor-deepseeks-next-gen-model-delayed-by-nvidia-h20-restrictions-short-supply-of-accelerators-hinders-development
    0 Comments 0 Shares 268 Views 0 Reviews
  • เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์

    แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ”

    สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64)

    ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง

    https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์ แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ” สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64) ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    0 Comments 0 Shares 350 Views 0 Reviews
  • เพราะโดนสหรัฐแบนชิปแรง ๆ อย่าง H100 ทำให้ Huawei ต้องหาทางอื่นที่จะสู้ในสนาม AI — เขาเลยเอากลยุทธ์ “ใช้เยอะเข้าไว้” หรือที่เรียกว่า Brute Force Scaling มาใช้ สร้างเป็นคลัสเตอร์ชื่อ CloudMatrix 384 (CM384)

    ไอ้เจ้าตัวนี้คือการรวมพลัง 384 ชิป Ascend 910C (ของ Huawei เอง) กับ CPU อีก 192 ตัว กระจายอยู่ใน 16 rack server แล้วเชื่อมต่อด้วยสายไฟเบอร์ออปติกหมดทุกตัว เพื่อทำให้ interconnect ภายในเร็วแบบสุด ๆ

    เมื่อรันโมเดล LLM อย่าง DeepSeek R1 (ขนาด 671B พารามิเตอร์) ที่เป็นรุ่นเดียวกับที่ใช้ทดสอบ NVIDIA GB200 NVL72 — ปรากฏว่า CM384 สร้าง token ได้มากกว่า ทั้งในตอน generate และ prefill และมีประสิทธิภาพระดับ 300 PFLOPs (BF16) เทียบกับ 180 PFLOPs ของ GB200

    แต่…มันแลกมาด้วยพลังงานระดับ “กินไฟพอๆ กับอาคารทั้งหลัง” — CM384 ใช้ไฟถึง 559 kW เทียบกับ NVIDIA GB200 NVL72 ที่ใช้ 145 kW เท่านั้น เรียกว่าแรงจริงแต่เปลืองไฟมากกว่า 4 เท่า

    Huawei เปิดตัวซูเปอร์คลัสเตอร์ CloudMatrix 384 ใช้ NPU Ascend 910C รวม 384 ตัว  
    • เชื่อมต่อด้วยสายออปติกทั้งหมด ลด latency ระหว่าง node  
    • ใช้ CPU เสริม 192 ตัวในโครงสร้าง 16 rack

    CM384 รันโมเดล DeepSeek R1 ได้เร็วกว่า NVIDIA H800 และ H100  
    • มี performance สูงถึง 300 PFLOPs (BF16)  
    • เมื่อเทียบกับ NVIDIA GB200 NVL72 ที่ให้ 180 PFLOPs

    ซอฟต์แวร์ CloudMatrix-Infer มีประสิทธิภาพสูงกว่า NVIDIA SGLang ในงาน LLM  
    • สร้าง token ได้เร็วขึ้น ทั้งตอน prefill และ generate  
    • เหมาะกับงาน AI inferencing ขนาดใหญ่มาก

    CM384 ออกแบบมาเพื่อสร้าง ecosystem ทางเลือกในจีน โดยไม่ต้องใช้ NVIDIA  
    • ได้รับการเผยแพร่ร่วมกับ AI startup จีนชื่อ SiliconFlow  
    • มีเป้าหมายเพื่อ “เพิ่มความมั่นใจให้ ecosystem ภายในประเทศจีน”

    พลังงานในจีนราคาต่ำลงเกือบ 40% ใน 3 ปี ทำให้การใช้พลังงานมากไม่ใช่จุดอ่อนใหญ่  
    • ทำให้จีนสามารถเลือก “สเกลแรงเข้าไว้” ได้โดยไม่กลัวค่าไฟพุ่ง

    https://www.tomshardware.com/pc-components/gpus/huaweis-brute-force-ai-tactic-seems-to-be-working-cloudmatrix-384-claimed-to-outperform-nvidia-processors-running-deepseek-r1
    เพราะโดนสหรัฐแบนชิปแรง ๆ อย่าง H100 ทำให้ Huawei ต้องหาทางอื่นที่จะสู้ในสนาม AI — เขาเลยเอากลยุทธ์ “ใช้เยอะเข้าไว้” หรือที่เรียกว่า Brute Force Scaling มาใช้ สร้างเป็นคลัสเตอร์ชื่อ CloudMatrix 384 (CM384) ไอ้เจ้าตัวนี้คือการรวมพลัง 384 ชิป Ascend 910C (ของ Huawei เอง) กับ CPU อีก 192 ตัว กระจายอยู่ใน 16 rack server แล้วเชื่อมต่อด้วยสายไฟเบอร์ออปติกหมดทุกตัว เพื่อทำให้ interconnect ภายในเร็วแบบสุด ๆ เมื่อรันโมเดล LLM อย่าง DeepSeek R1 (ขนาด 671B พารามิเตอร์) ที่เป็นรุ่นเดียวกับที่ใช้ทดสอบ NVIDIA GB200 NVL72 — ปรากฏว่า CM384 สร้าง token ได้มากกว่า ทั้งในตอน generate และ prefill และมีประสิทธิภาพระดับ 300 PFLOPs (BF16) เทียบกับ 180 PFLOPs ของ GB200 แต่…มันแลกมาด้วยพลังงานระดับ “กินไฟพอๆ กับอาคารทั้งหลัง” — CM384 ใช้ไฟถึง 559 kW เทียบกับ NVIDIA GB200 NVL72 ที่ใช้ 145 kW เท่านั้น เรียกว่าแรงจริงแต่เปลืองไฟมากกว่า 4 เท่า ✅ Huawei เปิดตัวซูเปอร์คลัสเตอร์ CloudMatrix 384 ใช้ NPU Ascend 910C รวม 384 ตัว   • เชื่อมต่อด้วยสายออปติกทั้งหมด ลด latency ระหว่าง node   • ใช้ CPU เสริม 192 ตัวในโครงสร้าง 16 rack ✅ CM384 รันโมเดล DeepSeek R1 ได้เร็วกว่า NVIDIA H800 และ H100   • มี performance สูงถึง 300 PFLOPs (BF16)   • เมื่อเทียบกับ NVIDIA GB200 NVL72 ที่ให้ 180 PFLOPs ✅ ซอฟต์แวร์ CloudMatrix-Infer มีประสิทธิภาพสูงกว่า NVIDIA SGLang ในงาน LLM   • สร้าง token ได้เร็วขึ้น ทั้งตอน prefill และ generate   • เหมาะกับงาน AI inferencing ขนาดใหญ่มาก ✅ CM384 ออกแบบมาเพื่อสร้าง ecosystem ทางเลือกในจีน โดยไม่ต้องใช้ NVIDIA   • ได้รับการเผยแพร่ร่วมกับ AI startup จีนชื่อ SiliconFlow   • มีเป้าหมายเพื่อ “เพิ่มความมั่นใจให้ ecosystem ภายในประเทศจีน” ✅ พลังงานในจีนราคาต่ำลงเกือบ 40% ใน 3 ปี ทำให้การใช้พลังงานมากไม่ใช่จุดอ่อนใหญ่   • ทำให้จีนสามารถเลือก “สเกลแรงเข้าไว้” ได้โดยไม่กลัวค่าไฟพุ่ง https://www.tomshardware.com/pc-components/gpus/huaweis-brute-force-ai-tactic-seems-to-be-working-cloudmatrix-384-claimed-to-outperform-nvidia-processors-running-deepseek-r1
    0 Comments 0 Shares 343 Views 0 Reviews
  • หลังเปิดตัวที่ Computex ไปอย่างน่าตื่นเต้น คราวนี้ AMD เผยผลทดสอบจริงของ Ryzen Threadripper 9000 ซีรีส์แล้ว โดยแบ่งเป็น 2 กลุ่มหลักคือ รุ่นธรรมดา HEDT (X) และ รุ่นระดับมือโปร (WX)

    รุ่นท็อป Threadripper Pro 9995WX จัดเต็ม 96 คอร์ 192 เธรด! แถมมี Boost Clock สูงสุด 5.45 GHz พร้อม L3 Cache 384MB และ PCIe 5.0 ถึง 128 เลน — ข้อมูลที่น่าสนใจคือ AMD เคลมว่าสามารถ “ทำงานเร็วกว่า Xeon W9-3595X สูงสุดถึง 145%” ในงานเรนเดอร์ V-Ray

    ในงานสร้างสรรค์และ AI ก็แรงไม่แพ้กัน เช่น เร็วกว่า 49% ใน LLM ของ DeepSeek R1 32B และเร็วกว่า 28% ในงาน AI video editing บน DaVinci Resolve

    นอกจากนี้ รุ่น HEDT สำหรับนักสร้างคอนเทนต์ทั่วไป เช่น Threadripper 9980X ก็ทำผลงานดีกว่า Xeon ตัวเดียวกันถึง 108% บน Corona Render, 65% เร็วกว่าใน Unreal Engine และ 22% ใน Premiere Pro

    ฝั่ง AMD ยังไม่บอกราคา แต่เตรียมวางขายในเดือนกรกฎาคมนี้ และสู้กันชัด ๆ กับ Xeon W9 และ Xeon Pro เจเนอเรชันล่าสุดจาก Intel ที่เริ่มเปิดตัวในปีนี้เหมือนกัน

    AMD เผย Benchmark อย่างเป็นทางการของ Ryzen Threadripper 9000 ซีรีส์  
    • ครอบคลุมทั้งกลุ่ม HEDT (X) และ Workstation Pro (WX)  
    • เทียบกับ Intel Xeon W9-3595X ในหลายงานทั้งสร้างสรรค์ วิศวกรรม และ AI

    Threadripper 9980X (HEDT)  • เร็วกว่าคู่แข่ง Xeon W9-3595X:   
    • 108% บน Corona Render   
    • 65% ใน Unreal Engine build   
    • 41% บน Autodesk Revit   
    • 22% บน Adobe Premiere Pro

    Threadripper Pro 9995WX (Workstation)  
    • เร็วกว่า Threadripper 7995WX รุ่นก่อนหน้า:   
    • 26% บน After Effects   
    • 20% บน V-Ray   
    • 19% บน Cinebench nT

    ด้าน AI/LLM/Creative มี performance เหนือกว่า Xeon  
    • 49% เร็วกว่าใน DeepSeek R1 (LLM 32B)  
    • 34% เร็วกว่าในการสร้างภาพ (text-to-image) ด้วย Flux.1 + ComfyUI  
    • 28% เร็วกว่าใน DaVinci Resolve (AI assisted creation)  
    • 119–145% เร็วกว่าใน V-Ray และ Keyshot

    รายละเอียดสเปก Threadripper Pro 9995WX  
    • 96 คอร์ / 192 เธรด / Boost 5.45GHz  
    • TDP 350W / L3 Cache 384MB / PCIe 5.0 x128 lanes  
    • รองรับ DDR5-6400 ECC

    มีทั้งหมด 10 รุ่นย่อย: 7 รุ่น WX / 3 รุ่น X (non-Pro)  
    • วางขายกรกฎาคม 2025  
    • ราคายังไม่เปิดเผย

    Benchmark ทั้งหมดมาจาก AMD โดยตรง — ต้องรอการทดสอบอิสระเพื่อยืนยัน  
    • ตัวเลขที่ AMD ให้มักมาจาก workloads เฉพาะทาง  
    • อาจไม่สะท้อนประสิทธิภาพจริงในงานทั่วไป

    TDP 350W อาจต้องใช้ระบบระบายความร้อนขั้นสูง  
    • โดยเฉพาะหากใช้ในการเรนเดอร์หรือ AI inferencing ต่อเนื่อง

    ยังไม่มีข้อมูลเรื่องราคาหรือ availability ในตลาดทั่วไป  
    • อาจเริ่มจากเวิร์กสเตชันแบรนด์ OEM ก่อน เช่น Dell, Lenovo

    รุ่น Workstation ต้องใช้แพลตฟอร์มเฉพาะ เช่น WRX90 ซึ่งแพงและมีข้อจำกัดมากกว่า consumer CPU  
    • ไม่สามารถใช้ร่วมกับเมนบอร์ดทั่วไปได้

    https://www.techspot.com/news/108362-amd-claims-ryzen-threadripper-9000-up-145-faster.html
    หลังเปิดตัวที่ Computex ไปอย่างน่าตื่นเต้น คราวนี้ AMD เผยผลทดสอบจริงของ Ryzen Threadripper 9000 ซีรีส์แล้ว โดยแบ่งเป็น 2 กลุ่มหลักคือ รุ่นธรรมดา HEDT (X) และ รุ่นระดับมือโปร (WX) รุ่นท็อป Threadripper Pro 9995WX จัดเต็ม 96 คอร์ 192 เธรด! แถมมี Boost Clock สูงสุด 5.45 GHz พร้อม L3 Cache 384MB และ PCIe 5.0 ถึง 128 เลน — ข้อมูลที่น่าสนใจคือ AMD เคลมว่าสามารถ “ทำงานเร็วกว่า Xeon W9-3595X สูงสุดถึง 145%” ในงานเรนเดอร์ V-Ray ในงานสร้างสรรค์และ AI ก็แรงไม่แพ้กัน เช่น เร็วกว่า 49% ใน LLM ของ DeepSeek R1 32B และเร็วกว่า 28% ในงาน AI video editing บน DaVinci Resolve นอกจากนี้ รุ่น HEDT สำหรับนักสร้างคอนเทนต์ทั่วไป เช่น Threadripper 9980X ก็ทำผลงานดีกว่า Xeon ตัวเดียวกันถึง 108% บน Corona Render, 65% เร็วกว่าใน Unreal Engine และ 22% ใน Premiere Pro ฝั่ง AMD ยังไม่บอกราคา แต่เตรียมวางขายในเดือนกรกฎาคมนี้ และสู้กันชัด ๆ กับ Xeon W9 และ Xeon Pro เจเนอเรชันล่าสุดจาก Intel ที่เริ่มเปิดตัวในปีนี้เหมือนกัน ✅ AMD เผย Benchmark อย่างเป็นทางการของ Ryzen Threadripper 9000 ซีรีส์   • ครอบคลุมทั้งกลุ่ม HEDT (X) และ Workstation Pro (WX)   • เทียบกับ Intel Xeon W9-3595X ในหลายงานทั้งสร้างสรรค์ วิศวกรรม และ AI ✅ Threadripper 9980X (HEDT)  • เร็วกว่าคู่แข่ง Xeon W9-3595X:    • 108% บน Corona Render    • 65% ใน Unreal Engine build    • 41% บน Autodesk Revit    • 22% บน Adobe Premiere Pro ✅ Threadripper Pro 9995WX (Workstation)   • เร็วกว่า Threadripper 7995WX รุ่นก่อนหน้า:    • 26% บน After Effects    • 20% บน V-Ray    • 19% บน Cinebench nT ✅ ด้าน AI/LLM/Creative มี performance เหนือกว่า Xeon   • 49% เร็วกว่าใน DeepSeek R1 (LLM 32B)   • 34% เร็วกว่าในการสร้างภาพ (text-to-image) ด้วย Flux.1 + ComfyUI   • 28% เร็วกว่าใน DaVinci Resolve (AI assisted creation)   • 119–145% เร็วกว่าใน V-Ray และ Keyshot ✅ รายละเอียดสเปก Threadripper Pro 9995WX   • 96 คอร์ / 192 เธรด / Boost 5.45GHz   • TDP 350W / L3 Cache 384MB / PCIe 5.0 x128 lanes   • รองรับ DDR5-6400 ECC ✅ มีทั้งหมด 10 รุ่นย่อย: 7 รุ่น WX / 3 รุ่น X (non-Pro)   • วางขายกรกฎาคม 2025   • ราคายังไม่เปิดเผย ‼️ Benchmark ทั้งหมดมาจาก AMD โดยตรง — ต้องรอการทดสอบอิสระเพื่อยืนยัน   • ตัวเลขที่ AMD ให้มักมาจาก workloads เฉพาะทาง   • อาจไม่สะท้อนประสิทธิภาพจริงในงานทั่วไป ‼️ TDP 350W อาจต้องใช้ระบบระบายความร้อนขั้นสูง   • โดยเฉพาะหากใช้ในการเรนเดอร์หรือ AI inferencing ต่อเนื่อง ‼️ ยังไม่มีข้อมูลเรื่องราคาหรือ availability ในตลาดทั่วไป   • อาจเริ่มจากเวิร์กสเตชันแบรนด์ OEM ก่อน เช่น Dell, Lenovo ‼️ รุ่น Workstation ต้องใช้แพลตฟอร์มเฉพาะ เช่น WRX90 ซึ่งแพงและมีข้อจำกัดมากกว่า consumer CPU   • ไม่สามารถใช้ร่วมกับเมนบอร์ดทั่วไปได้ https://www.techspot.com/news/108362-amd-claims-ryzen-threadripper-9000-up-145-faster.html
    WWW.TECHSPOT.COM
    AMD claims Ryzen Threadripper 9000 is up to 145% faster than Intel Xeon
    According to AMD, the Threadripper 9980X HEDT processor is up to 108 percent faster than the Xeon W9-3595X in Corona Render, up to 41 percent faster in...
    0 Comments 0 Shares 310 Views 0 Reviews
  • ใครจะเชื่อว่า “โบนัสเซ็นสัญญา” สำหรับนักวิจัย AI ตอนนี้อาจแตะตัวเลข 100 ล้านเหรียญ! Sam Altman ซีอีโอของ OpenAI ให้สัมภาษณ์ในพอดแคสต์ของน้องชายตัวเองว่า Meta เสนอตัวเลขนี้จริง ๆ เพื่อดึงคนจาก OpenAI ไป

    Altman บอกว่า “Meta เริ่มแจกข้อเสนอระดับไม่ธรรมดากับหลายคนในทีมเรา...ยังดีที่ตอนนี้ไม่มีใครตัดสินใจย้ายไปนะ” ข้อเสนอนี้รวมทั้งโบนัสและค่าตอบแทนรายปีซึ่งรวม ๆ กันก็ทำให้หลายคน “ตาค้าง”

    เบื้องหลังเรื่องนี้คือ Meta ตั้งทีม AI “superintelligence” ใหม่ โดยมี Alexandr Wang (อดีตซีอีโอของ Scale AI) มาเป็นผู้นำ ซึ่งนั่งทำงานใกล้กับ Mark Zuckerberg เลย แถม Meta ก็เพิ่งเทเงิน $14.3 พันล้านลงทุนใน Scale AI ไปหมาด ๆ ถือว่าจัดหนักในสนามนี้

    Altman ยังวิจารณ์เบา ๆ ว่า “Meta ไม่ใช่บริษัทที่เก่งเรื่องนวัตกรรม” และเตือนว่า ถ้าบริษัทไหนมองแค่เรื่องเงินมากกว่าภารกิจ AI ระดับ AGI (Artificial General Intelligence) อาจสร้างวัฒนธรรมที่ไม่เหมาะกับการเกิด “การค้นพบครั้งใหญ่”

    Meta เสนอค่าตอบแทนสูงถึง $100 ล้าน เพื่อดึงนักวิจัย AI จากคู่แข่ง  
    • รวมทั้งโบนัสเซ็นสัญญาและค่าตอบแทนรวมรายปี  
    • จุดมุ่งหมายเพื่อเร่งสร้างทีม AI ระดับ “superintelligence”

    Sam Altman เผยเรื่องนี้ในพอดแคสต์ โดยระบุว่า Meta เสนอให้หลายคนใน OpenAI  
    • ยืนยันว่าขณะนี้ยังไม่มีใครรับข้อเสนอ  
    • มองว่า OpenAI มีโอกาสบรรลุ AGI ได้มากกว่า Meta

    ผู้นำทีมใหม่ของ Meta คือ Alexandr Wang (อดีต CEO ของ Scale AI)  
    • ทำงานใกล้ชิดกับ Mark Zuckerberg  
    • Meta ลงทุน $14.3 พันล้านใน Scale AI เพื่อสนับสนุนทิศทางนี้

    Meta ได้ตัวนักวิจัยดังบางคนจาก Google DeepMind และ Sesame AI แล้ว  
    • เช่น Jack Rae และ Johan Schalkwyk  
    • แต่ยังไม่สำเร็จในการดึง Noam Brown จาก OpenAI หรือ Koray Kavukcuoglu จาก Google

    มีมุมมองจากผู้บริหาร AI คนอื่นว่าการล่าคนต้องมีทั้งเงินและทรัพยากร GPU  
    • CEO ของ Perplexity เผยนักวิจัยจาก Meta บอก “มี 10,000 H100 เมื่อไหร่ ค่อยกลับมาคุย”

    การล่าพนักงานแบบ “เงินนำหน้า” อาจทำลายวัฒนธรรมองค์กร  
    • คนที่เข้ามาเพราะเงิน อาจไม่ยึดมั่นในเป้าหมายระยะยาวขององค์กร  
    • ยิ่งในการวิจัย AI แบบ AGI ที่ต้องการการร่วมมือและความมุ่งมั่นสูง

    Meta ถูกวิจารณ์ว่านวัตกรรมโอเพ่นซอร์สของตัวเอง “สะดุด” หลังเลื่อนปล่อยโมเดลใหม่  
    • ทำให้คู่แข่งอย่าง Google, DeepSeek และ OpenAI นำหน้าไปก่อน

    การแย่งบุคลากร AI อาจทำให้ช่องว่างเทคโนโลยีระหว่างบริษัทยิ่งถ่างออก  
    • บริษัทเล็กหรือประเทศกำลังพัฒนาจะเสียเปรียบอย่างมาก

    การเสนอค่าตัวระดับเกิน 100 ล้านดอลลาร์อาจผลักดันค่าจ้างในวงการขึ้นแบบไม่ยั่งยืน  
    • กระทบ ecosystem ของ startup และการวิจัยสาธารณะ

    https://www.techspot.com/news/108357-meta-offering-up-100-million-lure-ai-talent.html
    ใครจะเชื่อว่า “โบนัสเซ็นสัญญา” สำหรับนักวิจัย AI ตอนนี้อาจแตะตัวเลข 100 ล้านเหรียญ! Sam Altman ซีอีโอของ OpenAI ให้สัมภาษณ์ในพอดแคสต์ของน้องชายตัวเองว่า Meta เสนอตัวเลขนี้จริง ๆ เพื่อดึงคนจาก OpenAI ไป Altman บอกว่า “Meta เริ่มแจกข้อเสนอระดับไม่ธรรมดากับหลายคนในทีมเรา...ยังดีที่ตอนนี้ไม่มีใครตัดสินใจย้ายไปนะ” ข้อเสนอนี้รวมทั้งโบนัสและค่าตอบแทนรายปีซึ่งรวม ๆ กันก็ทำให้หลายคน “ตาค้าง” เบื้องหลังเรื่องนี้คือ Meta ตั้งทีม AI “superintelligence” ใหม่ โดยมี Alexandr Wang (อดีตซีอีโอของ Scale AI) มาเป็นผู้นำ ซึ่งนั่งทำงานใกล้กับ Mark Zuckerberg เลย แถม Meta ก็เพิ่งเทเงิน $14.3 พันล้านลงทุนใน Scale AI ไปหมาด ๆ ถือว่าจัดหนักในสนามนี้ Altman ยังวิจารณ์เบา ๆ ว่า “Meta ไม่ใช่บริษัทที่เก่งเรื่องนวัตกรรม” และเตือนว่า ถ้าบริษัทไหนมองแค่เรื่องเงินมากกว่าภารกิจ AI ระดับ AGI (Artificial General Intelligence) อาจสร้างวัฒนธรรมที่ไม่เหมาะกับการเกิด “การค้นพบครั้งใหญ่” ✅ Meta เสนอค่าตอบแทนสูงถึง $100 ล้าน เพื่อดึงนักวิจัย AI จากคู่แข่ง   • รวมทั้งโบนัสเซ็นสัญญาและค่าตอบแทนรวมรายปี   • จุดมุ่งหมายเพื่อเร่งสร้างทีม AI ระดับ “superintelligence” ✅ Sam Altman เผยเรื่องนี้ในพอดแคสต์ โดยระบุว่า Meta เสนอให้หลายคนใน OpenAI   • ยืนยันว่าขณะนี้ยังไม่มีใครรับข้อเสนอ   • มองว่า OpenAI มีโอกาสบรรลุ AGI ได้มากกว่า Meta ✅ ผู้นำทีมใหม่ของ Meta คือ Alexandr Wang (อดีต CEO ของ Scale AI)   • ทำงานใกล้ชิดกับ Mark Zuckerberg   • Meta ลงทุน $14.3 พันล้านใน Scale AI เพื่อสนับสนุนทิศทางนี้ ✅ Meta ได้ตัวนักวิจัยดังบางคนจาก Google DeepMind และ Sesame AI แล้ว   • เช่น Jack Rae และ Johan Schalkwyk   • แต่ยังไม่สำเร็จในการดึง Noam Brown จาก OpenAI หรือ Koray Kavukcuoglu จาก Google ✅ มีมุมมองจากผู้บริหาร AI คนอื่นว่าการล่าคนต้องมีทั้งเงินและทรัพยากร GPU   • CEO ของ Perplexity เผยนักวิจัยจาก Meta บอก “มี 10,000 H100 เมื่อไหร่ ค่อยกลับมาคุย” ‼️ การล่าพนักงานแบบ “เงินนำหน้า” อาจทำลายวัฒนธรรมองค์กร   • คนที่เข้ามาเพราะเงิน อาจไม่ยึดมั่นในเป้าหมายระยะยาวขององค์กร   • ยิ่งในการวิจัย AI แบบ AGI ที่ต้องการการร่วมมือและความมุ่งมั่นสูง ‼️ Meta ถูกวิจารณ์ว่านวัตกรรมโอเพ่นซอร์สของตัวเอง “สะดุด” หลังเลื่อนปล่อยโมเดลใหม่   • ทำให้คู่แข่งอย่าง Google, DeepSeek และ OpenAI นำหน้าไปก่อน ‼️ การแย่งบุคลากร AI อาจทำให้ช่องว่างเทคโนโลยีระหว่างบริษัทยิ่งถ่างออก   • บริษัทเล็กหรือประเทศกำลังพัฒนาจะเสียเปรียบอย่างมาก ‼️ การเสนอค่าตัวระดับเกิน 100 ล้านดอลลาร์อาจผลักดันค่าจ้างในวงการขึ้นแบบไม่ยั่งยืน   • กระทบ ecosystem ของ startup และการวิจัยสาธารณะ https://www.techspot.com/news/108357-meta-offering-up-100-million-lure-ai-talent.html
    WWW.TECHSPOT.COM
    Meta is offering up to $100 million to lure AI talent, says OpenAI's Sam Altman
    The recruitment drive has a personal element: former Scale AI CEO Alexandr Wang heads Meta's new AI group, and some new hires are said to be working...
    0 Comments 0 Shares 340 Views 0 Reviews
  • อิตาลีสอบสวน DeepSeek เรื่องความเสี่ยงของข้อมูลเท็จ
    หน่วยงานกำกับดูแลด้านการแข่งขันและสิทธิผู้บริโภคของอิตาลี (AGCM) ได้เปิดการสอบสวน DeepSeek ซึ่งเป็นสตาร์ทอัพ AI จากจีน เนื่องจากไม่ได้แจ้งเตือนผู้ใช้เกี่ยวกับความเสี่ยงของข้อมูลที่อาจไม่ถูกต้องหรือถูกสร้างขึ้นโดย AI.

    รายละเอียดการสอบสวน
    AGCM ระบุว่า DeepSeek ไม่ได้ให้คำเตือนที่ชัดเจนเกี่ยวกับ "Hallucinations" ของ AI ซึ่งหมายถึงข้อมูลที่ไม่ถูกต้องหรือถูกสร้างขึ้นโดยไม่มีแหล่งที่มา.
    DeepSeek ไม่ตอบกลับคำขอความคิดเห็นจากสื่อ หลังจากมีการสอบสวน.
    ก่อนหน้านี้ หน่วยงานคุ้มครองข้อมูลของอิตาลีเคยสั่งให้ DeepSeek ปิดการเข้าถึงแชทบอท เนื่องจากข้อกังวลด้านนโยบายความเป็นส่วนตัว.

    ผลกระทบและข้อควรระวัง
    AI อาจสร้างข้อมูลที่ไม่ถูกต้องหรือบิดเบือน ซึ่งอาจส่งผลต่อการตัดสินใจของผู้ใช้.
    DeepSeek อาจเผชิญกับมาตรการทางกฎหมายและข้อจำกัดเพิ่มเติม หากไม่สามารถแก้ไขปัญหานี้ได้.
    การใช้ AI ในการให้ข้อมูลต้องมีมาตรฐานที่ชัดเจน เพื่อป้องกันการเผยแพร่ข้อมูลผิดพลาด.

    แนวทางป้องกันสำหรับผู้ใช้
    ตรวจสอบแหล่งที่มาของข้อมูลที่ได้รับจาก AI โดยเปรียบเทียบกับแหล่งข้อมูลที่เชื่อถือได้.
    ใช้ AI อย่างระมัดระวัง โดยไม่พึ่งพาข้อมูลจาก AI เพียงอย่างเดียวในการตัดสินใจที่สำคัญ.
    ติดตามการพัฒนาและมาตรการกำกับดูแล AI เพื่อให้แน่ใจว่ามีการปรับปรุงด้านความโปร่งใสและความถูกต้อง.

    ข้อมูลเพิ่มเติมเกี่ยวกับการกำกับดูแล AI
    หลายประเทศเริ่มออกกฎหมายควบคุม AI เช่น สหภาพยุโรปที่มี AI Act เพื่อกำหนดมาตรฐานความปลอดภัย.
    บริษัทเทคโนโลยีใหญ่ เช่น OpenAI และ Google กำลังพัฒนาแนวทางป้องกันข้อมูลเท็จใน AI.
    AI ที่ไม่มีมาตรการตรวจสอบอาจถูกใช้เพื่อเผยแพร่ข้อมูลผิดๆ ซึ่งอาจส่งผลต่อสังคมและเศรษฐกิจ.

    https://www.thestar.com.my/tech/tech-news/2025/06/17/italy-regulator-probes-deepseek-over-false-information-risks
    อิตาลีสอบสวน DeepSeek เรื่องความเสี่ยงของข้อมูลเท็จ หน่วยงานกำกับดูแลด้านการแข่งขันและสิทธิผู้บริโภคของอิตาลี (AGCM) ได้เปิดการสอบสวน DeepSeek ซึ่งเป็นสตาร์ทอัพ AI จากจีน เนื่องจากไม่ได้แจ้งเตือนผู้ใช้เกี่ยวกับความเสี่ยงของข้อมูลที่อาจไม่ถูกต้องหรือถูกสร้างขึ้นโดย AI. รายละเอียดการสอบสวน ✅ AGCM ระบุว่า DeepSeek ไม่ได้ให้คำเตือนที่ชัดเจนเกี่ยวกับ "Hallucinations" ของ AI ซึ่งหมายถึงข้อมูลที่ไม่ถูกต้องหรือถูกสร้างขึ้นโดยไม่มีแหล่งที่มา. ✅ DeepSeek ไม่ตอบกลับคำขอความคิดเห็นจากสื่อ หลังจากมีการสอบสวน. ✅ ก่อนหน้านี้ หน่วยงานคุ้มครองข้อมูลของอิตาลีเคยสั่งให้ DeepSeek ปิดการเข้าถึงแชทบอท เนื่องจากข้อกังวลด้านนโยบายความเป็นส่วนตัว. ผลกระทบและข้อควรระวัง ‼️ AI อาจสร้างข้อมูลที่ไม่ถูกต้องหรือบิดเบือน ซึ่งอาจส่งผลต่อการตัดสินใจของผู้ใช้. ‼️ DeepSeek อาจเผชิญกับมาตรการทางกฎหมายและข้อจำกัดเพิ่มเติม หากไม่สามารถแก้ไขปัญหานี้ได้. ‼️ การใช้ AI ในการให้ข้อมูลต้องมีมาตรฐานที่ชัดเจน เพื่อป้องกันการเผยแพร่ข้อมูลผิดพลาด. แนวทางป้องกันสำหรับผู้ใช้ ✅ ตรวจสอบแหล่งที่มาของข้อมูลที่ได้รับจาก AI โดยเปรียบเทียบกับแหล่งข้อมูลที่เชื่อถือได้. ✅ ใช้ AI อย่างระมัดระวัง โดยไม่พึ่งพาข้อมูลจาก AI เพียงอย่างเดียวในการตัดสินใจที่สำคัญ. ✅ ติดตามการพัฒนาและมาตรการกำกับดูแล AI เพื่อให้แน่ใจว่ามีการปรับปรุงด้านความโปร่งใสและความถูกต้อง. ข้อมูลเพิ่มเติมเกี่ยวกับการกำกับดูแล AI ✅ หลายประเทศเริ่มออกกฎหมายควบคุม AI เช่น สหภาพยุโรปที่มี AI Act เพื่อกำหนดมาตรฐานความปลอดภัย. ✅ บริษัทเทคโนโลยีใหญ่ เช่น OpenAI และ Google กำลังพัฒนาแนวทางป้องกันข้อมูลเท็จใน AI. ‼️ AI ที่ไม่มีมาตรการตรวจสอบอาจถูกใช้เพื่อเผยแพร่ข้อมูลผิดๆ ซึ่งอาจส่งผลต่อสังคมและเศรษฐกิจ. https://www.thestar.com.my/tech/tech-news/2025/06/17/italy-regulator-probes-deepseek-over-false-information-risks
    WWW.THESTAR.COM.MY
    Italy regulator probes DeepSeek over false information risks
    ROME (Reuters) -Italy's antitrust watchdog AGCM said on Monday it had opened an investigation into Chinese artificial intelligence startup DeepSeek for allegedly failing to warn users that it may produce false information.
    0 Comments 0 Shares 401 Views 0 Reviews
  • ครั้งแรกที่ทดลองเขียนบทความโดยใช้ ChatGPT หาข้อมูล ช่วยตรวจ และทำภาพประกอบ แต่ยังคงสำนวนของเราเอง

    ลองแปลภาษาอังกฤษ อันนี้โคตรตื่นเต้น ใช้ ChatGPT แปล

    ChatGPT in the ASEAN Market

    Artificial intelligence (AI) is playing an increasingly significant role in everyday life—especially through platforms like ChatGPT, an interactive assistant capable of understanding and responding to human language in a wide variety of contexts. From planning and problem-solving to providing daily advice, ChatGPT has become a go-to tool for many. Currently, it boasts around 800 million users worldwide, with approximately 122 million daily active users. It operates in a competitive field alongside major technology platforms such as Google, Microsoft, and Meta, as well as rising competitors from Asia like DeepSeek, Baidu, Alibaba, and Tencent.

    In Thailand, while the core user base consists of coders, programmers, and those generating AI visuals, ChatGPT is gradually gaining broader recognition for its role in content creation and ideation. About 14% of Thailand's population of 65.89 million are estimated to be users.

    Looking across the ASEAN region, which has a combined population of roughly 600 million, Indonesia leads in user share with around 32% of its 283.48 million citizens using the platform. The Philippines follows with an estimated 28% of its population (roughly 119 million) engaging with ChatGPT. In Singapore, usage is widespread among high-income, well-educated groups, while Malaysia is seeing steady growth, particularly among tech-savvy users. However, the region still faces significant challenges, including disparities in access to high-speed internet, AI-compatible devices, and the relatively high cost of AI services for certain demographics.

    To address these barriers, OpenAI, the US-based AI company behind ChatGPT, has begun collaborating with telecom providers across Southeast Asia. For example, in Laos, ChatGPT is accessible via the Unitel network; in Malaysia, CelcomDigi is planning to introduce AI-powered add-on services; and in Singapore, Singtel has started bundling AI services into consumer packages. In the Philippines, usage remains limited, while Indonesia is piloting AI services with select customer groups.

    Although Thailand has not yet officially launched ChatGPT service packages, interest is high and discussions with major telecom providers are reportedly underway. Meanwhile, Vietnam, Cambodia, Myanmar, and Brunei remain in the early or pilot phases of deployment.

    Overall, ASEAN markets are showing increased interest and activity around AI services, even though adoption rates have yet to match those in Europe or the United States. Partnerships between OpenAI and regional telecom providers are expected to be key in expanding ChatGPT’s accessibility and integration across broader segments of the population.
    ครั้งแรกที่ทดลองเขียนบทความโดยใช้ ChatGPT หาข้อมูล ช่วยตรวจ และทำภาพประกอบ แต่ยังคงสำนวนของเราเอง ลองแปลภาษาอังกฤษ อันนี้โคตรตื่นเต้น ใช้ ChatGPT แปล ChatGPT in the ASEAN Market Artificial intelligence (AI) is playing an increasingly significant role in everyday life—especially through platforms like ChatGPT, an interactive assistant capable of understanding and responding to human language in a wide variety of contexts. From planning and problem-solving to providing daily advice, ChatGPT has become a go-to tool for many. Currently, it boasts around 800 million users worldwide, with approximately 122 million daily active users. It operates in a competitive field alongside major technology platforms such as Google, Microsoft, and Meta, as well as rising competitors from Asia like DeepSeek, Baidu, Alibaba, and Tencent. In Thailand, while the core user base consists of coders, programmers, and those generating AI visuals, ChatGPT is gradually gaining broader recognition for its role in content creation and ideation. About 14% of Thailand's population of 65.89 million are estimated to be users. Looking across the ASEAN region, which has a combined population of roughly 600 million, Indonesia leads in user share with around 32% of its 283.48 million citizens using the platform. The Philippines follows with an estimated 28% of its population (roughly 119 million) engaging with ChatGPT. In Singapore, usage is widespread among high-income, well-educated groups, while Malaysia is seeing steady growth, particularly among tech-savvy users. However, the region still faces significant challenges, including disparities in access to high-speed internet, AI-compatible devices, and the relatively high cost of AI services for certain demographics. To address these barriers, OpenAI, the US-based AI company behind ChatGPT, has begun collaborating with telecom providers across Southeast Asia. For example, in Laos, ChatGPT is accessible via the Unitel network; in Malaysia, CelcomDigi is planning to introduce AI-powered add-on services; and in Singapore, Singtel has started bundling AI services into consumer packages. In the Philippines, usage remains limited, while Indonesia is piloting AI services with select customer groups. Although Thailand has not yet officially launched ChatGPT service packages, interest is high and discussions with major telecom providers are reportedly underway. Meanwhile, Vietnam, Cambodia, Myanmar, and Brunei remain in the early or pilot phases of deployment. Overall, ASEAN markets are showing increased interest and activity around AI services, even though adoption rates have yet to match those in Europe or the United States. Partnerships between OpenAI and regional telecom providers are expected to be key in expanding ChatGPT’s accessibility and integration across broader segments of the population.
    ChatGPT ในตลาดอาเซียน

    เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเข้ามามีบทบาทในชีวิตประจำวัน โดยเฉพาะแพลตฟอร์ม ChatGPT ซึ่งเป็นผู้ช่วยโต้ตอบที่สามารถเข้าใจและตอบสนองภาษามนุษย์ได้หลากหลายรูปแบบ ทั้งในด้านการวางแผน แก้ปัญหา และให้คำแนะนำในชีวิตประจำวัน ปัจจุบันมีผู้ใช้งานทั่วโลกประมาณ 800 ล้านคน โดยมีผู้ใช้งานประจำวันราว 122 ล้านคน ท่ามกลางการแข่งขันกับแพลตฟอร์มจากค่ายเทคโนโลยีรายใหญ่อย่าง Google, Microsoft, Meta ตลอดจนคู่แข่งจากฝั่งเอเชีย เช่น DeepSeek, Baidu, Alibaba และ Tencent

    สำหรับประเทศไทย แม้กลุ่มผู้ใช้งานหลักจะอยู่ในสายโค้ดดิ้ง โปรแกรมมิ่ง หรือการสร้างภาพ AI แต่ ChatGPT ก็เริ่มเป็นที่รู้จักในวงกว้างด้านการใช้สร้างสรรค์เนื้อหาและแนวคิดใหม่ๆ โดยมีสัดส่วนผู้ใช้งานประมาณ 14% จากประชากร 65.89 ล้านคน

    หากพิจารณาภาพรวมของตลาดอาเซียน ซึ่งมีประชากรรวมราว 600 ล้านคน พบว่า อินโดนีเซียมีสัดส่วนผู้ใช้งานสูงที่สุด ประมาณ 32% ของประชากร 283.48 ล้านคน รองลงมาคือฟิลิปปินส์ ที่มีผู้ใช้งานประมาณ 28% จากประชากรราว 119 ล้านคน ส่วนสิงคโปร์มีการใช้งานอย่างแพร่หลายในกลุ่มที่มีรายได้สูงและการศึกษาดี ขณะที่มาเลเซียมีแนวโน้มเพิ่มขึ้นอย่างต่อเนื่องในกลุ่มผู้สนใจเทคโนโลยีใหม่ อย่างไรก็ตาม อุปสรรคสำคัญของภูมิภาคนี้ยังอยู่ที่ความเหลื่อมล้ำในการเข้าถึงอินเทอร์เน็ตความเร็วสูง อุปกรณ์ที่รองรับ AI และต้นทุนบริการที่ยังถือว่าสูงสำหรับประชากรบางส่วน

    ที่ผ่านมา OpenAI ซึ่งเป็นบริษัทด้าน AI จากสหรัฐอเมริกา ได้เปิดตัวโครงการ “OpenAI for Countries” ซึ่งเป็นความร่วมมือกับประเทศต่าง ๆ เพื่อสนับสนุนการพัฒนาโครงสร้างพื้นฐานด้าน AI และการเข้าถึง ChatGPT ในระดับประเทศ ขณะที่สิงคโปร์ OpenAI ได้ประกาศความร่วมมือกับโครงการ AI Singapore ซึ่งเป็นโครงการร่วมระหว่างรัฐบาลและสถาบันการศึกษา เพื่อส่งเสริมการนำ AI มาใช้ในประเทศ ส่วนประเทศอื่นๆ สามารถเข้าถึงได้ผ่านแอปพลิเคชันบนมือถือ และผ่านเว็บไซต์

    โดยรวมแล้ว ตลาดอาเซียนกำลังตื่นตัวต่อบริการ AI มากขึ้น แม้ยังไม่เทียบเท่าตลาดยุโรปหรือสหรัฐฯ ความร่วมมือระหว่าง OpenAI กับผู้ให้บริการโทรคมนาคมในภูมิภาค จึงเป็นกุญแจสำคัญในการขยายการเข้าถึง ChatGPT ให้ครอบคลุมประชากรในวงกว้างมากยิ่งขึ้น

    #Newskit
    0 Comments 0 Shares 740 Views 0 Reviews
  • ChatGPT ในตลาดอาเซียน

    เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเข้ามามีบทบาทในชีวิตประจำวัน โดยเฉพาะแพลตฟอร์ม ChatGPT ซึ่งเป็นผู้ช่วยโต้ตอบที่สามารถเข้าใจและตอบสนองภาษามนุษย์ได้หลากหลายรูปแบบ ทั้งในด้านการวางแผน แก้ปัญหา และให้คำแนะนำในชีวิตประจำวัน ปัจจุบันมีผู้ใช้งานทั่วโลกประมาณ 800 ล้านคน โดยมีผู้ใช้งานประจำวันราว 122 ล้านคน ท่ามกลางการแข่งขันกับแพลตฟอร์มจากค่ายเทคโนโลยีรายใหญ่อย่าง Google, Microsoft, Meta ตลอดจนคู่แข่งจากฝั่งเอเชีย เช่น DeepSeek, Baidu, Alibaba และ Tencent

    สำหรับประเทศไทย แม้กลุ่มผู้ใช้งานหลักจะอยู่ในสายโค้ดดิ้ง โปรแกรมมิ่ง หรือการสร้างภาพ AI แต่ ChatGPT ก็เริ่มเป็นที่รู้จักในวงกว้างด้านการใช้สร้างสรรค์เนื้อหาและแนวคิดใหม่ๆ โดยมีสัดส่วนผู้ใช้งานประมาณ 14% จากประชากร 65.89 ล้านคน

    หากพิจารณาภาพรวมของตลาดอาเซียน ซึ่งมีประชากรรวมราว 600 ล้านคน พบว่า อินโดนีเซียมีสัดส่วนผู้ใช้งานสูงที่สุด ประมาณ 32% ของประชากร 283.48 ล้านคน รองลงมาคือฟิลิปปินส์ ที่มีผู้ใช้งานประมาณ 28% จากประชากรราว 119 ล้านคน ส่วนสิงคโปร์มีการใช้งานอย่างแพร่หลายในกลุ่มที่มีรายได้สูงและการศึกษาดี ขณะที่มาเลเซียมีแนวโน้มเพิ่มขึ้นอย่างต่อเนื่องในกลุ่มผู้สนใจเทคโนโลยีใหม่ อย่างไรก็ตาม อุปสรรคสำคัญของภูมิภาคนี้ยังอยู่ที่ความเหลื่อมล้ำในการเข้าถึงอินเทอร์เน็ตความเร็วสูง อุปกรณ์ที่รองรับ AI และต้นทุนบริการที่ยังถือว่าสูงสำหรับประชากรบางส่วน

    ที่ผ่านมา OpenAI ซึ่งเป็นบริษัทด้าน AI จากสหรัฐอเมริกา ได้เปิดตัวโครงการ “OpenAI for Countries” ซึ่งเป็นความร่วมมือกับประเทศต่าง ๆ เพื่อสนับสนุนการพัฒนาโครงสร้างพื้นฐานด้าน AI และการเข้าถึง ChatGPT ในระดับประเทศ ขณะที่สิงคโปร์ OpenAI ได้ประกาศความร่วมมือกับโครงการ AI Singapore ซึ่งเป็นโครงการร่วมระหว่างรัฐบาลและสถาบันการศึกษา เพื่อส่งเสริมการนำ AI มาใช้ในประเทศ ส่วนประเทศอื่นๆ สามารถเข้าถึงได้ผ่านแอปพลิเคชันบนมือถือ และผ่านเว็บไซต์

    โดยรวมแล้ว ตลาดอาเซียนกำลังตื่นตัวต่อบริการ AI มากขึ้น แม้ยังไม่เทียบเท่าตลาดยุโรปหรือสหรัฐฯ ความร่วมมือระหว่าง OpenAI กับผู้ให้บริการโทรคมนาคมในภูมิภาค จึงเป็นกุญแจสำคัญในการขยายการเข้าถึง ChatGPT ให้ครอบคลุมประชากรในวงกว้างมากยิ่งขึ้น

    #Newskit
    ChatGPT ในตลาดอาเซียน เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเข้ามามีบทบาทในชีวิตประจำวัน โดยเฉพาะแพลตฟอร์ม ChatGPT ซึ่งเป็นผู้ช่วยโต้ตอบที่สามารถเข้าใจและตอบสนองภาษามนุษย์ได้หลากหลายรูปแบบ ทั้งในด้านการวางแผน แก้ปัญหา และให้คำแนะนำในชีวิตประจำวัน ปัจจุบันมีผู้ใช้งานทั่วโลกประมาณ 800 ล้านคน โดยมีผู้ใช้งานประจำวันราว 122 ล้านคน ท่ามกลางการแข่งขันกับแพลตฟอร์มจากค่ายเทคโนโลยีรายใหญ่อย่าง Google, Microsoft, Meta ตลอดจนคู่แข่งจากฝั่งเอเชีย เช่น DeepSeek, Baidu, Alibaba และ Tencent สำหรับประเทศไทย แม้กลุ่มผู้ใช้งานหลักจะอยู่ในสายโค้ดดิ้ง โปรแกรมมิ่ง หรือการสร้างภาพ AI แต่ ChatGPT ก็เริ่มเป็นที่รู้จักในวงกว้างด้านการใช้สร้างสรรค์เนื้อหาและแนวคิดใหม่ๆ โดยมีสัดส่วนผู้ใช้งานประมาณ 14% จากประชากร 65.89 ล้านคน หากพิจารณาภาพรวมของตลาดอาเซียน ซึ่งมีประชากรรวมราว 600 ล้านคน พบว่า อินโดนีเซียมีสัดส่วนผู้ใช้งานสูงที่สุด ประมาณ 32% ของประชากร 283.48 ล้านคน รองลงมาคือฟิลิปปินส์ ที่มีผู้ใช้งานประมาณ 28% จากประชากรราว 119 ล้านคน ส่วนสิงคโปร์มีการใช้งานอย่างแพร่หลายในกลุ่มที่มีรายได้สูงและการศึกษาดี ขณะที่มาเลเซียมีแนวโน้มเพิ่มขึ้นอย่างต่อเนื่องในกลุ่มผู้สนใจเทคโนโลยีใหม่ อย่างไรก็ตาม อุปสรรคสำคัญของภูมิภาคนี้ยังอยู่ที่ความเหลื่อมล้ำในการเข้าถึงอินเทอร์เน็ตความเร็วสูง อุปกรณ์ที่รองรับ AI และต้นทุนบริการที่ยังถือว่าสูงสำหรับประชากรบางส่วน ที่ผ่านมา OpenAI ซึ่งเป็นบริษัทด้าน AI จากสหรัฐอเมริกา ได้เปิดตัวโครงการ “OpenAI for Countries” ซึ่งเป็นความร่วมมือกับประเทศต่าง ๆ เพื่อสนับสนุนการพัฒนาโครงสร้างพื้นฐานด้าน AI และการเข้าถึง ChatGPT ในระดับประเทศ ขณะที่สิงคโปร์ OpenAI ได้ประกาศความร่วมมือกับโครงการ AI Singapore ซึ่งเป็นโครงการร่วมระหว่างรัฐบาลและสถาบันการศึกษา เพื่อส่งเสริมการนำ AI มาใช้ในประเทศ ส่วนประเทศอื่นๆ สามารถเข้าถึงได้ผ่านแอปพลิเคชันบนมือถือ และผ่านเว็บไซต์ โดยรวมแล้ว ตลาดอาเซียนกำลังตื่นตัวต่อบริการ AI มากขึ้น แม้ยังไม่เทียบเท่าตลาดยุโรปหรือสหรัฐฯ ความร่วมมือระหว่าง OpenAI กับผู้ให้บริการโทรคมนาคมในภูมิภาค จึงเป็นกุญแจสำคัญในการขยายการเข้าถึง ChatGPT ให้ครอบคลุมประชากรในวงกว้างมากยิ่งขึ้น #Newskit
    Like
    2
    0 Comments 1 Shares 959 Views 0 Reviews
  • Minisforum เปิดตัวเซิร์ฟเวอร์ AI ที่ใช้ชิป Ryzen แทน EPYC – การเปลี่ยนแปลงที่ AMD อาจไม่พอใจ

    Minisforum เปิดตัว MS-S1 Max ซึ่งเป็นเซิร์ฟเวอร์ 2U rackmount ที่ใช้ชิป Ryzen AI Max+ 395 แทนที่จะเป็น EPYC โดยบริษัทอ้างว่า ระบบนี้จะช่วยปฏิวัติการทำงานด้าน AI ในสภาพแวดล้อมคอมพิวเตอร์ขนาดเล็ก อย่างไรก็ตาม แนวทางนี้อาจส่งผลกระทบต่อกลยุทธ์ของ AMD ในตลาดเซิร์ฟเวอร์

    รายละเอียดสำคัญเกี่ยวกับ MS-S1 Max และผลกระทบต่อ AMD
    MS-S1 Max ใช้ชิป Ryzen AI Max+ 395 ซึ่งเป็นชิปสำหรับลูกค้า ไม่ใช่เซิร์ฟเวอร์
    - มี กราฟิก Radeon และ NPU สำหรับงาน AI

    Minisforum อ้างว่าเซิร์ฟเวอร์นี้เหมาะสำหรับมหาวิทยาลัย, ห้องทดลอง และสตาร์ทอัพด้าน AI
    - สามารถ รันโมเดลขนาดใหญ่ เช่น DeepSeek 70B ได้โดยไม่ต้องใช้โครงสร้างพื้นฐานแบบดั้งเดิม

    MS-S1 Max มีขนาดเล็กเพียง 3.2 ลิตร และออกแบบให้เป็นระบบ all-in-one
    - ทำให้ มีประสิทธิภาพด้านพลังงานและต้นทุนต่ำกว่าระบบเซิร์ฟเวอร์ทั่วไป

    AMD อาจต้องตัดสินใจว่าจะยอมรับหรือจำกัดการใช้ Ryzen ในเซิร์ฟเวอร์
    - เนื่องจาก EPYC ได้รับการออกแบบมาเพื่อความน่าเชื่อถือและรองรับงานที่ต้องการความเสถียรสูง

    Ryzen ไม่มีการรองรับ ECC memory และฟีเจอร์ระดับเซิร์ฟเวอร์
    - อาจทำให้ ไม่เหมาะสำหรับงานที่ต้องการความเสถียรระยะยาว

    https://www.techradar.com/pro/amd-has-a-problem-chinese-vendor-goes-rogue-and-puts-ryzen-ai-cpus-in-server-racks-instead-of-epyc-processors
    Minisforum เปิดตัวเซิร์ฟเวอร์ AI ที่ใช้ชิป Ryzen แทน EPYC – การเปลี่ยนแปลงที่ AMD อาจไม่พอใจ Minisforum เปิดตัว MS-S1 Max ซึ่งเป็นเซิร์ฟเวอร์ 2U rackmount ที่ใช้ชิป Ryzen AI Max+ 395 แทนที่จะเป็น EPYC โดยบริษัทอ้างว่า ระบบนี้จะช่วยปฏิวัติการทำงานด้าน AI ในสภาพแวดล้อมคอมพิวเตอร์ขนาดเล็ก อย่างไรก็ตาม แนวทางนี้อาจส่งผลกระทบต่อกลยุทธ์ของ AMD ในตลาดเซิร์ฟเวอร์ 🔍 รายละเอียดสำคัญเกี่ยวกับ MS-S1 Max และผลกระทบต่อ AMD ✅ MS-S1 Max ใช้ชิป Ryzen AI Max+ 395 ซึ่งเป็นชิปสำหรับลูกค้า ไม่ใช่เซิร์ฟเวอร์ - มี กราฟิก Radeon และ NPU สำหรับงาน AI ✅ Minisforum อ้างว่าเซิร์ฟเวอร์นี้เหมาะสำหรับมหาวิทยาลัย, ห้องทดลอง และสตาร์ทอัพด้าน AI - สามารถ รันโมเดลขนาดใหญ่ เช่น DeepSeek 70B ได้โดยไม่ต้องใช้โครงสร้างพื้นฐานแบบดั้งเดิม ✅ MS-S1 Max มีขนาดเล็กเพียง 3.2 ลิตร และออกแบบให้เป็นระบบ all-in-one - ทำให้ มีประสิทธิภาพด้านพลังงานและต้นทุนต่ำกว่าระบบเซิร์ฟเวอร์ทั่วไป ✅ AMD อาจต้องตัดสินใจว่าจะยอมรับหรือจำกัดการใช้ Ryzen ในเซิร์ฟเวอร์ - เนื่องจาก EPYC ได้รับการออกแบบมาเพื่อความน่าเชื่อถือและรองรับงานที่ต้องการความเสถียรสูง ✅ Ryzen ไม่มีการรองรับ ECC memory และฟีเจอร์ระดับเซิร์ฟเวอร์ - อาจทำให้ ไม่เหมาะสำหรับงานที่ต้องการความเสถียรระยะยาว https://www.techradar.com/pro/amd-has-a-problem-chinese-vendor-goes-rogue-and-puts-ryzen-ai-cpus-in-server-racks-instead-of-epyc-processors
    WWW.TECHRADAR.COM
    This weird little Ryzen rack server could ruin AMD’s carefully planned EPYC business empire
    MS-S1 Max is the AI rebel server AMD didn’t want, but might have to live with
    Like
    1
    0 Comments 0 Shares 308 Views 0 Reviews
  • สหรัฐฯ กังวลเกี่ยวกับข้อตกลง AI ระหว่าง Apple และ Alibaba ในจีน

    รัฐบาลสหรัฐฯ แสดงความกังวลเกี่ยวกับข้อตกลงของ Apple กับ Alibaba ซึ่งมีเป้าหมายเพื่อนำ ฟีเจอร์ AI มาสู่ iPhone ในจีน โดยเจ้าหน้าที่ในวอชิงตันมองว่า ข้อตกลงนี้อาจช่วยให้บริษัทจีนพัฒนา AI ได้ดีขึ้น และเพิ่มการควบคุมของรัฐบาลจีนต่อข้อมูลและการเซ็นเซอร์

    รายละเอียดสำคัญเกี่ยวกับข้อตกลง AI ของ Apple ในจีน
    Apple ต้องหาพันธมิตรในจีนเพื่อให้ iPhone มีฟีเจอร์ AI
    - เนื่องจาก OpenAI ไม่สามารถดำเนินการในจีนได้

    Alibaba เป็นหนึ่งในบริษัทที่ Apple เจรจาด้วย
    - นอกจากนี้ ยังมี Baidu, Tencent และ DeepSeek ที่ Apple เคยพิจารณา

    เจ้าหน้าที่สหรัฐฯ กังวลว่าข้อตกลงนี้อาจช่วยให้จีนพัฒนา AI ได้เร็วขึ้น
    - รวมถึง เพิ่มการควบคุมของรัฐบาลจีนต่อข้อมูลและการเซ็นเซอร์

    Apple พบกับเจ้าหน้าที่ทำเนียบขาวและคณะกรรมการสภาเพื่อชี้แจงข้อตกลง
    - แต่ ยังขาดความโปร่งใสเกี่ยวกับรายละเอียดของข้อตกลง

    หาก Apple ไม่สามารถทำข้อตกลงได้ อาจสูญเสียลูกค้าในจีนให้กับ Xiaomi และ Huawei
    - เนื่องจาก แบรนด์เหล่านี้มีฟีเจอร์ AI ที่แข็งแกร่งอยู่แล้ว

    https://www.neowin.net/news/the-us-lawmakers-raise-concerns-about-apple-alibaba-ai-venture-in-china/
    สหรัฐฯ กังวลเกี่ยวกับข้อตกลง AI ระหว่าง Apple และ Alibaba ในจีน รัฐบาลสหรัฐฯ แสดงความกังวลเกี่ยวกับข้อตกลงของ Apple กับ Alibaba ซึ่งมีเป้าหมายเพื่อนำ ฟีเจอร์ AI มาสู่ iPhone ในจีน โดยเจ้าหน้าที่ในวอชิงตันมองว่า ข้อตกลงนี้อาจช่วยให้บริษัทจีนพัฒนา AI ได้ดีขึ้น และเพิ่มการควบคุมของรัฐบาลจีนต่อข้อมูลและการเซ็นเซอร์ 🔍 รายละเอียดสำคัญเกี่ยวกับข้อตกลง AI ของ Apple ในจีน ✅ Apple ต้องหาพันธมิตรในจีนเพื่อให้ iPhone มีฟีเจอร์ AI - เนื่องจาก OpenAI ไม่สามารถดำเนินการในจีนได้ ✅ Alibaba เป็นหนึ่งในบริษัทที่ Apple เจรจาด้วย - นอกจากนี้ ยังมี Baidu, Tencent และ DeepSeek ที่ Apple เคยพิจารณา ✅ เจ้าหน้าที่สหรัฐฯ กังวลว่าข้อตกลงนี้อาจช่วยให้จีนพัฒนา AI ได้เร็วขึ้น - รวมถึง เพิ่มการควบคุมของรัฐบาลจีนต่อข้อมูลและการเซ็นเซอร์ ✅ Apple พบกับเจ้าหน้าที่ทำเนียบขาวและคณะกรรมการสภาเพื่อชี้แจงข้อตกลง - แต่ ยังขาดความโปร่งใสเกี่ยวกับรายละเอียดของข้อตกลง ✅ หาก Apple ไม่สามารถทำข้อตกลงได้ อาจสูญเสียลูกค้าในจีนให้กับ Xiaomi และ Huawei - เนื่องจาก แบรนด์เหล่านี้มีฟีเจอร์ AI ที่แข็งแกร่งอยู่แล้ว https://www.neowin.net/news/the-us-lawmakers-raise-concerns-about-apple-alibaba-ai-venture-in-china/
    WWW.NEOWIN.NET
    The US lawmakers raise concerns about Apple-Alibaba AI venture in China
    Apple's partnership with Alibaba to bring AI features to iPhones in China raises alarms in Washington over security concerns.
    0 Comments 0 Shares 394 Views 0 Reviews
More Results