• "Cambricon ตั้งเป้าเพิ่มการผลิตชิป AI 3 เท่า – หวังแทนที่ Nvidia และท้าชน Huawei"

    ข่าวนี้เล่าถึงบริษัท Cambricon Technologies ของจีนที่ตั้งเป้า เพิ่มการผลิตชิป AI เป็น 3 เท่าในปี 2026 เพื่อทดแทนช่องว่างที่ Nvidia ถอนตัวออกจากตลาดจีน และแข่งขันกับ Huawei แต่ยังมีข้อกังวลเรื่องกำลังการผลิตและคุณภาพการผลิตที่ต่ำ

    Cambricon Technologies มีแผนจะผลิตชิป AI กว่า 500,000 ตัวในปี 2026 รวมถึงรุ่นเรือธง Siyuan 590 และ 690 ซึ่งมากกว่าสามเท่าของจำนวนที่คาดว่าจะผลิตในปี 2025 (ประมาณ 142,000 ตัว). การขยายนี้เกิดขึ้นหลังจาก Nvidia ถูกจำกัดการส่งออกชิปไปยังจีน ทำให้เกิดช่องว่างในตลาดที่บริษัทจีนพยายามเข้ามาเติมเต็ม.

    Cambricon จะพึ่งพากำลังการผลิตจาก Semiconductor Manufacturing International Corp (SMIC) โดยใช้กระบวนการผลิต 7nm N+2 แต่ยังมีข้อกังวลเรื่องคุณภาพ เนื่องจากชิป Siyuan มีอัตราการผลิตที่ใช้ได้จริงเพียง 20% หรือหนึ่งในห้าของจำนวนที่ผลิตออกมา ซึ่งถือว่าต่ำมากเมื่อเทียบกับ TSMC ที่มี yield rate สูงถึง 60%.

    แม้จะมีข้อจำกัดด้านเทคนิค แต่ Cambricon ได้รับแรงหนุนจากรัฐบาลจีนและความต้องการภายในประเทศ โดยมีลูกค้ารายใหญ่เช่น Alibaba และ ByteDance ที่หันมาใช้ชิปจีนตามนโยบายลดการพึ่งพาต่างชาติ รายได้ของบริษัทก็เพิ่มขึ้นกว่า 14 เท่าในไตรมาสล่าสุด สะท้อนความต้องการที่พุ่งสูงในตลาด AI.

    อย่างไรก็ตาม ความท้าทายยังคงอยู่ที่ การจัดหาวัสดุพื้นฐานและหน่วยความจำ (HBM, LPDDR) ซึ่งขาดแคลนทั่วโลก รวมถึงการแข่งขันกับ Huawei ที่ประกาศว่าจะเพิ่มการผลิตชิปเช่นกัน ทำให้อนาคตของ Cambricon แม้จะสดใส แต่ก็เต็มไปด้วยความเสี่ยงด้านเทคนิคและทรัพยากร.

    สรุปประเด็นสำคัญ
    ข้อมูลจากข่าว
    Cambricon ตั้งเป้าผลิตชิป AI 500,000 ตัวในปี 2026
    ใช้กำลังการผลิตจาก SMIC ที่กระบวนการ 7nm N+2
    Yield rate ของชิป Siyuan อยู่ที่ 20% เทียบกับ TSMC ที่ 60%
    ลูกค้ารายใหญ่: Alibaba และ ByteDance
    รายได้ไตรมาสล่าสุดเพิ่มขึ้น 14 เท่า

    ข้อมูลเสริมจาก Internet
    ตลาดชิป AI คาดว่าจะเติบโตเฉลี่ย 25% ต่อปีในช่วง 2025–2030
    Huawei กำลังเพิ่มการผลิตชิป AI เพื่อตอบสนองความต้องการในประเทศ
    การขาดแคลน HBM และ LPDDR เป็นปัญหาสำคัญทั่วโลก

    คำเตือนจากข่าว
    Yield rate ต่ำอาจทำให้ต้นทุนสูงและการผลิตไม่คุ้มค่า
    การขาดแคลนหน่วยความจำอาจทำให้คำสั่งซื้อไม่สามารถส่งมอบได้
    การแข่งขันกับ Huawei อาจทำให้ Cambricon เสียเปรียบในตลาดภายในประเทศ

    https://www.tomshardware.com/tech-industry/chinese-tech-firm-cambricon-looks-to-step-into-nvidia-void-triple-ai-chip-production-next-year-seeks-to-rival-huawei-but-production-remains-a-concern
    ⚙️ "Cambricon ตั้งเป้าเพิ่มการผลิตชิป AI 3 เท่า – หวังแทนที่ Nvidia และท้าชน Huawei" ข่าวนี้เล่าถึงบริษัท Cambricon Technologies ของจีนที่ตั้งเป้า เพิ่มการผลิตชิป AI เป็น 3 เท่าในปี 2026 เพื่อทดแทนช่องว่างที่ Nvidia ถอนตัวออกจากตลาดจีน และแข่งขันกับ Huawei แต่ยังมีข้อกังวลเรื่องกำลังการผลิตและคุณภาพการผลิตที่ต่ำ Cambricon Technologies มีแผนจะผลิตชิป AI กว่า 500,000 ตัวในปี 2026 รวมถึงรุ่นเรือธง Siyuan 590 และ 690 ซึ่งมากกว่าสามเท่าของจำนวนที่คาดว่าจะผลิตในปี 2025 (ประมาณ 142,000 ตัว). การขยายนี้เกิดขึ้นหลังจาก Nvidia ถูกจำกัดการส่งออกชิปไปยังจีน ทำให้เกิดช่องว่างในตลาดที่บริษัทจีนพยายามเข้ามาเติมเต็ม. Cambricon จะพึ่งพากำลังการผลิตจาก Semiconductor Manufacturing International Corp (SMIC) โดยใช้กระบวนการผลิต 7nm N+2 แต่ยังมีข้อกังวลเรื่องคุณภาพ เนื่องจากชิป Siyuan มีอัตราการผลิตที่ใช้ได้จริงเพียง 20% หรือหนึ่งในห้าของจำนวนที่ผลิตออกมา ซึ่งถือว่าต่ำมากเมื่อเทียบกับ TSMC ที่มี yield rate สูงถึง 60%. แม้จะมีข้อจำกัดด้านเทคนิค แต่ Cambricon ได้รับแรงหนุนจากรัฐบาลจีนและความต้องการภายในประเทศ โดยมีลูกค้ารายใหญ่เช่น Alibaba และ ByteDance ที่หันมาใช้ชิปจีนตามนโยบายลดการพึ่งพาต่างชาติ รายได้ของบริษัทก็เพิ่มขึ้นกว่า 14 เท่าในไตรมาสล่าสุด สะท้อนความต้องการที่พุ่งสูงในตลาด AI. อย่างไรก็ตาม ความท้าทายยังคงอยู่ที่ การจัดหาวัสดุพื้นฐานและหน่วยความจำ (HBM, LPDDR) ซึ่งขาดแคลนทั่วโลก รวมถึงการแข่งขันกับ Huawei ที่ประกาศว่าจะเพิ่มการผลิตชิปเช่นกัน ทำให้อนาคตของ Cambricon แม้จะสดใส แต่ก็เต็มไปด้วยความเสี่ยงด้านเทคนิคและทรัพยากร. 📌 สรุปประเด็นสำคัญ ✅ ข้อมูลจากข่าว ➡️ Cambricon ตั้งเป้าผลิตชิป AI 500,000 ตัวในปี 2026 ➡️ ใช้กำลังการผลิตจาก SMIC ที่กระบวนการ 7nm N+2 ➡️ Yield rate ของชิป Siyuan อยู่ที่ 20% เทียบกับ TSMC ที่ 60% ➡️ ลูกค้ารายใหญ่: Alibaba และ ByteDance ➡️ รายได้ไตรมาสล่าสุดเพิ่มขึ้น 14 เท่า ✅ ข้อมูลเสริมจาก Internet ➡️ ตลาดชิป AI คาดว่าจะเติบโตเฉลี่ย 25% ต่อปีในช่วง 2025–2030 ➡️ Huawei กำลังเพิ่มการผลิตชิป AI เพื่อตอบสนองความต้องการในประเทศ ➡️ การขาดแคลน HBM และ LPDDR เป็นปัญหาสำคัญทั่วโลก ‼️ คำเตือนจากข่าว ⛔ Yield rate ต่ำอาจทำให้ต้นทุนสูงและการผลิตไม่คุ้มค่า ⛔ การขาดแคลนหน่วยความจำอาจทำให้คำสั่งซื้อไม่สามารถส่งมอบได้ ⛔ การแข่งขันกับ Huawei อาจทำให้ Cambricon เสียเปรียบในตลาดภายในประเทศ https://www.tomshardware.com/tech-industry/chinese-tech-firm-cambricon-looks-to-step-into-nvidia-void-triple-ai-chip-production-next-year-seeks-to-rival-huawei-but-production-remains-a-concern
    0 Comments 0 Shares 13 Views 0 Reviews
  • Alibaba และ ByteDance กำลังย้ายการฝึกโมเดล AI ไปยังศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้ เพื่อเข้าถึง GPU ของ Nvidia

    รายงานจาก Financial Times ระบุว่า Alibaba (Qwen LLM) และ ByteDance (Doubao LLM) ได้เช่าศูนย์ข้อมูลในสิงคโปร์และมาเลเซีย เพื่อใช้ GPU ขั้นสูงของ Nvidia เช่น A100 และ H100 ในการฝึกโมเดลใหม่ ๆ การย้ายฐานนี้เกิดขึ้นหลังจากสหรัฐฯ ออกข้อจำกัดเข้มงวดในการส่งออกชิป AI ไปยังจีน

    ช่องโหว่ของข้อจำกัด
    แม้สหรัฐฯ จะห้ามขาย GPU ขั้นสูงให้จีนโดยตรง แต่การเช่าศูนย์ข้อมูลที่ดำเนินการโดยบริษัทต่างชาติในต่างประเทศยังถือว่า ถูกกฎหมาย ภายใต้กฎปัจจุบัน กฎ “AI diffusion rule” ที่เคยเสนอเพื่อปิดช่องโหว่นี้ถูกยกเลิกไปในปี 2025 ทำให้บริษัทจีนสามารถใช้ทรัพยากรคอมพิวต์ในต่างประเทศได้โดยไม่ผิดข้อบังคับ

    ผลลัพธ์ต่อการพัฒนา AI
    การเข้าถึง GPU ขั้นสูงช่วยให้โมเดลจีนอย่าง Qwen และ Doubao สามารถแข่งขันกับโมเดลตะวันตกได้ในระดับโลก หลังจากฝึกเสร็จ โมเดลเหล่านี้จะถูกนำกลับมารันในจีนบนฮาร์ดแวร์ที่ผลิตโดยบริษัทท้องถิ่น เช่น Huawei เพื่อให้สอดคล้องกับข้อกำหนดด้านความมั่นคงข้อมูล

    ความหมายเชิงยุทธศาสตร์
    การเคลื่อนไหวนี้สะท้อนถึงความพยายามของจีนในการรักษาความได้เปรียบด้าน AI แม้จะถูกจำกัดการเข้าถึงฮาร์ดแวร์ตะวันตก ขณะเดียวกันก็แสดงให้เห็นว่า ข้อจำกัดการส่งออกของสหรัฐฯ ยังมีช่องโหว่ ที่ทำให้จีนสามารถเดินหน้าพัฒนา AI ได้ต่อไป

    สรุปประเด็นสำคัญ
    บริษัทจีนย้ายการฝึกโมเดลไปต่างประเทศ
    Alibaba และ ByteDance ใช้ศูนย์ข้อมูลในสิงคโปร์และมาเลเซีย

    ช่องโหว่ของข้อจำกัดสหรัฐฯ
    การเช่าศูนย์ข้อมูลต่างประเทศยังถือว่าถูกกฎหมาย

    ผลลัพธ์ต่อโมเดล AI จีน
    Qwen และ Doubao สามารถแข่งขันกับโมเดลตะวันตกได้

    การนำโมเดลกลับมารันในจีน
    ใช้ฮาร์ดแวร์จาก Huawei และบริษัทท้องถิ่น

    ความเสี่ยงด้านความมั่นคงข้อมูล
    ข้อมูลผู้ใช้จีนยังต้องถูกประมวลผลภายในประเทศเท่านั้น

    ความท้าทายต่อข้อจำกัดสหรัฐฯ
    ช่องโหว่ทางกฎหมายอาจทำให้มาตรการควบคุมไม่บรรลุผลเต็มที่

    https://www.tomshardware.com/tech-industry/semiconductors/chinas-top-ai-firms-shift-model-training-overseas-to-access-nvidia-gpus
    🌏 Alibaba และ ByteDance กำลังย้ายการฝึกโมเดล AI ไปยังศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้ เพื่อเข้าถึง GPU ของ Nvidia รายงานจาก Financial Times ระบุว่า Alibaba (Qwen LLM) และ ByteDance (Doubao LLM) ได้เช่าศูนย์ข้อมูลในสิงคโปร์และมาเลเซีย เพื่อใช้ GPU ขั้นสูงของ Nvidia เช่น A100 และ H100 ในการฝึกโมเดลใหม่ ๆ การย้ายฐานนี้เกิดขึ้นหลังจากสหรัฐฯ ออกข้อจำกัดเข้มงวดในการส่งออกชิป AI ไปยังจีน ⚖️ ช่องโหว่ของข้อจำกัด แม้สหรัฐฯ จะห้ามขาย GPU ขั้นสูงให้จีนโดยตรง แต่การเช่าศูนย์ข้อมูลที่ดำเนินการโดยบริษัทต่างชาติในต่างประเทศยังถือว่า ถูกกฎหมาย ภายใต้กฎปัจจุบัน กฎ “AI diffusion rule” ที่เคยเสนอเพื่อปิดช่องโหว่นี้ถูกยกเลิกไปในปี 2025 ทำให้บริษัทจีนสามารถใช้ทรัพยากรคอมพิวต์ในต่างประเทศได้โดยไม่ผิดข้อบังคับ 💻 ผลลัพธ์ต่อการพัฒนา AI การเข้าถึง GPU ขั้นสูงช่วยให้โมเดลจีนอย่าง Qwen และ Doubao สามารถแข่งขันกับโมเดลตะวันตกได้ในระดับโลก หลังจากฝึกเสร็จ โมเดลเหล่านี้จะถูกนำกลับมารันในจีนบนฮาร์ดแวร์ที่ผลิตโดยบริษัทท้องถิ่น เช่น Huawei เพื่อให้สอดคล้องกับข้อกำหนดด้านความมั่นคงข้อมูล 🔮 ความหมายเชิงยุทธศาสตร์ การเคลื่อนไหวนี้สะท้อนถึงความพยายามของจีนในการรักษาความได้เปรียบด้าน AI แม้จะถูกจำกัดการเข้าถึงฮาร์ดแวร์ตะวันตก ขณะเดียวกันก็แสดงให้เห็นว่า ข้อจำกัดการส่งออกของสหรัฐฯ ยังมีช่องโหว่ ที่ทำให้จีนสามารถเดินหน้าพัฒนา AI ได้ต่อไป 📌 สรุปประเด็นสำคัญ ✅ บริษัทจีนย้ายการฝึกโมเดลไปต่างประเทศ ➡️ Alibaba และ ByteDance ใช้ศูนย์ข้อมูลในสิงคโปร์และมาเลเซีย ✅ ช่องโหว่ของข้อจำกัดสหรัฐฯ ➡️ การเช่าศูนย์ข้อมูลต่างประเทศยังถือว่าถูกกฎหมาย ✅ ผลลัพธ์ต่อโมเดล AI จีน ➡️ Qwen และ Doubao สามารถแข่งขันกับโมเดลตะวันตกได้ ✅ การนำโมเดลกลับมารันในจีน ➡️ ใช้ฮาร์ดแวร์จาก Huawei และบริษัทท้องถิ่น ‼️ ความเสี่ยงด้านความมั่นคงข้อมูล ⛔ ข้อมูลผู้ใช้จีนยังต้องถูกประมวลผลภายในประเทศเท่านั้น ‼️ ความท้าทายต่อข้อจำกัดสหรัฐฯ ⛔ ช่องโหว่ทางกฎหมายอาจทำให้มาตรการควบคุมไม่บรรลุผลเต็มที่ https://www.tomshardware.com/tech-industry/semiconductors/chinas-top-ai-firms-shift-model-training-overseas-to-access-nvidia-gpus
    0 Comments 0 Shares 192 Views 0 Reviews
  • Alibaba เปิดตัว Quark Smart Glasses พร้อม Qwen AI

    Alibaba Group ได้เปิดตัว Quark Smart Glasses รุ่น S1 ที่มาพร้อมกับ Qwen AI ซึ่งเป็นโมเดลภาษาขั้นสูงของบริษัท ถือเป็นการเข้าสู่ตลาด consumer hardware อย่างจริงจัง โดยแว่นตานี้มีหน้าจอโปร่งใสที่สามารถซ้อนข้อมูลบนทัศนียภาพจริง พร้อมกล้อง ไมโครโฟนแบบ bone conduction และแบตเตอรี่ที่เปลี่ยนได้ รองรับการใช้งานต่อเนื่องถึง 24 ชั่วโมง.

    คุณสมบัติและความแตกต่าง
    Quark S1 ถูกออกแบบมาเพื่อแข่งขันกับ Ray-Ban Smart Glasses ของ Meta โดยมีจุดเด่นคือการผสาน ecosystem ของ Alibaba เช่น Taobao, Fliggy และ Alipay รวมถึงการเชื่อมต่อกับบริการเพลงจาก NetEase Cloud Music และ QQ Music รุ่น S1 มีราคาเริ่มต้นที่ 3,799 หยวน (ประมาณ 537 ดอลลาร์สหรัฐ) ขณะที่รุ่น G1 ที่ไม่มีหน้าจอ micro-OLED มีราคา 1,899 หยวน.

    การวางจำหน่ายและตลาดเป้าหมาย
    แว่นตา Quark S1 พร้อมวางจำหน่ายทันทีบน Tmall, JD.com, Douyin และร้านค้ากว่า 600 แห่งใน 82 เมืองทั่วจีน โดยรุ่นสากลจะเปิดตัวในปีหน้า และบางส่วนจะวางขายผ่าน AliExpress เพื่อเจาะตลาดต่างประเทศ การเปิดตัวครั้งนี้สะท้อนถึงการขยายตัวของตลาด AI-powered wearables ที่กำลังเติบโตอย่างรวดเร็วในจีน.

    แนวโน้มและผลกระทบ
    ตลาดแว่นตาอัจฉริยะในจีนมีการเติบโตสูง โดยมีการส่งมอบกว่า 1.6 ล้านชิ้นในปีที่ผ่านมา และเพิ่มขึ้นเป็น 2 ล้านชิ้นเมื่อรวมรุ่นที่มีหน้าจอในตัว การแข่งขันระหว่าง Alibaba, Xiaomi และ Meta ทำให้ผู้บริโภคมีตัวเลือกมากขึ้น และยังเป็นการผลักดันให้เทคโนโลยี AI + Wearables กลายเป็นกระแสหลักในอนาคต.

    สรุปสาระสำคัญ
    Alibaba เปิดตัว Quark Smart Glasses รุ่น S1 และ G1
    S1 มีหน้าจอโปร่งใส, G1 ไม่มี micro-OLED

    ใช้ Qwen AI และ ecosystem ของ Alibaba
    รองรับ Taobao, Fliggy, Alipay และบริการเพลง

    ราคา S1 เริ่มต้น 3,799 หยวน, G1 ราคา 1,899 หยวน
    วางจำหน่ายในจีนกว่า 600 ร้าน และเตรียมขายต่างประเทศ

    ตลาดแว่นตาอัจฉริยะในจีนเติบโตสูง
    ส่งมอบกว่า 2 ล้านชิ้นเมื่อรวมรุ่นที่มีหน้าจอ

    การแข่งขันกับ Meta และ Xiaomi รุนแรง
    ผู้บริโภคอาจสับสนกับตัวเลือกที่หลากหลาย

    อายุการใช้งานแบตเตอรี่แม้เปลี่ยนได้ แต่ยังจำกัด
    ต้องพกแบตสำรองเพื่อใช้งานต่อเนื่อง

    https://www.thestar.com.my/tech/tech-news/2025/11/28/alibaba-releases-quark-smart-glasses-with-its-qwen-ai-built-in
    👓 Alibaba เปิดตัว Quark Smart Glasses พร้อม Qwen AI Alibaba Group ได้เปิดตัว Quark Smart Glasses รุ่น S1 ที่มาพร้อมกับ Qwen AI ซึ่งเป็นโมเดลภาษาขั้นสูงของบริษัท ถือเป็นการเข้าสู่ตลาด consumer hardware อย่างจริงจัง โดยแว่นตานี้มีหน้าจอโปร่งใสที่สามารถซ้อนข้อมูลบนทัศนียภาพจริง พร้อมกล้อง ไมโครโฟนแบบ bone conduction และแบตเตอรี่ที่เปลี่ยนได้ รองรับการใช้งานต่อเนื่องถึง 24 ชั่วโมง. ⚡ คุณสมบัติและความแตกต่าง Quark S1 ถูกออกแบบมาเพื่อแข่งขันกับ Ray-Ban Smart Glasses ของ Meta โดยมีจุดเด่นคือการผสาน ecosystem ของ Alibaba เช่น Taobao, Fliggy และ Alipay รวมถึงการเชื่อมต่อกับบริการเพลงจาก NetEase Cloud Music และ QQ Music รุ่น S1 มีราคาเริ่มต้นที่ 3,799 หยวน (ประมาณ 537 ดอลลาร์สหรัฐ) ขณะที่รุ่น G1 ที่ไม่มีหน้าจอ micro-OLED มีราคา 1,899 หยวน. 🌐 การวางจำหน่ายและตลาดเป้าหมาย แว่นตา Quark S1 พร้อมวางจำหน่ายทันทีบน Tmall, JD.com, Douyin และร้านค้ากว่า 600 แห่งใน 82 เมืองทั่วจีน โดยรุ่นสากลจะเปิดตัวในปีหน้า และบางส่วนจะวางขายผ่าน AliExpress เพื่อเจาะตลาดต่างประเทศ การเปิดตัวครั้งนี้สะท้อนถึงการขยายตัวของตลาด AI-powered wearables ที่กำลังเติบโตอย่างรวดเร็วในจีน. 📈 แนวโน้มและผลกระทบ ตลาดแว่นตาอัจฉริยะในจีนมีการเติบโตสูง โดยมีการส่งมอบกว่า 1.6 ล้านชิ้นในปีที่ผ่านมา และเพิ่มขึ้นเป็น 2 ล้านชิ้นเมื่อรวมรุ่นที่มีหน้าจอในตัว การแข่งขันระหว่าง Alibaba, Xiaomi และ Meta ทำให้ผู้บริโภคมีตัวเลือกมากขึ้น และยังเป็นการผลักดันให้เทคโนโลยี AI + Wearables กลายเป็นกระแสหลักในอนาคต. 📌 สรุปสาระสำคัญ ✅ Alibaba เปิดตัว Quark Smart Glasses รุ่น S1 และ G1 ➡️ S1 มีหน้าจอโปร่งใส, G1 ไม่มี micro-OLED ✅ ใช้ Qwen AI และ ecosystem ของ Alibaba ➡️ รองรับ Taobao, Fliggy, Alipay และบริการเพลง ✅ ราคา S1 เริ่มต้น 3,799 หยวน, G1 ราคา 1,899 หยวน ➡️ วางจำหน่ายในจีนกว่า 600 ร้าน และเตรียมขายต่างประเทศ ✅ ตลาดแว่นตาอัจฉริยะในจีนเติบโตสูง ➡️ ส่งมอบกว่า 2 ล้านชิ้นเมื่อรวมรุ่นที่มีหน้าจอ ‼️ การแข่งขันกับ Meta และ Xiaomi รุนแรง ⛔ ผู้บริโภคอาจสับสนกับตัวเลือกที่หลากหลาย ‼️ อายุการใช้งานแบตเตอรี่แม้เปลี่ยนได้ แต่ยังจำกัด ⛔ ต้องพกแบตสำรองเพื่อใช้งานต่อเนื่อง https://www.thestar.com.my/tech/tech-news/2025/11/28/alibaba-releases-quark-smart-glasses-with-its-qwen-ai-built-in
    WWW.THESTAR.COM.MY
    Alibaba releases Quark smart glasses with its Qwen AI built in
    Alibaba Group Holding Ltd began sales of its first smart glasses powered by its Qwen AI models, marking a rare foray into consumer hardware.
    0 Comments 0 Shares 159 Views 0 Reviews
  • จีนเร่งใช้ชิป AI พัฒนาเอง หลังถูกจำกัดการนำเข้า

    รัฐบาลจีนเริ่มเข้ามากำกับดูแลการจัดสรรชิป AI ระดับสูง เนื่องจากข้อจำกัดการส่งออกจากสหรัฐฯ ทำให้เกิดการขาดแคลน GPU ของ Nvidia บริษัทคลาวด์รายใหญ่ในจีน เช่น Alibaba และ Baidu จึงหันมาใช้ชิปที่ผลิตเอง เช่น Huawei Ascend 910B และรุ่นใหม่ 910C ซึ่งแม้จะไม่แรงเท่า Nvidia แต่ก็ถูกนำมาใช้จริงในงานฝึกโมเดล AI ขนาดใหญ่

    การเปลี่ยนแปลงนี้ทำให้จีนต้องเขียนซอฟต์แวร์ใหม่และปรับโครงสร้างงานให้เข้ากับชิปที่ยังไม่สมบูรณ์แบบนัก ปัญหาที่ตามมาคือแบนด์วิดท์หน่วยความจำที่ยังไม่เพียงพอ และการผลิต HBM ในประเทศยังไม่สามารถรองรับได้เต็มที่ อย่างไรก็ตาม การผลักดันนี้ถือเป็นก้าวสำคัญที่ทำให้จีนลดการพึ่งพาต่างชาติ

    นอกจากนั้นยังมีการใช้วิธีเลี่ยง เช่น การนำชิป Nvidia มือสองเข้ามา หรือใช้บริษัทสาขาในต่างประเทศเพื่อฝึกโมเดล แต่แนวโน้มชัดเจนว่าตลาดจีนกำลังหันไปพึ่งพาชิปภายในประเทศมากขึ้น

    จีนหันมาใช้ชิป AI ที่ผลิตเอง เช่น Huawei Ascend 910C
    ถูกใช้จริงในการฝึกโมเดล AI ขนาดใหญ่

    Alibaba และ Baidu ปรับแพลตฟอร์มให้ทำงานบนฮาร์ดแวร์จีน
    ลดการพึ่งพา Nvidia

    รัฐบาลจีนเข้ามากำกับการจัดสรรชิปโดยตรง
    เน้นให้โครงการรัฐและคลาวด์ใช้ชิปในประเทศ

    ชิปจีนยังด้อยกว่า Nvidia ในด้านประสิทธิภาพ
    อาจทำให้การฝึกโมเดลใช้เวลานานขึ้น

    ปัญหาหน่วยความจำ HBM ยังไม่ถูกแก้ไข
    เสี่ยงต่อการชะลอการพัฒนา AI ในประเทศ

    https://www.tomshardware.com/tech-industry/semiconductors/chinas-ai-chip-pivot-accelerates-as-us-export-restrictions-bite
    🇨🇳 จีนเร่งใช้ชิป AI พัฒนาเอง หลังถูกจำกัดการนำเข้า รัฐบาลจีนเริ่มเข้ามากำกับดูแลการจัดสรรชิป AI ระดับสูง เนื่องจากข้อจำกัดการส่งออกจากสหรัฐฯ ทำให้เกิดการขาดแคลน GPU ของ Nvidia บริษัทคลาวด์รายใหญ่ในจีน เช่น Alibaba และ Baidu จึงหันมาใช้ชิปที่ผลิตเอง เช่น Huawei Ascend 910B และรุ่นใหม่ 910C ซึ่งแม้จะไม่แรงเท่า Nvidia แต่ก็ถูกนำมาใช้จริงในงานฝึกโมเดล AI ขนาดใหญ่ การเปลี่ยนแปลงนี้ทำให้จีนต้องเขียนซอฟต์แวร์ใหม่และปรับโครงสร้างงานให้เข้ากับชิปที่ยังไม่สมบูรณ์แบบนัก ปัญหาที่ตามมาคือแบนด์วิดท์หน่วยความจำที่ยังไม่เพียงพอ และการผลิต HBM ในประเทศยังไม่สามารถรองรับได้เต็มที่ อย่างไรก็ตาม การผลักดันนี้ถือเป็นก้าวสำคัญที่ทำให้จีนลดการพึ่งพาต่างชาติ นอกจากนั้นยังมีการใช้วิธีเลี่ยง เช่น การนำชิป Nvidia มือสองเข้ามา หรือใช้บริษัทสาขาในต่างประเทศเพื่อฝึกโมเดล แต่แนวโน้มชัดเจนว่าตลาดจีนกำลังหันไปพึ่งพาชิปภายในประเทศมากขึ้น ✅ จีนหันมาใช้ชิป AI ที่ผลิตเอง เช่น Huawei Ascend 910C ➡️ ถูกใช้จริงในการฝึกโมเดล AI ขนาดใหญ่ ✅ Alibaba และ Baidu ปรับแพลตฟอร์มให้ทำงานบนฮาร์ดแวร์จีน ➡️ ลดการพึ่งพา Nvidia ✅ รัฐบาลจีนเข้ามากำกับการจัดสรรชิปโดยตรง ➡️ เน้นให้โครงการรัฐและคลาวด์ใช้ชิปในประเทศ ‼️ ชิปจีนยังด้อยกว่า Nvidia ในด้านประสิทธิภาพ ⛔ อาจทำให้การฝึกโมเดลใช้เวลานานขึ้น ‼️ ปัญหาหน่วยความจำ HBM ยังไม่ถูกแก้ไข ⛔ เสี่ยงต่อการชะลอการพัฒนา AI ในประเทศ https://www.tomshardware.com/tech-industry/semiconductors/chinas-ai-chip-pivot-accelerates-as-us-export-restrictions-bite
    0 Comments 0 Shares 265 Views 0 Reviews
  • หัวข้อข่าว: “โมเดลใหม่ของ Moonshot AI จุดกระแส ‘DeepSeek Moment’ สั่นสะเทือนโลก AI”

    สตาร์ทอัพจีน Moonshot AI ที่มีมูลค่ากว่า 3.3 พันล้านดอลลาร์สหรัฐ และได้รับการสนับสนุนจากยักษ์ใหญ่เทคโนโลยีอย่าง Alibaba และ Tencent ได้เปิดตัวโมเดล Kimi K2 Thinking ซึ่งเป็นโมเดลโอเพนซอร์สที่สร้างสถิติใหม่ในด้าน reasoning, coding และ agent capabilities

    โมเดลนี้ได้รับความนิยมสูงสุดบนแพลตฟอร์ม Hugging Face และโพสต์เปิดตัวบน X มียอดเข้าชมกว่า 4.5 ล้านครั้ง จุดที่น่าทึ่งคือมีรายงานว่า ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์ ซึ่งถูกกว่ามากเมื่อเทียบกับโมเดลสหรัฐฯ

    Thomas Wolf ผู้ร่วมก่อตั้ง Hugging Face ถึงกับตั้งคำถามว่า “นี่คืออีกหนึ่ง DeepSeek Moment หรือไม่?” หลังจากก่อนหน้านี้โมเดล R1 ของ DeepSeek ได้เขย่าความเชื่อเรื่องความเหนือกว่าของ AI สหรัฐฯ

    Kimi K2 Thinking ทำคะแนน 44.9% ใน Humanity’s Last Exam (ข้อสอบมาตรฐาน LLM กว่า 2,500 ข้อ) ซึ่งสูงกว่า GPT-5 ที่ทำได้ 41.7% และยังชนะใน benchmark สำคัญอย่าง BrowseComp และ Seal-0 ที่ทดสอบความสามารถในการค้นหาข้อมูลจริงบนเว็บ

    นอกจากนี้ ค่าใช้จ่าย API ของ Kimi K2 Thinking ยังถูกกว่าโมเดลของ OpenAI และ Anthropic ถึง 6–10 เท่า นักวิเคราะห์ชี้ว่าแนวโน้มของจีนคือการลดต้นทุนอย่างต่อเนื่อง เพื่อแข่งขันด้วย ความคุ้มค่า (cost-effectiveness) แม้ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ

    สาระเพิ่มเติมจากภายนอก
    การแข่งขัน AI ระหว่างจีนและสหรัฐฯ กำลังเปลี่ยนจาก “ใครเก่งกว่า” เป็น “ใครคุ้มค่ากว่า”
    การที่จีนหันมาเน้น ลดต้นทุนการฝึกและใช้งาน อาจทำให้ AI เข้าถึงนักพัฒนาและธุรกิจรายย่อยได้มากขึ้น
    หากแนวโน้มนี้ดำเนินต่อไป อาจเกิดการ เร่งนวัตกรรมด้านสถาปัตยกรรมโมเดลและเทคนิคการฝึก ที่เปลี่ยนโฉมอุตสาหกรรม AI

    Moonshot AI เปิดตัว Kimi K2 Thinking
    ทำผลงานเหนือ GPT-5 และ Claude Sonnet 4.5 ในหลาย benchmark
    ได้รับความนิยมสูงสุดบน Hugging Face และมีผู้สนใจจำนวนมาก

    จุดเด่นของโมเดล
    ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์
    API ถูกกว่าโมเดลสหรัฐฯ ถึง 6–10 เท่า

    ผลกระทบต่อวงการ
    จุดกระแส “DeepSeek Moment” ครั้งใหม่
    ท้าทายความเป็นผู้นำด้าน AI ของสหรัฐฯ

    คำเตือนด้านความเสี่ยง
    แม้ต้นทุนต่ำ แต่ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ
    การแข่งขันด้านราคาที่รุนแรงอาจทำให้บางบริษัทละเลยการตรวจสอบคุณภาพและความปลอดภัย
    หากจีนครองตลาดด้วยโมเดลราคาถูก อาจเกิดความเสี่ยงด้านมาตรฐานและความน่าเชื่อถือของ AI

    https://www.thestar.com.my/tech/tech-news/2025/11/12/why-new-model-of-chinas-moonshot-ai-stirs-deepseek-moment-debate
    🤖 หัวข้อข่าว: “โมเดลใหม่ของ Moonshot AI จุดกระแส ‘DeepSeek Moment’ สั่นสะเทือนโลก AI” สตาร์ทอัพจีน Moonshot AI ที่มีมูลค่ากว่า 3.3 พันล้านดอลลาร์สหรัฐ และได้รับการสนับสนุนจากยักษ์ใหญ่เทคโนโลยีอย่าง Alibaba และ Tencent ได้เปิดตัวโมเดล Kimi K2 Thinking ซึ่งเป็นโมเดลโอเพนซอร์สที่สร้างสถิติใหม่ในด้าน reasoning, coding และ agent capabilities โมเดลนี้ได้รับความนิยมสูงสุดบนแพลตฟอร์ม Hugging Face และโพสต์เปิดตัวบน X มียอดเข้าชมกว่า 4.5 ล้านครั้ง จุดที่น่าทึ่งคือมีรายงานว่า ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์ ซึ่งถูกกว่ามากเมื่อเทียบกับโมเดลสหรัฐฯ Thomas Wolf ผู้ร่วมก่อตั้ง Hugging Face ถึงกับตั้งคำถามว่า “นี่คืออีกหนึ่ง DeepSeek Moment หรือไม่?” หลังจากก่อนหน้านี้โมเดล R1 ของ DeepSeek ได้เขย่าความเชื่อเรื่องความเหนือกว่าของ AI สหรัฐฯ Kimi K2 Thinking ทำคะแนน 44.9% ใน Humanity’s Last Exam (ข้อสอบมาตรฐาน LLM กว่า 2,500 ข้อ) ซึ่งสูงกว่า GPT-5 ที่ทำได้ 41.7% และยังชนะใน benchmark สำคัญอย่าง BrowseComp และ Seal-0 ที่ทดสอบความสามารถในการค้นหาข้อมูลจริงบนเว็บ นอกจากนี้ ค่าใช้จ่าย API ของ Kimi K2 Thinking ยังถูกกว่าโมเดลของ OpenAI และ Anthropic ถึง 6–10 เท่า นักวิเคราะห์ชี้ว่าแนวโน้มของจีนคือการลดต้นทุนอย่างต่อเนื่อง เพื่อแข่งขันด้วย ความคุ้มค่า (cost-effectiveness) แม้ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ 🧩 สาระเพิ่มเติมจากภายนอก 📌 การแข่งขัน AI ระหว่างจีนและสหรัฐฯ กำลังเปลี่ยนจาก “ใครเก่งกว่า” เป็น “ใครคุ้มค่ากว่า” 📌 การที่จีนหันมาเน้น ลดต้นทุนการฝึกและใช้งาน อาจทำให้ AI เข้าถึงนักพัฒนาและธุรกิจรายย่อยได้มากขึ้น 📌 หากแนวโน้มนี้ดำเนินต่อไป อาจเกิดการ เร่งนวัตกรรมด้านสถาปัตยกรรมโมเดลและเทคนิคการฝึก ที่เปลี่ยนโฉมอุตสาหกรรม AI ✅ Moonshot AI เปิดตัว Kimi K2 Thinking ➡️ ทำผลงานเหนือ GPT-5 และ Claude Sonnet 4.5 ในหลาย benchmark ➡️ ได้รับความนิยมสูงสุดบน Hugging Face และมีผู้สนใจจำนวนมาก ✅ จุดเด่นของโมเดล ➡️ ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์ ➡️ API ถูกกว่าโมเดลสหรัฐฯ ถึง 6–10 เท่า ✅ ผลกระทบต่อวงการ ➡️ จุดกระแส “DeepSeek Moment” ครั้งใหม่ ➡️ ท้าทายความเป็นผู้นำด้าน AI ของสหรัฐฯ ‼️ คำเตือนด้านความเสี่ยง ⛔ แม้ต้นทุนต่ำ แต่ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ ⛔ การแข่งขันด้านราคาที่รุนแรงอาจทำให้บางบริษัทละเลยการตรวจสอบคุณภาพและความปลอดภัย ⛔ หากจีนครองตลาดด้วยโมเดลราคาถูก อาจเกิดความเสี่ยงด้านมาตรฐานและความน่าเชื่อถือของ AI https://www.thestar.com.my/tech/tech-news/2025/11/12/why-new-model-of-chinas-moonshot-ai-stirs-deepseek-moment-debate
    WWW.THESTAR.COM.MY
    Why new model of China's Moonshot AI stirs 'DeepSeek moment' debate
    Kimi K2 Thinking outperforms OpenAI's GPT-5 and Anthropic's Claude Sonnet 4.5, sparking comparisons to DeepSeek's breakthrough.
    0 Comments 0 Shares 376 Views 0 Reviews
  • เรื่องอื้อฉาว Shein กับตุ๊กตาเด็ก: จุดไฟปัญหามืดของตลาดออนไลน์

    เรื่องราวล่าสุดจากฝรั่งเศสได้เปิดโปงด้านมืดของตลาดออนไลน์ เมื่อมีการประท้วงต่อต้าน Shein ที่ขายตุ๊กตาเซ็กซ์ลักษณะคล้ายเด็ก พร้อมอาวุธต้องห้ามผ่านแพลตฟอร์มของตน ทำให้รัฐบาลฝรั่งเศสต้องออกมาตรการจัดการอย่างเร่งด่วน

    Shein ซึ่งเป็นแบรนด์แฟชั่นจีนชื่อดัง ถูกวิจารณ์อย่างหนักหลังมีการพบว่าบนแพลตฟอร์มของตนมีการขายตุ๊กตาเซ็กซ์ที่มีลักษณะคล้ายเด็ก รวมถึงอาวุธต้องห้ามบางประเภท โดยเหตุการณ์นี้เกิดขึ้นก่อนการเปิดร้านถาวรแห่งแรกของ Shein ในกรุงปารีส ทำให้เกิดการประท้วงจากประชาชนและองค์กรสิทธิมนุษยชน

    ป้ายประท้วงมีข้อความรุนแรง เช่น “Shein สมรู้ร่วมคิดกับสื่อลามกเด็ก” และ “ร้าน BHV ไม่ควรซ่อนความอับอายนี้ไว้หลังหน้าต่าง” สะท้อนความโกรธของสังคมต่อการปล่อยให้สินค้าลักษณะนี้หลุดรอดเข้าสู่ตลาดได้

    เหตุการณ์นี้ชี้ให้เห็นถึงปัญหาเรื้อรังของตลาดออนไลน์ที่เปิดให้ผู้ขายหลายรายเข้ามาโดยไม่มีการตรวจสอบอย่างเข้มงวด ทำให้สินค้าผิดกฎหมาย อันตราย หรือไม่เหมาะสมสามารถเข้าถึงผู้บริโภคได้ง่ายดาย

    จุดอ่อนของตลาดออนไลน์แบบหลายผู้ขาย
    แพลตฟอร์มอย่าง Shein, Amazon, Temu และ Alibaba เปิดให้ผู้ขายทั่วโลกเข้าถึงผู้บริโภคโดยตรง
    การตรวจสอบสินค้าบนแพลตฟอร์มยังไม่เข้มงวดพอ
    สินค้าผิดกฎหมาย เช่น อาวุธต้องห้าม และสินค้าลามกสามารถหลุดรอดได้
    ผู้บริโภคอาจไม่รู้ว่าสินค้าที่ซื้อผิดกฎหมายหรือไม่เหมาะสม

    ปฏิกิริยาจากสังคมและรัฐบาล
    ฝรั่งเศสออกมาตรการจัดการกับสินค้าผิดกฎหมายบนแพลตฟอร์ม
    การประท้วงหน้าร้าน BHV Marais สะท้อนความไม่พอใจของประชาชน
    สื่อมวลชนและองค์กรสิทธิมนุษยชนเรียกร้องให้มีการควบคุมที่เข้มงวดขึ้น

    คำเตือนต่อผู้บริโภคและแพลตฟอร์ม
    การซื้อสินค้าจากแพลตฟอร์มที่ไม่มีการตรวจสอบอาจนำไปสู่การสนับสนุนกิจกรรมผิดกฎหมาย
    แพลตฟอร์มที่ไม่ควบคุมผู้ขายอาจกลายเป็นช่องทางของการค้ามนุษย์หรือการละเมิดสิทธิเด็ก
    การเปิดร้านถาวรโดยไม่จัดการกับปัญหาในระบบออนไลน์อาจสร้างภาพลักษณ์เชิงลบต่อแบรนด์
    ผู้บริโภคควรตรวจสอบแหล่งที่มาของสินค้าและหลีกเลี่ยงสินค้าที่มีลักษณะไม่เหมาะสม

    https://www.thestar.com.my/tech/tech-news/2025/11/08/shein-sex-doll-scandal-shines-light-on-marketplaces039-dark-corners
    🛑 เรื่องอื้อฉาว Shein กับตุ๊กตาเด็ก: จุดไฟปัญหามืดของตลาดออนไลน์ เรื่องราวล่าสุดจากฝรั่งเศสได้เปิดโปงด้านมืดของตลาดออนไลน์ เมื่อมีการประท้วงต่อต้าน Shein ที่ขายตุ๊กตาเซ็กซ์ลักษณะคล้ายเด็ก พร้อมอาวุธต้องห้ามผ่านแพลตฟอร์มของตน ทำให้รัฐบาลฝรั่งเศสต้องออกมาตรการจัดการอย่างเร่งด่วน Shein ซึ่งเป็นแบรนด์แฟชั่นจีนชื่อดัง ถูกวิจารณ์อย่างหนักหลังมีการพบว่าบนแพลตฟอร์มของตนมีการขายตุ๊กตาเซ็กซ์ที่มีลักษณะคล้ายเด็ก รวมถึงอาวุธต้องห้ามบางประเภท โดยเหตุการณ์นี้เกิดขึ้นก่อนการเปิดร้านถาวรแห่งแรกของ Shein ในกรุงปารีส ทำให้เกิดการประท้วงจากประชาชนและองค์กรสิทธิมนุษยชน ป้ายประท้วงมีข้อความรุนแรง เช่น “Shein สมรู้ร่วมคิดกับสื่อลามกเด็ก” และ “ร้าน BHV ไม่ควรซ่อนความอับอายนี้ไว้หลังหน้าต่าง” สะท้อนความโกรธของสังคมต่อการปล่อยให้สินค้าลักษณะนี้หลุดรอดเข้าสู่ตลาดได้ เหตุการณ์นี้ชี้ให้เห็นถึงปัญหาเรื้อรังของตลาดออนไลน์ที่เปิดให้ผู้ขายหลายรายเข้ามาโดยไม่มีการตรวจสอบอย่างเข้มงวด ทำให้สินค้าผิดกฎหมาย อันตราย หรือไม่เหมาะสมสามารถเข้าถึงผู้บริโภคได้ง่ายดาย ✅ จุดอ่อนของตลาดออนไลน์แบบหลายผู้ขาย ➡️ แพลตฟอร์มอย่าง Shein, Amazon, Temu และ Alibaba เปิดให้ผู้ขายทั่วโลกเข้าถึงผู้บริโภคโดยตรง ➡️ การตรวจสอบสินค้าบนแพลตฟอร์มยังไม่เข้มงวดพอ ➡️ สินค้าผิดกฎหมาย เช่น อาวุธต้องห้าม และสินค้าลามกสามารถหลุดรอดได้ ➡️ ผู้บริโภคอาจไม่รู้ว่าสินค้าที่ซื้อผิดกฎหมายหรือไม่เหมาะสม ✅ ปฏิกิริยาจากสังคมและรัฐบาล ➡️ ฝรั่งเศสออกมาตรการจัดการกับสินค้าผิดกฎหมายบนแพลตฟอร์ม ➡️ การประท้วงหน้าร้าน BHV Marais สะท้อนความไม่พอใจของประชาชน ➡️ สื่อมวลชนและองค์กรสิทธิมนุษยชนเรียกร้องให้มีการควบคุมที่เข้มงวดขึ้น ‼️ คำเตือนต่อผู้บริโภคและแพลตฟอร์ม ⛔ การซื้อสินค้าจากแพลตฟอร์มที่ไม่มีการตรวจสอบอาจนำไปสู่การสนับสนุนกิจกรรมผิดกฎหมาย ⛔ แพลตฟอร์มที่ไม่ควบคุมผู้ขายอาจกลายเป็นช่องทางของการค้ามนุษย์หรือการละเมิดสิทธิเด็ก ⛔ การเปิดร้านถาวรโดยไม่จัดการกับปัญหาในระบบออนไลน์อาจสร้างภาพลักษณ์เชิงลบต่อแบรนด์ ⛔ ผู้บริโภคควรตรวจสอบแหล่งที่มาของสินค้าและหลีกเลี่ยงสินค้าที่มีลักษณะไม่เหมาะสม https://www.thestar.com.my/tech/tech-news/2025/11/08/shein-sex-doll-scandal-shines-light-on-marketplaces039-dark-corners
    WWW.THESTAR.COM.MY
    Shein sex doll scandal shines light on marketplaces' dark corners
    LONDON (Reuters) -France's crackdown on Shein over childlike sex dolls and banned weapons is exposing a perennial problem of online marketplaces: failing to properly police third-party sellers and block sales of counterfeit, illegal, dangerous or simply offensive products.
    0 Comments 0 Shares 296 Views 0 Reviews
  • “จีนแจกส่วนลดไฟฟ้าให้บริษัท AI — ถ้าใช้ชิปผลิตในประเทศ!”

    ในสงครามเทคโนโลยีระดับโลก จีนกำลังเดินเกมรุกเพื่อสร้างอิสรภาพด้าน AI และเซมิคอนดักเตอร์ ล่าสุดหลายมณฑลในจีน เช่น กานซู, กุ้ยโจว และมองโกเลียใน ได้เสนอส่วนลดค่าไฟฟ้าอุตสาหกรรมสูงถึง 50% ให้กับศูนย์ข้อมูล AI — แต่มีเงื่อนไขสำคัญ: ต้องใช้ชิปที่ผลิตในประเทศจีนเท่านั้น ห้ามใช้ของ Nvidia หรือ AMD

    นอกจากส่วนลดค่าไฟแล้ว ยังมีเงินสนับสนุนโดยตรงที่เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี โดยราคาค่าไฟต่อหน่วยลดลงเหลือเพียง 0.4 หยวน หรือประมาณ 5.6 เซนต์สหรัฐ ซึ่งถือว่าต่ำมากเมื่อเทียบกับภูมิภาคชายฝั่ง

    แม้ชิปจีนยังไม่สามารถเทียบเคียงกับ Nvidia H20 หรือ Blackwell ได้ในด้านประสิทธิภาพ แต่รัฐบาลจีนก็ผลักดันให้เกิดการใช้งานอย่างจริงจัง โดยมีบริษัทชั้นนำอย่าง Huawei, Cambricon, Alibaba และ Biren เข้าร่วมผลิต AI accelerators โดย Huawei นำทีมด้วยชิป Ascend 910C

    การเคลื่อนไหวนี้เกิดขึ้นหลังจากรัฐบาลจีนสั่งแบนการใช้งานชิป AI จาก Nvidia โดยตรง ซึ่งทำให้การใช้พลังงานของศูนย์ข้อมูลเพิ่มขึ้น 30–50% เนื่องจากชิปจีนยังด้อยกว่าด้านประสิทธิภาพ

    จีนเสนอส่วนลดค่าไฟฟ้าให้ศูนย์ข้อมูล AI
    มณฑลกานซู, กุ้ยโจว และมองโกเลียใน ลดค่าไฟลง 50%
    เหลือเพียง 0.4 หยวนต่อ kWh หรือประมาณ 5.6 เซนต์สหรัฐ

    เงื่อนไขคือต้องใช้ชิปที่ผลิตในจีน
    ห้ามใช้ชิปจาก Nvidia หรือ AMD
    เป็นส่วนหนึ่งของนโยบายผลักดันการพึ่งพาตนเองด้านเทคโนโลยี

    รัฐบาลจีนสนับสนุนเงินทุนโดยตรง
    เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี
    ส่งเสริมการตั้งศูนย์ข้อมูลในพื้นที่ที่มีพลังงานเหลือเฟือ

    บริษัทจีนเร่งพัฒนาชิป AI
    Huawei, Cambricon, Alibaba และ Biren เป็นผู้ผลิตหลัก
    Huawei นำทีมด้วยชิป Ascend 910C

    คำเตือนด้านประสิทธิภาพของชิปจีน
    ประสิทธิภาพยังด้อยกว่าชิป Nvidia H20 และ Blackwell
    ส่งผลให้การใช้พลังงานเพิ่มขึ้น 30–50%

    คำเตือนด้านการแข่งขันระดับโลก
    การแบนชิปต่างชาติอาจกระทบต่อความร่วมมือระหว่างประเทศ
    การพึ่งพาชิปภายในอาจทำให้จีนต้องเร่งพัฒนาเทคโนโลยีให้ทันคู่แข่ง

    https://www.tomshardware.com/tech-industry/big-tech/chinese-provinces-offer-steep-power-discounts-to-ai-companies-using-china-made-chips-country-continues-its-aggressive-push-towards-ai-independence-and-homegrown-silicon
    ⚡🇨🇳 “จีนแจกส่วนลดไฟฟ้าให้บริษัท AI — ถ้าใช้ชิปผลิตในประเทศ!” ในสงครามเทคโนโลยีระดับโลก จีนกำลังเดินเกมรุกเพื่อสร้างอิสรภาพด้าน AI และเซมิคอนดักเตอร์ ล่าสุดหลายมณฑลในจีน เช่น กานซู, กุ้ยโจว และมองโกเลียใน ได้เสนอส่วนลดค่าไฟฟ้าอุตสาหกรรมสูงถึง 50% ให้กับศูนย์ข้อมูล AI — แต่มีเงื่อนไขสำคัญ: ต้องใช้ชิปที่ผลิตในประเทศจีนเท่านั้น ห้ามใช้ของ Nvidia หรือ AMD นอกจากส่วนลดค่าไฟแล้ว ยังมีเงินสนับสนุนโดยตรงที่เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี โดยราคาค่าไฟต่อหน่วยลดลงเหลือเพียง 0.4 หยวน หรือประมาณ 5.6 เซนต์สหรัฐ ซึ่งถือว่าต่ำมากเมื่อเทียบกับภูมิภาคชายฝั่ง แม้ชิปจีนยังไม่สามารถเทียบเคียงกับ Nvidia H20 หรือ Blackwell ได้ในด้านประสิทธิภาพ แต่รัฐบาลจีนก็ผลักดันให้เกิดการใช้งานอย่างจริงจัง โดยมีบริษัทชั้นนำอย่าง Huawei, Cambricon, Alibaba และ Biren เข้าร่วมผลิต AI accelerators โดย Huawei นำทีมด้วยชิป Ascend 910C การเคลื่อนไหวนี้เกิดขึ้นหลังจากรัฐบาลจีนสั่งแบนการใช้งานชิป AI จาก Nvidia โดยตรง ซึ่งทำให้การใช้พลังงานของศูนย์ข้อมูลเพิ่มขึ้น 30–50% เนื่องจากชิปจีนยังด้อยกว่าด้านประสิทธิภาพ ✅ จีนเสนอส่วนลดค่าไฟฟ้าให้ศูนย์ข้อมูล AI ➡️ มณฑลกานซู, กุ้ยโจว และมองโกเลียใน ลดค่าไฟลง 50% ➡️ เหลือเพียง 0.4 หยวนต่อ kWh หรือประมาณ 5.6 เซนต์สหรัฐ ✅ เงื่อนไขคือต้องใช้ชิปที่ผลิตในจีน ➡️ ห้ามใช้ชิปจาก Nvidia หรือ AMD ➡️ เป็นส่วนหนึ่งของนโยบายผลักดันการพึ่งพาตนเองด้านเทคโนโลยี ✅ รัฐบาลจีนสนับสนุนเงินทุนโดยตรง ➡️ เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี ➡️ ส่งเสริมการตั้งศูนย์ข้อมูลในพื้นที่ที่มีพลังงานเหลือเฟือ ✅ บริษัทจีนเร่งพัฒนาชิป AI ➡️ Huawei, Cambricon, Alibaba และ Biren เป็นผู้ผลิตหลัก ➡️ Huawei นำทีมด้วยชิป Ascend 910C ‼️ คำเตือนด้านประสิทธิภาพของชิปจีน ⛔ ประสิทธิภาพยังด้อยกว่าชิป Nvidia H20 และ Blackwell ⛔ ส่งผลให้การใช้พลังงานเพิ่มขึ้น 30–50% ‼️ คำเตือนด้านการแข่งขันระดับโลก ⛔ การแบนชิปต่างชาติอาจกระทบต่อความร่วมมือระหว่างประเทศ ⛔ การพึ่งพาชิปภายในอาจทำให้จีนต้องเร่งพัฒนาเทคโนโลยีให้ทันคู่แข่ง https://www.tomshardware.com/tech-industry/big-tech/chinese-provinces-offer-steep-power-discounts-to-ai-companies-using-china-made-chips-country-continues-its-aggressive-push-towards-ai-independence-and-homegrown-silicon
    0 Comments 0 Shares 346 Views 0 Reviews
  • ปัญญาประดิษฐ์สายวิจัยที่ไม่หยุดแค่ “แชตบอต”

    Tongyi DeepResearch เป็นโมเดล Web Agent แบบโอเพ่นซอร์สตัวแรกที่สามารถทำงานวิจัยเชิงลึกได้เทียบเท่ากับโมเดลเชิงพาณิชย์ของ OpenAI โดยมีคะแนนสูงในหลาย benchmark เช่น:
    Humanity’s Last Exam (HLE): 32.9
    BrowseComp: 43.4
    BrowseComp-ZH: 46.7
    xbench-DeepSearch: 75

    โมเดลนี้ไม่ใช่แค่เก่งด้านการตอบคำถาม แต่ยังสามารถวางแผน ทำวิจัยหลายขั้นตอน และใช้เครื่องมือภายนอกได้อย่างมีประสิทธิภาพ โดยใช้ framework reasoning แบบ ReAct และโหมดขั้นสูงที่เรียกว่า Heavy Mode เพื่อจัดการงานที่ซับซ้อน

    Tongyi DeepResearch เป็น Web Agent แบบโอเพ่นซอร์สที่ทรงพลัง
    ทำงานได้เทียบเท่ากับ DeepResearch ของ OpenAI
    ได้คะแนนสูงในหลาย benchmark ด้าน reasoning และการค้นคว้า

    ใช้ข้อมูลสังเคราะห์คุณภาพสูงในการฝึก
    สร้าง QA pairs จากกราฟความรู้และคลิกสตรีม
    ใช้เทคนิคเพิ่มความยากของคำถามอย่างเป็นระบบ

    มีระบบฝึกแบบครบวงจร: CPT → SFT → RL
    Continual Pre-training ด้วยข้อมูลสังเคราะห์
    Fine-tuning ด้วยข้อมูลผู้เชี่ยวชาญ
    Reinforcement Learning แบบ on-policy เพื่อปรับพฤติกรรมให้ตรงเป้าหมาย

    ใช้โครงสร้าง reasoning แบบ ReAct และ IterResearch
    ReAct: วงจร Thought → Action → Observation
    IterResearch: แบ่งงานวิจัยเป็นรอบ ๆ เพื่อรักษาโฟกัสและคุณภาพ reasoning

    มีการใช้งานจริงในระบบของ Alibaba
    เช่น “Xiao Gao” ผู้ช่วยด้านแผนที่ และ “FaRui” ผู้ช่วยด้านกฎหมาย
    ทำงานวิจัยหลายขั้นตอนและให้ผลลัพธ์ที่ตรวจสอบได้

    https://tongyi-agent.github.io/blog/introducing-tongyi-deep-research/
    🧠 ปัญญาประดิษฐ์สายวิจัยที่ไม่หยุดแค่ “แชตบอต” Tongyi DeepResearch เป็นโมเดล Web Agent แบบโอเพ่นซอร์สตัวแรกที่สามารถทำงานวิจัยเชิงลึกได้เทียบเท่ากับโมเดลเชิงพาณิชย์ของ OpenAI โดยมีคะแนนสูงในหลาย benchmark เช่น: 🔖 Humanity’s Last Exam (HLE): 32.9 🔖 BrowseComp: 43.4 🔖 BrowseComp-ZH: 46.7 🔖 xbench-DeepSearch: 75 โมเดลนี้ไม่ใช่แค่เก่งด้านการตอบคำถาม แต่ยังสามารถวางแผน ทำวิจัยหลายขั้นตอน และใช้เครื่องมือภายนอกได้อย่างมีประสิทธิภาพ โดยใช้ framework reasoning แบบ ReAct และโหมดขั้นสูงที่เรียกว่า Heavy Mode เพื่อจัดการงานที่ซับซ้อน ✅ Tongyi DeepResearch เป็น Web Agent แบบโอเพ่นซอร์สที่ทรงพลัง ➡️ ทำงานได้เทียบเท่ากับ DeepResearch ของ OpenAI ➡️ ได้คะแนนสูงในหลาย benchmark ด้าน reasoning และการค้นคว้า ✅ ใช้ข้อมูลสังเคราะห์คุณภาพสูงในการฝึก ➡️ สร้าง QA pairs จากกราฟความรู้และคลิกสตรีม ➡️ ใช้เทคนิคเพิ่มความยากของคำถามอย่างเป็นระบบ ✅ มีระบบฝึกแบบครบวงจร: CPT → SFT → RL ➡️ Continual Pre-training ด้วยข้อมูลสังเคราะห์ ➡️ Fine-tuning ด้วยข้อมูลผู้เชี่ยวชาญ ➡️ Reinforcement Learning แบบ on-policy เพื่อปรับพฤติกรรมให้ตรงเป้าหมาย ✅ ใช้โครงสร้าง reasoning แบบ ReAct และ IterResearch ➡️ ReAct: วงจร Thought → Action → Observation ➡️ IterResearch: แบ่งงานวิจัยเป็นรอบ ๆ เพื่อรักษาโฟกัสและคุณภาพ reasoning ✅ มีการใช้งานจริงในระบบของ Alibaba ➡️ เช่น “Xiao Gao” ผู้ช่วยด้านแผนที่ และ “FaRui” ผู้ช่วยด้านกฎหมาย ➡️ ทำงานวิจัยหลายขั้นตอนและให้ผลลัพธ์ที่ตรวจสอบได้ https://tongyi-agent.github.io/blog/introducing-tongyi-deep-research/
    0 Comments 0 Shares 260 Views 0 Reviews
  • โมเดลเล็กแต่เก่งเกินตัว

    หลังจากเปิดตัว Granite 4.0 รุ่น Micro, Tiny และ Small ไปเมื่อต้นเดือน IBM ก็เดินหน้าต่อด้วยการเปิดตัว Granite 4.0 Nano ซึ่งเป็นโมเดลที่เล็กที่สุดในซีรีส์นี้ โดยมีจุดเด่นคือ ขนาดเล็ก ประสิทธิภาพสูง และเปิดให้ใช้งานฟรีในเชิงพาณิชย์

    โมเดล Nano นี้ถูกออกแบบมาเพื่อใช้งานในสถานการณ์ที่โมเดลขนาดใหญ่ไม่เหมาะสม เช่น:
    อุปกรณ์ edge ที่มีข้อจำกัดด้านทรัพยากร
    แอปพลิเคชันที่ต้องการ latency ต่ำ
    การ deploy แบบ local โดยไม่ต้องพึ่ง cloud

    รายละเอียดโมเดล:
    ใช้ข้อมูลฝึกกว่า 15 ล้านล้าน token
    รองรับ runtime ยอดนิยม เช่น vLLM, llama.cpp, MLX
    ได้รับการรับรอง ISO 42001 ด้านการพัฒนา AI อย่างรับผิดชอบ

    มีทั้งหมด 8 รุ่นย่อย ได้แก่:
    Granite 4.0 H 1B และ H 350M (hybrid-SSM)
    Granite 4.0 1B และ 350M (transformer แบบดั้งเดิม)
    แต่ละรุ่นมีทั้งแบบ base และ instruct

    ผลการทดสอบ:
    Granite Nano ทำคะแนนเหนือกว่าหลายโมเดลขนาดใกล้เคียง เช่น Qwen ของ Alibaba, LFM ของ LiquidAI และ Gemma ของ Google
    โดดเด่นในงานที่ต้องใช้ agentic workflows เช่น IFEval และ BFCLv3

    https://news.itsfoss.com/ibm-granite-4-nano/
    🧩 โมเดลเล็กแต่เก่งเกินตัว หลังจากเปิดตัว Granite 4.0 รุ่น Micro, Tiny และ Small ไปเมื่อต้นเดือน IBM ก็เดินหน้าต่อด้วยการเปิดตัว Granite 4.0 Nano ซึ่งเป็นโมเดลที่เล็กที่สุดในซีรีส์นี้ โดยมีจุดเด่นคือ ขนาดเล็ก ประสิทธิภาพสูง และเปิดให้ใช้งานฟรีในเชิงพาณิชย์ โมเดล Nano นี้ถูกออกแบบมาเพื่อใช้งานในสถานการณ์ที่โมเดลขนาดใหญ่ไม่เหมาะสม เช่น: 🎗️ อุปกรณ์ edge ที่มีข้อจำกัดด้านทรัพยากร 🎗️ แอปพลิเคชันที่ต้องการ latency ต่ำ 🎗️ การ deploy แบบ local โดยไม่ต้องพึ่ง cloud รายละเอียดโมเดล: 🎗️ ใช้ข้อมูลฝึกกว่า 15 ล้านล้าน token 🎗️ รองรับ runtime ยอดนิยม เช่น vLLM, llama.cpp, MLX 🎗️ ได้รับการรับรอง ISO 42001 ด้านการพัฒนา AI อย่างรับผิดชอบ มีทั้งหมด 8 รุ่นย่อย ได้แก่: 🎗️ Granite 4.0 H 1B และ H 350M (hybrid-SSM) 🎗️ Granite 4.0 1B และ 350M (transformer แบบดั้งเดิม) 🎗️ แต่ละรุ่นมีทั้งแบบ base และ instruct ผลการทดสอบ: 🎗️ Granite Nano ทำคะแนนเหนือกว่าหลายโมเดลขนาดใกล้เคียง เช่น Qwen ของ Alibaba, LFM ของ LiquidAI และ Gemma ของ Google 🎗️ โดดเด่นในงานที่ต้องใช้ agentic workflows เช่น IFEval และ BFCLv3 https://news.itsfoss.com/ibm-granite-4-nano/
    0 Comments 0 Shares 228 Views 0 Reviews
  • “Qwen3-VL จาก Ollama – โมเดล Vision Language ที่ทรงพลังที่สุด พร้อมควบคุมคอมพิวเตอร์ได้แบบอัตโนมัติ!”

    ลองจินตนาการว่าเราชี้กล้องมือถือไปที่ใบไม้ แล้วถามว่า “พิษกับหมาไหม?” หรือเปิดไฟล์ตารางบนคอมแล้วสั่ง AI ให้แปลงเป็นกราฟ — ทั้งหมดนี้ Qwen3-VL ทำได้แล้ว!

    นี่คือโมเดล Vision Language รุ่นใหม่จาก Alibaba ที่เปิดให้ใช้งานผ่าน Ollama โดยมีชื่อเต็มว่า Qwen3-VL-235B-A22B จุดเด่นคือความสามารถในการเข้าใจภาพและวิดีโออย่างลึกซึ้ง แล้วแปลงเป็นโค้ด HTML, CSS หรือ JavaScript ได้ทันที

    มันรองรับ input สูงถึง 1 ล้าน token ซึ่งหมายถึงสามารถประมวลผลวิดีโอความยาว 2 ชั่วโมง หรือเอกสารหลายร้อยหน้าได้ในคราวเดียว และยังเข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูลเชิง 3D ได้ดีขึ้นกว่ารุ่นก่อน ๆ

    ด้าน OCR ก็ไม่ธรรมดา รองรับถึง 32 ภาษา และสามารถอ่านจากภาพที่เบลอ, มืด, หรือเอียงได้อย่างแม่นยำ

    แต่ที่น่าตื่นเต้นที่สุดคือความสามารถแบบ “agentic” — Qwen3-VL สามารถควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ เช่น สั่งจองตั๋วบน Ticketmaster โดยเปิดเบราว์เซอร์, กรอกข้อมูล, เลือกที่นั่ง และกดยืนยัน โดยไม่ต้องให้ผู้ใช้คลิกเองเลย

    แม้จะยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอก ZIP code ผิด แต่ความเร็วในการทำงานนั้นเหนือกว่าหลายโมเดลที่มีฟีเจอร์คล้ายกัน เช่น GPT-5, Claude หรือ Gemini

    ที่สำคัญคือ Qwen3-VL เปิดให้ใช้งานแบบ โอเพ่นซอร์ส ต่างจากคู่แข่งที่ต้องจ่ายเงิน ทำให้ชุมชนสามารถนำไปปรับแต่งและใช้งานได้อย่างอิสระ

    ความสามารถหลักของ Qwen3-VL
    แปลงภาพ/วิดีโอเป็นโค้ด HTML, CSS, JavaScript
    รองรับ input สูงสุด 1 ล้าน token
    เข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูล 3D
    OCR รองรับ 32 ภาษา แม้ภาพเบลอหรือเอียง

    ความสามารถแบบ agentic
    ควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ
    สั่งจองตั๋ว, โพสต์ Reddit, เขียนข้อความ, สั่งซื้อสินค้า
    ทำงานแบบ end-to-end โดยไม่ต้องให้ผู้ใช้คลิกเอง
    ความเร็วในการทำงานโดดเด่นกว่าคู่แข่ง

    จุดเด่นด้านการเปิดใช้งาน
    เปิดให้ใช้งานผ่าน Ollama
    เป็นโอเพ่นซอร์ส – นักพัฒนาสามารถปรับแต่งได้
    ไม่ต้องจ่ายเงินเหมือน GPT-5 หรือ Claude
    ได้คะแนนสูงใน benchmark เช่น OS World

    ข้อควรระวังและคำเตือน
    ยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอกข้อมูลผิด
    การควบคุมอัตโนมัติต้องมีระบบตรวจสอบความถูกต้อง
    การเปิดให้ใช้งานแบบโอเพ่นซอร์สอาจเสี่ยงต่อ misuse หากไม่มีการกำกับ
    ความสามารถสูงอาจนำไปใช้ในงานที่ต้องการความแม่นยำสูง เช่นการแพทย์หรือการเงิน ซึ่งต้องทดสอบก่อนใช้งานจริง

    https://www.slashgear.com/2004206/ollama-qwen3-vl-how-powerful-vision-language-model-works/
    👁️🧠 “Qwen3-VL จาก Ollama – โมเดล Vision Language ที่ทรงพลังที่สุด พร้อมควบคุมคอมพิวเตอร์ได้แบบอัตโนมัติ!” ลองจินตนาการว่าเราชี้กล้องมือถือไปที่ใบไม้ แล้วถามว่า “พิษกับหมาไหม?” หรือเปิดไฟล์ตารางบนคอมแล้วสั่ง AI ให้แปลงเป็นกราฟ — ทั้งหมดนี้ Qwen3-VL ทำได้แล้ว! นี่คือโมเดล Vision Language รุ่นใหม่จาก Alibaba ที่เปิดให้ใช้งานผ่าน Ollama โดยมีชื่อเต็มว่า Qwen3-VL-235B-A22B จุดเด่นคือความสามารถในการเข้าใจภาพและวิดีโออย่างลึกซึ้ง แล้วแปลงเป็นโค้ด HTML, CSS หรือ JavaScript ได้ทันที มันรองรับ input สูงถึง 1 ล้าน token ซึ่งหมายถึงสามารถประมวลผลวิดีโอความยาว 2 ชั่วโมง หรือเอกสารหลายร้อยหน้าได้ในคราวเดียว และยังเข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูลเชิง 3D ได้ดีขึ้นกว่ารุ่นก่อน ๆ ด้าน OCR ก็ไม่ธรรมดา รองรับถึง 32 ภาษา และสามารถอ่านจากภาพที่เบลอ, มืด, หรือเอียงได้อย่างแม่นยำ แต่ที่น่าตื่นเต้นที่สุดคือความสามารถแบบ “agentic” — Qwen3-VL สามารถควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ เช่น สั่งจองตั๋วบน Ticketmaster โดยเปิดเบราว์เซอร์, กรอกข้อมูล, เลือกที่นั่ง และกดยืนยัน โดยไม่ต้องให้ผู้ใช้คลิกเองเลย แม้จะยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอก ZIP code ผิด แต่ความเร็วในการทำงานนั้นเหนือกว่าหลายโมเดลที่มีฟีเจอร์คล้ายกัน เช่น GPT-5, Claude หรือ Gemini ที่สำคัญคือ Qwen3-VL เปิดให้ใช้งานแบบ โอเพ่นซอร์ส ต่างจากคู่แข่งที่ต้องจ่ายเงิน ทำให้ชุมชนสามารถนำไปปรับแต่งและใช้งานได้อย่างอิสระ ✅ ความสามารถหลักของ Qwen3-VL ➡️ แปลงภาพ/วิดีโอเป็นโค้ด HTML, CSS, JavaScript ➡️ รองรับ input สูงสุด 1 ล้าน token ➡️ เข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูล 3D ➡️ OCR รองรับ 32 ภาษา แม้ภาพเบลอหรือเอียง ✅ ความสามารถแบบ agentic ➡️ ควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ ➡️ สั่งจองตั๋ว, โพสต์ Reddit, เขียนข้อความ, สั่งซื้อสินค้า ➡️ ทำงานแบบ end-to-end โดยไม่ต้องให้ผู้ใช้คลิกเอง ➡️ ความเร็วในการทำงานโดดเด่นกว่าคู่แข่ง ✅ จุดเด่นด้านการเปิดใช้งาน ➡️ เปิดให้ใช้งานผ่าน Ollama ➡️ เป็นโอเพ่นซอร์ส – นักพัฒนาสามารถปรับแต่งได้ ➡️ ไม่ต้องจ่ายเงินเหมือน GPT-5 หรือ Claude ➡️ ได้คะแนนสูงใน benchmark เช่น OS World ‼️ ข้อควรระวังและคำเตือน ⛔ ยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอกข้อมูลผิด ⛔ การควบคุมอัตโนมัติต้องมีระบบตรวจสอบความถูกต้อง ⛔ การเปิดให้ใช้งานแบบโอเพ่นซอร์สอาจเสี่ยงต่อ misuse หากไม่มีการกำกับ ⛔ ความสามารถสูงอาจนำไปใช้ในงานที่ต้องการความแม่นยำสูง เช่นการแพทย์หรือการเงิน ซึ่งต้องทดสอบก่อนใช้งานจริง https://www.slashgear.com/2004206/ollama-qwen3-vl-how-powerful-vision-language-model-works/
    WWW.SLASHGEAR.COM
    Ollama's Qwen3-VL Introduces The Most Powerful Vision Language Model - Here's How It Works - SlashGear
    AI is advancing at a rapid rate, and Ollama claims its Qwen3-VL is the most powerful vision language model yet. Here's what it is and how it works.
    0 Comments 0 Shares 341 Views 0 Reviews
  • “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน

    Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น

    ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้

    ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe

    การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ:

    การบรรจุหลายโมเดลลงใน GPU เดียว
    การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output

    แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง

    Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon
    จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM

    Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด
    ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน

    ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า
    เมื่อเทียบกับระบบ serverless แบบเดิม

    ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด
    เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน

    ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์
    ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม

    ทดสอบในระบบ Model Studio Marketplace ของ Alibaba
    ใช้งานจริงหลายเดือน

    https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    ⚙️ “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้ ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ: 🎗️ การบรรจุหลายโมเดลลงใน GPU เดียว 🎗️ การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง ✅ Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon ➡️ จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM ✅ Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด ➡️ ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน ✅ ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า ➡️ เมื่อเทียบกับระบบ serverless แบบเดิม ✅ ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด ➡️ เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน ✅ ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์ ➡️ ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม ✅ ทดสอบในระบบ Model Studio Marketplace ของ Alibaba ➡️ ใช้งานจริงหลายเดือน https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    WWW.TOMSHARDWARE.COM
    Alibaba Cloud says it cut Nvidia AI GPU use by 82% with new pooling system— up to 9x increase in output lets 213 GPUs perform like 1,192
    A paper presented at SOSP 2025 details how token-level scheduling helped one GPU serve multiple LLMs, reducing demand from 1,192 to 213 H20s.
    0 Comments 0 Shares 263 Views 0 Reviews
  • “Cisco เปิดตัวเราเตอร์ 8223 — แกนกลางเครือข่าย AI แห่งอนาคต ด้วยความเร็ว 51.2 Tbps และชิป P200 สุดล้ำ”

    ในยุคที่ปัญญาประดิษฐ์ (AI) กลายเป็นหัวใจของการประมวลผลระดับองค์กร Cisco ได้เปิดตัวเราเตอร์รุ่นใหม่ “Cisco 8223” ซึ่งเป็นเราเตอร์แบบ Ethernet fixed router ที่เร็วที่สุดในอุตสาหกรรม ด้วยความเร็วสูงถึง 51.2 Tbps โดยใช้ชิปที่พัฒนาขึ้นเองชื่อว่า “Silicon One P200” เพื่อรองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลที่ต้องรับภาระจาก AI workloads ที่เพิ่มขึ้นอย่างมหาศาล

    Martin Lund รองประธานฝ่ายฮาร์ดแวร์ของ Cisco ระบุว่า “AI compute กำลังเติบโตเกินขีดความสามารถของศูนย์ข้อมูลเดี่ยว ทำให้ต้องเชื่อมต่อศูนย์ข้อมูลหลายแห่งเข้าด้วยกันอย่างปลอดภัยและมีประสิทธิภาพ” ซึ่ง Cisco 8223 ตอบโจทย์นี้ได้ด้วยการออกแบบให้รองรับการ “scale-across” หรือการกระจายงาน AI ไปยังหลายศูนย์ข้อมูล

    Cisco 8223 มีจุดเด่นด้านพลังงานและพื้นที่ โดยเป็นระบบแบบ 3RU ที่ใช้พลังงานต่ำที่สุดในกลุ่มเราเตอร์ระดับนี้ พร้อมรองรับพอร์ต 800G ถึง 64 ช่อง และสามารถประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที รองรับการเชื่อมต่อระยะไกลถึง 1,000 กิโลเมตรผ่าน coherent optics

    ชิป P200 ยังมีความสามารถในการปรับแต่งโปรโตคอลใหม่ ๆ ได้แบบเรียลไทม์ โดยไม่ต้องเปลี่ยนฮาร์ดแวร์ และมีระบบ deep buffering ที่ช่วยดูดซับการพุ่งขึ้นของปริมาณข้อมูลจากการฝึก AI ได้อย่างมีประสิทธิภาพ

    ด้านความปลอดภัย Cisco 8223 มาพร้อมการเข้ารหัสระดับ line-rate ด้วยอัลกอริธึมที่ทนต่อการโจมตีจากคอมพิวเตอร์ควอนตัม พร้อมระบบตรวจสอบและวิเคราะห์เครือข่ายแบบละเอียดผ่านแพลตฟอร์ม observability ของ Cisco

    ระบบนี้จะเริ่มต้นใช้งานกับระบบปฏิบัติการ SONiC แบบโอเพ่นซอร์ส และจะรองรับ IOS XR ในอนาคต รวมถึงสามารถนำชิป P200 ไปใช้ในระบบ modular และ disaggregated ได้อีกด้วย

    ข้อมูลสำคัญจากข่าว
    Cisco เปิดตัวเราเตอร์ 8223 ความเร็ว 51.2 Tbps สำหรับงาน AI ระดับองค์กร
    ใช้ชิป Silicon One P200 ที่พัฒนาโดย Cisco เอง
    รองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลแบบ “scale-across”
    ระบบแบบ 3RU ที่ประหยัดพลังงานและพื้นที่มากที่สุดในกลุ่ม
    รองรับพอร์ต 800G จำนวน 64 ช่อง และเชื่อมต่อได้ไกลถึง 1,000 กม.
    ประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที
    รองรับการเข้ารหัสแบบ post-quantum และระบบตรวจสอบเครือข่าย
    รองรับ SONiC และเตรียมเปิดใช้งานกับ IOS XR และ NX-OS
    ชิป P200 สามารถนำไปใช้ในระบบ modular และ disaggregated

    ข้อมูลเสริมจากภายนอก
    Silicon One เป็นสถาปัตยกรรม unified networking ที่ใช้ใน hyperscaler และ AI infrastructure
    Microsoft และ Alibaba เป็นลูกค้ารายแรกที่นำ Cisco 8223 ไปใช้งาน
    การเชื่อมต่อแบบ coherent optics ช่วยลด latency และเพิ่มความเสถียรในการเชื่อมต่อระยะไกล
    Deep buffering ช่วยจัดการกับข้อมูลที่พุ่งขึ้นจากการฝึก AI ได้ดี
    การ scale-across เป็นแนวทางใหม่ที่แทนการ scale-up หรือ scale-out ในศูนย์ข้อมูล

    https://www.techpowerup.com/341711/cisco-rolls-out-8223-router-with-51-2-tbps-powered-by-in-house-chip
    🌐 “Cisco เปิดตัวเราเตอร์ 8223 — แกนกลางเครือข่าย AI แห่งอนาคต ด้วยความเร็ว 51.2 Tbps และชิป P200 สุดล้ำ” ในยุคที่ปัญญาประดิษฐ์ (AI) กลายเป็นหัวใจของการประมวลผลระดับองค์กร Cisco ได้เปิดตัวเราเตอร์รุ่นใหม่ “Cisco 8223” ซึ่งเป็นเราเตอร์แบบ Ethernet fixed router ที่เร็วที่สุดในอุตสาหกรรม ด้วยความเร็วสูงถึง 51.2 Tbps โดยใช้ชิปที่พัฒนาขึ้นเองชื่อว่า “Silicon One P200” เพื่อรองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลที่ต้องรับภาระจาก AI workloads ที่เพิ่มขึ้นอย่างมหาศาล Martin Lund รองประธานฝ่ายฮาร์ดแวร์ของ Cisco ระบุว่า “AI compute กำลังเติบโตเกินขีดความสามารถของศูนย์ข้อมูลเดี่ยว ทำให้ต้องเชื่อมต่อศูนย์ข้อมูลหลายแห่งเข้าด้วยกันอย่างปลอดภัยและมีประสิทธิภาพ” ซึ่ง Cisco 8223 ตอบโจทย์นี้ได้ด้วยการออกแบบให้รองรับการ “scale-across” หรือการกระจายงาน AI ไปยังหลายศูนย์ข้อมูล Cisco 8223 มีจุดเด่นด้านพลังงานและพื้นที่ โดยเป็นระบบแบบ 3RU ที่ใช้พลังงานต่ำที่สุดในกลุ่มเราเตอร์ระดับนี้ พร้อมรองรับพอร์ต 800G ถึง 64 ช่อง และสามารถประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที รองรับการเชื่อมต่อระยะไกลถึง 1,000 กิโลเมตรผ่าน coherent optics ชิป P200 ยังมีความสามารถในการปรับแต่งโปรโตคอลใหม่ ๆ ได้แบบเรียลไทม์ โดยไม่ต้องเปลี่ยนฮาร์ดแวร์ และมีระบบ deep buffering ที่ช่วยดูดซับการพุ่งขึ้นของปริมาณข้อมูลจากการฝึก AI ได้อย่างมีประสิทธิภาพ ด้านความปลอดภัย Cisco 8223 มาพร้อมการเข้ารหัสระดับ line-rate ด้วยอัลกอริธึมที่ทนต่อการโจมตีจากคอมพิวเตอร์ควอนตัม พร้อมระบบตรวจสอบและวิเคราะห์เครือข่ายแบบละเอียดผ่านแพลตฟอร์ม observability ของ Cisco ระบบนี้จะเริ่มต้นใช้งานกับระบบปฏิบัติการ SONiC แบบโอเพ่นซอร์ส และจะรองรับ IOS XR ในอนาคต รวมถึงสามารถนำชิป P200 ไปใช้ในระบบ modular และ disaggregated ได้อีกด้วย ✅ ข้อมูลสำคัญจากข่าว ➡️ Cisco เปิดตัวเราเตอร์ 8223 ความเร็ว 51.2 Tbps สำหรับงาน AI ระดับองค์กร ➡️ ใช้ชิป Silicon One P200 ที่พัฒนาโดย Cisco เอง ➡️ รองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลแบบ “scale-across” ➡️ ระบบแบบ 3RU ที่ประหยัดพลังงานและพื้นที่มากที่สุดในกลุ่ม ➡️ รองรับพอร์ต 800G จำนวน 64 ช่อง และเชื่อมต่อได้ไกลถึง 1,000 กม. ➡️ ประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที ➡️ รองรับการเข้ารหัสแบบ post-quantum และระบบตรวจสอบเครือข่าย ➡️ รองรับ SONiC และเตรียมเปิดใช้งานกับ IOS XR และ NX-OS ➡️ ชิป P200 สามารถนำไปใช้ในระบบ modular และ disaggregated ✅ ข้อมูลเสริมจากภายนอก ➡️ Silicon One เป็นสถาปัตยกรรม unified networking ที่ใช้ใน hyperscaler และ AI infrastructure ➡️ Microsoft และ Alibaba เป็นลูกค้ารายแรกที่นำ Cisco 8223 ไปใช้งาน ➡️ การเชื่อมต่อแบบ coherent optics ช่วยลด latency และเพิ่มความเสถียรในการเชื่อมต่อระยะไกล ➡️ Deep buffering ช่วยจัดการกับข้อมูลที่พุ่งขึ้นจากการฝึก AI ได้ดี ➡️ การ scale-across เป็นแนวทางใหม่ที่แทนการ scale-up หรือ scale-out ในศูนย์ข้อมูล https://www.techpowerup.com/341711/cisco-rolls-out-8223-router-with-51-2-tbps-powered-by-in-house-chip
    WWW.TECHPOWERUP.COM
    Cisco Rolls Out 8223 Router with 51.2 Tbps, Powered by In-House Chip
    Today, Cisco (NASDAQ: CSCO) unveiled the Cisco 8223, the industry's most optimized routing system for efficiently and securely connecting data centers and powering the next generation of artificial intelligence (AI) workloads. As AI adoption accelerates, data centers face soaring demand, rising powe...
    0 Comments 0 Shares 256 Views 0 Reviews
  • “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ”

    DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม

    จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ

    นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน

    แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง

    ข้อมูลสำคัญจากข่าว
    DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face
    เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท
    ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว
    ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า
    ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI
    ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง
    โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License
    มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง
    เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด

    ข้อมูลเสริมจากภายนอก
    Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ
    Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล
    การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง
    DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง
    ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ

    https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    🧠 “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ” DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง ✅ ข้อมูลสำคัญจากข่าว ➡️ DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face ➡️ เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท ➡️ ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว ➡️ ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า ➡️ ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI ➡️ ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง ➡️ โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License ➡️ มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง ➡️ เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด ✅ ข้อมูลเสริมจากภายนอก ➡️ Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ ➡️ Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล ➡️ การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง ➡️ DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง ➡️ ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    WWW.THESTAR.COM.MY
    DeepSeek releases model it calls 'intermediate step' towards 'next-generation architecture'
    BEIJING (Reuters) -Chinese AI developer DeepSeek has released its latest model which it said was an "experimental release" that was more efficient to train and better at processing long sequences of text than previous iterations.
    0 Comments 0 Shares 434 Views 0 Reviews
  • “Jensen Huang ชี้จีนตามหลังแค่ ‘นาโนวินาที’ — เรียกร้องให้สหรัฐฯ ผ่อนคลายข้อจำกัดการส่งออกชิป AI”

    Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความเห็นอย่างตรงไปตรงมาในรายการ BG2 Podcast ว่า “จีนตามหลังสหรัฐฯ ในด้านการผลิตชิปแค่ไม่กี่นาโนวินาที” พร้อมเรียกร้องให้รัฐบาลสหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI ไปยังจีน โดยให้เหตุผลว่าการเปิดตลาดจะช่วยขยายอิทธิพลเทคโนโลยีของสหรัฐฯ และรักษาความเป็นผู้นำในระดับโลก

    คำพูดของ Huang เกิดขึ้นในช่วงที่ Nvidia กำลังพยายามกลับมาขายชิป H20 ให้กับลูกค้าในจีน หลังจากถูกระงับการส่งออกหลายเดือนจากข้อจำกัดของกระทรวงพาณิชย์สหรัฐฯ ซึ่งเพิ่งเริ่มออกใบอนุญาตให้ส่งออกอีกครั้งในเดือนสิงหาคม 2025

    อย่างไรก็ตาม จีนเองก็ไม่ได้รอให้ Nvidia กลับมา เพราะ Huawei ได้เปิดตัวระบบ Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ซึ่งไม่พึ่งพา CUDA และออกแบบมาเพื่อซอฟต์แวร์จีนโดยเฉพาะ พร้อมวางแผนพัฒนาชิปรุ่นใหม่ให้เทียบเท่าหรือเหนือกว่าชิปของ Nvidia ภายในปี 2027

    Huang ยอมรับว่าจีนเป็นคู่แข่งที่ “หิวโหย เคลื่อนไหวเร็ว และมีวัฒนธรรมการทำงานแบบ 9-9-6” ซึ่งทำให้การพัฒนาเทคโนโลยีในจีนก้าวหน้าอย่างรวดเร็ว โดยเฉพาะเมื่อบริษัทใหญ่อย่าง Baidu, Alibaba, Tencent และ ByteDance ต่างลงทุนในทีมพัฒนาชิปของตัวเองและสนับสนุนสตาร์ทอัพด้านเซมิคอนดักเตอร์

    แม้ Nvidia จะพยายามรักษาตลาดจีนด้วยการออกแบบชิปเฉพาะ เช่น H20 และ RTX Pro 6000D แต่ก็ยังถูกจีนสั่งห้ามซื้อในเดือนกันยายน 2025 โดยหน่วยงาน CAC ของจีนให้เหตุผลว่า “ชิปจีนตอนนี้เทียบเท่าหรือดีกว่าชิปที่ Nvidia อนุญาตให้ขายในจีนแล้ว” และเรียกร้องให้บริษัทในประเทศหันไปใช้ชิปภายในประเทศแทน

    ข้อมูลสำคัญจากข่าว
    Jensen Huang ระบุว่าจีนตามหลังสหรัฐฯ ในการผลิตชิปแค่ “นาโนวินาที”
    เรียกร้องให้สหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI เพื่อรักษาอิทธิพลทางเทคโนโลยี
    Nvidia หวังกลับมาขายชิป H20 ให้จีนหลังถูกระงับหลายเดือน
    กระทรวงพาณิชย์สหรัฐฯ เริ่มออกใบอนุญาตส่งออก H20 ในเดือนสิงหาคม 2025
    Huawei เปิดตัว Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ไม่พึ่ง CUDA
    จีนวางแผนพัฒนาชิป Ascend รุ่นใหม่ให้เทียบเท่าหรือเหนือกว่า Nvidia ภายในปี 2027
    บริษัทจีนใหญ่ลงทุนในชิปภายในประเทศ เช่น Baidu, Alibaba, Tencent และ ByteDance
    Nvidia เคยครองตลาดจีนถึง 95% แต่ลดลงอย่างรวดเร็วจากข้อจำกัดการส่งออก
    CAC ของจีนสั่งห้ามบริษัทในประเทศซื้อชิป H20 และ RTX Pro 6000D

    ข้อมูลเสริมจากภายนอก
    ชิป H20 และ RTX Pro 6000D ถูกออกแบบมาเพื่อให้ผ่านข้อจำกัดของสหรัฐฯ โดยเฉพาะ
    จีนกำลังสร้างระบบ AI ที่ไม่พึ่งพาเทคโนโลยีสหรัฐฯ เช่น CUDA หรือ TensorRT
    การพัฒนา AI ในจีนเติบโตเร็วที่สุดในโลก โดยเฉพาะในเมืองใหญ่ เช่น เซินเจิ้นและปักกิ่ง
    DeepSeek เป็นโมเดล AI จากจีนที่เทียบเคียงกับ OpenAI และ Anthropic
    การแข่งขันด้านชิปส่งผลต่ออุตสาหกรรมอื่น เช่น บล็อกเชนและอินเทอร์เน็ตดาวเทียม

    https://www.tomshardware.com/jensen-huang-says-china-is-nanoseconds-behind-in-chips
    🇨🇳⚙️ “Jensen Huang ชี้จีนตามหลังแค่ ‘นาโนวินาที’ — เรียกร้องให้สหรัฐฯ ผ่อนคลายข้อจำกัดการส่งออกชิป AI” Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความเห็นอย่างตรงไปตรงมาในรายการ BG2 Podcast ว่า “จีนตามหลังสหรัฐฯ ในด้านการผลิตชิปแค่ไม่กี่นาโนวินาที” พร้อมเรียกร้องให้รัฐบาลสหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI ไปยังจีน โดยให้เหตุผลว่าการเปิดตลาดจะช่วยขยายอิทธิพลเทคโนโลยีของสหรัฐฯ และรักษาความเป็นผู้นำในระดับโลก คำพูดของ Huang เกิดขึ้นในช่วงที่ Nvidia กำลังพยายามกลับมาขายชิป H20 ให้กับลูกค้าในจีน หลังจากถูกระงับการส่งออกหลายเดือนจากข้อจำกัดของกระทรวงพาณิชย์สหรัฐฯ ซึ่งเพิ่งเริ่มออกใบอนุญาตให้ส่งออกอีกครั้งในเดือนสิงหาคม 2025 อย่างไรก็ตาม จีนเองก็ไม่ได้รอให้ Nvidia กลับมา เพราะ Huawei ได้เปิดตัวระบบ Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ซึ่งไม่พึ่งพา CUDA และออกแบบมาเพื่อซอฟต์แวร์จีนโดยเฉพาะ พร้อมวางแผนพัฒนาชิปรุ่นใหม่ให้เทียบเท่าหรือเหนือกว่าชิปของ Nvidia ภายในปี 2027 Huang ยอมรับว่าจีนเป็นคู่แข่งที่ “หิวโหย เคลื่อนไหวเร็ว และมีวัฒนธรรมการทำงานแบบ 9-9-6” ซึ่งทำให้การพัฒนาเทคโนโลยีในจีนก้าวหน้าอย่างรวดเร็ว โดยเฉพาะเมื่อบริษัทใหญ่อย่าง Baidu, Alibaba, Tencent และ ByteDance ต่างลงทุนในทีมพัฒนาชิปของตัวเองและสนับสนุนสตาร์ทอัพด้านเซมิคอนดักเตอร์ แม้ Nvidia จะพยายามรักษาตลาดจีนด้วยการออกแบบชิปเฉพาะ เช่น H20 และ RTX Pro 6000D แต่ก็ยังถูกจีนสั่งห้ามซื้อในเดือนกันยายน 2025 โดยหน่วยงาน CAC ของจีนให้เหตุผลว่า “ชิปจีนตอนนี้เทียบเท่าหรือดีกว่าชิปที่ Nvidia อนุญาตให้ขายในจีนแล้ว” และเรียกร้องให้บริษัทในประเทศหันไปใช้ชิปภายในประเทศแทน ✅ ข้อมูลสำคัญจากข่าว ➡️ Jensen Huang ระบุว่าจีนตามหลังสหรัฐฯ ในการผลิตชิปแค่ “นาโนวินาที” ➡️ เรียกร้องให้สหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI เพื่อรักษาอิทธิพลทางเทคโนโลยี ➡️ Nvidia หวังกลับมาขายชิป H20 ให้จีนหลังถูกระงับหลายเดือน ➡️ กระทรวงพาณิชย์สหรัฐฯ เริ่มออกใบอนุญาตส่งออก H20 ในเดือนสิงหาคม 2025 ➡️ Huawei เปิดตัว Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ไม่พึ่ง CUDA ➡️ จีนวางแผนพัฒนาชิป Ascend รุ่นใหม่ให้เทียบเท่าหรือเหนือกว่า Nvidia ภายในปี 2027 ➡️ บริษัทจีนใหญ่ลงทุนในชิปภายในประเทศ เช่น Baidu, Alibaba, Tencent และ ByteDance ➡️ Nvidia เคยครองตลาดจีนถึง 95% แต่ลดลงอย่างรวดเร็วจากข้อจำกัดการส่งออก ➡️ CAC ของจีนสั่งห้ามบริษัทในประเทศซื้อชิป H20 และ RTX Pro 6000D ✅ ข้อมูลเสริมจากภายนอก ➡️ ชิป H20 และ RTX Pro 6000D ถูกออกแบบมาเพื่อให้ผ่านข้อจำกัดของสหรัฐฯ โดยเฉพาะ ➡️ จีนกำลังสร้างระบบ AI ที่ไม่พึ่งพาเทคโนโลยีสหรัฐฯ เช่น CUDA หรือ TensorRT ➡️ การพัฒนา AI ในจีนเติบโตเร็วที่สุดในโลก โดยเฉพาะในเมืองใหญ่ เช่น เซินเจิ้นและปักกิ่ง ➡️ DeepSeek เป็นโมเดล AI จากจีนที่เทียบเคียงกับ OpenAI และ Anthropic ➡️ การแข่งขันด้านชิปส่งผลต่ออุตสาหกรรมอื่น เช่น บล็อกเชนและอินเทอร์เน็ตดาวเทียม https://www.tomshardware.com/jensen-huang-says-china-is-nanoseconds-behind-in-chips
    0 Comments 0 Shares 554 Views 0 Reviews
  • “Alibaba จับมือ NVIDIA สวนกระแสคำสั่งปักกิ่ง — เดินเกม AI ระดับโลก แม้ถูกห้ามซื้อชิป”

    แม้รัฐบาลจีนจะออกคำสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ เช่น Alibaba และ ByteDance ซื้อชิป AI จาก NVIDIA โดยเฉพาะรุ่น H20 และ RTX Pro 6000D ที่ออกแบบมาเฉพาะสำหรับตลาดจีน แต่ Alibaba กลับประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI ระดับโลกอย่างเต็มตัว

    ความร่วมมือครั้งนี้เน้นการใช้ซอฟต์แวร์ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI (Platform for AI) ของ Alibaba Cloud ซึ่งอาจไม่เข้าข่ายละเมิดคำสั่งห้ามซื้อฮาร์ดแวร์โดยตรง เพราะเป็นการใช้ซอฟต์แวร์ ไม่ใช่การซื้อชิปโดยตรง อย่างไรก็ตาม ยังไม่มีการยืนยันว่า Alibaba จะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่

    Alibaba ยังเปิดเผยแผนการสร้างศูนย์ข้อมูลใหม่ในหลายประเทศ เช่น บราซิล ฝรั่งเศส เนเธอร์แลนด์ เม็กซิโก เกาหลีใต้ ญี่ปุ่น มาเลเซีย และดูไบ ภายในปีหน้า เพื่อรองรับความต้องการด้าน AI ที่เพิ่มขึ้นอย่างรวดเร็ว โดย CEO Eddie Wu ระบุว่า “ความเร็วของการเติบโตในอุตสาหกรรม AI เกินความคาดหมายของเราไปมาก”

    แม้ Alibaba จะมีชิป AI ของตัวเอง และพัฒนาเทคโนโลยีเครือข่ายประสิทธิภาพสูงที่ไม่ต้องพึ่งพาเทคโนโลยี interconnect ของ NVIDIA แต่การจับมือกันครั้งนี้สะท้อนว่า Alibaba ยังเห็นคุณค่าในซอฟต์แวร์และระบบของ NVIDIA ที่สามารถเร่งการพัฒนา AI ได้ในระดับโลก

    นักวิเคราะห์มองว่า หากดีลนี้เดินหน้าได้โดยไม่มีการแทรกแซงจากรัฐบาลจีนหรือสหรัฐฯ จะเป็นการเปิดทางให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านช่องทางซอฟต์แวร์ และช่วยให้ Alibaba ขยายอิทธิพลด้าน AI ไปทั่วโลก แม้จะถูกจำกัดด้านฮาร์ดแวร์ภายในประเทศ

    ข้อมูลสำคัญจากข่าว
    Alibaba ประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI
    ใช้ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI ของ Alibaba Cloud
    ยังไม่มีการยืนยันว่าจะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่
    รัฐบาลจีนห้ามบริษัทเทคโนโลยีซื้อชิป H20 และ RTX Pro 6000D จาก NVIDIA
    Alibaba มีชิป AI ของตัวเอง และระบบเครือข่ายที่ไม่พึ่งพาเทคโนโลยีของ NVIDIA
    แผนสร้างศูนย์ข้อมูลใหม่ใน 8 ประเทศภายในปีหน้า
    CEO Eddie Wu ระบุว่าอุตสาหกรรม AI เติบโตเร็วกว่าที่คาด
    ความร่วมมือครั้งนี้อาจช่วยให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านซอฟต์แวร์

    ข้อมูลเสริมจากภายนอก
    คำสั่งห้ามของจีนออกโดย Cyberspace Administration of China เพื่อผลักดันการใช้ชิปภายในประเทศ
    NVIDIA เคยออกแบบชิปรุ่นพิเศษสำหรับจีนเพื่อหลีกเลี่ยงข้อจำกัดจากสหรัฐฯ
    Alibaba และ Baidu มีการพัฒนาชิป AI ภายในองค์กร เช่น Hanguang และ Kunlun
    การใช้ซอฟต์แวร์ของ NVIDIA ยังเป็นจุดแข็งที่คู่แข่งในจีนยังตามไม่ทัน
    การขยายศูนย์ข้อมูลในต่างประเทศช่วยลดความเสี่ยงจากข้อจำกัดภายในประเทศ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/alibaba-announces-partnership-with-nvidia-despite-beijings-bans-chinese-e-commerce-giant-is-prioritizing-ai-with-plans-for-global-expansion
    🌏 “Alibaba จับมือ NVIDIA สวนกระแสคำสั่งปักกิ่ง — เดินเกม AI ระดับโลก แม้ถูกห้ามซื้อชิป” แม้รัฐบาลจีนจะออกคำสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ เช่น Alibaba และ ByteDance ซื้อชิป AI จาก NVIDIA โดยเฉพาะรุ่น H20 และ RTX Pro 6000D ที่ออกแบบมาเฉพาะสำหรับตลาดจีน แต่ Alibaba กลับประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI ระดับโลกอย่างเต็มตัว ความร่วมมือครั้งนี้เน้นการใช้ซอฟต์แวร์ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI (Platform for AI) ของ Alibaba Cloud ซึ่งอาจไม่เข้าข่ายละเมิดคำสั่งห้ามซื้อฮาร์ดแวร์โดยตรง เพราะเป็นการใช้ซอฟต์แวร์ ไม่ใช่การซื้อชิปโดยตรง อย่างไรก็ตาม ยังไม่มีการยืนยันว่า Alibaba จะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่ Alibaba ยังเปิดเผยแผนการสร้างศูนย์ข้อมูลใหม่ในหลายประเทศ เช่น บราซิล ฝรั่งเศส เนเธอร์แลนด์ เม็กซิโก เกาหลีใต้ ญี่ปุ่น มาเลเซีย และดูไบ ภายในปีหน้า เพื่อรองรับความต้องการด้าน AI ที่เพิ่มขึ้นอย่างรวดเร็ว โดย CEO Eddie Wu ระบุว่า “ความเร็วของการเติบโตในอุตสาหกรรม AI เกินความคาดหมายของเราไปมาก” แม้ Alibaba จะมีชิป AI ของตัวเอง และพัฒนาเทคโนโลยีเครือข่ายประสิทธิภาพสูงที่ไม่ต้องพึ่งพาเทคโนโลยี interconnect ของ NVIDIA แต่การจับมือกันครั้งนี้สะท้อนว่า Alibaba ยังเห็นคุณค่าในซอฟต์แวร์และระบบของ NVIDIA ที่สามารถเร่งการพัฒนา AI ได้ในระดับโลก นักวิเคราะห์มองว่า หากดีลนี้เดินหน้าได้โดยไม่มีการแทรกแซงจากรัฐบาลจีนหรือสหรัฐฯ จะเป็นการเปิดทางให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านช่องทางซอฟต์แวร์ และช่วยให้ Alibaba ขยายอิทธิพลด้าน AI ไปทั่วโลก แม้จะถูกจำกัดด้านฮาร์ดแวร์ภายในประเทศ ✅ ข้อมูลสำคัญจากข่าว ➡️ Alibaba ประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI ➡️ ใช้ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI ของ Alibaba Cloud ➡️ ยังไม่มีการยืนยันว่าจะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่ ➡️ รัฐบาลจีนห้ามบริษัทเทคโนโลยีซื้อชิป H20 และ RTX Pro 6000D จาก NVIDIA ➡️ Alibaba มีชิป AI ของตัวเอง และระบบเครือข่ายที่ไม่พึ่งพาเทคโนโลยีของ NVIDIA ➡️ แผนสร้างศูนย์ข้อมูลใหม่ใน 8 ประเทศภายในปีหน้า ➡️ CEO Eddie Wu ระบุว่าอุตสาหกรรม AI เติบโตเร็วกว่าที่คาด ➡️ ความร่วมมือครั้งนี้อาจช่วยให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านซอฟต์แวร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ คำสั่งห้ามของจีนออกโดย Cyberspace Administration of China เพื่อผลักดันการใช้ชิปภายในประเทศ ➡️ NVIDIA เคยออกแบบชิปรุ่นพิเศษสำหรับจีนเพื่อหลีกเลี่ยงข้อจำกัดจากสหรัฐฯ ➡️ Alibaba และ Baidu มีการพัฒนาชิป AI ภายในองค์กร เช่น Hanguang และ Kunlun ➡️ การใช้ซอฟต์แวร์ของ NVIDIA ยังเป็นจุดแข็งที่คู่แข่งในจีนยังตามไม่ทัน ➡️ การขยายศูนย์ข้อมูลในต่างประเทศช่วยลดความเสี่ยงจากข้อจำกัดภายในประเทศ https://www.tomshardware.com/tech-industry/artificial-intelligence/alibaba-announces-partnership-with-nvidia-despite-beijings-bans-chinese-e-commerce-giant-is-prioritizing-ai-with-plans-for-global-expansion
    0 Comments 0 Shares 493 Views 0 Reviews
  • Nvidia เจอแรงกระแทกจากจีนอีกครั้ง — CEO ยอมรับ “ผิดหวัง” หลังถูกแบนชิป AI H20 แม้พัฒนาเพื่อหลีกเลี่ยงข้อจำกัด

    Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความผิดหวังอย่างชัดเจน หลังรัฐบาลจีนประกาศห้ามบริษัทเทคโนโลยีภายในประเทศซื้อชิป AI รุ่น H20 ของ Nvidia ซึ่งถูกออกแบบมาเฉพาะสำหรับตลาดจีน เพื่อหลีกเลี่ยงข้อจำกัดด้านการส่งออกจากสหรัฐฯ โดย Huang กล่าวในงานแถลงข่าวที่ลอนดอนว่า “ธุรกิจของเรากับจีนในช่วง 3 ปีที่ผ่านมาเหมือนรถไฟเหาะ”

    ชิป H20 ถูกพัฒนาเพื่อตอบสนองความต้องการของจีน หลังสหรัฐฯ ภายใต้รัฐบาล Biden เคยสั่งห้ามส่งออกชิป AI ระดับสูงไปยังจีนในปี 2023 แต่เมื่อ Trump กลับมาดำรงตำแหน่งในปี 2025 ก็มีการเจรจาใหม่ โดย Nvidia ยอมจ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการยกเลิกข้อจำกัด

    อย่างไรก็ตาม ความกังวลเรื่อง “backdoor” และการติดตามชิปจากระยะไกล ทำให้ Cyberspace Administration of China (CAC) สั่งให้บริษัทใหญ่ เช่น ByteDance และ Alibaba หยุดการสั่งซื้อและทดสอบชิป H20 โดยอ้างว่าเทคโนโลยีของ Nvidia อาจเป็นภัยต่อความมั่นคงของข้อมูลภายในประเทศ

    Huang ยืนยันว่า H20 ไม่ใช่เทคโนโลยีที่เกี่ยวข้องกับความมั่นคง และจีนมีเทคโนโลยีของตัวเองเพียงพอสำหรับการใช้งานทางทหารอยู่แล้ว แต่ก็ยอมรับว่า “ต้องอดทน” และ “เข้าใจว่ามีวาระใหญ่กว่าที่ต้องจัดการระหว่างจีนกับสหรัฐฯ”

    Nvidia ถูกแบนชิป AI H20 ในจีน
    Cyberspace Administration of China สั่งบริษัทเทคโนโลยีหยุดซื้อและทดสอบ
    ชิป H20 ถูกออกแบบมาเฉพาะสำหรับตลาดจีน

    Jensen Huang แสดงความผิดหวังต่อการแบน
    ระบุว่า “ธุรกิจในจีนเหมือนรถไฟเหาะ”
    ยืนยันว่า H20 ไม่เกี่ยวกับความมั่นคงทางทหาร

    ชิป H20 เคยถูกห้ามส่งออกโดยรัฐบาล Biden
    Nvidia พัฒนา H20 เพื่อลดสเปกให้ผ่านข้อจำกัด
    รัฐบาล Trump เจรจาใหม่ให้ Nvidia จ่าย 15% ของรายได้เพื่อแลกกับการขาย

    จีนกังวลเรื่อง backdoor และการติดตามชิปจากระยะไกล
    มีข้อสงสัยว่า H20 อาจมีระบบติดตามหรือ kill switch
    Nvidia ปฏิเสธว่าชิปไม่มีช่องโหว่ด้านความปลอดภัย

    ตลาด AI ในจีนยังมีขนาดใหญ่มาก
    Huang ระบุว่ามีมูลค่าราว 15 พันล้านดอลลาร์
    เป็นตลาด AI ใหญ่เป็นอันดับสองของโลก

    คำเตือนเกี่ยวกับผลกระทบจากการแบน
    การแบนอาจกระทบรายได้ของ Nvidia หลายพันล้านดอลลาร์
    ความไม่แน่นอนทางการเมืองระหว่างจีน-สหรัฐฯ ทำให้การคาดการณ์ธุรกิจยากขึ้น
    การกล่าวหาว่ามี backdoor อาจกระทบความเชื่อมั่นในผลิตภัณฑ์ Nvidia ทั่วโลก
    การพึ่งพาตลาดจีนมากเกินไปอาจเป็นความเสี่ยงเชิงกลยุทธ์ในระยะยาว

    https://www.techradar.com/pro/our-business-in-china-has-been-a-bit-of-a-rollercoaster-nvidia-ceo-disappointed-in-further-chinese-ban-on-buying-its-ai-chips
    📰 Nvidia เจอแรงกระแทกจากจีนอีกครั้ง — CEO ยอมรับ “ผิดหวัง” หลังถูกแบนชิป AI H20 แม้พัฒนาเพื่อหลีกเลี่ยงข้อจำกัด Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความผิดหวังอย่างชัดเจน หลังรัฐบาลจีนประกาศห้ามบริษัทเทคโนโลยีภายในประเทศซื้อชิป AI รุ่น H20 ของ Nvidia ซึ่งถูกออกแบบมาเฉพาะสำหรับตลาดจีน เพื่อหลีกเลี่ยงข้อจำกัดด้านการส่งออกจากสหรัฐฯ โดย Huang กล่าวในงานแถลงข่าวที่ลอนดอนว่า “ธุรกิจของเรากับจีนในช่วง 3 ปีที่ผ่านมาเหมือนรถไฟเหาะ” ชิป H20 ถูกพัฒนาเพื่อตอบสนองความต้องการของจีน หลังสหรัฐฯ ภายใต้รัฐบาล Biden เคยสั่งห้ามส่งออกชิป AI ระดับสูงไปยังจีนในปี 2023 แต่เมื่อ Trump กลับมาดำรงตำแหน่งในปี 2025 ก็มีการเจรจาใหม่ โดย Nvidia ยอมจ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการยกเลิกข้อจำกัด อย่างไรก็ตาม ความกังวลเรื่อง “backdoor” และการติดตามชิปจากระยะไกล ทำให้ Cyberspace Administration of China (CAC) สั่งให้บริษัทใหญ่ เช่น ByteDance และ Alibaba หยุดการสั่งซื้อและทดสอบชิป H20 โดยอ้างว่าเทคโนโลยีของ Nvidia อาจเป็นภัยต่อความมั่นคงของข้อมูลภายในประเทศ Huang ยืนยันว่า H20 ไม่ใช่เทคโนโลยีที่เกี่ยวข้องกับความมั่นคง และจีนมีเทคโนโลยีของตัวเองเพียงพอสำหรับการใช้งานทางทหารอยู่แล้ว แต่ก็ยอมรับว่า “ต้องอดทน” และ “เข้าใจว่ามีวาระใหญ่กว่าที่ต้องจัดการระหว่างจีนกับสหรัฐฯ” ✅ Nvidia ถูกแบนชิป AI H20 ในจีน ➡️ Cyberspace Administration of China สั่งบริษัทเทคโนโลยีหยุดซื้อและทดสอบ ➡️ ชิป H20 ถูกออกแบบมาเฉพาะสำหรับตลาดจีน ✅ Jensen Huang แสดงความผิดหวังต่อการแบน ➡️ ระบุว่า “ธุรกิจในจีนเหมือนรถไฟเหาะ” ➡️ ยืนยันว่า H20 ไม่เกี่ยวกับความมั่นคงทางทหาร ✅ ชิป H20 เคยถูกห้ามส่งออกโดยรัฐบาล Biden ➡️ Nvidia พัฒนา H20 เพื่อลดสเปกให้ผ่านข้อจำกัด ➡️ รัฐบาล Trump เจรจาใหม่ให้ Nvidia จ่าย 15% ของรายได้เพื่อแลกกับการขาย ✅ จีนกังวลเรื่อง backdoor และการติดตามชิปจากระยะไกล ➡️ มีข้อสงสัยว่า H20 อาจมีระบบติดตามหรือ kill switch ➡️ Nvidia ปฏิเสธว่าชิปไม่มีช่องโหว่ด้านความปลอดภัย ✅ ตลาด AI ในจีนยังมีขนาดใหญ่มาก ➡️ Huang ระบุว่ามีมูลค่าราว 15 พันล้านดอลลาร์ ➡️ เป็นตลาด AI ใหญ่เป็นอันดับสองของโลก ‼️ คำเตือนเกี่ยวกับผลกระทบจากการแบน ⛔ การแบนอาจกระทบรายได้ของ Nvidia หลายพันล้านดอลลาร์ ⛔ ความไม่แน่นอนทางการเมืองระหว่างจีน-สหรัฐฯ ทำให้การคาดการณ์ธุรกิจยากขึ้น ⛔ การกล่าวหาว่ามี backdoor อาจกระทบความเชื่อมั่นในผลิตภัณฑ์ Nvidia ทั่วโลก ⛔ การพึ่งพาตลาดจีนมากเกินไปอาจเป็นความเสี่ยงเชิงกลยุทธ์ในระยะยาว https://www.techradar.com/pro/our-business-in-china-has-been-a-bit-of-a-rollercoaster-nvidia-ceo-disappointed-in-further-chinese-ban-on-buying-its-ai-chips
    0 Comments 0 Shares 431 Views 0 Reviews
  • จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia — ผลักดันใช้โปรเซสเซอร์ในประเทศแทน

    ในความเคลื่อนไหวที่สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีน ล่าสุดมีรายงานว่า รัฐบาลจีนได้สั่งห้ามบริษัทเทคโนโลยีรายใหญ่ของประเทศ เช่น Alibaba, ByteDance, Baidu และ Tencent ทำการจัดซื้อชิป AI จาก Nvidia แม้จะเป็นรุ่นที่ออกแบบมาเฉพาะสำหรับตลาดจีนอย่าง H800 และ A800 ก็ตาม

    คำสั่งนี้มีเป้าหมายเพื่อผลักดันให้บริษัทจีนหันมาใช้โปรเซสเซอร์ที่ผลิตภายในประเทศ เช่น Huawei Ascend 910B และ Moore Threads ซึ่งทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่ากับชิปรุ่น H20 และ RTX 6000 Pro ของ Nvidia

    การตัดสินใจนี้เกิดขึ้นหลังจากสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ไปยังจีน โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ซึ่งอาจนำไปใช้ในงานด้านการทหารหรือการพัฒนาเทคโนโลยีที่อ่อนไหว

    แม้บริษัทจีนจะยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลกระทบต่อการพัฒนา AI และการประมวลผลขั้นสูงในระยะยาว

    จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia
    รวมถึงชิปรุ่น H800 และ A800 ที่ออกแบบมาเฉพาะสำหรับตลาดจีน
    บริษัทที่ได้รับผลกระทบ ได้แก่ Alibaba, ByteDance, Baidu และ Tencent

    ผลักดันให้ใช้โปรเซสเซอร์ที่ผลิตในประเทศ
    เช่น Huawei Ascend 910B และ Moore Threads
    ทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่าชิปรุ่น H20 และ RTX 6000 Pro

    สหรัฐฯ มีมาตรการควบคุมการส่งออกชิป AI ไปยังจีน
    โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง
    หวั่นว่าจะถูกนำไปใช้ในงานด้านการทหารหรือเทคโนโลยีอ่อนไหว

    บริษัทจีนยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้
    แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลต่อการพัฒนา AI ในระยะยาว

    คำเตือนเกี่ยวกับผลกระทบต่ออุตสาหกรรม AI ในจีน
    การจำกัดการเข้าถึงชิปอาจทำให้การพัฒนาเทคโนโลยีล่าช้า
    อาจกระทบต่อการแข่งขันระดับโลกในด้าน AI และการประมวลผลขั้นสูง
    บริษัทจีนอาจต้องลงทุนเพิ่มในการพัฒนาเทคโนโลยีภายในประเทศ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/china-bans-its-biggest-tech-companies-from-acquiring-nvidia-chips-says-report-beijing-claims-its-homegrown-ai-processors-now-match-h20-and-rtx-pro-6000d
    📰 จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia — ผลักดันใช้โปรเซสเซอร์ในประเทศแทน ในความเคลื่อนไหวที่สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีน ล่าสุดมีรายงานว่า รัฐบาลจีนได้สั่งห้ามบริษัทเทคโนโลยีรายใหญ่ของประเทศ เช่น Alibaba, ByteDance, Baidu และ Tencent ทำการจัดซื้อชิป AI จาก Nvidia แม้จะเป็นรุ่นที่ออกแบบมาเฉพาะสำหรับตลาดจีนอย่าง H800 และ A800 ก็ตาม คำสั่งนี้มีเป้าหมายเพื่อผลักดันให้บริษัทจีนหันมาใช้โปรเซสเซอร์ที่ผลิตภายในประเทศ เช่น Huawei Ascend 910B และ Moore Threads ซึ่งทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่ากับชิปรุ่น H20 และ RTX 6000 Pro ของ Nvidia การตัดสินใจนี้เกิดขึ้นหลังจากสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ไปยังจีน โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ซึ่งอาจนำไปใช้ในงานด้านการทหารหรือการพัฒนาเทคโนโลยีที่อ่อนไหว แม้บริษัทจีนจะยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลกระทบต่อการพัฒนา AI และการประมวลผลขั้นสูงในระยะยาว ✅ จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia ➡️ รวมถึงชิปรุ่น H800 และ A800 ที่ออกแบบมาเฉพาะสำหรับตลาดจีน ➡️ บริษัทที่ได้รับผลกระทบ ได้แก่ Alibaba, ByteDance, Baidu และ Tencent ✅ ผลักดันให้ใช้โปรเซสเซอร์ที่ผลิตในประเทศ ➡️ เช่น Huawei Ascend 910B และ Moore Threads ➡️ ทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่าชิปรุ่น H20 และ RTX 6000 Pro ✅ สหรัฐฯ มีมาตรการควบคุมการส่งออกชิป AI ไปยังจีน ➡️ โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ➡️ หวั่นว่าจะถูกนำไปใช้ในงานด้านการทหารหรือเทคโนโลยีอ่อนไหว ✅ บริษัทจีนยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ ➡️ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลต่อการพัฒนา AI ในระยะยาว ‼️ คำเตือนเกี่ยวกับผลกระทบต่ออุตสาหกรรม AI ในจีน ⛔ การจำกัดการเข้าถึงชิปอาจทำให้การพัฒนาเทคโนโลยีล่าช้า ⛔ อาจกระทบต่อการแข่งขันระดับโลกในด้าน AI และการประมวลผลขั้นสูง ⛔ บริษัทจีนอาจต้องลงทุนเพิ่มในการพัฒนาเทคโนโลยีภายในประเทศ https://www.tomshardware.com/tech-industry/artificial-intelligence/china-bans-its-biggest-tech-companies-from-acquiring-nvidia-chips-says-report-beijing-claims-its-homegrown-ai-processors-now-match-h20-and-rtx-pro-6000d
    0 Comments 0 Shares 405 Views 0 Reviews
  • “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI”

    ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด

    ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด

    OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว

    Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง

    รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก

    แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น

    ข้อมูลสำคัญจากข่าว
    Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด
    Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia
    OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน
    Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้

    สถานการณ์ตลาดและผลกระทบ
    Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39%
    Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92%
    สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก
    จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ

    ข้อมูลเสริมจากภายนอก
    AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน
    การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง
    การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี
    สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด

    https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    🔒 “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI” ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น ✅ ข้อมูลสำคัญจากข่าว ➡️ Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด ➡️ Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia ➡️ OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน ➡️ Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้ ✅ สถานการณ์ตลาดและผลกระทบ ➡️ Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39% ➡️ Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92% ➡️ สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก ➡️ จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ ✅ ข้อมูลเสริมจากภายนอก ➡️ AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน ➡️ การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง ➡️ การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี ➡️ สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    0 Comments 0 Shares 346 Views 0 Reviews
  • “Jack Ma กลับมาแล้ว — ปลุก Alibaba ด้วย AI และสงครามราคา เพื่อทวงคืนความยิ่งใหญ่”

    หลังจากหายตัวไปจากสาธารณะตั้งแต่ปี 2020 เพราะวิจารณ์ระบบการเงินจีนอย่างตรงไปตรงมา Jack Ma ผู้ก่อตั้ง Alibaba ได้กลับมาอีกครั้งในปี 2025 พร้อมภารกิจ “Make Alibaba Great Again” โดยไม่ต้องมีตำแหน่งอย่างเป็นทางการ แต่มีอิทธิพลเต็มรูปแบบในเบื้องหลัง

    Ma กลับมาในช่วงที่ Alibaba กำลังเผชิญการแข่งขันดุเดือดจาก JD.com และ Meituan โดยเขาเป็นผู้อยู่เบื้องหลังการตัดสินใจทุ่มเงินกว่า 50,000 ล้านหยวน (ประมาณ 7 พันล้านดอลลาร์) เพื่ออัดฉีดเงินอุดหนุนและดึงลูกค้ากลับมา โดยเฉพาะในตลาด food delivery ที่ Alibaba มีส่วนแบ่ง 43% ตามหลัง Meituan ที่ 47%

    นอกจากสงครามราคากับคู่แข่ง Ma ยังผลักดันการลงทุนใน AI อย่างหนัก โดย Alibaba ประกาศแผนลงทุนกว่า 380,000 ล้านหยวนในโครงสร้างพื้นฐาน AI และคลาวด์ภายใน 3 ปี พร้อมเปิดตัวโมเดล Qwen รุ่นใหม่ที่มีพารามิเตอร์ระดับล้านล้าน และชิป T-head ที่พัฒนาเองเพื่อลดการพึ่งพา Nvidia

    การกลับมาของ Ma ไม่ใช่แค่เรื่องเทคโนโลยี แต่ยังเป็นการฟื้นฟูวัฒนธรรมองค์กรที่เคยตกต่ำในช่วงที่เขาหายไป พนักงานหลายคนถึงกับร้องไห้เมื่อเห็นเขากลับมาพูดในงานของ Ant Group และ Alibaba Cloud เพราะรู้สึกว่า “จิตวิญญาณของบริษัทกลับมาแล้ว”

    แม้ Ma จะไม่มีตำแหน่งอย่างเป็นทางการ แต่เขายังคงสวมบัตรพนักงานและเดินในแคมปัสอย่างเปิดเผย ส่งข้อความถึงผู้บริหาร ขออัปเดตด้าน AI วันละหลายครั้ง และมีบทบาทในการเปลี่ยนแปลงผู้นำ เช่น การสนับสนุน Jiang Fan ให้ดูแลธุรกิจอีคอมเมิร์ซแบบรวมศูนย์ใหม่

    อย่างไรก็ตาม การกลับมาของ Ma ก็มีความเสี่ยง เพราะการอัดฉีดเงินอุดหนุนอาจขัดกับนโยบายของรัฐบาลที่ต้องการควบคุม “การแข่งขันที่ไม่เป็นธรรม” และการลงทุนใน AI ยังไม่สามารถสร้างรายได้อย่างชัดเจนในระยะสั้น

    ข้อมูลสำคัญจากข่าว
    Jack Ma กลับมาอย่างไม่เป็นทางการใน Alibaba หลังหายไปตั้งแต่ปี 2020
    เป็นผู้อยู่เบื้องหลังแผน “Make Alibaba Great Again” และการอัดฉีดเงินอุดหนุน 50,000 ล้านหยวน
    ผลักดันการลงทุนใน AI และคลาวด์กว่า 380,000 ล้านหยวนภายใน 3 ปี
    เปิดตัวโมเดล Qwen รุ่นใหม่และชิป T-head ที่พัฒนาเอง
    สนับสนุน Jiang Fan ให้ดูแลธุรกิจอีคอมเมิร์ซแบบรวมศูนย์

    ผลกระทบต่อองค์กรและตลาด
    พนักงานรู้สึกมีขวัญกำลังใจมากขึ้นหลัง Ma กลับมา
    หุ้น Alibaba พุ่งขึ้นกว่า 88% ในปี 2025
    รายได้จากคลาวด์โตขึ้น 26% ในไตรมาสล่าสุด
    Alibaba มีส่วนแบ่งตลาด food delivery 43% ตามหลัง Meituan

    ข้อมูลเสริมจากภายนอก
    Ma เคยเป็นบุคคลที่ร่ำรวยที่สุดในจีน และเป็นสัญลักษณ์ของยุคเทคโนโลยีเสรี
    การหายตัวของเขาเกิดหลังวิจารณ์ระบบการเงินจีนและการล้ม IPO ของ Ant Group
    การกลับมาครั้งนี้ถูกมองว่าเป็นสัญญาณว่ารัฐบาลจีนเริ่มเปิดรับผู้ก่อตั้งเทคโนโลยีอีกครั้ง
    Alibaba เคยมีมูลค่าตลาดสูงถึง 800,000 ล้านดอลลาร์ ก่อนลดลงเหลือครึ่งหนึ่ง

    คำเตือนและข้อจำกัด
    Ma ไม่มีตำแหน่งอย่างเป็นทางการ อาจทำให้โครงสร้างการรายงานภายในสับสน
    การอัดฉีดเงินอุดหนุนอาจขัดกับนโยบายรัฐเรื่อง “การแข่งขันที่เป็นธรรม”
    การลงทุนใน AI ยังไม่สร้างรายได้ชัดเจน และมีต้นทุนสูง
    การเปลี่ยนผู้นำและกลยุทธ์อาจสร้างแรงเสียดทานภายในองค์กร
    การกลับมาของ Ma อาจถูกมองว่าเป็น “ความพยายามครั้งสุดท้าย” ในการกู้ชื่อเสียง

    https://www.thestar.com.my/tech/tech-news/2025/09/16/jack-ma-returns-with-a-vengeance-to-make-alibaba-great-again
    🦁 “Jack Ma กลับมาแล้ว — ปลุก Alibaba ด้วย AI และสงครามราคา เพื่อทวงคืนความยิ่งใหญ่” หลังจากหายตัวไปจากสาธารณะตั้งแต่ปี 2020 เพราะวิจารณ์ระบบการเงินจีนอย่างตรงไปตรงมา Jack Ma ผู้ก่อตั้ง Alibaba ได้กลับมาอีกครั้งในปี 2025 พร้อมภารกิจ “Make Alibaba Great Again” โดยไม่ต้องมีตำแหน่งอย่างเป็นทางการ แต่มีอิทธิพลเต็มรูปแบบในเบื้องหลัง Ma กลับมาในช่วงที่ Alibaba กำลังเผชิญการแข่งขันดุเดือดจาก JD.com และ Meituan โดยเขาเป็นผู้อยู่เบื้องหลังการตัดสินใจทุ่มเงินกว่า 50,000 ล้านหยวน (ประมาณ 7 พันล้านดอลลาร์) เพื่ออัดฉีดเงินอุดหนุนและดึงลูกค้ากลับมา โดยเฉพาะในตลาด food delivery ที่ Alibaba มีส่วนแบ่ง 43% ตามหลัง Meituan ที่ 47% นอกจากสงครามราคากับคู่แข่ง Ma ยังผลักดันการลงทุนใน AI อย่างหนัก โดย Alibaba ประกาศแผนลงทุนกว่า 380,000 ล้านหยวนในโครงสร้างพื้นฐาน AI และคลาวด์ภายใน 3 ปี พร้อมเปิดตัวโมเดล Qwen รุ่นใหม่ที่มีพารามิเตอร์ระดับล้านล้าน และชิป T-head ที่พัฒนาเองเพื่อลดการพึ่งพา Nvidia การกลับมาของ Ma ไม่ใช่แค่เรื่องเทคโนโลยี แต่ยังเป็นการฟื้นฟูวัฒนธรรมองค์กรที่เคยตกต่ำในช่วงที่เขาหายไป พนักงานหลายคนถึงกับร้องไห้เมื่อเห็นเขากลับมาพูดในงานของ Ant Group และ Alibaba Cloud เพราะรู้สึกว่า “จิตวิญญาณของบริษัทกลับมาแล้ว” แม้ Ma จะไม่มีตำแหน่งอย่างเป็นทางการ แต่เขายังคงสวมบัตรพนักงานและเดินในแคมปัสอย่างเปิดเผย ส่งข้อความถึงผู้บริหาร ขออัปเดตด้าน AI วันละหลายครั้ง และมีบทบาทในการเปลี่ยนแปลงผู้นำ เช่น การสนับสนุน Jiang Fan ให้ดูแลธุรกิจอีคอมเมิร์ซแบบรวมศูนย์ใหม่ อย่างไรก็ตาม การกลับมาของ Ma ก็มีความเสี่ยง เพราะการอัดฉีดเงินอุดหนุนอาจขัดกับนโยบายของรัฐบาลที่ต้องการควบคุม “การแข่งขันที่ไม่เป็นธรรม” และการลงทุนใน AI ยังไม่สามารถสร้างรายได้อย่างชัดเจนในระยะสั้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Jack Ma กลับมาอย่างไม่เป็นทางการใน Alibaba หลังหายไปตั้งแต่ปี 2020 ➡️ เป็นผู้อยู่เบื้องหลังแผน “Make Alibaba Great Again” และการอัดฉีดเงินอุดหนุน 50,000 ล้านหยวน ➡️ ผลักดันการลงทุนใน AI และคลาวด์กว่า 380,000 ล้านหยวนภายใน 3 ปี ➡️ เปิดตัวโมเดล Qwen รุ่นใหม่และชิป T-head ที่พัฒนาเอง ➡️ สนับสนุน Jiang Fan ให้ดูแลธุรกิจอีคอมเมิร์ซแบบรวมศูนย์ ✅ ผลกระทบต่อองค์กรและตลาด ➡️ พนักงานรู้สึกมีขวัญกำลังใจมากขึ้นหลัง Ma กลับมา ➡️ หุ้น Alibaba พุ่งขึ้นกว่า 88% ในปี 2025 ➡️ รายได้จากคลาวด์โตขึ้น 26% ในไตรมาสล่าสุด ➡️ Alibaba มีส่วนแบ่งตลาด food delivery 43% ตามหลัง Meituan ✅ ข้อมูลเสริมจากภายนอก ➡️ Ma เคยเป็นบุคคลที่ร่ำรวยที่สุดในจีน และเป็นสัญลักษณ์ของยุคเทคโนโลยีเสรี ➡️ การหายตัวของเขาเกิดหลังวิจารณ์ระบบการเงินจีนและการล้ม IPO ของ Ant Group ➡️ การกลับมาครั้งนี้ถูกมองว่าเป็นสัญญาณว่ารัฐบาลจีนเริ่มเปิดรับผู้ก่อตั้งเทคโนโลยีอีกครั้ง ➡️ Alibaba เคยมีมูลค่าตลาดสูงถึง 800,000 ล้านดอลลาร์ ก่อนลดลงเหลือครึ่งหนึ่ง ‼️ คำเตือนและข้อจำกัด ⛔ Ma ไม่มีตำแหน่งอย่างเป็นทางการ อาจทำให้โครงสร้างการรายงานภายในสับสน ⛔ การอัดฉีดเงินอุดหนุนอาจขัดกับนโยบายรัฐเรื่อง “การแข่งขันที่เป็นธรรม” ⛔ การลงทุนใน AI ยังไม่สร้างรายได้ชัดเจน และมีต้นทุนสูง ⛔ การเปลี่ยนผู้นำและกลยุทธ์อาจสร้างแรงเสียดทานภายในองค์กร ⛔ การกลับมาของ Ma อาจถูกมองว่าเป็น “ความพยายามครั้งสุดท้าย” ในการกู้ชื่อเสียง https://www.thestar.com.my/tech/tech-news/2025/09/16/jack-ma-returns-with-a-vengeance-to-make-alibaba-great-again
    WWW.THESTAR.COM.MY
    Jack Ma returns with a vengeance to 'Make Alibaba Great Again'
    During China's yearslong crackdown on the tech sector, Alibaba Group Holding Ltd's internal messaging boards lit up with dreams to "MAGA" – Make Alibaba Great Again. Now, the company is deploying one of its most potent weapons to accomplish that mission: Jack Ma.
    0 Comments 0 Shares 461 Views 0 Reviews
  • เรื่องเล่าจากแบตเตอรี่ 5,220mAh สู่ 8,000mAh: เมื่อเกมเมอร์ไม่รอให้ Nintendo แก้ปัญหาแบตหมดเร็ว

    แม้ Nintendo Switch 2 จะเปิดตัวพร้อมหน้าจอ 7.9 นิ้ว 120Hz LCD และ Joy-Con ที่แข็งแรงขึ้น แต่ปัญหาเรื่องแบตเตอรี่ยังคงเป็นจุดอ่อน โดยเฉพาะเมื่อเล่นเกมหนัก ๆ อย่าง Cyberpunk 2077 ที่กินพลังงานสูงมาก

    นักโมดิฟายชื่อ naga ได้โพสต์วิดีโอบน YouTube แสดงขั้นตอนการเปลี่ยนแบตเตอรี่จากรุ่นมาตรฐาน 5,220mAh เป็นรุ่นใหญ่ 8,000mAh โดยใช้แบตที่หาซื้อได้จาก Goofish ซึ่งเป็นแพลตฟอร์มของ Alibaba ในราคาต่ำกว่า $40

    ขั้นตอนการเปลี่ยนแบตต้องถอดฝาหลัง, แผ่นโลหะ, และใช้แอลกอฮอล์ละลายกาวใต้แบต ก่อนจะใส่แบตใหม่ที่ใหญ่กว่า ซึ่งต้องตัดแต่งโครงโลหะและแผ่นป้องกันเพื่อให้พอดี

    ผลการทดสอบพบว่า Cyberpunk 2077 ที่รันที่ 40Hz เล่นได้นานขึ้นจาก 2 ชั่วโมง 18 นาที เป็น 3 ชั่วโมง 25 นาที—เพิ่มขึ้นกว่า 1 ชั่วโมง ซึ่งถือว่าเยอะมากสำหรับเกมที่กินแบตหนัก

    นอกจากนี้ยังมีทางเลือกอื่น เช่น Ice Mag battery pack ขนาด 10,000mAh ที่ใช้ภายนอกร่วมกับเคส Genki Attack Vector ซึ่งสามารถเพิ่มเวลาเล่นได้ถึง 5 ชั่วโมง โดยไม่ต้องแกะเครื่องเลย

    การเปลี่ยนแบตเตอรี่ภายใน Switch 2
    เปลี่ยนจากแบต 5,220mAh เป็น 8,000mAh ด้วยแบตจาก Goofish ราคาต่ำกว่า $40
    ต้องถอดฝาหลัง ใช้แอลกอฮอล์ละลายกาว และตัดแต่งโครงโลหะ
    Cyberpunk 2077 เล่นได้นานขึ้นกว่า 1 ชั่วโมงหลังเปลี่ยนแบต

    ทางเลือกเสริมจากภายนอก
    Ice Mag battery pack ขนาด 10,000mAh เพิ่มเวลาเล่นได้ถึง 5 ชั่วโมง
    ใช้ร่วมกับเคส Genki Attack Vector ที่รองรับ MagSafe และปรับขนาดได้
    ไม่ต้องแกะเครื่องหรือ void warranty

    สเปกของ Switch 2 ที่เกี่ยวข้องกับแบต
    หน้าจอ 7.9 นิ้ว 120Hz LCD ใช้พลังงานมากกว่ารุ่นก่อน
    Joy-Con ใหม่แข็งแรงขึ้น แต่ไม่ได้ช่วยเรื่องประหยัดพลังงาน
    Nintendo เคลมว่าแบตใหญ่ขึ้น แต่ผลทดสอบยังไม่ประทับใจ

    https://www.tomshardware.com/video-games/nintendo/nintendo-switch-2-mod-adds-over-an-hour-of-playtime-with-bigger-8-000mah-battery-unit-replacement-battery-packs-sell-for-as-little-as-usd40
    🎙️ เรื่องเล่าจากแบตเตอรี่ 5,220mAh สู่ 8,000mAh: เมื่อเกมเมอร์ไม่รอให้ Nintendo แก้ปัญหาแบตหมดเร็ว แม้ Nintendo Switch 2 จะเปิดตัวพร้อมหน้าจอ 7.9 นิ้ว 120Hz LCD และ Joy-Con ที่แข็งแรงขึ้น แต่ปัญหาเรื่องแบตเตอรี่ยังคงเป็นจุดอ่อน โดยเฉพาะเมื่อเล่นเกมหนัก ๆ อย่าง Cyberpunk 2077 ที่กินพลังงานสูงมาก นักโมดิฟายชื่อ naga ได้โพสต์วิดีโอบน YouTube แสดงขั้นตอนการเปลี่ยนแบตเตอรี่จากรุ่นมาตรฐาน 5,220mAh เป็นรุ่นใหญ่ 8,000mAh โดยใช้แบตที่หาซื้อได้จาก Goofish ซึ่งเป็นแพลตฟอร์มของ Alibaba ในราคาต่ำกว่า $40 ขั้นตอนการเปลี่ยนแบตต้องถอดฝาหลัง, แผ่นโลหะ, และใช้แอลกอฮอล์ละลายกาวใต้แบต ก่อนจะใส่แบตใหม่ที่ใหญ่กว่า ซึ่งต้องตัดแต่งโครงโลหะและแผ่นป้องกันเพื่อให้พอดี ผลการทดสอบพบว่า Cyberpunk 2077 ที่รันที่ 40Hz เล่นได้นานขึ้นจาก 2 ชั่วโมง 18 นาที เป็น 3 ชั่วโมง 25 นาที—เพิ่มขึ้นกว่า 1 ชั่วโมง ซึ่งถือว่าเยอะมากสำหรับเกมที่กินแบตหนัก นอกจากนี้ยังมีทางเลือกอื่น เช่น Ice Mag battery pack ขนาด 10,000mAh ที่ใช้ภายนอกร่วมกับเคส Genki Attack Vector ซึ่งสามารถเพิ่มเวลาเล่นได้ถึง 5 ชั่วโมง โดยไม่ต้องแกะเครื่องเลย ✅ การเปลี่ยนแบตเตอรี่ภายใน Switch 2 ➡️ เปลี่ยนจากแบต 5,220mAh เป็น 8,000mAh ด้วยแบตจาก Goofish ราคาต่ำกว่า $40 ➡️ ต้องถอดฝาหลัง ใช้แอลกอฮอล์ละลายกาว และตัดแต่งโครงโลหะ ➡️ Cyberpunk 2077 เล่นได้นานขึ้นกว่า 1 ชั่วโมงหลังเปลี่ยนแบต ✅ ทางเลือกเสริมจากภายนอก ➡️ Ice Mag battery pack ขนาด 10,000mAh เพิ่มเวลาเล่นได้ถึง 5 ชั่วโมง ➡️ ใช้ร่วมกับเคส Genki Attack Vector ที่รองรับ MagSafe และปรับขนาดได้ ➡️ ไม่ต้องแกะเครื่องหรือ void warranty ✅ สเปกของ Switch 2 ที่เกี่ยวข้องกับแบต ➡️ หน้าจอ 7.9 นิ้ว 120Hz LCD ใช้พลังงานมากกว่ารุ่นก่อน ➡️ Joy-Con ใหม่แข็งแรงขึ้น แต่ไม่ได้ช่วยเรื่องประหยัดพลังงาน ➡️ Nintendo เคลมว่าแบตใหญ่ขึ้น แต่ผลทดสอบยังไม่ประทับใจ https://www.tomshardware.com/video-games/nintendo/nintendo-switch-2-mod-adds-over-an-hour-of-playtime-with-bigger-8-000mah-battery-unit-replacement-battery-packs-sell-for-as-little-as-usd40
    0 Comments 0 Shares 284 Views 0 Reviews
  • เรื่องเล่าจาก LongCat ถึง Xiaomei: เมื่อ AI กลายเป็นพนักงานส่งอาหารที่พูดได้และคิดแทนคุณ

    Meituan ซึ่งเป็นหนึ่งในแพลตฟอร์มส่งอาหารและบริการท้องถิ่นที่ใหญ่ที่สุดในจีน ได้เปิดตัว “Xiaomei” แอปผู้ช่วย AI ที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า LongCat โดย Xiaomei สามารถรับคำสั่งเสียงจากผู้ใช้เพื่อสั่งอาหาร จองร้านอาหาร และแนะนำเมนูที่เหมาะกับความชอบของแต่ละคนได้แบบเรียลไทม์2

    LongCat ไม่ใช่แค่โมเดลทั่วไป แต่เป็นโมเดลขนาดมหึมาที่มีพารามิเตอร์ถึง 560 พันล้านตัว และใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่เปิดใช้งานเฉพาะส่วนที่จำเป็นในแต่ละบริบท ทำให้สามารถให้คำตอบได้เร็วและแม่นยำโดยใช้พลังงานน้อยลง

    การเปิดตัว Xiaomei เป็นการตอบโต้โดยตรงต่อการรุกคืบของ Alibaba ที่เพิ่งปรับปรุงระบบแผนที่และแนะนำร้านอาหารด้วย AI เช่นกัน รวมถึง JD.com ที่กำลังลงทุนหนักในบริการส่งอาหารแบบทันใจ

    แม้ Meituan จะได้เปรียบในด้านฐานผู้ใช้กว่า 770 ล้านคนต่อปี แต่การแข่งขันที่รุนแรงทำให้ทุกบริษัทต้องทุ่มงบมหาศาล เช่น Alibaba ที่เพิ่งประกาศงบส่งเสริมการขายกว่า 140 ล้านดอลลาร์ในสัปดาห์เดียว เพื่อดึงดูดผู้ใช้ใหม่

    นักวิเคราะห์มองว่า Xiaomei เป็นตัวอย่างของการใช้ AI เพื่อเพิ่ม engagement และลดต้นทุนการบริการในระยะยาว แต่ก็เตือนว่าการแข่งขันที่รุนแรงอาจทำให้กำไรของทุกฝ่ายลดลง แม้ผู้ใช้จะได้ประโยชน์จากบริการที่ดีขึ้นก็ตาม

    การเปิดตัว Xiaomei โดย Meituan
    เป็น AI agent ที่ใช้สั่งอาหาร จองร้าน และแนะนำเมนูผ่านเสียง
    ขับเคลื่อนด้วยโมเดล LongCat ที่พัฒนาโดย Meituan เอง
    ใช้เทคโนโลยี MoE เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน

    ความสามารถของ LongCat
    มีพารามิเตอร์ 560 พันล้านตัว
    ใช้ dynamic computation เปิดใช้งานเฉพาะส่วนที่จำเป็น
    ออกแบบให้รองรับข้อความยาวและตอบสนองเร็ว

    การแข่งขันในตลาดส่งอาหารจีน
    Alibaba ปรับปรุงระบบแผนที่และแนะนำร้านด้วย AI
    JD.com ลงทุนหนักในบริการส่งอาหารทันใจ
    Meituan มีฐานผู้ใช้กว่า 770 ล้านคนต่อปี

    ผลกระทบต่อธุรกิจและผู้บริโภค
    ผู้ใช้ได้รับบริการที่ฉลาดขึ้นและสะดวกขึ้น
    บริษัทต้องลงทุนมหาศาลเพื่อรักษาส่วนแบ่งตลาด
    การใช้ AI อาจช่วยลดต้นทุนในระยะยาว

    https://www.thestar.com.my/tech/tech-news/2025/09/12/meituan-launches-ai-agent-to-boost-food-delivery-business
    🎙️ เรื่องเล่าจาก LongCat ถึง Xiaomei: เมื่อ AI กลายเป็นพนักงานส่งอาหารที่พูดได้และคิดแทนคุณ Meituan ซึ่งเป็นหนึ่งในแพลตฟอร์มส่งอาหารและบริการท้องถิ่นที่ใหญ่ที่สุดในจีน ได้เปิดตัว “Xiaomei” แอปผู้ช่วย AI ที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า LongCat โดย Xiaomei สามารถรับคำสั่งเสียงจากผู้ใช้เพื่อสั่งอาหาร จองร้านอาหาร และแนะนำเมนูที่เหมาะกับความชอบของแต่ละคนได้แบบเรียลไทม์2 LongCat ไม่ใช่แค่โมเดลทั่วไป แต่เป็นโมเดลขนาดมหึมาที่มีพารามิเตอร์ถึง 560 พันล้านตัว และใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่เปิดใช้งานเฉพาะส่วนที่จำเป็นในแต่ละบริบท ทำให้สามารถให้คำตอบได้เร็วและแม่นยำโดยใช้พลังงานน้อยลง การเปิดตัว Xiaomei เป็นการตอบโต้โดยตรงต่อการรุกคืบของ Alibaba ที่เพิ่งปรับปรุงระบบแผนที่และแนะนำร้านอาหารด้วย AI เช่นกัน รวมถึง JD.com ที่กำลังลงทุนหนักในบริการส่งอาหารแบบทันใจ แม้ Meituan จะได้เปรียบในด้านฐานผู้ใช้กว่า 770 ล้านคนต่อปี แต่การแข่งขันที่รุนแรงทำให้ทุกบริษัทต้องทุ่มงบมหาศาล เช่น Alibaba ที่เพิ่งประกาศงบส่งเสริมการขายกว่า 140 ล้านดอลลาร์ในสัปดาห์เดียว เพื่อดึงดูดผู้ใช้ใหม่ นักวิเคราะห์มองว่า Xiaomei เป็นตัวอย่างของการใช้ AI เพื่อเพิ่ม engagement และลดต้นทุนการบริการในระยะยาว แต่ก็เตือนว่าการแข่งขันที่รุนแรงอาจทำให้กำไรของทุกฝ่ายลดลง แม้ผู้ใช้จะได้ประโยชน์จากบริการที่ดีขึ้นก็ตาม ✅ การเปิดตัว Xiaomei โดย Meituan ➡️ เป็น AI agent ที่ใช้สั่งอาหาร จองร้าน และแนะนำเมนูผ่านเสียง ➡️ ขับเคลื่อนด้วยโมเดล LongCat ที่พัฒนาโดย Meituan เอง ➡️ ใช้เทคโนโลยี MoE เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน ✅ ความสามารถของ LongCat ➡️ มีพารามิเตอร์ 560 พันล้านตัว ➡️ ใช้ dynamic computation เปิดใช้งานเฉพาะส่วนที่จำเป็น ➡️ ออกแบบให้รองรับข้อความยาวและตอบสนองเร็ว ✅ การแข่งขันในตลาดส่งอาหารจีน ➡️ Alibaba ปรับปรุงระบบแผนที่และแนะนำร้านด้วย AI ➡️ JD.com ลงทุนหนักในบริการส่งอาหารทันใจ ➡️ Meituan มีฐานผู้ใช้กว่า 770 ล้านคนต่อปี ✅ ผลกระทบต่อธุรกิจและผู้บริโภค ➡️ ผู้ใช้ได้รับบริการที่ฉลาดขึ้นและสะดวกขึ้น ➡️ บริษัทต้องลงทุนมหาศาลเพื่อรักษาส่วนแบ่งตลาด ➡️ การใช้ AI อาจช่วยลดต้นทุนในระยะยาว https://www.thestar.com.my/tech/tech-news/2025/09/12/meituan-launches-ai-agent-to-boost-food-delivery-business
    WWW.THESTAR.COM.MY
    Meituan launches AI agent to boost food delivery business
    Meituan has launched a new AI agent app that aims to boost its food delivery and local services business, as its battle with Alibaba Group Holding Ltd for Chinese consumers heats up.
    0 Comments 0 Shares 357 Views 0 Reviews
  • เรื่องเล่าจาก Qwen3 สู่ Qwen3-Next: เมื่อโมเดล 80B ทำงานได้เท่ากับ 235B โดยใช้พลังแค่ 3B

    ในเดือนกันยายน 2025 ทีม Qwen จาก Alibaba ได้เปิดตัวสถาปัตยกรรมใหม่ชื่อว่า Qwen3-Next ซึ่งเป็นการพัฒนาโมเดลขนาดใหญ่ที่เน้น “ประสิทธิภาพต่อพารามิเตอร์” และ “ความเร็วในการประมวลผลข้อความยาว” โดยใช้แนวคิดใหม่ทั้งในด้าน attention, sparsity และการพยากรณ์หลาย token พร้อมกัน

    Qwen3-Next มีพารามิเตอร์รวม 80 พันล้าน แต่เปิดใช้งานจริงเพียง 3 พันล้านระหว่างการ inference ซึ่งทำให้สามารถเทียบเคียงกับ Qwen3-235B ได้ในหลายงาน โดยใช้ต้นทุนการฝึกเพียง 9.3% ของ Qwen3-32B2

    หัวใจของ Qwen3-Next คือการผสมผสานระหว่าง Gated DeltaNet (linear attention ที่เร็วแต่แม่น) กับ standard attention (ที่แม่นแต่ช้า) ในอัตราส่วน 3:1 พร้อมเพิ่ม gating, rotary encoding แบบบางส่วน และการขยายขนาด head dimension เพื่อรองรับข้อความยาวถึง 256K tokens ได้อย่างเสถียร

    ในส่วนของ MoE (Mixture-of-Experts) Qwen3-Next ใช้โครงสร้าง ultra-sparse โดยมี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ซึ่งทำให้ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่าเมื่อเทียบกับรุ่นก่อน

    นอกจากนี้ยังมีการออกแบบเพื่อความเสถียร เช่น Zero-Centered RMSNorm, weight decay เฉพาะ norm weights และการ normalize router parameters ตั้งแต่เริ่มต้น เพื่อให้การฝึกมีความนิ่งและไม่เกิดปัญหา activation ผิดปกติ

    Qwen3-Next ยังมาพร้อม Multi-Token Prediction (MTP) ที่ช่วยให้การ inference แบบ speculative decoding มีความแม่นยำและเร็วขึ้น โดยสามารถใช้งานผ่าน Hugging Face, ModelScope, SGLang และ vLLM ได้ทันที

    สถาปัตยกรรมใหม่ของ Qwen3-Next
    ใช้ hybrid attention: Gated DeltaNet + standard attention (อัตราส่วน 3:1)
    เพิ่ม gating, rotary encoding เฉพาะ 25% ของ position dimension
    ขยาย head dimension จาก 128 เป็น 256 เพื่อรองรับข้อความยาว

    โครงสร้าง MoE แบบ ultra-sparse
    มี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step
    ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่า
    ใช้ global load balancing เพื่อเพิ่มประสิทธิภาพการฝึก

    การออกแบบเพื่อความเสถียรในการฝึก
    ใช้ Zero-Centered RMSNorm แทน QK-Norm
    เพิ่ม weight decay เฉพาะ norm weights เพื่อป้องกันการโตผิดปกติ
    normalize router parameters ตั้งแต่เริ่มต้นเพื่อความนิ่ง

    ประสิทธิภาพของโมเดล
    Qwen3-Next-80B-A3B-Base เทียบเท่าหรือดีกว่า Qwen3-32B โดยใช้พลังแค่ 10%
    Qwen3-Next-Instruct เทียบเคียง Qwen3-235B-A22B-Instruct-2507 ในงาน context ยาว
    Qwen3-Next-Thinking ชนะ Gemini-2.5-Flash-Thinking ในหลาย benchmark

    การใช้งานและ deployment
    รองรับ context สูงสุด 256K tokens และสามารถขยายถึง 1M ด้วยเทคนิค YaRN
    ใช้งานผ่าน Hugging Face, ModelScope, SGLang, vLLM ได้ทันที
    รองรับ speculative decoding ผ่าน MTP module

    https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
    🎙️ เรื่องเล่าจาก Qwen3 สู่ Qwen3-Next: เมื่อโมเดล 80B ทำงานได้เท่ากับ 235B โดยใช้พลังแค่ 3B ในเดือนกันยายน 2025 ทีม Qwen จาก Alibaba ได้เปิดตัวสถาปัตยกรรมใหม่ชื่อว่า Qwen3-Next ซึ่งเป็นการพัฒนาโมเดลขนาดใหญ่ที่เน้น “ประสิทธิภาพต่อพารามิเตอร์” และ “ความเร็วในการประมวลผลข้อความยาว” โดยใช้แนวคิดใหม่ทั้งในด้าน attention, sparsity และการพยากรณ์หลาย token พร้อมกัน Qwen3-Next มีพารามิเตอร์รวม 80 พันล้าน แต่เปิดใช้งานจริงเพียง 3 พันล้านระหว่างการ inference ซึ่งทำให้สามารถเทียบเคียงกับ Qwen3-235B ได้ในหลายงาน โดยใช้ต้นทุนการฝึกเพียง 9.3% ของ Qwen3-32B2 หัวใจของ Qwen3-Next คือการผสมผสานระหว่าง Gated DeltaNet (linear attention ที่เร็วแต่แม่น) กับ standard attention (ที่แม่นแต่ช้า) ในอัตราส่วน 3:1 พร้อมเพิ่ม gating, rotary encoding แบบบางส่วน และการขยายขนาด head dimension เพื่อรองรับข้อความยาวถึง 256K tokens ได้อย่างเสถียร ในส่วนของ MoE (Mixture-of-Experts) Qwen3-Next ใช้โครงสร้าง ultra-sparse โดยมี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ซึ่งทำให้ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่าเมื่อเทียบกับรุ่นก่อน นอกจากนี้ยังมีการออกแบบเพื่อความเสถียร เช่น Zero-Centered RMSNorm, weight decay เฉพาะ norm weights และการ normalize router parameters ตั้งแต่เริ่มต้น เพื่อให้การฝึกมีความนิ่งและไม่เกิดปัญหา activation ผิดปกติ Qwen3-Next ยังมาพร้อม Multi-Token Prediction (MTP) ที่ช่วยให้การ inference แบบ speculative decoding มีความแม่นยำและเร็วขึ้น โดยสามารถใช้งานผ่าน Hugging Face, ModelScope, SGLang และ vLLM ได้ทันที ✅ สถาปัตยกรรมใหม่ของ Qwen3-Next ➡️ ใช้ hybrid attention: Gated DeltaNet + standard attention (อัตราส่วน 3:1) ➡️ เพิ่ม gating, rotary encoding เฉพาะ 25% ของ position dimension ➡️ ขยาย head dimension จาก 128 เป็น 256 เพื่อรองรับข้อความยาว ✅ โครงสร้าง MoE แบบ ultra-sparse ➡️ มี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ➡️ ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่า ➡️ ใช้ global load balancing เพื่อเพิ่มประสิทธิภาพการฝึก ✅ การออกแบบเพื่อความเสถียรในการฝึก ➡️ ใช้ Zero-Centered RMSNorm แทน QK-Norm ➡️ เพิ่ม weight decay เฉพาะ norm weights เพื่อป้องกันการโตผิดปกติ ➡️ normalize router parameters ตั้งแต่เริ่มต้นเพื่อความนิ่ง ✅ ประสิทธิภาพของโมเดล ➡️ Qwen3-Next-80B-A3B-Base เทียบเท่าหรือดีกว่า Qwen3-32B โดยใช้พลังแค่ 10% ➡️ Qwen3-Next-Instruct เทียบเคียง Qwen3-235B-A22B-Instruct-2507 ในงาน context ยาว ➡️ Qwen3-Next-Thinking ชนะ Gemini-2.5-Flash-Thinking ในหลาย benchmark ✅ การใช้งานและ deployment ➡️ รองรับ context สูงสุด 256K tokens และสามารถขยายถึง 1M ด้วยเทคนิค YaRN ➡️ ใช้งานผ่าน Hugging Face, ModelScope, SGLang, vLLM ได้ทันที ➡️ รองรับ speculative decoding ผ่าน MTP module https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
    0 Comments 0 Shares 329 Views 0 Reviews
  • เรื่องเล่าจากโน้ตบุ๊กธรรมดาถึง MAX16: เมื่อผู้ผลิตจีนกล้าทำสิ่งที่แบรนด์ใหญ่ยังไม่กล้าขาย

    ผู้ผลิตจากจีนเปิดตัวแล็ปท็อปสามจอรุ่นใหม่ที่มีชื่อเรียกไม่แน่นอน—บางแห่งเรียกว่า MAX16 บางแห่งไม่มีชื่อเลย—โดยวางขายผ่านแพลตฟอร์มอย่าง Aliexpress และ Alibaba ด้วยราคาที่เริ่มต้นเพียง $700 สำหรับรุ่น Core i7-1260P และสูงสุดประมาณ $1,200 สำหรับรุ่น Core i7-1270P

    ตัวเครื่องประกอบด้วยหน้าจอหลักขนาด 16 นิ้ว และจอเสริมสองข้างขนาด 10.5 นิ้ว ซึ่งพับเก็บได้ผ่านบานพับแบบฝัง ทำให้เมื่อกางออกจะได้พื้นที่ใช้งานเทียบเท่าจอขนาด 29.5 นิ้ว เหมาะกับงานที่ต้องเปิดหลายหน้าต่างพร้อมกัน เช่น coding, data analysis หรือการเทรดหุ้น

    แม้จะดูใหญ่ แต่ขนาดเมื่อพับเก็บอยู่ที่ 374 × 261 × 28 มม. และน้ำหนัก 2.6 กก.—หนักกว่าคอมทั่วไป แต่เบากว่าการพกโน้ตบุ๊กพร้อมจอเสริมสองตัว

    สเปกภายในถือว่า “กลาง ๆ” โดยใช้ Intel Core i7 Gen 12 (P-series), RAM DDR4 สูงสุด 64GB, SSD PCIe 4.0 และแบตเตอรี่ 77Wh พร้อมพอร์ตครบครัน เช่น USB-A, USB-C, HDMI, LAN และช่องหูฟัง 3.5 มม.

    จุดที่น่าสนใจคือมีการระบุว่า “รองรับ eGPU” แต่ไม่มีพอร์ต Thunderbolt, USB4 หรือ OCuLink ทำให้การใช้งานจริงอาจต้องใช้ dock ผ่าน M.2 slot ซึ่งไม่สะดวกและอาจไม่เสถียรนัก

    นอกจากนี้ยังมีความคลุมเครือในข้อมูล เช่น บางหน้าระบุว่าใช้ Wi-Fi 6 แต่บางแห่งไม่ระบุเลย และชื่อรุ่นก็ไม่ชัดเจน ทำให้ผู้ซื้ออาจต้องเสี่ยงกับความไม่แน่นอนของสินค้า

    สเปกและการออกแบบของแล็ปท็อปสามจอ
    หน้าจอหลัก 16 นิ้ว + จอเสริม 10.5 นิ้ว × 2 = พื้นที่ใช้งาน 29.5 นิ้ว
    ขนาดเมื่อพับ 374 × 261 × 28 มม. น้ำหนัก 2.6 กก.
    ใช้ Intel Core i7-1260P หรือ i7-1270P, RAM DDR4 สูงสุด 64GB

    ฟีเจอร์และการใช้งาน
    รองรับ PCIe 4.0 SSD ผ่าน M.2 2280 slot
    แบตเตอรี่ 77Wh ใช้งานได้ประมาณ 8 ชั่วโมง
    มีพอร์ต USB-A × 3, USB-C × 1, HDMI, LAN, ช่องหูฟัง และ fingerprint scanner

    ความน่าสนใจด้านราคา
    เริ่มต้นที่ $700 สำหรับรุ่น i7-1260P
    รุ่นสูงสุด i7-1270P อยู่ที่ประมาณ $1,200
    ถือว่าราคาถูกมากเมื่อเทียบกับโน้ตบุ๊กที่มีจอเสริมในตัว

    https://www.techradar.com/pro/crazy-laptop-manufacturer-designed-the-best-3-screen-notebook-ever-and-it-is-far-cheaper-than-youd-expect-i-want-one
    🎙️ เรื่องเล่าจากโน้ตบุ๊กธรรมดาถึง MAX16: เมื่อผู้ผลิตจีนกล้าทำสิ่งที่แบรนด์ใหญ่ยังไม่กล้าขาย ผู้ผลิตจากจีนเปิดตัวแล็ปท็อปสามจอรุ่นใหม่ที่มีชื่อเรียกไม่แน่นอน—บางแห่งเรียกว่า MAX16 บางแห่งไม่มีชื่อเลย—โดยวางขายผ่านแพลตฟอร์มอย่าง Aliexpress และ Alibaba ด้วยราคาที่เริ่มต้นเพียง $700 สำหรับรุ่น Core i7-1260P และสูงสุดประมาณ $1,200 สำหรับรุ่น Core i7-1270P ตัวเครื่องประกอบด้วยหน้าจอหลักขนาด 16 นิ้ว และจอเสริมสองข้างขนาด 10.5 นิ้ว ซึ่งพับเก็บได้ผ่านบานพับแบบฝัง ทำให้เมื่อกางออกจะได้พื้นที่ใช้งานเทียบเท่าจอขนาด 29.5 นิ้ว เหมาะกับงานที่ต้องเปิดหลายหน้าต่างพร้อมกัน เช่น coding, data analysis หรือการเทรดหุ้น แม้จะดูใหญ่ แต่ขนาดเมื่อพับเก็บอยู่ที่ 374 × 261 × 28 มม. และน้ำหนัก 2.6 กก.—หนักกว่าคอมทั่วไป แต่เบากว่าการพกโน้ตบุ๊กพร้อมจอเสริมสองตัว สเปกภายในถือว่า “กลาง ๆ” โดยใช้ Intel Core i7 Gen 12 (P-series), RAM DDR4 สูงสุด 64GB, SSD PCIe 4.0 และแบตเตอรี่ 77Wh พร้อมพอร์ตครบครัน เช่น USB-A, USB-C, HDMI, LAN และช่องหูฟัง 3.5 มม. จุดที่น่าสนใจคือมีการระบุว่า “รองรับ eGPU” แต่ไม่มีพอร์ต Thunderbolt, USB4 หรือ OCuLink ทำให้การใช้งานจริงอาจต้องใช้ dock ผ่าน M.2 slot ซึ่งไม่สะดวกและอาจไม่เสถียรนัก นอกจากนี้ยังมีความคลุมเครือในข้อมูล เช่น บางหน้าระบุว่าใช้ Wi-Fi 6 แต่บางแห่งไม่ระบุเลย และชื่อรุ่นก็ไม่ชัดเจน ทำให้ผู้ซื้ออาจต้องเสี่ยงกับความไม่แน่นอนของสินค้า ✅ สเปกและการออกแบบของแล็ปท็อปสามจอ ➡️ หน้าจอหลัก 16 นิ้ว + จอเสริม 10.5 นิ้ว × 2 = พื้นที่ใช้งาน 29.5 นิ้ว ➡️ ขนาดเมื่อพับ 374 × 261 × 28 มม. น้ำหนัก 2.6 กก. ➡️ ใช้ Intel Core i7-1260P หรือ i7-1270P, RAM DDR4 สูงสุด 64GB ✅ ฟีเจอร์และการใช้งาน ➡️ รองรับ PCIe 4.0 SSD ผ่าน M.2 2280 slot ➡️ แบตเตอรี่ 77Wh ใช้งานได้ประมาณ 8 ชั่วโมง ➡️ มีพอร์ต USB-A × 3, USB-C × 1, HDMI, LAN, ช่องหูฟัง และ fingerprint scanner ✅ ความน่าสนใจด้านราคา ➡️ เริ่มต้นที่ $700 สำหรับรุ่น i7-1260P ➡️ รุ่นสูงสุด i7-1270P อยู่ที่ประมาณ $1,200 ➡️ ถือว่าราคาถูกมากเมื่อเทียบกับโน้ตบุ๊กที่มีจอเสริมในตัว https://www.techradar.com/pro/crazy-laptop-manufacturer-designed-the-best-3-screen-notebook-ever-and-it-is-far-cheaper-than-youd-expect-i-want-one
    0 Comments 0 Shares 307 Views 0 Reviews
  • เรื่องเล่าจาก 9-9-6 ถึง 0-0-7: เมื่อความขยันกลายเป็นเครื่องมือกดดันมากกว่าความภาคภูมิใจ

    Armin Ronacher นักพัฒนาโอเพ่นซอร์สชื่อดังเขียนบทความสะท้อนถึงวัฒนธรรม “996” หรือการทำงานตั้งแต่ 9 โมงเช้าถึง 3 ทุ่ม 6 วันต่อสัปดาห์ ซึ่งเคยถูกมองว่าเป็น “สูตรลับ” ของความสำเร็จในวงการสตาร์ทอัพ โดยเฉพาะในจีน

    เขาเล่าว่าแม้ตัวเองจะรักการทำงานดึก รักการเขียนโค้ด และเคยทำงานจนไม่ได้นอนก่อนเที่ยงคืนเลยตลอดสัปดาห์ แต่เขาก็รักครอบครัว รักการเดินเล่น และการสนทนาอย่างลึกซึ้ง—สิ่งที่ไม่มีทางเกิดขึ้นได้ในชีวิตที่ถูกกำหนดด้วย 72 ชั่วโมงต่อสัปดาห์

    Ronacher เตือนว่าแม้ผู้ก่อตั้งบริษัทจะมีแรงจูงใจสูง แต่การผลักดันให้พนักงานทำงานแบบ 996 โดยไม่มีอำนาจหรือผลตอบแทนเท่ากันนั้น “ไม่รับผิดชอบ” และไม่ควรเป็นวัฒนธรรมองค์กร

    เขาย้ำว่า “ความเข้มข้น” ในการทำงานไม่ควรวัดจากจำนวนชั่วโมง แต่จากผลลัพธ์ที่สร้างได้ และการทำงานหนักควรเป็น “ทางเลือกส่วนตัว” ไม่ใช่ “ข้อบังคับทางวัฒนธรรม”

    ในขณะเดียวกัน บทวิเคราะห์จาก Forbes และ CNBC ก็ชี้ว่า 996 กำลังถูกนำมาใช้ในสหรัฐฯ โดยบางบริษัทสตาร์ทอัพในซิลิคอนวัลเลย์เริ่มใช้เป็น “ตัวกรอง” ในการคัดเลือกพนักงาน โดยถามตรง ๆ ว่า “คุณพร้อมทำงาน 996 ไหม”

    แม้จะถูกมองว่าเป็นกลยุทธ์เร่งการเติบโต แต่ผลกระทบกลับรุนแรง ทั้งด้านสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออกที่สูงขึ้น โดยเฉพาะในทีมเล็กที่การเสียคนหนึ่งอาจทำให้ทั้งโปรเจกต์หยุดชะงัก

    ในจีนเอง แม้ 996 จะเคยถูกยกย่องโดยผู้ก่อตั้งอย่าง Jack Ma ว่าเป็น “พร” แต่ตอนนี้เริ่มมีการต่อต้านมากขึ้น โดยศาลสูงสุดของจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน และนักวิชาการบางคนถึงกับเปรียบเทียบว่าเป็น “แรงงานกึ่งบังคับ”

    ความหมายและต้นกำเนิดของวัฒนธรรม 996
    หมายถึงการทำงาน 9am–9pm, 6 วันต่อสัปดาห์ รวม 72 ชั่วโมง
    เริ่มจากวงการเทคโนโลยีในจีน เช่น Alibaba, Huawei
    ถูกมองว่าเป็นสูตรเร่งการเติบโตของสตาร์ทอัพ

    มุมมองจาก Armin Ronacher
    รักการทำงานหนัก แต่ไม่สนับสนุนการบังคับให้คนอื่นทำแบบเดียวกัน
    ชี้ว่าความเข้มข้นควรวัดจากผลลัพธ์ ไม่ใช่จำนวนชั่วโมง
    การทำงานหนักควรเป็นทางเลือก ไม่ใช่วัฒนธรรมองค์กร

    การแพร่กระจายของ 996 สู่ตะวันตก
    บางบริษัทในสหรัฐฯ ใช้ 996 เป็นเกณฑ์คัดเลือกพนักงาน
    มีการโฆษณาในประกาศรับสมัครว่า “ต้องตื่นเต้นกับการทำงาน 70+ ชั่วโมง”
    ถูกมองว่าเป็น hustle culture ที่อาจย้อนกลับมาทำลายองค์กรเอง

    การต่อต้านและผลกระทบ
    ศาลจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน
    นักวิชาการเปรียบเทียบว่าเป็นแรงงานกึ่งบังคับ
    ส่งผลต่อสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออก

    https://lucumr.pocoo.org/2025/9/4/996/
    🎙️ เรื่องเล่าจาก 9-9-6 ถึง 0-0-7: เมื่อความขยันกลายเป็นเครื่องมือกดดันมากกว่าความภาคภูมิใจ Armin Ronacher นักพัฒนาโอเพ่นซอร์สชื่อดังเขียนบทความสะท้อนถึงวัฒนธรรม “996” หรือการทำงานตั้งแต่ 9 โมงเช้าถึง 3 ทุ่ม 6 วันต่อสัปดาห์ ซึ่งเคยถูกมองว่าเป็น “สูตรลับ” ของความสำเร็จในวงการสตาร์ทอัพ โดยเฉพาะในจีน เขาเล่าว่าแม้ตัวเองจะรักการทำงานดึก รักการเขียนโค้ด และเคยทำงานจนไม่ได้นอนก่อนเที่ยงคืนเลยตลอดสัปดาห์ แต่เขาก็รักครอบครัว รักการเดินเล่น และการสนทนาอย่างลึกซึ้ง—สิ่งที่ไม่มีทางเกิดขึ้นได้ในชีวิตที่ถูกกำหนดด้วย 72 ชั่วโมงต่อสัปดาห์ Ronacher เตือนว่าแม้ผู้ก่อตั้งบริษัทจะมีแรงจูงใจสูง แต่การผลักดันให้พนักงานทำงานแบบ 996 โดยไม่มีอำนาจหรือผลตอบแทนเท่ากันนั้น “ไม่รับผิดชอบ” และไม่ควรเป็นวัฒนธรรมองค์กร เขาย้ำว่า “ความเข้มข้น” ในการทำงานไม่ควรวัดจากจำนวนชั่วโมง แต่จากผลลัพธ์ที่สร้างได้ และการทำงานหนักควรเป็น “ทางเลือกส่วนตัว” ไม่ใช่ “ข้อบังคับทางวัฒนธรรม” ในขณะเดียวกัน บทวิเคราะห์จาก Forbes และ CNBC ก็ชี้ว่า 996 กำลังถูกนำมาใช้ในสหรัฐฯ โดยบางบริษัทสตาร์ทอัพในซิลิคอนวัลเลย์เริ่มใช้เป็น “ตัวกรอง” ในการคัดเลือกพนักงาน โดยถามตรง ๆ ว่า “คุณพร้อมทำงาน 996 ไหม” แม้จะถูกมองว่าเป็นกลยุทธ์เร่งการเติบโต แต่ผลกระทบกลับรุนแรง ทั้งด้านสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออกที่สูงขึ้น โดยเฉพาะในทีมเล็กที่การเสียคนหนึ่งอาจทำให้ทั้งโปรเจกต์หยุดชะงัก ในจีนเอง แม้ 996 จะเคยถูกยกย่องโดยผู้ก่อตั้งอย่าง Jack Ma ว่าเป็น “พร” แต่ตอนนี้เริ่มมีการต่อต้านมากขึ้น โดยศาลสูงสุดของจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน และนักวิชาการบางคนถึงกับเปรียบเทียบว่าเป็น “แรงงานกึ่งบังคับ” ✅ ความหมายและต้นกำเนิดของวัฒนธรรม 996 ➡️ หมายถึงการทำงาน 9am–9pm, 6 วันต่อสัปดาห์ รวม 72 ชั่วโมง ➡️ เริ่มจากวงการเทคโนโลยีในจีน เช่น Alibaba, Huawei ➡️ ถูกมองว่าเป็นสูตรเร่งการเติบโตของสตาร์ทอัพ ✅ มุมมองจาก Armin Ronacher ➡️ รักการทำงานหนัก แต่ไม่สนับสนุนการบังคับให้คนอื่นทำแบบเดียวกัน ➡️ ชี้ว่าความเข้มข้นควรวัดจากผลลัพธ์ ไม่ใช่จำนวนชั่วโมง ➡️ การทำงานหนักควรเป็นทางเลือก ไม่ใช่วัฒนธรรมองค์กร ✅ การแพร่กระจายของ 996 สู่ตะวันตก ➡️ บางบริษัทในสหรัฐฯ ใช้ 996 เป็นเกณฑ์คัดเลือกพนักงาน ➡️ มีการโฆษณาในประกาศรับสมัครว่า “ต้องตื่นเต้นกับการทำงาน 70+ ชั่วโมง” ➡️ ถูกมองว่าเป็น hustle culture ที่อาจย้อนกลับมาทำลายองค์กรเอง ✅ การต่อต้านและผลกระทบ ➡️ ศาลจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน ➡️ นักวิชาการเปรียบเทียบว่าเป็นแรงงานกึ่งบังคับ ➡️ ส่งผลต่อสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออก https://lucumr.pocoo.org/2025/9/4/996/
    LUCUMR.POCOO.ORG
    996
    There is cost to your lifestyle.
    0 Comments 0 Shares 548 Views 0 Reviews
  • เรื่องเล่าจาก Claude ถึง Zhipu: เมื่อการควบคุม AI ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นเรื่องของอำนาจและความไว้วางใจ

    Anthropic ผู้พัฒนา Claude AI ได้ประกาศอัปเดตเงื่อนไขการให้บริการเมื่อวันที่ 5 กันยายน 2025 โดยระบุว่าจะ “ปิดกั้นการเข้าถึง” Claude สำหรับบริษัทใดก็ตามที่มีโครงสร้างผู้ถือหุ้นเป็น “จีนถือหุ้นเกิน 50%” ไม่ว่าจะจดทะเบียนอยู่ที่ใดในโลกก็ตาม

    นี่ไม่ใช่การแบนผู้ใช้จากประเทศจีนโดยตรง แต่เป็นการตัดสิทธิ์ตาม ownership structure ซึ่งหมายความว่าแม้บริษัทจะตั้งอยู่ในสิงคโปร์ ฮ่องกง หรือยุโรป หากมีผู้ถือหุ้นจีนเป็นหลัก ก็จะถูกตัดออกจากการใช้งาน Claude ทันที

    Anthropic ระบุว่าเหตุผลหลักคือ “ความเสี่ยงด้านกฎหมาย กฎระเบียบ และความมั่นคง” โดยเฉพาะความกังวลว่ารัฐบาลจีนอาจบังคับให้บริษัทในเครือส่งข้อมูลกลับไปยังหน่วยข่าวกรองหรือกองทัพ ซึ่งอาจนำไปสู่การใช้ AI ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม

    ผลกระทบทางธุรกิจไม่เล็ก—Anthropic ยอมรับว่าจะสูญเสียรายได้ในระดับ “หลายร้อยล้านดอลลาร์” แต่ยืนยันว่าการป้องกันการใช้งานในบริบทที่เป็นภัยต่อความมั่นคงนั้นสำคัญกว่า

    ภายในไม่กี่ชั่วโมงหลังข่าวเผยแพร่ บริษัท Zhipu ซึ่งเป็นสตาร์ทอัพ AI จากจีน ได้เปิดตัว “Claude Migration Toolkit” ที่ช่วยให้ผู้ใช้สามารถย้ายจาก Claude ไปยัง GLM-4.5 ได้ทันที พร้อมแจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude ถึง 3 เท่า

    ก่อนหน้านี้ Alibaba ก็เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI ในจีน และตอนนี้ดูเหมือนว่าบริษัทจีนกำลังเร่งสร้าง ecosystem ของตัวเองเพื่อรับมือกับการถูกตัดออกจาก AI ระดับโลก

    การอัปเดตนโยบายของ Anthropic
    ปิดกั้นบริษัทที่มีผู้ถือหุ้นจีนเกิน 50% ไม่ว่าจดทะเบียนที่ใด
    ครอบคลุมถึงบริษัทแม่, บริษัทย่อย, และ joint ventures
    ใช้ ownership filter แทน geolocation เป็นครั้งแรกในวงการ AI

    เหตุผลด้านความมั่นคง
    กังวลว่ารัฐจีนอาจบังคับให้บริษัทส่งข้อมูลกลับไปยังหน่วยงานรัฐ
    เสี่ยงต่อการนำ AI ไปใช้ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม
    Anthropic ยืนยันว่าเป็นการป้องกันการใช้งานในบริบทที่เป็นภัย

    ผลกระทบทางธุรกิจ
    สูญเสียรายได้ระดับหลายร้อยล้านดอลลาร์
    กระทบผู้ใช้ในหลายประเทศที่มีโครงสร้างผู้ถือหุ้นจีน
    ยังไม่ชัดเจนว่าจะบังคับใช้นโยบายนี้ผ่าน cloud reseller อย่างไร

    การตอบสนองจากฝั่งจีน
    Zhipu เปิดตัว Claude Migration Toolkit พร้อม API GLM-4.5
    แจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude 3 เท่า
    Alibaba เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI

    https://www.tomshardware.com/tech-industry/anthropic-blocks-chinese-firms-from-claude
    🎙️ เรื่องเล่าจาก Claude ถึง Zhipu: เมื่อการควบคุม AI ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นเรื่องของอำนาจและความไว้วางใจ Anthropic ผู้พัฒนา Claude AI ได้ประกาศอัปเดตเงื่อนไขการให้บริการเมื่อวันที่ 5 กันยายน 2025 โดยระบุว่าจะ “ปิดกั้นการเข้าถึง” Claude สำหรับบริษัทใดก็ตามที่มีโครงสร้างผู้ถือหุ้นเป็น “จีนถือหุ้นเกิน 50%” ไม่ว่าจะจดทะเบียนอยู่ที่ใดในโลกก็ตาม นี่ไม่ใช่การแบนผู้ใช้จากประเทศจีนโดยตรง แต่เป็นการตัดสิทธิ์ตาม ownership structure ซึ่งหมายความว่าแม้บริษัทจะตั้งอยู่ในสิงคโปร์ ฮ่องกง หรือยุโรป หากมีผู้ถือหุ้นจีนเป็นหลัก ก็จะถูกตัดออกจากการใช้งาน Claude ทันที Anthropic ระบุว่าเหตุผลหลักคือ “ความเสี่ยงด้านกฎหมาย กฎระเบียบ และความมั่นคง” โดยเฉพาะความกังวลว่ารัฐบาลจีนอาจบังคับให้บริษัทในเครือส่งข้อมูลกลับไปยังหน่วยข่าวกรองหรือกองทัพ ซึ่งอาจนำไปสู่การใช้ AI ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม ผลกระทบทางธุรกิจไม่เล็ก—Anthropic ยอมรับว่าจะสูญเสียรายได้ในระดับ “หลายร้อยล้านดอลลาร์” แต่ยืนยันว่าการป้องกันการใช้งานในบริบทที่เป็นภัยต่อความมั่นคงนั้นสำคัญกว่า ภายในไม่กี่ชั่วโมงหลังข่าวเผยแพร่ บริษัท Zhipu ซึ่งเป็นสตาร์ทอัพ AI จากจีน ได้เปิดตัว “Claude Migration Toolkit” ที่ช่วยให้ผู้ใช้สามารถย้ายจาก Claude ไปยัง GLM-4.5 ได้ทันที พร้อมแจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude ถึง 3 เท่า ก่อนหน้านี้ Alibaba ก็เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI ในจีน และตอนนี้ดูเหมือนว่าบริษัทจีนกำลังเร่งสร้าง ecosystem ของตัวเองเพื่อรับมือกับการถูกตัดออกจาก AI ระดับโลก ✅ การอัปเดตนโยบายของ Anthropic ➡️ ปิดกั้นบริษัทที่มีผู้ถือหุ้นจีนเกิน 50% ไม่ว่าจดทะเบียนที่ใด ➡️ ครอบคลุมถึงบริษัทแม่, บริษัทย่อย, และ joint ventures ➡️ ใช้ ownership filter แทน geolocation เป็นครั้งแรกในวงการ AI ✅ เหตุผลด้านความมั่นคง ➡️ กังวลว่ารัฐจีนอาจบังคับให้บริษัทส่งข้อมูลกลับไปยังหน่วยงานรัฐ ➡️ เสี่ยงต่อการนำ AI ไปใช้ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม ➡️ Anthropic ยืนยันว่าเป็นการป้องกันการใช้งานในบริบทที่เป็นภัย ✅ ผลกระทบทางธุรกิจ ➡️ สูญเสียรายได้ระดับหลายร้อยล้านดอลลาร์ ➡️ กระทบผู้ใช้ในหลายประเทศที่มีโครงสร้างผู้ถือหุ้นจีน ➡️ ยังไม่ชัดเจนว่าจะบังคับใช้นโยบายนี้ผ่าน cloud reseller อย่างไร ✅ การตอบสนองจากฝั่งจีน ➡️ Zhipu เปิดตัว Claude Migration Toolkit พร้อม API GLM-4.5 ➡️ แจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude 3 เท่า ➡️ Alibaba เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI https://www.tomshardware.com/tech-industry/anthropic-blocks-chinese-firms-from-claude
    WWW.TOMSHARDWARE.COM
    Anthropic blocks Chinese-controlled firms from Claude AI — cites 'legal, regulatory, and security risks'
    Anthropic says that it wants to ensure that “authoritarian” and “adversarial” regimes cannot access its models.
    0 Comments 0 Shares 393 Views 0 Reviews
More Results