• จีนเร่งใช้ชิป AI พัฒนาเอง หลังถูกจำกัดการนำเข้า

    รัฐบาลจีนเริ่มเข้ามากำกับดูแลการจัดสรรชิป AI ระดับสูง เนื่องจากข้อจำกัดการส่งออกจากสหรัฐฯ ทำให้เกิดการขาดแคลน GPU ของ Nvidia บริษัทคลาวด์รายใหญ่ในจีน เช่น Alibaba และ Baidu จึงหันมาใช้ชิปที่ผลิตเอง เช่น Huawei Ascend 910B และรุ่นใหม่ 910C ซึ่งแม้จะไม่แรงเท่า Nvidia แต่ก็ถูกนำมาใช้จริงในงานฝึกโมเดล AI ขนาดใหญ่

    การเปลี่ยนแปลงนี้ทำให้จีนต้องเขียนซอฟต์แวร์ใหม่และปรับโครงสร้างงานให้เข้ากับชิปที่ยังไม่สมบูรณ์แบบนัก ปัญหาที่ตามมาคือแบนด์วิดท์หน่วยความจำที่ยังไม่เพียงพอ และการผลิต HBM ในประเทศยังไม่สามารถรองรับได้เต็มที่ อย่างไรก็ตาม การผลักดันนี้ถือเป็นก้าวสำคัญที่ทำให้จีนลดการพึ่งพาต่างชาติ

    นอกจากนั้นยังมีการใช้วิธีเลี่ยง เช่น การนำชิป Nvidia มือสองเข้ามา หรือใช้บริษัทสาขาในต่างประเทศเพื่อฝึกโมเดล แต่แนวโน้มชัดเจนว่าตลาดจีนกำลังหันไปพึ่งพาชิปภายในประเทศมากขึ้น

    จีนหันมาใช้ชิป AI ที่ผลิตเอง เช่น Huawei Ascend 910C
    ถูกใช้จริงในการฝึกโมเดล AI ขนาดใหญ่

    Alibaba และ Baidu ปรับแพลตฟอร์มให้ทำงานบนฮาร์ดแวร์จีน
    ลดการพึ่งพา Nvidia

    รัฐบาลจีนเข้ามากำกับการจัดสรรชิปโดยตรง
    เน้นให้โครงการรัฐและคลาวด์ใช้ชิปในประเทศ

    ชิปจีนยังด้อยกว่า Nvidia ในด้านประสิทธิภาพ
    อาจทำให้การฝึกโมเดลใช้เวลานานขึ้น

    ปัญหาหน่วยความจำ HBM ยังไม่ถูกแก้ไข
    เสี่ยงต่อการชะลอการพัฒนา AI ในประเทศ

    https://www.tomshardware.com/tech-industry/semiconductors/chinas-ai-chip-pivot-accelerates-as-us-export-restrictions-bite
    🇨🇳 จีนเร่งใช้ชิป AI พัฒนาเอง หลังถูกจำกัดการนำเข้า รัฐบาลจีนเริ่มเข้ามากำกับดูแลการจัดสรรชิป AI ระดับสูง เนื่องจากข้อจำกัดการส่งออกจากสหรัฐฯ ทำให้เกิดการขาดแคลน GPU ของ Nvidia บริษัทคลาวด์รายใหญ่ในจีน เช่น Alibaba และ Baidu จึงหันมาใช้ชิปที่ผลิตเอง เช่น Huawei Ascend 910B และรุ่นใหม่ 910C ซึ่งแม้จะไม่แรงเท่า Nvidia แต่ก็ถูกนำมาใช้จริงในงานฝึกโมเดล AI ขนาดใหญ่ การเปลี่ยนแปลงนี้ทำให้จีนต้องเขียนซอฟต์แวร์ใหม่และปรับโครงสร้างงานให้เข้ากับชิปที่ยังไม่สมบูรณ์แบบนัก ปัญหาที่ตามมาคือแบนด์วิดท์หน่วยความจำที่ยังไม่เพียงพอ และการผลิต HBM ในประเทศยังไม่สามารถรองรับได้เต็มที่ อย่างไรก็ตาม การผลักดันนี้ถือเป็นก้าวสำคัญที่ทำให้จีนลดการพึ่งพาต่างชาติ นอกจากนั้นยังมีการใช้วิธีเลี่ยง เช่น การนำชิป Nvidia มือสองเข้ามา หรือใช้บริษัทสาขาในต่างประเทศเพื่อฝึกโมเดล แต่แนวโน้มชัดเจนว่าตลาดจีนกำลังหันไปพึ่งพาชิปภายในประเทศมากขึ้น ✅ จีนหันมาใช้ชิป AI ที่ผลิตเอง เช่น Huawei Ascend 910C ➡️ ถูกใช้จริงในการฝึกโมเดล AI ขนาดใหญ่ ✅ Alibaba และ Baidu ปรับแพลตฟอร์มให้ทำงานบนฮาร์ดแวร์จีน ➡️ ลดการพึ่งพา Nvidia ✅ รัฐบาลจีนเข้ามากำกับการจัดสรรชิปโดยตรง ➡️ เน้นให้โครงการรัฐและคลาวด์ใช้ชิปในประเทศ ‼️ ชิปจีนยังด้อยกว่า Nvidia ในด้านประสิทธิภาพ ⛔ อาจทำให้การฝึกโมเดลใช้เวลานานขึ้น ‼️ ปัญหาหน่วยความจำ HBM ยังไม่ถูกแก้ไข ⛔ เสี่ยงต่อการชะลอการพัฒนา AI ในประเทศ https://www.tomshardware.com/tech-industry/semiconductors/chinas-ai-chip-pivot-accelerates-as-us-export-restrictions-bite
    0 ความคิดเห็น 0 การแบ่งปัน 77 มุมมอง 0 รีวิว
  • หัวข้อข่าว: “โมเดลใหม่ของ Moonshot AI จุดกระแส ‘DeepSeek Moment’ สั่นสะเทือนโลก AI”

    สตาร์ทอัพจีน Moonshot AI ที่มีมูลค่ากว่า 3.3 พันล้านดอลลาร์สหรัฐ และได้รับการสนับสนุนจากยักษ์ใหญ่เทคโนโลยีอย่าง Alibaba และ Tencent ได้เปิดตัวโมเดล Kimi K2 Thinking ซึ่งเป็นโมเดลโอเพนซอร์สที่สร้างสถิติใหม่ในด้าน reasoning, coding และ agent capabilities

    โมเดลนี้ได้รับความนิยมสูงสุดบนแพลตฟอร์ม Hugging Face และโพสต์เปิดตัวบน X มียอดเข้าชมกว่า 4.5 ล้านครั้ง จุดที่น่าทึ่งคือมีรายงานว่า ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์ ซึ่งถูกกว่ามากเมื่อเทียบกับโมเดลสหรัฐฯ

    Thomas Wolf ผู้ร่วมก่อตั้ง Hugging Face ถึงกับตั้งคำถามว่า “นี่คืออีกหนึ่ง DeepSeek Moment หรือไม่?” หลังจากก่อนหน้านี้โมเดล R1 ของ DeepSeek ได้เขย่าความเชื่อเรื่องความเหนือกว่าของ AI สหรัฐฯ

    Kimi K2 Thinking ทำคะแนน 44.9% ใน Humanity’s Last Exam (ข้อสอบมาตรฐาน LLM กว่า 2,500 ข้อ) ซึ่งสูงกว่า GPT-5 ที่ทำได้ 41.7% และยังชนะใน benchmark สำคัญอย่าง BrowseComp และ Seal-0 ที่ทดสอบความสามารถในการค้นหาข้อมูลจริงบนเว็บ

    นอกจากนี้ ค่าใช้จ่าย API ของ Kimi K2 Thinking ยังถูกกว่าโมเดลของ OpenAI และ Anthropic ถึง 6–10 เท่า นักวิเคราะห์ชี้ว่าแนวโน้มของจีนคือการลดต้นทุนอย่างต่อเนื่อง เพื่อแข่งขันด้วย ความคุ้มค่า (cost-effectiveness) แม้ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ

    สาระเพิ่มเติมจากภายนอก
    การแข่งขัน AI ระหว่างจีนและสหรัฐฯ กำลังเปลี่ยนจาก “ใครเก่งกว่า” เป็น “ใครคุ้มค่ากว่า”
    การที่จีนหันมาเน้น ลดต้นทุนการฝึกและใช้งาน อาจทำให้ AI เข้าถึงนักพัฒนาและธุรกิจรายย่อยได้มากขึ้น
    หากแนวโน้มนี้ดำเนินต่อไป อาจเกิดการ เร่งนวัตกรรมด้านสถาปัตยกรรมโมเดลและเทคนิคการฝึก ที่เปลี่ยนโฉมอุตสาหกรรม AI

    Moonshot AI เปิดตัว Kimi K2 Thinking
    ทำผลงานเหนือ GPT-5 และ Claude Sonnet 4.5 ในหลาย benchmark
    ได้รับความนิยมสูงสุดบน Hugging Face และมีผู้สนใจจำนวนมาก

    จุดเด่นของโมเดล
    ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์
    API ถูกกว่าโมเดลสหรัฐฯ ถึง 6–10 เท่า

    ผลกระทบต่อวงการ
    จุดกระแส “DeepSeek Moment” ครั้งใหม่
    ท้าทายความเป็นผู้นำด้าน AI ของสหรัฐฯ

    คำเตือนด้านความเสี่ยง
    แม้ต้นทุนต่ำ แต่ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ
    การแข่งขันด้านราคาที่รุนแรงอาจทำให้บางบริษัทละเลยการตรวจสอบคุณภาพและความปลอดภัย
    หากจีนครองตลาดด้วยโมเดลราคาถูก อาจเกิดความเสี่ยงด้านมาตรฐานและความน่าเชื่อถือของ AI

    https://www.thestar.com.my/tech/tech-news/2025/11/12/why-new-model-of-chinas-moonshot-ai-stirs-deepseek-moment-debate
    🤖 หัวข้อข่าว: “โมเดลใหม่ของ Moonshot AI จุดกระแส ‘DeepSeek Moment’ สั่นสะเทือนโลก AI” สตาร์ทอัพจีน Moonshot AI ที่มีมูลค่ากว่า 3.3 พันล้านดอลลาร์สหรัฐ และได้รับการสนับสนุนจากยักษ์ใหญ่เทคโนโลยีอย่าง Alibaba และ Tencent ได้เปิดตัวโมเดล Kimi K2 Thinking ซึ่งเป็นโมเดลโอเพนซอร์สที่สร้างสถิติใหม่ในด้าน reasoning, coding และ agent capabilities โมเดลนี้ได้รับความนิยมสูงสุดบนแพลตฟอร์ม Hugging Face และโพสต์เปิดตัวบน X มียอดเข้าชมกว่า 4.5 ล้านครั้ง จุดที่น่าทึ่งคือมีรายงานว่า ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์ ซึ่งถูกกว่ามากเมื่อเทียบกับโมเดลสหรัฐฯ Thomas Wolf ผู้ร่วมก่อตั้ง Hugging Face ถึงกับตั้งคำถามว่า “นี่คืออีกหนึ่ง DeepSeek Moment หรือไม่?” หลังจากก่อนหน้านี้โมเดล R1 ของ DeepSeek ได้เขย่าความเชื่อเรื่องความเหนือกว่าของ AI สหรัฐฯ Kimi K2 Thinking ทำคะแนน 44.9% ใน Humanity’s Last Exam (ข้อสอบมาตรฐาน LLM กว่า 2,500 ข้อ) ซึ่งสูงกว่า GPT-5 ที่ทำได้ 41.7% และยังชนะใน benchmark สำคัญอย่าง BrowseComp และ Seal-0 ที่ทดสอบความสามารถในการค้นหาข้อมูลจริงบนเว็บ นอกจากนี้ ค่าใช้จ่าย API ของ Kimi K2 Thinking ยังถูกกว่าโมเดลของ OpenAI และ Anthropic ถึง 6–10 เท่า นักวิเคราะห์ชี้ว่าแนวโน้มของจีนคือการลดต้นทุนอย่างต่อเนื่อง เพื่อแข่งขันด้วย ความคุ้มค่า (cost-effectiveness) แม้ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ 🧩 สาระเพิ่มเติมจากภายนอก 📌 การแข่งขัน AI ระหว่างจีนและสหรัฐฯ กำลังเปลี่ยนจาก “ใครเก่งกว่า” เป็น “ใครคุ้มค่ากว่า” 📌 การที่จีนหันมาเน้น ลดต้นทุนการฝึกและใช้งาน อาจทำให้ AI เข้าถึงนักพัฒนาและธุรกิจรายย่อยได้มากขึ้น 📌 หากแนวโน้มนี้ดำเนินต่อไป อาจเกิดการ เร่งนวัตกรรมด้านสถาปัตยกรรมโมเดลและเทคนิคการฝึก ที่เปลี่ยนโฉมอุตสาหกรรม AI ✅ Moonshot AI เปิดตัว Kimi K2 Thinking ➡️ ทำผลงานเหนือ GPT-5 และ Claude Sonnet 4.5 ในหลาย benchmark ➡️ ได้รับความนิยมสูงสุดบน Hugging Face และมีผู้สนใจจำนวนมาก ✅ จุดเด่นของโมเดล ➡️ ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์ ➡️ API ถูกกว่าโมเดลสหรัฐฯ ถึง 6–10 เท่า ✅ ผลกระทบต่อวงการ ➡️ จุดกระแส “DeepSeek Moment” ครั้งใหม่ ➡️ ท้าทายความเป็นผู้นำด้าน AI ของสหรัฐฯ ‼️ คำเตือนด้านความเสี่ยง ⛔ แม้ต้นทุนต่ำ แต่ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ ⛔ การแข่งขันด้านราคาที่รุนแรงอาจทำให้บางบริษัทละเลยการตรวจสอบคุณภาพและความปลอดภัย ⛔ หากจีนครองตลาดด้วยโมเดลราคาถูก อาจเกิดความเสี่ยงด้านมาตรฐานและความน่าเชื่อถือของ AI https://www.thestar.com.my/tech/tech-news/2025/11/12/why-new-model-of-chinas-moonshot-ai-stirs-deepseek-moment-debate
    WWW.THESTAR.COM.MY
    Why new model of China's Moonshot AI stirs 'DeepSeek moment' debate
    Kimi K2 Thinking outperforms OpenAI's GPT-5 and Anthropic's Claude Sonnet 4.5, sparking comparisons to DeepSeek's breakthrough.
    0 ความคิดเห็น 0 การแบ่งปัน 114 มุมมอง 0 รีวิว
  • เรื่องอื้อฉาว Shein กับตุ๊กตาเด็ก: จุดไฟปัญหามืดของตลาดออนไลน์

    เรื่องราวล่าสุดจากฝรั่งเศสได้เปิดโปงด้านมืดของตลาดออนไลน์ เมื่อมีการประท้วงต่อต้าน Shein ที่ขายตุ๊กตาเซ็กซ์ลักษณะคล้ายเด็ก พร้อมอาวุธต้องห้ามผ่านแพลตฟอร์มของตน ทำให้รัฐบาลฝรั่งเศสต้องออกมาตรการจัดการอย่างเร่งด่วน

    Shein ซึ่งเป็นแบรนด์แฟชั่นจีนชื่อดัง ถูกวิจารณ์อย่างหนักหลังมีการพบว่าบนแพลตฟอร์มของตนมีการขายตุ๊กตาเซ็กซ์ที่มีลักษณะคล้ายเด็ก รวมถึงอาวุธต้องห้ามบางประเภท โดยเหตุการณ์นี้เกิดขึ้นก่อนการเปิดร้านถาวรแห่งแรกของ Shein ในกรุงปารีส ทำให้เกิดการประท้วงจากประชาชนและองค์กรสิทธิมนุษยชน

    ป้ายประท้วงมีข้อความรุนแรง เช่น “Shein สมรู้ร่วมคิดกับสื่อลามกเด็ก” และ “ร้าน BHV ไม่ควรซ่อนความอับอายนี้ไว้หลังหน้าต่าง” สะท้อนความโกรธของสังคมต่อการปล่อยให้สินค้าลักษณะนี้หลุดรอดเข้าสู่ตลาดได้

    เหตุการณ์นี้ชี้ให้เห็นถึงปัญหาเรื้อรังของตลาดออนไลน์ที่เปิดให้ผู้ขายหลายรายเข้ามาโดยไม่มีการตรวจสอบอย่างเข้มงวด ทำให้สินค้าผิดกฎหมาย อันตราย หรือไม่เหมาะสมสามารถเข้าถึงผู้บริโภคได้ง่ายดาย

    จุดอ่อนของตลาดออนไลน์แบบหลายผู้ขาย
    แพลตฟอร์มอย่าง Shein, Amazon, Temu และ Alibaba เปิดให้ผู้ขายทั่วโลกเข้าถึงผู้บริโภคโดยตรง
    การตรวจสอบสินค้าบนแพลตฟอร์มยังไม่เข้มงวดพอ
    สินค้าผิดกฎหมาย เช่น อาวุธต้องห้าม และสินค้าลามกสามารถหลุดรอดได้
    ผู้บริโภคอาจไม่รู้ว่าสินค้าที่ซื้อผิดกฎหมายหรือไม่เหมาะสม

    ปฏิกิริยาจากสังคมและรัฐบาล
    ฝรั่งเศสออกมาตรการจัดการกับสินค้าผิดกฎหมายบนแพลตฟอร์ม
    การประท้วงหน้าร้าน BHV Marais สะท้อนความไม่พอใจของประชาชน
    สื่อมวลชนและองค์กรสิทธิมนุษยชนเรียกร้องให้มีการควบคุมที่เข้มงวดขึ้น

    คำเตือนต่อผู้บริโภคและแพลตฟอร์ม
    การซื้อสินค้าจากแพลตฟอร์มที่ไม่มีการตรวจสอบอาจนำไปสู่การสนับสนุนกิจกรรมผิดกฎหมาย
    แพลตฟอร์มที่ไม่ควบคุมผู้ขายอาจกลายเป็นช่องทางของการค้ามนุษย์หรือการละเมิดสิทธิเด็ก
    การเปิดร้านถาวรโดยไม่จัดการกับปัญหาในระบบออนไลน์อาจสร้างภาพลักษณ์เชิงลบต่อแบรนด์
    ผู้บริโภคควรตรวจสอบแหล่งที่มาของสินค้าและหลีกเลี่ยงสินค้าที่มีลักษณะไม่เหมาะสม

    https://www.thestar.com.my/tech/tech-news/2025/11/08/shein-sex-doll-scandal-shines-light-on-marketplaces039-dark-corners
    🛑 เรื่องอื้อฉาว Shein กับตุ๊กตาเด็ก: จุดไฟปัญหามืดของตลาดออนไลน์ เรื่องราวล่าสุดจากฝรั่งเศสได้เปิดโปงด้านมืดของตลาดออนไลน์ เมื่อมีการประท้วงต่อต้าน Shein ที่ขายตุ๊กตาเซ็กซ์ลักษณะคล้ายเด็ก พร้อมอาวุธต้องห้ามผ่านแพลตฟอร์มของตน ทำให้รัฐบาลฝรั่งเศสต้องออกมาตรการจัดการอย่างเร่งด่วน Shein ซึ่งเป็นแบรนด์แฟชั่นจีนชื่อดัง ถูกวิจารณ์อย่างหนักหลังมีการพบว่าบนแพลตฟอร์มของตนมีการขายตุ๊กตาเซ็กซ์ที่มีลักษณะคล้ายเด็ก รวมถึงอาวุธต้องห้ามบางประเภท โดยเหตุการณ์นี้เกิดขึ้นก่อนการเปิดร้านถาวรแห่งแรกของ Shein ในกรุงปารีส ทำให้เกิดการประท้วงจากประชาชนและองค์กรสิทธิมนุษยชน ป้ายประท้วงมีข้อความรุนแรง เช่น “Shein สมรู้ร่วมคิดกับสื่อลามกเด็ก” และ “ร้าน BHV ไม่ควรซ่อนความอับอายนี้ไว้หลังหน้าต่าง” สะท้อนความโกรธของสังคมต่อการปล่อยให้สินค้าลักษณะนี้หลุดรอดเข้าสู่ตลาดได้ เหตุการณ์นี้ชี้ให้เห็นถึงปัญหาเรื้อรังของตลาดออนไลน์ที่เปิดให้ผู้ขายหลายรายเข้ามาโดยไม่มีการตรวจสอบอย่างเข้มงวด ทำให้สินค้าผิดกฎหมาย อันตราย หรือไม่เหมาะสมสามารถเข้าถึงผู้บริโภคได้ง่ายดาย ✅ จุดอ่อนของตลาดออนไลน์แบบหลายผู้ขาย ➡️ แพลตฟอร์มอย่าง Shein, Amazon, Temu และ Alibaba เปิดให้ผู้ขายทั่วโลกเข้าถึงผู้บริโภคโดยตรง ➡️ การตรวจสอบสินค้าบนแพลตฟอร์มยังไม่เข้มงวดพอ ➡️ สินค้าผิดกฎหมาย เช่น อาวุธต้องห้าม และสินค้าลามกสามารถหลุดรอดได้ ➡️ ผู้บริโภคอาจไม่รู้ว่าสินค้าที่ซื้อผิดกฎหมายหรือไม่เหมาะสม ✅ ปฏิกิริยาจากสังคมและรัฐบาล ➡️ ฝรั่งเศสออกมาตรการจัดการกับสินค้าผิดกฎหมายบนแพลตฟอร์ม ➡️ การประท้วงหน้าร้าน BHV Marais สะท้อนความไม่พอใจของประชาชน ➡️ สื่อมวลชนและองค์กรสิทธิมนุษยชนเรียกร้องให้มีการควบคุมที่เข้มงวดขึ้น ‼️ คำเตือนต่อผู้บริโภคและแพลตฟอร์ม ⛔ การซื้อสินค้าจากแพลตฟอร์มที่ไม่มีการตรวจสอบอาจนำไปสู่การสนับสนุนกิจกรรมผิดกฎหมาย ⛔ แพลตฟอร์มที่ไม่ควบคุมผู้ขายอาจกลายเป็นช่องทางของการค้ามนุษย์หรือการละเมิดสิทธิเด็ก ⛔ การเปิดร้านถาวรโดยไม่จัดการกับปัญหาในระบบออนไลน์อาจสร้างภาพลักษณ์เชิงลบต่อแบรนด์ ⛔ ผู้บริโภคควรตรวจสอบแหล่งที่มาของสินค้าและหลีกเลี่ยงสินค้าที่มีลักษณะไม่เหมาะสม https://www.thestar.com.my/tech/tech-news/2025/11/08/shein-sex-doll-scandal-shines-light-on-marketplaces039-dark-corners
    WWW.THESTAR.COM.MY
    Shein sex doll scandal shines light on marketplaces' dark corners
    LONDON (Reuters) -France's crackdown on Shein over childlike sex dolls and banned weapons is exposing a perennial problem of online marketplaces: failing to properly police third-party sellers and block sales of counterfeit, illegal, dangerous or simply offensive products.
    0 ความคิดเห็น 0 การแบ่งปัน 113 มุมมอง 0 รีวิว
  • “จีนแจกส่วนลดไฟฟ้าให้บริษัท AI — ถ้าใช้ชิปผลิตในประเทศ!”

    ในสงครามเทคโนโลยีระดับโลก จีนกำลังเดินเกมรุกเพื่อสร้างอิสรภาพด้าน AI และเซมิคอนดักเตอร์ ล่าสุดหลายมณฑลในจีน เช่น กานซู, กุ้ยโจว และมองโกเลียใน ได้เสนอส่วนลดค่าไฟฟ้าอุตสาหกรรมสูงถึง 50% ให้กับศูนย์ข้อมูล AI — แต่มีเงื่อนไขสำคัญ: ต้องใช้ชิปที่ผลิตในประเทศจีนเท่านั้น ห้ามใช้ของ Nvidia หรือ AMD

    นอกจากส่วนลดค่าไฟแล้ว ยังมีเงินสนับสนุนโดยตรงที่เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี โดยราคาค่าไฟต่อหน่วยลดลงเหลือเพียง 0.4 หยวน หรือประมาณ 5.6 เซนต์สหรัฐ ซึ่งถือว่าต่ำมากเมื่อเทียบกับภูมิภาคชายฝั่ง

    แม้ชิปจีนยังไม่สามารถเทียบเคียงกับ Nvidia H20 หรือ Blackwell ได้ในด้านประสิทธิภาพ แต่รัฐบาลจีนก็ผลักดันให้เกิดการใช้งานอย่างจริงจัง โดยมีบริษัทชั้นนำอย่าง Huawei, Cambricon, Alibaba และ Biren เข้าร่วมผลิต AI accelerators โดย Huawei นำทีมด้วยชิป Ascend 910C

    การเคลื่อนไหวนี้เกิดขึ้นหลังจากรัฐบาลจีนสั่งแบนการใช้งานชิป AI จาก Nvidia โดยตรง ซึ่งทำให้การใช้พลังงานของศูนย์ข้อมูลเพิ่มขึ้น 30–50% เนื่องจากชิปจีนยังด้อยกว่าด้านประสิทธิภาพ

    จีนเสนอส่วนลดค่าไฟฟ้าให้ศูนย์ข้อมูล AI
    มณฑลกานซู, กุ้ยโจว และมองโกเลียใน ลดค่าไฟลง 50%
    เหลือเพียง 0.4 หยวนต่อ kWh หรือประมาณ 5.6 เซนต์สหรัฐ

    เงื่อนไขคือต้องใช้ชิปที่ผลิตในจีน
    ห้ามใช้ชิปจาก Nvidia หรือ AMD
    เป็นส่วนหนึ่งของนโยบายผลักดันการพึ่งพาตนเองด้านเทคโนโลยี

    รัฐบาลจีนสนับสนุนเงินทุนโดยตรง
    เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี
    ส่งเสริมการตั้งศูนย์ข้อมูลในพื้นที่ที่มีพลังงานเหลือเฟือ

    บริษัทจีนเร่งพัฒนาชิป AI
    Huawei, Cambricon, Alibaba และ Biren เป็นผู้ผลิตหลัก
    Huawei นำทีมด้วยชิป Ascend 910C

    คำเตือนด้านประสิทธิภาพของชิปจีน
    ประสิทธิภาพยังด้อยกว่าชิป Nvidia H20 และ Blackwell
    ส่งผลให้การใช้พลังงานเพิ่มขึ้น 30–50%

    คำเตือนด้านการแข่งขันระดับโลก
    การแบนชิปต่างชาติอาจกระทบต่อความร่วมมือระหว่างประเทศ
    การพึ่งพาชิปภายในอาจทำให้จีนต้องเร่งพัฒนาเทคโนโลยีให้ทันคู่แข่ง

    https://www.tomshardware.com/tech-industry/big-tech/chinese-provinces-offer-steep-power-discounts-to-ai-companies-using-china-made-chips-country-continues-its-aggressive-push-towards-ai-independence-and-homegrown-silicon
    ⚡🇨🇳 “จีนแจกส่วนลดไฟฟ้าให้บริษัท AI — ถ้าใช้ชิปผลิตในประเทศ!” ในสงครามเทคโนโลยีระดับโลก จีนกำลังเดินเกมรุกเพื่อสร้างอิสรภาพด้าน AI และเซมิคอนดักเตอร์ ล่าสุดหลายมณฑลในจีน เช่น กานซู, กุ้ยโจว และมองโกเลียใน ได้เสนอส่วนลดค่าไฟฟ้าอุตสาหกรรมสูงถึง 50% ให้กับศูนย์ข้อมูล AI — แต่มีเงื่อนไขสำคัญ: ต้องใช้ชิปที่ผลิตในประเทศจีนเท่านั้น ห้ามใช้ของ Nvidia หรือ AMD นอกจากส่วนลดค่าไฟแล้ว ยังมีเงินสนับสนุนโดยตรงที่เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี โดยราคาค่าไฟต่อหน่วยลดลงเหลือเพียง 0.4 หยวน หรือประมาณ 5.6 เซนต์สหรัฐ ซึ่งถือว่าต่ำมากเมื่อเทียบกับภูมิภาคชายฝั่ง แม้ชิปจีนยังไม่สามารถเทียบเคียงกับ Nvidia H20 หรือ Blackwell ได้ในด้านประสิทธิภาพ แต่รัฐบาลจีนก็ผลักดันให้เกิดการใช้งานอย่างจริงจัง โดยมีบริษัทชั้นนำอย่าง Huawei, Cambricon, Alibaba และ Biren เข้าร่วมผลิต AI accelerators โดย Huawei นำทีมด้วยชิป Ascend 910C การเคลื่อนไหวนี้เกิดขึ้นหลังจากรัฐบาลจีนสั่งแบนการใช้งานชิป AI จาก Nvidia โดยตรง ซึ่งทำให้การใช้พลังงานของศูนย์ข้อมูลเพิ่มขึ้น 30–50% เนื่องจากชิปจีนยังด้อยกว่าด้านประสิทธิภาพ ✅ จีนเสนอส่วนลดค่าไฟฟ้าให้ศูนย์ข้อมูล AI ➡️ มณฑลกานซู, กุ้ยโจว และมองโกเลียใน ลดค่าไฟลง 50% ➡️ เหลือเพียง 0.4 หยวนต่อ kWh หรือประมาณ 5.6 เซนต์สหรัฐ ✅ เงื่อนไขคือต้องใช้ชิปที่ผลิตในจีน ➡️ ห้ามใช้ชิปจาก Nvidia หรือ AMD ➡️ เป็นส่วนหนึ่งของนโยบายผลักดันการพึ่งพาตนเองด้านเทคโนโลยี ✅ รัฐบาลจีนสนับสนุนเงินทุนโดยตรง ➡️ เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี ➡️ ส่งเสริมการตั้งศูนย์ข้อมูลในพื้นที่ที่มีพลังงานเหลือเฟือ ✅ บริษัทจีนเร่งพัฒนาชิป AI ➡️ Huawei, Cambricon, Alibaba และ Biren เป็นผู้ผลิตหลัก ➡️ Huawei นำทีมด้วยชิป Ascend 910C ‼️ คำเตือนด้านประสิทธิภาพของชิปจีน ⛔ ประสิทธิภาพยังด้อยกว่าชิป Nvidia H20 และ Blackwell ⛔ ส่งผลให้การใช้พลังงานเพิ่มขึ้น 30–50% ‼️ คำเตือนด้านการแข่งขันระดับโลก ⛔ การแบนชิปต่างชาติอาจกระทบต่อความร่วมมือระหว่างประเทศ ⛔ การพึ่งพาชิปภายในอาจทำให้จีนต้องเร่งพัฒนาเทคโนโลยีให้ทันคู่แข่ง https://www.tomshardware.com/tech-industry/big-tech/chinese-provinces-offer-steep-power-discounts-to-ai-companies-using-china-made-chips-country-continues-its-aggressive-push-towards-ai-independence-and-homegrown-silicon
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
  • ปัญญาประดิษฐ์สายวิจัยที่ไม่หยุดแค่ “แชตบอต”

    Tongyi DeepResearch เป็นโมเดล Web Agent แบบโอเพ่นซอร์สตัวแรกที่สามารถทำงานวิจัยเชิงลึกได้เทียบเท่ากับโมเดลเชิงพาณิชย์ของ OpenAI โดยมีคะแนนสูงในหลาย benchmark เช่น:
    Humanity’s Last Exam (HLE): 32.9
    BrowseComp: 43.4
    BrowseComp-ZH: 46.7
    xbench-DeepSearch: 75

    โมเดลนี้ไม่ใช่แค่เก่งด้านการตอบคำถาม แต่ยังสามารถวางแผน ทำวิจัยหลายขั้นตอน และใช้เครื่องมือภายนอกได้อย่างมีประสิทธิภาพ โดยใช้ framework reasoning แบบ ReAct และโหมดขั้นสูงที่เรียกว่า Heavy Mode เพื่อจัดการงานที่ซับซ้อน

    Tongyi DeepResearch เป็น Web Agent แบบโอเพ่นซอร์สที่ทรงพลัง
    ทำงานได้เทียบเท่ากับ DeepResearch ของ OpenAI
    ได้คะแนนสูงในหลาย benchmark ด้าน reasoning และการค้นคว้า

    ใช้ข้อมูลสังเคราะห์คุณภาพสูงในการฝึก
    สร้าง QA pairs จากกราฟความรู้และคลิกสตรีม
    ใช้เทคนิคเพิ่มความยากของคำถามอย่างเป็นระบบ

    มีระบบฝึกแบบครบวงจร: CPT → SFT → RL
    Continual Pre-training ด้วยข้อมูลสังเคราะห์
    Fine-tuning ด้วยข้อมูลผู้เชี่ยวชาญ
    Reinforcement Learning แบบ on-policy เพื่อปรับพฤติกรรมให้ตรงเป้าหมาย

    ใช้โครงสร้าง reasoning แบบ ReAct และ IterResearch
    ReAct: วงจร Thought → Action → Observation
    IterResearch: แบ่งงานวิจัยเป็นรอบ ๆ เพื่อรักษาโฟกัสและคุณภาพ reasoning

    มีการใช้งานจริงในระบบของ Alibaba
    เช่น “Xiao Gao” ผู้ช่วยด้านแผนที่ และ “FaRui” ผู้ช่วยด้านกฎหมาย
    ทำงานวิจัยหลายขั้นตอนและให้ผลลัพธ์ที่ตรวจสอบได้

    https://tongyi-agent.github.io/blog/introducing-tongyi-deep-research/
    🧠 ปัญญาประดิษฐ์สายวิจัยที่ไม่หยุดแค่ “แชตบอต” Tongyi DeepResearch เป็นโมเดล Web Agent แบบโอเพ่นซอร์สตัวแรกที่สามารถทำงานวิจัยเชิงลึกได้เทียบเท่ากับโมเดลเชิงพาณิชย์ของ OpenAI โดยมีคะแนนสูงในหลาย benchmark เช่น: 🔖 Humanity’s Last Exam (HLE): 32.9 🔖 BrowseComp: 43.4 🔖 BrowseComp-ZH: 46.7 🔖 xbench-DeepSearch: 75 โมเดลนี้ไม่ใช่แค่เก่งด้านการตอบคำถาม แต่ยังสามารถวางแผน ทำวิจัยหลายขั้นตอน และใช้เครื่องมือภายนอกได้อย่างมีประสิทธิภาพ โดยใช้ framework reasoning แบบ ReAct และโหมดขั้นสูงที่เรียกว่า Heavy Mode เพื่อจัดการงานที่ซับซ้อน ✅ Tongyi DeepResearch เป็น Web Agent แบบโอเพ่นซอร์สที่ทรงพลัง ➡️ ทำงานได้เทียบเท่ากับ DeepResearch ของ OpenAI ➡️ ได้คะแนนสูงในหลาย benchmark ด้าน reasoning และการค้นคว้า ✅ ใช้ข้อมูลสังเคราะห์คุณภาพสูงในการฝึก ➡️ สร้าง QA pairs จากกราฟความรู้และคลิกสตรีม ➡️ ใช้เทคนิคเพิ่มความยากของคำถามอย่างเป็นระบบ ✅ มีระบบฝึกแบบครบวงจร: CPT → SFT → RL ➡️ Continual Pre-training ด้วยข้อมูลสังเคราะห์ ➡️ Fine-tuning ด้วยข้อมูลผู้เชี่ยวชาญ ➡️ Reinforcement Learning แบบ on-policy เพื่อปรับพฤติกรรมให้ตรงเป้าหมาย ✅ ใช้โครงสร้าง reasoning แบบ ReAct และ IterResearch ➡️ ReAct: วงจร Thought → Action → Observation ➡️ IterResearch: แบ่งงานวิจัยเป็นรอบ ๆ เพื่อรักษาโฟกัสและคุณภาพ reasoning ✅ มีการใช้งานจริงในระบบของ Alibaba ➡️ เช่น “Xiao Gao” ผู้ช่วยด้านแผนที่ และ “FaRui” ผู้ช่วยด้านกฎหมาย ➡️ ทำงานวิจัยหลายขั้นตอนและให้ผลลัพธ์ที่ตรวจสอบได้ https://tongyi-agent.github.io/blog/introducing-tongyi-deep-research/
    0 ความคิดเห็น 0 การแบ่งปัน 177 มุมมอง 0 รีวิว
  • โมเดลเล็กแต่เก่งเกินตัว

    หลังจากเปิดตัว Granite 4.0 รุ่น Micro, Tiny และ Small ไปเมื่อต้นเดือน IBM ก็เดินหน้าต่อด้วยการเปิดตัว Granite 4.0 Nano ซึ่งเป็นโมเดลที่เล็กที่สุดในซีรีส์นี้ โดยมีจุดเด่นคือ ขนาดเล็ก ประสิทธิภาพสูง และเปิดให้ใช้งานฟรีในเชิงพาณิชย์

    โมเดล Nano นี้ถูกออกแบบมาเพื่อใช้งานในสถานการณ์ที่โมเดลขนาดใหญ่ไม่เหมาะสม เช่น:
    อุปกรณ์ edge ที่มีข้อจำกัดด้านทรัพยากร
    แอปพลิเคชันที่ต้องการ latency ต่ำ
    การ deploy แบบ local โดยไม่ต้องพึ่ง cloud

    รายละเอียดโมเดล:
    ใช้ข้อมูลฝึกกว่า 15 ล้านล้าน token
    รองรับ runtime ยอดนิยม เช่น vLLM, llama.cpp, MLX
    ได้รับการรับรอง ISO 42001 ด้านการพัฒนา AI อย่างรับผิดชอบ

    มีทั้งหมด 8 รุ่นย่อย ได้แก่:
    Granite 4.0 H 1B และ H 350M (hybrid-SSM)
    Granite 4.0 1B และ 350M (transformer แบบดั้งเดิม)
    แต่ละรุ่นมีทั้งแบบ base และ instruct

    ผลการทดสอบ:
    Granite Nano ทำคะแนนเหนือกว่าหลายโมเดลขนาดใกล้เคียง เช่น Qwen ของ Alibaba, LFM ของ LiquidAI และ Gemma ของ Google
    โดดเด่นในงานที่ต้องใช้ agentic workflows เช่น IFEval และ BFCLv3

    https://news.itsfoss.com/ibm-granite-4-nano/
    🧩 โมเดลเล็กแต่เก่งเกินตัว หลังจากเปิดตัว Granite 4.0 รุ่น Micro, Tiny และ Small ไปเมื่อต้นเดือน IBM ก็เดินหน้าต่อด้วยการเปิดตัว Granite 4.0 Nano ซึ่งเป็นโมเดลที่เล็กที่สุดในซีรีส์นี้ โดยมีจุดเด่นคือ ขนาดเล็ก ประสิทธิภาพสูง และเปิดให้ใช้งานฟรีในเชิงพาณิชย์ โมเดล Nano นี้ถูกออกแบบมาเพื่อใช้งานในสถานการณ์ที่โมเดลขนาดใหญ่ไม่เหมาะสม เช่น: 🎗️ อุปกรณ์ edge ที่มีข้อจำกัดด้านทรัพยากร 🎗️ แอปพลิเคชันที่ต้องการ latency ต่ำ 🎗️ การ deploy แบบ local โดยไม่ต้องพึ่ง cloud รายละเอียดโมเดล: 🎗️ ใช้ข้อมูลฝึกกว่า 15 ล้านล้าน token 🎗️ รองรับ runtime ยอดนิยม เช่น vLLM, llama.cpp, MLX 🎗️ ได้รับการรับรอง ISO 42001 ด้านการพัฒนา AI อย่างรับผิดชอบ มีทั้งหมด 8 รุ่นย่อย ได้แก่: 🎗️ Granite 4.0 H 1B และ H 350M (hybrid-SSM) 🎗️ Granite 4.0 1B และ 350M (transformer แบบดั้งเดิม) 🎗️ แต่ละรุ่นมีทั้งแบบ base และ instruct ผลการทดสอบ: 🎗️ Granite Nano ทำคะแนนเหนือกว่าหลายโมเดลขนาดใกล้เคียง เช่น Qwen ของ Alibaba, LFM ของ LiquidAI และ Gemma ของ Google 🎗️ โดดเด่นในงานที่ต้องใช้ agentic workflows เช่น IFEval และ BFCLv3 https://news.itsfoss.com/ibm-granite-4-nano/
    0 ความคิดเห็น 0 การแบ่งปัน 184 มุมมอง 0 รีวิว
  • “Qwen3-VL จาก Ollama – โมเดล Vision Language ที่ทรงพลังที่สุด พร้อมควบคุมคอมพิวเตอร์ได้แบบอัตโนมัติ!”

    ลองจินตนาการว่าเราชี้กล้องมือถือไปที่ใบไม้ แล้วถามว่า “พิษกับหมาไหม?” หรือเปิดไฟล์ตารางบนคอมแล้วสั่ง AI ให้แปลงเป็นกราฟ — ทั้งหมดนี้ Qwen3-VL ทำได้แล้ว!

    นี่คือโมเดล Vision Language รุ่นใหม่จาก Alibaba ที่เปิดให้ใช้งานผ่าน Ollama โดยมีชื่อเต็มว่า Qwen3-VL-235B-A22B จุดเด่นคือความสามารถในการเข้าใจภาพและวิดีโออย่างลึกซึ้ง แล้วแปลงเป็นโค้ด HTML, CSS หรือ JavaScript ได้ทันที

    มันรองรับ input สูงถึง 1 ล้าน token ซึ่งหมายถึงสามารถประมวลผลวิดีโอความยาว 2 ชั่วโมง หรือเอกสารหลายร้อยหน้าได้ในคราวเดียว และยังเข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูลเชิง 3D ได้ดีขึ้นกว่ารุ่นก่อน ๆ

    ด้าน OCR ก็ไม่ธรรมดา รองรับถึง 32 ภาษา และสามารถอ่านจากภาพที่เบลอ, มืด, หรือเอียงได้อย่างแม่นยำ

    แต่ที่น่าตื่นเต้นที่สุดคือความสามารถแบบ “agentic” — Qwen3-VL สามารถควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ เช่น สั่งจองตั๋วบน Ticketmaster โดยเปิดเบราว์เซอร์, กรอกข้อมูล, เลือกที่นั่ง และกดยืนยัน โดยไม่ต้องให้ผู้ใช้คลิกเองเลย

    แม้จะยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอก ZIP code ผิด แต่ความเร็วในการทำงานนั้นเหนือกว่าหลายโมเดลที่มีฟีเจอร์คล้ายกัน เช่น GPT-5, Claude หรือ Gemini

    ที่สำคัญคือ Qwen3-VL เปิดให้ใช้งานแบบ โอเพ่นซอร์ส ต่างจากคู่แข่งที่ต้องจ่ายเงิน ทำให้ชุมชนสามารถนำไปปรับแต่งและใช้งานได้อย่างอิสระ

    ความสามารถหลักของ Qwen3-VL
    แปลงภาพ/วิดีโอเป็นโค้ด HTML, CSS, JavaScript
    รองรับ input สูงสุด 1 ล้าน token
    เข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูล 3D
    OCR รองรับ 32 ภาษา แม้ภาพเบลอหรือเอียง

    ความสามารถแบบ agentic
    ควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ
    สั่งจองตั๋ว, โพสต์ Reddit, เขียนข้อความ, สั่งซื้อสินค้า
    ทำงานแบบ end-to-end โดยไม่ต้องให้ผู้ใช้คลิกเอง
    ความเร็วในการทำงานโดดเด่นกว่าคู่แข่ง

    จุดเด่นด้านการเปิดใช้งาน
    เปิดให้ใช้งานผ่าน Ollama
    เป็นโอเพ่นซอร์ส – นักพัฒนาสามารถปรับแต่งได้
    ไม่ต้องจ่ายเงินเหมือน GPT-5 หรือ Claude
    ได้คะแนนสูงใน benchmark เช่น OS World

    ข้อควรระวังและคำเตือน
    ยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอกข้อมูลผิด
    การควบคุมอัตโนมัติต้องมีระบบตรวจสอบความถูกต้อง
    การเปิดให้ใช้งานแบบโอเพ่นซอร์สอาจเสี่ยงต่อ misuse หากไม่มีการกำกับ
    ความสามารถสูงอาจนำไปใช้ในงานที่ต้องการความแม่นยำสูง เช่นการแพทย์หรือการเงิน ซึ่งต้องทดสอบก่อนใช้งานจริง

    https://www.slashgear.com/2004206/ollama-qwen3-vl-how-powerful-vision-language-model-works/
    👁️🧠 “Qwen3-VL จาก Ollama – โมเดล Vision Language ที่ทรงพลังที่สุด พร้อมควบคุมคอมพิวเตอร์ได้แบบอัตโนมัติ!” ลองจินตนาการว่าเราชี้กล้องมือถือไปที่ใบไม้ แล้วถามว่า “พิษกับหมาไหม?” หรือเปิดไฟล์ตารางบนคอมแล้วสั่ง AI ให้แปลงเป็นกราฟ — ทั้งหมดนี้ Qwen3-VL ทำได้แล้ว! นี่คือโมเดล Vision Language รุ่นใหม่จาก Alibaba ที่เปิดให้ใช้งานผ่าน Ollama โดยมีชื่อเต็มว่า Qwen3-VL-235B-A22B จุดเด่นคือความสามารถในการเข้าใจภาพและวิดีโออย่างลึกซึ้ง แล้วแปลงเป็นโค้ด HTML, CSS หรือ JavaScript ได้ทันที มันรองรับ input สูงถึง 1 ล้าน token ซึ่งหมายถึงสามารถประมวลผลวิดีโอความยาว 2 ชั่วโมง หรือเอกสารหลายร้อยหน้าได้ในคราวเดียว และยังเข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูลเชิง 3D ได้ดีขึ้นกว่ารุ่นก่อน ๆ ด้าน OCR ก็ไม่ธรรมดา รองรับถึง 32 ภาษา และสามารถอ่านจากภาพที่เบลอ, มืด, หรือเอียงได้อย่างแม่นยำ แต่ที่น่าตื่นเต้นที่สุดคือความสามารถแบบ “agentic” — Qwen3-VL สามารถควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ เช่น สั่งจองตั๋วบน Ticketmaster โดยเปิดเบราว์เซอร์, กรอกข้อมูล, เลือกที่นั่ง และกดยืนยัน โดยไม่ต้องให้ผู้ใช้คลิกเองเลย แม้จะยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอก ZIP code ผิด แต่ความเร็วในการทำงานนั้นเหนือกว่าหลายโมเดลที่มีฟีเจอร์คล้ายกัน เช่น GPT-5, Claude หรือ Gemini ที่สำคัญคือ Qwen3-VL เปิดให้ใช้งานแบบ โอเพ่นซอร์ส ต่างจากคู่แข่งที่ต้องจ่ายเงิน ทำให้ชุมชนสามารถนำไปปรับแต่งและใช้งานได้อย่างอิสระ ✅ ความสามารถหลักของ Qwen3-VL ➡️ แปลงภาพ/วิดีโอเป็นโค้ด HTML, CSS, JavaScript ➡️ รองรับ input สูงสุด 1 ล้าน token ➡️ เข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูล 3D ➡️ OCR รองรับ 32 ภาษา แม้ภาพเบลอหรือเอียง ✅ ความสามารถแบบ agentic ➡️ ควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ ➡️ สั่งจองตั๋ว, โพสต์ Reddit, เขียนข้อความ, สั่งซื้อสินค้า ➡️ ทำงานแบบ end-to-end โดยไม่ต้องให้ผู้ใช้คลิกเอง ➡️ ความเร็วในการทำงานโดดเด่นกว่าคู่แข่ง ✅ จุดเด่นด้านการเปิดใช้งาน ➡️ เปิดให้ใช้งานผ่าน Ollama ➡️ เป็นโอเพ่นซอร์ส – นักพัฒนาสามารถปรับแต่งได้ ➡️ ไม่ต้องจ่ายเงินเหมือน GPT-5 หรือ Claude ➡️ ได้คะแนนสูงใน benchmark เช่น OS World ‼️ ข้อควรระวังและคำเตือน ⛔ ยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอกข้อมูลผิด ⛔ การควบคุมอัตโนมัติต้องมีระบบตรวจสอบความถูกต้อง ⛔ การเปิดให้ใช้งานแบบโอเพ่นซอร์สอาจเสี่ยงต่อ misuse หากไม่มีการกำกับ ⛔ ความสามารถสูงอาจนำไปใช้ในงานที่ต้องการความแม่นยำสูง เช่นการแพทย์หรือการเงิน ซึ่งต้องทดสอบก่อนใช้งานจริง https://www.slashgear.com/2004206/ollama-qwen3-vl-how-powerful-vision-language-model-works/
    WWW.SLASHGEAR.COM
    Ollama's Qwen3-VL Introduces The Most Powerful Vision Language Model - Here's How It Works - SlashGear
    AI is advancing at a rapid rate, and Ollama claims its Qwen3-VL is the most powerful vision language model yet. Here's what it is and how it works.
    0 ความคิดเห็น 0 การแบ่งปัน 278 มุมมอง 0 รีวิว
  • “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน

    Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น

    ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้

    ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe

    การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ:

    การบรรจุหลายโมเดลลงใน GPU เดียว
    การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output

    แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง

    Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon
    จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM

    Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด
    ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน

    ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า
    เมื่อเทียบกับระบบ serverless แบบเดิม

    ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด
    เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน

    ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์
    ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม

    ทดสอบในระบบ Model Studio Marketplace ของ Alibaba
    ใช้งานจริงหลายเดือน

    https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    ⚙️ “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้ ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ: 🎗️ การบรรจุหลายโมเดลลงใน GPU เดียว 🎗️ การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง ✅ Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon ➡️ จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM ✅ Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด ➡️ ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน ✅ ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า ➡️ เมื่อเทียบกับระบบ serverless แบบเดิม ✅ ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด ➡️ เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน ✅ ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์ ➡️ ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม ✅ ทดสอบในระบบ Model Studio Marketplace ของ Alibaba ➡️ ใช้งานจริงหลายเดือน https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    WWW.TOMSHARDWARE.COM
    Alibaba Cloud says it cut Nvidia AI GPU use by 82% with new pooling system— up to 9x increase in output lets 213 GPUs perform like 1,192
    A paper presented at SOSP 2025 details how token-level scheduling helped one GPU serve multiple LLMs, reducing demand from 1,192 to 213 H20s.
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • “Cisco เปิดตัวเราเตอร์ 8223 — แกนกลางเครือข่าย AI แห่งอนาคต ด้วยความเร็ว 51.2 Tbps และชิป P200 สุดล้ำ”

    ในยุคที่ปัญญาประดิษฐ์ (AI) กลายเป็นหัวใจของการประมวลผลระดับองค์กร Cisco ได้เปิดตัวเราเตอร์รุ่นใหม่ “Cisco 8223” ซึ่งเป็นเราเตอร์แบบ Ethernet fixed router ที่เร็วที่สุดในอุตสาหกรรม ด้วยความเร็วสูงถึง 51.2 Tbps โดยใช้ชิปที่พัฒนาขึ้นเองชื่อว่า “Silicon One P200” เพื่อรองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลที่ต้องรับภาระจาก AI workloads ที่เพิ่มขึ้นอย่างมหาศาล

    Martin Lund รองประธานฝ่ายฮาร์ดแวร์ของ Cisco ระบุว่า “AI compute กำลังเติบโตเกินขีดความสามารถของศูนย์ข้อมูลเดี่ยว ทำให้ต้องเชื่อมต่อศูนย์ข้อมูลหลายแห่งเข้าด้วยกันอย่างปลอดภัยและมีประสิทธิภาพ” ซึ่ง Cisco 8223 ตอบโจทย์นี้ได้ด้วยการออกแบบให้รองรับการ “scale-across” หรือการกระจายงาน AI ไปยังหลายศูนย์ข้อมูล

    Cisco 8223 มีจุดเด่นด้านพลังงานและพื้นที่ โดยเป็นระบบแบบ 3RU ที่ใช้พลังงานต่ำที่สุดในกลุ่มเราเตอร์ระดับนี้ พร้อมรองรับพอร์ต 800G ถึง 64 ช่อง และสามารถประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที รองรับการเชื่อมต่อระยะไกลถึง 1,000 กิโลเมตรผ่าน coherent optics

    ชิป P200 ยังมีความสามารถในการปรับแต่งโปรโตคอลใหม่ ๆ ได้แบบเรียลไทม์ โดยไม่ต้องเปลี่ยนฮาร์ดแวร์ และมีระบบ deep buffering ที่ช่วยดูดซับการพุ่งขึ้นของปริมาณข้อมูลจากการฝึก AI ได้อย่างมีประสิทธิภาพ

    ด้านความปลอดภัย Cisco 8223 มาพร้อมการเข้ารหัสระดับ line-rate ด้วยอัลกอริธึมที่ทนต่อการโจมตีจากคอมพิวเตอร์ควอนตัม พร้อมระบบตรวจสอบและวิเคราะห์เครือข่ายแบบละเอียดผ่านแพลตฟอร์ม observability ของ Cisco

    ระบบนี้จะเริ่มต้นใช้งานกับระบบปฏิบัติการ SONiC แบบโอเพ่นซอร์ส และจะรองรับ IOS XR ในอนาคต รวมถึงสามารถนำชิป P200 ไปใช้ในระบบ modular และ disaggregated ได้อีกด้วย

    ข้อมูลสำคัญจากข่าว
    Cisco เปิดตัวเราเตอร์ 8223 ความเร็ว 51.2 Tbps สำหรับงาน AI ระดับองค์กร
    ใช้ชิป Silicon One P200 ที่พัฒนาโดย Cisco เอง
    รองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลแบบ “scale-across”
    ระบบแบบ 3RU ที่ประหยัดพลังงานและพื้นที่มากที่สุดในกลุ่ม
    รองรับพอร์ต 800G จำนวน 64 ช่อง และเชื่อมต่อได้ไกลถึง 1,000 กม.
    ประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที
    รองรับการเข้ารหัสแบบ post-quantum และระบบตรวจสอบเครือข่าย
    รองรับ SONiC และเตรียมเปิดใช้งานกับ IOS XR และ NX-OS
    ชิป P200 สามารถนำไปใช้ในระบบ modular และ disaggregated

    ข้อมูลเสริมจากภายนอก
    Silicon One เป็นสถาปัตยกรรม unified networking ที่ใช้ใน hyperscaler และ AI infrastructure
    Microsoft และ Alibaba เป็นลูกค้ารายแรกที่นำ Cisco 8223 ไปใช้งาน
    การเชื่อมต่อแบบ coherent optics ช่วยลด latency และเพิ่มความเสถียรในการเชื่อมต่อระยะไกล
    Deep buffering ช่วยจัดการกับข้อมูลที่พุ่งขึ้นจากการฝึก AI ได้ดี
    การ scale-across เป็นแนวทางใหม่ที่แทนการ scale-up หรือ scale-out ในศูนย์ข้อมูล

    https://www.techpowerup.com/341711/cisco-rolls-out-8223-router-with-51-2-tbps-powered-by-in-house-chip
    🌐 “Cisco เปิดตัวเราเตอร์ 8223 — แกนกลางเครือข่าย AI แห่งอนาคต ด้วยความเร็ว 51.2 Tbps และชิป P200 สุดล้ำ” ในยุคที่ปัญญาประดิษฐ์ (AI) กลายเป็นหัวใจของการประมวลผลระดับองค์กร Cisco ได้เปิดตัวเราเตอร์รุ่นใหม่ “Cisco 8223” ซึ่งเป็นเราเตอร์แบบ Ethernet fixed router ที่เร็วที่สุดในอุตสาหกรรม ด้วยความเร็วสูงถึง 51.2 Tbps โดยใช้ชิปที่พัฒนาขึ้นเองชื่อว่า “Silicon One P200” เพื่อรองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลที่ต้องรับภาระจาก AI workloads ที่เพิ่มขึ้นอย่างมหาศาล Martin Lund รองประธานฝ่ายฮาร์ดแวร์ของ Cisco ระบุว่า “AI compute กำลังเติบโตเกินขีดความสามารถของศูนย์ข้อมูลเดี่ยว ทำให้ต้องเชื่อมต่อศูนย์ข้อมูลหลายแห่งเข้าด้วยกันอย่างปลอดภัยและมีประสิทธิภาพ” ซึ่ง Cisco 8223 ตอบโจทย์นี้ได้ด้วยการออกแบบให้รองรับการ “scale-across” หรือการกระจายงาน AI ไปยังหลายศูนย์ข้อมูล Cisco 8223 มีจุดเด่นด้านพลังงานและพื้นที่ โดยเป็นระบบแบบ 3RU ที่ใช้พลังงานต่ำที่สุดในกลุ่มเราเตอร์ระดับนี้ พร้อมรองรับพอร์ต 800G ถึง 64 ช่อง และสามารถประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที รองรับการเชื่อมต่อระยะไกลถึง 1,000 กิโลเมตรผ่าน coherent optics ชิป P200 ยังมีความสามารถในการปรับแต่งโปรโตคอลใหม่ ๆ ได้แบบเรียลไทม์ โดยไม่ต้องเปลี่ยนฮาร์ดแวร์ และมีระบบ deep buffering ที่ช่วยดูดซับการพุ่งขึ้นของปริมาณข้อมูลจากการฝึก AI ได้อย่างมีประสิทธิภาพ ด้านความปลอดภัย Cisco 8223 มาพร้อมการเข้ารหัสระดับ line-rate ด้วยอัลกอริธึมที่ทนต่อการโจมตีจากคอมพิวเตอร์ควอนตัม พร้อมระบบตรวจสอบและวิเคราะห์เครือข่ายแบบละเอียดผ่านแพลตฟอร์ม observability ของ Cisco ระบบนี้จะเริ่มต้นใช้งานกับระบบปฏิบัติการ SONiC แบบโอเพ่นซอร์ส และจะรองรับ IOS XR ในอนาคต รวมถึงสามารถนำชิป P200 ไปใช้ในระบบ modular และ disaggregated ได้อีกด้วย ✅ ข้อมูลสำคัญจากข่าว ➡️ Cisco เปิดตัวเราเตอร์ 8223 ความเร็ว 51.2 Tbps สำหรับงาน AI ระดับองค์กร ➡️ ใช้ชิป Silicon One P200 ที่พัฒนาโดย Cisco เอง ➡️ รองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลแบบ “scale-across” ➡️ ระบบแบบ 3RU ที่ประหยัดพลังงานและพื้นที่มากที่สุดในกลุ่ม ➡️ รองรับพอร์ต 800G จำนวน 64 ช่อง และเชื่อมต่อได้ไกลถึง 1,000 กม. ➡️ ประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที ➡️ รองรับการเข้ารหัสแบบ post-quantum และระบบตรวจสอบเครือข่าย ➡️ รองรับ SONiC และเตรียมเปิดใช้งานกับ IOS XR และ NX-OS ➡️ ชิป P200 สามารถนำไปใช้ในระบบ modular และ disaggregated ✅ ข้อมูลเสริมจากภายนอก ➡️ Silicon One เป็นสถาปัตยกรรม unified networking ที่ใช้ใน hyperscaler และ AI infrastructure ➡️ Microsoft และ Alibaba เป็นลูกค้ารายแรกที่นำ Cisco 8223 ไปใช้งาน ➡️ การเชื่อมต่อแบบ coherent optics ช่วยลด latency และเพิ่มความเสถียรในการเชื่อมต่อระยะไกล ➡️ Deep buffering ช่วยจัดการกับข้อมูลที่พุ่งขึ้นจากการฝึก AI ได้ดี ➡️ การ scale-across เป็นแนวทางใหม่ที่แทนการ scale-up หรือ scale-out ในศูนย์ข้อมูล https://www.techpowerup.com/341711/cisco-rolls-out-8223-router-with-51-2-tbps-powered-by-in-house-chip
    WWW.TECHPOWERUP.COM
    Cisco Rolls Out 8223 Router with 51.2 Tbps, Powered by In-House Chip
    Today, Cisco (NASDAQ: CSCO) unveiled the Cisco 8223, the industry's most optimized routing system for efficiently and securely connecting data centers and powering the next generation of artificial intelligence (AI) workloads. As AI adoption accelerates, data centers face soaring demand, rising powe...
    0 ความคิดเห็น 0 การแบ่งปัน 215 มุมมอง 0 รีวิว
  • “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ”

    DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม

    จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ

    นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน

    แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง

    ข้อมูลสำคัญจากข่าว
    DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face
    เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท
    ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว
    ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า
    ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI
    ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง
    โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License
    มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง
    เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด

    ข้อมูลเสริมจากภายนอก
    Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ
    Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล
    การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง
    DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง
    ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ

    https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    🧠 “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ” DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง ✅ ข้อมูลสำคัญจากข่าว ➡️ DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face ➡️ เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท ➡️ ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว ➡️ ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า ➡️ ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI ➡️ ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง ➡️ โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License ➡️ มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง ➡️ เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด ✅ ข้อมูลเสริมจากภายนอก ➡️ Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ ➡️ Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล ➡️ การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง ➡️ DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง ➡️ ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    WWW.THESTAR.COM.MY
    DeepSeek releases model it calls 'intermediate step' towards 'next-generation architecture'
    BEIJING (Reuters) -Chinese AI developer DeepSeek has released its latest model which it said was an "experimental release" that was more efficient to train and better at processing long sequences of text than previous iterations.
    0 ความคิดเห็น 0 การแบ่งปัน 337 มุมมอง 0 รีวิว
  • “Jensen Huang ชี้จีนตามหลังแค่ ‘นาโนวินาที’ — เรียกร้องให้สหรัฐฯ ผ่อนคลายข้อจำกัดการส่งออกชิป AI”

    Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความเห็นอย่างตรงไปตรงมาในรายการ BG2 Podcast ว่า “จีนตามหลังสหรัฐฯ ในด้านการผลิตชิปแค่ไม่กี่นาโนวินาที” พร้อมเรียกร้องให้รัฐบาลสหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI ไปยังจีน โดยให้เหตุผลว่าการเปิดตลาดจะช่วยขยายอิทธิพลเทคโนโลยีของสหรัฐฯ และรักษาความเป็นผู้นำในระดับโลก

    คำพูดของ Huang เกิดขึ้นในช่วงที่ Nvidia กำลังพยายามกลับมาขายชิป H20 ให้กับลูกค้าในจีน หลังจากถูกระงับการส่งออกหลายเดือนจากข้อจำกัดของกระทรวงพาณิชย์สหรัฐฯ ซึ่งเพิ่งเริ่มออกใบอนุญาตให้ส่งออกอีกครั้งในเดือนสิงหาคม 2025

    อย่างไรก็ตาม จีนเองก็ไม่ได้รอให้ Nvidia กลับมา เพราะ Huawei ได้เปิดตัวระบบ Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ซึ่งไม่พึ่งพา CUDA และออกแบบมาเพื่อซอฟต์แวร์จีนโดยเฉพาะ พร้อมวางแผนพัฒนาชิปรุ่นใหม่ให้เทียบเท่าหรือเหนือกว่าชิปของ Nvidia ภายในปี 2027

    Huang ยอมรับว่าจีนเป็นคู่แข่งที่ “หิวโหย เคลื่อนไหวเร็ว และมีวัฒนธรรมการทำงานแบบ 9-9-6” ซึ่งทำให้การพัฒนาเทคโนโลยีในจีนก้าวหน้าอย่างรวดเร็ว โดยเฉพาะเมื่อบริษัทใหญ่อย่าง Baidu, Alibaba, Tencent และ ByteDance ต่างลงทุนในทีมพัฒนาชิปของตัวเองและสนับสนุนสตาร์ทอัพด้านเซมิคอนดักเตอร์

    แม้ Nvidia จะพยายามรักษาตลาดจีนด้วยการออกแบบชิปเฉพาะ เช่น H20 และ RTX Pro 6000D แต่ก็ยังถูกจีนสั่งห้ามซื้อในเดือนกันยายน 2025 โดยหน่วยงาน CAC ของจีนให้เหตุผลว่า “ชิปจีนตอนนี้เทียบเท่าหรือดีกว่าชิปที่ Nvidia อนุญาตให้ขายในจีนแล้ว” และเรียกร้องให้บริษัทในประเทศหันไปใช้ชิปภายในประเทศแทน

    ข้อมูลสำคัญจากข่าว
    Jensen Huang ระบุว่าจีนตามหลังสหรัฐฯ ในการผลิตชิปแค่ “นาโนวินาที”
    เรียกร้องให้สหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI เพื่อรักษาอิทธิพลทางเทคโนโลยี
    Nvidia หวังกลับมาขายชิป H20 ให้จีนหลังถูกระงับหลายเดือน
    กระทรวงพาณิชย์สหรัฐฯ เริ่มออกใบอนุญาตส่งออก H20 ในเดือนสิงหาคม 2025
    Huawei เปิดตัว Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ไม่พึ่ง CUDA
    จีนวางแผนพัฒนาชิป Ascend รุ่นใหม่ให้เทียบเท่าหรือเหนือกว่า Nvidia ภายในปี 2027
    บริษัทจีนใหญ่ลงทุนในชิปภายในประเทศ เช่น Baidu, Alibaba, Tencent และ ByteDance
    Nvidia เคยครองตลาดจีนถึง 95% แต่ลดลงอย่างรวดเร็วจากข้อจำกัดการส่งออก
    CAC ของจีนสั่งห้ามบริษัทในประเทศซื้อชิป H20 และ RTX Pro 6000D

    ข้อมูลเสริมจากภายนอก
    ชิป H20 และ RTX Pro 6000D ถูกออกแบบมาเพื่อให้ผ่านข้อจำกัดของสหรัฐฯ โดยเฉพาะ
    จีนกำลังสร้างระบบ AI ที่ไม่พึ่งพาเทคโนโลยีสหรัฐฯ เช่น CUDA หรือ TensorRT
    การพัฒนา AI ในจีนเติบโตเร็วที่สุดในโลก โดยเฉพาะในเมืองใหญ่ เช่น เซินเจิ้นและปักกิ่ง
    DeepSeek เป็นโมเดล AI จากจีนที่เทียบเคียงกับ OpenAI และ Anthropic
    การแข่งขันด้านชิปส่งผลต่ออุตสาหกรรมอื่น เช่น บล็อกเชนและอินเทอร์เน็ตดาวเทียม

    https://www.tomshardware.com/jensen-huang-says-china-is-nanoseconds-behind-in-chips
    🇨🇳⚙️ “Jensen Huang ชี้จีนตามหลังแค่ ‘นาโนวินาที’ — เรียกร้องให้สหรัฐฯ ผ่อนคลายข้อจำกัดการส่งออกชิป AI” Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความเห็นอย่างตรงไปตรงมาในรายการ BG2 Podcast ว่า “จีนตามหลังสหรัฐฯ ในด้านการผลิตชิปแค่ไม่กี่นาโนวินาที” พร้อมเรียกร้องให้รัฐบาลสหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI ไปยังจีน โดยให้เหตุผลว่าการเปิดตลาดจะช่วยขยายอิทธิพลเทคโนโลยีของสหรัฐฯ และรักษาความเป็นผู้นำในระดับโลก คำพูดของ Huang เกิดขึ้นในช่วงที่ Nvidia กำลังพยายามกลับมาขายชิป H20 ให้กับลูกค้าในจีน หลังจากถูกระงับการส่งออกหลายเดือนจากข้อจำกัดของกระทรวงพาณิชย์สหรัฐฯ ซึ่งเพิ่งเริ่มออกใบอนุญาตให้ส่งออกอีกครั้งในเดือนสิงหาคม 2025 อย่างไรก็ตาม จีนเองก็ไม่ได้รอให้ Nvidia กลับมา เพราะ Huawei ได้เปิดตัวระบบ Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ซึ่งไม่พึ่งพา CUDA และออกแบบมาเพื่อซอฟต์แวร์จีนโดยเฉพาะ พร้อมวางแผนพัฒนาชิปรุ่นใหม่ให้เทียบเท่าหรือเหนือกว่าชิปของ Nvidia ภายในปี 2027 Huang ยอมรับว่าจีนเป็นคู่แข่งที่ “หิวโหย เคลื่อนไหวเร็ว และมีวัฒนธรรมการทำงานแบบ 9-9-6” ซึ่งทำให้การพัฒนาเทคโนโลยีในจีนก้าวหน้าอย่างรวดเร็ว โดยเฉพาะเมื่อบริษัทใหญ่อย่าง Baidu, Alibaba, Tencent และ ByteDance ต่างลงทุนในทีมพัฒนาชิปของตัวเองและสนับสนุนสตาร์ทอัพด้านเซมิคอนดักเตอร์ แม้ Nvidia จะพยายามรักษาตลาดจีนด้วยการออกแบบชิปเฉพาะ เช่น H20 และ RTX Pro 6000D แต่ก็ยังถูกจีนสั่งห้ามซื้อในเดือนกันยายน 2025 โดยหน่วยงาน CAC ของจีนให้เหตุผลว่า “ชิปจีนตอนนี้เทียบเท่าหรือดีกว่าชิปที่ Nvidia อนุญาตให้ขายในจีนแล้ว” และเรียกร้องให้บริษัทในประเทศหันไปใช้ชิปภายในประเทศแทน ✅ ข้อมูลสำคัญจากข่าว ➡️ Jensen Huang ระบุว่าจีนตามหลังสหรัฐฯ ในการผลิตชิปแค่ “นาโนวินาที” ➡️ เรียกร้องให้สหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI เพื่อรักษาอิทธิพลทางเทคโนโลยี ➡️ Nvidia หวังกลับมาขายชิป H20 ให้จีนหลังถูกระงับหลายเดือน ➡️ กระทรวงพาณิชย์สหรัฐฯ เริ่มออกใบอนุญาตส่งออก H20 ในเดือนสิงหาคม 2025 ➡️ Huawei เปิดตัว Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ไม่พึ่ง CUDA ➡️ จีนวางแผนพัฒนาชิป Ascend รุ่นใหม่ให้เทียบเท่าหรือเหนือกว่า Nvidia ภายในปี 2027 ➡️ บริษัทจีนใหญ่ลงทุนในชิปภายในประเทศ เช่น Baidu, Alibaba, Tencent และ ByteDance ➡️ Nvidia เคยครองตลาดจีนถึง 95% แต่ลดลงอย่างรวดเร็วจากข้อจำกัดการส่งออก ➡️ CAC ของจีนสั่งห้ามบริษัทในประเทศซื้อชิป H20 และ RTX Pro 6000D ✅ ข้อมูลเสริมจากภายนอก ➡️ ชิป H20 และ RTX Pro 6000D ถูกออกแบบมาเพื่อให้ผ่านข้อจำกัดของสหรัฐฯ โดยเฉพาะ ➡️ จีนกำลังสร้างระบบ AI ที่ไม่พึ่งพาเทคโนโลยีสหรัฐฯ เช่น CUDA หรือ TensorRT ➡️ การพัฒนา AI ในจีนเติบโตเร็วที่สุดในโลก โดยเฉพาะในเมืองใหญ่ เช่น เซินเจิ้นและปักกิ่ง ➡️ DeepSeek เป็นโมเดล AI จากจีนที่เทียบเคียงกับ OpenAI และ Anthropic ➡️ การแข่งขันด้านชิปส่งผลต่ออุตสาหกรรมอื่น เช่น บล็อกเชนและอินเทอร์เน็ตดาวเทียม https://www.tomshardware.com/jensen-huang-says-china-is-nanoseconds-behind-in-chips
    0 ความคิดเห็น 0 การแบ่งปัน 406 มุมมอง 0 รีวิว
  • “Alibaba จับมือ NVIDIA สวนกระแสคำสั่งปักกิ่ง — เดินเกม AI ระดับโลก แม้ถูกห้ามซื้อชิป”

    แม้รัฐบาลจีนจะออกคำสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ เช่น Alibaba และ ByteDance ซื้อชิป AI จาก NVIDIA โดยเฉพาะรุ่น H20 และ RTX Pro 6000D ที่ออกแบบมาเฉพาะสำหรับตลาดจีน แต่ Alibaba กลับประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI ระดับโลกอย่างเต็มตัว

    ความร่วมมือครั้งนี้เน้นการใช้ซอฟต์แวร์ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI (Platform for AI) ของ Alibaba Cloud ซึ่งอาจไม่เข้าข่ายละเมิดคำสั่งห้ามซื้อฮาร์ดแวร์โดยตรง เพราะเป็นการใช้ซอฟต์แวร์ ไม่ใช่การซื้อชิปโดยตรง อย่างไรก็ตาม ยังไม่มีการยืนยันว่า Alibaba จะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่

    Alibaba ยังเปิดเผยแผนการสร้างศูนย์ข้อมูลใหม่ในหลายประเทศ เช่น บราซิล ฝรั่งเศส เนเธอร์แลนด์ เม็กซิโก เกาหลีใต้ ญี่ปุ่น มาเลเซีย และดูไบ ภายในปีหน้า เพื่อรองรับความต้องการด้าน AI ที่เพิ่มขึ้นอย่างรวดเร็ว โดย CEO Eddie Wu ระบุว่า “ความเร็วของการเติบโตในอุตสาหกรรม AI เกินความคาดหมายของเราไปมาก”

    แม้ Alibaba จะมีชิป AI ของตัวเอง และพัฒนาเทคโนโลยีเครือข่ายประสิทธิภาพสูงที่ไม่ต้องพึ่งพาเทคโนโลยี interconnect ของ NVIDIA แต่การจับมือกันครั้งนี้สะท้อนว่า Alibaba ยังเห็นคุณค่าในซอฟต์แวร์และระบบของ NVIDIA ที่สามารถเร่งการพัฒนา AI ได้ในระดับโลก

    นักวิเคราะห์มองว่า หากดีลนี้เดินหน้าได้โดยไม่มีการแทรกแซงจากรัฐบาลจีนหรือสหรัฐฯ จะเป็นการเปิดทางให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านช่องทางซอฟต์แวร์ และช่วยให้ Alibaba ขยายอิทธิพลด้าน AI ไปทั่วโลก แม้จะถูกจำกัดด้านฮาร์ดแวร์ภายในประเทศ

    ข้อมูลสำคัญจากข่าว
    Alibaba ประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI
    ใช้ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI ของ Alibaba Cloud
    ยังไม่มีการยืนยันว่าจะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่
    รัฐบาลจีนห้ามบริษัทเทคโนโลยีซื้อชิป H20 และ RTX Pro 6000D จาก NVIDIA
    Alibaba มีชิป AI ของตัวเอง และระบบเครือข่ายที่ไม่พึ่งพาเทคโนโลยีของ NVIDIA
    แผนสร้างศูนย์ข้อมูลใหม่ใน 8 ประเทศภายในปีหน้า
    CEO Eddie Wu ระบุว่าอุตสาหกรรม AI เติบโตเร็วกว่าที่คาด
    ความร่วมมือครั้งนี้อาจช่วยให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านซอฟต์แวร์

    ข้อมูลเสริมจากภายนอก
    คำสั่งห้ามของจีนออกโดย Cyberspace Administration of China เพื่อผลักดันการใช้ชิปภายในประเทศ
    NVIDIA เคยออกแบบชิปรุ่นพิเศษสำหรับจีนเพื่อหลีกเลี่ยงข้อจำกัดจากสหรัฐฯ
    Alibaba และ Baidu มีการพัฒนาชิป AI ภายในองค์กร เช่น Hanguang และ Kunlun
    การใช้ซอฟต์แวร์ของ NVIDIA ยังเป็นจุดแข็งที่คู่แข่งในจีนยังตามไม่ทัน
    การขยายศูนย์ข้อมูลในต่างประเทศช่วยลดความเสี่ยงจากข้อจำกัดภายในประเทศ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/alibaba-announces-partnership-with-nvidia-despite-beijings-bans-chinese-e-commerce-giant-is-prioritizing-ai-with-plans-for-global-expansion
    🌏 “Alibaba จับมือ NVIDIA สวนกระแสคำสั่งปักกิ่ง — เดินเกม AI ระดับโลก แม้ถูกห้ามซื้อชิป” แม้รัฐบาลจีนจะออกคำสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ เช่น Alibaba และ ByteDance ซื้อชิป AI จาก NVIDIA โดยเฉพาะรุ่น H20 และ RTX Pro 6000D ที่ออกแบบมาเฉพาะสำหรับตลาดจีน แต่ Alibaba กลับประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI ระดับโลกอย่างเต็มตัว ความร่วมมือครั้งนี้เน้นการใช้ซอฟต์แวร์ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI (Platform for AI) ของ Alibaba Cloud ซึ่งอาจไม่เข้าข่ายละเมิดคำสั่งห้ามซื้อฮาร์ดแวร์โดยตรง เพราะเป็นการใช้ซอฟต์แวร์ ไม่ใช่การซื้อชิปโดยตรง อย่างไรก็ตาม ยังไม่มีการยืนยันว่า Alibaba จะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่ Alibaba ยังเปิดเผยแผนการสร้างศูนย์ข้อมูลใหม่ในหลายประเทศ เช่น บราซิล ฝรั่งเศส เนเธอร์แลนด์ เม็กซิโก เกาหลีใต้ ญี่ปุ่น มาเลเซีย และดูไบ ภายในปีหน้า เพื่อรองรับความต้องการด้าน AI ที่เพิ่มขึ้นอย่างรวดเร็ว โดย CEO Eddie Wu ระบุว่า “ความเร็วของการเติบโตในอุตสาหกรรม AI เกินความคาดหมายของเราไปมาก” แม้ Alibaba จะมีชิป AI ของตัวเอง และพัฒนาเทคโนโลยีเครือข่ายประสิทธิภาพสูงที่ไม่ต้องพึ่งพาเทคโนโลยี interconnect ของ NVIDIA แต่การจับมือกันครั้งนี้สะท้อนว่า Alibaba ยังเห็นคุณค่าในซอฟต์แวร์และระบบของ NVIDIA ที่สามารถเร่งการพัฒนา AI ได้ในระดับโลก นักวิเคราะห์มองว่า หากดีลนี้เดินหน้าได้โดยไม่มีการแทรกแซงจากรัฐบาลจีนหรือสหรัฐฯ จะเป็นการเปิดทางให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านช่องทางซอฟต์แวร์ และช่วยให้ Alibaba ขยายอิทธิพลด้าน AI ไปทั่วโลก แม้จะถูกจำกัดด้านฮาร์ดแวร์ภายในประเทศ ✅ ข้อมูลสำคัญจากข่าว ➡️ Alibaba ประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI ➡️ ใช้ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI ของ Alibaba Cloud ➡️ ยังไม่มีการยืนยันว่าจะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่ ➡️ รัฐบาลจีนห้ามบริษัทเทคโนโลยีซื้อชิป H20 และ RTX Pro 6000D จาก NVIDIA ➡️ Alibaba มีชิป AI ของตัวเอง และระบบเครือข่ายที่ไม่พึ่งพาเทคโนโลยีของ NVIDIA ➡️ แผนสร้างศูนย์ข้อมูลใหม่ใน 8 ประเทศภายในปีหน้า ➡️ CEO Eddie Wu ระบุว่าอุตสาหกรรม AI เติบโตเร็วกว่าที่คาด ➡️ ความร่วมมือครั้งนี้อาจช่วยให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านซอฟต์แวร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ คำสั่งห้ามของจีนออกโดย Cyberspace Administration of China เพื่อผลักดันการใช้ชิปภายในประเทศ ➡️ NVIDIA เคยออกแบบชิปรุ่นพิเศษสำหรับจีนเพื่อหลีกเลี่ยงข้อจำกัดจากสหรัฐฯ ➡️ Alibaba และ Baidu มีการพัฒนาชิป AI ภายในองค์กร เช่น Hanguang และ Kunlun ➡️ การใช้ซอฟต์แวร์ของ NVIDIA ยังเป็นจุดแข็งที่คู่แข่งในจีนยังตามไม่ทัน ➡️ การขยายศูนย์ข้อมูลในต่างประเทศช่วยลดความเสี่ยงจากข้อจำกัดภายในประเทศ https://www.tomshardware.com/tech-industry/artificial-intelligence/alibaba-announces-partnership-with-nvidia-despite-beijings-bans-chinese-e-commerce-giant-is-prioritizing-ai-with-plans-for-global-expansion
    0 ความคิดเห็น 0 การแบ่งปัน 406 มุมมอง 0 รีวิว
  • Nvidia เจอแรงกระแทกจากจีนอีกครั้ง — CEO ยอมรับ “ผิดหวัง” หลังถูกแบนชิป AI H20 แม้พัฒนาเพื่อหลีกเลี่ยงข้อจำกัด

    Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความผิดหวังอย่างชัดเจน หลังรัฐบาลจีนประกาศห้ามบริษัทเทคโนโลยีภายในประเทศซื้อชิป AI รุ่น H20 ของ Nvidia ซึ่งถูกออกแบบมาเฉพาะสำหรับตลาดจีน เพื่อหลีกเลี่ยงข้อจำกัดด้านการส่งออกจากสหรัฐฯ โดย Huang กล่าวในงานแถลงข่าวที่ลอนดอนว่า “ธุรกิจของเรากับจีนในช่วง 3 ปีที่ผ่านมาเหมือนรถไฟเหาะ”

    ชิป H20 ถูกพัฒนาเพื่อตอบสนองความต้องการของจีน หลังสหรัฐฯ ภายใต้รัฐบาล Biden เคยสั่งห้ามส่งออกชิป AI ระดับสูงไปยังจีนในปี 2023 แต่เมื่อ Trump กลับมาดำรงตำแหน่งในปี 2025 ก็มีการเจรจาใหม่ โดย Nvidia ยอมจ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการยกเลิกข้อจำกัด

    อย่างไรก็ตาม ความกังวลเรื่อง “backdoor” และการติดตามชิปจากระยะไกล ทำให้ Cyberspace Administration of China (CAC) สั่งให้บริษัทใหญ่ เช่น ByteDance และ Alibaba หยุดการสั่งซื้อและทดสอบชิป H20 โดยอ้างว่าเทคโนโลยีของ Nvidia อาจเป็นภัยต่อความมั่นคงของข้อมูลภายในประเทศ

    Huang ยืนยันว่า H20 ไม่ใช่เทคโนโลยีที่เกี่ยวข้องกับความมั่นคง และจีนมีเทคโนโลยีของตัวเองเพียงพอสำหรับการใช้งานทางทหารอยู่แล้ว แต่ก็ยอมรับว่า “ต้องอดทน” และ “เข้าใจว่ามีวาระใหญ่กว่าที่ต้องจัดการระหว่างจีนกับสหรัฐฯ”

    Nvidia ถูกแบนชิป AI H20 ในจีน
    Cyberspace Administration of China สั่งบริษัทเทคโนโลยีหยุดซื้อและทดสอบ
    ชิป H20 ถูกออกแบบมาเฉพาะสำหรับตลาดจีน

    Jensen Huang แสดงความผิดหวังต่อการแบน
    ระบุว่า “ธุรกิจในจีนเหมือนรถไฟเหาะ”
    ยืนยันว่า H20 ไม่เกี่ยวกับความมั่นคงทางทหาร

    ชิป H20 เคยถูกห้ามส่งออกโดยรัฐบาล Biden
    Nvidia พัฒนา H20 เพื่อลดสเปกให้ผ่านข้อจำกัด
    รัฐบาล Trump เจรจาใหม่ให้ Nvidia จ่าย 15% ของรายได้เพื่อแลกกับการขาย

    จีนกังวลเรื่อง backdoor และการติดตามชิปจากระยะไกล
    มีข้อสงสัยว่า H20 อาจมีระบบติดตามหรือ kill switch
    Nvidia ปฏิเสธว่าชิปไม่มีช่องโหว่ด้านความปลอดภัย

    ตลาด AI ในจีนยังมีขนาดใหญ่มาก
    Huang ระบุว่ามีมูลค่าราว 15 พันล้านดอลลาร์
    เป็นตลาด AI ใหญ่เป็นอันดับสองของโลก

    คำเตือนเกี่ยวกับผลกระทบจากการแบน
    การแบนอาจกระทบรายได้ของ Nvidia หลายพันล้านดอลลาร์
    ความไม่แน่นอนทางการเมืองระหว่างจีน-สหรัฐฯ ทำให้การคาดการณ์ธุรกิจยากขึ้น
    การกล่าวหาว่ามี backdoor อาจกระทบความเชื่อมั่นในผลิตภัณฑ์ Nvidia ทั่วโลก
    การพึ่งพาตลาดจีนมากเกินไปอาจเป็นความเสี่ยงเชิงกลยุทธ์ในระยะยาว

    https://www.techradar.com/pro/our-business-in-china-has-been-a-bit-of-a-rollercoaster-nvidia-ceo-disappointed-in-further-chinese-ban-on-buying-its-ai-chips
    📰 Nvidia เจอแรงกระแทกจากจีนอีกครั้ง — CEO ยอมรับ “ผิดหวัง” หลังถูกแบนชิป AI H20 แม้พัฒนาเพื่อหลีกเลี่ยงข้อจำกัด Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความผิดหวังอย่างชัดเจน หลังรัฐบาลจีนประกาศห้ามบริษัทเทคโนโลยีภายในประเทศซื้อชิป AI รุ่น H20 ของ Nvidia ซึ่งถูกออกแบบมาเฉพาะสำหรับตลาดจีน เพื่อหลีกเลี่ยงข้อจำกัดด้านการส่งออกจากสหรัฐฯ โดย Huang กล่าวในงานแถลงข่าวที่ลอนดอนว่า “ธุรกิจของเรากับจีนในช่วง 3 ปีที่ผ่านมาเหมือนรถไฟเหาะ” ชิป H20 ถูกพัฒนาเพื่อตอบสนองความต้องการของจีน หลังสหรัฐฯ ภายใต้รัฐบาล Biden เคยสั่งห้ามส่งออกชิป AI ระดับสูงไปยังจีนในปี 2023 แต่เมื่อ Trump กลับมาดำรงตำแหน่งในปี 2025 ก็มีการเจรจาใหม่ โดย Nvidia ยอมจ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการยกเลิกข้อจำกัด อย่างไรก็ตาม ความกังวลเรื่อง “backdoor” และการติดตามชิปจากระยะไกล ทำให้ Cyberspace Administration of China (CAC) สั่งให้บริษัทใหญ่ เช่น ByteDance และ Alibaba หยุดการสั่งซื้อและทดสอบชิป H20 โดยอ้างว่าเทคโนโลยีของ Nvidia อาจเป็นภัยต่อความมั่นคงของข้อมูลภายในประเทศ Huang ยืนยันว่า H20 ไม่ใช่เทคโนโลยีที่เกี่ยวข้องกับความมั่นคง และจีนมีเทคโนโลยีของตัวเองเพียงพอสำหรับการใช้งานทางทหารอยู่แล้ว แต่ก็ยอมรับว่า “ต้องอดทน” และ “เข้าใจว่ามีวาระใหญ่กว่าที่ต้องจัดการระหว่างจีนกับสหรัฐฯ” ✅ Nvidia ถูกแบนชิป AI H20 ในจีน ➡️ Cyberspace Administration of China สั่งบริษัทเทคโนโลยีหยุดซื้อและทดสอบ ➡️ ชิป H20 ถูกออกแบบมาเฉพาะสำหรับตลาดจีน ✅ Jensen Huang แสดงความผิดหวังต่อการแบน ➡️ ระบุว่า “ธุรกิจในจีนเหมือนรถไฟเหาะ” ➡️ ยืนยันว่า H20 ไม่เกี่ยวกับความมั่นคงทางทหาร ✅ ชิป H20 เคยถูกห้ามส่งออกโดยรัฐบาล Biden ➡️ Nvidia พัฒนา H20 เพื่อลดสเปกให้ผ่านข้อจำกัด ➡️ รัฐบาล Trump เจรจาใหม่ให้ Nvidia จ่าย 15% ของรายได้เพื่อแลกกับการขาย ✅ จีนกังวลเรื่อง backdoor และการติดตามชิปจากระยะไกล ➡️ มีข้อสงสัยว่า H20 อาจมีระบบติดตามหรือ kill switch ➡️ Nvidia ปฏิเสธว่าชิปไม่มีช่องโหว่ด้านความปลอดภัย ✅ ตลาด AI ในจีนยังมีขนาดใหญ่มาก ➡️ Huang ระบุว่ามีมูลค่าราว 15 พันล้านดอลลาร์ ➡️ เป็นตลาด AI ใหญ่เป็นอันดับสองของโลก ‼️ คำเตือนเกี่ยวกับผลกระทบจากการแบน ⛔ การแบนอาจกระทบรายได้ของ Nvidia หลายพันล้านดอลลาร์ ⛔ ความไม่แน่นอนทางการเมืองระหว่างจีน-สหรัฐฯ ทำให้การคาดการณ์ธุรกิจยากขึ้น ⛔ การกล่าวหาว่ามี backdoor อาจกระทบความเชื่อมั่นในผลิตภัณฑ์ Nvidia ทั่วโลก ⛔ การพึ่งพาตลาดจีนมากเกินไปอาจเป็นความเสี่ยงเชิงกลยุทธ์ในระยะยาว https://www.techradar.com/pro/our-business-in-china-has-been-a-bit-of-a-rollercoaster-nvidia-ceo-disappointed-in-further-chinese-ban-on-buying-its-ai-chips
    0 ความคิดเห็น 0 การแบ่งปัน 383 มุมมอง 0 รีวิว
  • จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia — ผลักดันใช้โปรเซสเซอร์ในประเทศแทน

    ในความเคลื่อนไหวที่สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีน ล่าสุดมีรายงานว่า รัฐบาลจีนได้สั่งห้ามบริษัทเทคโนโลยีรายใหญ่ของประเทศ เช่น Alibaba, ByteDance, Baidu และ Tencent ทำการจัดซื้อชิป AI จาก Nvidia แม้จะเป็นรุ่นที่ออกแบบมาเฉพาะสำหรับตลาดจีนอย่าง H800 และ A800 ก็ตาม

    คำสั่งนี้มีเป้าหมายเพื่อผลักดันให้บริษัทจีนหันมาใช้โปรเซสเซอร์ที่ผลิตภายในประเทศ เช่น Huawei Ascend 910B และ Moore Threads ซึ่งทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่ากับชิปรุ่น H20 และ RTX 6000 Pro ของ Nvidia

    การตัดสินใจนี้เกิดขึ้นหลังจากสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ไปยังจีน โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ซึ่งอาจนำไปใช้ในงานด้านการทหารหรือการพัฒนาเทคโนโลยีที่อ่อนไหว

    แม้บริษัทจีนจะยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลกระทบต่อการพัฒนา AI และการประมวลผลขั้นสูงในระยะยาว

    จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia
    รวมถึงชิปรุ่น H800 และ A800 ที่ออกแบบมาเฉพาะสำหรับตลาดจีน
    บริษัทที่ได้รับผลกระทบ ได้แก่ Alibaba, ByteDance, Baidu และ Tencent

    ผลักดันให้ใช้โปรเซสเซอร์ที่ผลิตในประเทศ
    เช่น Huawei Ascend 910B และ Moore Threads
    ทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่าชิปรุ่น H20 และ RTX 6000 Pro

    สหรัฐฯ มีมาตรการควบคุมการส่งออกชิป AI ไปยังจีน
    โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง
    หวั่นว่าจะถูกนำไปใช้ในงานด้านการทหารหรือเทคโนโลยีอ่อนไหว

    บริษัทจีนยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้
    แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลต่อการพัฒนา AI ในระยะยาว

    คำเตือนเกี่ยวกับผลกระทบต่ออุตสาหกรรม AI ในจีน
    การจำกัดการเข้าถึงชิปอาจทำให้การพัฒนาเทคโนโลยีล่าช้า
    อาจกระทบต่อการแข่งขันระดับโลกในด้าน AI และการประมวลผลขั้นสูง
    บริษัทจีนอาจต้องลงทุนเพิ่มในการพัฒนาเทคโนโลยีภายในประเทศ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/china-bans-its-biggest-tech-companies-from-acquiring-nvidia-chips-says-report-beijing-claims-its-homegrown-ai-processors-now-match-h20-and-rtx-pro-6000d
    📰 จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia — ผลักดันใช้โปรเซสเซอร์ในประเทศแทน ในความเคลื่อนไหวที่สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีน ล่าสุดมีรายงานว่า รัฐบาลจีนได้สั่งห้ามบริษัทเทคโนโลยีรายใหญ่ของประเทศ เช่น Alibaba, ByteDance, Baidu และ Tencent ทำการจัดซื้อชิป AI จาก Nvidia แม้จะเป็นรุ่นที่ออกแบบมาเฉพาะสำหรับตลาดจีนอย่าง H800 และ A800 ก็ตาม คำสั่งนี้มีเป้าหมายเพื่อผลักดันให้บริษัทจีนหันมาใช้โปรเซสเซอร์ที่ผลิตภายในประเทศ เช่น Huawei Ascend 910B และ Moore Threads ซึ่งทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่ากับชิปรุ่น H20 และ RTX 6000 Pro ของ Nvidia การตัดสินใจนี้เกิดขึ้นหลังจากสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ไปยังจีน โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ซึ่งอาจนำไปใช้ในงานด้านการทหารหรือการพัฒนาเทคโนโลยีที่อ่อนไหว แม้บริษัทจีนจะยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลกระทบต่อการพัฒนา AI และการประมวลผลขั้นสูงในระยะยาว ✅ จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia ➡️ รวมถึงชิปรุ่น H800 และ A800 ที่ออกแบบมาเฉพาะสำหรับตลาดจีน ➡️ บริษัทที่ได้รับผลกระทบ ได้แก่ Alibaba, ByteDance, Baidu และ Tencent ✅ ผลักดันให้ใช้โปรเซสเซอร์ที่ผลิตในประเทศ ➡️ เช่น Huawei Ascend 910B และ Moore Threads ➡️ ทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่าชิปรุ่น H20 และ RTX 6000 Pro ✅ สหรัฐฯ มีมาตรการควบคุมการส่งออกชิป AI ไปยังจีน ➡️ โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ➡️ หวั่นว่าจะถูกนำไปใช้ในงานด้านการทหารหรือเทคโนโลยีอ่อนไหว ✅ บริษัทจีนยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ ➡️ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลต่อการพัฒนา AI ในระยะยาว ‼️ คำเตือนเกี่ยวกับผลกระทบต่ออุตสาหกรรม AI ในจีน ⛔ การจำกัดการเข้าถึงชิปอาจทำให้การพัฒนาเทคโนโลยีล่าช้า ⛔ อาจกระทบต่อการแข่งขันระดับโลกในด้าน AI และการประมวลผลขั้นสูง ⛔ บริษัทจีนอาจต้องลงทุนเพิ่มในการพัฒนาเทคโนโลยีภายในประเทศ https://www.tomshardware.com/tech-industry/artificial-intelligence/china-bans-its-biggest-tech-companies-from-acquiring-nvidia-chips-says-report-beijing-claims-its-homegrown-ai-processors-now-match-h20-and-rtx-pro-6000d
    0 ความคิดเห็น 0 การแบ่งปัน 357 มุมมอง 0 รีวิว
  • “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI”

    ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด

    ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด

    OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว

    Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง

    รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก

    แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น

    ข้อมูลสำคัญจากข่าว
    Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด
    Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia
    OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน
    Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้

    สถานการณ์ตลาดและผลกระทบ
    Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39%
    Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92%
    สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก
    จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ

    ข้อมูลเสริมจากภายนอก
    AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน
    การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง
    การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี
    สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด

    https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    🔒 “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI” ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น ✅ ข้อมูลสำคัญจากข่าว ➡️ Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด ➡️ Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia ➡️ OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน ➡️ Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้ ✅ สถานการณ์ตลาดและผลกระทบ ➡️ Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39% ➡️ Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92% ➡️ สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก ➡️ จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ ✅ ข้อมูลเสริมจากภายนอก ➡️ AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน ➡️ การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง ➡️ การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี ➡️ สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    0 ความคิดเห็น 0 การแบ่งปัน 299 มุมมอง 0 รีวิว
  • “Jack Ma กลับมาแล้ว — ปลุก Alibaba ด้วย AI และสงครามราคา เพื่อทวงคืนความยิ่งใหญ่”

    หลังจากหายตัวไปจากสาธารณะตั้งแต่ปี 2020 เพราะวิจารณ์ระบบการเงินจีนอย่างตรงไปตรงมา Jack Ma ผู้ก่อตั้ง Alibaba ได้กลับมาอีกครั้งในปี 2025 พร้อมภารกิจ “Make Alibaba Great Again” โดยไม่ต้องมีตำแหน่งอย่างเป็นทางการ แต่มีอิทธิพลเต็มรูปแบบในเบื้องหลัง

    Ma กลับมาในช่วงที่ Alibaba กำลังเผชิญการแข่งขันดุเดือดจาก JD.com และ Meituan โดยเขาเป็นผู้อยู่เบื้องหลังการตัดสินใจทุ่มเงินกว่า 50,000 ล้านหยวน (ประมาณ 7 พันล้านดอลลาร์) เพื่ออัดฉีดเงินอุดหนุนและดึงลูกค้ากลับมา โดยเฉพาะในตลาด food delivery ที่ Alibaba มีส่วนแบ่ง 43% ตามหลัง Meituan ที่ 47%

    นอกจากสงครามราคากับคู่แข่ง Ma ยังผลักดันการลงทุนใน AI อย่างหนัก โดย Alibaba ประกาศแผนลงทุนกว่า 380,000 ล้านหยวนในโครงสร้างพื้นฐาน AI และคลาวด์ภายใน 3 ปี พร้อมเปิดตัวโมเดล Qwen รุ่นใหม่ที่มีพารามิเตอร์ระดับล้านล้าน และชิป T-head ที่พัฒนาเองเพื่อลดการพึ่งพา Nvidia

    การกลับมาของ Ma ไม่ใช่แค่เรื่องเทคโนโลยี แต่ยังเป็นการฟื้นฟูวัฒนธรรมองค์กรที่เคยตกต่ำในช่วงที่เขาหายไป พนักงานหลายคนถึงกับร้องไห้เมื่อเห็นเขากลับมาพูดในงานของ Ant Group และ Alibaba Cloud เพราะรู้สึกว่า “จิตวิญญาณของบริษัทกลับมาแล้ว”

    แม้ Ma จะไม่มีตำแหน่งอย่างเป็นทางการ แต่เขายังคงสวมบัตรพนักงานและเดินในแคมปัสอย่างเปิดเผย ส่งข้อความถึงผู้บริหาร ขออัปเดตด้าน AI วันละหลายครั้ง และมีบทบาทในการเปลี่ยนแปลงผู้นำ เช่น การสนับสนุน Jiang Fan ให้ดูแลธุรกิจอีคอมเมิร์ซแบบรวมศูนย์ใหม่

    อย่างไรก็ตาม การกลับมาของ Ma ก็มีความเสี่ยง เพราะการอัดฉีดเงินอุดหนุนอาจขัดกับนโยบายของรัฐบาลที่ต้องการควบคุม “การแข่งขันที่ไม่เป็นธรรม” และการลงทุนใน AI ยังไม่สามารถสร้างรายได้อย่างชัดเจนในระยะสั้น

    ข้อมูลสำคัญจากข่าว
    Jack Ma กลับมาอย่างไม่เป็นทางการใน Alibaba หลังหายไปตั้งแต่ปี 2020
    เป็นผู้อยู่เบื้องหลังแผน “Make Alibaba Great Again” และการอัดฉีดเงินอุดหนุน 50,000 ล้านหยวน
    ผลักดันการลงทุนใน AI และคลาวด์กว่า 380,000 ล้านหยวนภายใน 3 ปี
    เปิดตัวโมเดล Qwen รุ่นใหม่และชิป T-head ที่พัฒนาเอง
    สนับสนุน Jiang Fan ให้ดูแลธุรกิจอีคอมเมิร์ซแบบรวมศูนย์

    ผลกระทบต่อองค์กรและตลาด
    พนักงานรู้สึกมีขวัญกำลังใจมากขึ้นหลัง Ma กลับมา
    หุ้น Alibaba พุ่งขึ้นกว่า 88% ในปี 2025
    รายได้จากคลาวด์โตขึ้น 26% ในไตรมาสล่าสุด
    Alibaba มีส่วนแบ่งตลาด food delivery 43% ตามหลัง Meituan

    ข้อมูลเสริมจากภายนอก
    Ma เคยเป็นบุคคลที่ร่ำรวยที่สุดในจีน และเป็นสัญลักษณ์ของยุคเทคโนโลยีเสรี
    การหายตัวของเขาเกิดหลังวิจารณ์ระบบการเงินจีนและการล้ม IPO ของ Ant Group
    การกลับมาครั้งนี้ถูกมองว่าเป็นสัญญาณว่ารัฐบาลจีนเริ่มเปิดรับผู้ก่อตั้งเทคโนโลยีอีกครั้ง
    Alibaba เคยมีมูลค่าตลาดสูงถึง 800,000 ล้านดอลลาร์ ก่อนลดลงเหลือครึ่งหนึ่ง

    คำเตือนและข้อจำกัด
    Ma ไม่มีตำแหน่งอย่างเป็นทางการ อาจทำให้โครงสร้างการรายงานภายในสับสน
    การอัดฉีดเงินอุดหนุนอาจขัดกับนโยบายรัฐเรื่อง “การแข่งขันที่เป็นธรรม”
    การลงทุนใน AI ยังไม่สร้างรายได้ชัดเจน และมีต้นทุนสูง
    การเปลี่ยนผู้นำและกลยุทธ์อาจสร้างแรงเสียดทานภายในองค์กร
    การกลับมาของ Ma อาจถูกมองว่าเป็น “ความพยายามครั้งสุดท้าย” ในการกู้ชื่อเสียง

    https://www.thestar.com.my/tech/tech-news/2025/09/16/jack-ma-returns-with-a-vengeance-to-make-alibaba-great-again
    🦁 “Jack Ma กลับมาแล้ว — ปลุก Alibaba ด้วย AI และสงครามราคา เพื่อทวงคืนความยิ่งใหญ่” หลังจากหายตัวไปจากสาธารณะตั้งแต่ปี 2020 เพราะวิจารณ์ระบบการเงินจีนอย่างตรงไปตรงมา Jack Ma ผู้ก่อตั้ง Alibaba ได้กลับมาอีกครั้งในปี 2025 พร้อมภารกิจ “Make Alibaba Great Again” โดยไม่ต้องมีตำแหน่งอย่างเป็นทางการ แต่มีอิทธิพลเต็มรูปแบบในเบื้องหลัง Ma กลับมาในช่วงที่ Alibaba กำลังเผชิญการแข่งขันดุเดือดจาก JD.com และ Meituan โดยเขาเป็นผู้อยู่เบื้องหลังการตัดสินใจทุ่มเงินกว่า 50,000 ล้านหยวน (ประมาณ 7 พันล้านดอลลาร์) เพื่ออัดฉีดเงินอุดหนุนและดึงลูกค้ากลับมา โดยเฉพาะในตลาด food delivery ที่ Alibaba มีส่วนแบ่ง 43% ตามหลัง Meituan ที่ 47% นอกจากสงครามราคากับคู่แข่ง Ma ยังผลักดันการลงทุนใน AI อย่างหนัก โดย Alibaba ประกาศแผนลงทุนกว่า 380,000 ล้านหยวนในโครงสร้างพื้นฐาน AI และคลาวด์ภายใน 3 ปี พร้อมเปิดตัวโมเดล Qwen รุ่นใหม่ที่มีพารามิเตอร์ระดับล้านล้าน และชิป T-head ที่พัฒนาเองเพื่อลดการพึ่งพา Nvidia การกลับมาของ Ma ไม่ใช่แค่เรื่องเทคโนโลยี แต่ยังเป็นการฟื้นฟูวัฒนธรรมองค์กรที่เคยตกต่ำในช่วงที่เขาหายไป พนักงานหลายคนถึงกับร้องไห้เมื่อเห็นเขากลับมาพูดในงานของ Ant Group และ Alibaba Cloud เพราะรู้สึกว่า “จิตวิญญาณของบริษัทกลับมาแล้ว” แม้ Ma จะไม่มีตำแหน่งอย่างเป็นทางการ แต่เขายังคงสวมบัตรพนักงานและเดินในแคมปัสอย่างเปิดเผย ส่งข้อความถึงผู้บริหาร ขออัปเดตด้าน AI วันละหลายครั้ง และมีบทบาทในการเปลี่ยนแปลงผู้นำ เช่น การสนับสนุน Jiang Fan ให้ดูแลธุรกิจอีคอมเมิร์ซแบบรวมศูนย์ใหม่ อย่างไรก็ตาม การกลับมาของ Ma ก็มีความเสี่ยง เพราะการอัดฉีดเงินอุดหนุนอาจขัดกับนโยบายของรัฐบาลที่ต้องการควบคุม “การแข่งขันที่ไม่เป็นธรรม” และการลงทุนใน AI ยังไม่สามารถสร้างรายได้อย่างชัดเจนในระยะสั้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Jack Ma กลับมาอย่างไม่เป็นทางการใน Alibaba หลังหายไปตั้งแต่ปี 2020 ➡️ เป็นผู้อยู่เบื้องหลังแผน “Make Alibaba Great Again” และการอัดฉีดเงินอุดหนุน 50,000 ล้านหยวน ➡️ ผลักดันการลงทุนใน AI และคลาวด์กว่า 380,000 ล้านหยวนภายใน 3 ปี ➡️ เปิดตัวโมเดล Qwen รุ่นใหม่และชิป T-head ที่พัฒนาเอง ➡️ สนับสนุน Jiang Fan ให้ดูแลธุรกิจอีคอมเมิร์ซแบบรวมศูนย์ ✅ ผลกระทบต่อองค์กรและตลาด ➡️ พนักงานรู้สึกมีขวัญกำลังใจมากขึ้นหลัง Ma กลับมา ➡️ หุ้น Alibaba พุ่งขึ้นกว่า 88% ในปี 2025 ➡️ รายได้จากคลาวด์โตขึ้น 26% ในไตรมาสล่าสุด ➡️ Alibaba มีส่วนแบ่งตลาด food delivery 43% ตามหลัง Meituan ✅ ข้อมูลเสริมจากภายนอก ➡️ Ma เคยเป็นบุคคลที่ร่ำรวยที่สุดในจีน และเป็นสัญลักษณ์ของยุคเทคโนโลยีเสรี ➡️ การหายตัวของเขาเกิดหลังวิจารณ์ระบบการเงินจีนและการล้ม IPO ของ Ant Group ➡️ การกลับมาครั้งนี้ถูกมองว่าเป็นสัญญาณว่ารัฐบาลจีนเริ่มเปิดรับผู้ก่อตั้งเทคโนโลยีอีกครั้ง ➡️ Alibaba เคยมีมูลค่าตลาดสูงถึง 800,000 ล้านดอลลาร์ ก่อนลดลงเหลือครึ่งหนึ่ง ‼️ คำเตือนและข้อจำกัด ⛔ Ma ไม่มีตำแหน่งอย่างเป็นทางการ อาจทำให้โครงสร้างการรายงานภายในสับสน ⛔ การอัดฉีดเงินอุดหนุนอาจขัดกับนโยบายรัฐเรื่อง “การแข่งขันที่เป็นธรรม” ⛔ การลงทุนใน AI ยังไม่สร้างรายได้ชัดเจน และมีต้นทุนสูง ⛔ การเปลี่ยนผู้นำและกลยุทธ์อาจสร้างแรงเสียดทานภายในองค์กร ⛔ การกลับมาของ Ma อาจถูกมองว่าเป็น “ความพยายามครั้งสุดท้าย” ในการกู้ชื่อเสียง https://www.thestar.com.my/tech/tech-news/2025/09/16/jack-ma-returns-with-a-vengeance-to-make-alibaba-great-again
    WWW.THESTAR.COM.MY
    Jack Ma returns with a vengeance to 'Make Alibaba Great Again'
    During China's yearslong crackdown on the tech sector, Alibaba Group Holding Ltd's internal messaging boards lit up with dreams to "MAGA" – Make Alibaba Great Again. Now, the company is deploying one of its most potent weapons to accomplish that mission: Jack Ma.
    0 ความคิดเห็น 0 การแบ่งปัน 397 มุมมอง 0 รีวิว
  • เรื่องเล่าจากแบตเตอรี่ 5,220mAh สู่ 8,000mAh: เมื่อเกมเมอร์ไม่รอให้ Nintendo แก้ปัญหาแบตหมดเร็ว

    แม้ Nintendo Switch 2 จะเปิดตัวพร้อมหน้าจอ 7.9 นิ้ว 120Hz LCD และ Joy-Con ที่แข็งแรงขึ้น แต่ปัญหาเรื่องแบตเตอรี่ยังคงเป็นจุดอ่อน โดยเฉพาะเมื่อเล่นเกมหนัก ๆ อย่าง Cyberpunk 2077 ที่กินพลังงานสูงมาก

    นักโมดิฟายชื่อ naga ได้โพสต์วิดีโอบน YouTube แสดงขั้นตอนการเปลี่ยนแบตเตอรี่จากรุ่นมาตรฐาน 5,220mAh เป็นรุ่นใหญ่ 8,000mAh โดยใช้แบตที่หาซื้อได้จาก Goofish ซึ่งเป็นแพลตฟอร์มของ Alibaba ในราคาต่ำกว่า $40

    ขั้นตอนการเปลี่ยนแบตต้องถอดฝาหลัง, แผ่นโลหะ, และใช้แอลกอฮอล์ละลายกาวใต้แบต ก่อนจะใส่แบตใหม่ที่ใหญ่กว่า ซึ่งต้องตัดแต่งโครงโลหะและแผ่นป้องกันเพื่อให้พอดี

    ผลการทดสอบพบว่า Cyberpunk 2077 ที่รันที่ 40Hz เล่นได้นานขึ้นจาก 2 ชั่วโมง 18 นาที เป็น 3 ชั่วโมง 25 นาที—เพิ่มขึ้นกว่า 1 ชั่วโมง ซึ่งถือว่าเยอะมากสำหรับเกมที่กินแบตหนัก

    นอกจากนี้ยังมีทางเลือกอื่น เช่น Ice Mag battery pack ขนาด 10,000mAh ที่ใช้ภายนอกร่วมกับเคส Genki Attack Vector ซึ่งสามารถเพิ่มเวลาเล่นได้ถึง 5 ชั่วโมง โดยไม่ต้องแกะเครื่องเลย

    การเปลี่ยนแบตเตอรี่ภายใน Switch 2
    เปลี่ยนจากแบต 5,220mAh เป็น 8,000mAh ด้วยแบตจาก Goofish ราคาต่ำกว่า $40
    ต้องถอดฝาหลัง ใช้แอลกอฮอล์ละลายกาว และตัดแต่งโครงโลหะ
    Cyberpunk 2077 เล่นได้นานขึ้นกว่า 1 ชั่วโมงหลังเปลี่ยนแบต

    ทางเลือกเสริมจากภายนอก
    Ice Mag battery pack ขนาด 10,000mAh เพิ่มเวลาเล่นได้ถึง 5 ชั่วโมง
    ใช้ร่วมกับเคส Genki Attack Vector ที่รองรับ MagSafe และปรับขนาดได้
    ไม่ต้องแกะเครื่องหรือ void warranty

    สเปกของ Switch 2 ที่เกี่ยวข้องกับแบต
    หน้าจอ 7.9 นิ้ว 120Hz LCD ใช้พลังงานมากกว่ารุ่นก่อน
    Joy-Con ใหม่แข็งแรงขึ้น แต่ไม่ได้ช่วยเรื่องประหยัดพลังงาน
    Nintendo เคลมว่าแบตใหญ่ขึ้น แต่ผลทดสอบยังไม่ประทับใจ

    https://www.tomshardware.com/video-games/nintendo/nintendo-switch-2-mod-adds-over-an-hour-of-playtime-with-bigger-8-000mah-battery-unit-replacement-battery-packs-sell-for-as-little-as-usd40
    🎙️ เรื่องเล่าจากแบตเตอรี่ 5,220mAh สู่ 8,000mAh: เมื่อเกมเมอร์ไม่รอให้ Nintendo แก้ปัญหาแบตหมดเร็ว แม้ Nintendo Switch 2 จะเปิดตัวพร้อมหน้าจอ 7.9 นิ้ว 120Hz LCD และ Joy-Con ที่แข็งแรงขึ้น แต่ปัญหาเรื่องแบตเตอรี่ยังคงเป็นจุดอ่อน โดยเฉพาะเมื่อเล่นเกมหนัก ๆ อย่าง Cyberpunk 2077 ที่กินพลังงานสูงมาก นักโมดิฟายชื่อ naga ได้โพสต์วิดีโอบน YouTube แสดงขั้นตอนการเปลี่ยนแบตเตอรี่จากรุ่นมาตรฐาน 5,220mAh เป็นรุ่นใหญ่ 8,000mAh โดยใช้แบตที่หาซื้อได้จาก Goofish ซึ่งเป็นแพลตฟอร์มของ Alibaba ในราคาต่ำกว่า $40 ขั้นตอนการเปลี่ยนแบตต้องถอดฝาหลัง, แผ่นโลหะ, และใช้แอลกอฮอล์ละลายกาวใต้แบต ก่อนจะใส่แบตใหม่ที่ใหญ่กว่า ซึ่งต้องตัดแต่งโครงโลหะและแผ่นป้องกันเพื่อให้พอดี ผลการทดสอบพบว่า Cyberpunk 2077 ที่รันที่ 40Hz เล่นได้นานขึ้นจาก 2 ชั่วโมง 18 นาที เป็น 3 ชั่วโมง 25 นาที—เพิ่มขึ้นกว่า 1 ชั่วโมง ซึ่งถือว่าเยอะมากสำหรับเกมที่กินแบตหนัก นอกจากนี้ยังมีทางเลือกอื่น เช่น Ice Mag battery pack ขนาด 10,000mAh ที่ใช้ภายนอกร่วมกับเคส Genki Attack Vector ซึ่งสามารถเพิ่มเวลาเล่นได้ถึง 5 ชั่วโมง โดยไม่ต้องแกะเครื่องเลย ✅ การเปลี่ยนแบตเตอรี่ภายใน Switch 2 ➡️ เปลี่ยนจากแบต 5,220mAh เป็น 8,000mAh ด้วยแบตจาก Goofish ราคาต่ำกว่า $40 ➡️ ต้องถอดฝาหลัง ใช้แอลกอฮอล์ละลายกาว และตัดแต่งโครงโลหะ ➡️ Cyberpunk 2077 เล่นได้นานขึ้นกว่า 1 ชั่วโมงหลังเปลี่ยนแบต ✅ ทางเลือกเสริมจากภายนอก ➡️ Ice Mag battery pack ขนาด 10,000mAh เพิ่มเวลาเล่นได้ถึง 5 ชั่วโมง ➡️ ใช้ร่วมกับเคส Genki Attack Vector ที่รองรับ MagSafe และปรับขนาดได้ ➡️ ไม่ต้องแกะเครื่องหรือ void warranty ✅ สเปกของ Switch 2 ที่เกี่ยวข้องกับแบต ➡️ หน้าจอ 7.9 นิ้ว 120Hz LCD ใช้พลังงานมากกว่ารุ่นก่อน ➡️ Joy-Con ใหม่แข็งแรงขึ้น แต่ไม่ได้ช่วยเรื่องประหยัดพลังงาน ➡️ Nintendo เคลมว่าแบตใหญ่ขึ้น แต่ผลทดสอบยังไม่ประทับใจ https://www.tomshardware.com/video-games/nintendo/nintendo-switch-2-mod-adds-over-an-hour-of-playtime-with-bigger-8-000mah-battery-unit-replacement-battery-packs-sell-for-as-little-as-usd40
    0 ความคิดเห็น 0 การแบ่งปัน 247 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก LongCat ถึง Xiaomei: เมื่อ AI กลายเป็นพนักงานส่งอาหารที่พูดได้และคิดแทนคุณ

    Meituan ซึ่งเป็นหนึ่งในแพลตฟอร์มส่งอาหารและบริการท้องถิ่นที่ใหญ่ที่สุดในจีน ได้เปิดตัว “Xiaomei” แอปผู้ช่วย AI ที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า LongCat โดย Xiaomei สามารถรับคำสั่งเสียงจากผู้ใช้เพื่อสั่งอาหาร จองร้านอาหาร และแนะนำเมนูที่เหมาะกับความชอบของแต่ละคนได้แบบเรียลไทม์2

    LongCat ไม่ใช่แค่โมเดลทั่วไป แต่เป็นโมเดลขนาดมหึมาที่มีพารามิเตอร์ถึง 560 พันล้านตัว และใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่เปิดใช้งานเฉพาะส่วนที่จำเป็นในแต่ละบริบท ทำให้สามารถให้คำตอบได้เร็วและแม่นยำโดยใช้พลังงานน้อยลง

    การเปิดตัว Xiaomei เป็นการตอบโต้โดยตรงต่อการรุกคืบของ Alibaba ที่เพิ่งปรับปรุงระบบแผนที่และแนะนำร้านอาหารด้วย AI เช่นกัน รวมถึง JD.com ที่กำลังลงทุนหนักในบริการส่งอาหารแบบทันใจ

    แม้ Meituan จะได้เปรียบในด้านฐานผู้ใช้กว่า 770 ล้านคนต่อปี แต่การแข่งขันที่รุนแรงทำให้ทุกบริษัทต้องทุ่มงบมหาศาล เช่น Alibaba ที่เพิ่งประกาศงบส่งเสริมการขายกว่า 140 ล้านดอลลาร์ในสัปดาห์เดียว เพื่อดึงดูดผู้ใช้ใหม่

    นักวิเคราะห์มองว่า Xiaomei เป็นตัวอย่างของการใช้ AI เพื่อเพิ่ม engagement และลดต้นทุนการบริการในระยะยาว แต่ก็เตือนว่าการแข่งขันที่รุนแรงอาจทำให้กำไรของทุกฝ่ายลดลง แม้ผู้ใช้จะได้ประโยชน์จากบริการที่ดีขึ้นก็ตาม

    การเปิดตัว Xiaomei โดย Meituan
    เป็น AI agent ที่ใช้สั่งอาหาร จองร้าน และแนะนำเมนูผ่านเสียง
    ขับเคลื่อนด้วยโมเดล LongCat ที่พัฒนาโดย Meituan เอง
    ใช้เทคโนโลยี MoE เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน

    ความสามารถของ LongCat
    มีพารามิเตอร์ 560 พันล้านตัว
    ใช้ dynamic computation เปิดใช้งานเฉพาะส่วนที่จำเป็น
    ออกแบบให้รองรับข้อความยาวและตอบสนองเร็ว

    การแข่งขันในตลาดส่งอาหารจีน
    Alibaba ปรับปรุงระบบแผนที่และแนะนำร้านด้วย AI
    JD.com ลงทุนหนักในบริการส่งอาหารทันใจ
    Meituan มีฐานผู้ใช้กว่า 770 ล้านคนต่อปี

    ผลกระทบต่อธุรกิจและผู้บริโภค
    ผู้ใช้ได้รับบริการที่ฉลาดขึ้นและสะดวกขึ้น
    บริษัทต้องลงทุนมหาศาลเพื่อรักษาส่วนแบ่งตลาด
    การใช้ AI อาจช่วยลดต้นทุนในระยะยาว

    https://www.thestar.com.my/tech/tech-news/2025/09/12/meituan-launches-ai-agent-to-boost-food-delivery-business
    🎙️ เรื่องเล่าจาก LongCat ถึง Xiaomei: เมื่อ AI กลายเป็นพนักงานส่งอาหารที่พูดได้และคิดแทนคุณ Meituan ซึ่งเป็นหนึ่งในแพลตฟอร์มส่งอาหารและบริการท้องถิ่นที่ใหญ่ที่สุดในจีน ได้เปิดตัว “Xiaomei” แอปผู้ช่วย AI ที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า LongCat โดย Xiaomei สามารถรับคำสั่งเสียงจากผู้ใช้เพื่อสั่งอาหาร จองร้านอาหาร และแนะนำเมนูที่เหมาะกับความชอบของแต่ละคนได้แบบเรียลไทม์2 LongCat ไม่ใช่แค่โมเดลทั่วไป แต่เป็นโมเดลขนาดมหึมาที่มีพารามิเตอร์ถึง 560 พันล้านตัว และใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่เปิดใช้งานเฉพาะส่วนที่จำเป็นในแต่ละบริบท ทำให้สามารถให้คำตอบได้เร็วและแม่นยำโดยใช้พลังงานน้อยลง การเปิดตัว Xiaomei เป็นการตอบโต้โดยตรงต่อการรุกคืบของ Alibaba ที่เพิ่งปรับปรุงระบบแผนที่และแนะนำร้านอาหารด้วย AI เช่นกัน รวมถึง JD.com ที่กำลังลงทุนหนักในบริการส่งอาหารแบบทันใจ แม้ Meituan จะได้เปรียบในด้านฐานผู้ใช้กว่า 770 ล้านคนต่อปี แต่การแข่งขันที่รุนแรงทำให้ทุกบริษัทต้องทุ่มงบมหาศาล เช่น Alibaba ที่เพิ่งประกาศงบส่งเสริมการขายกว่า 140 ล้านดอลลาร์ในสัปดาห์เดียว เพื่อดึงดูดผู้ใช้ใหม่ นักวิเคราะห์มองว่า Xiaomei เป็นตัวอย่างของการใช้ AI เพื่อเพิ่ม engagement และลดต้นทุนการบริการในระยะยาว แต่ก็เตือนว่าการแข่งขันที่รุนแรงอาจทำให้กำไรของทุกฝ่ายลดลง แม้ผู้ใช้จะได้ประโยชน์จากบริการที่ดีขึ้นก็ตาม ✅ การเปิดตัว Xiaomei โดย Meituan ➡️ เป็น AI agent ที่ใช้สั่งอาหาร จองร้าน และแนะนำเมนูผ่านเสียง ➡️ ขับเคลื่อนด้วยโมเดล LongCat ที่พัฒนาโดย Meituan เอง ➡️ ใช้เทคโนโลยี MoE เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน ✅ ความสามารถของ LongCat ➡️ มีพารามิเตอร์ 560 พันล้านตัว ➡️ ใช้ dynamic computation เปิดใช้งานเฉพาะส่วนที่จำเป็น ➡️ ออกแบบให้รองรับข้อความยาวและตอบสนองเร็ว ✅ การแข่งขันในตลาดส่งอาหารจีน ➡️ Alibaba ปรับปรุงระบบแผนที่และแนะนำร้านด้วย AI ➡️ JD.com ลงทุนหนักในบริการส่งอาหารทันใจ ➡️ Meituan มีฐานผู้ใช้กว่า 770 ล้านคนต่อปี ✅ ผลกระทบต่อธุรกิจและผู้บริโภค ➡️ ผู้ใช้ได้รับบริการที่ฉลาดขึ้นและสะดวกขึ้น ➡️ บริษัทต้องลงทุนมหาศาลเพื่อรักษาส่วนแบ่งตลาด ➡️ การใช้ AI อาจช่วยลดต้นทุนในระยะยาว https://www.thestar.com.my/tech/tech-news/2025/09/12/meituan-launches-ai-agent-to-boost-food-delivery-business
    WWW.THESTAR.COM.MY
    Meituan launches AI agent to boost food delivery business
    Meituan has launched a new AI agent app that aims to boost its food delivery and local services business, as its battle with Alibaba Group Holding Ltd for Chinese consumers heats up.
    0 ความคิดเห็น 0 การแบ่งปัน 309 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Qwen3 สู่ Qwen3-Next: เมื่อโมเดล 80B ทำงานได้เท่ากับ 235B โดยใช้พลังแค่ 3B

    ในเดือนกันยายน 2025 ทีม Qwen จาก Alibaba ได้เปิดตัวสถาปัตยกรรมใหม่ชื่อว่า Qwen3-Next ซึ่งเป็นการพัฒนาโมเดลขนาดใหญ่ที่เน้น “ประสิทธิภาพต่อพารามิเตอร์” และ “ความเร็วในการประมวลผลข้อความยาว” โดยใช้แนวคิดใหม่ทั้งในด้าน attention, sparsity และการพยากรณ์หลาย token พร้อมกัน

    Qwen3-Next มีพารามิเตอร์รวม 80 พันล้าน แต่เปิดใช้งานจริงเพียง 3 พันล้านระหว่างการ inference ซึ่งทำให้สามารถเทียบเคียงกับ Qwen3-235B ได้ในหลายงาน โดยใช้ต้นทุนการฝึกเพียง 9.3% ของ Qwen3-32B2

    หัวใจของ Qwen3-Next คือการผสมผสานระหว่าง Gated DeltaNet (linear attention ที่เร็วแต่แม่น) กับ standard attention (ที่แม่นแต่ช้า) ในอัตราส่วน 3:1 พร้อมเพิ่ม gating, rotary encoding แบบบางส่วน และการขยายขนาด head dimension เพื่อรองรับข้อความยาวถึง 256K tokens ได้อย่างเสถียร

    ในส่วนของ MoE (Mixture-of-Experts) Qwen3-Next ใช้โครงสร้าง ultra-sparse โดยมี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ซึ่งทำให้ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่าเมื่อเทียบกับรุ่นก่อน

    นอกจากนี้ยังมีการออกแบบเพื่อความเสถียร เช่น Zero-Centered RMSNorm, weight decay เฉพาะ norm weights และการ normalize router parameters ตั้งแต่เริ่มต้น เพื่อให้การฝึกมีความนิ่งและไม่เกิดปัญหา activation ผิดปกติ

    Qwen3-Next ยังมาพร้อม Multi-Token Prediction (MTP) ที่ช่วยให้การ inference แบบ speculative decoding มีความแม่นยำและเร็วขึ้น โดยสามารถใช้งานผ่าน Hugging Face, ModelScope, SGLang และ vLLM ได้ทันที

    สถาปัตยกรรมใหม่ของ Qwen3-Next
    ใช้ hybrid attention: Gated DeltaNet + standard attention (อัตราส่วน 3:1)
    เพิ่ม gating, rotary encoding เฉพาะ 25% ของ position dimension
    ขยาย head dimension จาก 128 เป็น 256 เพื่อรองรับข้อความยาว

    โครงสร้าง MoE แบบ ultra-sparse
    มี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step
    ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่า
    ใช้ global load balancing เพื่อเพิ่มประสิทธิภาพการฝึก

    การออกแบบเพื่อความเสถียรในการฝึก
    ใช้ Zero-Centered RMSNorm แทน QK-Norm
    เพิ่ม weight decay เฉพาะ norm weights เพื่อป้องกันการโตผิดปกติ
    normalize router parameters ตั้งแต่เริ่มต้นเพื่อความนิ่ง

    ประสิทธิภาพของโมเดล
    Qwen3-Next-80B-A3B-Base เทียบเท่าหรือดีกว่า Qwen3-32B โดยใช้พลังแค่ 10%
    Qwen3-Next-Instruct เทียบเคียง Qwen3-235B-A22B-Instruct-2507 ในงาน context ยาว
    Qwen3-Next-Thinking ชนะ Gemini-2.5-Flash-Thinking ในหลาย benchmark

    การใช้งานและ deployment
    รองรับ context สูงสุด 256K tokens และสามารถขยายถึง 1M ด้วยเทคนิค YaRN
    ใช้งานผ่าน Hugging Face, ModelScope, SGLang, vLLM ได้ทันที
    รองรับ speculative decoding ผ่าน MTP module

    https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
    🎙️ เรื่องเล่าจาก Qwen3 สู่ Qwen3-Next: เมื่อโมเดล 80B ทำงานได้เท่ากับ 235B โดยใช้พลังแค่ 3B ในเดือนกันยายน 2025 ทีม Qwen จาก Alibaba ได้เปิดตัวสถาปัตยกรรมใหม่ชื่อว่า Qwen3-Next ซึ่งเป็นการพัฒนาโมเดลขนาดใหญ่ที่เน้น “ประสิทธิภาพต่อพารามิเตอร์” และ “ความเร็วในการประมวลผลข้อความยาว” โดยใช้แนวคิดใหม่ทั้งในด้าน attention, sparsity และการพยากรณ์หลาย token พร้อมกัน Qwen3-Next มีพารามิเตอร์รวม 80 พันล้าน แต่เปิดใช้งานจริงเพียง 3 พันล้านระหว่างการ inference ซึ่งทำให้สามารถเทียบเคียงกับ Qwen3-235B ได้ในหลายงาน โดยใช้ต้นทุนการฝึกเพียง 9.3% ของ Qwen3-32B2 หัวใจของ Qwen3-Next คือการผสมผสานระหว่าง Gated DeltaNet (linear attention ที่เร็วแต่แม่น) กับ standard attention (ที่แม่นแต่ช้า) ในอัตราส่วน 3:1 พร้อมเพิ่ม gating, rotary encoding แบบบางส่วน และการขยายขนาด head dimension เพื่อรองรับข้อความยาวถึง 256K tokens ได้อย่างเสถียร ในส่วนของ MoE (Mixture-of-Experts) Qwen3-Next ใช้โครงสร้าง ultra-sparse โดยมี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ซึ่งทำให้ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่าเมื่อเทียบกับรุ่นก่อน นอกจากนี้ยังมีการออกแบบเพื่อความเสถียร เช่น Zero-Centered RMSNorm, weight decay เฉพาะ norm weights และการ normalize router parameters ตั้งแต่เริ่มต้น เพื่อให้การฝึกมีความนิ่งและไม่เกิดปัญหา activation ผิดปกติ Qwen3-Next ยังมาพร้อม Multi-Token Prediction (MTP) ที่ช่วยให้การ inference แบบ speculative decoding มีความแม่นยำและเร็วขึ้น โดยสามารถใช้งานผ่าน Hugging Face, ModelScope, SGLang และ vLLM ได้ทันที ✅ สถาปัตยกรรมใหม่ของ Qwen3-Next ➡️ ใช้ hybrid attention: Gated DeltaNet + standard attention (อัตราส่วน 3:1) ➡️ เพิ่ม gating, rotary encoding เฉพาะ 25% ของ position dimension ➡️ ขยาย head dimension จาก 128 เป็น 256 เพื่อรองรับข้อความยาว ✅ โครงสร้าง MoE แบบ ultra-sparse ➡️ มี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ➡️ ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่า ➡️ ใช้ global load balancing เพื่อเพิ่มประสิทธิภาพการฝึก ✅ การออกแบบเพื่อความเสถียรในการฝึก ➡️ ใช้ Zero-Centered RMSNorm แทน QK-Norm ➡️ เพิ่ม weight decay เฉพาะ norm weights เพื่อป้องกันการโตผิดปกติ ➡️ normalize router parameters ตั้งแต่เริ่มต้นเพื่อความนิ่ง ✅ ประสิทธิภาพของโมเดล ➡️ Qwen3-Next-80B-A3B-Base เทียบเท่าหรือดีกว่า Qwen3-32B โดยใช้พลังแค่ 10% ➡️ Qwen3-Next-Instruct เทียบเคียง Qwen3-235B-A22B-Instruct-2507 ในงาน context ยาว ➡️ Qwen3-Next-Thinking ชนะ Gemini-2.5-Flash-Thinking ในหลาย benchmark ✅ การใช้งานและ deployment ➡️ รองรับ context สูงสุด 256K tokens และสามารถขยายถึง 1M ด้วยเทคนิค YaRN ➡️ ใช้งานผ่าน Hugging Face, ModelScope, SGLang, vLLM ได้ทันที ➡️ รองรับ speculative decoding ผ่าน MTP module https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
    0 ความคิดเห็น 0 การแบ่งปัน 311 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโน้ตบุ๊กธรรมดาถึง MAX16: เมื่อผู้ผลิตจีนกล้าทำสิ่งที่แบรนด์ใหญ่ยังไม่กล้าขาย

    ผู้ผลิตจากจีนเปิดตัวแล็ปท็อปสามจอรุ่นใหม่ที่มีชื่อเรียกไม่แน่นอน—บางแห่งเรียกว่า MAX16 บางแห่งไม่มีชื่อเลย—โดยวางขายผ่านแพลตฟอร์มอย่าง Aliexpress และ Alibaba ด้วยราคาที่เริ่มต้นเพียง $700 สำหรับรุ่น Core i7-1260P และสูงสุดประมาณ $1,200 สำหรับรุ่น Core i7-1270P

    ตัวเครื่องประกอบด้วยหน้าจอหลักขนาด 16 นิ้ว และจอเสริมสองข้างขนาด 10.5 นิ้ว ซึ่งพับเก็บได้ผ่านบานพับแบบฝัง ทำให้เมื่อกางออกจะได้พื้นที่ใช้งานเทียบเท่าจอขนาด 29.5 นิ้ว เหมาะกับงานที่ต้องเปิดหลายหน้าต่างพร้อมกัน เช่น coding, data analysis หรือการเทรดหุ้น

    แม้จะดูใหญ่ แต่ขนาดเมื่อพับเก็บอยู่ที่ 374 × 261 × 28 มม. และน้ำหนัก 2.6 กก.—หนักกว่าคอมทั่วไป แต่เบากว่าการพกโน้ตบุ๊กพร้อมจอเสริมสองตัว

    สเปกภายในถือว่า “กลาง ๆ” โดยใช้ Intel Core i7 Gen 12 (P-series), RAM DDR4 สูงสุด 64GB, SSD PCIe 4.0 และแบตเตอรี่ 77Wh พร้อมพอร์ตครบครัน เช่น USB-A, USB-C, HDMI, LAN และช่องหูฟัง 3.5 มม.

    จุดที่น่าสนใจคือมีการระบุว่า “รองรับ eGPU” แต่ไม่มีพอร์ต Thunderbolt, USB4 หรือ OCuLink ทำให้การใช้งานจริงอาจต้องใช้ dock ผ่าน M.2 slot ซึ่งไม่สะดวกและอาจไม่เสถียรนัก

    นอกจากนี้ยังมีความคลุมเครือในข้อมูล เช่น บางหน้าระบุว่าใช้ Wi-Fi 6 แต่บางแห่งไม่ระบุเลย และชื่อรุ่นก็ไม่ชัดเจน ทำให้ผู้ซื้ออาจต้องเสี่ยงกับความไม่แน่นอนของสินค้า

    สเปกและการออกแบบของแล็ปท็อปสามจอ
    หน้าจอหลัก 16 นิ้ว + จอเสริม 10.5 นิ้ว × 2 = พื้นที่ใช้งาน 29.5 นิ้ว
    ขนาดเมื่อพับ 374 × 261 × 28 มม. น้ำหนัก 2.6 กก.
    ใช้ Intel Core i7-1260P หรือ i7-1270P, RAM DDR4 สูงสุด 64GB

    ฟีเจอร์และการใช้งาน
    รองรับ PCIe 4.0 SSD ผ่าน M.2 2280 slot
    แบตเตอรี่ 77Wh ใช้งานได้ประมาณ 8 ชั่วโมง
    มีพอร์ต USB-A × 3, USB-C × 1, HDMI, LAN, ช่องหูฟัง และ fingerprint scanner

    ความน่าสนใจด้านราคา
    เริ่มต้นที่ $700 สำหรับรุ่น i7-1260P
    รุ่นสูงสุด i7-1270P อยู่ที่ประมาณ $1,200
    ถือว่าราคาถูกมากเมื่อเทียบกับโน้ตบุ๊กที่มีจอเสริมในตัว

    https://www.techradar.com/pro/crazy-laptop-manufacturer-designed-the-best-3-screen-notebook-ever-and-it-is-far-cheaper-than-youd-expect-i-want-one
    🎙️ เรื่องเล่าจากโน้ตบุ๊กธรรมดาถึง MAX16: เมื่อผู้ผลิตจีนกล้าทำสิ่งที่แบรนด์ใหญ่ยังไม่กล้าขาย ผู้ผลิตจากจีนเปิดตัวแล็ปท็อปสามจอรุ่นใหม่ที่มีชื่อเรียกไม่แน่นอน—บางแห่งเรียกว่า MAX16 บางแห่งไม่มีชื่อเลย—โดยวางขายผ่านแพลตฟอร์มอย่าง Aliexpress และ Alibaba ด้วยราคาที่เริ่มต้นเพียง $700 สำหรับรุ่น Core i7-1260P และสูงสุดประมาณ $1,200 สำหรับรุ่น Core i7-1270P ตัวเครื่องประกอบด้วยหน้าจอหลักขนาด 16 นิ้ว และจอเสริมสองข้างขนาด 10.5 นิ้ว ซึ่งพับเก็บได้ผ่านบานพับแบบฝัง ทำให้เมื่อกางออกจะได้พื้นที่ใช้งานเทียบเท่าจอขนาด 29.5 นิ้ว เหมาะกับงานที่ต้องเปิดหลายหน้าต่างพร้อมกัน เช่น coding, data analysis หรือการเทรดหุ้น แม้จะดูใหญ่ แต่ขนาดเมื่อพับเก็บอยู่ที่ 374 × 261 × 28 มม. และน้ำหนัก 2.6 กก.—หนักกว่าคอมทั่วไป แต่เบากว่าการพกโน้ตบุ๊กพร้อมจอเสริมสองตัว สเปกภายในถือว่า “กลาง ๆ” โดยใช้ Intel Core i7 Gen 12 (P-series), RAM DDR4 สูงสุด 64GB, SSD PCIe 4.0 และแบตเตอรี่ 77Wh พร้อมพอร์ตครบครัน เช่น USB-A, USB-C, HDMI, LAN และช่องหูฟัง 3.5 มม. จุดที่น่าสนใจคือมีการระบุว่า “รองรับ eGPU” แต่ไม่มีพอร์ต Thunderbolt, USB4 หรือ OCuLink ทำให้การใช้งานจริงอาจต้องใช้ dock ผ่าน M.2 slot ซึ่งไม่สะดวกและอาจไม่เสถียรนัก นอกจากนี้ยังมีความคลุมเครือในข้อมูล เช่น บางหน้าระบุว่าใช้ Wi-Fi 6 แต่บางแห่งไม่ระบุเลย และชื่อรุ่นก็ไม่ชัดเจน ทำให้ผู้ซื้ออาจต้องเสี่ยงกับความไม่แน่นอนของสินค้า ✅ สเปกและการออกแบบของแล็ปท็อปสามจอ ➡️ หน้าจอหลัก 16 นิ้ว + จอเสริม 10.5 นิ้ว × 2 = พื้นที่ใช้งาน 29.5 นิ้ว ➡️ ขนาดเมื่อพับ 374 × 261 × 28 มม. น้ำหนัก 2.6 กก. ➡️ ใช้ Intel Core i7-1260P หรือ i7-1270P, RAM DDR4 สูงสุด 64GB ✅ ฟีเจอร์และการใช้งาน ➡️ รองรับ PCIe 4.0 SSD ผ่าน M.2 2280 slot ➡️ แบตเตอรี่ 77Wh ใช้งานได้ประมาณ 8 ชั่วโมง ➡️ มีพอร์ต USB-A × 3, USB-C × 1, HDMI, LAN, ช่องหูฟัง และ fingerprint scanner ✅ ความน่าสนใจด้านราคา ➡️ เริ่มต้นที่ $700 สำหรับรุ่น i7-1260P ➡️ รุ่นสูงสุด i7-1270P อยู่ที่ประมาณ $1,200 ➡️ ถือว่าราคาถูกมากเมื่อเทียบกับโน้ตบุ๊กที่มีจอเสริมในตัว https://www.techradar.com/pro/crazy-laptop-manufacturer-designed-the-best-3-screen-notebook-ever-and-it-is-far-cheaper-than-youd-expect-i-want-one
    0 ความคิดเห็น 0 การแบ่งปัน 282 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก 9-9-6 ถึง 0-0-7: เมื่อความขยันกลายเป็นเครื่องมือกดดันมากกว่าความภาคภูมิใจ

    Armin Ronacher นักพัฒนาโอเพ่นซอร์สชื่อดังเขียนบทความสะท้อนถึงวัฒนธรรม “996” หรือการทำงานตั้งแต่ 9 โมงเช้าถึง 3 ทุ่ม 6 วันต่อสัปดาห์ ซึ่งเคยถูกมองว่าเป็น “สูตรลับ” ของความสำเร็จในวงการสตาร์ทอัพ โดยเฉพาะในจีน

    เขาเล่าว่าแม้ตัวเองจะรักการทำงานดึก รักการเขียนโค้ด และเคยทำงานจนไม่ได้นอนก่อนเที่ยงคืนเลยตลอดสัปดาห์ แต่เขาก็รักครอบครัว รักการเดินเล่น และการสนทนาอย่างลึกซึ้ง—สิ่งที่ไม่มีทางเกิดขึ้นได้ในชีวิตที่ถูกกำหนดด้วย 72 ชั่วโมงต่อสัปดาห์

    Ronacher เตือนว่าแม้ผู้ก่อตั้งบริษัทจะมีแรงจูงใจสูง แต่การผลักดันให้พนักงานทำงานแบบ 996 โดยไม่มีอำนาจหรือผลตอบแทนเท่ากันนั้น “ไม่รับผิดชอบ” และไม่ควรเป็นวัฒนธรรมองค์กร

    เขาย้ำว่า “ความเข้มข้น” ในการทำงานไม่ควรวัดจากจำนวนชั่วโมง แต่จากผลลัพธ์ที่สร้างได้ และการทำงานหนักควรเป็น “ทางเลือกส่วนตัว” ไม่ใช่ “ข้อบังคับทางวัฒนธรรม”

    ในขณะเดียวกัน บทวิเคราะห์จาก Forbes และ CNBC ก็ชี้ว่า 996 กำลังถูกนำมาใช้ในสหรัฐฯ โดยบางบริษัทสตาร์ทอัพในซิลิคอนวัลเลย์เริ่มใช้เป็น “ตัวกรอง” ในการคัดเลือกพนักงาน โดยถามตรง ๆ ว่า “คุณพร้อมทำงาน 996 ไหม”

    แม้จะถูกมองว่าเป็นกลยุทธ์เร่งการเติบโต แต่ผลกระทบกลับรุนแรง ทั้งด้านสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออกที่สูงขึ้น โดยเฉพาะในทีมเล็กที่การเสียคนหนึ่งอาจทำให้ทั้งโปรเจกต์หยุดชะงัก

    ในจีนเอง แม้ 996 จะเคยถูกยกย่องโดยผู้ก่อตั้งอย่าง Jack Ma ว่าเป็น “พร” แต่ตอนนี้เริ่มมีการต่อต้านมากขึ้น โดยศาลสูงสุดของจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน และนักวิชาการบางคนถึงกับเปรียบเทียบว่าเป็น “แรงงานกึ่งบังคับ”

    ความหมายและต้นกำเนิดของวัฒนธรรม 996
    หมายถึงการทำงาน 9am–9pm, 6 วันต่อสัปดาห์ รวม 72 ชั่วโมง
    เริ่มจากวงการเทคโนโลยีในจีน เช่น Alibaba, Huawei
    ถูกมองว่าเป็นสูตรเร่งการเติบโตของสตาร์ทอัพ

    มุมมองจาก Armin Ronacher
    รักการทำงานหนัก แต่ไม่สนับสนุนการบังคับให้คนอื่นทำแบบเดียวกัน
    ชี้ว่าความเข้มข้นควรวัดจากผลลัพธ์ ไม่ใช่จำนวนชั่วโมง
    การทำงานหนักควรเป็นทางเลือก ไม่ใช่วัฒนธรรมองค์กร

    การแพร่กระจายของ 996 สู่ตะวันตก
    บางบริษัทในสหรัฐฯ ใช้ 996 เป็นเกณฑ์คัดเลือกพนักงาน
    มีการโฆษณาในประกาศรับสมัครว่า “ต้องตื่นเต้นกับการทำงาน 70+ ชั่วโมง”
    ถูกมองว่าเป็น hustle culture ที่อาจย้อนกลับมาทำลายองค์กรเอง

    การต่อต้านและผลกระทบ
    ศาลจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน
    นักวิชาการเปรียบเทียบว่าเป็นแรงงานกึ่งบังคับ
    ส่งผลต่อสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออก

    https://lucumr.pocoo.org/2025/9/4/996/
    🎙️ เรื่องเล่าจาก 9-9-6 ถึง 0-0-7: เมื่อความขยันกลายเป็นเครื่องมือกดดันมากกว่าความภาคภูมิใจ Armin Ronacher นักพัฒนาโอเพ่นซอร์สชื่อดังเขียนบทความสะท้อนถึงวัฒนธรรม “996” หรือการทำงานตั้งแต่ 9 โมงเช้าถึง 3 ทุ่ม 6 วันต่อสัปดาห์ ซึ่งเคยถูกมองว่าเป็น “สูตรลับ” ของความสำเร็จในวงการสตาร์ทอัพ โดยเฉพาะในจีน เขาเล่าว่าแม้ตัวเองจะรักการทำงานดึก รักการเขียนโค้ด และเคยทำงานจนไม่ได้นอนก่อนเที่ยงคืนเลยตลอดสัปดาห์ แต่เขาก็รักครอบครัว รักการเดินเล่น และการสนทนาอย่างลึกซึ้ง—สิ่งที่ไม่มีทางเกิดขึ้นได้ในชีวิตที่ถูกกำหนดด้วย 72 ชั่วโมงต่อสัปดาห์ Ronacher เตือนว่าแม้ผู้ก่อตั้งบริษัทจะมีแรงจูงใจสูง แต่การผลักดันให้พนักงานทำงานแบบ 996 โดยไม่มีอำนาจหรือผลตอบแทนเท่ากันนั้น “ไม่รับผิดชอบ” และไม่ควรเป็นวัฒนธรรมองค์กร เขาย้ำว่า “ความเข้มข้น” ในการทำงานไม่ควรวัดจากจำนวนชั่วโมง แต่จากผลลัพธ์ที่สร้างได้ และการทำงานหนักควรเป็น “ทางเลือกส่วนตัว” ไม่ใช่ “ข้อบังคับทางวัฒนธรรม” ในขณะเดียวกัน บทวิเคราะห์จาก Forbes และ CNBC ก็ชี้ว่า 996 กำลังถูกนำมาใช้ในสหรัฐฯ โดยบางบริษัทสตาร์ทอัพในซิลิคอนวัลเลย์เริ่มใช้เป็น “ตัวกรอง” ในการคัดเลือกพนักงาน โดยถามตรง ๆ ว่า “คุณพร้อมทำงาน 996 ไหม” แม้จะถูกมองว่าเป็นกลยุทธ์เร่งการเติบโต แต่ผลกระทบกลับรุนแรง ทั้งด้านสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออกที่สูงขึ้น โดยเฉพาะในทีมเล็กที่การเสียคนหนึ่งอาจทำให้ทั้งโปรเจกต์หยุดชะงัก ในจีนเอง แม้ 996 จะเคยถูกยกย่องโดยผู้ก่อตั้งอย่าง Jack Ma ว่าเป็น “พร” แต่ตอนนี้เริ่มมีการต่อต้านมากขึ้น โดยศาลสูงสุดของจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน และนักวิชาการบางคนถึงกับเปรียบเทียบว่าเป็น “แรงงานกึ่งบังคับ” ✅ ความหมายและต้นกำเนิดของวัฒนธรรม 996 ➡️ หมายถึงการทำงาน 9am–9pm, 6 วันต่อสัปดาห์ รวม 72 ชั่วโมง ➡️ เริ่มจากวงการเทคโนโลยีในจีน เช่น Alibaba, Huawei ➡️ ถูกมองว่าเป็นสูตรเร่งการเติบโตของสตาร์ทอัพ ✅ มุมมองจาก Armin Ronacher ➡️ รักการทำงานหนัก แต่ไม่สนับสนุนการบังคับให้คนอื่นทำแบบเดียวกัน ➡️ ชี้ว่าความเข้มข้นควรวัดจากผลลัพธ์ ไม่ใช่จำนวนชั่วโมง ➡️ การทำงานหนักควรเป็นทางเลือก ไม่ใช่วัฒนธรรมองค์กร ✅ การแพร่กระจายของ 996 สู่ตะวันตก ➡️ บางบริษัทในสหรัฐฯ ใช้ 996 เป็นเกณฑ์คัดเลือกพนักงาน ➡️ มีการโฆษณาในประกาศรับสมัครว่า “ต้องตื่นเต้นกับการทำงาน 70+ ชั่วโมง” ➡️ ถูกมองว่าเป็น hustle culture ที่อาจย้อนกลับมาทำลายองค์กรเอง ✅ การต่อต้านและผลกระทบ ➡️ ศาลจีนประกาศว่า 996 ขัดต่อกฎหมายแรงงาน ➡️ นักวิชาการเปรียบเทียบว่าเป็นแรงงานกึ่งบังคับ ➡️ ส่งผลต่อสุขภาพจิต ความเหนื่อยล้า และอัตราการลาออก https://lucumr.pocoo.org/2025/9/4/996/
    LUCUMR.POCOO.ORG
    996
    There is cost to your lifestyle.
    0 ความคิดเห็น 0 การแบ่งปัน 422 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Claude ถึง Zhipu: เมื่อการควบคุม AI ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นเรื่องของอำนาจและความไว้วางใจ

    Anthropic ผู้พัฒนา Claude AI ได้ประกาศอัปเดตเงื่อนไขการให้บริการเมื่อวันที่ 5 กันยายน 2025 โดยระบุว่าจะ “ปิดกั้นการเข้าถึง” Claude สำหรับบริษัทใดก็ตามที่มีโครงสร้างผู้ถือหุ้นเป็น “จีนถือหุ้นเกิน 50%” ไม่ว่าจะจดทะเบียนอยู่ที่ใดในโลกก็ตาม

    นี่ไม่ใช่การแบนผู้ใช้จากประเทศจีนโดยตรง แต่เป็นการตัดสิทธิ์ตาม ownership structure ซึ่งหมายความว่าแม้บริษัทจะตั้งอยู่ในสิงคโปร์ ฮ่องกง หรือยุโรป หากมีผู้ถือหุ้นจีนเป็นหลัก ก็จะถูกตัดออกจากการใช้งาน Claude ทันที

    Anthropic ระบุว่าเหตุผลหลักคือ “ความเสี่ยงด้านกฎหมาย กฎระเบียบ และความมั่นคง” โดยเฉพาะความกังวลว่ารัฐบาลจีนอาจบังคับให้บริษัทในเครือส่งข้อมูลกลับไปยังหน่วยข่าวกรองหรือกองทัพ ซึ่งอาจนำไปสู่การใช้ AI ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม

    ผลกระทบทางธุรกิจไม่เล็ก—Anthropic ยอมรับว่าจะสูญเสียรายได้ในระดับ “หลายร้อยล้านดอลลาร์” แต่ยืนยันว่าการป้องกันการใช้งานในบริบทที่เป็นภัยต่อความมั่นคงนั้นสำคัญกว่า

    ภายในไม่กี่ชั่วโมงหลังข่าวเผยแพร่ บริษัท Zhipu ซึ่งเป็นสตาร์ทอัพ AI จากจีน ได้เปิดตัว “Claude Migration Toolkit” ที่ช่วยให้ผู้ใช้สามารถย้ายจาก Claude ไปยัง GLM-4.5 ได้ทันที พร้อมแจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude ถึง 3 เท่า

    ก่อนหน้านี้ Alibaba ก็เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI ในจีน และตอนนี้ดูเหมือนว่าบริษัทจีนกำลังเร่งสร้าง ecosystem ของตัวเองเพื่อรับมือกับการถูกตัดออกจาก AI ระดับโลก

    การอัปเดตนโยบายของ Anthropic
    ปิดกั้นบริษัทที่มีผู้ถือหุ้นจีนเกิน 50% ไม่ว่าจดทะเบียนที่ใด
    ครอบคลุมถึงบริษัทแม่, บริษัทย่อย, และ joint ventures
    ใช้ ownership filter แทน geolocation เป็นครั้งแรกในวงการ AI

    เหตุผลด้านความมั่นคง
    กังวลว่ารัฐจีนอาจบังคับให้บริษัทส่งข้อมูลกลับไปยังหน่วยงานรัฐ
    เสี่ยงต่อการนำ AI ไปใช้ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม
    Anthropic ยืนยันว่าเป็นการป้องกันการใช้งานในบริบทที่เป็นภัย

    ผลกระทบทางธุรกิจ
    สูญเสียรายได้ระดับหลายร้อยล้านดอลลาร์
    กระทบผู้ใช้ในหลายประเทศที่มีโครงสร้างผู้ถือหุ้นจีน
    ยังไม่ชัดเจนว่าจะบังคับใช้นโยบายนี้ผ่าน cloud reseller อย่างไร

    การตอบสนองจากฝั่งจีน
    Zhipu เปิดตัว Claude Migration Toolkit พร้อม API GLM-4.5
    แจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude 3 เท่า
    Alibaba เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI

    https://www.tomshardware.com/tech-industry/anthropic-blocks-chinese-firms-from-claude
    🎙️ เรื่องเล่าจาก Claude ถึง Zhipu: เมื่อการควบคุม AI ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นเรื่องของอำนาจและความไว้วางใจ Anthropic ผู้พัฒนา Claude AI ได้ประกาศอัปเดตเงื่อนไขการให้บริการเมื่อวันที่ 5 กันยายน 2025 โดยระบุว่าจะ “ปิดกั้นการเข้าถึง” Claude สำหรับบริษัทใดก็ตามที่มีโครงสร้างผู้ถือหุ้นเป็น “จีนถือหุ้นเกิน 50%” ไม่ว่าจะจดทะเบียนอยู่ที่ใดในโลกก็ตาม นี่ไม่ใช่การแบนผู้ใช้จากประเทศจีนโดยตรง แต่เป็นการตัดสิทธิ์ตาม ownership structure ซึ่งหมายความว่าแม้บริษัทจะตั้งอยู่ในสิงคโปร์ ฮ่องกง หรือยุโรป หากมีผู้ถือหุ้นจีนเป็นหลัก ก็จะถูกตัดออกจากการใช้งาน Claude ทันที Anthropic ระบุว่าเหตุผลหลักคือ “ความเสี่ยงด้านกฎหมาย กฎระเบียบ และความมั่นคง” โดยเฉพาะความกังวลว่ารัฐบาลจีนอาจบังคับให้บริษัทในเครือส่งข้อมูลกลับไปยังหน่วยข่าวกรองหรือกองทัพ ซึ่งอาจนำไปสู่การใช้ AI ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม ผลกระทบทางธุรกิจไม่เล็ก—Anthropic ยอมรับว่าจะสูญเสียรายได้ในระดับ “หลายร้อยล้านดอลลาร์” แต่ยืนยันว่าการป้องกันการใช้งานในบริบทที่เป็นภัยต่อความมั่นคงนั้นสำคัญกว่า ภายในไม่กี่ชั่วโมงหลังข่าวเผยแพร่ บริษัท Zhipu ซึ่งเป็นสตาร์ทอัพ AI จากจีน ได้เปิดตัว “Claude Migration Toolkit” ที่ช่วยให้ผู้ใช้สามารถย้ายจาก Claude ไปยัง GLM-4.5 ได้ทันที พร้อมแจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude ถึง 3 เท่า ก่อนหน้านี้ Alibaba ก็เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI ในจีน และตอนนี้ดูเหมือนว่าบริษัทจีนกำลังเร่งสร้าง ecosystem ของตัวเองเพื่อรับมือกับการถูกตัดออกจาก AI ระดับโลก ✅ การอัปเดตนโยบายของ Anthropic ➡️ ปิดกั้นบริษัทที่มีผู้ถือหุ้นจีนเกิน 50% ไม่ว่าจดทะเบียนที่ใด ➡️ ครอบคลุมถึงบริษัทแม่, บริษัทย่อย, และ joint ventures ➡️ ใช้ ownership filter แทน geolocation เป็นครั้งแรกในวงการ AI ✅ เหตุผลด้านความมั่นคง ➡️ กังวลว่ารัฐจีนอาจบังคับให้บริษัทส่งข้อมูลกลับไปยังหน่วยงานรัฐ ➡️ เสี่ยงต่อการนำ AI ไปใช้ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม ➡️ Anthropic ยืนยันว่าเป็นการป้องกันการใช้งานในบริบทที่เป็นภัย ✅ ผลกระทบทางธุรกิจ ➡️ สูญเสียรายได้ระดับหลายร้อยล้านดอลลาร์ ➡️ กระทบผู้ใช้ในหลายประเทศที่มีโครงสร้างผู้ถือหุ้นจีน ➡️ ยังไม่ชัดเจนว่าจะบังคับใช้นโยบายนี้ผ่าน cloud reseller อย่างไร ✅ การตอบสนองจากฝั่งจีน ➡️ Zhipu เปิดตัว Claude Migration Toolkit พร้อม API GLM-4.5 ➡️ แจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude 3 เท่า ➡️ Alibaba เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI https://www.tomshardware.com/tech-industry/anthropic-blocks-chinese-firms-from-claude
    WWW.TOMSHARDWARE.COM
    Anthropic blocks Chinese-controlled firms from Claude AI — cites 'legal, regulatory, and security risks'
    Anthropic says that it wants to ensure that “authoritarian” and “adversarial” regimes cannot access its models.
    0 ความคิดเห็น 0 การแบ่งปัน 365 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Youtu-Agent ถึง Coze Studio: เมื่อจีนไม่รอใคร และกำลังสร้างระบบนิเวศของ AI agentic tools

    ในช่วงครึ่งหลังของปี 2025 จีนเริ่มเปิดตัวชุดเครื่องมือสร้าง AI agent แบบโอเพ่นซอร์สอย่างต่อเนื่อง โดยมี Tencent, ByteDance และ Alibaba เป็นหัวหอกหลักในการผลักดัน “agentic frameworks”—ซอฟต์แวร์ที่ช่วยให้ผู้ใช้สามารถสร้างและจัดการ AI agents ที่ทำงานอัตโนมัติได้

    ล่าสุด Tencent เปิดตัว Youtu-Agent บน GitHub ซึ่งเป็นเฟรมเวิร์กที่พัฒนาโดย Youtu Labs และใช้โมเดล DeepSeek-V3.1 เป็นฐาน โดยสามารถทำคะแนนได้ถึง 71.47% บน WebWalkerQA ซึ่งเป็น benchmark สำหรับการเดินทางในเว็บแบบอัตโนมัติ

    ก่อนหน้านี้ ByteDance ได้เปิดตัว Coze Studio ในเดือนกรกฎาคม และ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม โดยทั้งสองเฟรมเวิร์กได้รับดาวบน GitHub มากกว่า 10,000 ดวงแล้ว ถือเป็นสัญญาณว่าเครื่องมือจากจีนเริ่มได้รับความนิยมในระดับโลก แม้จะยังตามหลัง LangChain ที่มีมากกว่า 115,000 ดาวอยู่มาก

    สิ่งที่ทำให้ Youtu-Agent น่าสนใจคือการใช้ YAML (Yet Another Markup Language) แทนการเขียนโค้ด เพื่อกำหนดพฤติกรรมของเอเจนต์ และมี “meta-agent” ที่สามารถพูดคุยกับผู้ใช้เพื่อสร้าง YAML ให้โดยอัตโนมัติ—ลดภาระของนักพัฒนา และเปิดโอกาสให้ผู้เริ่มต้นสามารถสร้างเอเจนต์ได้ง่ายขึ้น

    Tencent ยังเปิดตัวโมเดลแปลภาษาแบบโอเพ่นซอร์สที่ชนะการแข่งขันระดับโลก และปล่อยเวอร์ชันย่อยของโมเดล Hunyuan ที่สามารถรันบน GPU ระดับ consumer ได้ ซึ่งสะท้อนถึงแนวทาง “ประชาธิปไตยของ AI” ที่จีนกำลังผลักดัน

    การเปิดตัว agentic frameworks จากจีน
    Tencent เปิดตัว Youtu-Agent บน GitHub โดยใช้ DeepSeek-V3.1
    ByteDance เปิดตัว Coze Studio ในเดือนกรกฎาคม
    Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม

    ความสามารถของ Youtu-Agent
    ทำคะแนน 71.47% บน WebWalkerQA benchmark
    ใช้ YAML ในการกำหนดพฤติกรรมของเอเจนต์
    มี meta-agent ที่ช่วยสร้าง YAML โดยอัตโนมัติ

    ความนิยมและการเปรียบเทียบ
    Coze Studio และ Qwen-Agent มีดาวบน GitHub มากกว่า 10,000 ดวง
    LangChain จากสหรัฐฯ มีมากกว่า 115,000 ดาว
    IBM จัดอันดับว่าเฟรมเวิร์กยอดนิยมยังเป็นของฝั่งสหรัฐฯ เช่น AutoGen, CrewAI

    การขยาย ecosystem ของ Tencent
    เปิดตัวโมเดลแปลภาษาที่ชนะการแข่งขันระดับโลก
    ปล่อยเวอร์ชันย่อยของ Hunyuan ที่รันบน GPU ระดับ consumer
    เปิดตัวเอเจนต์เฉพาะทางสำหรับงาน coding และ marketing ในงาน WAIC

    https://www.thestar.com.my/tech/tech-news/2025/09/05/china-advances-in-ai-agentic-tools-as-tencent-bytedance-weigh-in
    🎙️ เรื่องเล่าจาก Youtu-Agent ถึง Coze Studio: เมื่อจีนไม่รอใคร และกำลังสร้างระบบนิเวศของ AI agentic tools ในช่วงครึ่งหลังของปี 2025 จีนเริ่มเปิดตัวชุดเครื่องมือสร้าง AI agent แบบโอเพ่นซอร์สอย่างต่อเนื่อง โดยมี Tencent, ByteDance และ Alibaba เป็นหัวหอกหลักในการผลักดัน “agentic frameworks”—ซอฟต์แวร์ที่ช่วยให้ผู้ใช้สามารถสร้างและจัดการ AI agents ที่ทำงานอัตโนมัติได้ ล่าสุด Tencent เปิดตัว Youtu-Agent บน GitHub ซึ่งเป็นเฟรมเวิร์กที่พัฒนาโดย Youtu Labs และใช้โมเดล DeepSeek-V3.1 เป็นฐาน โดยสามารถทำคะแนนได้ถึง 71.47% บน WebWalkerQA ซึ่งเป็น benchmark สำหรับการเดินทางในเว็บแบบอัตโนมัติ ก่อนหน้านี้ ByteDance ได้เปิดตัว Coze Studio ในเดือนกรกฎาคม และ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม โดยทั้งสองเฟรมเวิร์กได้รับดาวบน GitHub มากกว่า 10,000 ดวงแล้ว ถือเป็นสัญญาณว่าเครื่องมือจากจีนเริ่มได้รับความนิยมในระดับโลก แม้จะยังตามหลัง LangChain ที่มีมากกว่า 115,000 ดาวอยู่มาก สิ่งที่ทำให้ Youtu-Agent น่าสนใจคือการใช้ YAML (Yet Another Markup Language) แทนการเขียนโค้ด เพื่อกำหนดพฤติกรรมของเอเจนต์ และมี “meta-agent” ที่สามารถพูดคุยกับผู้ใช้เพื่อสร้าง YAML ให้โดยอัตโนมัติ—ลดภาระของนักพัฒนา และเปิดโอกาสให้ผู้เริ่มต้นสามารถสร้างเอเจนต์ได้ง่ายขึ้น Tencent ยังเปิดตัวโมเดลแปลภาษาแบบโอเพ่นซอร์สที่ชนะการแข่งขันระดับโลก และปล่อยเวอร์ชันย่อยของโมเดล Hunyuan ที่สามารถรันบน GPU ระดับ consumer ได้ ซึ่งสะท้อนถึงแนวทาง “ประชาธิปไตยของ AI” ที่จีนกำลังผลักดัน ✅ การเปิดตัว agentic frameworks จากจีน ➡️ Tencent เปิดตัว Youtu-Agent บน GitHub โดยใช้ DeepSeek-V3.1 ➡️ ByteDance เปิดตัว Coze Studio ในเดือนกรกฎาคม ➡️ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม ✅ ความสามารถของ Youtu-Agent ➡️ ทำคะแนน 71.47% บน WebWalkerQA benchmark ➡️ ใช้ YAML ในการกำหนดพฤติกรรมของเอเจนต์ ➡️ มี meta-agent ที่ช่วยสร้าง YAML โดยอัตโนมัติ ✅ ความนิยมและการเปรียบเทียบ ➡️ Coze Studio และ Qwen-Agent มีดาวบน GitHub มากกว่า 10,000 ดวง ➡️ LangChain จากสหรัฐฯ มีมากกว่า 115,000 ดาว ➡️ IBM จัดอันดับว่าเฟรมเวิร์กยอดนิยมยังเป็นของฝั่งสหรัฐฯ เช่น AutoGen, CrewAI ✅ การขยาย ecosystem ของ Tencent ➡️ เปิดตัวโมเดลแปลภาษาที่ชนะการแข่งขันระดับโลก ➡️ ปล่อยเวอร์ชันย่อยของ Hunyuan ที่รันบน GPU ระดับ consumer ➡️ เปิดตัวเอเจนต์เฉพาะทางสำหรับงาน coding และ marketing ในงาน WAIC https://www.thestar.com.my/tech/tech-news/2025/09/05/china-advances-in-ai-agentic-tools-as-tencent-bytedance-weigh-in
    WWW.THESTAR.COM.MY
    China advances in AI agentic tools as Tencent, ByteDance weigh in
    Tencent is the latest to join the fray after the Shenzhen-based company open-sourced its new Youtu-Agent agentic framework on Tuesday.
    0 ความคิดเห็น 0 การแบ่งปัน 376 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก B30A: เมื่อชิปที่ถูกลดสเปกกลายเป็นของหายากที่จีนยอมจ่ายแพงขึ้น 2 เท่า

    Nvidia กำลังเตรียมส่งมอบ B30A ซึ่งเป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน โดยมีราคาสูงถึง $20,000–$25,000 ต่อชิ้น—มากกว่ารุ่นก่อนหน้า H20 ที่ขายอยู่ที่ $10,000–$12,000 ถึงเท่าตัว2 แม้จะเป็นเวอร์ชันที่ถูกลดสเปกจาก B300 ตัวเต็ม แต่บริษัทจีนอย่าง ByteDance และ Alibaba กลับมองว่า “คุ้มค่า” เพราะ B30A ยังให้ประสิทธิภาพสูงกว่ารุ่นเดิมถึง 6 เท่า และยังคงรองรับซอฟต์แวร์ของ Nvidia ได้ดี

    B30A ใช้สถาปัตยกรรม Blackwell แบบ single-die ซึ่งเป็นการลดขนาดจาก B300 ที่ใช้ dual-die เพื่อให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ โดยมีประสิทธิภาพครึ่งหนึ่งของ B300 ในทุกระดับ precision ตั้งแต่ FP4 ไปจนถึง TF32

    แม้รัฐบาลจีนจะพยายามผลักดันให้บริษัทในประเทศใช้ชิปภายในประเทศมากขึ้น และมีคำแนะนำให้หยุดซื้อ H20 แต่ความต้องการยังคงสูงมาก จนเกิดการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านในช่วง 3 เดือนที่ผ่านมา และทำให้เกิด backlog การอนุมัติใบอนุญาตส่งออกที่หนักที่สุดในรอบ 30 ปีที่กระทรวงพาณิชย์สหรัฐฯ

    ขณะเดียวกัน Nvidia ก็เริ่มลดการผลิต H20 และรอการอนุมัติส่งออก B30A อย่างเป็นทางการ ซึ่งจะกลายเป็นตัวแทนหลักของบริษัทในตลาดจีน หากได้รับไฟเขียวจากรัฐบาลสหรัฐฯ

    การเปิดตัวและคุณสมบัติของ B30A
    เป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน
    ใช้สถาปัตยกรรม Blackwell แบบ single-die ลดสเปกจาก B300
    ประสิทธิภาพสูงกว่ารุ่น H20 ถึง 6 เท่า แม้จะถูกลดสเปก

    ราคาของ B30A และความต้องการในจีน
    ราคาสูงถึง $20,000–$25,000 ต่อชิ้น เท่าตัวของ H20
    บริษัทจีนอย่าง ByteDance และ Alibaba ยอมจ่ายเพราะยังคุ้มค่า
    ความต้องการสูงแม้จะมีคำแนะนำจากรัฐบาลให้หยุดซื้อ

    สถานการณ์การส่งออกและการอนุมัติ
    Nvidia รอการอนุมัติส่งออก B30A จากรัฐบาลสหรัฐฯ
    เกิด backlog การอนุมัติใบอนุญาตที่หนักที่สุดในรอบ 30 ปี
    Nvidia เริ่มลดการผลิต H20 และเตรียมเปลี่ยนไปใช้ B30A

    บริบททางภูมิรัฐศาสตร์และอุตสาหกรรม
    การลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านใน 3 เดือน
    รัฐบาลจีนผลักดันให้ใช้ชิปในประเทศ แต่ยังไม่สามารถแทนที่ได้ทันที
    Nvidia ยังเป็นผู้เล่นหลักในตลาด AI ของจีนในระยะสั้นถึงกลาง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-next-gen-ai-chip-could-double-the-price-of-h20-if-china-export-is-approved-chinese-firms-still-consider-nvidias-b30a-a-good-deal
    🎙️ เรื่องเล่าจาก B30A: เมื่อชิปที่ถูกลดสเปกกลายเป็นของหายากที่จีนยอมจ่ายแพงขึ้น 2 เท่า Nvidia กำลังเตรียมส่งมอบ B30A ซึ่งเป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน โดยมีราคาสูงถึง $20,000–$25,000 ต่อชิ้น—มากกว่ารุ่นก่อนหน้า H20 ที่ขายอยู่ที่ $10,000–$12,000 ถึงเท่าตัว2 แม้จะเป็นเวอร์ชันที่ถูกลดสเปกจาก B300 ตัวเต็ม แต่บริษัทจีนอย่าง ByteDance และ Alibaba กลับมองว่า “คุ้มค่า” เพราะ B30A ยังให้ประสิทธิภาพสูงกว่ารุ่นเดิมถึง 6 เท่า และยังคงรองรับซอฟต์แวร์ของ Nvidia ได้ดี B30A ใช้สถาปัตยกรรม Blackwell แบบ single-die ซึ่งเป็นการลดขนาดจาก B300 ที่ใช้ dual-die เพื่อให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ โดยมีประสิทธิภาพครึ่งหนึ่งของ B300 ในทุกระดับ precision ตั้งแต่ FP4 ไปจนถึง TF32 แม้รัฐบาลจีนจะพยายามผลักดันให้บริษัทในประเทศใช้ชิปภายในประเทศมากขึ้น และมีคำแนะนำให้หยุดซื้อ H20 แต่ความต้องการยังคงสูงมาก จนเกิดการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านในช่วง 3 เดือนที่ผ่านมา และทำให้เกิด backlog การอนุมัติใบอนุญาตส่งออกที่หนักที่สุดในรอบ 30 ปีที่กระทรวงพาณิชย์สหรัฐฯ ขณะเดียวกัน Nvidia ก็เริ่มลดการผลิต H20 และรอการอนุมัติส่งออก B30A อย่างเป็นทางการ ซึ่งจะกลายเป็นตัวแทนหลักของบริษัทในตลาดจีน หากได้รับไฟเขียวจากรัฐบาลสหรัฐฯ ✅ การเปิดตัวและคุณสมบัติของ B30A ➡️ เป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน ➡️ ใช้สถาปัตยกรรม Blackwell แบบ single-die ลดสเปกจาก B300 ➡️ ประสิทธิภาพสูงกว่ารุ่น H20 ถึง 6 เท่า แม้จะถูกลดสเปก ✅ ราคาของ B30A และความต้องการในจีน ➡️ ราคาสูงถึง $20,000–$25,000 ต่อชิ้น เท่าตัวของ H20 ➡️ บริษัทจีนอย่าง ByteDance และ Alibaba ยอมจ่ายเพราะยังคุ้มค่า ➡️ ความต้องการสูงแม้จะมีคำแนะนำจากรัฐบาลให้หยุดซื้อ ✅ สถานการณ์การส่งออกและการอนุมัติ ➡️ Nvidia รอการอนุมัติส่งออก B30A จากรัฐบาลสหรัฐฯ ➡️ เกิด backlog การอนุมัติใบอนุญาตที่หนักที่สุดในรอบ 30 ปี ➡️ Nvidia เริ่มลดการผลิต H20 และเตรียมเปลี่ยนไปใช้ B30A ✅ บริบททางภูมิรัฐศาสตร์และอุตสาหกรรม ➡️ การลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านใน 3 เดือน ➡️ รัฐบาลจีนผลักดันให้ใช้ชิปในประเทศ แต่ยังไม่สามารถแทนที่ได้ทันที ➡️ Nvidia ยังเป็นผู้เล่นหลักในตลาด AI ของจีนในระยะสั้นถึงกลาง https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-next-gen-ai-chip-could-double-the-price-of-h20-if-china-export-is-approved-chinese-firms-still-consider-nvidias-b30a-a-good-deal
    0 ความคิดเห็น 0 การแบ่งปัน 386 มุมมอง 0 รีวิว
  • เรื่องเล่าจากบัตรเครดิตที่พูดได้: เมื่อ Alibaba เปลี่ยนเครื่องบันทึกเสียงให้กลายเป็นผู้ช่วยอัจฉริยะ

    ในงานครบรอบ 10 ปีของ DingTalk เมื่อปลายเดือนสิงหาคม 2025 Alibaba เปิดตัว DingTalk A1 ซึ่งเป็นเครื่องบันทึกเสียงขนาดเท่าบัตรเครดิตที่อัดแน่นด้วยความสามารถด้าน AI โดยใช้โมเดลจาก Tongyi AI Lab ที่เทรนด้วยเสียงกว่า 100 ล้านชั่วโมง ทำให้สามารถเข้าใจได้มากกว่า 100 ภาษาและ 30 สำเนียงจีน รวมถึงศัพท์เฉพาะจากกว่า 200 อุตสาหกรรม

    A1 ไม่ได้แค่บันทึกเสียง แต่สามารถสรุปประชุม, แปลภาษาแบบเรียลไทม์, วิเคราะห์เนื้อหา และสร้างเอกสารในรูปแบบต่าง ๆ เช่น minutes, to-do list หรือแม้แต่ mindmap โดยไม่ต้องพึ่งมนุษย์เลยแม้แต่นิดเดียว

    เมื่อเปรียบเทียบกับคู่แข่งอย่าง Plaud Note Pro (US$179) และ Mobvoi TicNote (US$159.99) แล้ว DingTalk A1 มีราคาถูกกว่าอย่างเห็นได้ชัดที่ 499–799 หยวน (US$69.98–111.8) และยังมีฟีเจอร์ที่โดดเด่น เช่น OLED สี, USB-C, การเชื่อมต่อกับแอป DingTalk โดยตรง และการรองรับโมเดล AI ชั้นนำจากจีน เช่น Qwen3-235B, DeepSeek-V3

    ตลาด AI hardware ในจีนกำลังเติบโตอย่างรวดเร็ว โดยคาดว่าจะมีมูลค่าถึง 1.1 ล้านล้านหยวนในปีนี้ และเพิ่มเป็น 2.5 ล้านล้านภายในปี 2030 ซึ่งเป็นผลจากนโยบายสนับสนุนของรัฐบาล, การพึ่งพาเทคโนโลยีภายในประเทศ และการนำ AI ไปใช้ในอุตสาหกรรมแบบกว้างขวาง

    การเปิดตัว DingTalk A1
    เปิดตัวในงานครบรอบ 10 ปีของ DingTalk
    ขนาดเท่าบัตรเครดิต หนาเพียง 3.8 มม. น้ำหนัก ~40 กรัม
    มี OLED สี, USB-C, รองรับการสรุป, แปล, วิเคราะห์, สร้าง mindmap

    ความสามารถด้าน AI
    เทรนด้วยเสียงกว่า 100 ล้านชั่วโมงจาก Tongyi AI Lab
    รองรับมากกว่า 100 ภาษา, 30 สำเนียงจีน, และศัพท์เฉพาะจาก 200 อุตสาหกรรม
    ใช้โมเดล AI ชั้นนำ เช่น Qwen, DeepSeek, QwQ-plus

    การเปรียบเทียบกับคู่แข่ง
    Plaud Note Pro ราคา US$179, ใช้ GPT-4.1, Claude 4, Gemini 2.5
    TicNote ราคา US$159.99, ใช้ DeepSeek-V3, Kimi-k2, รองรับ mindmap และ insight
    DingTalk A1 ถูกกว่า, เชื่อมกับแอป DingTalk โดยตรง, ไม่ต้องติดตั้งแยก

    แนวโน้มตลาด AI hardware ในจีน
    มูลค่าตลาดปี 2025 อยู่ที่ 1.1 ล้านล้านหยวน
    คาดว่าจะเพิ่มเป็น 2.5 ล้านล้านหยวนภายในปี 2030
    การเติบโตมาจากนโยบายรัฐ, การพึ่งพาเทคโนโลยีในประเทศ, และการนำ AI ไปใช้ในอุตสาหกรรมต่าง ๆ

    https://www.thestar.com.my/tech/tech-news/2025/09/04/chinas-latest-ai-gadget-is-a-credit-card-sized-recorder-from-alibabas-dingtalk
    🎙️ เรื่องเล่าจากบัตรเครดิตที่พูดได้: เมื่อ Alibaba เปลี่ยนเครื่องบันทึกเสียงให้กลายเป็นผู้ช่วยอัจฉริยะ ในงานครบรอบ 10 ปีของ DingTalk เมื่อปลายเดือนสิงหาคม 2025 Alibaba เปิดตัว DingTalk A1 ซึ่งเป็นเครื่องบันทึกเสียงขนาดเท่าบัตรเครดิตที่อัดแน่นด้วยความสามารถด้าน AI โดยใช้โมเดลจาก Tongyi AI Lab ที่เทรนด้วยเสียงกว่า 100 ล้านชั่วโมง ทำให้สามารถเข้าใจได้มากกว่า 100 ภาษาและ 30 สำเนียงจีน รวมถึงศัพท์เฉพาะจากกว่า 200 อุตสาหกรรม A1 ไม่ได้แค่บันทึกเสียง แต่สามารถสรุปประชุม, แปลภาษาแบบเรียลไทม์, วิเคราะห์เนื้อหา และสร้างเอกสารในรูปแบบต่าง ๆ เช่น minutes, to-do list หรือแม้แต่ mindmap โดยไม่ต้องพึ่งมนุษย์เลยแม้แต่นิดเดียว เมื่อเปรียบเทียบกับคู่แข่งอย่าง Plaud Note Pro (US$179) และ Mobvoi TicNote (US$159.99) แล้ว DingTalk A1 มีราคาถูกกว่าอย่างเห็นได้ชัดที่ 499–799 หยวน (US$69.98–111.8) และยังมีฟีเจอร์ที่โดดเด่น เช่น OLED สี, USB-C, การเชื่อมต่อกับแอป DingTalk โดยตรง และการรองรับโมเดล AI ชั้นนำจากจีน เช่น Qwen3-235B, DeepSeek-V3 ตลาด AI hardware ในจีนกำลังเติบโตอย่างรวดเร็ว โดยคาดว่าจะมีมูลค่าถึง 1.1 ล้านล้านหยวนในปีนี้ และเพิ่มเป็น 2.5 ล้านล้านภายในปี 2030 ซึ่งเป็นผลจากนโยบายสนับสนุนของรัฐบาล, การพึ่งพาเทคโนโลยีภายในประเทศ และการนำ AI ไปใช้ในอุตสาหกรรมแบบกว้างขวาง ✅ การเปิดตัว DingTalk A1 ➡️ เปิดตัวในงานครบรอบ 10 ปีของ DingTalk ➡️ ขนาดเท่าบัตรเครดิต หนาเพียง 3.8 มม. น้ำหนัก ~40 กรัม ➡️ มี OLED สี, USB-C, รองรับการสรุป, แปล, วิเคราะห์, สร้าง mindmap ✅ ความสามารถด้าน AI ➡️ เทรนด้วยเสียงกว่า 100 ล้านชั่วโมงจาก Tongyi AI Lab ➡️ รองรับมากกว่า 100 ภาษา, 30 สำเนียงจีน, และศัพท์เฉพาะจาก 200 อุตสาหกรรม ➡️ ใช้โมเดล AI ชั้นนำ เช่น Qwen, DeepSeek, QwQ-plus ✅ การเปรียบเทียบกับคู่แข่ง ➡️ Plaud Note Pro ราคา US$179, ใช้ GPT-4.1, Claude 4, Gemini 2.5 ➡️ TicNote ราคา US$159.99, ใช้ DeepSeek-V3, Kimi-k2, รองรับ mindmap และ insight ➡️ DingTalk A1 ถูกกว่า, เชื่อมกับแอป DingTalk โดยตรง, ไม่ต้องติดตั้งแยก ✅ แนวโน้มตลาด AI hardware ในจีน ➡️ มูลค่าตลาดปี 2025 อยู่ที่ 1.1 ล้านล้านหยวน ➡️ คาดว่าจะเพิ่มเป็น 2.5 ล้านล้านหยวนภายในปี 2030 ➡️ การเติบโตมาจากนโยบายรัฐ, การพึ่งพาเทคโนโลยีในประเทศ, และการนำ AI ไปใช้ในอุตสาหกรรมต่าง ๆ https://www.thestar.com.my/tech/tech-news/2025/09/04/chinas-latest-ai-gadget-is-a-credit-card-sized-recorder-from-alibabas-dingtalk
    WWW.THESTAR.COM.MY
    China’s latest AI gadget is a credit card-sized recorder from Alibaba’s DingTalk
    Transcription capability developed with Alibaba's Tongyi AI lab, using over 100 million hours of audio content for training.
    0 ความคิดเห็น 0 การแบ่งปัน 330 มุมมอง 0 รีวิว
Pages Boosts