• สหรัฐฯ vs จีนในสมรภูมิ AI: ทำไมหลายบริษัทอเมริกันกลับเลือกใช้โมเดลจากจีน

    กระแสการแข่งขันด้านปัญญาประดิษฐ์ระหว่างสหรัฐฯ และจีนกำลังทวีความเข้มข้น แต่ในอีกมุมหนึ่ง บริษัทและนักพัฒนาจำนวนไม่น้อยในสหรัฐฯ กลับหันไปใช้โมเดล AI แบบโอเพ่นซอร์สจากจีนมากขึ้นเรื่อยๆ แม้จะมีแรงกดดันทางภูมิรัฐศาสตร์ก็ตาม โมเดลจากค่ายจีนอย่าง Alibaba Qwen, DeepSeek R1, MiniMax, และ Z.ai ได้รับความนิยมเพราะราคาถูกกว่า ปรับแต่งได้มากกว่า และให้ประสิทธิภาพที่ “ดีพอ” สำหรับงานส่วนใหญ่ที่ไม่ต้องการความล้ำหน้าระดับ OpenAI หรือ Google

    ในเวลาเดียวกัน การเติบโตของโมเดลโอเพ่นซอร์สจากจีนยังสะท้อนการเปลี่ยนแปลงเชิงกลยุทธ์ในอุตสาหกรรม AI ทั่วโลก จากเดิมที่สหรัฐฯ ครองความได้เปรียบด้านเทคโนโลยีอย่างชัดเจน แต่การเปิดตัวโมเดลอย่าง DeepSeek R1 ที่มีประสิทธิภาพสูงและต้นทุนต่ำ ทำให้หลายฝ่ายเริ่มตั้งคำถามว่า “จีนกำลังไล่ทันหรือแซงหน้าในบางด้านแล้วหรือไม่”

    นอกจากนี้ รัฐบาลสหรัฐฯ เองก็เริ่มตระหนักถึงความสำคัญของโอเพ่นซอร์ส โดยออกแผน “AI Action Plan” เพื่อผลักดันโมเดลโอเพ่นซอร์สที่ยึดตามค่านิยมอเมริกัน แต่บริษัทใหญ่ในสหรัฐฯ กลับเดินไปในทิศทางตรงกันข้าม เช่น Meta ที่หันกลับไปเน้นโมเดลปิดมากขึ้น ขณะที่ฝั่งยุโรปอย่าง Mistral แม้ยังยืนหยัดในโอเพ่นซอร์ส แต่ก็ยังตามหลังจีนในด้านการใช้งานจริงทั่วโลก

    อย่างไรก็ตาม แม้โมเดลจีนจะได้รับความนิยม แต่ก็ยังมีความกังวลด้านความเสี่ยง เช่น ความเป็นไปได้ของมาตรการคว่ำบาตรในอนาคต หรือความไม่มั่นใจของลูกค้าบางกลุ่มที่ไม่ต้องการใช้เทคโนโลยีจากจีน แม้ผู้เชี่ยวชาญหลายรายยืนยันว่าโมเดลโอเพ่นซอร์สเหล่านี้สามารถใช้งานได้โดยไม่ต้องเชื่อมต่อกับจีนโดยตรงก็ตาม

    สรุปประเด็นสำคัญ
    ความนิยมของโมเดลโอเพ่นซอร์สจากจีนเพิ่มขึ้นอย่างรวดเร็ว
    การใช้งานทั่วโลกเพิ่มจาก 1.2% เป็นเกือบ 30% ภายในไม่ถึงปี
    โมเดลอย่าง Qwen และ DeepSeek ได้รับความนิยมเพราะราคาถูกและปรับแต่งได้ดี

    บริษัทสหรัฐฯ หลายแห่งหันมาใช้โมเดลจีน
    ผู้ประกอบการบางรายประหยัดต้นทุนได้ถึง 400,000 ดอลลาร์ต่อปี
    องค์กรใหญ่ เช่น Nvidia, Perplexity และ Stanford ก็ใช้ Qwen ในบางงาน

    จีนก้าวหน้าในด้าน AI Agents และโมเดลรุ่นใหม่
    โมเดล Kimi K2 และ DeepSeek R1 ถูกมองว่าเป็นแนวหน้าของยุค AI Agents
    โมเดลจีนจำนวนมากเปิดให้ปรับแต่งได้มากกว่าโมเดลสหรัฐฯ

    ความเสี่ยงด้านภูมิรัฐศาสตร์และการคว่ำบาตร
    บริษัทกังวลว่าโมเดลจีนอาจถูกสหรัฐฯ แบนในอนาคต
    ลูกค้าบางรายไม่มั่นใจเรื่องภาพลักษณ์และความสอดคล้องกับค่านิยมตะวันตก

    ความไม่แน่นอนด้านทิศทางของบริษัทสหรัฐฯ
    Meta หันกลับไปเน้นโมเดลปิด ทำให้ตลาดโอเพ่นซอร์สฝั่งตะวันตกอ่อนแรง
    ความไม่ชัดเจนของนโยบายสหรัฐฯ อาจทำให้บริษัทลังเลในการเลือกเทคโนโลยี

    https://www.thestar.com.my/tech/tech-news/2025/12/22/as-us-battles-china-on-ai-some-companies-choose-chinese
    🧭 สหรัฐฯ vs จีนในสมรภูมิ AI: ทำไมหลายบริษัทอเมริกันกลับเลือกใช้โมเดลจากจีน กระแสการแข่งขันด้านปัญญาประดิษฐ์ระหว่างสหรัฐฯ และจีนกำลังทวีความเข้มข้น แต่ในอีกมุมหนึ่ง บริษัทและนักพัฒนาจำนวนไม่น้อยในสหรัฐฯ กลับหันไปใช้โมเดล AI แบบโอเพ่นซอร์สจากจีนมากขึ้นเรื่อยๆ แม้จะมีแรงกดดันทางภูมิรัฐศาสตร์ก็ตาม โมเดลจากค่ายจีนอย่าง Alibaba Qwen, DeepSeek R1, MiniMax, และ Z.ai ได้รับความนิยมเพราะราคาถูกกว่า ปรับแต่งได้มากกว่า และให้ประสิทธิภาพที่ “ดีพอ” สำหรับงานส่วนใหญ่ที่ไม่ต้องการความล้ำหน้าระดับ OpenAI หรือ Google ในเวลาเดียวกัน การเติบโตของโมเดลโอเพ่นซอร์สจากจีนยังสะท้อนการเปลี่ยนแปลงเชิงกลยุทธ์ในอุตสาหกรรม AI ทั่วโลก จากเดิมที่สหรัฐฯ ครองความได้เปรียบด้านเทคโนโลยีอย่างชัดเจน แต่การเปิดตัวโมเดลอย่าง DeepSeek R1 ที่มีประสิทธิภาพสูงและต้นทุนต่ำ ทำให้หลายฝ่ายเริ่มตั้งคำถามว่า “จีนกำลังไล่ทันหรือแซงหน้าในบางด้านแล้วหรือไม่” นอกจากนี้ รัฐบาลสหรัฐฯ เองก็เริ่มตระหนักถึงความสำคัญของโอเพ่นซอร์ส โดยออกแผน “AI Action Plan” เพื่อผลักดันโมเดลโอเพ่นซอร์สที่ยึดตามค่านิยมอเมริกัน แต่บริษัทใหญ่ในสหรัฐฯ กลับเดินไปในทิศทางตรงกันข้าม เช่น Meta ที่หันกลับไปเน้นโมเดลปิดมากขึ้น ขณะที่ฝั่งยุโรปอย่าง Mistral แม้ยังยืนหยัดในโอเพ่นซอร์ส แต่ก็ยังตามหลังจีนในด้านการใช้งานจริงทั่วโลก อย่างไรก็ตาม แม้โมเดลจีนจะได้รับความนิยม แต่ก็ยังมีความกังวลด้านความเสี่ยง เช่น ความเป็นไปได้ของมาตรการคว่ำบาตรในอนาคต หรือความไม่มั่นใจของลูกค้าบางกลุ่มที่ไม่ต้องการใช้เทคโนโลยีจากจีน แม้ผู้เชี่ยวชาญหลายรายยืนยันว่าโมเดลโอเพ่นซอร์สเหล่านี้สามารถใช้งานได้โดยไม่ต้องเชื่อมต่อกับจีนโดยตรงก็ตาม 📌 สรุปประเด็นสำคัญ ✅ ความนิยมของโมเดลโอเพ่นซอร์สจากจีนเพิ่มขึ้นอย่างรวดเร็ว ➡️ การใช้งานทั่วโลกเพิ่มจาก 1.2% เป็นเกือบ 30% ภายในไม่ถึงปี ➡️ โมเดลอย่าง Qwen และ DeepSeek ได้รับความนิยมเพราะราคาถูกและปรับแต่งได้ดี ✅ บริษัทสหรัฐฯ หลายแห่งหันมาใช้โมเดลจีน ➡️ ผู้ประกอบการบางรายประหยัดต้นทุนได้ถึง 400,000 ดอลลาร์ต่อปี ➡️ องค์กรใหญ่ เช่น Nvidia, Perplexity และ Stanford ก็ใช้ Qwen ในบางงาน ✅ จีนก้าวหน้าในด้าน AI Agents และโมเดลรุ่นใหม่ ➡️ โมเดล Kimi K2 และ DeepSeek R1 ถูกมองว่าเป็นแนวหน้าของยุค AI Agents ➡️ โมเดลจีนจำนวนมากเปิดให้ปรับแต่งได้มากกว่าโมเดลสหรัฐฯ ‼️ ความเสี่ยงด้านภูมิรัฐศาสตร์และการคว่ำบาตร ⛔ บริษัทกังวลว่าโมเดลจีนอาจถูกสหรัฐฯ แบนในอนาคต ⛔ ลูกค้าบางรายไม่มั่นใจเรื่องภาพลักษณ์และความสอดคล้องกับค่านิยมตะวันตก ‼️ ความไม่แน่นอนด้านทิศทางของบริษัทสหรัฐฯ ⛔ Meta หันกลับไปเน้นโมเดลปิด ทำให้ตลาดโอเพ่นซอร์สฝั่งตะวันตกอ่อนแรง ⛔ ความไม่ชัดเจนของนโยบายสหรัฐฯ อาจทำให้บริษัทลังเลในการเลือกเทคโนโลยี https://www.thestar.com.my/tech/tech-news/2025/12/22/as-us-battles-china-on-ai-some-companies-choose-chinese
    WWW.THESTAR.COM.MY
    As US battles China on AI, some companies choose Chinese
    Even as the United States is embarked on a bitter rivalry with China over the deployment of artificial intelligence, Chinese technology is quietly making inroads into the US market.
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • Nvidia H200: ความต้องการล้นตลาด

    หลังจากสหรัฐฯ อนุญาตให้ส่งออก H200 GPU ไปยังจีนภายใต้กรอบที่มีค่าธรรมเนียม 25% ความต้องการจากบริษัทใหญ่ เช่น Alibaba และ ByteDance พุ่งสูงทันที จนเกินกำลังผลิตที่ Nvidia มีอยู่ในปัจจุบัน ทำให้บริษัทต้องพิจารณาเพิ่มกำลังการผลิตเพื่อรองรับคำสั่งซื้อ

    ข้อจำกัดด้านการผลิต
    แม้ H200 จะเป็นชิปที่ทรงพลังที่สุดในตระกูล Hopper แต่กำลังการผลิตยังจำกัด เนื่องจาก Nvidia กำลังทุ่มทรัพยากรไปที่ Blackwell GPUs และ Rubin platform ซึ่งใช้เทคโนโลยีขั้นสูงกว่าและเป็นอนาคตของบริษัท การแข่งขันด้านทรัพยากรที่โรงงาน TSMC ทำให้การเพิ่มกำลังผลิต H200 ไม่ใช่เรื่องง่าย

    ความเสี่ยงด้านนโยบายและการส่งออก
    แม้สหรัฐฯ จะเปิดไฟเขียว แต่เส้นทางการส่งออกยังไม่ชัดเจน เพราะจีนยังไม่ได้อนุมัติการนำเข้าอย่างเป็นทางการ และมีการหารือว่าจะจำกัดปริมาณการซื้อของบริษัทจีนตามสัดส่วนการใช้ชิปในประเทศ เพื่อสนับสนุนผู้ผลิตท้องถิ่น ความไม่แน่นอนนี้ทำให้ Nvidia ต้องระมัดระวังในการลงทุนเพิ่มกำลังผลิต

    ผลกระทบต่ออุตสาหกรรม AI
    H200 ถือเป็นชิปที่ทรงพลังที่สุดที่จีนสามารถเข้าถึงได้อย่างถูกกฎหมาย โดยมีประสิทธิภาพสูงกว่า H20 (รุ่นเฉพาะตลาดจีน) ถึง 2–3 เท่า ทำให้ความต้องการยังคงแรง แม้จะมีความเสี่ยงด้านนโยบาย หาก Nvidia สามารถขยายการผลิตได้ จะช่วยรักษาตลาดจีนและเสริมความแข็งแกร่งของ CUDA ecosystem ในภูมิภาค

    สรุปประเด็นสำคัญ
    ความต้องการสูง
    Alibaba และ ByteDance สั่งซื้อจำนวนมาก
    ความต้องการเกินกำลังผลิตปัจจุบัน

    ข้อจำกัดการผลิต
    ทรัพยากรแข่งขันกับ Blackwell และ Rubin
    กำลังการผลิตที่ TSMC มีจำกัด

    ความเสี่ยงด้านนโยบาย
    สหรัฐฯ อนุญาตส่งออกพร้อมค่าธรรมเนียม 25%
    จีนยังไม่อนุมัติการนำเข้าอย่างเป็นทางการ

    ผลกระทบเชิงบวก
    H200 มีประสิทธิภาพเหนือกว่า H20 ถึง 2–3 เท่า
    เสริมความแข็งแกร่งของ CUDA ecosystem ในจีน

    คำเตือนและข้อจำกัด
    ความไม่แน่นอนด้านนโยบายจีน-สหรัฐฯ
    การแข่งขันทรัพยากรกับผลิตภัณฑ์ใหม่ของ Nvidia

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-weighs-expanding-h200-production-as-demand-outstrips-supply
    ⚡ Nvidia H200: ความต้องการล้นตลาด หลังจากสหรัฐฯ อนุญาตให้ส่งออก H200 GPU ไปยังจีนภายใต้กรอบที่มีค่าธรรมเนียม 25% ความต้องการจากบริษัทใหญ่ เช่น Alibaba และ ByteDance พุ่งสูงทันที จนเกินกำลังผลิตที่ Nvidia มีอยู่ในปัจจุบัน ทำให้บริษัทต้องพิจารณาเพิ่มกำลังการผลิตเพื่อรองรับคำสั่งซื้อ 🏭 ข้อจำกัดด้านการผลิต แม้ H200 จะเป็นชิปที่ทรงพลังที่สุดในตระกูล Hopper แต่กำลังการผลิตยังจำกัด เนื่องจาก Nvidia กำลังทุ่มทรัพยากรไปที่ Blackwell GPUs และ Rubin platform ซึ่งใช้เทคโนโลยีขั้นสูงกว่าและเป็นอนาคตของบริษัท การแข่งขันด้านทรัพยากรที่โรงงาน TSMC ทำให้การเพิ่มกำลังผลิต H200 ไม่ใช่เรื่องง่าย 🌐 ความเสี่ยงด้านนโยบายและการส่งออก แม้สหรัฐฯ จะเปิดไฟเขียว แต่เส้นทางการส่งออกยังไม่ชัดเจน เพราะจีนยังไม่ได้อนุมัติการนำเข้าอย่างเป็นทางการ และมีการหารือว่าจะจำกัดปริมาณการซื้อของบริษัทจีนตามสัดส่วนการใช้ชิปในประเทศ เพื่อสนับสนุนผู้ผลิตท้องถิ่น ความไม่แน่นอนนี้ทำให้ Nvidia ต้องระมัดระวังในการลงทุนเพิ่มกำลังผลิต 🔮 ผลกระทบต่ออุตสาหกรรม AI H200 ถือเป็นชิปที่ทรงพลังที่สุดที่จีนสามารถเข้าถึงได้อย่างถูกกฎหมาย โดยมีประสิทธิภาพสูงกว่า H20 (รุ่นเฉพาะตลาดจีน) ถึง 2–3 เท่า ทำให้ความต้องการยังคงแรง แม้จะมีความเสี่ยงด้านนโยบาย หาก Nvidia สามารถขยายการผลิตได้ จะช่วยรักษาตลาดจีนและเสริมความแข็งแกร่งของ CUDA ecosystem ในภูมิภาค 📌 สรุปประเด็นสำคัญ ✅ ความต้องการสูง ➡️ Alibaba และ ByteDance สั่งซื้อจำนวนมาก ➡️ ความต้องการเกินกำลังผลิตปัจจุบัน ✅ ข้อจำกัดการผลิต ➡️ ทรัพยากรแข่งขันกับ Blackwell และ Rubin ➡️ กำลังการผลิตที่ TSMC มีจำกัด ✅ ความเสี่ยงด้านนโยบาย ➡️ สหรัฐฯ อนุญาตส่งออกพร้อมค่าธรรมเนียม 25% ➡️ จีนยังไม่อนุมัติการนำเข้าอย่างเป็นทางการ ✅ ผลกระทบเชิงบวก ➡️ H200 มีประสิทธิภาพเหนือกว่า H20 ถึง 2–3 เท่า ➡️ เสริมความแข็งแกร่งของ CUDA ecosystem ในจีน ‼️ คำเตือนและข้อจำกัด ⛔ ความไม่แน่นอนด้านนโยบายจีน-สหรัฐฯ ⛔ การแข่งขันทรัพยากรกับผลิตภัณฑ์ใหม่ของ Nvidia https://www.tomshardware.com/tech-industry/semiconductors/nvidia-weighs-expanding-h200-production-as-demand-outstrips-supply
    0 ความคิดเห็น 0 การแบ่งปัน 283 มุมมอง 0 รีวิว
  • AI Safety Report Card – บริษัท AI ยังขาดแผนปกป้องมนุษย์

    รายงานจาก The Star ระบุว่า Future of Life Institute ได้เผยแพร่ AI Safety Index ซึ่งประเมินบริษัท AI ชั้นนำ 35 ตัวชี้วัดใน 6 หมวด เช่น existential safety, risk assessment และการแบ่งปันข้อมูล พบว่าบริษัทส่วนใหญ่ยังไม่ให้ความสำคัญกับการป้องกันความเสี่ยงระยะยาว.

    บริษัทที่ได้คะแนนสูงสุดคือ OpenAI และ Anthropic ที่ได้เพียง C+ ขณะที่ Google DeepMind ได้ C ส่วน Meta และ xAI ของ Elon Musk ได้ D และบริษัทจีนอย่าง Z.ai และ DeepSeek ก็ได้ D เช่นกัน โดย Alibaba Cloud ได้คะแนนต่ำสุดที่ D-.

    รายงานชี้ว่าไม่มีบริษัทใดมี แผนที่น่าเชื่อถือในการป้องกันการใช้ AGI หรือ superintelligence ในทางที่ผิด เช่นการสร้างอาวุธชีวภาพหรือการโค่นล้มรัฐบาล ซึ่งถือเป็นความเสี่ยง existential ที่อาจกระทบต่อมนุษยชาติ. แม้บางบริษัท เช่น OpenAI และ Google DeepMind จะอ้างว่ามีการลงทุนด้าน safety framework แต่ก็ยังไม่เพียงพอ.

    นักวิจัยเตือนว่าหากไม่มีการกำกับดูแลที่เข้มงวด อุตสาหกรรม AI อาจกลายเป็น “การแข่งขันสู่จุดต่ำสุด” ที่เน้นความเร็วและความสามารถมากกว่าความปลอดภัย โดยเสนอให้รัฐบาลออก มาตรฐานความปลอดภัยที่มีผลบังคับใช้ เพื่อป้องกันการใช้ AI ในทางที่ผิด.

    สรุปประเด็นสำคัญ
    ผลการจัดอันดับ AI Safety Index
    OpenAI และ Anthropic ได้ C+
    Google DeepMind ได้ C
    Meta, xAI, Z.ai, DeepSeek ได้ D
    Alibaba Cloud ได้ D-

    ข้อค้นพบหลัก
    ไม่มีบริษัทใดมีแผนป้องกัน existential risk ที่น่าเชื่อถือ
    การลงทุนด้าน safety framework ยังไม่เพียงพอ

    ข้อเสนอจากนักวิจัย
    ต้องมีมาตรฐานความปลอดภัยที่บังคับใช้
    ป้องกันการแข่งขันที่เน้นความเร็วมากกว่าความปลอดภัย

    ข้อกังวลและคำเตือน
    AI อาจถูกใช้สร้างอาวุธชีวภาพหรือโค่นล้มรัฐบาล
    หากไม่มีการกำกับดูแล อุตสาหกรรมจะเข้าสู่ “race to the bottom”

    https://www.thestar.com.my/tech/tech-news/2025/12/13/a-safety-report-card-ranks-ai-company-efforts-to-protect-humanity
    🧾 AI Safety Report Card – บริษัท AI ยังขาดแผนปกป้องมนุษย์ รายงานจาก The Star ระบุว่า Future of Life Institute ได้เผยแพร่ AI Safety Index ซึ่งประเมินบริษัท AI ชั้นนำ 35 ตัวชี้วัดใน 6 หมวด เช่น existential safety, risk assessment และการแบ่งปันข้อมูล พบว่าบริษัทส่วนใหญ่ยังไม่ให้ความสำคัญกับการป้องกันความเสี่ยงระยะยาว. บริษัทที่ได้คะแนนสูงสุดคือ OpenAI และ Anthropic ที่ได้เพียง C+ ขณะที่ Google DeepMind ได้ C ส่วน Meta และ xAI ของ Elon Musk ได้ D และบริษัทจีนอย่าง Z.ai และ DeepSeek ก็ได้ D เช่นกัน โดย Alibaba Cloud ได้คะแนนต่ำสุดที่ D-. รายงานชี้ว่าไม่มีบริษัทใดมี แผนที่น่าเชื่อถือในการป้องกันการใช้ AGI หรือ superintelligence ในทางที่ผิด เช่นการสร้างอาวุธชีวภาพหรือการโค่นล้มรัฐบาล ซึ่งถือเป็นความเสี่ยง existential ที่อาจกระทบต่อมนุษยชาติ. แม้บางบริษัท เช่น OpenAI และ Google DeepMind จะอ้างว่ามีการลงทุนด้าน safety framework แต่ก็ยังไม่เพียงพอ. นักวิจัยเตือนว่าหากไม่มีการกำกับดูแลที่เข้มงวด อุตสาหกรรม AI อาจกลายเป็น “การแข่งขันสู่จุดต่ำสุด” ที่เน้นความเร็วและความสามารถมากกว่าความปลอดภัย โดยเสนอให้รัฐบาลออก มาตรฐานความปลอดภัยที่มีผลบังคับใช้ เพื่อป้องกันการใช้ AI ในทางที่ผิด. 📌 สรุปประเด็นสำคัญ ✅ ผลการจัดอันดับ AI Safety Index ➡️ OpenAI และ Anthropic ได้ C+ ➡️ Google DeepMind ได้ C ➡️ Meta, xAI, Z.ai, DeepSeek ได้ D ➡️ Alibaba Cloud ได้ D- ✅ ข้อค้นพบหลัก ➡️ ไม่มีบริษัทใดมีแผนป้องกัน existential risk ที่น่าเชื่อถือ ➡️ การลงทุนด้าน safety framework ยังไม่เพียงพอ ✅ ข้อเสนอจากนักวิจัย ➡️ ต้องมีมาตรฐานความปลอดภัยที่บังคับใช้ ➡️ ป้องกันการแข่งขันที่เน้นความเร็วมากกว่าความปลอดภัย ‼️ ข้อกังวลและคำเตือน ⛔ AI อาจถูกใช้สร้างอาวุธชีวภาพหรือโค่นล้มรัฐบาล ⛔ หากไม่มีการกำกับดูแล อุตสาหกรรมจะเข้าสู่ “race to the bottom” https://www.thestar.com.my/tech/tech-news/2025/12/13/a-safety-report-card-ranks-ai-company-efforts-to-protect-humanity
    WWW.THESTAR.COM.MY
    A safety report card ranks AI company efforts to protect humanity
    Are artificial intelligence companies keeping humanity safe from AI's potential harms? Don't bet on it, a new report card says.
    0 ความคิดเห็น 0 การแบ่งปัน 302 มุมมอง 0 รีวิว
  • จีนเริ่มจัดทำ “บัญชีรายชื่อผู้ผลิตฮาร์ดแวร์ AI ที่รัฐบาลอนุมัติ”

    รัฐบาลจีนได้เพิ่มหมวดหมู่ใหม่ใน “Information Technology Innovation List (Xinchuang)” โดยรวมถึงโปรเซสเซอร์ AI ที่ผลิตในประเทศ รายชื่อแรกประกอบด้วย Cambricon และ Huawei ซึ่งจะถูกแนะนำให้หน่วยงานรัฐ, บริษัทของรัฐ และสถาบันสาธารณะเลือกใช้เป็นหลัก

    เป้าหมายของนโยบาย
    การจัดทำรายชื่อนี้มีเป้าหมายเพื่อเร่งการแทนที่ชิป AI ที่ออกแบบโดยสหรัฐ เช่น Nvidia และ AMD ด้วยทางเลือกที่ผลิตในประเทศ เพื่อสร้าง ecosystem ที่จีนควบคุมเองได้ และลดความเสี่ยงจากมาตรการคว่ำบาตรหรือข้อจำกัดการส่งออก

    ความท้าทายในการเปลี่ยนผ่าน
    แม้ Cambricon และ Huawei จะมีชิป AI ของตัวเอง แต่หลายงานในภาครัฐและเอกชนยังคงพึ่งพา CUDA ของ Nvidia อย่างหนัก ทำให้การย้ายไปใช้สถาปัตยกรรมใหม่ไม่ง่าย นอกจากนี้ โรงงานผลิตชิปของจีน เช่น SMIC ยังมีข้อจำกัดด้านกำลังการผลิตและไม่สามารถแข่งขันกับ TSMC ได้เต็มที่

    ผลกระทบต่ออุตสาหกรรม
    นโยบายนี้จะส่งผลให้บริษัทจีนต้องเร่งพัฒนา ecosystem ของตัวเอง ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ ขณะเดียวกันบริษัทเอกชนอย่าง Alibaba และ Tencent อาจยังเลือกใช้ Nvidia ผ่านบริการคลาวด์เพื่อรักษาความสามารถในการแข่งขัน แต่ในระยะยาว จีนตั้งใจจะสร้างความพึ่งพาตนเองให้ได้

    สรุปเป็นหัวข้อ
    รายชื่อผู้ผลิตที่อนุมัติ
    Cambricon และ Huawei ติดในบัญชี Xinchuang
    Nvidia และ AMD ไม่ถูกบรรจุ

    เป้าหมายของนโยบาย
    ลดการพึ่งพาชิปต่างชาติ
    สร้าง ecosystem AI ที่จีนควบคุมเองได้

    ความท้าทาย
    งานจำนวนมากยังพึ่งพา CUDA ของ Nvidia
    SMIC มีกำลังผลิตจำกัด ไม่เทียบเท่า TSMC

    ผลกระทบต่ออุตสาหกรรม
    Alibaba และ Tencent อาจยังใช้ Nvidia ผ่านคลาวด์
    จีนเร่งพัฒนา ecosystem ฮาร์ดแวร์และซอฟต์แวร์ในประเทศ

    ข้อจำกัดและคำเตือน
    การเปลี่ยนผ่านอาจทำให้เกิดความไม่เสถียรในระบบ
    ความเสี่ยงจากการขาดกำลังผลิตชิปขั้นสูง
    อาจกระทบต่อความสามารถแข่งขันของบริษัทจีนในระยะสั้น

    https://www.tomshardware.com/tech-industry/artificial-intelligence/china-starts-list-of-government-approved-ai-hardware-suppliers-cambricon-and-huawei-are-in-nvidia-is-not
    🇨🇳 จีนเริ่มจัดทำ “บัญชีรายชื่อผู้ผลิตฮาร์ดแวร์ AI ที่รัฐบาลอนุมัติ” รัฐบาลจีนได้เพิ่มหมวดหมู่ใหม่ใน “Information Technology Innovation List (Xinchuang)” โดยรวมถึงโปรเซสเซอร์ AI ที่ผลิตในประเทศ รายชื่อแรกประกอบด้วย Cambricon และ Huawei ซึ่งจะถูกแนะนำให้หน่วยงานรัฐ, บริษัทของรัฐ และสถาบันสาธารณะเลือกใช้เป็นหลัก ⚡ เป้าหมายของนโยบาย การจัดทำรายชื่อนี้มีเป้าหมายเพื่อเร่งการแทนที่ชิป AI ที่ออกแบบโดยสหรัฐ เช่น Nvidia และ AMD ด้วยทางเลือกที่ผลิตในประเทศ เพื่อสร้าง ecosystem ที่จีนควบคุมเองได้ และลดความเสี่ยงจากมาตรการคว่ำบาตรหรือข้อจำกัดการส่งออก 🖥️ ความท้าทายในการเปลี่ยนผ่าน แม้ Cambricon และ Huawei จะมีชิป AI ของตัวเอง แต่หลายงานในภาครัฐและเอกชนยังคงพึ่งพา CUDA ของ Nvidia อย่างหนัก ทำให้การย้ายไปใช้สถาปัตยกรรมใหม่ไม่ง่าย นอกจากนี้ โรงงานผลิตชิปของจีน เช่น SMIC ยังมีข้อจำกัดด้านกำลังการผลิตและไม่สามารถแข่งขันกับ TSMC ได้เต็มที่ 🔍 ผลกระทบต่ออุตสาหกรรม นโยบายนี้จะส่งผลให้บริษัทจีนต้องเร่งพัฒนา ecosystem ของตัวเอง ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ ขณะเดียวกันบริษัทเอกชนอย่าง Alibaba และ Tencent อาจยังเลือกใช้ Nvidia ผ่านบริการคลาวด์เพื่อรักษาความสามารถในการแข่งขัน แต่ในระยะยาว จีนตั้งใจจะสร้างความพึ่งพาตนเองให้ได้ 📌 สรุปเป็นหัวข้อ ✅ รายชื่อผู้ผลิตที่อนุมัติ ➡️ Cambricon และ Huawei ติดในบัญชี Xinchuang ➡️ Nvidia และ AMD ไม่ถูกบรรจุ ✅ เป้าหมายของนโยบาย ➡️ ลดการพึ่งพาชิปต่างชาติ ➡️ สร้าง ecosystem AI ที่จีนควบคุมเองได้ ✅ ความท้าทาย ➡️ งานจำนวนมากยังพึ่งพา CUDA ของ Nvidia ➡️ SMIC มีกำลังผลิตจำกัด ไม่เทียบเท่า TSMC ✅ ผลกระทบต่ออุตสาหกรรม ➡️ Alibaba และ Tencent อาจยังใช้ Nvidia ผ่านคลาวด์ ➡️ จีนเร่งพัฒนา ecosystem ฮาร์ดแวร์และซอฟต์แวร์ในประเทศ ‼️ ข้อจำกัดและคำเตือน ⛔ การเปลี่ยนผ่านอาจทำให้เกิดความไม่เสถียรในระบบ ⛔ ความเสี่ยงจากการขาดกำลังผลิตชิปขั้นสูง ⛔ อาจกระทบต่อความสามารถแข่งขันของบริษัทจีนในระยะสั้น https://www.tomshardware.com/tech-industry/artificial-intelligence/china-starts-list-of-government-approved-ai-hardware-suppliers-cambricon-and-huawei-are-in-nvidia-is-not
    0 ความคิดเห็น 0 การแบ่งปัน 274 มุมมอง 0 รีวิว
  • การประชุมฉุกเฉินของรัฐบาลจีน พิจารณาจำกัดการนำเข้าชิป Nvidia H200

    หน่วยงานกำกับดูแลของจีน เช่น National Development and Reform Commission (NDRC) และ Ministry of Industry and Information Technology (MIIT) ได้จัดประชุมกับบริษัทเทคโนโลยีรายใหญ่ Alibaba, ByteDance และ Tencent เพื่อสอบถามความต้องการชิป H200 หลังสหรัฐอนุญาตให้ส่งออก โดยจีนกำลังพิจารณาว่าจะอนุญาตให้ซื้อในปริมาณเท่าใด

    ความขัดแย้งระหว่างความต้องการและนโยบาย
    แม้ H200 จะมีประสิทธิภาพสูงกว่าชิป H20 ที่ออกแบบเฉพาะสำหรับตลาดจีน แต่รัฐบาลยังคงกดดันให้บริษัทหันไปใช้ชิปในประเทศ เช่น Huawei Ascend การนำเข้า H200 จึงถูกมองว่าเป็นการแก้ปัญหาระยะสั้น แต่เสี่ยงต่อการลดแรงจูงใจในการพัฒนาชิปจีนเอง

    ผลกระทบต่อ Nvidia
    ก่อนหน้านี้ Nvidia สูญเสียรายได้ในจีนกว่า 63% เมื่อไม่สามารถขาย H100 ได้ แต่หากจีนอนุญาตให้ซื้อ H200 ความต้องการคาดว่าจะสูงมาก อย่างไรก็ตาม รัฐบาลจีนอาจใช้มาตรการจำกัด เช่น กำหนดโควตาการซื้อ หรือห้ามใช้ในอุตสาหกรรมที่ถือว่า “มีความอ่อนไหวเชิงกลยุทธ์” เช่น การเงินและพลังงาน

    ความหมายต่อการแข่งขัน AI
    การตัดสินใจครั้งนี้สะท้อนถึงความพยายามของจีนในการหาจุดสมดุลระหว่างการใช้เทคโนโลยีต่างชาติและการสร้างความพึ่งพาตนเอง หากจีนจำกัดการนำเข้า H200 จะเป็นแรงผลักดันให้บริษัทหันไปลงทุนในชิปภายในประเทศมากขึ้น ซึ่งอาจเร่งการพัฒนา ecosystem AI ของจีนในระยะยาว

    สรุปเป็นหัวข้อ
    การประชุมฉุกเฉินของจีน
    NDRC และ MIIT เรียก Alibaba, ByteDance, Tencent เข้าหารือ
    ประเมินความต้องการชิป H200

    ความขัดแย้งด้านนโยบาย
    H200 มีประสิทธิภาพสูงกว่าชิป H20
    รัฐบาลจีนกดดันให้ใช้ชิปในประเทศ เช่น Huawei Ascend

    ผลกระทบต่อ Nvidia
    สูญเสียรายได้ในจีนกว่า 63% หลังห้ามขาย H100
    หากอนุญาต H200 ความต้องการจะสูง แต่มีโควตาจำกัด

    ความหมายต่อการแข่งขัน AI
    จีนพยายามหาสมดุลระหว่างการนำเข้าและการพึ่งพาตนเอง
    อาจเร่งการพัฒนาชิปและ ecosystem AI ภายในประเทศ

    ข้อจำกัดและคำเตือน
    อาจห้ามใช้ H200 ในอุตสาหกรรมเชิงกลยุทธ์ เช่น การเงินและพลังงาน
    การนำเข้า H200 มากเกินไปอาจลดแรงจูงใจในการพัฒนาชิปจีน
    ความเสี่ยงด้านภูมิรัฐศาสตร์จากการพึ่งพาเทคโนโลยีสหรัฐ

    https://www.tomshardware.com/tech-industry/semiconductors/china-weighs-import-limits-on-nvidias-h200-after-us-export-rules-relaxed
    🇨🇳 การประชุมฉุกเฉินของรัฐบาลจีน พิจารณาจำกัดการนำเข้าชิป Nvidia H200 หน่วยงานกำกับดูแลของจีน เช่น National Development and Reform Commission (NDRC) และ Ministry of Industry and Information Technology (MIIT) ได้จัดประชุมกับบริษัทเทคโนโลยีรายใหญ่ Alibaba, ByteDance และ Tencent เพื่อสอบถามความต้องการชิป H200 หลังสหรัฐอนุญาตให้ส่งออก โดยจีนกำลังพิจารณาว่าจะอนุญาตให้ซื้อในปริมาณเท่าใด ⚡ ความขัดแย้งระหว่างความต้องการและนโยบาย แม้ H200 จะมีประสิทธิภาพสูงกว่าชิป H20 ที่ออกแบบเฉพาะสำหรับตลาดจีน แต่รัฐบาลยังคงกดดันให้บริษัทหันไปใช้ชิปในประเทศ เช่น Huawei Ascend การนำเข้า H200 จึงถูกมองว่าเป็นการแก้ปัญหาระยะสั้น แต่เสี่ยงต่อการลดแรงจูงใจในการพัฒนาชิปจีนเอง 💹 ผลกระทบต่อ Nvidia ก่อนหน้านี้ Nvidia สูญเสียรายได้ในจีนกว่า 63% เมื่อไม่สามารถขาย H100 ได้ แต่หากจีนอนุญาตให้ซื้อ H200 ความต้องการคาดว่าจะสูงมาก อย่างไรก็ตาม รัฐบาลจีนอาจใช้มาตรการจำกัด เช่น กำหนดโควตาการซื้อ หรือห้ามใช้ในอุตสาหกรรมที่ถือว่า “มีความอ่อนไหวเชิงกลยุทธ์” เช่น การเงินและพลังงาน 🔍 ความหมายต่อการแข่งขัน AI การตัดสินใจครั้งนี้สะท้อนถึงความพยายามของจีนในการหาจุดสมดุลระหว่างการใช้เทคโนโลยีต่างชาติและการสร้างความพึ่งพาตนเอง หากจีนจำกัดการนำเข้า H200 จะเป็นแรงผลักดันให้บริษัทหันไปลงทุนในชิปภายในประเทศมากขึ้น ซึ่งอาจเร่งการพัฒนา ecosystem AI ของจีนในระยะยาว 📌 สรุปเป็นหัวข้อ ✅ การประชุมฉุกเฉินของจีน ➡️ NDRC และ MIIT เรียก Alibaba, ByteDance, Tencent เข้าหารือ ➡️ ประเมินความต้องการชิป H200 ✅ ความขัดแย้งด้านนโยบาย ➡️ H200 มีประสิทธิภาพสูงกว่าชิป H20 ➡️ รัฐบาลจีนกดดันให้ใช้ชิปในประเทศ เช่น Huawei Ascend ✅ ผลกระทบต่อ Nvidia ➡️ สูญเสียรายได้ในจีนกว่า 63% หลังห้ามขาย H100 ➡️ หากอนุญาต H200 ความต้องการจะสูง แต่มีโควตาจำกัด ✅ ความหมายต่อการแข่งขัน AI ➡️ จีนพยายามหาสมดุลระหว่างการนำเข้าและการพึ่งพาตนเอง ➡️ อาจเร่งการพัฒนาชิปและ ecosystem AI ภายในประเทศ ‼️ ข้อจำกัดและคำเตือน ⛔ อาจห้ามใช้ H200 ในอุตสาหกรรมเชิงกลยุทธ์ เช่น การเงินและพลังงาน ⛔ การนำเข้า H200 มากเกินไปอาจลดแรงจูงใจในการพัฒนาชิปจีน ⛔ ความเสี่ยงด้านภูมิรัฐศาสตร์จากการพึ่งพาเทคโนโลยีสหรัฐ https://www.tomshardware.com/tech-industry/semiconductors/china-weighs-import-limits-on-nvidias-h200-after-us-export-rules-relaxed
    0 ความคิดเห็น 0 การแบ่งปัน 293 มุมมอง 0 รีวิว
  • "ทรัมป์อนุมัติส่งออก Nvidia H200 ไปจีน พร้อมค่าธรรมเนียม 25%"
    รัฐบาลสหรัฐฯ ประกาศอนุญาตให้บริษัท Nvidia ส่งออกชิป H200 Hopper-class AI accelerators ไปยังลูกค้าที่ได้รับการอนุมัติในจีน . การตัดสินใจครั้งนี้มาพร้อมเงื่อนไขว่าต้องเสียค่าธรรมเนียม 25% และชิปจะถูกตรวจสอบความปลอดภัยในสหรัฐก่อนส่งต่อไปจีน

    ผลกระทบต่ออุตสาหกรรม AI
    ชิป H200 ถือเป็นรุ่นที่มีประสิทธิภาพสูงกว่ารุ่น H20 ที่จีนเคยได้รับอนุญาตให้ใช้ แต่ยังต่ำกว่ารุ่น Blackwell ที่เป็นเทคโนโลยีล่าสุด . การอนุมัติครั้งนี้ช่วยให้บริษัทจีน เช่น Alibaba, Tencent และ ByteDance สามารถเข้าถึงทรัพยากรที่จำเป็นในการฝึกและดูแลโมเดล AI ขนาดใหญ่ โดยไม่ต้องพึ่งพาการประมวลผลในต่างประเทศ

    ความกังวลด้านความมั่นคง
    แม้จะเป็นการเปิดตลาด แต่หลายฝ่ายในสหรัฐฯ มองว่าการส่งออก H200 อาจเป็น ภัยต่อความมั่นคง เพราะยังคงมีศักยภาพสูงในการพัฒนา AI กลุ่มวุฒิสมาชิกได้เสนอร่างกฎหมาย SAFE CHIPS Act เพื่อระงับการส่งออกชิปขั้นสูงไปจีนเป็นเวลา 30 เดือน

    มุมมองจากจีน
    ฝ่ายจีนเองยังคงระมัดระวัง โดยมีรายงานว่ากำลังพิจารณาอนุญาตให้ใช้ H200 เฉพาะในกรณีที่ชิปภายในประเทศไม่สามารถตอบโจทย์ได้ . นอกจากนี้ยังมีแนวโน้มว่าจะห้ามหน่วยงานภาครัฐซื้อชิป Nvidia เพื่อสนับสนุนการพัฒนาเทคโนโลยีภายในประเทศ

    สรุปสาระสำคัญ
    การอนุมัติส่งออก H200
    ต้องเสียค่าธรรมเนียม 25% และผ่านการตรวจสอบความปลอดภัย

    ศักยภาพของ H200
    แรงกว่ารุ่น H20 แต่ยังต่ำกว่า Blackwell

    ผลต่อบริษัทจีน
    Alibaba, Tencent, ByteDance ได้ประโยชน์ในการฝึกโมเดล AI

    คำเตือนด้านความมั่นคง
    วุฒิสมาชิกสหรัฐเสนอ SAFE CHIPS Act เพื่อระงับการส่งออก

    คำเตือนจากจีน
    อาจจำกัดการใช้งาน H200 และห้ามภาครัฐซื้อชิป Nvidia

    https://www.tomshardware.com/tech-industry/semiconductors/trump-approves-nvidia-h20-exports-to-china-25percent-fee-applies
    🏛️ "ทรัมป์อนุมัติส่งออก Nvidia H200 ไปจีน พร้อมค่าธรรมเนียม 25%" รัฐบาลสหรัฐฯ ประกาศอนุญาตให้บริษัท Nvidia ส่งออกชิป H200 Hopper-class AI accelerators ไปยังลูกค้าที่ได้รับการอนุมัติในจีน . การตัดสินใจครั้งนี้มาพร้อมเงื่อนไขว่าต้องเสียค่าธรรมเนียม 25% และชิปจะถูกตรวจสอบความปลอดภัยในสหรัฐก่อนส่งต่อไปจีน ⚡ ผลกระทบต่ออุตสาหกรรม AI ชิป H200 ถือเป็นรุ่นที่มีประสิทธิภาพสูงกว่ารุ่น H20 ที่จีนเคยได้รับอนุญาตให้ใช้ แต่ยังต่ำกว่ารุ่น Blackwell ที่เป็นเทคโนโลยีล่าสุด . การอนุมัติครั้งนี้ช่วยให้บริษัทจีน เช่น Alibaba, Tencent และ ByteDance สามารถเข้าถึงทรัพยากรที่จำเป็นในการฝึกและดูแลโมเดล AI ขนาดใหญ่ โดยไม่ต้องพึ่งพาการประมวลผลในต่างประเทศ 🛡️ ความกังวลด้านความมั่นคง แม้จะเป็นการเปิดตลาด แต่หลายฝ่ายในสหรัฐฯ มองว่าการส่งออก H200 อาจเป็น ภัยต่อความมั่นคง เพราะยังคงมีศักยภาพสูงในการพัฒนา AI กลุ่มวุฒิสมาชิกได้เสนอร่างกฎหมาย SAFE CHIPS Act เพื่อระงับการส่งออกชิปขั้นสูงไปจีนเป็นเวลา 30 เดือน 🌍 มุมมองจากจีน ฝ่ายจีนเองยังคงระมัดระวัง โดยมีรายงานว่ากำลังพิจารณาอนุญาตให้ใช้ H200 เฉพาะในกรณีที่ชิปภายในประเทศไม่สามารถตอบโจทย์ได้ . นอกจากนี้ยังมีแนวโน้มว่าจะห้ามหน่วยงานภาครัฐซื้อชิป Nvidia เพื่อสนับสนุนการพัฒนาเทคโนโลยีภายในประเทศ 📌 สรุปสาระสำคัญ ✅ การอนุมัติส่งออก H200 ➡️ ต้องเสียค่าธรรมเนียม 25% และผ่านการตรวจสอบความปลอดภัย ✅ ศักยภาพของ H200 ➡️ แรงกว่ารุ่น H20 แต่ยังต่ำกว่า Blackwell ✅ ผลต่อบริษัทจีน ➡️ Alibaba, Tencent, ByteDance ได้ประโยชน์ในการฝึกโมเดล AI ‼️ คำเตือนด้านความมั่นคง ⛔ วุฒิสมาชิกสหรัฐเสนอ SAFE CHIPS Act เพื่อระงับการส่งออก ‼️ คำเตือนจากจีน ⛔ อาจจำกัดการใช้งาน H200 และห้ามภาครัฐซื้อชิป Nvidia https://www.tomshardware.com/tech-industry/semiconductors/trump-approves-nvidia-h20-exports-to-china-25percent-fee-applies
    0 ความคิดเห็น 0 การแบ่งปัน 232 มุมมอง 0 รีวิว
  • Nvidia ได้ไฟเขียวส่งออก H200 GPU ไปจีน

    ตามรายงานจาก Tom’s Hardware และแหล่งข่าวของ Semafor กระทรวงพาณิชย์สหรัฐฯ (DoC) เตรียมอนุญาตให้ Nvidia ส่งออก H200 AI GPU ไปยังจีน แม้ยังคงอยู่ภายใต้กรอบกฎหมายควบคุมการส่งออกปี 2023 แต่จะมีการตีความที่ “ยืดหยุ่น” มากขึ้น

    รายละเอียดของ H200
    เปิดตัวปี 2022 เป็นรุ่น Hopper architecture
    มาพร้อม 144 GB HBM3 memory เหมาะสำหรับการเทรนโมเดล AI ขนาดใหญ่
    ประสิทธิภาพเหนือกว่า HGX H20 ที่ถูกออกแบบให้ “ลดสเปก” เพื่อตามข้อจำกัดการส่งออก

    เหตุผลที่สหรัฐฯ ผ่อนปรน
    การจำกัดการส่งออกก่อนหน้านี้ไม่ได้หยุดความก้าวหน้าของจีน
    บริษัทอย่าง Alibaba, DeepSeek และ Huawei ยังคงพัฒนาโมเดล AI ขั้นสูงได้
    จีนสามารถผลิตฮาร์ดแวร์ทดแทนเองและเผยแพร่มาตรฐาน AI ของตน

    การอนุญาต H200 จึงเป็นการ “ยกเพดานประสิทธิภาพ” โดยไม่แก้ไขกฎหมายเดิม แต่ให้ใบอนุญาตพิเศษ

    ปฏิกิริยาจากจีน
    จีนเคยปฏิเสธ H20 เพราะมองว่าเป็นรุ่นลดสเปกที่ “ไม่จริงใจ”
    H200 เป็นรุ่นเต็มสมรรถนะ จึงมีโอกาสที่จีนจะยอมรับมากกว่า
    อย่างไรก็ตาม จีนอาจลังเล เพราะการพึ่งพา Nvidia อาจทำให้เสี่ยงต่อการถูกตัดขาดอีกครั้ง และอาจชะลอการพัฒนาฮาร์ดแวร์ในประเทศ เช่นของ Huawei

    สรุปประเด็นสำคัญ
    DoC สหรัฐฯ เตรียมอนุญาตให้ Nvidia ส่งออก H200 GPU ไปจีน
    H200 มี 144 GB HBM3 และแรงกว่ารุ่น H20 ที่ถูกลดสเปก
    การผ่อนปรนสะท้อนว่าข้อจำกัดเดิมไม่หยุดความก้าวหน้าของจีน
    จีนอาจยอมรับ H200 แต่ยังเสี่ยงต่อการพึ่งพาเทคโนโลยีสหรัฐฯ
    การตัดสินใจครั้งนี้อาจส่งผลต่อการแข่งขัน AI ระหว่างสหรัฐฯ และจีนในระยะยาว

    https://www.tomshardware.com/pc-components/gpus/nvidia-reportedly-wins-h200-exports-to-china-us-department-of-commerce-set-to-ease-restrictions-for-full-hopper-ai-gpu
    🇨🇳 Nvidia ได้ไฟเขียวส่งออก H200 GPU ไปจีน ตามรายงานจาก Tom’s Hardware และแหล่งข่าวของ Semafor กระทรวงพาณิชย์สหรัฐฯ (DoC) เตรียมอนุญาตให้ Nvidia ส่งออก H200 AI GPU ไปยังจีน แม้ยังคงอยู่ภายใต้กรอบกฎหมายควบคุมการส่งออกปี 2023 แต่จะมีการตีความที่ “ยืดหยุ่น” มากขึ้น ⚙️ รายละเอียดของ H200 💠 เปิดตัวปี 2022 เป็นรุ่น Hopper architecture 💠 มาพร้อม 144 GB HBM3 memory เหมาะสำหรับการเทรนโมเดล AI ขนาดใหญ่ 💠 ประสิทธิภาพเหนือกว่า HGX H20 ที่ถูกออกแบบให้ “ลดสเปก” เพื่อตามข้อจำกัดการส่งออก 🎯 เหตุผลที่สหรัฐฯ ผ่อนปรน การจำกัดการส่งออกก่อนหน้านี้ไม่ได้หยุดความก้าวหน้าของจีน 🎗️ บริษัทอย่าง Alibaba, DeepSeek และ Huawei ยังคงพัฒนาโมเดล AI ขั้นสูงได้ 🎗️ จีนสามารถผลิตฮาร์ดแวร์ทดแทนเองและเผยแพร่มาตรฐาน AI ของตน การอนุญาต H200 จึงเป็นการ “ยกเพดานประสิทธิภาพ” โดยไม่แก้ไขกฎหมายเดิม แต่ให้ใบอนุญาตพิเศษ 🇨🇳 ปฏิกิริยาจากจีน 🎗️ จีนเคยปฏิเสธ H20 เพราะมองว่าเป็นรุ่นลดสเปกที่ “ไม่จริงใจ” 🎗️ H200 เป็นรุ่นเต็มสมรรถนะ จึงมีโอกาสที่จีนจะยอมรับมากกว่า 🎗️ อย่างไรก็ตาม จีนอาจลังเล เพราะการพึ่งพา Nvidia อาจทำให้เสี่ยงต่อการถูกตัดขาดอีกครั้ง และอาจชะลอการพัฒนาฮาร์ดแวร์ในประเทศ เช่นของ Huawei 📌 สรุปประเด็นสำคัญ ✅ DoC สหรัฐฯ เตรียมอนุญาตให้ Nvidia ส่งออก H200 GPU ไปจีน ✅ H200 มี 144 GB HBM3 และแรงกว่ารุ่น H20 ที่ถูกลดสเปก ✅ การผ่อนปรนสะท้อนว่าข้อจำกัดเดิมไม่หยุดความก้าวหน้าของจีน ✅ จีนอาจยอมรับ H200 แต่ยังเสี่ยงต่อการพึ่งพาเทคโนโลยีสหรัฐฯ ✅ การตัดสินใจครั้งนี้อาจส่งผลต่อการแข่งขัน AI ระหว่างสหรัฐฯ และจีนในระยะยาว https://www.tomshardware.com/pc-components/gpus/nvidia-reportedly-wins-h200-exports-to-china-us-department-of-commerce-set-to-ease-restrictions-for-full-hopper-ai-gpu
    WWW.TOMSHARDWARE.COM
    Nvidia reportedly wins H200 exports to China
    The U.S. government is reportedly preparing to let Nvidia ship its H200 accelerators to China, a move that could restore Nvidia in the Chinese AI market.
    0 ความคิดเห็น 0 การแบ่งปัน 222 มุมมอง 0 รีวิว
  • "Cambricon ตั้งเป้าเพิ่มการผลิตชิป AI 3 เท่า – หวังแทนที่ Nvidia และท้าชน Huawei"

    ข่าวนี้เล่าถึงบริษัท Cambricon Technologies ของจีนที่ตั้งเป้า เพิ่มการผลิตชิป AI เป็น 3 เท่าในปี 2026 เพื่อทดแทนช่องว่างที่ Nvidia ถอนตัวออกจากตลาดจีน และแข่งขันกับ Huawei แต่ยังมีข้อกังวลเรื่องกำลังการผลิตและคุณภาพการผลิตที่ต่ำ

    Cambricon Technologies มีแผนจะผลิตชิป AI กว่า 500,000 ตัวในปี 2026 รวมถึงรุ่นเรือธง Siyuan 590 และ 690 ซึ่งมากกว่าสามเท่าของจำนวนที่คาดว่าจะผลิตในปี 2025 (ประมาณ 142,000 ตัว). การขยายนี้เกิดขึ้นหลังจาก Nvidia ถูกจำกัดการส่งออกชิปไปยังจีน ทำให้เกิดช่องว่างในตลาดที่บริษัทจีนพยายามเข้ามาเติมเต็ม.

    Cambricon จะพึ่งพากำลังการผลิตจาก Semiconductor Manufacturing International Corp (SMIC) โดยใช้กระบวนการผลิต 7nm N+2 แต่ยังมีข้อกังวลเรื่องคุณภาพ เนื่องจากชิป Siyuan มีอัตราการผลิตที่ใช้ได้จริงเพียง 20% หรือหนึ่งในห้าของจำนวนที่ผลิตออกมา ซึ่งถือว่าต่ำมากเมื่อเทียบกับ TSMC ที่มี yield rate สูงถึง 60%.

    แม้จะมีข้อจำกัดด้านเทคนิค แต่ Cambricon ได้รับแรงหนุนจากรัฐบาลจีนและความต้องการภายในประเทศ โดยมีลูกค้ารายใหญ่เช่น Alibaba และ ByteDance ที่หันมาใช้ชิปจีนตามนโยบายลดการพึ่งพาต่างชาติ รายได้ของบริษัทก็เพิ่มขึ้นกว่า 14 เท่าในไตรมาสล่าสุด สะท้อนความต้องการที่พุ่งสูงในตลาด AI.

    อย่างไรก็ตาม ความท้าทายยังคงอยู่ที่ การจัดหาวัสดุพื้นฐานและหน่วยความจำ (HBM, LPDDR) ซึ่งขาดแคลนทั่วโลก รวมถึงการแข่งขันกับ Huawei ที่ประกาศว่าจะเพิ่มการผลิตชิปเช่นกัน ทำให้อนาคตของ Cambricon แม้จะสดใส แต่ก็เต็มไปด้วยความเสี่ยงด้านเทคนิคและทรัพยากร.

    สรุปประเด็นสำคัญ
    ข้อมูลจากข่าว
    Cambricon ตั้งเป้าผลิตชิป AI 500,000 ตัวในปี 2026
    ใช้กำลังการผลิตจาก SMIC ที่กระบวนการ 7nm N+2
    Yield rate ของชิป Siyuan อยู่ที่ 20% เทียบกับ TSMC ที่ 60%
    ลูกค้ารายใหญ่: Alibaba และ ByteDance
    รายได้ไตรมาสล่าสุดเพิ่มขึ้น 14 เท่า

    ข้อมูลเสริมจาก Internet
    ตลาดชิป AI คาดว่าจะเติบโตเฉลี่ย 25% ต่อปีในช่วง 2025–2030
    Huawei กำลังเพิ่มการผลิตชิป AI เพื่อตอบสนองความต้องการในประเทศ
    การขาดแคลน HBM และ LPDDR เป็นปัญหาสำคัญทั่วโลก

    คำเตือนจากข่าว
    Yield rate ต่ำอาจทำให้ต้นทุนสูงและการผลิตไม่คุ้มค่า
    การขาดแคลนหน่วยความจำอาจทำให้คำสั่งซื้อไม่สามารถส่งมอบได้
    การแข่งขันกับ Huawei อาจทำให้ Cambricon เสียเปรียบในตลาดภายในประเทศ

    https://www.tomshardware.com/tech-industry/chinese-tech-firm-cambricon-looks-to-step-into-nvidia-void-triple-ai-chip-production-next-year-seeks-to-rival-huawei-but-production-remains-a-concern
    ⚙️ "Cambricon ตั้งเป้าเพิ่มการผลิตชิป AI 3 เท่า – หวังแทนที่ Nvidia และท้าชน Huawei" ข่าวนี้เล่าถึงบริษัท Cambricon Technologies ของจีนที่ตั้งเป้า เพิ่มการผลิตชิป AI เป็น 3 เท่าในปี 2026 เพื่อทดแทนช่องว่างที่ Nvidia ถอนตัวออกจากตลาดจีน และแข่งขันกับ Huawei แต่ยังมีข้อกังวลเรื่องกำลังการผลิตและคุณภาพการผลิตที่ต่ำ Cambricon Technologies มีแผนจะผลิตชิป AI กว่า 500,000 ตัวในปี 2026 รวมถึงรุ่นเรือธง Siyuan 590 และ 690 ซึ่งมากกว่าสามเท่าของจำนวนที่คาดว่าจะผลิตในปี 2025 (ประมาณ 142,000 ตัว). การขยายนี้เกิดขึ้นหลังจาก Nvidia ถูกจำกัดการส่งออกชิปไปยังจีน ทำให้เกิดช่องว่างในตลาดที่บริษัทจีนพยายามเข้ามาเติมเต็ม. Cambricon จะพึ่งพากำลังการผลิตจาก Semiconductor Manufacturing International Corp (SMIC) โดยใช้กระบวนการผลิต 7nm N+2 แต่ยังมีข้อกังวลเรื่องคุณภาพ เนื่องจากชิป Siyuan มีอัตราการผลิตที่ใช้ได้จริงเพียง 20% หรือหนึ่งในห้าของจำนวนที่ผลิตออกมา ซึ่งถือว่าต่ำมากเมื่อเทียบกับ TSMC ที่มี yield rate สูงถึง 60%. แม้จะมีข้อจำกัดด้านเทคนิค แต่ Cambricon ได้รับแรงหนุนจากรัฐบาลจีนและความต้องการภายในประเทศ โดยมีลูกค้ารายใหญ่เช่น Alibaba และ ByteDance ที่หันมาใช้ชิปจีนตามนโยบายลดการพึ่งพาต่างชาติ รายได้ของบริษัทก็เพิ่มขึ้นกว่า 14 เท่าในไตรมาสล่าสุด สะท้อนความต้องการที่พุ่งสูงในตลาด AI. อย่างไรก็ตาม ความท้าทายยังคงอยู่ที่ การจัดหาวัสดุพื้นฐานและหน่วยความจำ (HBM, LPDDR) ซึ่งขาดแคลนทั่วโลก รวมถึงการแข่งขันกับ Huawei ที่ประกาศว่าจะเพิ่มการผลิตชิปเช่นกัน ทำให้อนาคตของ Cambricon แม้จะสดใส แต่ก็เต็มไปด้วยความเสี่ยงด้านเทคนิคและทรัพยากร. 📌 สรุปประเด็นสำคัญ ✅ ข้อมูลจากข่าว ➡️ Cambricon ตั้งเป้าผลิตชิป AI 500,000 ตัวในปี 2026 ➡️ ใช้กำลังการผลิตจาก SMIC ที่กระบวนการ 7nm N+2 ➡️ Yield rate ของชิป Siyuan อยู่ที่ 20% เทียบกับ TSMC ที่ 60% ➡️ ลูกค้ารายใหญ่: Alibaba และ ByteDance ➡️ รายได้ไตรมาสล่าสุดเพิ่มขึ้น 14 เท่า ✅ ข้อมูลเสริมจาก Internet ➡️ ตลาดชิป AI คาดว่าจะเติบโตเฉลี่ย 25% ต่อปีในช่วง 2025–2030 ➡️ Huawei กำลังเพิ่มการผลิตชิป AI เพื่อตอบสนองความต้องการในประเทศ ➡️ การขาดแคลน HBM และ LPDDR เป็นปัญหาสำคัญทั่วโลก ‼️ คำเตือนจากข่าว ⛔ Yield rate ต่ำอาจทำให้ต้นทุนสูงและการผลิตไม่คุ้มค่า ⛔ การขาดแคลนหน่วยความจำอาจทำให้คำสั่งซื้อไม่สามารถส่งมอบได้ ⛔ การแข่งขันกับ Huawei อาจทำให้ Cambricon เสียเปรียบในตลาดภายในประเทศ https://www.tomshardware.com/tech-industry/chinese-tech-firm-cambricon-looks-to-step-into-nvidia-void-triple-ai-chip-production-next-year-seeks-to-rival-huawei-but-production-remains-a-concern
    0 ความคิดเห็น 0 การแบ่งปัน 290 มุมมอง 0 รีวิว
  • Alibaba และ ByteDance กำลังย้ายการฝึกโมเดล AI ไปยังศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้ เพื่อเข้าถึง GPU ของ Nvidia

    รายงานจาก Financial Times ระบุว่า Alibaba (Qwen LLM) และ ByteDance (Doubao LLM) ได้เช่าศูนย์ข้อมูลในสิงคโปร์และมาเลเซีย เพื่อใช้ GPU ขั้นสูงของ Nvidia เช่น A100 และ H100 ในการฝึกโมเดลใหม่ ๆ การย้ายฐานนี้เกิดขึ้นหลังจากสหรัฐฯ ออกข้อจำกัดเข้มงวดในการส่งออกชิป AI ไปยังจีน

    ช่องโหว่ของข้อจำกัด
    แม้สหรัฐฯ จะห้ามขาย GPU ขั้นสูงให้จีนโดยตรง แต่การเช่าศูนย์ข้อมูลที่ดำเนินการโดยบริษัทต่างชาติในต่างประเทศยังถือว่า ถูกกฎหมาย ภายใต้กฎปัจจุบัน กฎ “AI diffusion rule” ที่เคยเสนอเพื่อปิดช่องโหว่นี้ถูกยกเลิกไปในปี 2025 ทำให้บริษัทจีนสามารถใช้ทรัพยากรคอมพิวต์ในต่างประเทศได้โดยไม่ผิดข้อบังคับ

    ผลลัพธ์ต่อการพัฒนา AI
    การเข้าถึง GPU ขั้นสูงช่วยให้โมเดลจีนอย่าง Qwen และ Doubao สามารถแข่งขันกับโมเดลตะวันตกได้ในระดับโลก หลังจากฝึกเสร็จ โมเดลเหล่านี้จะถูกนำกลับมารันในจีนบนฮาร์ดแวร์ที่ผลิตโดยบริษัทท้องถิ่น เช่น Huawei เพื่อให้สอดคล้องกับข้อกำหนดด้านความมั่นคงข้อมูล

    ความหมายเชิงยุทธศาสตร์
    การเคลื่อนไหวนี้สะท้อนถึงความพยายามของจีนในการรักษาความได้เปรียบด้าน AI แม้จะถูกจำกัดการเข้าถึงฮาร์ดแวร์ตะวันตก ขณะเดียวกันก็แสดงให้เห็นว่า ข้อจำกัดการส่งออกของสหรัฐฯ ยังมีช่องโหว่ ที่ทำให้จีนสามารถเดินหน้าพัฒนา AI ได้ต่อไป

    สรุปประเด็นสำคัญ
    บริษัทจีนย้ายการฝึกโมเดลไปต่างประเทศ
    Alibaba และ ByteDance ใช้ศูนย์ข้อมูลในสิงคโปร์และมาเลเซีย

    ช่องโหว่ของข้อจำกัดสหรัฐฯ
    การเช่าศูนย์ข้อมูลต่างประเทศยังถือว่าถูกกฎหมาย

    ผลลัพธ์ต่อโมเดล AI จีน
    Qwen และ Doubao สามารถแข่งขันกับโมเดลตะวันตกได้

    การนำโมเดลกลับมารันในจีน
    ใช้ฮาร์ดแวร์จาก Huawei และบริษัทท้องถิ่น

    ความเสี่ยงด้านความมั่นคงข้อมูล
    ข้อมูลผู้ใช้จีนยังต้องถูกประมวลผลภายในประเทศเท่านั้น

    ความท้าทายต่อข้อจำกัดสหรัฐฯ
    ช่องโหว่ทางกฎหมายอาจทำให้มาตรการควบคุมไม่บรรลุผลเต็มที่

    https://www.tomshardware.com/tech-industry/semiconductors/chinas-top-ai-firms-shift-model-training-overseas-to-access-nvidia-gpus
    🌏 Alibaba และ ByteDance กำลังย้ายการฝึกโมเดล AI ไปยังศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้ เพื่อเข้าถึง GPU ของ Nvidia รายงานจาก Financial Times ระบุว่า Alibaba (Qwen LLM) และ ByteDance (Doubao LLM) ได้เช่าศูนย์ข้อมูลในสิงคโปร์และมาเลเซีย เพื่อใช้ GPU ขั้นสูงของ Nvidia เช่น A100 และ H100 ในการฝึกโมเดลใหม่ ๆ การย้ายฐานนี้เกิดขึ้นหลังจากสหรัฐฯ ออกข้อจำกัดเข้มงวดในการส่งออกชิป AI ไปยังจีน ⚖️ ช่องโหว่ของข้อจำกัด แม้สหรัฐฯ จะห้ามขาย GPU ขั้นสูงให้จีนโดยตรง แต่การเช่าศูนย์ข้อมูลที่ดำเนินการโดยบริษัทต่างชาติในต่างประเทศยังถือว่า ถูกกฎหมาย ภายใต้กฎปัจจุบัน กฎ “AI diffusion rule” ที่เคยเสนอเพื่อปิดช่องโหว่นี้ถูกยกเลิกไปในปี 2025 ทำให้บริษัทจีนสามารถใช้ทรัพยากรคอมพิวต์ในต่างประเทศได้โดยไม่ผิดข้อบังคับ 💻 ผลลัพธ์ต่อการพัฒนา AI การเข้าถึง GPU ขั้นสูงช่วยให้โมเดลจีนอย่าง Qwen และ Doubao สามารถแข่งขันกับโมเดลตะวันตกได้ในระดับโลก หลังจากฝึกเสร็จ โมเดลเหล่านี้จะถูกนำกลับมารันในจีนบนฮาร์ดแวร์ที่ผลิตโดยบริษัทท้องถิ่น เช่น Huawei เพื่อให้สอดคล้องกับข้อกำหนดด้านความมั่นคงข้อมูล 🔮 ความหมายเชิงยุทธศาสตร์ การเคลื่อนไหวนี้สะท้อนถึงความพยายามของจีนในการรักษาความได้เปรียบด้าน AI แม้จะถูกจำกัดการเข้าถึงฮาร์ดแวร์ตะวันตก ขณะเดียวกันก็แสดงให้เห็นว่า ข้อจำกัดการส่งออกของสหรัฐฯ ยังมีช่องโหว่ ที่ทำให้จีนสามารถเดินหน้าพัฒนา AI ได้ต่อไป 📌 สรุปประเด็นสำคัญ ✅ บริษัทจีนย้ายการฝึกโมเดลไปต่างประเทศ ➡️ Alibaba และ ByteDance ใช้ศูนย์ข้อมูลในสิงคโปร์และมาเลเซีย ✅ ช่องโหว่ของข้อจำกัดสหรัฐฯ ➡️ การเช่าศูนย์ข้อมูลต่างประเทศยังถือว่าถูกกฎหมาย ✅ ผลลัพธ์ต่อโมเดล AI จีน ➡️ Qwen และ Doubao สามารถแข่งขันกับโมเดลตะวันตกได้ ✅ การนำโมเดลกลับมารันในจีน ➡️ ใช้ฮาร์ดแวร์จาก Huawei และบริษัทท้องถิ่น ‼️ ความเสี่ยงด้านความมั่นคงข้อมูล ⛔ ข้อมูลผู้ใช้จีนยังต้องถูกประมวลผลภายในประเทศเท่านั้น ‼️ ความท้าทายต่อข้อจำกัดสหรัฐฯ ⛔ ช่องโหว่ทางกฎหมายอาจทำให้มาตรการควบคุมไม่บรรลุผลเต็มที่ https://www.tomshardware.com/tech-industry/semiconductors/chinas-top-ai-firms-shift-model-training-overseas-to-access-nvidia-gpus
    0 ความคิดเห็น 0 การแบ่งปัน 327 มุมมอง 0 รีวิว
  • Alibaba เปิดตัว Quark Smart Glasses พร้อม Qwen AI

    Alibaba Group ได้เปิดตัว Quark Smart Glasses รุ่น S1 ที่มาพร้อมกับ Qwen AI ซึ่งเป็นโมเดลภาษาขั้นสูงของบริษัท ถือเป็นการเข้าสู่ตลาด consumer hardware อย่างจริงจัง โดยแว่นตานี้มีหน้าจอโปร่งใสที่สามารถซ้อนข้อมูลบนทัศนียภาพจริง พร้อมกล้อง ไมโครโฟนแบบ bone conduction และแบตเตอรี่ที่เปลี่ยนได้ รองรับการใช้งานต่อเนื่องถึง 24 ชั่วโมง.

    คุณสมบัติและความแตกต่าง
    Quark S1 ถูกออกแบบมาเพื่อแข่งขันกับ Ray-Ban Smart Glasses ของ Meta โดยมีจุดเด่นคือการผสาน ecosystem ของ Alibaba เช่น Taobao, Fliggy และ Alipay รวมถึงการเชื่อมต่อกับบริการเพลงจาก NetEase Cloud Music และ QQ Music รุ่น S1 มีราคาเริ่มต้นที่ 3,799 หยวน (ประมาณ 537 ดอลลาร์สหรัฐ) ขณะที่รุ่น G1 ที่ไม่มีหน้าจอ micro-OLED มีราคา 1,899 หยวน.

    การวางจำหน่ายและตลาดเป้าหมาย
    แว่นตา Quark S1 พร้อมวางจำหน่ายทันทีบน Tmall, JD.com, Douyin และร้านค้ากว่า 600 แห่งใน 82 เมืองทั่วจีน โดยรุ่นสากลจะเปิดตัวในปีหน้า และบางส่วนจะวางขายผ่าน AliExpress เพื่อเจาะตลาดต่างประเทศ การเปิดตัวครั้งนี้สะท้อนถึงการขยายตัวของตลาด AI-powered wearables ที่กำลังเติบโตอย่างรวดเร็วในจีน.

    แนวโน้มและผลกระทบ
    ตลาดแว่นตาอัจฉริยะในจีนมีการเติบโตสูง โดยมีการส่งมอบกว่า 1.6 ล้านชิ้นในปีที่ผ่านมา และเพิ่มขึ้นเป็น 2 ล้านชิ้นเมื่อรวมรุ่นที่มีหน้าจอในตัว การแข่งขันระหว่าง Alibaba, Xiaomi และ Meta ทำให้ผู้บริโภคมีตัวเลือกมากขึ้น และยังเป็นการผลักดันให้เทคโนโลยี AI + Wearables กลายเป็นกระแสหลักในอนาคต.

    สรุปสาระสำคัญ
    Alibaba เปิดตัว Quark Smart Glasses รุ่น S1 และ G1
    S1 มีหน้าจอโปร่งใส, G1 ไม่มี micro-OLED

    ใช้ Qwen AI และ ecosystem ของ Alibaba
    รองรับ Taobao, Fliggy, Alipay และบริการเพลง

    ราคา S1 เริ่มต้น 3,799 หยวน, G1 ราคา 1,899 หยวน
    วางจำหน่ายในจีนกว่า 600 ร้าน และเตรียมขายต่างประเทศ

    ตลาดแว่นตาอัจฉริยะในจีนเติบโตสูง
    ส่งมอบกว่า 2 ล้านชิ้นเมื่อรวมรุ่นที่มีหน้าจอ

    การแข่งขันกับ Meta และ Xiaomi รุนแรง
    ผู้บริโภคอาจสับสนกับตัวเลือกที่หลากหลาย

    อายุการใช้งานแบตเตอรี่แม้เปลี่ยนได้ แต่ยังจำกัด
    ต้องพกแบตสำรองเพื่อใช้งานต่อเนื่อง

    https://www.thestar.com.my/tech/tech-news/2025/11/28/alibaba-releases-quark-smart-glasses-with-its-qwen-ai-built-in
    👓 Alibaba เปิดตัว Quark Smart Glasses พร้อม Qwen AI Alibaba Group ได้เปิดตัว Quark Smart Glasses รุ่น S1 ที่มาพร้อมกับ Qwen AI ซึ่งเป็นโมเดลภาษาขั้นสูงของบริษัท ถือเป็นการเข้าสู่ตลาด consumer hardware อย่างจริงจัง โดยแว่นตานี้มีหน้าจอโปร่งใสที่สามารถซ้อนข้อมูลบนทัศนียภาพจริง พร้อมกล้อง ไมโครโฟนแบบ bone conduction และแบตเตอรี่ที่เปลี่ยนได้ รองรับการใช้งานต่อเนื่องถึง 24 ชั่วโมง. ⚡ คุณสมบัติและความแตกต่าง Quark S1 ถูกออกแบบมาเพื่อแข่งขันกับ Ray-Ban Smart Glasses ของ Meta โดยมีจุดเด่นคือการผสาน ecosystem ของ Alibaba เช่น Taobao, Fliggy และ Alipay รวมถึงการเชื่อมต่อกับบริการเพลงจาก NetEase Cloud Music และ QQ Music รุ่น S1 มีราคาเริ่มต้นที่ 3,799 หยวน (ประมาณ 537 ดอลลาร์สหรัฐ) ขณะที่รุ่น G1 ที่ไม่มีหน้าจอ micro-OLED มีราคา 1,899 หยวน. 🌐 การวางจำหน่ายและตลาดเป้าหมาย แว่นตา Quark S1 พร้อมวางจำหน่ายทันทีบน Tmall, JD.com, Douyin และร้านค้ากว่า 600 แห่งใน 82 เมืองทั่วจีน โดยรุ่นสากลจะเปิดตัวในปีหน้า และบางส่วนจะวางขายผ่าน AliExpress เพื่อเจาะตลาดต่างประเทศ การเปิดตัวครั้งนี้สะท้อนถึงการขยายตัวของตลาด AI-powered wearables ที่กำลังเติบโตอย่างรวดเร็วในจีน. 📈 แนวโน้มและผลกระทบ ตลาดแว่นตาอัจฉริยะในจีนมีการเติบโตสูง โดยมีการส่งมอบกว่า 1.6 ล้านชิ้นในปีที่ผ่านมา และเพิ่มขึ้นเป็น 2 ล้านชิ้นเมื่อรวมรุ่นที่มีหน้าจอในตัว การแข่งขันระหว่าง Alibaba, Xiaomi และ Meta ทำให้ผู้บริโภคมีตัวเลือกมากขึ้น และยังเป็นการผลักดันให้เทคโนโลยี AI + Wearables กลายเป็นกระแสหลักในอนาคต. 📌 สรุปสาระสำคัญ ✅ Alibaba เปิดตัว Quark Smart Glasses รุ่น S1 และ G1 ➡️ S1 มีหน้าจอโปร่งใส, G1 ไม่มี micro-OLED ✅ ใช้ Qwen AI และ ecosystem ของ Alibaba ➡️ รองรับ Taobao, Fliggy, Alipay และบริการเพลง ✅ ราคา S1 เริ่มต้น 3,799 หยวน, G1 ราคา 1,899 หยวน ➡️ วางจำหน่ายในจีนกว่า 600 ร้าน และเตรียมขายต่างประเทศ ✅ ตลาดแว่นตาอัจฉริยะในจีนเติบโตสูง ➡️ ส่งมอบกว่า 2 ล้านชิ้นเมื่อรวมรุ่นที่มีหน้าจอ ‼️ การแข่งขันกับ Meta และ Xiaomi รุนแรง ⛔ ผู้บริโภคอาจสับสนกับตัวเลือกที่หลากหลาย ‼️ อายุการใช้งานแบตเตอรี่แม้เปลี่ยนได้ แต่ยังจำกัด ⛔ ต้องพกแบตสำรองเพื่อใช้งานต่อเนื่อง https://www.thestar.com.my/tech/tech-news/2025/11/28/alibaba-releases-quark-smart-glasses-with-its-qwen-ai-built-in
    WWW.THESTAR.COM.MY
    Alibaba releases Quark smart glasses with its Qwen AI built in
    Alibaba Group Holding Ltd began sales of its first smart glasses powered by its Qwen AI models, marking a rare foray into consumer hardware.
    0 ความคิดเห็น 0 การแบ่งปัน 216 มุมมอง 0 รีวิว
  • จีนเร่งใช้ชิป AI พัฒนาเอง หลังถูกจำกัดการนำเข้า

    รัฐบาลจีนเริ่มเข้ามากำกับดูแลการจัดสรรชิป AI ระดับสูง เนื่องจากข้อจำกัดการส่งออกจากสหรัฐฯ ทำให้เกิดการขาดแคลน GPU ของ Nvidia บริษัทคลาวด์รายใหญ่ในจีน เช่น Alibaba และ Baidu จึงหันมาใช้ชิปที่ผลิตเอง เช่น Huawei Ascend 910B และรุ่นใหม่ 910C ซึ่งแม้จะไม่แรงเท่า Nvidia แต่ก็ถูกนำมาใช้จริงในงานฝึกโมเดล AI ขนาดใหญ่

    การเปลี่ยนแปลงนี้ทำให้จีนต้องเขียนซอฟต์แวร์ใหม่และปรับโครงสร้างงานให้เข้ากับชิปที่ยังไม่สมบูรณ์แบบนัก ปัญหาที่ตามมาคือแบนด์วิดท์หน่วยความจำที่ยังไม่เพียงพอ และการผลิต HBM ในประเทศยังไม่สามารถรองรับได้เต็มที่ อย่างไรก็ตาม การผลักดันนี้ถือเป็นก้าวสำคัญที่ทำให้จีนลดการพึ่งพาต่างชาติ

    นอกจากนั้นยังมีการใช้วิธีเลี่ยง เช่น การนำชิป Nvidia มือสองเข้ามา หรือใช้บริษัทสาขาในต่างประเทศเพื่อฝึกโมเดล แต่แนวโน้มชัดเจนว่าตลาดจีนกำลังหันไปพึ่งพาชิปภายในประเทศมากขึ้น

    จีนหันมาใช้ชิป AI ที่ผลิตเอง เช่น Huawei Ascend 910C
    ถูกใช้จริงในการฝึกโมเดล AI ขนาดใหญ่

    Alibaba และ Baidu ปรับแพลตฟอร์มให้ทำงานบนฮาร์ดแวร์จีน
    ลดการพึ่งพา Nvidia

    รัฐบาลจีนเข้ามากำกับการจัดสรรชิปโดยตรง
    เน้นให้โครงการรัฐและคลาวด์ใช้ชิปในประเทศ

    ชิปจีนยังด้อยกว่า Nvidia ในด้านประสิทธิภาพ
    อาจทำให้การฝึกโมเดลใช้เวลานานขึ้น

    ปัญหาหน่วยความจำ HBM ยังไม่ถูกแก้ไข
    เสี่ยงต่อการชะลอการพัฒนา AI ในประเทศ

    https://www.tomshardware.com/tech-industry/semiconductors/chinas-ai-chip-pivot-accelerates-as-us-export-restrictions-bite
    🇨🇳 จีนเร่งใช้ชิป AI พัฒนาเอง หลังถูกจำกัดการนำเข้า รัฐบาลจีนเริ่มเข้ามากำกับดูแลการจัดสรรชิป AI ระดับสูง เนื่องจากข้อจำกัดการส่งออกจากสหรัฐฯ ทำให้เกิดการขาดแคลน GPU ของ Nvidia บริษัทคลาวด์รายใหญ่ในจีน เช่น Alibaba และ Baidu จึงหันมาใช้ชิปที่ผลิตเอง เช่น Huawei Ascend 910B และรุ่นใหม่ 910C ซึ่งแม้จะไม่แรงเท่า Nvidia แต่ก็ถูกนำมาใช้จริงในงานฝึกโมเดล AI ขนาดใหญ่ การเปลี่ยนแปลงนี้ทำให้จีนต้องเขียนซอฟต์แวร์ใหม่และปรับโครงสร้างงานให้เข้ากับชิปที่ยังไม่สมบูรณ์แบบนัก ปัญหาที่ตามมาคือแบนด์วิดท์หน่วยความจำที่ยังไม่เพียงพอ และการผลิต HBM ในประเทศยังไม่สามารถรองรับได้เต็มที่ อย่างไรก็ตาม การผลักดันนี้ถือเป็นก้าวสำคัญที่ทำให้จีนลดการพึ่งพาต่างชาติ นอกจากนั้นยังมีการใช้วิธีเลี่ยง เช่น การนำชิป Nvidia มือสองเข้ามา หรือใช้บริษัทสาขาในต่างประเทศเพื่อฝึกโมเดล แต่แนวโน้มชัดเจนว่าตลาดจีนกำลังหันไปพึ่งพาชิปภายในประเทศมากขึ้น ✅ จีนหันมาใช้ชิป AI ที่ผลิตเอง เช่น Huawei Ascend 910C ➡️ ถูกใช้จริงในการฝึกโมเดล AI ขนาดใหญ่ ✅ Alibaba และ Baidu ปรับแพลตฟอร์มให้ทำงานบนฮาร์ดแวร์จีน ➡️ ลดการพึ่งพา Nvidia ✅ รัฐบาลจีนเข้ามากำกับการจัดสรรชิปโดยตรง ➡️ เน้นให้โครงการรัฐและคลาวด์ใช้ชิปในประเทศ ‼️ ชิปจีนยังด้อยกว่า Nvidia ในด้านประสิทธิภาพ ⛔ อาจทำให้การฝึกโมเดลใช้เวลานานขึ้น ‼️ ปัญหาหน่วยความจำ HBM ยังไม่ถูกแก้ไข ⛔ เสี่ยงต่อการชะลอการพัฒนา AI ในประเทศ https://www.tomshardware.com/tech-industry/semiconductors/chinas-ai-chip-pivot-accelerates-as-us-export-restrictions-bite
    0 ความคิดเห็น 0 การแบ่งปัน 334 มุมมอง 0 รีวิว
  • หัวข้อข่าว: “โมเดลใหม่ของ Moonshot AI จุดกระแส ‘DeepSeek Moment’ สั่นสะเทือนโลก AI”

    สตาร์ทอัพจีน Moonshot AI ที่มีมูลค่ากว่า 3.3 พันล้านดอลลาร์สหรัฐ และได้รับการสนับสนุนจากยักษ์ใหญ่เทคโนโลยีอย่าง Alibaba และ Tencent ได้เปิดตัวโมเดล Kimi K2 Thinking ซึ่งเป็นโมเดลโอเพนซอร์สที่สร้างสถิติใหม่ในด้าน reasoning, coding และ agent capabilities

    โมเดลนี้ได้รับความนิยมสูงสุดบนแพลตฟอร์ม Hugging Face และโพสต์เปิดตัวบน X มียอดเข้าชมกว่า 4.5 ล้านครั้ง จุดที่น่าทึ่งคือมีรายงานว่า ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์ ซึ่งถูกกว่ามากเมื่อเทียบกับโมเดลสหรัฐฯ

    Thomas Wolf ผู้ร่วมก่อตั้ง Hugging Face ถึงกับตั้งคำถามว่า “นี่คืออีกหนึ่ง DeepSeek Moment หรือไม่?” หลังจากก่อนหน้านี้โมเดล R1 ของ DeepSeek ได้เขย่าความเชื่อเรื่องความเหนือกว่าของ AI สหรัฐฯ

    Kimi K2 Thinking ทำคะแนน 44.9% ใน Humanity’s Last Exam (ข้อสอบมาตรฐาน LLM กว่า 2,500 ข้อ) ซึ่งสูงกว่า GPT-5 ที่ทำได้ 41.7% และยังชนะใน benchmark สำคัญอย่าง BrowseComp และ Seal-0 ที่ทดสอบความสามารถในการค้นหาข้อมูลจริงบนเว็บ

    นอกจากนี้ ค่าใช้จ่าย API ของ Kimi K2 Thinking ยังถูกกว่าโมเดลของ OpenAI และ Anthropic ถึง 6–10 เท่า นักวิเคราะห์ชี้ว่าแนวโน้มของจีนคือการลดต้นทุนอย่างต่อเนื่อง เพื่อแข่งขันด้วย ความคุ้มค่า (cost-effectiveness) แม้ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ

    สาระเพิ่มเติมจากภายนอก
    การแข่งขัน AI ระหว่างจีนและสหรัฐฯ กำลังเปลี่ยนจาก “ใครเก่งกว่า” เป็น “ใครคุ้มค่ากว่า”
    การที่จีนหันมาเน้น ลดต้นทุนการฝึกและใช้งาน อาจทำให้ AI เข้าถึงนักพัฒนาและธุรกิจรายย่อยได้มากขึ้น
    หากแนวโน้มนี้ดำเนินต่อไป อาจเกิดการ เร่งนวัตกรรมด้านสถาปัตยกรรมโมเดลและเทคนิคการฝึก ที่เปลี่ยนโฉมอุตสาหกรรม AI

    Moonshot AI เปิดตัว Kimi K2 Thinking
    ทำผลงานเหนือ GPT-5 และ Claude Sonnet 4.5 ในหลาย benchmark
    ได้รับความนิยมสูงสุดบน Hugging Face และมีผู้สนใจจำนวนมาก

    จุดเด่นของโมเดล
    ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์
    API ถูกกว่าโมเดลสหรัฐฯ ถึง 6–10 เท่า

    ผลกระทบต่อวงการ
    จุดกระแส “DeepSeek Moment” ครั้งใหม่
    ท้าทายความเป็นผู้นำด้าน AI ของสหรัฐฯ

    คำเตือนด้านความเสี่ยง
    แม้ต้นทุนต่ำ แต่ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ
    การแข่งขันด้านราคาที่รุนแรงอาจทำให้บางบริษัทละเลยการตรวจสอบคุณภาพและความปลอดภัย
    หากจีนครองตลาดด้วยโมเดลราคาถูก อาจเกิดความเสี่ยงด้านมาตรฐานและความน่าเชื่อถือของ AI

    https://www.thestar.com.my/tech/tech-news/2025/11/12/why-new-model-of-chinas-moonshot-ai-stirs-deepseek-moment-debate
    🤖 หัวข้อข่าว: “โมเดลใหม่ของ Moonshot AI จุดกระแส ‘DeepSeek Moment’ สั่นสะเทือนโลก AI” สตาร์ทอัพจีน Moonshot AI ที่มีมูลค่ากว่า 3.3 พันล้านดอลลาร์สหรัฐ และได้รับการสนับสนุนจากยักษ์ใหญ่เทคโนโลยีอย่าง Alibaba และ Tencent ได้เปิดตัวโมเดล Kimi K2 Thinking ซึ่งเป็นโมเดลโอเพนซอร์สที่สร้างสถิติใหม่ในด้าน reasoning, coding และ agent capabilities โมเดลนี้ได้รับความนิยมสูงสุดบนแพลตฟอร์ม Hugging Face และโพสต์เปิดตัวบน X มียอดเข้าชมกว่า 4.5 ล้านครั้ง จุดที่น่าทึ่งคือมีรายงานว่า ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์ ซึ่งถูกกว่ามากเมื่อเทียบกับโมเดลสหรัฐฯ Thomas Wolf ผู้ร่วมก่อตั้ง Hugging Face ถึงกับตั้งคำถามว่า “นี่คืออีกหนึ่ง DeepSeek Moment หรือไม่?” หลังจากก่อนหน้านี้โมเดล R1 ของ DeepSeek ได้เขย่าความเชื่อเรื่องความเหนือกว่าของ AI สหรัฐฯ Kimi K2 Thinking ทำคะแนน 44.9% ใน Humanity’s Last Exam (ข้อสอบมาตรฐาน LLM กว่า 2,500 ข้อ) ซึ่งสูงกว่า GPT-5 ที่ทำได้ 41.7% และยังชนะใน benchmark สำคัญอย่าง BrowseComp และ Seal-0 ที่ทดสอบความสามารถในการค้นหาข้อมูลจริงบนเว็บ นอกจากนี้ ค่าใช้จ่าย API ของ Kimi K2 Thinking ยังถูกกว่าโมเดลของ OpenAI และ Anthropic ถึง 6–10 เท่า นักวิเคราะห์ชี้ว่าแนวโน้มของจีนคือการลดต้นทุนอย่างต่อเนื่อง เพื่อแข่งขันด้วย ความคุ้มค่า (cost-effectiveness) แม้ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ 🧩 สาระเพิ่มเติมจากภายนอก 📌 การแข่งขัน AI ระหว่างจีนและสหรัฐฯ กำลังเปลี่ยนจาก “ใครเก่งกว่า” เป็น “ใครคุ้มค่ากว่า” 📌 การที่จีนหันมาเน้น ลดต้นทุนการฝึกและใช้งาน อาจทำให้ AI เข้าถึงนักพัฒนาและธุรกิจรายย่อยได้มากขึ้น 📌 หากแนวโน้มนี้ดำเนินต่อไป อาจเกิดการ เร่งนวัตกรรมด้านสถาปัตยกรรมโมเดลและเทคนิคการฝึก ที่เปลี่ยนโฉมอุตสาหกรรม AI ✅ Moonshot AI เปิดตัว Kimi K2 Thinking ➡️ ทำผลงานเหนือ GPT-5 และ Claude Sonnet 4.5 ในหลาย benchmark ➡️ ได้รับความนิยมสูงสุดบน Hugging Face และมีผู้สนใจจำนวนมาก ✅ จุดเด่นของโมเดล ➡️ ค่าใช้จ่ายในการฝึกเพียง 4.6 ล้านดอลลาร์ ➡️ API ถูกกว่าโมเดลสหรัฐฯ ถึง 6–10 เท่า ✅ ผลกระทบต่อวงการ ➡️ จุดกระแส “DeepSeek Moment” ครั้งใหม่ ➡️ ท้าทายความเป็นผู้นำด้าน AI ของสหรัฐฯ ‼️ คำเตือนด้านความเสี่ยง ⛔ แม้ต้นทุนต่ำ แต่ประสิทธิภาพโดยรวมยังตามหลังโมเดลสหรัฐฯ ⛔ การแข่งขันด้านราคาที่รุนแรงอาจทำให้บางบริษัทละเลยการตรวจสอบคุณภาพและความปลอดภัย ⛔ หากจีนครองตลาดด้วยโมเดลราคาถูก อาจเกิดความเสี่ยงด้านมาตรฐานและความน่าเชื่อถือของ AI https://www.thestar.com.my/tech/tech-news/2025/11/12/why-new-model-of-chinas-moonshot-ai-stirs-deepseek-moment-debate
    WWW.THESTAR.COM.MY
    Why new model of China's Moonshot AI stirs 'DeepSeek moment' debate
    Kimi K2 Thinking outperforms OpenAI's GPT-5 and Anthropic's Claude Sonnet 4.5, sparking comparisons to DeepSeek's breakthrough.
    0 ความคิดเห็น 0 การแบ่งปัน 458 มุมมอง 0 รีวิว
  • เรื่องอื้อฉาว Shein กับตุ๊กตาเด็ก: จุดไฟปัญหามืดของตลาดออนไลน์

    เรื่องราวล่าสุดจากฝรั่งเศสได้เปิดโปงด้านมืดของตลาดออนไลน์ เมื่อมีการประท้วงต่อต้าน Shein ที่ขายตุ๊กตาเซ็กซ์ลักษณะคล้ายเด็ก พร้อมอาวุธต้องห้ามผ่านแพลตฟอร์มของตน ทำให้รัฐบาลฝรั่งเศสต้องออกมาตรการจัดการอย่างเร่งด่วน

    Shein ซึ่งเป็นแบรนด์แฟชั่นจีนชื่อดัง ถูกวิจารณ์อย่างหนักหลังมีการพบว่าบนแพลตฟอร์มของตนมีการขายตุ๊กตาเซ็กซ์ที่มีลักษณะคล้ายเด็ก รวมถึงอาวุธต้องห้ามบางประเภท โดยเหตุการณ์นี้เกิดขึ้นก่อนการเปิดร้านถาวรแห่งแรกของ Shein ในกรุงปารีส ทำให้เกิดการประท้วงจากประชาชนและองค์กรสิทธิมนุษยชน

    ป้ายประท้วงมีข้อความรุนแรง เช่น “Shein สมรู้ร่วมคิดกับสื่อลามกเด็ก” และ “ร้าน BHV ไม่ควรซ่อนความอับอายนี้ไว้หลังหน้าต่าง” สะท้อนความโกรธของสังคมต่อการปล่อยให้สินค้าลักษณะนี้หลุดรอดเข้าสู่ตลาดได้

    เหตุการณ์นี้ชี้ให้เห็นถึงปัญหาเรื้อรังของตลาดออนไลน์ที่เปิดให้ผู้ขายหลายรายเข้ามาโดยไม่มีการตรวจสอบอย่างเข้มงวด ทำให้สินค้าผิดกฎหมาย อันตราย หรือไม่เหมาะสมสามารถเข้าถึงผู้บริโภคได้ง่ายดาย

    จุดอ่อนของตลาดออนไลน์แบบหลายผู้ขาย
    แพลตฟอร์มอย่าง Shein, Amazon, Temu และ Alibaba เปิดให้ผู้ขายทั่วโลกเข้าถึงผู้บริโภคโดยตรง
    การตรวจสอบสินค้าบนแพลตฟอร์มยังไม่เข้มงวดพอ
    สินค้าผิดกฎหมาย เช่น อาวุธต้องห้าม และสินค้าลามกสามารถหลุดรอดได้
    ผู้บริโภคอาจไม่รู้ว่าสินค้าที่ซื้อผิดกฎหมายหรือไม่เหมาะสม

    ปฏิกิริยาจากสังคมและรัฐบาล
    ฝรั่งเศสออกมาตรการจัดการกับสินค้าผิดกฎหมายบนแพลตฟอร์ม
    การประท้วงหน้าร้าน BHV Marais สะท้อนความไม่พอใจของประชาชน
    สื่อมวลชนและองค์กรสิทธิมนุษยชนเรียกร้องให้มีการควบคุมที่เข้มงวดขึ้น

    คำเตือนต่อผู้บริโภคและแพลตฟอร์ม
    การซื้อสินค้าจากแพลตฟอร์มที่ไม่มีการตรวจสอบอาจนำไปสู่การสนับสนุนกิจกรรมผิดกฎหมาย
    แพลตฟอร์มที่ไม่ควบคุมผู้ขายอาจกลายเป็นช่องทางของการค้ามนุษย์หรือการละเมิดสิทธิเด็ก
    การเปิดร้านถาวรโดยไม่จัดการกับปัญหาในระบบออนไลน์อาจสร้างภาพลักษณ์เชิงลบต่อแบรนด์
    ผู้บริโภคควรตรวจสอบแหล่งที่มาของสินค้าและหลีกเลี่ยงสินค้าที่มีลักษณะไม่เหมาะสม

    https://www.thestar.com.my/tech/tech-news/2025/11/08/shein-sex-doll-scandal-shines-light-on-marketplaces039-dark-corners
    🛑 เรื่องอื้อฉาว Shein กับตุ๊กตาเด็ก: จุดไฟปัญหามืดของตลาดออนไลน์ เรื่องราวล่าสุดจากฝรั่งเศสได้เปิดโปงด้านมืดของตลาดออนไลน์ เมื่อมีการประท้วงต่อต้าน Shein ที่ขายตุ๊กตาเซ็กซ์ลักษณะคล้ายเด็ก พร้อมอาวุธต้องห้ามผ่านแพลตฟอร์มของตน ทำให้รัฐบาลฝรั่งเศสต้องออกมาตรการจัดการอย่างเร่งด่วน Shein ซึ่งเป็นแบรนด์แฟชั่นจีนชื่อดัง ถูกวิจารณ์อย่างหนักหลังมีการพบว่าบนแพลตฟอร์มของตนมีการขายตุ๊กตาเซ็กซ์ที่มีลักษณะคล้ายเด็ก รวมถึงอาวุธต้องห้ามบางประเภท โดยเหตุการณ์นี้เกิดขึ้นก่อนการเปิดร้านถาวรแห่งแรกของ Shein ในกรุงปารีส ทำให้เกิดการประท้วงจากประชาชนและองค์กรสิทธิมนุษยชน ป้ายประท้วงมีข้อความรุนแรง เช่น “Shein สมรู้ร่วมคิดกับสื่อลามกเด็ก” และ “ร้าน BHV ไม่ควรซ่อนความอับอายนี้ไว้หลังหน้าต่าง” สะท้อนความโกรธของสังคมต่อการปล่อยให้สินค้าลักษณะนี้หลุดรอดเข้าสู่ตลาดได้ เหตุการณ์นี้ชี้ให้เห็นถึงปัญหาเรื้อรังของตลาดออนไลน์ที่เปิดให้ผู้ขายหลายรายเข้ามาโดยไม่มีการตรวจสอบอย่างเข้มงวด ทำให้สินค้าผิดกฎหมาย อันตราย หรือไม่เหมาะสมสามารถเข้าถึงผู้บริโภคได้ง่ายดาย ✅ จุดอ่อนของตลาดออนไลน์แบบหลายผู้ขาย ➡️ แพลตฟอร์มอย่าง Shein, Amazon, Temu และ Alibaba เปิดให้ผู้ขายทั่วโลกเข้าถึงผู้บริโภคโดยตรง ➡️ การตรวจสอบสินค้าบนแพลตฟอร์มยังไม่เข้มงวดพอ ➡️ สินค้าผิดกฎหมาย เช่น อาวุธต้องห้าม และสินค้าลามกสามารถหลุดรอดได้ ➡️ ผู้บริโภคอาจไม่รู้ว่าสินค้าที่ซื้อผิดกฎหมายหรือไม่เหมาะสม ✅ ปฏิกิริยาจากสังคมและรัฐบาล ➡️ ฝรั่งเศสออกมาตรการจัดการกับสินค้าผิดกฎหมายบนแพลตฟอร์ม ➡️ การประท้วงหน้าร้าน BHV Marais สะท้อนความไม่พอใจของประชาชน ➡️ สื่อมวลชนและองค์กรสิทธิมนุษยชนเรียกร้องให้มีการควบคุมที่เข้มงวดขึ้น ‼️ คำเตือนต่อผู้บริโภคและแพลตฟอร์ม ⛔ การซื้อสินค้าจากแพลตฟอร์มที่ไม่มีการตรวจสอบอาจนำไปสู่การสนับสนุนกิจกรรมผิดกฎหมาย ⛔ แพลตฟอร์มที่ไม่ควบคุมผู้ขายอาจกลายเป็นช่องทางของการค้ามนุษย์หรือการละเมิดสิทธิเด็ก ⛔ การเปิดร้านถาวรโดยไม่จัดการกับปัญหาในระบบออนไลน์อาจสร้างภาพลักษณ์เชิงลบต่อแบรนด์ ⛔ ผู้บริโภคควรตรวจสอบแหล่งที่มาของสินค้าและหลีกเลี่ยงสินค้าที่มีลักษณะไม่เหมาะสม https://www.thestar.com.my/tech/tech-news/2025/11/08/shein-sex-doll-scandal-shines-light-on-marketplaces039-dark-corners
    WWW.THESTAR.COM.MY
    Shein sex doll scandal shines light on marketplaces' dark corners
    LONDON (Reuters) -France's crackdown on Shein over childlike sex dolls and banned weapons is exposing a perennial problem of online marketplaces: failing to properly police third-party sellers and block sales of counterfeit, illegal, dangerous or simply offensive products.
    0 ความคิดเห็น 0 การแบ่งปัน 377 มุมมอง 0 รีวิว
  • “จีนแจกส่วนลดไฟฟ้าให้บริษัท AI — ถ้าใช้ชิปผลิตในประเทศ!”

    ในสงครามเทคโนโลยีระดับโลก จีนกำลังเดินเกมรุกเพื่อสร้างอิสรภาพด้าน AI และเซมิคอนดักเตอร์ ล่าสุดหลายมณฑลในจีน เช่น กานซู, กุ้ยโจว และมองโกเลียใน ได้เสนอส่วนลดค่าไฟฟ้าอุตสาหกรรมสูงถึง 50% ให้กับศูนย์ข้อมูล AI — แต่มีเงื่อนไขสำคัญ: ต้องใช้ชิปที่ผลิตในประเทศจีนเท่านั้น ห้ามใช้ของ Nvidia หรือ AMD

    นอกจากส่วนลดค่าไฟแล้ว ยังมีเงินสนับสนุนโดยตรงที่เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี โดยราคาค่าไฟต่อหน่วยลดลงเหลือเพียง 0.4 หยวน หรือประมาณ 5.6 เซนต์สหรัฐ ซึ่งถือว่าต่ำมากเมื่อเทียบกับภูมิภาคชายฝั่ง

    แม้ชิปจีนยังไม่สามารถเทียบเคียงกับ Nvidia H20 หรือ Blackwell ได้ในด้านประสิทธิภาพ แต่รัฐบาลจีนก็ผลักดันให้เกิดการใช้งานอย่างจริงจัง โดยมีบริษัทชั้นนำอย่าง Huawei, Cambricon, Alibaba และ Biren เข้าร่วมผลิต AI accelerators โดย Huawei นำทีมด้วยชิป Ascend 910C

    การเคลื่อนไหวนี้เกิดขึ้นหลังจากรัฐบาลจีนสั่งแบนการใช้งานชิป AI จาก Nvidia โดยตรง ซึ่งทำให้การใช้พลังงานของศูนย์ข้อมูลเพิ่มขึ้น 30–50% เนื่องจากชิปจีนยังด้อยกว่าด้านประสิทธิภาพ

    จีนเสนอส่วนลดค่าไฟฟ้าให้ศูนย์ข้อมูล AI
    มณฑลกานซู, กุ้ยโจว และมองโกเลียใน ลดค่าไฟลง 50%
    เหลือเพียง 0.4 หยวนต่อ kWh หรือประมาณ 5.6 เซนต์สหรัฐ

    เงื่อนไขคือต้องใช้ชิปที่ผลิตในจีน
    ห้ามใช้ชิปจาก Nvidia หรือ AMD
    เป็นส่วนหนึ่งของนโยบายผลักดันการพึ่งพาตนเองด้านเทคโนโลยี

    รัฐบาลจีนสนับสนุนเงินทุนโดยตรง
    เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี
    ส่งเสริมการตั้งศูนย์ข้อมูลในพื้นที่ที่มีพลังงานเหลือเฟือ

    บริษัทจีนเร่งพัฒนาชิป AI
    Huawei, Cambricon, Alibaba และ Biren เป็นผู้ผลิตหลัก
    Huawei นำทีมด้วยชิป Ascend 910C

    คำเตือนด้านประสิทธิภาพของชิปจีน
    ประสิทธิภาพยังด้อยกว่าชิป Nvidia H20 และ Blackwell
    ส่งผลให้การใช้พลังงานเพิ่มขึ้น 30–50%

    คำเตือนด้านการแข่งขันระดับโลก
    การแบนชิปต่างชาติอาจกระทบต่อความร่วมมือระหว่างประเทศ
    การพึ่งพาชิปภายในอาจทำให้จีนต้องเร่งพัฒนาเทคโนโลยีให้ทันคู่แข่ง

    https://www.tomshardware.com/tech-industry/big-tech/chinese-provinces-offer-steep-power-discounts-to-ai-companies-using-china-made-chips-country-continues-its-aggressive-push-towards-ai-independence-and-homegrown-silicon
    ⚡🇨🇳 “จีนแจกส่วนลดไฟฟ้าให้บริษัท AI — ถ้าใช้ชิปผลิตในประเทศ!” ในสงครามเทคโนโลยีระดับโลก จีนกำลังเดินเกมรุกเพื่อสร้างอิสรภาพด้าน AI และเซมิคอนดักเตอร์ ล่าสุดหลายมณฑลในจีน เช่น กานซู, กุ้ยโจว และมองโกเลียใน ได้เสนอส่วนลดค่าไฟฟ้าอุตสาหกรรมสูงถึง 50% ให้กับศูนย์ข้อมูล AI — แต่มีเงื่อนไขสำคัญ: ต้องใช้ชิปที่ผลิตในประเทศจีนเท่านั้น ห้ามใช้ของ Nvidia หรือ AMD นอกจากส่วนลดค่าไฟแล้ว ยังมีเงินสนับสนุนโดยตรงที่เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี โดยราคาค่าไฟต่อหน่วยลดลงเหลือเพียง 0.4 หยวน หรือประมาณ 5.6 เซนต์สหรัฐ ซึ่งถือว่าต่ำมากเมื่อเทียบกับภูมิภาคชายฝั่ง แม้ชิปจีนยังไม่สามารถเทียบเคียงกับ Nvidia H20 หรือ Blackwell ได้ในด้านประสิทธิภาพ แต่รัฐบาลจีนก็ผลักดันให้เกิดการใช้งานอย่างจริงจัง โดยมีบริษัทชั้นนำอย่าง Huawei, Cambricon, Alibaba และ Biren เข้าร่วมผลิต AI accelerators โดย Huawei นำทีมด้วยชิป Ascend 910C การเคลื่อนไหวนี้เกิดขึ้นหลังจากรัฐบาลจีนสั่งแบนการใช้งานชิป AI จาก Nvidia โดยตรง ซึ่งทำให้การใช้พลังงานของศูนย์ข้อมูลเพิ่มขึ้น 30–50% เนื่องจากชิปจีนยังด้อยกว่าด้านประสิทธิภาพ ✅ จีนเสนอส่วนลดค่าไฟฟ้าให้ศูนย์ข้อมูล AI ➡️ มณฑลกานซู, กุ้ยโจว และมองโกเลียใน ลดค่าไฟลง 50% ➡️ เหลือเพียง 0.4 หยวนต่อ kWh หรือประมาณ 5.6 เซนต์สหรัฐ ✅ เงื่อนไขคือต้องใช้ชิปที่ผลิตในจีน ➡️ ห้ามใช้ชิปจาก Nvidia หรือ AMD ➡️ เป็นส่วนหนึ่งของนโยบายผลักดันการพึ่งพาตนเองด้านเทคโนโลยี ✅ รัฐบาลจีนสนับสนุนเงินทุนโดยตรง ➡️ เพียงพอให้ศูนย์ข้อมูลดำเนินงานได้ถึงหนึ่งปี ➡️ ส่งเสริมการตั้งศูนย์ข้อมูลในพื้นที่ที่มีพลังงานเหลือเฟือ ✅ บริษัทจีนเร่งพัฒนาชิป AI ➡️ Huawei, Cambricon, Alibaba และ Biren เป็นผู้ผลิตหลัก ➡️ Huawei นำทีมด้วยชิป Ascend 910C ‼️ คำเตือนด้านประสิทธิภาพของชิปจีน ⛔ ประสิทธิภาพยังด้อยกว่าชิป Nvidia H20 และ Blackwell ⛔ ส่งผลให้การใช้พลังงานเพิ่มขึ้น 30–50% ‼️ คำเตือนด้านการแข่งขันระดับโลก ⛔ การแบนชิปต่างชาติอาจกระทบต่อความร่วมมือระหว่างประเทศ ⛔ การพึ่งพาชิปภายในอาจทำให้จีนต้องเร่งพัฒนาเทคโนโลยีให้ทันคู่แข่ง https://www.tomshardware.com/tech-industry/big-tech/chinese-provinces-offer-steep-power-discounts-to-ai-companies-using-china-made-chips-country-continues-its-aggressive-push-towards-ai-independence-and-homegrown-silicon
    0 ความคิดเห็น 0 การแบ่งปัน 456 มุมมอง 0 รีวิว
  • ปัญญาประดิษฐ์สายวิจัยที่ไม่หยุดแค่ “แชตบอต”

    Tongyi DeepResearch เป็นโมเดล Web Agent แบบโอเพ่นซอร์สตัวแรกที่สามารถทำงานวิจัยเชิงลึกได้เทียบเท่ากับโมเดลเชิงพาณิชย์ของ OpenAI โดยมีคะแนนสูงในหลาย benchmark เช่น:
    Humanity’s Last Exam (HLE): 32.9
    BrowseComp: 43.4
    BrowseComp-ZH: 46.7
    xbench-DeepSearch: 75

    โมเดลนี้ไม่ใช่แค่เก่งด้านการตอบคำถาม แต่ยังสามารถวางแผน ทำวิจัยหลายขั้นตอน และใช้เครื่องมือภายนอกได้อย่างมีประสิทธิภาพ โดยใช้ framework reasoning แบบ ReAct และโหมดขั้นสูงที่เรียกว่า Heavy Mode เพื่อจัดการงานที่ซับซ้อน

    Tongyi DeepResearch เป็น Web Agent แบบโอเพ่นซอร์สที่ทรงพลัง
    ทำงานได้เทียบเท่ากับ DeepResearch ของ OpenAI
    ได้คะแนนสูงในหลาย benchmark ด้าน reasoning และการค้นคว้า

    ใช้ข้อมูลสังเคราะห์คุณภาพสูงในการฝึก
    สร้าง QA pairs จากกราฟความรู้และคลิกสตรีม
    ใช้เทคนิคเพิ่มความยากของคำถามอย่างเป็นระบบ

    มีระบบฝึกแบบครบวงจร: CPT → SFT → RL
    Continual Pre-training ด้วยข้อมูลสังเคราะห์
    Fine-tuning ด้วยข้อมูลผู้เชี่ยวชาญ
    Reinforcement Learning แบบ on-policy เพื่อปรับพฤติกรรมให้ตรงเป้าหมาย

    ใช้โครงสร้าง reasoning แบบ ReAct และ IterResearch
    ReAct: วงจร Thought → Action → Observation
    IterResearch: แบ่งงานวิจัยเป็นรอบ ๆ เพื่อรักษาโฟกัสและคุณภาพ reasoning

    มีการใช้งานจริงในระบบของ Alibaba
    เช่น “Xiao Gao” ผู้ช่วยด้านแผนที่ และ “FaRui” ผู้ช่วยด้านกฎหมาย
    ทำงานวิจัยหลายขั้นตอนและให้ผลลัพธ์ที่ตรวจสอบได้

    https://tongyi-agent.github.io/blog/introducing-tongyi-deep-research/
    🧠 ปัญญาประดิษฐ์สายวิจัยที่ไม่หยุดแค่ “แชตบอต” Tongyi DeepResearch เป็นโมเดล Web Agent แบบโอเพ่นซอร์สตัวแรกที่สามารถทำงานวิจัยเชิงลึกได้เทียบเท่ากับโมเดลเชิงพาณิชย์ของ OpenAI โดยมีคะแนนสูงในหลาย benchmark เช่น: 🔖 Humanity’s Last Exam (HLE): 32.9 🔖 BrowseComp: 43.4 🔖 BrowseComp-ZH: 46.7 🔖 xbench-DeepSearch: 75 โมเดลนี้ไม่ใช่แค่เก่งด้านการตอบคำถาม แต่ยังสามารถวางแผน ทำวิจัยหลายขั้นตอน และใช้เครื่องมือภายนอกได้อย่างมีประสิทธิภาพ โดยใช้ framework reasoning แบบ ReAct และโหมดขั้นสูงที่เรียกว่า Heavy Mode เพื่อจัดการงานที่ซับซ้อน ✅ Tongyi DeepResearch เป็น Web Agent แบบโอเพ่นซอร์สที่ทรงพลัง ➡️ ทำงานได้เทียบเท่ากับ DeepResearch ของ OpenAI ➡️ ได้คะแนนสูงในหลาย benchmark ด้าน reasoning และการค้นคว้า ✅ ใช้ข้อมูลสังเคราะห์คุณภาพสูงในการฝึก ➡️ สร้าง QA pairs จากกราฟความรู้และคลิกสตรีม ➡️ ใช้เทคนิคเพิ่มความยากของคำถามอย่างเป็นระบบ ✅ มีระบบฝึกแบบครบวงจร: CPT → SFT → RL ➡️ Continual Pre-training ด้วยข้อมูลสังเคราะห์ ➡️ Fine-tuning ด้วยข้อมูลผู้เชี่ยวชาญ ➡️ Reinforcement Learning แบบ on-policy เพื่อปรับพฤติกรรมให้ตรงเป้าหมาย ✅ ใช้โครงสร้าง reasoning แบบ ReAct และ IterResearch ➡️ ReAct: วงจร Thought → Action → Observation ➡️ IterResearch: แบ่งงานวิจัยเป็นรอบ ๆ เพื่อรักษาโฟกัสและคุณภาพ reasoning ✅ มีการใช้งานจริงในระบบของ Alibaba ➡️ เช่น “Xiao Gao” ผู้ช่วยด้านแผนที่ และ “FaRui” ผู้ช่วยด้านกฎหมาย ➡️ ทำงานวิจัยหลายขั้นตอนและให้ผลลัพธ์ที่ตรวจสอบได้ https://tongyi-agent.github.io/blog/introducing-tongyi-deep-research/
    0 ความคิดเห็น 0 การแบ่งปัน 302 มุมมอง 0 รีวิว
  • โมเดลเล็กแต่เก่งเกินตัว

    หลังจากเปิดตัว Granite 4.0 รุ่น Micro, Tiny และ Small ไปเมื่อต้นเดือน IBM ก็เดินหน้าต่อด้วยการเปิดตัว Granite 4.0 Nano ซึ่งเป็นโมเดลที่เล็กที่สุดในซีรีส์นี้ โดยมีจุดเด่นคือ ขนาดเล็ก ประสิทธิภาพสูง และเปิดให้ใช้งานฟรีในเชิงพาณิชย์

    โมเดล Nano นี้ถูกออกแบบมาเพื่อใช้งานในสถานการณ์ที่โมเดลขนาดใหญ่ไม่เหมาะสม เช่น:
    อุปกรณ์ edge ที่มีข้อจำกัดด้านทรัพยากร
    แอปพลิเคชันที่ต้องการ latency ต่ำ
    การ deploy แบบ local โดยไม่ต้องพึ่ง cloud

    รายละเอียดโมเดล:
    ใช้ข้อมูลฝึกกว่า 15 ล้านล้าน token
    รองรับ runtime ยอดนิยม เช่น vLLM, llama.cpp, MLX
    ได้รับการรับรอง ISO 42001 ด้านการพัฒนา AI อย่างรับผิดชอบ

    มีทั้งหมด 8 รุ่นย่อย ได้แก่:
    Granite 4.0 H 1B และ H 350M (hybrid-SSM)
    Granite 4.0 1B และ 350M (transformer แบบดั้งเดิม)
    แต่ละรุ่นมีทั้งแบบ base และ instruct

    ผลการทดสอบ:
    Granite Nano ทำคะแนนเหนือกว่าหลายโมเดลขนาดใกล้เคียง เช่น Qwen ของ Alibaba, LFM ของ LiquidAI และ Gemma ของ Google
    โดดเด่นในงานที่ต้องใช้ agentic workflows เช่น IFEval และ BFCLv3

    https://news.itsfoss.com/ibm-granite-4-nano/
    🧩 โมเดลเล็กแต่เก่งเกินตัว หลังจากเปิดตัว Granite 4.0 รุ่น Micro, Tiny และ Small ไปเมื่อต้นเดือน IBM ก็เดินหน้าต่อด้วยการเปิดตัว Granite 4.0 Nano ซึ่งเป็นโมเดลที่เล็กที่สุดในซีรีส์นี้ โดยมีจุดเด่นคือ ขนาดเล็ก ประสิทธิภาพสูง และเปิดให้ใช้งานฟรีในเชิงพาณิชย์ โมเดล Nano นี้ถูกออกแบบมาเพื่อใช้งานในสถานการณ์ที่โมเดลขนาดใหญ่ไม่เหมาะสม เช่น: 🎗️ อุปกรณ์ edge ที่มีข้อจำกัดด้านทรัพยากร 🎗️ แอปพลิเคชันที่ต้องการ latency ต่ำ 🎗️ การ deploy แบบ local โดยไม่ต้องพึ่ง cloud รายละเอียดโมเดล: 🎗️ ใช้ข้อมูลฝึกกว่า 15 ล้านล้าน token 🎗️ รองรับ runtime ยอดนิยม เช่น vLLM, llama.cpp, MLX 🎗️ ได้รับการรับรอง ISO 42001 ด้านการพัฒนา AI อย่างรับผิดชอบ มีทั้งหมด 8 รุ่นย่อย ได้แก่: 🎗️ Granite 4.0 H 1B และ H 350M (hybrid-SSM) 🎗️ Granite 4.0 1B และ 350M (transformer แบบดั้งเดิม) 🎗️ แต่ละรุ่นมีทั้งแบบ base และ instruct ผลการทดสอบ: 🎗️ Granite Nano ทำคะแนนเหนือกว่าหลายโมเดลขนาดใกล้เคียง เช่น Qwen ของ Alibaba, LFM ของ LiquidAI และ Gemma ของ Google 🎗️ โดดเด่นในงานที่ต้องใช้ agentic workflows เช่น IFEval และ BFCLv3 https://news.itsfoss.com/ibm-granite-4-nano/
    0 ความคิดเห็น 0 การแบ่งปัน 251 มุมมอง 0 รีวิว
  • “Qwen3-VL จาก Ollama – โมเดล Vision Language ที่ทรงพลังที่สุด พร้อมควบคุมคอมพิวเตอร์ได้แบบอัตโนมัติ!”

    ลองจินตนาการว่าเราชี้กล้องมือถือไปที่ใบไม้ แล้วถามว่า “พิษกับหมาไหม?” หรือเปิดไฟล์ตารางบนคอมแล้วสั่ง AI ให้แปลงเป็นกราฟ — ทั้งหมดนี้ Qwen3-VL ทำได้แล้ว!

    นี่คือโมเดล Vision Language รุ่นใหม่จาก Alibaba ที่เปิดให้ใช้งานผ่าน Ollama โดยมีชื่อเต็มว่า Qwen3-VL-235B-A22B จุดเด่นคือความสามารถในการเข้าใจภาพและวิดีโออย่างลึกซึ้ง แล้วแปลงเป็นโค้ด HTML, CSS หรือ JavaScript ได้ทันที

    มันรองรับ input สูงถึง 1 ล้าน token ซึ่งหมายถึงสามารถประมวลผลวิดีโอความยาว 2 ชั่วโมง หรือเอกสารหลายร้อยหน้าได้ในคราวเดียว และยังเข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูลเชิง 3D ได้ดีขึ้นกว่ารุ่นก่อน ๆ

    ด้าน OCR ก็ไม่ธรรมดา รองรับถึง 32 ภาษา และสามารถอ่านจากภาพที่เบลอ, มืด, หรือเอียงได้อย่างแม่นยำ

    แต่ที่น่าตื่นเต้นที่สุดคือความสามารถแบบ “agentic” — Qwen3-VL สามารถควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ เช่น สั่งจองตั๋วบน Ticketmaster โดยเปิดเบราว์เซอร์, กรอกข้อมูล, เลือกที่นั่ง และกดยืนยัน โดยไม่ต้องให้ผู้ใช้คลิกเองเลย

    แม้จะยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอก ZIP code ผิด แต่ความเร็วในการทำงานนั้นเหนือกว่าหลายโมเดลที่มีฟีเจอร์คล้ายกัน เช่น GPT-5, Claude หรือ Gemini

    ที่สำคัญคือ Qwen3-VL เปิดให้ใช้งานแบบ โอเพ่นซอร์ส ต่างจากคู่แข่งที่ต้องจ่ายเงิน ทำให้ชุมชนสามารถนำไปปรับแต่งและใช้งานได้อย่างอิสระ

    ความสามารถหลักของ Qwen3-VL
    แปลงภาพ/วิดีโอเป็นโค้ด HTML, CSS, JavaScript
    รองรับ input สูงสุด 1 ล้าน token
    เข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูล 3D
    OCR รองรับ 32 ภาษา แม้ภาพเบลอหรือเอียง

    ความสามารถแบบ agentic
    ควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ
    สั่งจองตั๋ว, โพสต์ Reddit, เขียนข้อความ, สั่งซื้อสินค้า
    ทำงานแบบ end-to-end โดยไม่ต้องให้ผู้ใช้คลิกเอง
    ความเร็วในการทำงานโดดเด่นกว่าคู่แข่ง

    จุดเด่นด้านการเปิดใช้งาน
    เปิดให้ใช้งานผ่าน Ollama
    เป็นโอเพ่นซอร์ส – นักพัฒนาสามารถปรับแต่งได้
    ไม่ต้องจ่ายเงินเหมือน GPT-5 หรือ Claude
    ได้คะแนนสูงใน benchmark เช่น OS World

    ข้อควรระวังและคำเตือน
    ยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอกข้อมูลผิด
    การควบคุมอัตโนมัติต้องมีระบบตรวจสอบความถูกต้อง
    การเปิดให้ใช้งานแบบโอเพ่นซอร์สอาจเสี่ยงต่อ misuse หากไม่มีการกำกับ
    ความสามารถสูงอาจนำไปใช้ในงานที่ต้องการความแม่นยำสูง เช่นการแพทย์หรือการเงิน ซึ่งต้องทดสอบก่อนใช้งานจริง

    https://www.slashgear.com/2004206/ollama-qwen3-vl-how-powerful-vision-language-model-works/
    👁️🧠 “Qwen3-VL จาก Ollama – โมเดล Vision Language ที่ทรงพลังที่สุด พร้อมควบคุมคอมพิวเตอร์ได้แบบอัตโนมัติ!” ลองจินตนาการว่าเราชี้กล้องมือถือไปที่ใบไม้ แล้วถามว่า “พิษกับหมาไหม?” หรือเปิดไฟล์ตารางบนคอมแล้วสั่ง AI ให้แปลงเป็นกราฟ — ทั้งหมดนี้ Qwen3-VL ทำได้แล้ว! นี่คือโมเดล Vision Language รุ่นใหม่จาก Alibaba ที่เปิดให้ใช้งานผ่าน Ollama โดยมีชื่อเต็มว่า Qwen3-VL-235B-A22B จุดเด่นคือความสามารถในการเข้าใจภาพและวิดีโออย่างลึกซึ้ง แล้วแปลงเป็นโค้ด HTML, CSS หรือ JavaScript ได้ทันที มันรองรับ input สูงถึง 1 ล้าน token ซึ่งหมายถึงสามารถประมวลผลวิดีโอความยาว 2 ชั่วโมง หรือเอกสารหลายร้อยหน้าได้ในคราวเดียว และยังเข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูลเชิง 3D ได้ดีขึ้นกว่ารุ่นก่อน ๆ ด้าน OCR ก็ไม่ธรรมดา รองรับถึง 32 ภาษา และสามารถอ่านจากภาพที่เบลอ, มืด, หรือเอียงได้อย่างแม่นยำ แต่ที่น่าตื่นเต้นที่สุดคือความสามารถแบบ “agentic” — Qwen3-VL สามารถควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ เช่น สั่งจองตั๋วบน Ticketmaster โดยเปิดเบราว์เซอร์, กรอกข้อมูล, เลือกที่นั่ง และกดยืนยัน โดยไม่ต้องให้ผู้ใช้คลิกเองเลย แม้จะยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอก ZIP code ผิด แต่ความเร็วในการทำงานนั้นเหนือกว่าหลายโมเดลที่มีฟีเจอร์คล้ายกัน เช่น GPT-5, Claude หรือ Gemini ที่สำคัญคือ Qwen3-VL เปิดให้ใช้งานแบบ โอเพ่นซอร์ส ต่างจากคู่แข่งที่ต้องจ่ายเงิน ทำให้ชุมชนสามารถนำไปปรับแต่งและใช้งานได้อย่างอิสระ ✅ ความสามารถหลักของ Qwen3-VL ➡️ แปลงภาพ/วิดีโอเป็นโค้ด HTML, CSS, JavaScript ➡️ รองรับ input สูงสุด 1 ล้าน token ➡️ เข้าใจตำแหน่งวัตถุ, มุมมอง, และข้อมูล 3D ➡️ OCR รองรับ 32 ภาษา แม้ภาพเบลอหรือเอียง ✅ ความสามารถแบบ agentic ➡️ ควบคุมคอมพิวเตอร์หรือมือถือได้แบบอัตโนมัติ ➡️ สั่งจองตั๋ว, โพสต์ Reddit, เขียนข้อความ, สั่งซื้อสินค้า ➡️ ทำงานแบบ end-to-end โดยไม่ต้องให้ผู้ใช้คลิกเอง ➡️ ความเร็วในการทำงานโดดเด่นกว่าคู่แข่ง ✅ จุดเด่นด้านการเปิดใช้งาน ➡️ เปิดให้ใช้งานผ่าน Ollama ➡️ เป็นโอเพ่นซอร์ส – นักพัฒนาสามารถปรับแต่งได้ ➡️ ไม่ต้องจ่ายเงินเหมือน GPT-5 หรือ Claude ➡️ ได้คะแนนสูงใน benchmark เช่น OS World ‼️ ข้อควรระวังและคำเตือน ⛔ ยังมีข้อผิดพลาดเล็ก ๆ เช่นกรอกข้อมูลผิด ⛔ การควบคุมอัตโนมัติต้องมีระบบตรวจสอบความถูกต้อง ⛔ การเปิดให้ใช้งานแบบโอเพ่นซอร์สอาจเสี่ยงต่อ misuse หากไม่มีการกำกับ ⛔ ความสามารถสูงอาจนำไปใช้ในงานที่ต้องการความแม่นยำสูง เช่นการแพทย์หรือการเงิน ซึ่งต้องทดสอบก่อนใช้งานจริง https://www.slashgear.com/2004206/ollama-qwen3-vl-how-powerful-vision-language-model-works/
    WWW.SLASHGEAR.COM
    Ollama's Qwen3-VL Introduces The Most Powerful Vision Language Model - Here's How It Works - SlashGear
    AI is advancing at a rapid rate, and Ollama claims its Qwen3-VL is the most powerful vision language model yet. Here's what it is and how it works.
    0 ความคิดเห็น 0 การแบ่งปัน 386 มุมมอง 0 รีวิว
  • “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน

    Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น

    ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้

    ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe

    การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ:

    การบรรจุหลายโมเดลลงใน GPU เดียว
    การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output

    แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง

    Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon
    จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM

    Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด
    ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน

    ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า
    เมื่อเทียบกับระบบ serverless แบบเดิม

    ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด
    เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน

    ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์
    ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม

    ทดสอบในระบบ Model Studio Marketplace ของ Alibaba
    ใช้งานจริงหลายเดือน

    https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    ⚙️ “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้ ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ: 🎗️ การบรรจุหลายโมเดลลงใน GPU เดียว 🎗️ การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง ✅ Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon ➡️ จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM ✅ Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด ➡️ ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน ✅ ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า ➡️ เมื่อเทียบกับระบบ serverless แบบเดิม ✅ ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด ➡️ เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน ✅ ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์ ➡️ ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม ✅ ทดสอบในระบบ Model Studio Marketplace ของ Alibaba ➡️ ใช้งานจริงหลายเดือน https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    WWW.TOMSHARDWARE.COM
    Alibaba Cloud says it cut Nvidia AI GPU use by 82% with new pooling system— up to 9x increase in output lets 213 GPUs perform like 1,192
    A paper presented at SOSP 2025 details how token-level scheduling helped one GPU serve multiple LLMs, reducing demand from 1,192 to 213 H20s.
    0 ความคิดเห็น 0 การแบ่งปัน 310 มุมมอง 0 รีวิว
  • “Cisco เปิดตัวเราเตอร์ 8223 — แกนกลางเครือข่าย AI แห่งอนาคต ด้วยความเร็ว 51.2 Tbps และชิป P200 สุดล้ำ”

    ในยุคที่ปัญญาประดิษฐ์ (AI) กลายเป็นหัวใจของการประมวลผลระดับองค์กร Cisco ได้เปิดตัวเราเตอร์รุ่นใหม่ “Cisco 8223” ซึ่งเป็นเราเตอร์แบบ Ethernet fixed router ที่เร็วที่สุดในอุตสาหกรรม ด้วยความเร็วสูงถึง 51.2 Tbps โดยใช้ชิปที่พัฒนาขึ้นเองชื่อว่า “Silicon One P200” เพื่อรองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลที่ต้องรับภาระจาก AI workloads ที่เพิ่มขึ้นอย่างมหาศาล

    Martin Lund รองประธานฝ่ายฮาร์ดแวร์ของ Cisco ระบุว่า “AI compute กำลังเติบโตเกินขีดความสามารถของศูนย์ข้อมูลเดี่ยว ทำให้ต้องเชื่อมต่อศูนย์ข้อมูลหลายแห่งเข้าด้วยกันอย่างปลอดภัยและมีประสิทธิภาพ” ซึ่ง Cisco 8223 ตอบโจทย์นี้ได้ด้วยการออกแบบให้รองรับการ “scale-across” หรือการกระจายงาน AI ไปยังหลายศูนย์ข้อมูล

    Cisco 8223 มีจุดเด่นด้านพลังงานและพื้นที่ โดยเป็นระบบแบบ 3RU ที่ใช้พลังงานต่ำที่สุดในกลุ่มเราเตอร์ระดับนี้ พร้อมรองรับพอร์ต 800G ถึง 64 ช่อง และสามารถประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที รองรับการเชื่อมต่อระยะไกลถึง 1,000 กิโลเมตรผ่าน coherent optics

    ชิป P200 ยังมีความสามารถในการปรับแต่งโปรโตคอลใหม่ ๆ ได้แบบเรียลไทม์ โดยไม่ต้องเปลี่ยนฮาร์ดแวร์ และมีระบบ deep buffering ที่ช่วยดูดซับการพุ่งขึ้นของปริมาณข้อมูลจากการฝึก AI ได้อย่างมีประสิทธิภาพ

    ด้านความปลอดภัย Cisco 8223 มาพร้อมการเข้ารหัสระดับ line-rate ด้วยอัลกอริธึมที่ทนต่อการโจมตีจากคอมพิวเตอร์ควอนตัม พร้อมระบบตรวจสอบและวิเคราะห์เครือข่ายแบบละเอียดผ่านแพลตฟอร์ม observability ของ Cisco

    ระบบนี้จะเริ่มต้นใช้งานกับระบบปฏิบัติการ SONiC แบบโอเพ่นซอร์ส และจะรองรับ IOS XR ในอนาคต รวมถึงสามารถนำชิป P200 ไปใช้ในระบบ modular และ disaggregated ได้อีกด้วย

    ข้อมูลสำคัญจากข่าว
    Cisco เปิดตัวเราเตอร์ 8223 ความเร็ว 51.2 Tbps สำหรับงาน AI ระดับองค์กร
    ใช้ชิป Silicon One P200 ที่พัฒนาโดย Cisco เอง
    รองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลแบบ “scale-across”
    ระบบแบบ 3RU ที่ประหยัดพลังงานและพื้นที่มากที่สุดในกลุ่ม
    รองรับพอร์ต 800G จำนวน 64 ช่อง และเชื่อมต่อได้ไกลถึง 1,000 กม.
    ประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที
    รองรับการเข้ารหัสแบบ post-quantum และระบบตรวจสอบเครือข่าย
    รองรับ SONiC และเตรียมเปิดใช้งานกับ IOS XR และ NX-OS
    ชิป P200 สามารถนำไปใช้ในระบบ modular และ disaggregated

    ข้อมูลเสริมจากภายนอก
    Silicon One เป็นสถาปัตยกรรม unified networking ที่ใช้ใน hyperscaler และ AI infrastructure
    Microsoft และ Alibaba เป็นลูกค้ารายแรกที่นำ Cisco 8223 ไปใช้งาน
    การเชื่อมต่อแบบ coherent optics ช่วยลด latency และเพิ่มความเสถียรในการเชื่อมต่อระยะไกล
    Deep buffering ช่วยจัดการกับข้อมูลที่พุ่งขึ้นจากการฝึก AI ได้ดี
    การ scale-across เป็นแนวทางใหม่ที่แทนการ scale-up หรือ scale-out ในศูนย์ข้อมูล

    https://www.techpowerup.com/341711/cisco-rolls-out-8223-router-with-51-2-tbps-powered-by-in-house-chip
    🌐 “Cisco เปิดตัวเราเตอร์ 8223 — แกนกลางเครือข่าย AI แห่งอนาคต ด้วยความเร็ว 51.2 Tbps และชิป P200 สุดล้ำ” ในยุคที่ปัญญาประดิษฐ์ (AI) กลายเป็นหัวใจของการประมวลผลระดับองค์กร Cisco ได้เปิดตัวเราเตอร์รุ่นใหม่ “Cisco 8223” ซึ่งเป็นเราเตอร์แบบ Ethernet fixed router ที่เร็วที่สุดในอุตสาหกรรม ด้วยความเร็วสูงถึง 51.2 Tbps โดยใช้ชิปที่พัฒนาขึ้นเองชื่อว่า “Silicon One P200” เพื่อรองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลที่ต้องรับภาระจาก AI workloads ที่เพิ่มขึ้นอย่างมหาศาล Martin Lund รองประธานฝ่ายฮาร์ดแวร์ของ Cisco ระบุว่า “AI compute กำลังเติบโตเกินขีดความสามารถของศูนย์ข้อมูลเดี่ยว ทำให้ต้องเชื่อมต่อศูนย์ข้อมูลหลายแห่งเข้าด้วยกันอย่างปลอดภัยและมีประสิทธิภาพ” ซึ่ง Cisco 8223 ตอบโจทย์นี้ได้ด้วยการออกแบบให้รองรับการ “scale-across” หรือการกระจายงาน AI ไปยังหลายศูนย์ข้อมูล Cisco 8223 มีจุดเด่นด้านพลังงานและพื้นที่ โดยเป็นระบบแบบ 3RU ที่ใช้พลังงานต่ำที่สุดในกลุ่มเราเตอร์ระดับนี้ พร้อมรองรับพอร์ต 800G ถึง 64 ช่อง และสามารถประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที รองรับการเชื่อมต่อระยะไกลถึง 1,000 กิโลเมตรผ่าน coherent optics ชิป P200 ยังมีความสามารถในการปรับแต่งโปรโตคอลใหม่ ๆ ได้แบบเรียลไทม์ โดยไม่ต้องเปลี่ยนฮาร์ดแวร์ และมีระบบ deep buffering ที่ช่วยดูดซับการพุ่งขึ้นของปริมาณข้อมูลจากการฝึก AI ได้อย่างมีประสิทธิภาพ ด้านความปลอดภัย Cisco 8223 มาพร้อมการเข้ารหัสระดับ line-rate ด้วยอัลกอริธึมที่ทนต่อการโจมตีจากคอมพิวเตอร์ควอนตัม พร้อมระบบตรวจสอบและวิเคราะห์เครือข่ายแบบละเอียดผ่านแพลตฟอร์ม observability ของ Cisco ระบบนี้จะเริ่มต้นใช้งานกับระบบปฏิบัติการ SONiC แบบโอเพ่นซอร์ส และจะรองรับ IOS XR ในอนาคต รวมถึงสามารถนำชิป P200 ไปใช้ในระบบ modular และ disaggregated ได้อีกด้วย ✅ ข้อมูลสำคัญจากข่าว ➡️ Cisco เปิดตัวเราเตอร์ 8223 ความเร็ว 51.2 Tbps สำหรับงาน AI ระดับองค์กร ➡️ ใช้ชิป Silicon One P200 ที่พัฒนาโดย Cisco เอง ➡️ รองรับการเชื่อมต่อระหว่างศูนย์ข้อมูลแบบ “scale-across” ➡️ ระบบแบบ 3RU ที่ประหยัดพลังงานและพื้นที่มากที่สุดในกลุ่ม ➡️ รองรับพอร์ต 800G จำนวน 64 ช่อง และเชื่อมต่อได้ไกลถึง 1,000 กม. ➡️ ประมวลผลได้มากกว่า 20 พันล้านแพ็กเก็ตต่อวินาที ➡️ รองรับการเข้ารหัสแบบ post-quantum และระบบตรวจสอบเครือข่าย ➡️ รองรับ SONiC และเตรียมเปิดใช้งานกับ IOS XR และ NX-OS ➡️ ชิป P200 สามารถนำไปใช้ในระบบ modular และ disaggregated ✅ ข้อมูลเสริมจากภายนอก ➡️ Silicon One เป็นสถาปัตยกรรม unified networking ที่ใช้ใน hyperscaler และ AI infrastructure ➡️ Microsoft และ Alibaba เป็นลูกค้ารายแรกที่นำ Cisco 8223 ไปใช้งาน ➡️ การเชื่อมต่อแบบ coherent optics ช่วยลด latency และเพิ่มความเสถียรในการเชื่อมต่อระยะไกล ➡️ Deep buffering ช่วยจัดการกับข้อมูลที่พุ่งขึ้นจากการฝึก AI ได้ดี ➡️ การ scale-across เป็นแนวทางใหม่ที่แทนการ scale-up หรือ scale-out ในศูนย์ข้อมูล https://www.techpowerup.com/341711/cisco-rolls-out-8223-router-with-51-2-tbps-powered-by-in-house-chip
    WWW.TECHPOWERUP.COM
    Cisco Rolls Out 8223 Router with 51.2 Tbps, Powered by In-House Chip
    Today, Cisco (NASDAQ: CSCO) unveiled the Cisco 8223, the industry's most optimized routing system for efficiently and securely connecting data centers and powering the next generation of artificial intelligence (AI) workloads. As AI adoption accelerates, data centers face soaring demand, rising powe...
    0 ความคิดเห็น 0 การแบ่งปัน 279 มุมมอง 0 รีวิว
  • “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ”

    DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม

    จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ

    นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน

    แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง

    ข้อมูลสำคัญจากข่าว
    DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face
    เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท
    ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว
    ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า
    ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI
    ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง
    โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License
    มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง
    เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด

    ข้อมูลเสริมจากภายนอก
    Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ
    Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล
    การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง
    DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง
    ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ

    https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    🧠 “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ” DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง ✅ ข้อมูลสำคัญจากข่าว ➡️ DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face ➡️ เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท ➡️ ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว ➡️ ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า ➡️ ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI ➡️ ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง ➡️ โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License ➡️ มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง ➡️ เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด ✅ ข้อมูลเสริมจากภายนอก ➡️ Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ ➡️ Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล ➡️ การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง ➡️ DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง ➡️ ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    WWW.THESTAR.COM.MY
    DeepSeek releases model it calls 'intermediate step' towards 'next-generation architecture'
    BEIJING (Reuters) -Chinese AI developer DeepSeek has released its latest model which it said was an "experimental release" that was more efficient to train and better at processing long sequences of text than previous iterations.
    0 ความคิดเห็น 0 การแบ่งปัน 493 มุมมอง 0 รีวิว
  • “Jensen Huang ชี้จีนตามหลังแค่ ‘นาโนวินาที’ — เรียกร้องให้สหรัฐฯ ผ่อนคลายข้อจำกัดการส่งออกชิป AI”

    Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความเห็นอย่างตรงไปตรงมาในรายการ BG2 Podcast ว่า “จีนตามหลังสหรัฐฯ ในด้านการผลิตชิปแค่ไม่กี่นาโนวินาที” พร้อมเรียกร้องให้รัฐบาลสหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI ไปยังจีน โดยให้เหตุผลว่าการเปิดตลาดจะช่วยขยายอิทธิพลเทคโนโลยีของสหรัฐฯ และรักษาความเป็นผู้นำในระดับโลก

    คำพูดของ Huang เกิดขึ้นในช่วงที่ Nvidia กำลังพยายามกลับมาขายชิป H20 ให้กับลูกค้าในจีน หลังจากถูกระงับการส่งออกหลายเดือนจากข้อจำกัดของกระทรวงพาณิชย์สหรัฐฯ ซึ่งเพิ่งเริ่มออกใบอนุญาตให้ส่งออกอีกครั้งในเดือนสิงหาคม 2025

    อย่างไรก็ตาม จีนเองก็ไม่ได้รอให้ Nvidia กลับมา เพราะ Huawei ได้เปิดตัวระบบ Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ซึ่งไม่พึ่งพา CUDA และออกแบบมาเพื่อซอฟต์แวร์จีนโดยเฉพาะ พร้อมวางแผนพัฒนาชิปรุ่นใหม่ให้เทียบเท่าหรือเหนือกว่าชิปของ Nvidia ภายในปี 2027

    Huang ยอมรับว่าจีนเป็นคู่แข่งที่ “หิวโหย เคลื่อนไหวเร็ว และมีวัฒนธรรมการทำงานแบบ 9-9-6” ซึ่งทำให้การพัฒนาเทคโนโลยีในจีนก้าวหน้าอย่างรวดเร็ว โดยเฉพาะเมื่อบริษัทใหญ่อย่าง Baidu, Alibaba, Tencent และ ByteDance ต่างลงทุนในทีมพัฒนาชิปของตัวเองและสนับสนุนสตาร์ทอัพด้านเซมิคอนดักเตอร์

    แม้ Nvidia จะพยายามรักษาตลาดจีนด้วยการออกแบบชิปเฉพาะ เช่น H20 และ RTX Pro 6000D แต่ก็ยังถูกจีนสั่งห้ามซื้อในเดือนกันยายน 2025 โดยหน่วยงาน CAC ของจีนให้เหตุผลว่า “ชิปจีนตอนนี้เทียบเท่าหรือดีกว่าชิปที่ Nvidia อนุญาตให้ขายในจีนแล้ว” และเรียกร้องให้บริษัทในประเทศหันไปใช้ชิปภายในประเทศแทน

    ข้อมูลสำคัญจากข่าว
    Jensen Huang ระบุว่าจีนตามหลังสหรัฐฯ ในการผลิตชิปแค่ “นาโนวินาที”
    เรียกร้องให้สหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI เพื่อรักษาอิทธิพลทางเทคโนโลยี
    Nvidia หวังกลับมาขายชิป H20 ให้จีนหลังถูกระงับหลายเดือน
    กระทรวงพาณิชย์สหรัฐฯ เริ่มออกใบอนุญาตส่งออก H20 ในเดือนสิงหาคม 2025
    Huawei เปิดตัว Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ไม่พึ่ง CUDA
    จีนวางแผนพัฒนาชิป Ascend รุ่นใหม่ให้เทียบเท่าหรือเหนือกว่า Nvidia ภายในปี 2027
    บริษัทจีนใหญ่ลงทุนในชิปภายในประเทศ เช่น Baidu, Alibaba, Tencent และ ByteDance
    Nvidia เคยครองตลาดจีนถึง 95% แต่ลดลงอย่างรวดเร็วจากข้อจำกัดการส่งออก
    CAC ของจีนสั่งห้ามบริษัทในประเทศซื้อชิป H20 และ RTX Pro 6000D

    ข้อมูลเสริมจากภายนอก
    ชิป H20 และ RTX Pro 6000D ถูกออกแบบมาเพื่อให้ผ่านข้อจำกัดของสหรัฐฯ โดยเฉพาะ
    จีนกำลังสร้างระบบ AI ที่ไม่พึ่งพาเทคโนโลยีสหรัฐฯ เช่น CUDA หรือ TensorRT
    การพัฒนา AI ในจีนเติบโตเร็วที่สุดในโลก โดยเฉพาะในเมืองใหญ่ เช่น เซินเจิ้นและปักกิ่ง
    DeepSeek เป็นโมเดล AI จากจีนที่เทียบเคียงกับ OpenAI และ Anthropic
    การแข่งขันด้านชิปส่งผลต่ออุตสาหกรรมอื่น เช่น บล็อกเชนและอินเทอร์เน็ตดาวเทียม

    https://www.tomshardware.com/jensen-huang-says-china-is-nanoseconds-behind-in-chips
    🇨🇳⚙️ “Jensen Huang ชี้จีนตามหลังแค่ ‘นาโนวินาที’ — เรียกร้องให้สหรัฐฯ ผ่อนคลายข้อจำกัดการส่งออกชิป AI” Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความเห็นอย่างตรงไปตรงมาในรายการ BG2 Podcast ว่า “จีนตามหลังสหรัฐฯ ในด้านการผลิตชิปแค่ไม่กี่นาโนวินาที” พร้อมเรียกร้องให้รัฐบาลสหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI ไปยังจีน โดยให้เหตุผลว่าการเปิดตลาดจะช่วยขยายอิทธิพลเทคโนโลยีของสหรัฐฯ และรักษาความเป็นผู้นำในระดับโลก คำพูดของ Huang เกิดขึ้นในช่วงที่ Nvidia กำลังพยายามกลับมาขายชิป H20 ให้กับลูกค้าในจีน หลังจากถูกระงับการส่งออกหลายเดือนจากข้อจำกัดของกระทรวงพาณิชย์สหรัฐฯ ซึ่งเพิ่งเริ่มออกใบอนุญาตให้ส่งออกอีกครั้งในเดือนสิงหาคม 2025 อย่างไรก็ตาม จีนเองก็ไม่ได้รอให้ Nvidia กลับมา เพราะ Huawei ได้เปิดตัวระบบ Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ซึ่งไม่พึ่งพา CUDA และออกแบบมาเพื่อซอฟต์แวร์จีนโดยเฉพาะ พร้อมวางแผนพัฒนาชิปรุ่นใหม่ให้เทียบเท่าหรือเหนือกว่าชิปของ Nvidia ภายในปี 2027 Huang ยอมรับว่าจีนเป็นคู่แข่งที่ “หิวโหย เคลื่อนไหวเร็ว และมีวัฒนธรรมการทำงานแบบ 9-9-6” ซึ่งทำให้การพัฒนาเทคโนโลยีในจีนก้าวหน้าอย่างรวดเร็ว โดยเฉพาะเมื่อบริษัทใหญ่อย่าง Baidu, Alibaba, Tencent และ ByteDance ต่างลงทุนในทีมพัฒนาชิปของตัวเองและสนับสนุนสตาร์ทอัพด้านเซมิคอนดักเตอร์ แม้ Nvidia จะพยายามรักษาตลาดจีนด้วยการออกแบบชิปเฉพาะ เช่น H20 และ RTX Pro 6000D แต่ก็ยังถูกจีนสั่งห้ามซื้อในเดือนกันยายน 2025 โดยหน่วยงาน CAC ของจีนให้เหตุผลว่า “ชิปจีนตอนนี้เทียบเท่าหรือดีกว่าชิปที่ Nvidia อนุญาตให้ขายในจีนแล้ว” และเรียกร้องให้บริษัทในประเทศหันไปใช้ชิปภายในประเทศแทน ✅ ข้อมูลสำคัญจากข่าว ➡️ Jensen Huang ระบุว่าจีนตามหลังสหรัฐฯ ในการผลิตชิปแค่ “นาโนวินาที” ➡️ เรียกร้องให้สหรัฐฯ ลดข้อจำกัดการส่งออกชิป AI เพื่อรักษาอิทธิพลทางเทคโนโลยี ➡️ Nvidia หวังกลับมาขายชิป H20 ให้จีนหลังถูกระงับหลายเดือน ➡️ กระทรวงพาณิชย์สหรัฐฯ เริ่มออกใบอนุญาตส่งออก H20 ในเดือนสิงหาคม 2025 ➡️ Huawei เปิดตัว Atlas 900 A3 SuperPoD ที่ใช้ชิป Ascend 910B ไม่พึ่ง CUDA ➡️ จีนวางแผนพัฒนาชิป Ascend รุ่นใหม่ให้เทียบเท่าหรือเหนือกว่า Nvidia ภายในปี 2027 ➡️ บริษัทจีนใหญ่ลงทุนในชิปภายในประเทศ เช่น Baidu, Alibaba, Tencent และ ByteDance ➡️ Nvidia เคยครองตลาดจีนถึง 95% แต่ลดลงอย่างรวดเร็วจากข้อจำกัดการส่งออก ➡️ CAC ของจีนสั่งห้ามบริษัทในประเทศซื้อชิป H20 และ RTX Pro 6000D ✅ ข้อมูลเสริมจากภายนอก ➡️ ชิป H20 และ RTX Pro 6000D ถูกออกแบบมาเพื่อให้ผ่านข้อจำกัดของสหรัฐฯ โดยเฉพาะ ➡️ จีนกำลังสร้างระบบ AI ที่ไม่พึ่งพาเทคโนโลยีสหรัฐฯ เช่น CUDA หรือ TensorRT ➡️ การพัฒนา AI ในจีนเติบโตเร็วที่สุดในโลก โดยเฉพาะในเมืองใหญ่ เช่น เซินเจิ้นและปักกิ่ง ➡️ DeepSeek เป็นโมเดล AI จากจีนที่เทียบเคียงกับ OpenAI และ Anthropic ➡️ การแข่งขันด้านชิปส่งผลต่ออุตสาหกรรมอื่น เช่น บล็อกเชนและอินเทอร์เน็ตดาวเทียม https://www.tomshardware.com/jensen-huang-says-china-is-nanoseconds-behind-in-chips
    0 ความคิดเห็น 0 การแบ่งปัน 633 มุมมอง 0 รีวิว
  • “Alibaba จับมือ NVIDIA สวนกระแสคำสั่งปักกิ่ง — เดินเกม AI ระดับโลก แม้ถูกห้ามซื้อชิป”

    แม้รัฐบาลจีนจะออกคำสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ เช่น Alibaba และ ByteDance ซื้อชิป AI จาก NVIDIA โดยเฉพาะรุ่น H20 และ RTX Pro 6000D ที่ออกแบบมาเฉพาะสำหรับตลาดจีน แต่ Alibaba กลับประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI ระดับโลกอย่างเต็มตัว

    ความร่วมมือครั้งนี้เน้นการใช้ซอฟต์แวร์ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI (Platform for AI) ของ Alibaba Cloud ซึ่งอาจไม่เข้าข่ายละเมิดคำสั่งห้ามซื้อฮาร์ดแวร์โดยตรง เพราะเป็นการใช้ซอฟต์แวร์ ไม่ใช่การซื้อชิปโดยตรง อย่างไรก็ตาม ยังไม่มีการยืนยันว่า Alibaba จะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่

    Alibaba ยังเปิดเผยแผนการสร้างศูนย์ข้อมูลใหม่ในหลายประเทศ เช่น บราซิล ฝรั่งเศส เนเธอร์แลนด์ เม็กซิโก เกาหลีใต้ ญี่ปุ่น มาเลเซีย และดูไบ ภายในปีหน้า เพื่อรองรับความต้องการด้าน AI ที่เพิ่มขึ้นอย่างรวดเร็ว โดย CEO Eddie Wu ระบุว่า “ความเร็วของการเติบโตในอุตสาหกรรม AI เกินความคาดหมายของเราไปมาก”

    แม้ Alibaba จะมีชิป AI ของตัวเอง และพัฒนาเทคโนโลยีเครือข่ายประสิทธิภาพสูงที่ไม่ต้องพึ่งพาเทคโนโลยี interconnect ของ NVIDIA แต่การจับมือกันครั้งนี้สะท้อนว่า Alibaba ยังเห็นคุณค่าในซอฟต์แวร์และระบบของ NVIDIA ที่สามารถเร่งการพัฒนา AI ได้ในระดับโลก

    นักวิเคราะห์มองว่า หากดีลนี้เดินหน้าได้โดยไม่มีการแทรกแซงจากรัฐบาลจีนหรือสหรัฐฯ จะเป็นการเปิดทางให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านช่องทางซอฟต์แวร์ และช่วยให้ Alibaba ขยายอิทธิพลด้าน AI ไปทั่วโลก แม้จะถูกจำกัดด้านฮาร์ดแวร์ภายในประเทศ

    ข้อมูลสำคัญจากข่าว
    Alibaba ประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI
    ใช้ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI ของ Alibaba Cloud
    ยังไม่มีการยืนยันว่าจะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่
    รัฐบาลจีนห้ามบริษัทเทคโนโลยีซื้อชิป H20 และ RTX Pro 6000D จาก NVIDIA
    Alibaba มีชิป AI ของตัวเอง และระบบเครือข่ายที่ไม่พึ่งพาเทคโนโลยีของ NVIDIA
    แผนสร้างศูนย์ข้อมูลใหม่ใน 8 ประเทศภายในปีหน้า
    CEO Eddie Wu ระบุว่าอุตสาหกรรม AI เติบโตเร็วกว่าที่คาด
    ความร่วมมือครั้งนี้อาจช่วยให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านซอฟต์แวร์

    ข้อมูลเสริมจากภายนอก
    คำสั่งห้ามของจีนออกโดย Cyberspace Administration of China เพื่อผลักดันการใช้ชิปภายในประเทศ
    NVIDIA เคยออกแบบชิปรุ่นพิเศษสำหรับจีนเพื่อหลีกเลี่ยงข้อจำกัดจากสหรัฐฯ
    Alibaba และ Baidu มีการพัฒนาชิป AI ภายในองค์กร เช่น Hanguang และ Kunlun
    การใช้ซอฟต์แวร์ของ NVIDIA ยังเป็นจุดแข็งที่คู่แข่งในจีนยังตามไม่ทัน
    การขยายศูนย์ข้อมูลในต่างประเทศช่วยลดความเสี่ยงจากข้อจำกัดภายในประเทศ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/alibaba-announces-partnership-with-nvidia-despite-beijings-bans-chinese-e-commerce-giant-is-prioritizing-ai-with-plans-for-global-expansion
    🌏 “Alibaba จับมือ NVIDIA สวนกระแสคำสั่งปักกิ่ง — เดินเกม AI ระดับโลก แม้ถูกห้ามซื้อชิป” แม้รัฐบาลจีนจะออกคำสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ เช่น Alibaba และ ByteDance ซื้อชิป AI จาก NVIDIA โดยเฉพาะรุ่น H20 และ RTX Pro 6000D ที่ออกแบบมาเฉพาะสำหรับตลาดจีน แต่ Alibaba กลับประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI ระดับโลกอย่างเต็มตัว ความร่วมมือครั้งนี้เน้นการใช้ซอฟต์แวร์ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI (Platform for AI) ของ Alibaba Cloud ซึ่งอาจไม่เข้าข่ายละเมิดคำสั่งห้ามซื้อฮาร์ดแวร์โดยตรง เพราะเป็นการใช้ซอฟต์แวร์ ไม่ใช่การซื้อชิปโดยตรง อย่างไรก็ตาม ยังไม่มีการยืนยันว่า Alibaba จะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่ Alibaba ยังเปิดเผยแผนการสร้างศูนย์ข้อมูลใหม่ในหลายประเทศ เช่น บราซิล ฝรั่งเศส เนเธอร์แลนด์ เม็กซิโก เกาหลีใต้ ญี่ปุ่น มาเลเซีย และดูไบ ภายในปีหน้า เพื่อรองรับความต้องการด้าน AI ที่เพิ่มขึ้นอย่างรวดเร็ว โดย CEO Eddie Wu ระบุว่า “ความเร็วของการเติบโตในอุตสาหกรรม AI เกินความคาดหมายของเราไปมาก” แม้ Alibaba จะมีชิป AI ของตัวเอง และพัฒนาเทคโนโลยีเครือข่ายประสิทธิภาพสูงที่ไม่ต้องพึ่งพาเทคโนโลยี interconnect ของ NVIDIA แต่การจับมือกันครั้งนี้สะท้อนว่า Alibaba ยังเห็นคุณค่าในซอฟต์แวร์และระบบของ NVIDIA ที่สามารถเร่งการพัฒนา AI ได้ในระดับโลก นักวิเคราะห์มองว่า หากดีลนี้เดินหน้าได้โดยไม่มีการแทรกแซงจากรัฐบาลจีนหรือสหรัฐฯ จะเป็นการเปิดทางให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านช่องทางซอฟต์แวร์ และช่วยให้ Alibaba ขยายอิทธิพลด้าน AI ไปทั่วโลก แม้จะถูกจำกัดด้านฮาร์ดแวร์ภายในประเทศ ✅ ข้อมูลสำคัญจากข่าว ➡️ Alibaba ประกาศความร่วมมือกับ NVIDIA เพื่อขยายศูนย์ข้อมูลและพัฒนาแพลตฟอร์ม AI ➡️ ใช้ NVIDIA Physical AI stack บนแพลตฟอร์ม PAI ของ Alibaba Cloud ➡️ ยังไม่มีการยืนยันว่าจะใช้ GPU ของ NVIDIA ในโครงการใหม่หรือไม่ ➡️ รัฐบาลจีนห้ามบริษัทเทคโนโลยีซื้อชิป H20 และ RTX Pro 6000D จาก NVIDIA ➡️ Alibaba มีชิป AI ของตัวเอง และระบบเครือข่ายที่ไม่พึ่งพาเทคโนโลยีของ NVIDIA ➡️ แผนสร้างศูนย์ข้อมูลใหม่ใน 8 ประเทศภายในปีหน้า ➡️ CEO Eddie Wu ระบุว่าอุตสาหกรรม AI เติบโตเร็วกว่าที่คาด ➡️ ความร่วมมือครั้งนี้อาจช่วยให้ NVIDIA ยังคงมีบทบาทในตลาดจีนผ่านซอฟต์แวร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ คำสั่งห้ามของจีนออกโดย Cyberspace Administration of China เพื่อผลักดันการใช้ชิปภายในประเทศ ➡️ NVIDIA เคยออกแบบชิปรุ่นพิเศษสำหรับจีนเพื่อหลีกเลี่ยงข้อจำกัดจากสหรัฐฯ ➡️ Alibaba และ Baidu มีการพัฒนาชิป AI ภายในองค์กร เช่น Hanguang และ Kunlun ➡️ การใช้ซอฟต์แวร์ของ NVIDIA ยังเป็นจุดแข็งที่คู่แข่งในจีนยังตามไม่ทัน ➡️ การขยายศูนย์ข้อมูลในต่างประเทศช่วยลดความเสี่ยงจากข้อจำกัดภายในประเทศ https://www.tomshardware.com/tech-industry/artificial-intelligence/alibaba-announces-partnership-with-nvidia-despite-beijings-bans-chinese-e-commerce-giant-is-prioritizing-ai-with-plans-for-global-expansion
    0 ความคิดเห็น 0 การแบ่งปัน 549 มุมมอง 0 รีวิว
  • Nvidia เจอแรงกระแทกจากจีนอีกครั้ง — CEO ยอมรับ “ผิดหวัง” หลังถูกแบนชิป AI H20 แม้พัฒนาเพื่อหลีกเลี่ยงข้อจำกัด

    Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความผิดหวังอย่างชัดเจน หลังรัฐบาลจีนประกาศห้ามบริษัทเทคโนโลยีภายในประเทศซื้อชิป AI รุ่น H20 ของ Nvidia ซึ่งถูกออกแบบมาเฉพาะสำหรับตลาดจีน เพื่อหลีกเลี่ยงข้อจำกัดด้านการส่งออกจากสหรัฐฯ โดย Huang กล่าวในงานแถลงข่าวที่ลอนดอนว่า “ธุรกิจของเรากับจีนในช่วง 3 ปีที่ผ่านมาเหมือนรถไฟเหาะ”

    ชิป H20 ถูกพัฒนาเพื่อตอบสนองความต้องการของจีน หลังสหรัฐฯ ภายใต้รัฐบาล Biden เคยสั่งห้ามส่งออกชิป AI ระดับสูงไปยังจีนในปี 2023 แต่เมื่อ Trump กลับมาดำรงตำแหน่งในปี 2025 ก็มีการเจรจาใหม่ โดย Nvidia ยอมจ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการยกเลิกข้อจำกัด

    อย่างไรก็ตาม ความกังวลเรื่อง “backdoor” และการติดตามชิปจากระยะไกล ทำให้ Cyberspace Administration of China (CAC) สั่งให้บริษัทใหญ่ เช่น ByteDance และ Alibaba หยุดการสั่งซื้อและทดสอบชิป H20 โดยอ้างว่าเทคโนโลยีของ Nvidia อาจเป็นภัยต่อความมั่นคงของข้อมูลภายในประเทศ

    Huang ยืนยันว่า H20 ไม่ใช่เทคโนโลยีที่เกี่ยวข้องกับความมั่นคง และจีนมีเทคโนโลยีของตัวเองเพียงพอสำหรับการใช้งานทางทหารอยู่แล้ว แต่ก็ยอมรับว่า “ต้องอดทน” และ “เข้าใจว่ามีวาระใหญ่กว่าที่ต้องจัดการระหว่างจีนกับสหรัฐฯ”

    Nvidia ถูกแบนชิป AI H20 ในจีน
    Cyberspace Administration of China สั่งบริษัทเทคโนโลยีหยุดซื้อและทดสอบ
    ชิป H20 ถูกออกแบบมาเฉพาะสำหรับตลาดจีน

    Jensen Huang แสดงความผิดหวังต่อการแบน
    ระบุว่า “ธุรกิจในจีนเหมือนรถไฟเหาะ”
    ยืนยันว่า H20 ไม่เกี่ยวกับความมั่นคงทางทหาร

    ชิป H20 เคยถูกห้ามส่งออกโดยรัฐบาล Biden
    Nvidia พัฒนา H20 เพื่อลดสเปกให้ผ่านข้อจำกัด
    รัฐบาล Trump เจรจาใหม่ให้ Nvidia จ่าย 15% ของรายได้เพื่อแลกกับการขาย

    จีนกังวลเรื่อง backdoor และการติดตามชิปจากระยะไกล
    มีข้อสงสัยว่า H20 อาจมีระบบติดตามหรือ kill switch
    Nvidia ปฏิเสธว่าชิปไม่มีช่องโหว่ด้านความปลอดภัย

    ตลาด AI ในจีนยังมีขนาดใหญ่มาก
    Huang ระบุว่ามีมูลค่าราว 15 พันล้านดอลลาร์
    เป็นตลาด AI ใหญ่เป็นอันดับสองของโลก

    คำเตือนเกี่ยวกับผลกระทบจากการแบน
    การแบนอาจกระทบรายได้ของ Nvidia หลายพันล้านดอลลาร์
    ความไม่แน่นอนทางการเมืองระหว่างจีน-สหรัฐฯ ทำให้การคาดการณ์ธุรกิจยากขึ้น
    การกล่าวหาว่ามี backdoor อาจกระทบความเชื่อมั่นในผลิตภัณฑ์ Nvidia ทั่วโลก
    การพึ่งพาตลาดจีนมากเกินไปอาจเป็นความเสี่ยงเชิงกลยุทธ์ในระยะยาว

    https://www.techradar.com/pro/our-business-in-china-has-been-a-bit-of-a-rollercoaster-nvidia-ceo-disappointed-in-further-chinese-ban-on-buying-its-ai-chips
    📰 Nvidia เจอแรงกระแทกจากจีนอีกครั้ง — CEO ยอมรับ “ผิดหวัง” หลังถูกแบนชิป AI H20 แม้พัฒนาเพื่อหลีกเลี่ยงข้อจำกัด Jensen Huang ซีอีโอของ Nvidia ออกมาแสดงความผิดหวังอย่างชัดเจน หลังรัฐบาลจีนประกาศห้ามบริษัทเทคโนโลยีภายในประเทศซื้อชิป AI รุ่น H20 ของ Nvidia ซึ่งถูกออกแบบมาเฉพาะสำหรับตลาดจีน เพื่อหลีกเลี่ยงข้อจำกัดด้านการส่งออกจากสหรัฐฯ โดย Huang กล่าวในงานแถลงข่าวที่ลอนดอนว่า “ธุรกิจของเรากับจีนในช่วง 3 ปีที่ผ่านมาเหมือนรถไฟเหาะ” ชิป H20 ถูกพัฒนาเพื่อตอบสนองความต้องการของจีน หลังสหรัฐฯ ภายใต้รัฐบาล Biden เคยสั่งห้ามส่งออกชิป AI ระดับสูงไปยังจีนในปี 2023 แต่เมื่อ Trump กลับมาดำรงตำแหน่งในปี 2025 ก็มีการเจรจาใหม่ โดย Nvidia ยอมจ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการยกเลิกข้อจำกัด อย่างไรก็ตาม ความกังวลเรื่อง “backdoor” และการติดตามชิปจากระยะไกล ทำให้ Cyberspace Administration of China (CAC) สั่งให้บริษัทใหญ่ เช่น ByteDance และ Alibaba หยุดการสั่งซื้อและทดสอบชิป H20 โดยอ้างว่าเทคโนโลยีของ Nvidia อาจเป็นภัยต่อความมั่นคงของข้อมูลภายในประเทศ Huang ยืนยันว่า H20 ไม่ใช่เทคโนโลยีที่เกี่ยวข้องกับความมั่นคง และจีนมีเทคโนโลยีของตัวเองเพียงพอสำหรับการใช้งานทางทหารอยู่แล้ว แต่ก็ยอมรับว่า “ต้องอดทน” และ “เข้าใจว่ามีวาระใหญ่กว่าที่ต้องจัดการระหว่างจีนกับสหรัฐฯ” ✅ Nvidia ถูกแบนชิป AI H20 ในจีน ➡️ Cyberspace Administration of China สั่งบริษัทเทคโนโลยีหยุดซื้อและทดสอบ ➡️ ชิป H20 ถูกออกแบบมาเฉพาะสำหรับตลาดจีน ✅ Jensen Huang แสดงความผิดหวังต่อการแบน ➡️ ระบุว่า “ธุรกิจในจีนเหมือนรถไฟเหาะ” ➡️ ยืนยันว่า H20 ไม่เกี่ยวกับความมั่นคงทางทหาร ✅ ชิป H20 เคยถูกห้ามส่งออกโดยรัฐบาล Biden ➡️ Nvidia พัฒนา H20 เพื่อลดสเปกให้ผ่านข้อจำกัด ➡️ รัฐบาล Trump เจรจาใหม่ให้ Nvidia จ่าย 15% ของรายได้เพื่อแลกกับการขาย ✅ จีนกังวลเรื่อง backdoor และการติดตามชิปจากระยะไกล ➡️ มีข้อสงสัยว่า H20 อาจมีระบบติดตามหรือ kill switch ➡️ Nvidia ปฏิเสธว่าชิปไม่มีช่องโหว่ด้านความปลอดภัย ✅ ตลาด AI ในจีนยังมีขนาดใหญ่มาก ➡️ Huang ระบุว่ามีมูลค่าราว 15 พันล้านดอลลาร์ ➡️ เป็นตลาด AI ใหญ่เป็นอันดับสองของโลก ‼️ คำเตือนเกี่ยวกับผลกระทบจากการแบน ⛔ การแบนอาจกระทบรายได้ของ Nvidia หลายพันล้านดอลลาร์ ⛔ ความไม่แน่นอนทางการเมืองระหว่างจีน-สหรัฐฯ ทำให้การคาดการณ์ธุรกิจยากขึ้น ⛔ การกล่าวหาว่ามี backdoor อาจกระทบความเชื่อมั่นในผลิตภัณฑ์ Nvidia ทั่วโลก ⛔ การพึ่งพาตลาดจีนมากเกินไปอาจเป็นความเสี่ยงเชิงกลยุทธ์ในระยะยาว https://www.techradar.com/pro/our-business-in-china-has-been-a-bit-of-a-rollercoaster-nvidia-ceo-disappointed-in-further-chinese-ban-on-buying-its-ai-chips
    0 ความคิดเห็น 0 การแบ่งปัน 472 มุมมอง 0 รีวิว
  • จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia — ผลักดันใช้โปรเซสเซอร์ในประเทศแทน

    ในความเคลื่อนไหวที่สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีน ล่าสุดมีรายงานว่า รัฐบาลจีนได้สั่งห้ามบริษัทเทคโนโลยีรายใหญ่ของประเทศ เช่น Alibaba, ByteDance, Baidu และ Tencent ทำการจัดซื้อชิป AI จาก Nvidia แม้จะเป็นรุ่นที่ออกแบบมาเฉพาะสำหรับตลาดจีนอย่าง H800 และ A800 ก็ตาม

    คำสั่งนี้มีเป้าหมายเพื่อผลักดันให้บริษัทจีนหันมาใช้โปรเซสเซอร์ที่ผลิตภายในประเทศ เช่น Huawei Ascend 910B และ Moore Threads ซึ่งทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่ากับชิปรุ่น H20 และ RTX 6000 Pro ของ Nvidia

    การตัดสินใจนี้เกิดขึ้นหลังจากสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ไปยังจีน โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ซึ่งอาจนำไปใช้ในงานด้านการทหารหรือการพัฒนาเทคโนโลยีที่อ่อนไหว

    แม้บริษัทจีนจะยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลกระทบต่อการพัฒนา AI และการประมวลผลขั้นสูงในระยะยาว

    จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia
    รวมถึงชิปรุ่น H800 และ A800 ที่ออกแบบมาเฉพาะสำหรับตลาดจีน
    บริษัทที่ได้รับผลกระทบ ได้แก่ Alibaba, ByteDance, Baidu และ Tencent

    ผลักดันให้ใช้โปรเซสเซอร์ที่ผลิตในประเทศ
    เช่น Huawei Ascend 910B และ Moore Threads
    ทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่าชิปรุ่น H20 และ RTX 6000 Pro

    สหรัฐฯ มีมาตรการควบคุมการส่งออกชิป AI ไปยังจีน
    โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง
    หวั่นว่าจะถูกนำไปใช้ในงานด้านการทหารหรือเทคโนโลยีอ่อนไหว

    บริษัทจีนยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้
    แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลต่อการพัฒนา AI ในระยะยาว

    คำเตือนเกี่ยวกับผลกระทบต่ออุตสาหกรรม AI ในจีน
    การจำกัดการเข้าถึงชิปอาจทำให้การพัฒนาเทคโนโลยีล่าช้า
    อาจกระทบต่อการแข่งขันระดับโลกในด้าน AI และการประมวลผลขั้นสูง
    บริษัทจีนอาจต้องลงทุนเพิ่มในการพัฒนาเทคโนโลยีภายในประเทศ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/china-bans-its-biggest-tech-companies-from-acquiring-nvidia-chips-says-report-beijing-claims-its-homegrown-ai-processors-now-match-h20-and-rtx-pro-6000d
    📰 จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia — ผลักดันใช้โปรเซสเซอร์ในประเทศแทน ในความเคลื่อนไหวที่สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีน ล่าสุดมีรายงานว่า รัฐบาลจีนได้สั่งห้ามบริษัทเทคโนโลยีรายใหญ่ของประเทศ เช่น Alibaba, ByteDance, Baidu และ Tencent ทำการจัดซื้อชิป AI จาก Nvidia แม้จะเป็นรุ่นที่ออกแบบมาเฉพาะสำหรับตลาดจีนอย่าง H800 และ A800 ก็ตาม คำสั่งนี้มีเป้าหมายเพื่อผลักดันให้บริษัทจีนหันมาใช้โปรเซสเซอร์ที่ผลิตภายในประเทศ เช่น Huawei Ascend 910B และ Moore Threads ซึ่งทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่ากับชิปรุ่น H20 และ RTX 6000 Pro ของ Nvidia การตัดสินใจนี้เกิดขึ้นหลังจากสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ไปยังจีน โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ซึ่งอาจนำไปใช้ในงานด้านการทหารหรือการพัฒนาเทคโนโลยีที่อ่อนไหว แม้บริษัทจีนจะยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลกระทบต่อการพัฒนา AI และการประมวลผลขั้นสูงในระยะยาว ✅ จีนสั่งห้ามบริษัทเทคโนโลยีรายใหญ่ซื้อชิป AI จาก Nvidia ➡️ รวมถึงชิปรุ่น H800 และ A800 ที่ออกแบบมาเฉพาะสำหรับตลาดจีน ➡️ บริษัทที่ได้รับผลกระทบ ได้แก่ Alibaba, ByteDance, Baidu และ Tencent ✅ ผลักดันให้ใช้โปรเซสเซอร์ที่ผลิตในประเทศ ➡️ เช่น Huawei Ascend 910B และ Moore Threads ➡️ ทางการจีนอ้างว่ามีประสิทธิภาพเทียบเท่าชิปรุ่น H20 และ RTX 6000 Pro ✅ สหรัฐฯ มีมาตรการควบคุมการส่งออกชิป AI ไปยังจีน ➡️ โดยเฉพาะชิปรุ่นใหม่ที่มีความสามารถสูง ➡️ หวั่นว่าจะถูกนำไปใช้ในงานด้านการทหารหรือเทคโนโลยีอ่อนไหว ✅ บริษัทจีนยังสามารถเข้าถึงชิปรุ่นเก่าของ Nvidia ได้ ➡️ แต่การห้ามซื้อชิปรุ่นใหม่อาจส่งผลต่อการพัฒนา AI ในระยะยาว ‼️ คำเตือนเกี่ยวกับผลกระทบต่ออุตสาหกรรม AI ในจีน ⛔ การจำกัดการเข้าถึงชิปอาจทำให้การพัฒนาเทคโนโลยีล่าช้า ⛔ อาจกระทบต่อการแข่งขันระดับโลกในด้าน AI และการประมวลผลขั้นสูง ⛔ บริษัทจีนอาจต้องลงทุนเพิ่มในการพัฒนาเทคโนโลยีภายในประเทศ https://www.tomshardware.com/tech-industry/artificial-intelligence/china-bans-its-biggest-tech-companies-from-acquiring-nvidia-chips-says-report-beijing-claims-its-homegrown-ai-processors-now-match-h20-and-rtx-pro-6000d
    0 ความคิดเห็น 0 การแบ่งปัน 435 มุมมอง 0 รีวิว
  • “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI”

    ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด

    ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด

    OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว

    Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง

    รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก

    แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น

    ข้อมูลสำคัญจากข่าว
    Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด
    Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia
    OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน
    Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้

    สถานการณ์ตลาดและผลกระทบ
    Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39%
    Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92%
    สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก
    จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ

    ข้อมูลเสริมจากภายนอก
    AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน
    การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง
    การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี
    สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด

    https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    🔒 “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI” ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น ✅ ข้อมูลสำคัญจากข่าว ➡️ Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด ➡️ Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia ➡️ OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน ➡️ Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้ ✅ สถานการณ์ตลาดและผลกระทบ ➡️ Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39% ➡️ Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92% ➡️ สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก ➡️ จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ ✅ ข้อมูลเสริมจากภายนอก ➡️ AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน ➡️ การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง ➡️ การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี ➡️ สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    0 ความคิดเห็น 0 การแบ่งปัน 376 มุมมอง 0 รีวิว
Pages Boosts