• ท.เขมรรันทด ที่พึ่งสุดท้าย บริกรรมคาถาป้องกัน F-16 (23/9/68)

    #ThaiTimes
    #News1
    #News1short
    #TruthFromThailand
    #shorts
    #เขมร
    #F16
    #ชายแดนไทย
    #scambodia
    ท.เขมรรันทด ที่พึ่งสุดท้าย บริกรรมคาถาป้องกัน F-16 (23/9/68) #ThaiTimes #News1 #News1short #TruthFromThailand #shorts #เขมร #F16 #ชายแดนไทย #scambodia
    0 ความคิดเห็น 0 การแบ่งปัน 42 มุมมอง 0 0 รีวิว
  • Anthropic เปิดเบื้องหลัง 3 บั๊กใหญ่ที่ทำให้ Claude ตอบผิดเพี้ยน — เมื่อ AI ไม่ได้ “เนิร์ฟ” แต่โครงสร้างพื้นฐานพัง

    ระหว่างเดือนสิงหาคมถึงต้นกันยายน 2025 ผู้ใช้ Claude หลายคนเริ่มสังเกตว่าคุณภาพการตอบกลับของโมเดลลดลงอย่างผิดปกติ บางคนได้รับคำตอบที่แปลกประหลาด เช่นมีตัวอักษรไทยโผล่กลางข้อความภาษาอังกฤษ หรือโค้ดที่ผิดไวยากรณ์อย่างชัดเจน จนเกิดข้อสงสัยว่า Anthropic กำลัง “ลดคุณภาพ” ของโมเดลเพื่อจัดการกับโหลดหรือควบคุมต้นทุน

    แต่ล่าสุด Anthropic ได้ออกมาเปิดเผยอย่างตรงไปตรงมาว่า ปัญหาทั้งหมดเกิดจาก “บั๊กในโครงสร้างพื้นฐาน” ไม่ใช่การลดคุณภาพโดยเจตนา โดยมีทั้งหมด 3 บั๊กที่เกิดขึ้นพร้อมกันและส่งผลกระทบต่อโมเดล Claude หลายรุ่น ได้แก่ Sonnet 4, Opus 4.1, Haiku 3.5 และ Opus 3

    บั๊กแรกคือการ “ส่งคำขอผิดเซิร์ฟเวอร์” โดยคำขอที่ควรใช้ context window แบบสั้น กลับถูกส่งไปยังเซิร์ฟเวอร์ที่เตรียมไว้สำหรับ context window ขนาด 1 ล้านโทเคน ซึ่งยังไม่พร้อมใช้งาน ทำให้การตอบกลับผิดเพี้ยนและช้า โดยเฉพาะในช่วงปลายเดือนสิงหาคมที่มีการเปลี่ยนแปลงระบบ load balancing ทำให้คำขอผิดพลาดเพิ่มขึ้นถึง 16%

    บั๊กที่สองคือ “การสร้างโทเคนผิดพลาด” บนเซิร์ฟเวอร์ TPU ซึ่งเกิดจากการปรับแต่งประสิทธิภาพที่ทำให้โมเดลเลือกโทเคนที่ไม่ควรปรากฏ เช่น ตัวอักษรจีนหรือไทยในคำตอบภาษาอังกฤษ หรือโค้ดที่มี syntax ผิดอย่างชัดเจน

    บั๊กสุดท้ายคือ “การคอมไพล์ผิดพลาดใน XLA:TPU” ซึ่งเกิดจากการใช้การคำนวณแบบ approximate top-k ที่ควรช่วยเพิ่มประสิทธิภาพ แต่กลับทำให้โมเดลเลือกโทเคนผิด โดยเฉพาะเมื่อใช้ precision ที่ไม่ตรงกันระหว่าง bf16 และ fp32 ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออกไปโดยไม่ตั้งใจ

    Anthropic ได้แก้ไขบั๊กทั้งหมดแล้ว และประกาศแผนปรับปรุงระบบตรวจสอบคุณภาพให้ละเอียดขึ้น รวมถึงพัฒนาเครื่องมือ debug ที่ไม่ละเมิดความเป็นส่วนตัวของผู้ใช้ พร้อมขอความร่วมมือจากผู้ใช้ให้ส่ง feedback เมื่อพบปัญหา เพื่อช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น

    Claude ตอบผิดเพี้ยนจาก 3 บั๊กในโครงสร้างพื้นฐาน
    ไม่ใช่การลดคุณภาพโดยเจตนา
    ส่งผลกระทบต่อหลายรุ่น เช่น Sonnet 4, Opus 4.1, Haiku 3.5

    บั๊กที่ 1: Context window routing error
    คำขอถูกส่งไปยังเซิร์ฟเวอร์ที่ใช้ context window 1M โดยผิดพลาด
    ส่งผลให้คำตอบผิดเพี้ยน โดยเฉพาะช่วงปลายเดือนสิงหาคม

    บั๊กที่ 2: Output corruption บน TPU
    โทเคนที่ไม่ควรปรากฏถูกเลือก เช่น “สวัสดี” ในคำตอบภาษาอังกฤษ
    เกิดจากการปรับแต่งประสิทธิภาพที่ผิดพลาด

    บั๊กที่ 3: XLA:TPU miscompilation
    การใช้ approximate top-k ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออก
    เกิดจาก precision mismatch ระหว่าง bf16 และ fp32

    Anthropic แก้ไขบั๊กทั้งหมดแล้ว
    ปรับ routing logic / rollback การเปลี่ยนแปลง / ใช้ exact top-k แทน
    เพิ่มการตรวจสอบคุณภาพและเครื่องมือ debug ใหม่

    ผู้ใช้สามารถช่วยแจ้งปัญหาได้โดยใช้ /bug หรือปุ่ม thumbs down
    Feedback จากผู้ใช้ช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น
    Anthropic ยืนยันความโปร่งใสและขอบคุณชุมชนที่ช่วยเหลือ

    https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues
    📰 Anthropic เปิดเบื้องหลัง 3 บั๊กใหญ่ที่ทำให้ Claude ตอบผิดเพี้ยน — เมื่อ AI ไม่ได้ “เนิร์ฟ” แต่โครงสร้างพื้นฐานพัง ระหว่างเดือนสิงหาคมถึงต้นกันยายน 2025 ผู้ใช้ Claude หลายคนเริ่มสังเกตว่าคุณภาพการตอบกลับของโมเดลลดลงอย่างผิดปกติ บางคนได้รับคำตอบที่แปลกประหลาด เช่นมีตัวอักษรไทยโผล่กลางข้อความภาษาอังกฤษ หรือโค้ดที่ผิดไวยากรณ์อย่างชัดเจน จนเกิดข้อสงสัยว่า Anthropic กำลัง “ลดคุณภาพ” ของโมเดลเพื่อจัดการกับโหลดหรือควบคุมต้นทุน แต่ล่าสุด Anthropic ได้ออกมาเปิดเผยอย่างตรงไปตรงมาว่า ปัญหาทั้งหมดเกิดจาก “บั๊กในโครงสร้างพื้นฐาน” ไม่ใช่การลดคุณภาพโดยเจตนา โดยมีทั้งหมด 3 บั๊กที่เกิดขึ้นพร้อมกันและส่งผลกระทบต่อโมเดล Claude หลายรุ่น ได้แก่ Sonnet 4, Opus 4.1, Haiku 3.5 และ Opus 3 บั๊กแรกคือการ “ส่งคำขอผิดเซิร์ฟเวอร์” โดยคำขอที่ควรใช้ context window แบบสั้น กลับถูกส่งไปยังเซิร์ฟเวอร์ที่เตรียมไว้สำหรับ context window ขนาด 1 ล้านโทเคน ซึ่งยังไม่พร้อมใช้งาน ทำให้การตอบกลับผิดเพี้ยนและช้า โดยเฉพาะในช่วงปลายเดือนสิงหาคมที่มีการเปลี่ยนแปลงระบบ load balancing ทำให้คำขอผิดพลาดเพิ่มขึ้นถึง 16% บั๊กที่สองคือ “การสร้างโทเคนผิดพลาด” บนเซิร์ฟเวอร์ TPU ซึ่งเกิดจากการปรับแต่งประสิทธิภาพที่ทำให้โมเดลเลือกโทเคนที่ไม่ควรปรากฏ เช่น ตัวอักษรจีนหรือไทยในคำตอบภาษาอังกฤษ หรือโค้ดที่มี syntax ผิดอย่างชัดเจน บั๊กสุดท้ายคือ “การคอมไพล์ผิดพลาดใน XLA:TPU” ซึ่งเกิดจากการใช้การคำนวณแบบ approximate top-k ที่ควรช่วยเพิ่มประสิทธิภาพ แต่กลับทำให้โมเดลเลือกโทเคนผิด โดยเฉพาะเมื่อใช้ precision ที่ไม่ตรงกันระหว่าง bf16 และ fp32 ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออกไปโดยไม่ตั้งใจ Anthropic ได้แก้ไขบั๊กทั้งหมดแล้ว และประกาศแผนปรับปรุงระบบตรวจสอบคุณภาพให้ละเอียดขึ้น รวมถึงพัฒนาเครื่องมือ debug ที่ไม่ละเมิดความเป็นส่วนตัวของผู้ใช้ พร้อมขอความร่วมมือจากผู้ใช้ให้ส่ง feedback เมื่อพบปัญหา เพื่อช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น ✅ Claude ตอบผิดเพี้ยนจาก 3 บั๊กในโครงสร้างพื้นฐาน ➡️ ไม่ใช่การลดคุณภาพโดยเจตนา ➡️ ส่งผลกระทบต่อหลายรุ่น เช่น Sonnet 4, Opus 4.1, Haiku 3.5 ✅ บั๊กที่ 1: Context window routing error ➡️ คำขอถูกส่งไปยังเซิร์ฟเวอร์ที่ใช้ context window 1M โดยผิดพลาด ➡️ ส่งผลให้คำตอบผิดเพี้ยน โดยเฉพาะช่วงปลายเดือนสิงหาคม ✅ บั๊กที่ 2: Output corruption บน TPU ➡️ โทเคนที่ไม่ควรปรากฏถูกเลือก เช่น “สวัสดี” ในคำตอบภาษาอังกฤษ ➡️ เกิดจากการปรับแต่งประสิทธิภาพที่ผิดพลาด ✅ บั๊กที่ 3: XLA:TPU miscompilation ➡️ การใช้ approximate top-k ทำให้โทเคนที่ควรมีโอกาสสูงสุดถูกตัดออก ➡️ เกิดจาก precision mismatch ระหว่าง bf16 และ fp32 ✅ Anthropic แก้ไขบั๊กทั้งหมดแล้ว ➡️ ปรับ routing logic / rollback การเปลี่ยนแปลง / ใช้ exact top-k แทน ➡️ เพิ่มการตรวจสอบคุณภาพและเครื่องมือ debug ใหม่ ✅ ผู้ใช้สามารถช่วยแจ้งปัญหาได้โดยใช้ /bug หรือปุ่ม thumbs down ➡️ Feedback จากผู้ใช้ช่วยให้ทีมงานตรวจสอบได้เร็วขึ้น ➡️ Anthropic ยืนยันความโปร่งใสและขอบคุณชุมชนที่ช่วยเหลือ https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues
    WWW.ANTHROPIC.COM
    A postmortem of three recent issues
    This is a technical report on three bugs that intermittently degraded responses from Claude. Below we explain what happened, why it took time to fix, and what we're changing.
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • ไทย-เขมร เห็นชอบถอนอาวุธหนัก คนไทยไม่ต้องกลัว ทอ.ไม่ถอน F16 กริพเพน เพราะจัดเป็นอาวุธเบา
    ลอยได้ ลอยไวไข่ก็ลอยแม่น
    #คิงส์โพธิ์แดง
    ไทย-เขมร เห็นชอบถอนอาวุธหนัก คนไทยไม่ต้องกลัว ทอ.ไม่ถอน F16 กริพเพน เพราะจัดเป็นอาวุธเบา ลอยได้ ลอยไวไข่ก็ลอยแม่น #คิงส์โพธิ์แดง
    Like
    Love
    2
    0 ความคิดเห็น 0 การแบ่งปัน 135 มุมมอง 0 รีวิว
  • “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!”

    ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด

    SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center

    X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ

    ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน

    SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด

    การเปิดตัว IP ใหม่ของ SiFive
    เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM
    X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT
    X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน
    รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว

    จุดเด่นด้านเทคโนโลยี
    XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่
    Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar
    รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions
    มี memory subsystem ที่ลด latency และเพิ่ม throughput

    การใช้งานในโลกจริง
    X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ
    X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s
    ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก
    ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor

    ข้อมูลเสริมจากภายนอก
    Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้
    SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ
    IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026
    SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara

    คำเตือนสำหรับผู้พัฒนาและองค์กร
    IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์
    การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ
    การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX
    หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่
    การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน

    https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    🧠 “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!” ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด ✅ การเปิดตัว IP ใหม่ของ SiFive ➡️ เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM ➡️ X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT ➡️ X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน ➡️ รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว ✅ จุดเด่นด้านเทคโนโลยี ➡️ XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่ ➡️ Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar ➡️ รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions ➡️ มี memory subsystem ที่ลด latency และเพิ่ม throughput ✅ การใช้งานในโลกจริง ➡️ X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ ➡️ X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s ➡️ ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก ➡️ ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor ✅ ข้อมูลเสริมจากภายนอก ➡️ Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้ ➡️ SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ ➡️ IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026 ➡️ SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara ‼️ คำเตือนสำหรับผู้พัฒนาและองค์กร ⛔ IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์ ⛔ การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ ⛔ การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX ⛔ หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่ ⛔ การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    WWW.TECHPOWERUP.COM
    SiFive's New RISC-V IP Combines Scalar, Vector and Matrix Compute to Accelerate AI from the Far Edge IoT to the Data Center
    Further expanding SiFive's lead in RISC-V AI IP, the company today launched its 2nd Generation Intelligence family, featuring five new RISC-V-based products designed to accelerate AI workloads across thousands of potential applications. The lineup includes two entirely new products—the X160 Gen 2 an...
    0 ความคิดเห็น 0 การแบ่งปัน 211 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้

    ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์

    ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว

    ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว

    GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์

    สเปกของ Acer Veriton GN100
    ใช้ Nvidia GB10 Grace Blackwell Superchip
    CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725)
    GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP
    RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB

    ความสามารถด้าน AI
    รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง
    ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT
    รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama

    การเชื่อมต่อและการขยาย
    มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1
    เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่
    รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล

    การออกแบบและการใช้งาน
    ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย
    มี Kensington lock สำหรับความปลอดภัย
    ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    🎙️ เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้ ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์ ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์ ✅ สเปกของ Acer Veriton GN100 ➡️ ใช้ Nvidia GB10 Grace Blackwell Superchip ➡️ CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725) ➡️ GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP ➡️ RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB ✅ ความสามารถด้าน AI ➡️ รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง ➡️ ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT ➡️ รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama ✅ การเชื่อมต่อและการขยาย ➡️ มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1 ➡️ เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่ ➡️ รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล ✅ การออกแบบและการใช้งาน ➡️ ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย ➡️ มี Kensington lock สำหรับความปลอดภัย ➡️ ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    WWW.TOMSHARDWARE.COM
    Acer unveils Project Digits supercomputer featuring Nvidia's GB10 superchip with 128GB of LPDDR5x
    Acer joins Asus, Lenovo, and Dell with its third-party Project Digits variation.
    0 ความคิดเห็น 0 การแบ่งปัน 199 มุมมอง 0 รีวิว
  • เหม็นกำหมัดแน่น!!! สื่อกัมพูชางอแง สวีเดนขาย "กริพเพน" ให้ไทย อ้าง "ฮุน เซน" ขอให้ทำสัญญาห้ามไทยใช้เครื่องบินรบ หวั่นซ้ำรอยโจมตีกัมพูชา
    https://www.thai-tai.tv/news/21164/
    .
    #ไทยไท #ฮุนเซน #เครื่องบินขับไล่ #กัมพูชา #กริพเพน #F16 #สวีเดน #สหรัฐอเมริกา #สิทธิมนุษยชน

    เหม็นกำหมัดแน่น!!! สื่อกัมพูชางอแง สวีเดนขาย "กริพเพน" ให้ไทย อ้าง "ฮุน เซน" ขอให้ทำสัญญาห้ามไทยใช้เครื่องบินรบ หวั่นซ้ำรอยโจมตีกัมพูชา https://www.thai-tai.tv/news/21164/ . #ไทยไท #ฮุนเซน #เครื่องบินขับไล่ #กัมพูชา #กริพเพน #F16 #สวีเดน #สหรัฐอเมริกา #สิทธิมนุษยชน
    0 ความคิดเห็น 0 การแบ่งปัน 197 มุมมอง 0 รีวิว
  • กว่าจะเป็นนักบินF16 รุนแรง รวดเร็ว แม่นยำ : คนเคาะข่าว 20-08-68

    ร่วมสนทนา
    -น.อ.อนุดิษฐ์ นาครทรรพ ประธานยุทธศาสตร์พรรคกล้าธรรม
    ดำเนินรายการโดย กรองทอง เศรษฐสุทธิ์

    https://www.youtube.com/watch?v=7_kvVRC-z3E
    กว่าจะเป็นนักบินF16 รุนแรง รวดเร็ว แม่นยำ : คนเคาะข่าว 20-08-68 ร่วมสนทนา -น.อ.อนุดิษฐ์ นาครทรรพ ประธานยุทธศาสตร์พรรคกล้าธรรม ดำเนินรายการโดย กรองทอง เศรษฐสุทธิ์ https://www.youtube.com/watch?v=7_kvVRC-z3E
    Like
    Love
    2
    0 ความคิดเห็น 0 การแบ่งปัน 211 มุมมอง 0 รีวิว
  • ชัยภูมิมีความสำคัญมากในการรบสงครามในครั้งนี้ สมัยใหม่ยุทธวิธีการรบยิ่งมีจุดที่ดีสามารถมีชัยไปก่วาครึ่งแล้ว ภูมิรัฐศาสตร์สงครามสมัยใหม่ภูเขา ที่สูงมองเห็นและโจมตีศัตรูจากมุมที่สูงอย่าคิดว่าไม่สำคัญๆมากๆ#เพราะฉะนั้นประสาทตาควายไทยจึงต้องยึดเป็นฐานที่มั่นให้ได้เขมรมันต้องการลากเส้นจากบนบกลงสู่อ่าวไทย กองทัพเรือจะมีอันตรายถ้าสถานที่นี้ไปอยู่ในมือศัตรู #แม่ทัพภาค2คะเราควรเคลียรทหารถอยออกมาให้พ้นรัศมระเบิดใช้ "F16..ทิ้งระเบิดประสาทตาควายนั้นทิ้งไปพร้อมกับให้พวกมันเฝ้าประสาทให้เราไปด้วยเลยอย่าเอาชีวิตทหารไปเสี่ยงเด็ดขาดไม่ควร เรามี F16&กริฟฟินใช้ให้เป็นประโยชน์ดีก่วาถ้าท่านเกษียนไปใครจะมาคนของมันเราจะไว้ใจได้ไง ทุกจุดที่ยึดมาได้ให้ตั้งกองทหารประจำการถ่ายวีดีโอ&ถาพนิ่งเก็บไว้เป็นหลักฐาน ใครเข้ามาแล้วทำเสียไปอีกจะถือว่ามันขายชาติเป็นกบฎประหารชีวิตอย่างเดียว
    ชัยภูมิมีความสำคัญมากในการรบสงครามในครั้งนี้ สมัยใหม่ยุทธวิธีการรบยิ่งมีจุดที่ดีสามารถมีชัยไปก่วาครึ่งแล้ว ภูมิรัฐศาสตร์สงครามสมัยใหม่ภูเขา ที่สูงมองเห็นและโจมตีศัตรูจากมุมที่สูงอย่าคิดว่าไม่สำคัญๆมากๆ#เพราะฉะนั้นประสาทตาควายไทยจึงต้องยึดเป็นฐานที่มั่นให้ได้เขมรมันต้องการลากเส้นจากบนบกลงสู่อ่าวไทย กองทัพเรือจะมีอันตรายถ้าสถานที่นี้ไปอยู่ในมือศัตรู #แม่ทัพภาค2คะเราควรเคลียรทหารถอยออกมาให้พ้นรัศมระเบิดใช้ "F16..ทิ้งระเบิดประสาทตาควายนั้นทิ้งไปพร้อมกับให้พวกมัน💀เฝ้าประสาทให้เราไปด้วยเลยอย่าเอาชีวิตทหารไปเสี่ยงเด็ดขาดไม่ควร เรามี F16&กริฟฟินใช้ให้เป็นประโยชน์ดีก่วาถ้าท่านเกษียนไปใครจะมาคนของมันเราจะไว้ใจได้ไง ทุกจุดที่ยึดมาได้ให้ตั้งกองทหารประจำการถ่ายวีดีโอ&ถาพนิ่งเก็บไว้เป็นหลักฐาน ใครเข้ามาแล้วทำเสียไปอีกจะถือว่ามันขายชาติเป็นกบฎประหารชีวิตอย่างเดียว
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 312 มุมมอง 0 0 รีวิว
  • "F16-Gripen" ใช้ปกป้องอธิปไตย! "แม่ทัพภาค 2" สวน "ฮุน เซน"...ชี้เป็นเรื่องของเรา...ไม่รับฟังคำขอร้อง
    https://www.thai-tai.tv/news/20802/
    .
    #แม่ทัพภาค2 #ช่องอานม้า #ชายแดนไทยกัมพูชา #ทหารไทย #ความมั่นคง #ฮุนเซน #ไทยไท
    "F16-Gripen" ใช้ปกป้องอธิปไตย! "แม่ทัพภาค 2" สวน "ฮุน เซน"...ชี้เป็นเรื่องของเรา...ไม่รับฟังคำขอร้อง https://www.thai-tai.tv/news/20802/ . #แม่ทัพภาค2 #ช่องอานม้า #ชายแดนไทยกัมพูชา #ทหารไทย #ความมั่นคง #ฮุนเซน #ไทยไท
    0 ความคิดเห็น 0 การแบ่งปัน 150 มุมมอง 0 รีวิว
  • กัมพูชาบิดข้อมูลทุกเรื่องช่วงปะทะกับฝ่ายไทย จนเป็นที่เอือมระอาเจ๊มาลีขึ้นแท่น ขยันปั้นเรื่องเท็จ มาทุกแนวสร้างเรื่องเท็จทั้งเครื่องบินไทยโปรยสารเคมีจนถูกจับโป๊ะเป็นภาพดับไฟป่าในสหรัฐฯ แถมกุเรื่องพบระเบิดอ้างว่ามาจากF16 สภาพสนิม-หลุมลึกฟ้องจนไปต่อไม่เป็นแนวรบออนไลน์ไทยยอมรับ สงครามข่าวฝั่งกัมพูชาเร็วกว่าไทย เหมือนมีทุนรัฐสนับสนุนทุกอย่างมาเป็นชุด ผู้นำ-คนดัง-ยันประชาชนรับลูกไปทางเดียวกันแนะไทยต้องอำนวยความสะดวกด้านข้อมูลต้องเร็วและตรวจสอบง่าย

    อ่านต่อ..https://news1live.com/detail/9680000073014

    #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    กัมพูชาบิดข้อมูลทุกเรื่องช่วงปะทะกับฝ่ายไทย จนเป็นที่เอือมระอาเจ๊มาลีขึ้นแท่น ขยันปั้นเรื่องเท็จ มาทุกแนวสร้างเรื่องเท็จทั้งเครื่องบินไทยโปรยสารเคมีจนถูกจับโป๊ะเป็นภาพดับไฟป่าในสหรัฐฯ แถมกุเรื่องพบระเบิดอ้างว่ามาจากF16 สภาพสนิม-หลุมลึกฟ้องจนไปต่อไม่เป็นแนวรบออนไลน์ไทยยอมรับ สงครามข่าวฝั่งกัมพูชาเร็วกว่าไทย เหมือนมีทุนรัฐสนับสนุนทุกอย่างมาเป็นชุด ผู้นำ-คนดัง-ยันประชาชนรับลูกไปทางเดียวกันแนะไทยต้องอำนวยความสะดวกด้านข้อมูลต้องเร็วและตรวจสอบง่าย อ่านต่อ..https://news1live.com/detail/9680000073014 #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    Like
    4
    0 ความคิดเห็น 0 การแบ่งปัน 507 มุมมอง 0 รีวิว
  • กัมพูชาบิดข้อมูลทุกเรื่องช่วงปะทะกับฝ่ายไทย จนเป็นที่เอือมระอาเจ๊มาลีขึ้นแท่น ขยันปั้นเรื่องเท็จ มาทุกแนวสร้างเรื่องเท็จทั้งเครื่องบินไทยโปรยสารเคมีจนถูกจับโป๊ะเป็นภาพดับไฟป่าในสหรัฐฯ แถมกุเรื่องพบระเบิดอ้างว่ามาจากF16 สภาพสนิม-หลุมลึกฟ้องจนไปต่อไม่เป็นแนวรบออนไลน์ไทยยอมรับ สงครามข่าวฝั่งกัมพูชาเร็วกว่าไทย เหมือนมีทุนรัฐสนับสนุนทุกอย่างมาเป็นชุด ผู้นำ-คนดัง-ยันประชาชนรับลูกไปทางเดียวกันแนะไทยต้องอำนวยความสะดวกด้านข้อมูลต้องเร็วและตรวจสอบง่าย
    .
    อ่านเพิ่มเติม..https://sondhitalk.com/detail/9680000073308

    #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    กัมพูชาบิดข้อมูลทุกเรื่องช่วงปะทะกับฝ่ายไทย จนเป็นที่เอือมระอาเจ๊มาลีขึ้นแท่น ขยันปั้นเรื่องเท็จ มาทุกแนวสร้างเรื่องเท็จทั้งเครื่องบินไทยโปรยสารเคมีจนถูกจับโป๊ะเป็นภาพดับไฟป่าในสหรัฐฯ แถมกุเรื่องพบระเบิดอ้างว่ามาจากF16 สภาพสนิม-หลุมลึกฟ้องจนไปต่อไม่เป็นแนวรบออนไลน์ไทยยอมรับ สงครามข่าวฝั่งกัมพูชาเร็วกว่าไทย เหมือนมีทุนรัฐสนับสนุนทุกอย่างมาเป็นชุด ผู้นำ-คนดัง-ยันประชาชนรับลูกไปทางเดียวกันแนะไทยต้องอำนวยความสะดวกด้านข้อมูลต้องเร็วและตรวจสอบง่าย . อ่านเพิ่มเติม..https://sondhitalk.com/detail/9680000073308 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    Like
    8
    0 ความคิดเห็น 0 การแบ่งปัน 973 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: Huawei CloudMatrix 384—AI ซูเปอร์คลัสเตอร์ที่ท้าชน Nvidia ด้วยพลังแห่งการรวมชิป

    ในงาน World Artificial Intelligence Conference 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นซูเปอร์คลัสเตอร์ AI ที่ประกอบด้วยชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อกันด้วยโครงสร้างแบบ “all-to-all mesh” ผ่านสายออปติกความเร็วสูง

    แม้ชิปแต่ละตัวจะมีประสิทธิภาพต่ำกว่า Nvidia H100 แต่ Huawei ใช้กลยุทธ์ “จำนวนมาก + การออกแบบระบบ” เพื่อชดเชยข้อเสีย และสามารถให้ประสิทธิภาพรวมสูงกว่าระบบ Nvidia GB200 NVL72 ได้ในหลายด้าน เช่น:
    - ความเร็วในการประมวลผล BF16 สูงกว่า 1.7 เท่า
    - ความจุหน่วยความจำสูงกว่า 3.6 เท่า
    - แบนด์วิดธ์หน่วยความจำสูงกว่า 2.1 เท่า

    อย่างไรก็ตาม ระบบนี้ใช้พลังงานมากกว่าถึง 3.9 เท่า และมีประสิทธิภาพต่อวัตต์ต่ำกว่าถึง 2.3 เท่า ซึ่งอาจเป็นข้อจำกัดสำคัญในตลาดโลก แต่สำหรับจีนที่มีแหล่งพลังงานหลากหลายและราคาถูก นี่อาจไม่ใช่ปัญหา

    Huawei เปิดตัวระบบ CloudMatrix 384 ในงาน WAIC 2025 ที่เซี่ยงไฮ้
    ใช้ชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อแบบ all-to-all mesh ด้วยสายออปติก
    ออกแบบมาเพื่อแข่งขันกับ Nvidia GB200 NVL72

    ระบบสามารถประมวลผลได้ถึง 300 PFLOPs แบบ BF16
    สูงกว่า Nvidia GB200 NVL72 ที่ทำได้ 180 PFLOPs
    เหมาะสำหรับงาน inference ของโมเดลขนาดใหญ่

    Ascend 910C มีประสิทธิภาพประมาณ 60% ของ Nvidia H100 ในงาน inference
    ใช้เทคนิค dual-chiplet และหน่วยความจำ HBM2E ขนาด 128 GB
    ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm รุ่นใหม่

    ระบบมีความจุหน่วยความจำรวม 49.2 TB และแบนด์วิดธ์รวม 1229 TB/s
    สูงกว่า Nvidia GB200 NVL72 ถึง 3.6 เท่าในด้านความจุ และ 2.1 เท่าในด้านแบนด์วิดธ์
    รองรับการเชื่อมต่อแบบ scale-out ได้ถึง 165,000 NPU

    ระบบ CloudMatrix 384 ถูกติดตั้งแล้วบน Huawei Cloud และพร้อมใช้งานจริง
    ใช้ในงาน AI training และ inference ระดับองค์กร
    เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีต่างชาติ

    Nvidia GB200 NVL72 ใช้ชิป Grace CPU 36 ตัว และ Blackwell GPU 72 ตัว
    ออกแบบให้ทำงานร่วมกันเป็น “GPU ขนาดยักษ์” สำหรับโมเดลระดับล้านล้านพารามิเตอร์
    มีข้อจำกัดด้านการส่งออกไปยังจีน

    Huawei ใช้สายออปติก 800G LPO จำนวน 6,912 เส้นในการเชื่อมต่อภายในระบบ
    ลด latency และเพิ่ม bandwidth ได้อย่างมหาศาล
    เป็นการออกแบบที่เน้น “ระบบ” มากกว่าชิปเดี่ยว

    DeepSeek AI ใช้ Ascend 910C สำหรับ inference และพบว่าประสิทธิภาพ “เกินคาด”
    ใช้เทคนิคแปลง CUDA เป็น CUNN ด้วยโค้ดเพียงบรรทัดเดียว
    ช่วยลดต้นทุนและลดการพึ่งพา Nvidia

    จีนกำลังผลักดัน ecosystem ด้าน AI แบบครบวงจร ตั้งแต่ชิปถึงโมเดล
    มีการตั้งพันธมิตรระหว่างผู้ผลิตชิปและนักพัฒนา LLM
    เป้าหมายคือสร้างระบบ AI ที่ไม่ต้องพึ่งพาตะวันตก

    ระบบ CloudMatrix 384 ใช้พลังงานมากกว่าระบบ Nvidia ถึง 3.9 เท่า
    ประสิทธิภาพต่อวัตต์ต่ำกว่า Nvidia ถึง 2.3 เท่า
    อาจไม่เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงาน

    ชิป Ascend 910C ยังไม่สามารถเทียบเท่า Nvidia H100 ในงาน training
    เหมาะกับ inference มากกว่า training ที่ต้องใช้ความเสถียรสูง
    ยังขาด ecosystem ด้านซอฟต์แวร์ที่เทียบเท่า CUDA

    ระบบ CloudMatrix ยังไม่มี benchmark สาธารณะหรือการทดสอบจากองค์กรอิสระ
    ข้อมูลส่วนใหญ่มาจาก Huawei และ SemiAnalysis
    ต้องรอการพิสูจน์จากการใช้งานจริงในระยะยาว

    รัฐบาลสหรัฐฯ เตรียมออกมาตรการลงโทษบริษัทที่ใช้ชิป Ascend 910C ทั่วโลก
    อ้างว่าใช้เทคโนโลยีที่มีต้นกำเนิดจากสหรัฐฯ
    อาจส่งผลต่อบริษัทต่างชาติที่ร่วมใช้งานระบบนี้

    https://www.techspot.com/news/108891-huawei-cloudmatrix-384-ai-system-poised-challenge-nvidia.html
    🎙️ เรื่องเล่าจากข่าว: Huawei CloudMatrix 384—AI ซูเปอร์คลัสเตอร์ที่ท้าชน Nvidia ด้วยพลังแห่งการรวมชิป ในงาน World Artificial Intelligence Conference 2025 ที่เซี่ยงไฮ้ Huawei ได้เปิดตัวระบบ CloudMatrix 384 ซึ่งเป็นซูเปอร์คลัสเตอร์ AI ที่ประกอบด้วยชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อกันด้วยโครงสร้างแบบ “all-to-all mesh” ผ่านสายออปติกความเร็วสูง แม้ชิปแต่ละตัวจะมีประสิทธิภาพต่ำกว่า Nvidia H100 แต่ Huawei ใช้กลยุทธ์ “จำนวนมาก + การออกแบบระบบ” เพื่อชดเชยข้อเสีย และสามารถให้ประสิทธิภาพรวมสูงกว่าระบบ Nvidia GB200 NVL72 ได้ในหลายด้าน เช่น: - ความเร็วในการประมวลผล BF16 สูงกว่า 1.7 เท่า - ความจุหน่วยความจำสูงกว่า 3.6 เท่า - แบนด์วิดธ์หน่วยความจำสูงกว่า 2.1 เท่า อย่างไรก็ตาม ระบบนี้ใช้พลังงานมากกว่าถึง 3.9 เท่า และมีประสิทธิภาพต่อวัตต์ต่ำกว่าถึง 2.3 เท่า ซึ่งอาจเป็นข้อจำกัดสำคัญในตลาดโลก แต่สำหรับจีนที่มีแหล่งพลังงานหลากหลายและราคาถูก นี่อาจไม่ใช่ปัญหา ✅ Huawei เปิดตัวระบบ CloudMatrix 384 ในงาน WAIC 2025 ที่เซี่ยงไฮ้ ➡️ ใช้ชิป Ascend 910C จำนวน 384 ตัว เชื่อมต่อแบบ all-to-all mesh ด้วยสายออปติก ➡️ ออกแบบมาเพื่อแข่งขันกับ Nvidia GB200 NVL72 ✅ ระบบสามารถประมวลผลได้ถึง 300 PFLOPs แบบ BF16 ➡️ สูงกว่า Nvidia GB200 NVL72 ที่ทำได้ 180 PFLOPs ➡️ เหมาะสำหรับงาน inference ของโมเดลขนาดใหญ่ ✅ Ascend 910C มีประสิทธิภาพประมาณ 60% ของ Nvidia H100 ในงาน inference ➡️ ใช้เทคนิค dual-chiplet และหน่วยความจำ HBM2E ขนาด 128 GB ➡️ ผลิตโดย SMIC ด้วยเทคโนโลยี 7nm รุ่นใหม่ ✅ ระบบมีความจุหน่วยความจำรวม 49.2 TB และแบนด์วิดธ์รวม 1229 TB/s ➡️ สูงกว่า Nvidia GB200 NVL72 ถึง 3.6 เท่าในด้านความจุ และ 2.1 เท่าในด้านแบนด์วิดธ์ ➡️ รองรับการเชื่อมต่อแบบ scale-out ได้ถึง 165,000 NPU ✅ ระบบ CloudMatrix 384 ถูกติดตั้งแล้วบน Huawei Cloud และพร้อมใช้งานจริง ➡️ ใช้ในงาน AI training และ inference ระดับองค์กร ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ลดการพึ่งพาเทคโนโลยีต่างชาติ ✅ Nvidia GB200 NVL72 ใช้ชิป Grace CPU 36 ตัว และ Blackwell GPU 72 ตัว ➡️ ออกแบบให้ทำงานร่วมกันเป็น “GPU ขนาดยักษ์” สำหรับโมเดลระดับล้านล้านพารามิเตอร์ ➡️ มีข้อจำกัดด้านการส่งออกไปยังจีน ✅ Huawei ใช้สายออปติก 800G LPO จำนวน 6,912 เส้นในการเชื่อมต่อภายในระบบ ➡️ ลด latency และเพิ่ม bandwidth ได้อย่างมหาศาล ➡️ เป็นการออกแบบที่เน้น “ระบบ” มากกว่าชิปเดี่ยว ✅ DeepSeek AI ใช้ Ascend 910C สำหรับ inference และพบว่าประสิทธิภาพ “เกินคาด” ➡️ ใช้เทคนิคแปลง CUDA เป็น CUNN ด้วยโค้ดเพียงบรรทัดเดียว ➡️ ช่วยลดต้นทุนและลดการพึ่งพา Nvidia ✅ จีนกำลังผลักดัน ecosystem ด้าน AI แบบครบวงจร ตั้งแต่ชิปถึงโมเดล ➡️ มีการตั้งพันธมิตรระหว่างผู้ผลิตชิปและนักพัฒนา LLM ➡️ เป้าหมายคือสร้างระบบ AI ที่ไม่ต้องพึ่งพาตะวันตก ‼️ ระบบ CloudMatrix 384 ใช้พลังงานมากกว่าระบบ Nvidia ถึง 3.9 เท่า ⛔ ประสิทธิภาพต่อวัตต์ต่ำกว่า Nvidia ถึง 2.3 เท่า ⛔ อาจไม่เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงาน ‼️ ชิป Ascend 910C ยังไม่สามารถเทียบเท่า Nvidia H100 ในงาน training ⛔ เหมาะกับ inference มากกว่า training ที่ต้องใช้ความเสถียรสูง ⛔ ยังขาด ecosystem ด้านซอฟต์แวร์ที่เทียบเท่า CUDA ‼️ ระบบ CloudMatrix ยังไม่มี benchmark สาธารณะหรือการทดสอบจากองค์กรอิสระ ⛔ ข้อมูลส่วนใหญ่มาจาก Huawei และ SemiAnalysis ⛔ ต้องรอการพิสูจน์จากการใช้งานจริงในระยะยาว ‼️ รัฐบาลสหรัฐฯ เตรียมออกมาตรการลงโทษบริษัทที่ใช้ชิป Ascend 910C ทั่วโลก ⛔ อ้างว่าใช้เทคโนโลยีที่มีต้นกำเนิดจากสหรัฐฯ ⛔ อาจส่งผลต่อบริษัทต่างชาติที่ร่วมใช้งานระบบนี้ https://www.techspot.com/news/108891-huawei-cloudmatrix-384-ai-system-poised-challenge-nvidia.html
    WWW.TECHSPOT.COM
    Huawei's CloudMatrix 384 could outpace Nvidia in the AI race, study suggests
    As newly appointed US tech czar David Sacks predicted just a month ago, Trump's tariffs appear to be backfiring in spectacular fashion. Chinese tech giant Huawei is...
    0 ความคิดเห็น 0 การแบ่งปัน 392 มุมมอง 0 รีวิว
  • ทัพฟ้าไทยโชว์ศักยภาพ! F-16 & Gripen ถล่มคลังอาวุธเขมร ปูทางเจรจา ยืนยันป้องชาติถูกกฎหมายสากล
    https://www.thai-tai.tv/news/20609/
    .
    #กองทัพอากาศ #ทัพฟ้าปกป้องชาติ #F16 #Gripen #ชายแดนไทยกัมพูชา #อธิปไตยไทย #สันติภาพ #ไทยไท
    ทัพฟ้าไทยโชว์ศักยภาพ! F-16 & Gripen ถล่มคลังอาวุธเขมร ปูทางเจรจา ยืนยันป้องชาติถูกกฎหมายสากล https://www.thai-tai.tv/news/20609/ . #กองทัพอากาศ #ทัพฟ้าปกป้องชาติ #F16 #Gripen #ชายแดนไทยกัมพูชา #อธิปไตยไทย #สันติภาพ #ไทยไท
    0 ความคิดเห็น 0 การแบ่งปัน 224 มุมมอง 0 รีวิว
  • กองทัพอากาศไทย ส่งเครื่อง F16 และ Gripen บินทิ้งระเบิดถล่มปืนใหญ่ BM21 ฐานทหารเขมร ที่ปราสาทตาควาย-ตาเมือนธม หลังเขมรไม่สนใดๆ ยิงทำลายปราสาท โบราณสถาน หวังโจมตีทหารไทย

    อ่านต่อ..https://news1live.com/detail/9680000070889

    #News1Feed #News1 #Sondhitalk #คุยทุกเรื่องกับสนธิ #Thaitimes
    กองทัพอากาศไทย ส่งเครื่อง F16 และ Gripen บินทิ้งระเบิดถล่มปืนใหญ่ BM21 ฐานทหารเขมร ที่ปราสาทตาควาย-ตาเมือนธม หลังเขมรไม่สนใดๆ ยิงทำลายปราสาท โบราณสถาน หวังโจมตีทหารไทย อ่านต่อ..https://news1live.com/detail/9680000070889 #News1Feed #News1 #Sondhitalk #คุยทุกเรื่องกับสนธิ #Thaitimes
    Like
    Love
    5
    2 ความคิดเห็น 0 การแบ่งปัน 583 มุมมอง 1 รีวิว
  • ทอ.ปฏิเสธลั่น! ไทยไม่ใช้ F-16 โจมตีพลเรือน ซัดกัมพูชาบิดเบือนหวังผลการเมือง แฉกลับใช้ "โล่มนุษย์"
    https://www.thai-tai.tv/news/20554/
    .
    #กองทัพอากาศ #F16 #ข่าวบิดเบือน #HumanShields #ชายแดนไทยกัมพูชา #SelfDefense #InternationalLaw #PrecisionStrike #BM21 #ความมั่นคง
    ทอ.ปฏิเสธลั่น! ไทยไม่ใช้ F-16 โจมตีพลเรือน ซัดกัมพูชาบิดเบือนหวังผลการเมือง แฉกลับใช้ "โล่มนุษย์" https://www.thai-tai.tv/news/20554/ . #กองทัพอากาศ #F16 #ข่าวบิดเบือน #HumanShields #ชายแดนไทยกัมพูชา #SelfDefense #InternationalLaw #PrecisionStrike #BM21 #ความมั่นคง
    0 ความคิดเห็น 0 การแบ่งปัน 294 มุมมอง 0 รีวิว
  • กัมพูชาแถลงการณ์! กล่าวหาไทยเปิดฉากโจมตี-ใช้ F-16 ถล่มพลเรือน ชี้ "ละเมิดอธิปไตยร้ายแรง"
    https://www.thai-tai.tv/news/20553/
    .
    #กระทรวงกลาโหมกัมพูชา #ชายแดนไทยกัมพูชา #แถลงการณ์กัมพูชา #ละเมิดกฎหมายระหว่างประเทศ #อาชญากรรมสงคราม #F16 #ระเบิดคลัสเตอร์ #ปราสาทพระวิหาร #กฎอัยการศึก #UNSC #ASEAN #จักรพงษ์ภูวนารถ
    กัมพูชาแถลงการณ์! กล่าวหาไทยเปิดฉากโจมตี-ใช้ F-16 ถล่มพลเรือน ชี้ "ละเมิดอธิปไตยร้ายแรง" https://www.thai-tai.tv/news/20553/ . #กระทรวงกลาโหมกัมพูชา #ชายแดนไทยกัมพูชา #แถลงการณ์กัมพูชา #ละเมิดกฎหมายระหว่างประเทศ #อาชญากรรมสงคราม #F16 #ระเบิดคลัสเตอร์ #ปราสาทพระวิหาร #กฎอัยการศึก #UNSC #ASEAN #จักรพงษ์ภูวนารถ
    0 ความคิดเห็น 0 การแบ่งปัน 428 มุมมอง 0 รีวิว
  • เดี๋ยวนะ ท.ขะแมร์หนี F-16 นะเข้าใจ แต่นายคือต้องอมอะไรก่อน? [25/7/68]

    #ทหารขะแมร์หนีF16
    #F16ไทยบินเหนือฟ้า
    #อมอะไรก่อนนาย
    #ขะแมร์แตกฮือ
    #มุกแรงแนวหน้าชายแดน
    #ข่าวทหารฮาไม่ไหว
    #หนีF16ยังไงให้ฮา
    #แนวหน้าชายแดน
    #ThaiAirForcePower
    #กัมพูชายิงก่อน
    #柬埔寨先开火 (จีน)
    #カンボジアが先に発砲 (ญี่ปุ่น)
    #캄보디아가먼저발포 (เกาหลี)
    #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด
    #CambodiaOpenedFire
    #thaitimes
    #news1
    #shorts
    เดี๋ยวนะ ท.ขะแมร์หนี F-16 นะเข้าใจ แต่นายคือต้องอมอะไรก่อน? [25/7/68] #ทหารขะแมร์หนีF16 #F16ไทยบินเหนือฟ้า #อมอะไรก่อนนาย #ขะแมร์แตกฮือ #มุกแรงแนวหน้าชายแดน #ข่าวทหารฮาไม่ไหว #หนีF16ยังไงให้ฮา #แนวหน้าชายแดน #ThaiAirForcePower #กัมพูชายิงก่อน #柬埔寨先开火 (จีน) #カンボジアが先に発砲 (ญี่ปุ่น) #캄보디아가먼저발포 (เกาหลี) #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #thaitimes #news1 #shorts
    0 ความคิดเห็น 0 การแบ่งปัน 315 มุมมอง 0 0 รีวิว
  • กองทัพอากาศส่งเครื่องบิน F16 บินปฏิบัติการ BAI Battlefield Air Interdiction ขัดขวางทางอากาศในพื้นที่ยุทธบริเวณ 2 ระลอก ที่ภูมะเขือและหลังแนวเขาพระวิหารศรีสะเกษ จ. เพิ่อตัดกำลังในการยิงปืนใหญ่-จรวด BM21 ใส่ประชาชนไทย ก่อนบิน กลับฐานปลอดภัย

    อ่านต่อ..https://news1live.com/detail/9680000070281

    #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes
    กองทัพอากาศส่งเครื่องบิน F16 บินปฏิบัติการ BAI Battlefield Air Interdiction ขัดขวางทางอากาศในพื้นที่ยุทธบริเวณ 2 ระลอก ที่ภูมะเขือและหลังแนวเขาพระวิหารศรีสะเกษ จ. เพิ่อตัดกำลังในการยิงปืนใหญ่-จรวด BM21 ใส่ประชาชนไทย ก่อนบิน กลับฐานปลอดภัย อ่านต่อ..https://news1live.com/detail/9680000070281 #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes
    Like
    Love
    7
    0 ความคิดเห็น 0 การแบ่งปัน 692 มุมมอง 0 รีวิว
  • อึ้งทั้งโลก!!! 'เขมร' แถลงผลรบวันแรก ยันคุมได้หมด ปราสาทตาเมือนธม-ตาควาย-ช่องบก ขับไล่ผู้รุกรานออกจากพื้นที่
    https://www.thai-tai.tv/news/20513/
    .
    #ชายแดนไทยกัมพูชา #กัมพูชายิงก่อน #มาลีโสเจียตา #โฆษกกลาโหมกัมพูชา #ปราสาทตาเมือนธม #ปราสาทตาควาย #ช่องบก #F16 #สงครามชายแดน #อุดรมีชัย #พระวิหาร
    อึ้งทั้งโลก!!! 'เขมร' แถลงผลรบวันแรก ยันคุมได้หมด ปราสาทตาเมือนธม-ตาควาย-ช่องบก ขับไล่ผู้รุกรานออกจากพื้นที่ https://www.thai-tai.tv/news/20513/ . #ชายแดนไทยกัมพูชา #กัมพูชายิงก่อน #มาลีโสเจียตา #โฆษกกลาโหมกัมพูชา #ปราสาทตาเมือนธม #ปราสาทตาควาย #ช่องบก #F16 #สงครามชายแดน #อุดรมีชัย #พระวิหาร
    0 ความคิดเห็น 0 การแบ่งปัน 232 มุมมอง 0 รีวิว
  • กองทัพบกยันไทยโต้กลับชอบธรรม! "โฆษก ทบ." ชี้กัมพูชายิงก่อน-ละเมิดหลักสากล ย้ำ F-16 โจมตีเป้าหมายทหารเท่านั้น
    https://www.thai-tai.tv/news/20506/
    .
    #กองทัพบก #วินธัยสุวารี #ชายแดนไทยกัมพูชา #กัมพูชายิงก่อน #กฎบัตรสหประชาชาติ #F16 #เป้าหมายทหาร #พลเรือน #ปราสาทตาเมือนธม #ความมั่นคงแห่งชาติ
    กองทัพบกยันไทยโต้กลับชอบธรรม! "โฆษก ทบ." ชี้กัมพูชายิงก่อน-ละเมิดหลักสากล ย้ำ F-16 โจมตีเป้าหมายทหารเท่านั้น https://www.thai-tai.tv/news/20506/ . #กองทัพบก #วินธัยสุวารี #ชายแดนไทยกัมพูชา #กัมพูชายิงก่อน #กฎบัตรสหประชาชาติ #F16 #เป้าหมายทหาร #พลเรือน #ปราสาทตาเมือนธม #ความมั่นคงแห่งชาติ
    0 ความคิดเห็น 0 การแบ่งปัน 227 มุมมอง 0 รีวิว
  • ชมคลิป! F-16 ทอ.ไทย "ทิ้งไข่" ถล่มฐานทัพกัมพูชาอย่างแม่นยำ
    https://www.thai-tai.tv/news/20505/
    .
    #F16 #กองทัพอากาศไทย #ทิ้งไข่ #โจมตีทางอากาศ #ชายแดนไทยกัมพูชา #ปฏิบัติการทางทหาร #ความมั่นคง #กัมพูชา #คลิปเด็ด
    ชมคลิป! F-16 ทอ.ไทย "ทิ้งไข่" ถล่มฐานทัพกัมพูชาอย่างแม่นยำ https://www.thai-tai.tv/news/20505/ . #F16 #กองทัพอากาศไทย #ทิ้งไข่ #โจมตีทางอากาศ #ชายแดนไทยกัมพูชา #ปฏิบัติการทางทหาร #ความมั่นคง #กัมพูชา #คลิปเด็ด
    0 ความคิดเห็น 0 การแบ่งปัน 273 มุมมอง 0 รีวิว
  • จีนแสดง "กังวลอย่างยิ่ง" ต่อสถานการณ์ชายแดนไทย-กัมพูชา เรียกร้องเจรจาสันติวิธี
    https://www.thai-tai.tv/news/20504/
    .
    #ชายแดนไทยกัมพูชา #จีนกังวล #เจรจาสันติวิธี #สามเหลี่ยมมรกต #ความสัมพันธ์ระหว่างประเทศ #F16 #ปะ

    จีนแสดง "กังวลอย่างยิ่ง" ต่อสถานการณ์ชายแดนไทย-กัมพูชา เรียกร้องเจรจาสันติวิธี https://www.thai-tai.tv/news/20504/ . #ชายแดนไทยกัมพูชา #จีนกังวล #เจรจาสันติวิธี #สามเหลี่ยมมรกต #ความสัมพันธ์ระหว่างประเทศ #F16 #ปะ
    0 ความคิดเห็น 0 การแบ่งปัน 187 มุมมอง 0 รีวิว
  • กองทัพอากาศไทยสยบข่าวลือ! ยัน F-16 กลับฐานครบ ปลอดภัยทุกลำ หลังปฏิบัติการ "ทิ้งไข่" ถล่ม บก.กัมพูชา
    https://www.thai-tai.tv/news/20487/
    .
    #FakeNews #กองทัพอากาศไทย #F16 #ชายแดนไทยกัมพูชา #ข่าวปลอม #ปฏิบัติการตอบโต้ #ความมั่นคง #ข่าวจริง

    กองทัพอากาศไทยสยบข่าวลือ! ยัน F-16 กลับฐานครบ ปลอดภัยทุกลำ หลังปฏิบัติการ "ทิ้งไข่" ถล่ม บก.กัมพูชา https://www.thai-tai.tv/news/20487/ . #FakeNews #กองทัพอากาศไทย #F16 #ชายแดนไทยกัมพูชา #ข่าวปลอม #ปฏิบัติการตอบโต้ #ความมั่นคง #ข่าวจริง
    0 ความคิดเห็น 0 การแบ่งปัน 213 มุมมอง 0 รีวิว
  • เพราะโดนสหรัฐแบนชิปแรง ๆ อย่าง H100 ทำให้ Huawei ต้องหาทางอื่นที่จะสู้ในสนาม AI — เขาเลยเอากลยุทธ์ “ใช้เยอะเข้าไว้” หรือที่เรียกว่า Brute Force Scaling มาใช้ สร้างเป็นคลัสเตอร์ชื่อ CloudMatrix 384 (CM384)

    ไอ้เจ้าตัวนี้คือการรวมพลัง 384 ชิป Ascend 910C (ของ Huawei เอง) กับ CPU อีก 192 ตัว กระจายอยู่ใน 16 rack server แล้วเชื่อมต่อด้วยสายไฟเบอร์ออปติกหมดทุกตัว เพื่อทำให้ interconnect ภายในเร็วแบบสุด ๆ

    เมื่อรันโมเดล LLM อย่าง DeepSeek R1 (ขนาด 671B พารามิเตอร์) ที่เป็นรุ่นเดียวกับที่ใช้ทดสอบ NVIDIA GB200 NVL72 — ปรากฏว่า CM384 สร้าง token ได้มากกว่า ทั้งในตอน generate และ prefill และมีประสิทธิภาพระดับ 300 PFLOPs (BF16) เทียบกับ 180 PFLOPs ของ GB200

    แต่…มันแลกมาด้วยพลังงานระดับ “กินไฟพอๆ กับอาคารทั้งหลัง” — CM384 ใช้ไฟถึง 559 kW เทียบกับ NVIDIA GB200 NVL72 ที่ใช้ 145 kW เท่านั้น เรียกว่าแรงจริงแต่เปลืองไฟมากกว่า 4 เท่า

    Huawei เปิดตัวซูเปอร์คลัสเตอร์ CloudMatrix 384 ใช้ NPU Ascend 910C รวม 384 ตัว  
    • เชื่อมต่อด้วยสายออปติกทั้งหมด ลด latency ระหว่าง node  
    • ใช้ CPU เสริม 192 ตัวในโครงสร้าง 16 rack

    CM384 รันโมเดล DeepSeek R1 ได้เร็วกว่า NVIDIA H800 และ H100  
    • มี performance สูงถึง 300 PFLOPs (BF16)  
    • เมื่อเทียบกับ NVIDIA GB200 NVL72 ที่ให้ 180 PFLOPs

    ซอฟต์แวร์ CloudMatrix-Infer มีประสิทธิภาพสูงกว่า NVIDIA SGLang ในงาน LLM  
    • สร้าง token ได้เร็วขึ้น ทั้งตอน prefill และ generate  
    • เหมาะกับงาน AI inferencing ขนาดใหญ่มาก

    CM384 ออกแบบมาเพื่อสร้าง ecosystem ทางเลือกในจีน โดยไม่ต้องใช้ NVIDIA  
    • ได้รับการเผยแพร่ร่วมกับ AI startup จีนชื่อ SiliconFlow  
    • มีเป้าหมายเพื่อ “เพิ่มความมั่นใจให้ ecosystem ภายในประเทศจีน”

    พลังงานในจีนราคาต่ำลงเกือบ 40% ใน 3 ปี ทำให้การใช้พลังงานมากไม่ใช่จุดอ่อนใหญ่  
    • ทำให้จีนสามารถเลือก “สเกลแรงเข้าไว้” ได้โดยไม่กลัวค่าไฟพุ่ง

    https://www.tomshardware.com/pc-components/gpus/huaweis-brute-force-ai-tactic-seems-to-be-working-cloudmatrix-384-claimed-to-outperform-nvidia-processors-running-deepseek-r1
    เพราะโดนสหรัฐแบนชิปแรง ๆ อย่าง H100 ทำให้ Huawei ต้องหาทางอื่นที่จะสู้ในสนาม AI — เขาเลยเอากลยุทธ์ “ใช้เยอะเข้าไว้” หรือที่เรียกว่า Brute Force Scaling มาใช้ สร้างเป็นคลัสเตอร์ชื่อ CloudMatrix 384 (CM384) ไอ้เจ้าตัวนี้คือการรวมพลัง 384 ชิป Ascend 910C (ของ Huawei เอง) กับ CPU อีก 192 ตัว กระจายอยู่ใน 16 rack server แล้วเชื่อมต่อด้วยสายไฟเบอร์ออปติกหมดทุกตัว เพื่อทำให้ interconnect ภายในเร็วแบบสุด ๆ เมื่อรันโมเดล LLM อย่าง DeepSeek R1 (ขนาด 671B พารามิเตอร์) ที่เป็นรุ่นเดียวกับที่ใช้ทดสอบ NVIDIA GB200 NVL72 — ปรากฏว่า CM384 สร้าง token ได้มากกว่า ทั้งในตอน generate และ prefill และมีประสิทธิภาพระดับ 300 PFLOPs (BF16) เทียบกับ 180 PFLOPs ของ GB200 แต่…มันแลกมาด้วยพลังงานระดับ “กินไฟพอๆ กับอาคารทั้งหลัง” — CM384 ใช้ไฟถึง 559 kW เทียบกับ NVIDIA GB200 NVL72 ที่ใช้ 145 kW เท่านั้น เรียกว่าแรงจริงแต่เปลืองไฟมากกว่า 4 เท่า ✅ Huawei เปิดตัวซูเปอร์คลัสเตอร์ CloudMatrix 384 ใช้ NPU Ascend 910C รวม 384 ตัว   • เชื่อมต่อด้วยสายออปติกทั้งหมด ลด latency ระหว่าง node   • ใช้ CPU เสริม 192 ตัวในโครงสร้าง 16 rack ✅ CM384 รันโมเดล DeepSeek R1 ได้เร็วกว่า NVIDIA H800 และ H100   • มี performance สูงถึง 300 PFLOPs (BF16)   • เมื่อเทียบกับ NVIDIA GB200 NVL72 ที่ให้ 180 PFLOPs ✅ ซอฟต์แวร์ CloudMatrix-Infer มีประสิทธิภาพสูงกว่า NVIDIA SGLang ในงาน LLM   • สร้าง token ได้เร็วขึ้น ทั้งตอน prefill และ generate   • เหมาะกับงาน AI inferencing ขนาดใหญ่มาก ✅ CM384 ออกแบบมาเพื่อสร้าง ecosystem ทางเลือกในจีน โดยไม่ต้องใช้ NVIDIA   • ได้รับการเผยแพร่ร่วมกับ AI startup จีนชื่อ SiliconFlow   • มีเป้าหมายเพื่อ “เพิ่มความมั่นใจให้ ecosystem ภายในประเทศจีน” ✅ พลังงานในจีนราคาต่ำลงเกือบ 40% ใน 3 ปี ทำให้การใช้พลังงานมากไม่ใช่จุดอ่อนใหญ่   • ทำให้จีนสามารถเลือก “สเกลแรงเข้าไว้” ได้โดยไม่กลัวค่าไฟพุ่ง https://www.tomshardware.com/pc-components/gpus/huaweis-brute-force-ai-tactic-seems-to-be-working-cloudmatrix-384-claimed-to-outperform-nvidia-processors-running-deepseek-r1
    0 ความคิดเห็น 0 การแบ่งปัน 378 มุมมอง 0 รีวิว
  • AMD แยกไลน์ผลิต GPU AI และ HPC พร้อมเพิ่มเทคโนโลยี UALink

    AMD กำลังปรับกลยุทธ์ใหม่สำหรับ Instinct MI400-series โดยแยก GPU ออกเป็นสองไลน์เฉพาะทาง ได้แก่ Instinct MI450X สำหรับ AI และ Instinct MI430X สำหรับ HPC เพื่อเพิ่มประสิทธิภาพสูงสุดสำหรับแต่ละประเภทของงานประมวลผล

    Instinct MI450X จะเน้นการประมวลผล AI ที่ใช้ FP4, FP8 และ BF16
    - ช่วยให้ สามารถเพิ่มประสิทธิภาพสำหรับงาน AI ได้สูงสุด

    Instinct MI430X จะเน้นการประมวลผล HPC ที่ใช้ FP32 และ FP64
    - ลดการใช้ทรัพยากรที่ไม่จำเป็น เพื่อเพิ่มประสิทธิภาพสำหรับงานคำนวณที่ต้องการความแม่นยำสูง

    AMD เพิ่มเทคโนโลยี UALink เพื่อแข่งขันกับ NVLink ของ Nvidia
    - ช่วยให้ GPU สามารถเชื่อมต่อกันได้ดีขึ้นในระบบขนาดใหญ่

    AMD วางแผนเปิดตัว Instinct MI450X และ MI430X ในช่วงครึ่งหลังของปี 2026
    - คาดว่า จะเป็นคู่แข่งสำคัญของ Nvidia ในตลาด AI และ HPC

    AMD เตรียมเปิดตัวระบบ Instinct MI450X IF64 และ MI450X IF128
    - ใช้ Infinity Fabric ผ่าน Ethernet เพื่อแข่งขันกับแพลตฟอร์ม VR200 NVL144 ของ Nvidia

    UALink อาจมีข้อจำกัดด้านการขยายตัวในปี 2026
    - เนื่องจาก ไม่มีผู้ผลิตภายนอกที่พร้อมให้บริการ switching silicon

    https://www.tomshardware.com/pc-components/gpus/amd-to-split-flagship-ai-gpus-into-specialized-lineups-for-for-ai-and-hpc-add-ualink-instinct-mi400-series-models-takes-a-different-path
    AMD แยกไลน์ผลิต GPU AI และ HPC พร้อมเพิ่มเทคโนโลยี UALink AMD กำลังปรับกลยุทธ์ใหม่สำหรับ Instinct MI400-series โดยแยก GPU ออกเป็นสองไลน์เฉพาะทาง ได้แก่ Instinct MI450X สำหรับ AI และ Instinct MI430X สำหรับ HPC เพื่อเพิ่มประสิทธิภาพสูงสุดสำหรับแต่ละประเภทของงานประมวลผล ✅ Instinct MI450X จะเน้นการประมวลผล AI ที่ใช้ FP4, FP8 และ BF16 - ช่วยให้ สามารถเพิ่มประสิทธิภาพสำหรับงาน AI ได้สูงสุด ✅ Instinct MI430X จะเน้นการประมวลผล HPC ที่ใช้ FP32 และ FP64 - ลดการใช้ทรัพยากรที่ไม่จำเป็น เพื่อเพิ่มประสิทธิภาพสำหรับงานคำนวณที่ต้องการความแม่นยำสูง ✅ AMD เพิ่มเทคโนโลยี UALink เพื่อแข่งขันกับ NVLink ของ Nvidia - ช่วยให้ GPU สามารถเชื่อมต่อกันได้ดีขึ้นในระบบขนาดใหญ่ ✅ AMD วางแผนเปิดตัว Instinct MI450X และ MI430X ในช่วงครึ่งหลังของปี 2026 - คาดว่า จะเป็นคู่แข่งสำคัญของ Nvidia ในตลาด AI และ HPC ✅ AMD เตรียมเปิดตัวระบบ Instinct MI450X IF64 และ MI450X IF128 - ใช้ Infinity Fabric ผ่าน Ethernet เพื่อแข่งขันกับแพลตฟอร์ม VR200 NVL144 ของ Nvidia ‼️ UALink อาจมีข้อจำกัดด้านการขยายตัวในปี 2026 - เนื่องจาก ไม่มีผู้ผลิตภายนอกที่พร้อมให้บริการ switching silicon https://www.tomshardware.com/pc-components/gpus/amd-to-split-flagship-ai-gpus-into-specialized-lineups-for-for-ai-and-hpc-add-ualink-instinct-mi400-series-models-takes-a-different-path
    0 ความคิดเห็น 0 การแบ่งปัน 287 มุมมอง 0 รีวิว
Pages Boosts