• Centauri Carbon 2 – เครื่องพิมพ์ 3D รุ่นใหม่จาก Elegoo

    บริษัท Elegoo เตรียมเปิดตัวเครื่องพิมพ์ 3D รุ่นใหม่ชื่อ Centauri Carbon 2 ในไตรมาสแรกปี 2026 หลังจากรุ่นแรกได้รับความนิยมในปี 2025 จุดเด่นคือระบบ multi-material printing ที่สามารถพิมพ์หลายสีหรือหลายวัสดุในงานเดียวกัน โดยใช้ระบบ “CANVAS” ที่ออกแบบให้เส้นทางฟีดเส้นพลาสติกดูเรียบง่ายกว่ารุ่นอื่น

    เครื่องยังคงขนาดการพิมพ์ 256 x 256 x 256 มม. เหมือนรุ่นแรก แต่เพิ่มความร้อนของฐานพิมพ์ได้ถึง 110°C และมีระบบปรับระดับอัตโนมัติ 121 จุด ทำให้การพิมพ์เสถียรมากขึ้น นอกจากนี้ยังมีฟีเจอร์ใหม่ เช่น RFID สำหรับตรวจสอบเส้นพลาสติก และกล้องในตัวเพื่อดูงานพิมพ์แบบเรียลไทม์

    แม้ยังไม่เปิดเผยราคา แต่คาดว่าจะอยู่ในระดับเข้าถึงได้เหมือนรุ่นแรก และรองรับวัสดุยอดนิยม เช่น PLA, PETG, TPU และ ABS ถือเป็นการต่อยอดจากรุ่นเดิมที่แฟน ๆ ชื่นชอบ โดยมีการปรับปรุงให้รองรับงานซับซ้อนและหลากหลายมากขึ้น

    https://www.tomshardware.com/3d-printing/elegoo-centauri-carbon-2-is-on-the-way-in-q1-2026-multi-material-3d-printing-among-the-top-features
    🖨️ Centauri Carbon 2 – เครื่องพิมพ์ 3D รุ่นใหม่จาก Elegoo บริษัท Elegoo เตรียมเปิดตัวเครื่องพิมพ์ 3D รุ่นใหม่ชื่อ Centauri Carbon 2 ในไตรมาสแรกปี 2026 หลังจากรุ่นแรกได้รับความนิยมในปี 2025 จุดเด่นคือระบบ multi-material printing ที่สามารถพิมพ์หลายสีหรือหลายวัสดุในงานเดียวกัน โดยใช้ระบบ “CANVAS” ที่ออกแบบให้เส้นทางฟีดเส้นพลาสติกดูเรียบง่ายกว่ารุ่นอื่น เครื่องยังคงขนาดการพิมพ์ 256 x 256 x 256 มม. เหมือนรุ่นแรก แต่เพิ่มความร้อนของฐานพิมพ์ได้ถึง 110°C และมีระบบปรับระดับอัตโนมัติ 121 จุด ทำให้การพิมพ์เสถียรมากขึ้น นอกจากนี้ยังมีฟีเจอร์ใหม่ เช่น RFID สำหรับตรวจสอบเส้นพลาสติก และกล้องในตัวเพื่อดูงานพิมพ์แบบเรียลไทม์ แม้ยังไม่เปิดเผยราคา แต่คาดว่าจะอยู่ในระดับเข้าถึงได้เหมือนรุ่นแรก และรองรับวัสดุยอดนิยม เช่น PLA, PETG, TPU และ ABS ถือเป็นการต่อยอดจากรุ่นเดิมที่แฟน ๆ ชื่นชอบ โดยมีการปรับปรุงให้รองรับงานซับซ้อนและหลากหลายมากขึ้น https://www.tomshardware.com/3d-printing/elegoo-centauri-carbon-2-is-on-the-way-in-q1-2026-multi-material-3d-printing-among-the-top-features
    0 Comments 0 Shares 29 Views 0 Reviews
  • Google เปิดตัว Private AI Compute บน Pixel 10

    Google ประกาศเปิดตัวสถาปัตยกรรมใหม่ชื่อ Private AI Compute ที่ผสมผสานพลังการประมวลผลจากคลาวด์ Gemini เข้ากับความปลอดภัยระดับสูงของการทำงานบนอุปกรณ์เอง จุดเด่นคือการใช้ Titanium Intelligence Enclaves (TIE) ที่ทำให้ข้อมูลผู้ใช้ถูกประมวลผลในสภาพแวดล้อมที่ปิดผนึก แม้แต่ Google เองก็ไม่สามารถเข้าถึงได้

    Pixel 10 จะเป็นสมาร์ทโฟนรุ่นแรกที่ได้ใช้เทคโนโลยีนี้ โดยมาพร้อมฟีเจอร์ใหม่ เช่น Magic Suggest ที่ให้คำแนะนำแบบเรียลไทม์ และระบบบันทึกเสียงที่สามารถถอดความได้หลายภาษา พร้อมสรุปอัตโนมัติ Google ยังเปิดโครงการ Vulnerability Rewards Program (VRP) เพื่อให้ผู้เชี่ยวชาญภายนอกช่วยตรวจสอบความปลอดภัย

    น่าสนใจคือแนวคิดนี้คล้ายกับ Apple Private Cloud Compute ที่เปิดตัวก่อนหน้านี้ ทำให้การแข่งขันด้าน “AI ที่ปลอดภัยและโปร่งใส” ระหว่างสองยักษ์ใหญ่ยิ่งเข้มข้นขึ้น

    สรุปหัวข้อ:
    เทคโนโลยีใหม่ Private AI Compute
    ใช้ TPU และ TIE เพื่อความปลอดภัยสูงสุด

    Pixel 10 ได้ฟีเจอร์ Magic Suggest และ Recorder อัจฉริยะ
    รองรับหลายภาษาและสรุปอัตโนมัติ

    https://securityonline.info/google-launches-private-ai-compute-for-pixel-10-blending-cloud-power-with-on-device-privacy/
    🛡️ Google เปิดตัว Private AI Compute บน Pixel 10 Google ประกาศเปิดตัวสถาปัตยกรรมใหม่ชื่อ Private AI Compute ที่ผสมผสานพลังการประมวลผลจากคลาวด์ Gemini เข้ากับความปลอดภัยระดับสูงของการทำงานบนอุปกรณ์เอง จุดเด่นคือการใช้ Titanium Intelligence Enclaves (TIE) ที่ทำให้ข้อมูลผู้ใช้ถูกประมวลผลในสภาพแวดล้อมที่ปิดผนึก แม้แต่ Google เองก็ไม่สามารถเข้าถึงได้ Pixel 10 จะเป็นสมาร์ทโฟนรุ่นแรกที่ได้ใช้เทคโนโลยีนี้ โดยมาพร้อมฟีเจอร์ใหม่ เช่น Magic Suggest ที่ให้คำแนะนำแบบเรียลไทม์ และระบบบันทึกเสียงที่สามารถถอดความได้หลายภาษา พร้อมสรุปอัตโนมัติ Google ยังเปิดโครงการ Vulnerability Rewards Program (VRP) เพื่อให้ผู้เชี่ยวชาญภายนอกช่วยตรวจสอบความปลอดภัย น่าสนใจคือแนวคิดนี้คล้ายกับ Apple Private Cloud Compute ที่เปิดตัวก่อนหน้านี้ ทำให้การแข่งขันด้าน “AI ที่ปลอดภัยและโปร่งใส” ระหว่างสองยักษ์ใหญ่ยิ่งเข้มข้นขึ้น สรุปหัวข้อ: ✅ เทคโนโลยีใหม่ Private AI Compute ➡️ ใช้ TPU และ TIE เพื่อความปลอดภัยสูงสุด ✅ Pixel 10 ได้ฟีเจอร์ Magic Suggest และ Recorder อัจฉริยะ ➡️ รองรับหลายภาษาและสรุปอัตโนมัติ https://securityonline.info/google-launches-private-ai-compute-for-pixel-10-blending-cloud-power-with-on-device-privacy/
    SECURITYONLINE.INFO
    Google Launches Private AI Compute for Pixel 10, Blending Cloud Power with On-Device Privacy
    Google launched Private AI Compute, a new platform that combines Gemini's cloud power with hardware-protected security (TIE) to offer advanced on-device AI for Pixel 10 while guaranteeing data privacy.
    0 Comments 0 Shares 46 Views 0 Reviews
  • https://youtu.be/TpNF-e42JvU?si=PO9C-Vlfok-wtpU1
    https://youtu.be/TpNF-e42JvU?si=PO9C-Vlfok-wtpU1
    0 Comments 0 Shares 27 Views 0 Reviews
  • Ironwood TPU: ขุมพลังใหม่จาก Google ที่จะพลิกโฉมยุค Agentic AI

    Google เปิดตัว “Ironwood” TPU รุ่นที่ 7 ที่งาน Next ’25 พร้อมสเปคสุดโหด 42.5 ExaFLOPS เพื่อรองรับยุคใหม่ของ Agentic AI ที่ต้องการความเร็วและความฉลาดระดับเหนือมนุษย์!

    ในยุคที่ AI ไม่ใช่แค่โมเดลตอบคำถาม แต่กลายเป็น “เอเจนต์อัจฉริยะ” ที่คิด วิเคราะห์ และตัดสินใจได้เอง Google จึงเปิดตัว Ironwood TPU ที่ออกแบบมาเพื่อรองรับการฝึกและใช้งานโมเดลขนาดมหึมาอย่าง Gemini, Claude, Veo และ Imagen

    Ironwood ไม่ใช่แค่แรง แต่ฉลาดและประหยัดพลังงานกว่ารุ่นก่อนถึง 4 เท่า! ด้วยการออกแบบระบบร่วมระหว่างฮาร์ดแวร์ ซอฟต์แวร์ และงานวิจัยโมเดล ทำให้ TPU รุ่นนี้กลายเป็นหัวใจของ “AI Hypercomputer” ที่ Google วางรากฐานไว้

    Ironwood TPU คืออะไร
    ชิปประมวลผล AI รุ่นที่ 7 จาก Google
    ออกแบบเพื่อรองรับ Agentic AI ที่ต้องการ reasoning และ insight ขั้นสูง

    ประสิทธิภาพที่เหนือชั้น
    42.5 ExaFLOPS ต่อ pod (มากกว่า El Capitan 24 เท่า)
    ชิปเดี่ยวให้พลังสูงสุด 4,614 TFLOPS
    ใช้ระบบระบายความร้อนด้วยของเหลว

    สถาปัตยกรรมใหม่
    ใช้ Inter-Chip Interconnect (ICI) ความเร็ว 9.6 Tb/s
    หน่วยความจำร่วม HBM สูงสุด 1.77 PB
    รองรับการทำงานร่วมกันของหลายพันชิปแบบ “สมองรวม”

    ความร่วมมือกับ Anthropic
    Anthropic เซ็นสัญญาหลายพันล้านดอลลาร์เพื่อใช้ Ironwood
    เตรียมใช้ TPU สูงสุด 1 ล้านตัวสำหรับ Claude รุ่นใหม่

    เทคโนโลยีเสริม
    Optical Circuit Switching (OCS) เพื่อความเสถียรระดับองค์กร
    CPU Axion รุ่นใหม่ใน VM N4A และ C4A Metal
    ประสิทธิภาพต่อวัตต์ดีขึ้น 80% เมื่อเทียบกับ x86

    วิสัยทัศน์ของ Google
    “System-level co-design” รวมฮาร์ดแวร์ ซอฟต์แวร์ และโมเดลไว้ในหลังคาเดียว
    Ironwood คือผลลัพธ์จากการพัฒนา TPU ต่อเนื่องกว่า 10 ปี

    Ironwood ไม่ใช่แค่ชิปใหม่ แต่คือการประกาศศักดาเข้าสู่ยุคที่ AI ไม่ใช่แค่ “ฉลาด” แต่ “ลงมือทำ” ได้จริง และเร็วระดับ ExaFLOPS!

    https://securityonline.info/42-5-exaflops-google-launches-ironwood-tpu-to-power-next-gen-agentic-ai/
    🚀 Ironwood TPU: ขุมพลังใหม่จาก Google ที่จะพลิกโฉมยุค Agentic AI Google เปิดตัว “Ironwood” TPU รุ่นที่ 7 ที่งาน Next ’25 พร้อมสเปคสุดโหด 42.5 ExaFLOPS เพื่อรองรับยุคใหม่ของ Agentic AI ที่ต้องการความเร็วและความฉลาดระดับเหนือมนุษย์! ในยุคที่ AI ไม่ใช่แค่โมเดลตอบคำถาม แต่กลายเป็น “เอเจนต์อัจฉริยะ” ที่คิด วิเคราะห์ และตัดสินใจได้เอง Google จึงเปิดตัว Ironwood TPU ที่ออกแบบมาเพื่อรองรับการฝึกและใช้งานโมเดลขนาดมหึมาอย่าง Gemini, Claude, Veo และ Imagen Ironwood ไม่ใช่แค่แรง แต่ฉลาดและประหยัดพลังงานกว่ารุ่นก่อนถึง 4 เท่า! ด้วยการออกแบบระบบร่วมระหว่างฮาร์ดแวร์ ซอฟต์แวร์ และงานวิจัยโมเดล ทำให้ TPU รุ่นนี้กลายเป็นหัวใจของ “AI Hypercomputer” ที่ Google วางรากฐานไว้ ✅ Ironwood TPU คืออะไร ➡️ ชิปประมวลผล AI รุ่นที่ 7 จาก Google ➡️ ออกแบบเพื่อรองรับ Agentic AI ที่ต้องการ reasoning และ insight ขั้นสูง ✅ ประสิทธิภาพที่เหนือชั้น ➡️ 42.5 ExaFLOPS ต่อ pod (มากกว่า El Capitan 24 เท่า) ➡️ ชิปเดี่ยวให้พลังสูงสุด 4,614 TFLOPS ➡️ ใช้ระบบระบายความร้อนด้วยของเหลว ✅ สถาปัตยกรรมใหม่ ➡️ ใช้ Inter-Chip Interconnect (ICI) ความเร็ว 9.6 Tb/s ➡️ หน่วยความจำร่วม HBM สูงสุด 1.77 PB ➡️ รองรับการทำงานร่วมกันของหลายพันชิปแบบ “สมองรวม” ✅ ความร่วมมือกับ Anthropic ➡️ Anthropic เซ็นสัญญาหลายพันล้านดอลลาร์เพื่อใช้ Ironwood ➡️ เตรียมใช้ TPU สูงสุด 1 ล้านตัวสำหรับ Claude รุ่นใหม่ ✅ เทคโนโลยีเสริม ➡️ Optical Circuit Switching (OCS) เพื่อความเสถียรระดับองค์กร ➡️ CPU Axion รุ่นใหม่ใน VM N4A และ C4A Metal ➡️ ประสิทธิภาพต่อวัตต์ดีขึ้น 80% เมื่อเทียบกับ x86 ✅ วิสัยทัศน์ของ Google ➡️ “System-level co-design” รวมฮาร์ดแวร์ ซอฟต์แวร์ และโมเดลไว้ในหลังคาเดียว ➡️ Ironwood คือผลลัพธ์จากการพัฒนา TPU ต่อเนื่องกว่า 10 ปี Ironwood ไม่ใช่แค่ชิปใหม่ แต่คือการประกาศศักดาเข้าสู่ยุคที่ AI ไม่ใช่แค่ “ฉลาด” แต่ “ลงมือทำ” ได้จริง และเร็วระดับ ExaFLOPS! 🌐💡 https://securityonline.info/42-5-exaflops-google-launches-ironwood-tpu-to-power-next-gen-agentic-ai/
    SECURITYONLINE.INFO
    42.5 ExaFLOPS: Google Launches Ironwood TPU to Power Next-Gen Agentic AI
    Google launches Ironwood, its 7th-gen TPU, promising 4x Trillium performance, 42.5 EFLOPS per pod, and 1.77 PB shared HBM to power Agentic AI models like Claude.
    0 Comments 0 Shares 78 Views 0 Reviews
  • “Google เปิดตัว Axion CPU และ Ironwood TPU รุ่น 7 – สร้าง ‘AI Hypercomputer’ ล้ำหน้า Nvidia GB300!”

    เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด

    Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล

    ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps

    ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ

    บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่

    Google เปิดตัว Ironwood TPU รุ่นที่ 7
    พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป
    รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS
    ใช้ Optical Circuit Switching เพื่อความเสถียร
    หน่วยความจำรวม 1.77 PB แบบ HBM3E

    เปิดตัว Axion CPU ที่ออกแบบเอง
    ใช้สถาปัตยกรรม Arm Neoverse V2
    ประสิทธิภาพสูงกว่าชิป x86 ถึง 50%
    มีรุ่น C4A, N4A และ C4A Metal ให้เลือก
    รองรับ DDR5-5600 MT/s และ UMA

    สร้างแพลตฟอร์ม “AI Hypercomputer”
    รวม compute, storage และ networking ภายใต้ระบบเดียว
    รองรับการฝึกและให้บริการโมเดลขนาดใหญ่
    ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย

    บริษัทชั้นนำเริ่มใช้งานแล้ว
    Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude
    Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2

    ความท้าทายด้านการพัฒนา AI ขนาดใหญ่
    ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล
    ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง

    ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ
    หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่
    ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI

    https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
    🧠 “Google เปิดตัว Axion CPU และ Ironwood TPU รุ่น 7 – สร้าง ‘AI Hypercomputer’ ล้ำหน้า Nvidia GB300!” เรื่องเล่าจากแนวหน้าของเทคโนโลยี AI! Google Cloud ได้เปิดตัวระบบประมวลผลใหม่ที่ทรงพลังที่สุดเท่าที่เคยมีมา ด้วยการผสาน Axion CPU ที่ออกแบบเองกับ Ironwood TPU รุ่นที่ 7 เพื่อสร้างแพลตฟอร์ม “AI Hypercomputer” ที่สามารถฝึกและให้บริการโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพสูงสุด Ironwood TPU รุ่นใหม่ให้พลังประมวลผลถึง 4,614 FP8 TFLOPS ต่อชิป และสามารถรวมกันเป็นพ็อดขนาดใหญ่ถึง 9,216 ตัว ให้พลังรวม 42.5 FP8 ExaFLOPS ซึ่งเหนือกว่า Nvidia GB300 NVL72 ที่ให้เพียง 0.36 ExaFLOPS อย่างมหาศาล ระบบนี้ยังใช้เทคโนโลยี Optical Circuit Switching ที่สามารถปรับเส้นทางการเชื่อมต่อทันทีเมื่อมีฮาร์ดแวร์ขัดข้อง ทำให้ระบบทำงานต่อเนื่องได้แม้มีปัญหา พร้อมทั้งมีหน่วยความจำ HBM3E รวมกว่า 1.77 PB และเครือข่าย Inter-Chip Interconnect ความเร็ว 9.6 Tbps ในด้าน CPU, Google เปิดตัว Axion ซึ่งเป็นชิป Armv9 ที่ใช้สถาปัตยกรรม Neoverse V2 ให้ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% และประหยัดพลังงานมากขึ้นถึง 60% โดยมีรุ่น C4A, N4A และ C4A Metal ให้เลือกใช้งานตามความต้องการ บริษัทอย่าง Anthropic และ Lightricks ได้เริ่มใช้งานระบบนี้แล้ว โดย Anthropic เตรียมใช้ TPU กว่าล้านตัวเพื่อขับเคลื่อนโมเดล Claude รุ่นใหม่ ✅ Google เปิดตัว Ironwood TPU รุ่นที่ 7 ➡️ พลังประมวลผล 4,614 FP8 TFLOPS ต่อชิป ➡️ รวมเป็นพ็อดขนาดใหญ่ได้ถึง 42.5 FP8 ExaFLOPS ➡️ ใช้ Optical Circuit Switching เพื่อความเสถียร ➡️ หน่วยความจำรวม 1.77 PB แบบ HBM3E ✅ เปิดตัว Axion CPU ที่ออกแบบเอง ➡️ ใช้สถาปัตยกรรม Arm Neoverse V2 ➡️ ประสิทธิภาพสูงกว่าชิป x86 ถึง 50% ➡️ มีรุ่น C4A, N4A และ C4A Metal ให้เลือก ➡️ รองรับ DDR5-5600 MT/s และ UMA ✅ สร้างแพลตฟอร์ม “AI Hypercomputer” ➡️ รวม compute, storage และ networking ภายใต้ระบบเดียว ➡️ รองรับการฝึกและให้บริการโมเดลขนาดใหญ่ ➡️ ใช้ Titanium controller เพื่อจัดการ I/O และความปลอดภัย ✅ บริษัทชั้นนำเริ่มใช้งานแล้ว ➡️ Anthropic ใช้ TPU กว่าล้านตัวสำหรับ Claude ➡️ Lightricks ใช้ฝึกโมเดลมัลติโหมด LTX-2 ‼️ ความท้าทายด้านการพัฒนา AI ขนาดใหญ่ ⛔ ต้องใช้พลังงานและฮาร์ดแวร์จำนวนมหาศาล ⛔ ต้องมีระบบจัดการความเสถียรและความปลอดภัยขั้นสูง ‼️ ความเสี่ยงจากการพึ่งพาเทคโนโลยีเฉพาะ ⛔ หากระบบล่มหรือมีข้อบกพร่อง อาจกระทบโมเดลขนาดใหญ่ ⛔ ต้องมีการลงทุนต่อเนื่องเพื่อรองรับการเติบโตของ AI https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
    0 Comments 0 Shares 129 Views 0 Reviews
  • Google เปิดตัว Project Suncatcher: ส่งศูนย์ข้อมูล AI ขึ้นสู่อวกาศ!

    Google ประกาศโครงการสุดล้ำ “Project Suncatcher” ที่จะนำศูนย์ข้อมูล AI ขึ้นสู่วงโคจรโลก โดยใช้พลังงานแสงอาทิตย์และเทคโนโลยี TPU เพื่อประมวลผลแบบไร้ขีดจำกัดในอวกาศ พร้อมจับมือ Planet Labs เตรียมปล่อยดาวเทียมต้นแบบภายในปี 2027.

    Google กำลังพลิกโฉมการประมวลผล AI ด้วยแนวคิดใหม่: แทนที่จะสร้างศูนย์ข้อมูลบนโลกที่ใช้พลังงานมหาศาลและต้องการระบบระบายความร้อนซับซ้อน พวกเขาจะส่งศูนย์ข้อมูลขึ้นสู่อวกาศ!

    โดยใช้ดาวเทียมที่ติดตั้ง TPU (Tensor Processing Units) ซึ่งเป็นชิปประมวลผล AI ของ Google พร้อมแผงโซลาร์เซลล์ประสิทธิภาพสูงที่สามารถผลิตพลังงานได้มากกว่าแผงบนโลกถึง 8 เท่า

    ข้อดีคือ:
    ได้พลังงานสะอาดตลอด 24 ชั่วโมง
    ไม่ต้องใช้ระบบระบายความร้อนแบบเดิม
    ลดต้นทุนระยะยาวในการดำเนินงาน

    แต่ก็มีความท้าทาย:
    ต้องสร้างระบบสื่อสารที่ส่งข้อมูลได้หลายเทราไบต์ต่อวินาที
    ต้องป้องกัน TPU จากรังสีในอวกาศ ซึ่ง Google ได้ทดสอบแล้วว่า Trillium TPU ทนได้ถึง 5 ปีโดยไม่เสียหาย
    ต้องจัดการความเสี่ยงจากการชนกันของดาวเทียมในวงโคจร

    Google คาดว่าในปี 2035 ต้นทุนการดำเนินงานของศูนย์ข้อมูลในอวกาศจะใกล้เคียงกับบนโลก และจะเป็นทางเลือกใหม่ที่ยั่งยืนสำหรับการพัฒนา AI ในอนาคต

    แนวคิดของ Project Suncatcher
    ส่ง TPU ขึ้นสู่วงโคจรเพื่อประมวลผล AI
    ใช้พลังงานแสงอาทิตย์ที่มีประสิทธิภาพสูง
    ลดต้นทุนและปัญหาระบบระบายความร้อน

    ความร่วมมือและแผนการดำเนินงาน
    ร่วมมือกับ Planet Labs
    เตรียมปล่อยดาวเทียมต้นแบบภายในปี 2027
    คาดว่าความคุ้มทุนจะเกิดในช่วงปี 2035

    ความท้าทายทางเทคนิค
    ต้องสร้างระบบสื่อสารความเร็วสูงระหว่างดาวเทียม
    ต้องป้องกัน TPU จากรังสีอวกาศ
    ต้องจัดการความเสี่ยงจากการชนกันของดาวเทียม

    คำเตือนและข้อควรระวัง
    การสื่อสารข้อมูลจากอวกาศยังมีข้อจำกัดด้านความเร็วและความเสถียร
    การจัดการดาวเทียมจำนวนมากอาจเพิ่มความเสี่ยงด้านความปลอดภัยในวงโคจร
    ต้องมีการตรวจสอบผลกระทบต่อสิ่งแวดล้อมและเศรษฐกิจในระยะยาว

    Project Suncatcher ไม่ใช่แค่การส่งชิปขึ้นฟ้า แต่มันคือการเปิดประตูสู่ยุคใหม่ของการประมวลผล AI ที่ไร้ขีดจำกัด… และอาจเปลี่ยนวิธีที่โลกใช้พลังงานและเทคโนโลยีไปตลอดกาล

    https://securityonline.info/orbital-ai-google-unveils-project-suncatcher-to-launch-tpu-data-centers-into-space/
    🚀 Google เปิดตัว Project Suncatcher: ส่งศูนย์ข้อมูล AI ขึ้นสู่อวกาศ! Google ประกาศโครงการสุดล้ำ “Project Suncatcher” ที่จะนำศูนย์ข้อมูล AI ขึ้นสู่วงโคจรโลก โดยใช้พลังงานแสงอาทิตย์และเทคโนโลยี TPU เพื่อประมวลผลแบบไร้ขีดจำกัดในอวกาศ พร้อมจับมือ Planet Labs เตรียมปล่อยดาวเทียมต้นแบบภายในปี 2027. Google กำลังพลิกโฉมการประมวลผล AI ด้วยแนวคิดใหม่: แทนที่จะสร้างศูนย์ข้อมูลบนโลกที่ใช้พลังงานมหาศาลและต้องการระบบระบายความร้อนซับซ้อน พวกเขาจะส่งศูนย์ข้อมูลขึ้นสู่อวกาศ! โดยใช้ดาวเทียมที่ติดตั้ง TPU (Tensor Processing Units) ซึ่งเป็นชิปประมวลผล AI ของ Google พร้อมแผงโซลาร์เซลล์ประสิทธิภาพสูงที่สามารถผลิตพลังงานได้มากกว่าแผงบนโลกถึง 8 เท่า ข้อดีคือ: 💠 ได้พลังงานสะอาดตลอด 24 ชั่วโมง 💠 ไม่ต้องใช้ระบบระบายความร้อนแบบเดิม 💠 ลดต้นทุนระยะยาวในการดำเนินงาน แต่ก็มีความท้าทาย: 🎗️ ต้องสร้างระบบสื่อสารที่ส่งข้อมูลได้หลายเทราไบต์ต่อวินาที 🎗️ ต้องป้องกัน TPU จากรังสีในอวกาศ ซึ่ง Google ได้ทดสอบแล้วว่า Trillium TPU ทนได้ถึง 5 ปีโดยไม่เสียหาย 🎗️ ต้องจัดการความเสี่ยงจากการชนกันของดาวเทียมในวงโคจร Google คาดว่าในปี 2035 ต้นทุนการดำเนินงานของศูนย์ข้อมูลในอวกาศจะใกล้เคียงกับบนโลก และจะเป็นทางเลือกใหม่ที่ยั่งยืนสำหรับการพัฒนา AI ในอนาคต ✅ แนวคิดของ Project Suncatcher ➡️ ส่ง TPU ขึ้นสู่วงโคจรเพื่อประมวลผล AI ➡️ ใช้พลังงานแสงอาทิตย์ที่มีประสิทธิภาพสูง ➡️ ลดต้นทุนและปัญหาระบบระบายความร้อน ✅ ความร่วมมือและแผนการดำเนินงาน ➡️ ร่วมมือกับ Planet Labs ➡️ เตรียมปล่อยดาวเทียมต้นแบบภายในปี 2027 ➡️ คาดว่าความคุ้มทุนจะเกิดในช่วงปี 2035 ✅ ความท้าทายทางเทคนิค ➡️ ต้องสร้างระบบสื่อสารความเร็วสูงระหว่างดาวเทียม ➡️ ต้องป้องกัน TPU จากรังสีอวกาศ ➡️ ต้องจัดการความเสี่ยงจากการชนกันของดาวเทียม ‼️ คำเตือนและข้อควรระวัง ⛔ การสื่อสารข้อมูลจากอวกาศยังมีข้อจำกัดด้านความเร็วและความเสถียร ⛔ การจัดการดาวเทียมจำนวนมากอาจเพิ่มความเสี่ยงด้านความปลอดภัยในวงโคจร ⛔ ต้องมีการตรวจสอบผลกระทบต่อสิ่งแวดล้อมและเศรษฐกิจในระยะยาว Project Suncatcher ไม่ใช่แค่การส่งชิปขึ้นฟ้า แต่มันคือการเปิดประตูสู่ยุคใหม่ของการประมวลผล AI ที่ไร้ขีดจำกัด… และอาจเปลี่ยนวิธีที่โลกใช้พลังงานและเทคโนโลยีไปตลอดกาล https://securityonline.info/orbital-ai-google-unveils-project-suncatcher-to-launch-tpu-data-centers-into-space/
    SECURITYONLINE.INFO
    Orbital AI: Google Unveils Project Suncatcher to Launch TPU Data Centers into Space
    Google announced Project Suncatcher: an ambitious plan to launch TPU-equipped satellites to perform AI computing in space, harnessing limitless solar power and low temperatures.
    0 Comments 0 Shares 148 Views 0 Reviews
  • หัวข้อข่าว: “Snapmaker U1 – เครื่องพิมพ์ 3D ที่ระดมทุนสูงสุดในประวัติศาสตร์ เปิดขายแล้ว พร้อมเปลี่ยนโลกการสร้างสรรค์”

    Snapmaker เปิดตัวเครื่องพิมพ์ 3D รุ่น U1 อย่างเป็นทางการ หลังจากระดมทุนได้กว่า 20 ล้านดอลลาร์จากผู้สนับสนุนกว่า 20,000 รายบน Kickstarter โดยมาพร้อมเทคโนโลยีใหม่ที่เน้นความเร็ว ความแม่นยำ และการพิมพ์หลายวัสดุในเครื่องเดียว.

    Snapmaker U1 ไม่ใช่แค่เครื่องพิมพ์ 3D ธรรมดา แต่เป็นการรวม 4 หัวฉีดวัสดุไว้ในระบบเดียวผ่านเทคโนโลยี “SnapSwap” ที่สามารถสลับหัวฉีดได้ภายใน 5 วินาที ทำให้ผู้ใช้สามารถพิมพ์วัสดุหลากหลาย เช่น PLA, TPU, PETG ได้โดยไม่ต้องหยุดงานหรือปรับเครื่องใหม่

    เครื่องนี้ใช้ระบบ CoreXY motion ที่ช่วยให้พิมพ์ได้เร็วถึง 500 มม./วินาที โดยยังคงความแม่นยำไว้ได้ ด้วยระบบชดเชยแรงสั่นสะเทือน, การปรับระดับอัตโนมัติ และการคาลิเบรตแบบอัจฉริยะ

    Snapmaker ยังใส่ระบบ AI ที่สามารถตรวจจับข้อผิดพลาดของเส้นใยก่อนที่งานพิมพ์จะล้มเหลว พร้อมกล้องภายในสำหรับบันทึก time-lapse และแอปมือถือที่ควบคุมเครื่องจากระยะไกลได้

    แม้จะมีจุดเด่นมากมาย แต่ก็ยังมีคำถามเรื่องความทนทานในระยะยาว และความแม่นยำเมื่อใช้งานที่ความเร็วสูง โดยเฉพาะในงานที่ต้องการความละเอียดสูง เช่น โมเดลวิศวกรรมหรือชิ้นส่วนประกอบจริง

    Snapmaker U1 เปิดขายแล้วหลังระดมทุนได้กว่า $20 ล้าน
    มีผู้สนับสนุนกว่า 20,000 รายบน Kickstarter

    ใช้ระบบ SnapSwap เปลี่ยนหัวฉีดได้ใน 5 วินาที
    รองรับการพิมพ์หลายวัสดุในเครื่องเดียว

    ความเร็วสูงถึง 500 มม./วินาที ด้วยระบบ CoreXY
    พร้อมระบบชดเชยแรงสั่นและปรับระดับอัตโนมัติ

    มี AI ตรวจจับข้อผิดพลาดของเส้นใยก่อนงานพิมพ์ล้มเหลว
    ช่วยลดของเสียและเพิ่มความแม่นยำ

    รองรับการควบคุมผ่านแอปมือถือและซอฟต์แวร์ Orca
    เพิ่มความสะดวกในการใช้งานและตรวจสอบงานพิมพ์

    กล้องภายในสำหรับบันทึก time-lapse และตรวจสอบงาน
    เตรียมรองรับการอัปเดต firmware เพื่อเพิ่มฟีเจอร์ AI

    ขนาดพื้นที่พิมพ์ 270 x 270 x 270 มม.
    รองรับงานขนาดใหญ่โดยไม่เสียความละเอียด

    หัวฉีดทนความร้อนสูงถึง 300°C และฐานพิมพ์ร้อนถึง 100°C
    รองรับวัสดุหลากหลายและยึดติดได้ดี

    https://www.techradar.com/pro/kickstarters-most-successful-product-ever-goes-on-sale-snapmakers-3d-u1-printer-backed-by-usd20-million-booking-order-makes-debut
    🖨️🚀 หัวข้อข่าว: “Snapmaker U1 – เครื่องพิมพ์ 3D ที่ระดมทุนสูงสุดในประวัติศาสตร์ เปิดขายแล้ว พร้อมเปลี่ยนโลกการสร้างสรรค์” Snapmaker เปิดตัวเครื่องพิมพ์ 3D รุ่น U1 อย่างเป็นทางการ หลังจากระดมทุนได้กว่า 20 ล้านดอลลาร์จากผู้สนับสนุนกว่า 20,000 รายบน Kickstarter โดยมาพร้อมเทคโนโลยีใหม่ที่เน้นความเร็ว ความแม่นยำ และการพิมพ์หลายวัสดุในเครื่องเดียว. Snapmaker U1 ไม่ใช่แค่เครื่องพิมพ์ 3D ธรรมดา แต่เป็นการรวม 4 หัวฉีดวัสดุไว้ในระบบเดียวผ่านเทคโนโลยี “SnapSwap” ที่สามารถสลับหัวฉีดได้ภายใน 5 วินาที ทำให้ผู้ใช้สามารถพิมพ์วัสดุหลากหลาย เช่น PLA, TPU, PETG ได้โดยไม่ต้องหยุดงานหรือปรับเครื่องใหม่ เครื่องนี้ใช้ระบบ CoreXY motion ที่ช่วยให้พิมพ์ได้เร็วถึง 500 มม./วินาที โดยยังคงความแม่นยำไว้ได้ ด้วยระบบชดเชยแรงสั่นสะเทือน, การปรับระดับอัตโนมัติ และการคาลิเบรตแบบอัจฉริยะ Snapmaker ยังใส่ระบบ AI ที่สามารถตรวจจับข้อผิดพลาดของเส้นใยก่อนที่งานพิมพ์จะล้มเหลว พร้อมกล้องภายในสำหรับบันทึก time-lapse และแอปมือถือที่ควบคุมเครื่องจากระยะไกลได้ แม้จะมีจุดเด่นมากมาย แต่ก็ยังมีคำถามเรื่องความทนทานในระยะยาว และความแม่นยำเมื่อใช้งานที่ความเร็วสูง โดยเฉพาะในงานที่ต้องการความละเอียดสูง เช่น โมเดลวิศวกรรมหรือชิ้นส่วนประกอบจริง ✅ Snapmaker U1 เปิดขายแล้วหลังระดมทุนได้กว่า $20 ล้าน ➡️ มีผู้สนับสนุนกว่า 20,000 รายบน Kickstarter ✅ ใช้ระบบ SnapSwap เปลี่ยนหัวฉีดได้ใน 5 วินาที ➡️ รองรับการพิมพ์หลายวัสดุในเครื่องเดียว ✅ ความเร็วสูงถึง 500 มม./วินาที ด้วยระบบ CoreXY ➡️ พร้อมระบบชดเชยแรงสั่นและปรับระดับอัตโนมัติ ✅ มี AI ตรวจจับข้อผิดพลาดของเส้นใยก่อนงานพิมพ์ล้มเหลว ➡️ ช่วยลดของเสียและเพิ่มความแม่นยำ ✅ รองรับการควบคุมผ่านแอปมือถือและซอฟต์แวร์ Orca ➡️ เพิ่มความสะดวกในการใช้งานและตรวจสอบงานพิมพ์ ✅ กล้องภายในสำหรับบันทึก time-lapse และตรวจสอบงาน ➡️ เตรียมรองรับการอัปเดต firmware เพื่อเพิ่มฟีเจอร์ AI ✅ ขนาดพื้นที่พิมพ์ 270 x 270 x 270 มม. ➡️ รองรับงานขนาดใหญ่โดยไม่เสียความละเอียด ✅ หัวฉีดทนความร้อนสูงถึง 300°C และฐานพิมพ์ร้อนถึง 100°C ➡️ รองรับวัสดุหลากหลายและยึดติดได้ดี https://www.techradar.com/pro/kickstarters-most-successful-product-ever-goes-on-sale-snapmakers-3d-u1-printer-backed-by-usd20-million-booking-order-makes-debut
    WWW.TECHRADAR.COM
    Snapmaker U1 3D printer offers fast speeds and automatic material switching
    Snapmaker raised millions to build its most ambitious 3D printer yet
    0 Comments 0 Shares 150 Views 0 Reviews
  • TSMC ไม่สนศึก NVIDIA vs ASIC – เพราะทุกฝ่ายต้องพึ่งโรงงานของตน

    ตอนนี้โลกของ AI กำลังแบ่งออกเป็นสองขั้วใหญ่ๆ คือฝ่ายที่ใช้ GPU เช่น NVIDIA และ AMD กับฝ่ายที่พัฒนา ASIC (ชิปเฉพาะทาง) เช่น Google, Amazon และ Microsoft เพื่อให้ระบบ AI ทำงานได้เร็วขึ้นและประหยัดพลังงานมากขึ้น

    หลายคนมองว่า ASIC จะมาแทนที่ GPU ในอนาคต เพราะมันถูกออกแบบมาเฉพาะงาน AI โดยตรง แต่ TSMC ไม่ได้กังวลเลย เพราะไม่ว่าจะเป็น GPU หรือ ASIC ทุกคนก็ต้องมาหา TSMC เพื่อผลิตชิปอยู่ดี

    CEO ของ TSMC คุณ C.C. Wei กล่าวไว้ชัดเจนว่า “ไม่ว่าจะเป็น GPU หรือ ASIC ก็ใช้เทคโนโลยีล้ำหน้าของเราเหมือนกัน เราไม่แบ่งฝ่าย เราสนับสนุนทุกประเภท”

    ตัวอย่างที่ชัดเจนคือ Google ที่ร่วมมือกับ Broadcom เพื่อพัฒนา TPU รุ่นใหม่อย่าง Ironwood และ Trillium ซึ่งก็ผลิตโดย TSMC เช่นเดียวกับ Amazon Trainium และ Microsoft Maia ที่ใช้เทคโนโลยีระดับ 5nm และต่ำกว่า

    ดังนั้น ไม่ว่าจะเป็นฝ่ายไหนในสงครามชิป AI TSMC ก็ได้ประโยชน์ทั้งหมด และกลายเป็นศูนย์กลางของห่วงโซ่อุปทานด้าน AI อย่างแท้จริง

    TSMC เป็นผู้ผลิตชิปรายใหญ่ของโลก
    ผลิตทั้ง GPU และ ASIC ให้หลายบริษัท
    ใช้เทคโนโลยีระดับ 5nm และต่ำกว่า
    เป็นศูนย์กลางของห่วงโซ่อุปทานด้าน AI

    ความร่วมมือกับบริษัทใหญ่
    Google ร่วมกับ Broadcom พัฒนา TPU รุ่นใหม่
    Amazon ใช้ TSMC ผลิต Trainium
    Microsoft ใช้ TSMC ผลิต Maia AI chip

    จุดยืนของ TSMC
    ไม่แบ่งฝ่ายระหว่าง GPU กับ ASIC
    สนับสนุนทุกเทคโนโลยีที่ใช้โรงงานของตน
    มั่นใจว่าความต้องการชิปจะเติบโตต่อเนื่องหลายปี

    https://wccftech.com/tsmc-says-in-the-nvidia-vs-asic-war-it-will-always-win/
    🏭 TSMC ไม่สนศึก NVIDIA vs ASIC – เพราะทุกฝ่ายต้องพึ่งโรงงานของตน ตอนนี้โลกของ AI กำลังแบ่งออกเป็นสองขั้วใหญ่ๆ คือฝ่ายที่ใช้ GPU เช่น NVIDIA และ AMD กับฝ่ายที่พัฒนา ASIC (ชิปเฉพาะทาง) เช่น Google, Amazon และ Microsoft เพื่อให้ระบบ AI ทำงานได้เร็วขึ้นและประหยัดพลังงานมากขึ้น หลายคนมองว่า ASIC จะมาแทนที่ GPU ในอนาคต เพราะมันถูกออกแบบมาเฉพาะงาน AI โดยตรง แต่ TSMC ไม่ได้กังวลเลย เพราะไม่ว่าจะเป็น GPU หรือ ASIC ทุกคนก็ต้องมาหา TSMC เพื่อผลิตชิปอยู่ดี CEO ของ TSMC คุณ C.C. Wei กล่าวไว้ชัดเจนว่า “ไม่ว่าจะเป็น GPU หรือ ASIC ก็ใช้เทคโนโลยีล้ำหน้าของเราเหมือนกัน เราไม่แบ่งฝ่าย เราสนับสนุนทุกประเภท” ตัวอย่างที่ชัดเจนคือ Google ที่ร่วมมือกับ Broadcom เพื่อพัฒนา TPU รุ่นใหม่อย่าง Ironwood และ Trillium ซึ่งก็ผลิตโดย TSMC เช่นเดียวกับ Amazon Trainium และ Microsoft Maia ที่ใช้เทคโนโลยีระดับ 5nm และต่ำกว่า ดังนั้น ไม่ว่าจะเป็นฝ่ายไหนในสงครามชิป AI TSMC ก็ได้ประโยชน์ทั้งหมด และกลายเป็นศูนย์กลางของห่วงโซ่อุปทานด้าน AI อย่างแท้จริง ✅ TSMC เป็นผู้ผลิตชิปรายใหญ่ของโลก ➡️ ผลิตทั้ง GPU และ ASIC ให้หลายบริษัท ➡️ ใช้เทคโนโลยีระดับ 5nm และต่ำกว่า ➡️ เป็นศูนย์กลางของห่วงโซ่อุปทานด้าน AI ✅ ความร่วมมือกับบริษัทใหญ่ ➡️ Google ร่วมกับ Broadcom พัฒนา TPU รุ่นใหม่ ➡️ Amazon ใช้ TSMC ผลิต Trainium ➡️ Microsoft ใช้ TSMC ผลิต Maia AI chip ✅ จุดยืนของ TSMC ➡️ ไม่แบ่งฝ่ายระหว่าง GPU กับ ASIC ➡️ สนับสนุนทุกเทคโนโลยีที่ใช้โรงงานของตน ➡️ มั่นใจว่าความต้องการชิปจะเติบโตต่อเนื่องหลายปี https://wccftech.com/tsmc-says-in-the-nvidia-vs-asic-war-it-will-always-win/
    WCCFTECH.COM
    TSMC Says in the 'NVIDIA vs ASIC War', It Will Always Win as Customers From Both Sides Turn to the Chip Giant for Foundry Orders
    TSMC is well aware of the growing rivalry between GPU customers and ASICs, but the firm apparently doesn't worry much.
    0 Comments 0 Shares 122 Views 0 Reviews
  • “บั๊กเดียวเปลี่ยนชีวิต! เมื่อ PyTorch สอนมากกว่าหลายปีที่ใช้งาน”

    ลองจินตนาการว่าคุณกำลังเทรนโมเดล deep learning บน MacBook ด้วย PyTorch แล้วอยู่ดีๆ loss ก็หยุดนิ่งไม่ขยับ ทั้งที่คุณมั่นใจว่าโค้ดไม่มีปัญหา… นี่คือจุดเริ่มต้นของการผจญภัยของ Elana Simon นักวิจัยจาก Stanford ที่ค้นพบว่าไม่ใช่แค่ hyperparameter ที่ผิด แต่เป็นบั๊กลึกใน PyTorch ที่ซ่อนอยู่ในระดับ kernel บน Apple Silicon GPU!

    เธอเริ่มจากการสงสัยตัวเอง ลองปรับทุกอย่างที่คิดได้ ตั้งแต่ learning rate ไปจนถึง auxiliary loss แต่ encoder weights กลับไม่ขยับเลยแม้แต่นิดเดียว ทั้งที่ decoder weights กลับอัปเดตตามปกติ สุดท้ายเธอพบว่า optimizer Adam บน MPS (Metal Performance Shaders) มีปัญหากับ tensor ที่ไม่ contiguous ซึ่งทำให้บาง operation อย่าง addcmul_() และ addcdiv_() ไม่อัปเดตค่าเลยแม้จะคำนวณเสร็จแล้ว!

    การแก้ปัญหานี้ไม่ใช่แค่การเรียก .contiguous() แต่ยังต้องเข้าใจการทำงานของ kernel, memory layout, และ dispatch system ของ PyTorch อย่างลึกซึ้ง ซึ่งเธอได้เรียนรู้ทั้งหมดจากการไล่ debug ทีละขั้นตอน และสุดท้ายก็สามารถแก้บั๊กได้เอง พร้อมส่ง pull request ไปยัง PyTorch repo!

    นอกจากนั้น เธอยังพบว่า operation อื่นๆ เช่น random_() ก็มีบั๊กแบบเดียวกัน และทั้งหมดนี้เกิดจาก abstraction ที่ “รั่ว” ของ Placeholder ที่ไม่รู้ว่าตัวเองกำลังจัดการกับ output tensor หรือ input tensor

    เรื่องนี้ไม่ใช่แค่การแก้บั๊ก แต่เป็นบทเรียนสำคัญในการเข้าใจระบบที่เราใช้งานอยู่ และเป็นแรงบันดาลใจให้ใครหลายคนกล้าลงลึกเพื่อเข้าใจสิ่งที่อยู่เบื้องหลัง framework ที่เราใช้ทุกวัน

    ปัญหาเริ่มต้นจาก loss ที่ไม่ลดลง
    เกิดขึ้นกับ encoder weights ที่ไม่อัปเดตเลย

    การตรวจสอบพบว่า gradients มีอยู่จริง
    encoder มี gradient ขนาดใหญ่และไม่เป็น NaN

    Optimizer Adam เป็นต้นเหตุ
    encoder weights ไม่อัปเดตเมื่อใช้ Adam แต่ทำงานปกติเมื่อใช้ SGD

    การตรวจสอบ state ของ Adam พบว่า exp_avg_sq เป็นศูนย์
    ทั้งที่ควรมีค่าเพราะ gradients ไม่เป็นศูนย์

    การเปลี่ยนไปใช้ float64 ทำให้ปัญหาหายไป
    แต่จริงๆ แล้วเป็นเพราะเปลี่ยนจาก MPS ไปใช้ CPU โดยไม่ตั้งใจ

    ปัญหาเกิดจาก device-specific kernel บน MPS
    บาง operation ไม่สามารถเขียนค่าลงใน non-contiguous tensor ได้

    การแก้ไขคือการทำ tensor ให้ contiguous ก่อนใช้งาน
    โดยเรียก .contiguous() ก่อน optimizer step

    การตรวจสอบ source code พบว่า operation บางตัวไม่เช็ค contiguity
    เช่น addcmul_() และ addcdiv_() บน MPS ไม่ทำ copy-back

    การแก้ไขใน PyTorch v2.4 ได้แก้ปัญหานี้แล้ว
    โดยเพิ่มขั้นตอน copy-back สำหรับ non-contiguous output

    macOS 15 รองรับ non-contiguous tensor โดยตรง
    ลดความจำเป็นในการ workaround ด้วยการ copy

    https://elanapearl.github.io/blog/2025/the-bug-that-taught-me-pytorch/
    🧠 “บั๊กเดียวเปลี่ยนชีวิต! เมื่อ PyTorch สอนมากกว่าหลายปีที่ใช้งาน” ลองจินตนาการว่าคุณกำลังเทรนโมเดล deep learning บน MacBook ด้วย PyTorch แล้วอยู่ดีๆ loss ก็หยุดนิ่งไม่ขยับ ทั้งที่คุณมั่นใจว่าโค้ดไม่มีปัญหา… นี่คือจุดเริ่มต้นของการผจญภัยของ Elana Simon นักวิจัยจาก Stanford ที่ค้นพบว่าไม่ใช่แค่ hyperparameter ที่ผิด แต่เป็นบั๊กลึกใน PyTorch ที่ซ่อนอยู่ในระดับ kernel บน Apple Silicon GPU! เธอเริ่มจากการสงสัยตัวเอง ลองปรับทุกอย่างที่คิดได้ ตั้งแต่ learning rate ไปจนถึง auxiliary loss แต่ encoder weights กลับไม่ขยับเลยแม้แต่นิดเดียว ทั้งที่ decoder weights กลับอัปเดตตามปกติ สุดท้ายเธอพบว่า optimizer Adam บน MPS (Metal Performance Shaders) มีปัญหากับ tensor ที่ไม่ contiguous ซึ่งทำให้บาง operation อย่าง addcmul_() และ addcdiv_() ไม่อัปเดตค่าเลยแม้จะคำนวณเสร็จแล้ว! การแก้ปัญหานี้ไม่ใช่แค่การเรียก .contiguous() แต่ยังต้องเข้าใจการทำงานของ kernel, memory layout, และ dispatch system ของ PyTorch อย่างลึกซึ้ง ซึ่งเธอได้เรียนรู้ทั้งหมดจากการไล่ debug ทีละขั้นตอน และสุดท้ายก็สามารถแก้บั๊กได้เอง พร้อมส่ง pull request ไปยัง PyTorch repo! นอกจากนั้น เธอยังพบว่า operation อื่นๆ เช่น random_() ก็มีบั๊กแบบเดียวกัน และทั้งหมดนี้เกิดจาก abstraction ที่ “รั่ว” ของ Placeholder ที่ไม่รู้ว่าตัวเองกำลังจัดการกับ output tensor หรือ input tensor เรื่องนี้ไม่ใช่แค่การแก้บั๊ก แต่เป็นบทเรียนสำคัญในการเข้าใจระบบที่เราใช้งานอยู่ และเป็นแรงบันดาลใจให้ใครหลายคนกล้าลงลึกเพื่อเข้าใจสิ่งที่อยู่เบื้องหลัง framework ที่เราใช้ทุกวัน ✅ ปัญหาเริ่มต้นจาก loss ที่ไม่ลดลง ➡️ เกิดขึ้นกับ encoder weights ที่ไม่อัปเดตเลย ✅ การตรวจสอบพบว่า gradients มีอยู่จริง ➡️ encoder มี gradient ขนาดใหญ่และไม่เป็น NaN ✅ Optimizer Adam เป็นต้นเหตุ ➡️ encoder weights ไม่อัปเดตเมื่อใช้ Adam แต่ทำงานปกติเมื่อใช้ SGD ✅ การตรวจสอบ state ของ Adam พบว่า exp_avg_sq เป็นศูนย์ ➡️ ทั้งที่ควรมีค่าเพราะ gradients ไม่เป็นศูนย์ ✅ การเปลี่ยนไปใช้ float64 ทำให้ปัญหาหายไป ➡️ แต่จริงๆ แล้วเป็นเพราะเปลี่ยนจาก MPS ไปใช้ CPU โดยไม่ตั้งใจ ✅ ปัญหาเกิดจาก device-specific kernel บน MPS ➡️ บาง operation ไม่สามารถเขียนค่าลงใน non-contiguous tensor ได้ ✅ การแก้ไขคือการทำ tensor ให้ contiguous ก่อนใช้งาน ➡️ โดยเรียก .contiguous() ก่อน optimizer step ✅ การตรวจสอบ source code พบว่า operation บางตัวไม่เช็ค contiguity ➡️ เช่น addcmul_() และ addcdiv_() บน MPS ไม่ทำ copy-back ✅ การแก้ไขใน PyTorch v2.4 ได้แก้ปัญหานี้แล้ว ➡️ โดยเพิ่มขั้นตอน copy-back สำหรับ non-contiguous output ✅ macOS 15 รองรับ non-contiguous tensor โดยตรง ➡️ ลดความจำเป็นในการ workaround ด้วยการ copy https://elanapearl.github.io/blog/2025/the-bug-that-taught-me-pytorch/
    ELANAPEARL.GITHUB.IO
    the bug that taught me more about PyTorch than years of using it
    a loss plateau that looked like my mistake turned out to be a PyTorch bug. tracking it down meant peeling back every layer of abstraction, from optimizer internals to GPU kernels.
    0 Comments 0 Shares 221 Views 0 Reviews
  • Anthropic จับมือ Google Cloud ขยายกำลังประมวลผล TPU – ตั้งเป้าเกิน 1GW ภายในปี 2026

    Anthropic ผู้พัฒนา AI เบื้องหลัง Claude ได้ลงนามข้อตกลงใหม่กับ Google Cloud เพื่อขยายการใช้ชิป TPU สำหรับฝึกโมเดล AI โดยตั้งเป้าจะมีพลังประมวลผลรวมมากกว่า 1 กิกะวัตต์ภายในปี 2026 ซึ่งถือเป็นการลงทุนครั้งใหญ่เพื่อรองรับความต้องการที่เพิ่มขึ้นอย่างรวดเร็วจากลูกค้าทั่วโลก

    บริษัทเริ่มใช้บริการของ Google Cloud ตั้งแต่ปี 2023 และได้ใช้แพลตฟอร์มต่าง ๆ เช่น Vertex AI และ Google Cloud Marketplace เพื่อให้บริการ Claude แก่ลูกค้า เช่น Figma, Palo Alto Networks และ Cursor

    ข้อตกลงใหม่นี้จะช่วยให้ Anthropic เข้าถึง TPU ได้มากถึง 1 ล้านตัว พร้อมบริการคลาวด์อื่น ๆ จาก Google ซึ่งจะช่วยให้ Claude สามารถรองรับงานจากลูกค้าได้มากขึ้น และพัฒนาโมเดลให้ล้ำหน้ากว่าเดิม

    แม้คู่แข่งอย่าง OpenAI และ xAI จะลงทุนสร้างศูนย์ข้อมูลของตัวเอง แต่ Anthropic เลือกใช้แนวทาง “เช่า” เพื่อหลีกเลี่ยงความเสี่ยงจากการลงทุนฮาร์ดแวร์ระยะยาว และมุ่งเน้นไปที่การพัฒนาโมเดล AI เป็นหลัก

    ข้อตกลงระหว่าง Anthropic และ Google Cloud
    ขยายการใช้ TPU สำหรับฝึกโมเดล Claude
    ตั้งเป้ามีกำลังประมวลผลรวมเกิน 1GW ภายในปี 2026
    เข้าถึง TPU ได้มากถึง 1 ล้านตัว
    ใช้บริการคลาวด์อื่น ๆ เช่น Vertex AI และ Marketplace

    ผลกระทบต่อธุรกิจของ Anthropic
    รองรับความต้องการจากลูกค้าได้มากขึ้น
    พัฒนา Claude ให้ล้ำหน้ากว่าเดิม
    ลูกค้ารายใหญ่ ได้แก่ Figma, Palo Alto Networks, Cursor

    กลยุทธ์เทียบกับคู่แข่ง
    OpenAI และ xAI ลงทุนสร้างศูนย์ข้อมูลของตัวเอง
    Anthropic เลือกเช่าเพื่อลดความเสี่ยงด้านฮาร์ดแวร์
    มุ่งเน้นการพัฒนาโมเดล AI มากกว่าการลงทุนโครงสร้างพื้นฐาน

    https://www.tomshardware.com/tech-industry/artificial-intelligence/anthropic-signs-deal-with-google-cloud-to-expand-tpu-chip-capacity-ai-company-expects-to-have-over-1gw-of-processing-power-in-2026
    🤝 Anthropic จับมือ Google Cloud ขยายกำลังประมวลผล TPU – ตั้งเป้าเกิน 1GW ภายในปี 2026 Anthropic ผู้พัฒนา AI เบื้องหลัง Claude ได้ลงนามข้อตกลงใหม่กับ Google Cloud เพื่อขยายการใช้ชิป TPU สำหรับฝึกโมเดล AI โดยตั้งเป้าจะมีพลังประมวลผลรวมมากกว่า 1 กิกะวัตต์ภายในปี 2026 ซึ่งถือเป็นการลงทุนครั้งใหญ่เพื่อรองรับความต้องการที่เพิ่มขึ้นอย่างรวดเร็วจากลูกค้าทั่วโลก บริษัทเริ่มใช้บริการของ Google Cloud ตั้งแต่ปี 2023 และได้ใช้แพลตฟอร์มต่าง ๆ เช่น Vertex AI และ Google Cloud Marketplace เพื่อให้บริการ Claude แก่ลูกค้า เช่น Figma, Palo Alto Networks และ Cursor ข้อตกลงใหม่นี้จะช่วยให้ Anthropic เข้าถึง TPU ได้มากถึง 1 ล้านตัว พร้อมบริการคลาวด์อื่น ๆ จาก Google ซึ่งจะช่วยให้ Claude สามารถรองรับงานจากลูกค้าได้มากขึ้น และพัฒนาโมเดลให้ล้ำหน้ากว่าเดิม แม้คู่แข่งอย่าง OpenAI และ xAI จะลงทุนสร้างศูนย์ข้อมูลของตัวเอง แต่ Anthropic เลือกใช้แนวทาง “เช่า” เพื่อหลีกเลี่ยงความเสี่ยงจากการลงทุนฮาร์ดแวร์ระยะยาว และมุ่งเน้นไปที่การพัฒนาโมเดล AI เป็นหลัก ✅ ข้อตกลงระหว่าง Anthropic และ Google Cloud ➡️ ขยายการใช้ TPU สำหรับฝึกโมเดล Claude ➡️ ตั้งเป้ามีกำลังประมวลผลรวมเกิน 1GW ภายในปี 2026 ➡️ เข้าถึง TPU ได้มากถึง 1 ล้านตัว ➡️ ใช้บริการคลาวด์อื่น ๆ เช่น Vertex AI และ Marketplace ✅ ผลกระทบต่อธุรกิจของ Anthropic ➡️ รองรับความต้องการจากลูกค้าได้มากขึ้น ➡️ พัฒนา Claude ให้ล้ำหน้ากว่าเดิม ➡️ ลูกค้ารายใหญ่ ได้แก่ Figma, Palo Alto Networks, Cursor ✅ กลยุทธ์เทียบกับคู่แข่ง ➡️ OpenAI และ xAI ลงทุนสร้างศูนย์ข้อมูลของตัวเอง ➡️ Anthropic เลือกเช่าเพื่อลดความเสี่ยงด้านฮาร์ดแวร์ ➡️ มุ่งเน้นการพัฒนาโมเดล AI มากกว่าการลงทุนโครงสร้างพื้นฐาน https://www.tomshardware.com/tech-industry/artificial-intelligence/anthropic-signs-deal-with-google-cloud-to-expand-tpu-chip-capacity-ai-company-expects-to-have-over-1gw-of-processing-power-in-2026
    0 Comments 0 Shares 146 Views 0 Reviews
  • จีนเปิดตัวมาตรฐานใหม่ “UBIOS” แทน BIOS และ UEFI เดิม – ก้าวสำคัญสู่การพึ่งพาตนเองด้านเทคโนโลยี

    จีนเดินหน้าสู่การพึ่งพาตนเองด้านเทคโนโลยีอย่างจริงจัง ล่าสุดได้เปิดตัวมาตรฐานเฟิร์มแวร์ใหม่ชื่อว่า “UBIOS” (Unified Basic Input/Output System) เพื่อแทนที่ BIOS และ UEFI ที่ใช้กันมายาวนานในคอมพิวเตอร์ทั่วโลก โดยมาตรฐานนี้ถูกพัฒนาโดยกลุ่มบริษัทเทคโนโลยีจีน 13 แห่ง รวมถึง Huawei และ CESI โดยมีเป้าหมายหลักคือการลดการพึ่งพามาตรฐานจากสหรัฐฯ และสนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86 เช่น ARM, RISC-V และ LoongArch

    UBIOS ถูกสร้างขึ้นใหม่ทั้งหมด ไม่ได้พัฒนาต่อจาก UEFI ซึ่งจีนมองว่ามีความซับซ้อนเกินไปและถูกควบคุมโดยบริษัทอเมริกันอย่าง Intel และ AMD การพัฒนาใหม่นี้ยังรองรับการใช้งานแบบ heterogeneous computing เช่น เมนบอร์ดที่มี CPU ต่างรุ่นกัน และระบบที่ใช้ชิปแบบ chiplet ซึ่งกำลังเป็นเทรนด์ใหม่ในวงการคอมพิวเตอร์

    การเปิดตัว UBIOS ถือเป็นหนึ่งในความพยายามของจีนตามแผน “Document 79” ที่มีเป้าหมายให้ประเทศเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027 ซึ่งแม้จะเป็นเป้าหมายที่ท้าทาย แต่การมีมาตรฐานเฟิร์มแวร์ของตัวเองก็เป็นก้าวสำคัญที่อาจเปลี่ยนเกมในอนาคต

    การเปิดตัวมาตรฐาน UBIOS
    เป็นเฟิร์มแวร์ใหม่ที่ใช้แทน BIOS และ UEFI
    พัฒนาโดยกลุ่มบริษัทจีน 13 แห่ง เช่น Huawei, CESI
    ไม่พัฒนาต่อจาก UEFI แต่สร้างใหม่ทั้งหมดจาก BIOS เดิม
    รองรับการใช้งานกับ CPU ที่หลากหลาย เช่น ARM, RISC-V, LoongArch
    รองรับการใช้งานแบบ heterogeneous computing และ chiplet
    เตรียมเปิดเผยรายละเอียดเพิ่มเติมในงาน Global Computing Conference ปี 2025 ที่เซินเจิ้น

    เป้าหมายของจีนในการพึ่งพาตนเองด้านเทคโนโลยี
    ลดการพึ่งพามาตรฐานจากสหรัฐฯ เช่น UEFI ที่ควบคุมโดย Intel และ AMD
    สนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86
    เป็นส่วนหนึ่งของแผน “Document 79” ที่จะเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027

    ความท้าทายและข้อควรระวัง
    ยังไม่แน่ชัดว่า UBIOS จะได้รับการยอมรับในระดับสากลหรือไม่
    อาจเผชิญกับปัญหาความเข้ากันได้กับระบบปฏิบัติการและฮาร์ดแวร์ที่มีอยู่
    การเปลี่ยนมาตรฐานเฟิร์มแวร์อาจส่งผลต่อความมั่นคงของระบบในระยะเริ่มต้น
    หากไม่สามารถสร้าง ecosystem ที่แข็งแรงได้ อาจมีชะตากรรมแบบเดียวกับ LoongArch ที่ไม่เป็นที่นิยม

    https://www.tomshardware.com/software/china-releases-ubios-standard-to-replace-uefi-huawei-backed-bios-firmware-replacement-charges-chinas-domestic-computing-goals
    🇨🇳 จีนเปิดตัวมาตรฐานใหม่ “UBIOS” แทน BIOS และ UEFI เดิม – ก้าวสำคัญสู่การพึ่งพาตนเองด้านเทคโนโลยี จีนเดินหน้าสู่การพึ่งพาตนเองด้านเทคโนโลยีอย่างจริงจัง ล่าสุดได้เปิดตัวมาตรฐานเฟิร์มแวร์ใหม่ชื่อว่า “UBIOS” (Unified Basic Input/Output System) เพื่อแทนที่ BIOS และ UEFI ที่ใช้กันมายาวนานในคอมพิวเตอร์ทั่วโลก โดยมาตรฐานนี้ถูกพัฒนาโดยกลุ่มบริษัทเทคโนโลยีจีน 13 แห่ง รวมถึง Huawei และ CESI โดยมีเป้าหมายหลักคือการลดการพึ่งพามาตรฐานจากสหรัฐฯ และสนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86 เช่น ARM, RISC-V และ LoongArch UBIOS ถูกสร้างขึ้นใหม่ทั้งหมด ไม่ได้พัฒนาต่อจาก UEFI ซึ่งจีนมองว่ามีความซับซ้อนเกินไปและถูกควบคุมโดยบริษัทอเมริกันอย่าง Intel และ AMD การพัฒนาใหม่นี้ยังรองรับการใช้งานแบบ heterogeneous computing เช่น เมนบอร์ดที่มี CPU ต่างรุ่นกัน และระบบที่ใช้ชิปแบบ chiplet ซึ่งกำลังเป็นเทรนด์ใหม่ในวงการคอมพิวเตอร์ การเปิดตัว UBIOS ถือเป็นหนึ่งในความพยายามของจีนตามแผน “Document 79” ที่มีเป้าหมายให้ประเทศเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027 ซึ่งแม้จะเป็นเป้าหมายที่ท้าทาย แต่การมีมาตรฐานเฟิร์มแวร์ของตัวเองก็เป็นก้าวสำคัญที่อาจเปลี่ยนเกมในอนาคต ✅ การเปิดตัวมาตรฐาน UBIOS ➡️ เป็นเฟิร์มแวร์ใหม่ที่ใช้แทน BIOS และ UEFI ➡️ พัฒนาโดยกลุ่มบริษัทจีน 13 แห่ง เช่น Huawei, CESI ➡️ ไม่พัฒนาต่อจาก UEFI แต่สร้างใหม่ทั้งหมดจาก BIOS เดิม ➡️ รองรับการใช้งานกับ CPU ที่หลากหลาย เช่น ARM, RISC-V, LoongArch ➡️ รองรับการใช้งานแบบ heterogeneous computing และ chiplet ➡️ เตรียมเปิดเผยรายละเอียดเพิ่มเติมในงาน Global Computing Conference ปี 2025 ที่เซินเจิ้น ✅ เป้าหมายของจีนในการพึ่งพาตนเองด้านเทคโนโลยี ➡️ ลดการพึ่งพามาตรฐานจากสหรัฐฯ เช่น UEFI ที่ควบคุมโดย Intel และ AMD ➡️ สนับสนุนการใช้งานฮาร์ดแวร์ที่ไม่ใช่ x86 ➡️ เป็นส่วนหนึ่งของแผน “Document 79” ที่จะเลิกใช้เทคโนโลยีตะวันตกภายในปี 2027 ‼️ ความท้าทายและข้อควรระวัง ⛔ ยังไม่แน่ชัดว่า UBIOS จะได้รับการยอมรับในระดับสากลหรือไม่ ⛔ อาจเผชิญกับปัญหาความเข้ากันได้กับระบบปฏิบัติการและฮาร์ดแวร์ที่มีอยู่ ⛔ การเปลี่ยนมาตรฐานเฟิร์มแวร์อาจส่งผลต่อความมั่นคงของระบบในระยะเริ่มต้น ⛔ หากไม่สามารถสร้าง ecosystem ที่แข็งแรงได้ อาจมีชะตากรรมแบบเดียวกับ LoongArch ที่ไม่เป็นที่นิยม https://www.tomshardware.com/software/china-releases-ubios-standard-to-replace-uefi-huawei-backed-bios-firmware-replacement-charges-chinas-domestic-computing-goals
    WWW.TOMSHARDWARE.COM
    China releases 'UBIOS' standard to replace UEFI — Huawei-backed BIOS firmware replacement charges China's domestic computing goals
    Support for chiplets, heterogeneous computing, and a step away from U.S.-based standards are key features of China's BIOS replacement.
    0 Comments 0 Shares 208 Views 0 Reviews
  • “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก”

    ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน

    แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้

    นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี

    Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์

    แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น

    กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC
    พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน
    เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ
    จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI
    เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น
    ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์
    ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง
    ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย

    คู่แข่งและสถานการณ์ในตลาด
    Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง
    Amazon มี Trainium, Google มี TPU, Meta มี MTIA
    เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล
    ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน

    ความท้าทายและคำเตือน
    ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน
    หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด
    การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ
    ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ
    การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว

    https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    ⚙️ “NVIDIA ไม่หวั่นชิป ASIC! เดินเกมรุกด้วยแผนผลิต AI สุดล้ำ พร้อมพันธมิตรระดับโลก” ช่วงนี้หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Meta, Amazon และ Google กำลังหันไปพัฒนาชิป ASIC ของตัวเองเพื่อใช้กับงาน AI โดยเฉพาะ ซึ่งเป็นชิปที่ออกแบบมาเฉพาะงาน ทำให้มีประสิทธิภาพสูงและประหยัดพลังงานมากกว่า GPU ทั่วไป แน่นอนว่าการเคลื่อนไหวนี้ส่งผลต่อ NVIDIA โดยตรง เพราะเป็นเจ้าตลาด GPU สำหรับงาน AI มานาน แต่ Jensen Huang ซีอีโอของ NVIDIA ก็ไม่ได้นิ่งเฉย เขาเดินเกมรุกด้วยแผนผลิตชิป AI ที่อัปเดตทุก 6–8 เดือน ซึ่งเร็วกว่าคู่แข่งอย่าง AMD ที่อัปเดตปีละครั้ง แถมยังเปิดตัว Rubin CPX ชิปใหม่ที่เน้นงาน inference โดยเฉพาะ ซึ่งเป็นเทรนด์ใหม่ของการประมวลผล AI ในยุคนี้ นอกจากนี้ NVIDIA ยังจับมือกับพันธมิตรระดับโลก เช่น Intel และ OpenAI เพื่อสร้างระบบ AI ที่ครบวงจร และเปิดตัว NVLink Fusion ที่ช่วยให้ชิปจากค่ายอื่นสามารถเชื่อมต่อกับระบบของ NVIDIA ได้อย่างไร้รอยต่อ เรียกได้ว่าไม่ว่าคุณจะใช้ชิปจากค่ายไหน ถ้าอยากได้ระบบที่ดีที่สุด ก็ต้องพึ่ง NVIDIA อยู่ดี Jensen ยังพูดในพอดแคสต์ว่า “ถึงแม้คู่แข่งจะขายชิปฟรี แต่ต้นทุนรวมของระบบ NVIDIA ยังถูกกว่า” เพราะมีการลงทุนด้านโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ แม้จะมีคู่แข่งอย่าง Amazon Trainium, Google TPU และ Meta MTIA แต่ด้วยความเร็วในการพัฒนาและพันธมิตรที่แข็งแกร่ง NVIDIA ก็ยังคงเป็นผู้นำในตลาด AI อย่างเหนียวแน่น ✅ กลยุทธ์ของ NVIDIA ในการรับมือชิป ASIC ➡️ พัฒนาแผนผลิตชิป AI แบบอัปเดตทุก 6–8 เดือน ➡️ เปิดตัว Rubin CPX สำหรับงาน inference โดยเฉพาะ ➡️ จับมือพันธมิตรระดับโลก เช่น Intel และ OpenAI ➡️ เปิดตัว NVLink Fusion เพื่อเชื่อมต่อชิปจากค่ายอื่น ➡️ ลงทุนโครงสร้างพื้นฐานไปแล้วกว่า 15 พันล้านดอลลาร์ ➡️ ยืนยันว่าระบบ NVIDIA มีต้นทุนรวมต่ำกว่าคู่แข่ง ➡️ ยังคงเป็นผู้นำในตลาด AI แม้มีคู่แข่งหลายราย ✅ คู่แข่งและสถานการณ์ในตลาด ➡️ Meta, Amazon, Google พัฒนาชิป ASIC ของตัวเอง ➡️ Amazon มี Trainium, Google มี TPU, Meta มี MTIA ➡️ เทรนด์ใหม่เน้นงาน inference มากกว่าการเทรนโมเดล ➡️ ความเร็วในการพัฒนาคือปัจจัยสำคัญในการแข่งขัน ‼️ ความท้าทายและคำเตือน ⛔ ชิป ASIC มีประสิทธิภาพสูงและประหยัดพลังงาน ⛔ หาก NVIDIA ไม่ปรับตัว อาจเสียส่วนแบ่งตลาด ⛔ การแข่งขันในตลาด AI รุนแรงขึ้นเรื่อย ๆ ⛔ ความเร็วในการพัฒนาอาจกดดันคุณภาพและเสถียรภาพ ⛔ การพึ่งพาพันธมิตรอาจมีความเสี่ยงในระยะยาว https://wccftech.com/nvidia-has-already-geared-up-to-challenge-big-tech-custom-ai-chip-ambitions/
    WCCFTECH.COM
    NVIDIA Has Already Geared Up to Challenge Big Tech’s Custom AI Chip Ambitions Through AI Alliances & an Unrivaled Product Roadmap
    There's always a concern about how ASICs could pose a challenge to NVIDIA's but it seems like the firm have the prepared 'right weapons'.
    0 Comments 0 Shares 163 Views 0 Reviews
  • “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน

    Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น

    ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้

    ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe

    การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ:

    การบรรจุหลายโมเดลลงใน GPU เดียว
    การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output

    แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง

    Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon
    จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM

    Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด
    ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน

    ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า
    เมื่อเทียบกับระบบ serverless แบบเดิม

    ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด
    เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน

    ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์
    ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม

    ทดสอบในระบบ Model Studio Marketplace ของ Alibaba
    ใช้งานจริงหลายเดือน

    https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    ⚙️ “Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon — เสิร์ฟ LLM ได้มากขึ้นด้วยทรัพยากรน้อยลง” — เมื่อการจัดสรร GPU แบบใหม่เปลี่ยนเกมการประมวลผล AI ในจีน Alibaba Cloud เปิดตัวระบบจัดสรร GPU ใหม่ชื่อว่า “Aegaeon” ซึ่งช่วยลดจำนวน GPU Nvidia ที่ต้องใช้ในการให้บริการโมเดลภาษาใหญ่ (LLM) ลงถึง 82% โดยผลการทดสอบในระบบ Model Studio Marketplace พบว่าเดิมต้องใช้ 1,192 GPU แต่หลังใช้ Aegaeon เหลือเพียง 213 ตัวเท่านั้น ระบบนี้ไม่เกี่ยวกับการฝึกโมเดล แต่เน้นช่วง inference — คือการให้โมเดลตอบคำถามหรือสร้างข้อความ โดย Aegaeon ใช้เทคนิค “token-level scheduling” ที่แบ่งงานออกเป็นชิ้นเล็ก ๆ แล้วกระจายไปยัง GPU หลายตัวแบบเสมือน ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกันได้ ผลลัพธ์คือ “goodput” หรือประสิทธิภาพการใช้งานจริงเพิ่มขึ้นถึง 9 เท่าเมื่อเทียบกับระบบ serverless แบบเดิม เช่น ServerlessLLM และ MuxServe การทดสอบนี้ใช้ Nvidia H20 ซึ่งเป็นหนึ่งใน GPU ไม่กี่รุ่นที่ยังสามารถขายให้จีนได้ภายใต้ข้อจำกัดจากสหรัฐฯ โดย Alibaba ใช้เทคนิคสองอย่างหลัก ๆ: 🎗️ การบรรจุหลายโมเดลลงใน GPU เดียว 🎗️ การใช้ autoscaler ที่ปรับการจัดสรรทรัพยากรแบบเรียลไทม์ตามการสร้าง output แม้ผลลัพธ์จะน่าประทับใจ แต่ยังไม่ชัดเจนว่าระบบนี้จะใช้ได้ดีนอก Alibaba เพราะอาจต้องพึ่งโครงสร้างพื้นฐานเฉพาะ เช่น eRDMA network และ GPU stack ที่ Alibaba พัฒนาขึ้นเอง ✅ Alibaba ลดการใช้ GPU Nvidia ลง 82% ด้วยระบบ Aegaeon ➡️ จาก 1,192 ตัวเหลือเพียง 213 ตัวในการให้บริการ LLM ✅ Aegaeon ใช้ token-level scheduling เพื่อแบ่งงานแบบละเอียด ➡️ ทำให้ GPU หนึ่งตัวสามารถให้บริการหลายโมเดลพร้อมกัน ✅ ประสิทธิภาพการใช้งานจริง (goodput) เพิ่มขึ้นถึง 9 เท่า ➡️ เมื่อเทียบกับระบบ serverless แบบเดิม ✅ ใช้ Nvidia H20 ซึ่งยังขายให้จีนได้ภายใต้ข้อจำกัด ➡️ เป็นหนึ่งใน GPU ที่ยังถูกกฎหมายในตลาดจีน ✅ ใช้ autoscaler ที่จัดสรรทรัพยากรแบบเรียลไทม์ ➡️ ไม่ต้องจองทรัพยากรล่วงหน้าแบบเดิม ✅ ทดสอบในระบบ Model Studio Marketplace ของ Alibaba ➡️ ใช้งานจริงหลายเดือน https://www.tomshardware.com/tech-industry/semiconductors/alibaba-says-new-pooling-system-cut-nvidia-gpu-use-by-82-percent
    WWW.TOMSHARDWARE.COM
    Alibaba Cloud says it cut Nvidia AI GPU use by 82% with new pooling system— up to 9x increase in output lets 213 GPUs perform like 1,192
    A paper presented at SOSP 2025 details how token-level scheduling helped one GPU serve multiple LLMs, reducing demand from 1,192 to 213 H20s.
    0 Comments 0 Shares 174 Views 0 Reviews
  • “Gemini 3.0 โผล่ผ่าน A/B Test บน Google AI Studio — เผยศักยภาพผ่านการสร้าง SVG”

    Rick Lamers ได้ทดลองใช้งาน Google AI Studio และพบว่าเขาอาจได้เข้าถึงโมเดล Gemini 3.0 ผ่านระบบ A/B testing โดยไม่ได้ตั้งใจ จุดสังเกตคือคุณภาพของภาพ SVG ที่โมเดลสร้างขึ้นจาก prompt “Create an SVG image of an Xbox 360 controller” ซึ่งให้ผลลัพธ์ที่ “น่าประทับใจมาก” เมื่อเทียบกับโมเดลอื่น ๆ ที่เขาเคยทดสอบ

    เขาใช้การสร้าง SVG เป็นตัวชี้วัดคุณภาพของโมเดล โดยอ้างอิงจากแนวทางของ @simonw ที่ใช้ prompt “pelican riding a bicycle” เป็น benchmark สำหรับทดสอบ reasoning และความสามารถด้านการเข้าใจโครงสร้างภาพ

    แม้ว่าโมเดลจะระบุว่าเป็น Gemini 2.5 Pro แต่ Lamers สันนิษฐานว่าเบื้องหลังอาจเป็น Gemini 3.0 Pro ที่กำลังถูกทดสอบแบบเงียบ ๆ เพราะผลลัพธ์มีลักษณะต่างจาก Gemini 2.5 อย่างชัดเจน เช่น:

    เวลา TTFT (Time To First Token) สูงขึ้นประมาณ 24 วินาที
    ความยาว output เพิ่มขึ้นราว 40% (รวม reasoning tokens)

    เขายังสังเกตว่า model ID ที่ปรากฏคือ “ecpt50a2y6mpgkcn” ซึ่งไม่สามารถยืนยันได้ว่าเป็น Gemini 3.0 จริงหรือไม่ แต่ความแตกต่างในคุณภาพและพฤติกรรมของโมเดลทำให้เขาเชื่อว่า Google กำลังทดสอบ Gemini 3.0 แบบเบื้องหลัง

    Rick Lamers พบโมเดลที่น่าจะเป็น Gemini 3.0 ผ่าน A/B testing บน Google AI Studio
    โดยใช้การสร้าง SVG เป็นตัวชี้วัดคุณภาพ

    Prompt ที่ใช้คือ “Create an SVG image of an Xbox 360 controller”
    ผลลัพธ์น่าประทับใจเมื่อเทียบกับโมเดลอื่น

    ใช้แนวทางของ @simonw ที่ใช้ prompt “pelican riding a bicycle” เป็น benchmark
    เพื่อทดสอบ reasoning และความเข้าใจโครงสร้างภาพ

    โมเดลแสดง model ID ว่า “ecpt50a2y6mpgkcn”
    ไม่สามารถยืนยันได้ว่าเป็น Gemini 3.0 จริงหรือไม่

    TTFT เพิ่มขึ้น 24 วินาที และ output ยาวขึ้น 40%
    บ่งชี้ว่าอาจเป็นโมเดลที่ใหญ่หรือซับซ้อนกว่าเดิม

    https://ricklamers.io/posts/gemini-3-spotted-in-the-wild/
    🧪 “Gemini 3.0 โผล่ผ่าน A/B Test บน Google AI Studio — เผยศักยภาพผ่านการสร้าง SVG” Rick Lamers ได้ทดลองใช้งาน Google AI Studio และพบว่าเขาอาจได้เข้าถึงโมเดล Gemini 3.0 ผ่านระบบ A/B testing โดยไม่ได้ตั้งใจ จุดสังเกตคือคุณภาพของภาพ SVG ที่โมเดลสร้างขึ้นจาก prompt “Create an SVG image of an Xbox 360 controller” ซึ่งให้ผลลัพธ์ที่ “น่าประทับใจมาก” เมื่อเทียบกับโมเดลอื่น ๆ ที่เขาเคยทดสอบ เขาใช้การสร้าง SVG เป็นตัวชี้วัดคุณภาพของโมเดล โดยอ้างอิงจากแนวทางของ @simonw ที่ใช้ prompt “pelican riding a bicycle” เป็น benchmark สำหรับทดสอบ reasoning และความสามารถด้านการเข้าใจโครงสร้างภาพ แม้ว่าโมเดลจะระบุว่าเป็น Gemini 2.5 Pro แต่ Lamers สันนิษฐานว่าเบื้องหลังอาจเป็น Gemini 3.0 Pro ที่กำลังถูกทดสอบแบบเงียบ ๆ เพราะผลลัพธ์มีลักษณะต่างจาก Gemini 2.5 อย่างชัดเจน เช่น: ⭕ เวลา TTFT (Time To First Token) สูงขึ้นประมาณ 24 วินาที ⭕ ความยาว output เพิ่มขึ้นราว 40% (รวม reasoning tokens) เขายังสังเกตว่า model ID ที่ปรากฏคือ “ecpt50a2y6mpgkcn” ซึ่งไม่สามารถยืนยันได้ว่าเป็น Gemini 3.0 จริงหรือไม่ แต่ความแตกต่างในคุณภาพและพฤติกรรมของโมเดลทำให้เขาเชื่อว่า Google กำลังทดสอบ Gemini 3.0 แบบเบื้องหลัง ✅ Rick Lamers พบโมเดลที่น่าจะเป็น Gemini 3.0 ผ่าน A/B testing บน Google AI Studio ➡️ โดยใช้การสร้าง SVG เป็นตัวชี้วัดคุณภาพ ✅ Prompt ที่ใช้คือ “Create an SVG image of an Xbox 360 controller” ➡️ ผลลัพธ์น่าประทับใจเมื่อเทียบกับโมเดลอื่น ✅ ใช้แนวทางของ @simonw ที่ใช้ prompt “pelican riding a bicycle” เป็น benchmark ➡️ เพื่อทดสอบ reasoning และความเข้าใจโครงสร้างภาพ ✅ โมเดลแสดง model ID ว่า “ecpt50a2y6mpgkcn” ➡️ ไม่สามารถยืนยันได้ว่าเป็น Gemini 3.0 จริงหรือไม่ ✅ TTFT เพิ่มขึ้น 24 วินาที และ output ยาวขึ้น 40% ➡️ บ่งชี้ว่าอาจเป็นโมเดลที่ใหญ่หรือซับซ้อนกว่าเดิม https://ricklamers.io/posts/gemini-3-spotted-in-the-wild/
    RICKLAMERS.IO
    Gemini 3.0 Spotted in the Wild Through A/B Testing
    Testing Google's highly anticipated Gemini 3.0 through AI Studio's A/B feature using SVG generation as a quality proxy
    0 Comments 0 Shares 209 Views 0 Reviews
  • “Claude Haiku 4.5 เปิดตัวแล้ว” — โมเดลเล็กที่เร็วกว่า ถูกกว่า และฉลาดใกล้เคียงระดับแนวหน้า

    Anthropic เปิดตัว Claude Haiku 4.5 ซึ่งเป็นโมเดลขนาดเล็กที่ให้ประสิทธิภาพใกล้เคียงกับ Claude Sonnet 4.5 แต่มีต้นทุนเพียงหนึ่งในสาม และความเร็วมากกว่าสองเท่า โดยเฉพาะในงานที่ต้องการความเร็วแบบเรียลไทม์ เช่น แชตบอท, ตัวช่วยเขียนโค้ด, หรือผู้ช่วยบริการลูกค้า

    Claude Haiku 4.5 ยังสามารถใช้ร่วมกับ Sonnet 4.5 ได้อย่างมีประสิทธิภาพ เช่น ให้ Sonnet วางแผนหลายขั้นตอน แล้วให้ Haiku 4.5 หลายตัวทำงานย่อยแบบขนานกัน ซึ่งช่วยลดเวลาและต้นทุนในการประมวลผล

    ด้านความปลอดภัย Claude Haiku 4.5 ได้รับการจัดอยู่ในระดับ AI Safety Level 2 (ASL-2) ซึ่งปลอดภัยกว่ารุ่นก่อนหน้า และมีอัตราการเบี่ยงเบนพฤติกรรมต่ำกว่าทั้ง Sonnet 4.5 และ Opus 4.1 โดยผ่านการทดสอบด้าน alignment และความเสี่ยงจากการใช้งานในงานอ่อนไหว เช่น CBRN (เคมี ชีวภาพ รังสี นิวเคลียร์)

    นักพัฒนาและผู้ใช้ทั่วไปสามารถใช้งาน Claude Haiku 4.5 ได้แล้ววันนี้ผ่าน Claude API, Amazon Bedrock และ Google Cloud Vertex AI โดยมีราคาที่ประหยัดที่สุดในกลุ่มผลิตภัณฑ์ Claude

    ข้อมูลในข่าว
    Claude Haiku 4.5 เป็นโมเดลขนาดเล็กที่เปิดตัวล่าสุดจาก Anthropic
    ให้ประสิทธิภาพใกล้เคียง Sonnet 4.5 แต่เร็วกว่าและถูกกว่ามาก
    เหมาะกับงานที่ต้องการความเร็ว เช่น แชตบอทและตัวช่วยเขียนโค้ด
    สามารถใช้ร่วมกับ Sonnet 4.5 เพื่อแบ่งงานย่อยแบบขนาน
    รองรับการใช้งานผ่าน Claude API, Amazon Bedrock และ Google Cloud Vertex AI
    ราคาอยู่ที่ $1/$5 ต่อ input/output tokens หนึ่งล้านหน่วย
    ผ่านการทดสอบด้านความปลอดภัยและ alignment อย่างละเอียด
    ได้รับการจัดอยู่ในระดับ AI Safety Level 2 (ASL-2)
    มีอัตราพฤติกรรมเบี่ยงเบนต่ำกว่ารุ่นก่อนหน้าและรุ่นระดับสูง
    เหมาะกับงานที่ต้องการทั้งความฉลาดและความเร็วแบบเรียลไทม์

    คำเตือนจากข้อมูลข่าว
    แม้จะเร็วและถูกกว่า แต่ Haiku 4.5 ยังไม่เทียบเท่ารุ่นแนวหน้าในทุกด้าน
    การใช้ Haiku 4.5 ในงานที่ซับซ้อนมากอาจต้องพึ่ง Sonnet 4.5 ในการวางแผน
    แม้จะปลอดภัยกว่า แต่ยังต้องมีการควบคุมการใช้งานในบริบทอ่อนไหว
    การใช้งานในระบบที่ต้องการความแม่นยำสูงควรพิจารณาโมเดลที่เหมาะสมกับงาน

    https://www.anthropic.com/news/claude-haiku-4-5
    ⚡ “Claude Haiku 4.5 เปิดตัวแล้ว” — โมเดลเล็กที่เร็วกว่า ถูกกว่า และฉลาดใกล้เคียงระดับแนวหน้า Anthropic เปิดตัว Claude Haiku 4.5 ซึ่งเป็นโมเดลขนาดเล็กที่ให้ประสิทธิภาพใกล้เคียงกับ Claude Sonnet 4.5 แต่มีต้นทุนเพียงหนึ่งในสาม และความเร็วมากกว่าสองเท่า โดยเฉพาะในงานที่ต้องการความเร็วแบบเรียลไทม์ เช่น แชตบอท, ตัวช่วยเขียนโค้ด, หรือผู้ช่วยบริการลูกค้า Claude Haiku 4.5 ยังสามารถใช้ร่วมกับ Sonnet 4.5 ได้อย่างมีประสิทธิภาพ เช่น ให้ Sonnet วางแผนหลายขั้นตอน แล้วให้ Haiku 4.5 หลายตัวทำงานย่อยแบบขนานกัน ซึ่งช่วยลดเวลาและต้นทุนในการประมวลผล ด้านความปลอดภัย Claude Haiku 4.5 ได้รับการจัดอยู่ในระดับ AI Safety Level 2 (ASL-2) ซึ่งปลอดภัยกว่ารุ่นก่อนหน้า และมีอัตราการเบี่ยงเบนพฤติกรรมต่ำกว่าทั้ง Sonnet 4.5 และ Opus 4.1 โดยผ่านการทดสอบด้าน alignment และความเสี่ยงจากการใช้งานในงานอ่อนไหว เช่น CBRN (เคมี ชีวภาพ รังสี นิวเคลียร์) นักพัฒนาและผู้ใช้ทั่วไปสามารถใช้งาน Claude Haiku 4.5 ได้แล้ววันนี้ผ่าน Claude API, Amazon Bedrock และ Google Cloud Vertex AI โดยมีราคาที่ประหยัดที่สุดในกลุ่มผลิตภัณฑ์ Claude ✅ ข้อมูลในข่าว ➡️ Claude Haiku 4.5 เป็นโมเดลขนาดเล็กที่เปิดตัวล่าสุดจาก Anthropic ➡️ ให้ประสิทธิภาพใกล้เคียง Sonnet 4.5 แต่เร็วกว่าและถูกกว่ามาก ➡️ เหมาะกับงานที่ต้องการความเร็ว เช่น แชตบอทและตัวช่วยเขียนโค้ด ➡️ สามารถใช้ร่วมกับ Sonnet 4.5 เพื่อแบ่งงานย่อยแบบขนาน ➡️ รองรับการใช้งานผ่าน Claude API, Amazon Bedrock และ Google Cloud Vertex AI ➡️ ราคาอยู่ที่ $1/$5 ต่อ input/output tokens หนึ่งล้านหน่วย ➡️ ผ่านการทดสอบด้านความปลอดภัยและ alignment อย่างละเอียด ➡️ ได้รับการจัดอยู่ในระดับ AI Safety Level 2 (ASL-2) ➡️ มีอัตราพฤติกรรมเบี่ยงเบนต่ำกว่ารุ่นก่อนหน้าและรุ่นระดับสูง ➡️ เหมาะกับงานที่ต้องการทั้งความฉลาดและความเร็วแบบเรียลไทม์ ‼️ คำเตือนจากข้อมูลข่าว ⛔ แม้จะเร็วและถูกกว่า แต่ Haiku 4.5 ยังไม่เทียบเท่ารุ่นแนวหน้าในทุกด้าน ⛔ การใช้ Haiku 4.5 ในงานที่ซับซ้อนมากอาจต้องพึ่ง Sonnet 4.5 ในการวางแผน ⛔ แม้จะปลอดภัยกว่า แต่ยังต้องมีการควบคุมการใช้งานในบริบทอ่อนไหว ⛔ การใช้งานในระบบที่ต้องการความแม่นยำสูงควรพิจารณาโมเดลที่เหมาะสมกับงาน https://www.anthropic.com/news/claude-haiku-4-5
    WWW.ANTHROPIC.COM
    Introducing Claude Haiku 4.5
    Claude Haiku 4.5, our latest small model, is available today to all users.
    0 Comments 0 Shares 140 Views 0 Reviews
  • “MediaTek Dimensity 9500 สอนบทเรียนให้ Google” — เมื่อชิป SoC ราคาประหยัดกลับแซง Tensor G5 แบบไม่ไว้หน้า

    MediaTek สร้างแรงสั่นสะเทือนในวงการสมาร์ตโฟนด้วยชิป Dimensity 9500 ที่สามารถเอาชนะ Tensor G5 ของ Google ได้ในหลายการทดสอบ benchmark โดยใช้เทคโนโลยี ARM แบบทั่วไป ไม่ต้องพึ่งการออกแบบเฉพาะตัวเหมือนที่ Google ทำ

    Dimensity 9500 มาพร้อม CPU แบบ 8 คอร์ที่ใช้ ARM C1 รุ่นล่าสุด โดยมีคอร์ Ultra ที่แรงถึง 4.21GHz และ GPU Mali-G1 Ultra MC12 ที่รองรับ ray-tracing และเล่นเกมได้ลื่นถึง 120fps ในขณะที่ Tensor G5 ใช้ Cortex-X4 ที่เก่ากว่า และ GPU จาก Imagination ที่ไม่มี ray-tracing เลย

    ด้าน AI Dimensity 9500 ใช้ NPU 990 ส่วน Tensor G5 ใช้ TPU ที่ออกแบบเอง แต่กลับมีปัญหาเรื่องความร้อนและ throttling เมื่อเจองานหนัก โดยเฉพาะใน Pixel 10 รุ่นพื้นฐานที่ไม่มี vapor chamber สำหรับระบายความร้อน

    ที่น่าตกใจคือราคาของ Dimensity 9500 อยู่ที่ประมาณ $180–$200 ในขณะที่ Google ตั้งเป้าราคาชิป Tensor G5 ไว้เพียง $65 แต่กลับขาย Pixel 10 ที่ใช้ชิปนี้ในราคาเท่ากับ iPhone 17 คือ $799 โดยไม่มีการลดราคาแม้จะรู้ว่าชิปมีข้อจำกัด

    บทความชี้ว่า Google ควรเรียนรู้จาก MediaTek ในการใช้เทคโนโลยีที่มีอยู่ให้เกิดประโยชน์สูงสุด โดยไม่ต้องลดต้นทุนจนกระทบต่อคุณภาพ และไม่ควรตั้งราคาสินค้าระดับพรีเมียมหากประสิทธิภาพยังไม่ถึงระดับนั้น

    ข้อมูลในข่าว
    Dimensity 9500 เอาชนะ Tensor G5 ในหลายการทดสอบ benchmark
    ใช้ ARM C1 รุ่นล่าสุดและ GPU Mali-G1 Ultra MC12 ที่รองรับ ray-tracing
    Tensor G5 ใช้ Cortex-X4 ที่เก่ากว่า และ GPU ที่ไม่มี ray-tracing
    Dimensity 9500 ใช้ NPU 990 ส่วน Tensor G5 ใช้ TPU ที่ออกแบบเอง
    Pixel 10 รุ่นพื้นฐานไม่มี vapor chamber ทำให้เกิดความร้อนและ throttling
    Dimensity 9500 มีราคาประมาณ $180–$200 ส่วน Tensor G5 ตั้งเป้าไว้ที่ $65
    Pixel 10 ขายราคาเท่ากับ iPhone 17 โดยไม่มีการลดราคา

    คำเตือนจากข้อมูลข่าว
    การลดต้นทุนชิปอาจส่งผลต่อประสิทธิภาพและความร้อนของอุปกรณ์
    การตั้งราคาสูงโดยไม่รองรับประสิทธิภาพระดับพรีเมียม อาจทำให้ผู้บริโภคไม่พอใจ
    การไม่ใส่ vapor chamber ในรุ่นพื้นฐาน อาจทำให้เครื่องร้อนและประสิทธิภาพลดลง
    การใช้ GPU ที่ไม่มี ray-tracing อาจลดคุณภาพการเล่นเกมและกราฟิก

    https://wccftech.com/mediatek-dimensity-9500-shows-google-tensor-g5-the-way/
    📱 “MediaTek Dimensity 9500 สอนบทเรียนให้ Google” — เมื่อชิป SoC ราคาประหยัดกลับแซง Tensor G5 แบบไม่ไว้หน้า MediaTek สร้างแรงสั่นสะเทือนในวงการสมาร์ตโฟนด้วยชิป Dimensity 9500 ที่สามารถเอาชนะ Tensor G5 ของ Google ได้ในหลายการทดสอบ benchmark โดยใช้เทคโนโลยี ARM แบบทั่วไป ไม่ต้องพึ่งการออกแบบเฉพาะตัวเหมือนที่ Google ทำ Dimensity 9500 มาพร้อม CPU แบบ 8 คอร์ที่ใช้ ARM C1 รุ่นล่าสุด โดยมีคอร์ Ultra ที่แรงถึง 4.21GHz และ GPU Mali-G1 Ultra MC12 ที่รองรับ ray-tracing และเล่นเกมได้ลื่นถึง 120fps ในขณะที่ Tensor G5 ใช้ Cortex-X4 ที่เก่ากว่า และ GPU จาก Imagination ที่ไม่มี ray-tracing เลย ด้าน AI Dimensity 9500 ใช้ NPU 990 ส่วน Tensor G5 ใช้ TPU ที่ออกแบบเอง แต่กลับมีปัญหาเรื่องความร้อนและ throttling เมื่อเจองานหนัก โดยเฉพาะใน Pixel 10 รุ่นพื้นฐานที่ไม่มี vapor chamber สำหรับระบายความร้อน ที่น่าตกใจคือราคาของ Dimensity 9500 อยู่ที่ประมาณ $180–$200 ในขณะที่ Google ตั้งเป้าราคาชิป Tensor G5 ไว้เพียง $65 แต่กลับขาย Pixel 10 ที่ใช้ชิปนี้ในราคาเท่ากับ iPhone 17 คือ $799 โดยไม่มีการลดราคาแม้จะรู้ว่าชิปมีข้อจำกัด บทความชี้ว่า Google ควรเรียนรู้จาก MediaTek ในการใช้เทคโนโลยีที่มีอยู่ให้เกิดประโยชน์สูงสุด โดยไม่ต้องลดต้นทุนจนกระทบต่อคุณภาพ และไม่ควรตั้งราคาสินค้าระดับพรีเมียมหากประสิทธิภาพยังไม่ถึงระดับนั้น ✅ ข้อมูลในข่าว ➡️ Dimensity 9500 เอาชนะ Tensor G5 ในหลายการทดสอบ benchmark ➡️ ใช้ ARM C1 รุ่นล่าสุดและ GPU Mali-G1 Ultra MC12 ที่รองรับ ray-tracing ➡️ Tensor G5 ใช้ Cortex-X4 ที่เก่ากว่า และ GPU ที่ไม่มี ray-tracing ➡️ Dimensity 9500 ใช้ NPU 990 ส่วน Tensor G5 ใช้ TPU ที่ออกแบบเอง ➡️ Pixel 10 รุ่นพื้นฐานไม่มี vapor chamber ทำให้เกิดความร้อนและ throttling ➡️ Dimensity 9500 มีราคาประมาณ $180–$200 ส่วน Tensor G5 ตั้งเป้าไว้ที่ $65 ➡️ Pixel 10 ขายราคาเท่ากับ iPhone 17 โดยไม่มีการลดราคา ‼️ คำเตือนจากข้อมูลข่าว ⛔ การลดต้นทุนชิปอาจส่งผลต่อประสิทธิภาพและความร้อนของอุปกรณ์ ⛔ การตั้งราคาสูงโดยไม่รองรับประสิทธิภาพระดับพรีเมียม อาจทำให้ผู้บริโภคไม่พอใจ ⛔ การไม่ใส่ vapor chamber ในรุ่นพื้นฐาน อาจทำให้เครื่องร้อนและประสิทธิภาพลดลง ⛔ การใช้ GPU ที่ไม่มี ray-tracing อาจลดคุณภาพการเล่นเกมและกราฟิก https://wccftech.com/mediatek-dimensity-9500-shows-google-tensor-g5-the-way/
    WCCFTECH.COM
    MediaTek Dimensity 9500 Shows Google's Tensor G5 The Way
    Google is charging Apple-level prices for the Tensor G5, a silicon that shows a proclivity for heating up and throttle.
    0 Comments 0 Shares 219 Views 0 Reviews
  • “OpenAI จับมือ Broadcom สร้างชิป AI 10GW – ก้าวใหม่สู่ยุคฮาร์ดแวร์เฉพาะทาง”

    ในโลกที่ AI กำลังกลายเป็นหัวใจของทุกอุตสาหกรรม OpenAI ไม่หยุดอยู่แค่การพัฒนาโมเดลอัจฉริยะ แต่กำลังเดินหน้าสู่การสร้าง “ฮาร์ดแวร์เฉพาะทาง” ด้วยตัวเอง โดยล่าสุดได้ประกาศความร่วมมือกับ Broadcom ในการพัฒนาและติดตั้งระบบเร่งการประมวลผล (accelerators) สำหรับงาน AI ขนาดมหึมา รวมถึงระบบแร็คเซิร์ฟเวอร์ที่รองรับพลังงานรวมถึง 10 กิกะวัตต์

    ข้อตกลงนี้เป็นส่วนหนึ่งของยุทธศาสตร์ระยะยาวของ OpenAI ที่ต้องการลดการพึ่งพา GPU จาก Nvidia และหันมาใช้ชิปที่ออกแบบเอง โดยอาศัยความเชี่ยวชาญด้านเครือข่ายและ IP ฮาร์ดแวร์จาก Broadcom ซึ่งเคยผลิตชิป AI ให้กับ Google TPU มาก่อน

    ระบบใหม่จะใช้โครงสร้างเครือข่ายแบบ Ethernet เพื่อให้สามารถขยายได้ง่าย และไม่ผูกติดกับผู้ผลิตรายใดรายหนึ่ง โดยการติดตั้งจะเริ่มในครึ่งหลังของปี 2026 และคาดว่าจะเสร็จสมบูรณ์ภายในปี 2029

    นอกจากนี้ OpenAI ยังมีดีลกับ AMD และ Nvidia รวมถึง CoreWeave ซึ่งรวมแล้วมีการลงทุนในฮาร์ดแวร์มากกว่า 26 กิกะวัตต์ทั่วโลก ถือเป็นการเตรียมความพร้อมสำหรับการฝึกและใช้งานโมเดล AI ขนาดใหญ่ในอนาคต

    ข้อตกลงระหว่าง OpenAI และ Broadcom
    ร่วมกันพัฒนาและติดตั้งระบบเร่งการประมวลผล AI ขนาด 10GW
    OpenAI ออกแบบตัวเร่งและระบบ ส่วน Broadcom รับผิดชอบการผลิตและติดตั้ง
    เริ่มใช้งานจริงในครึ่งหลังของปี 2026 และเสร็จสิ้นภายในปี 2029

    เป้าหมายของ OpenAI
    ลดการพึ่งพา GPU จาก Nvidia
    สร้างฮาร์ดแวร์เฉพาะทางที่เหมาะกับงานฝึกและใช้งานโมเดล AI
    ใช้โครงสร้าง Ethernet เพื่อความยืดหยุ่นและขยายง่าย

    ความร่วมมือเพิ่มเติม
    มีดีลกับ Nvidia, AMD และ CoreWeave รวมถึง 26GW ของฮาร์ดแวร์
    Broadcom เคยผลิตชิป AI ให้ Google TPU และมีความเชี่ยวชาญด้าน IP
    OpenAI ได้เปรียบจาก supply chain ที่มั่นคงและทีมออกแบบ ASIC ระดับโลก

    ผลกระทบต่ออุตสาหกรรม
    บริษัทใหญ่หลายราย เช่น Amazon, Google, Meta และ Microsoft กำลังพัฒนาชิป AI เอง
    ตลาดกำลังเปลี่ยนจาก GPU-centric ไปสู่ระบบเร่งแบบเฉพาะทาง
    ความสามารถในการผลิตและออกแบบชิปจะเป็นตัวชี้วัดความได้เปรียบในยุค AI

    ความท้าทายและข้อควรระวัง
    ยังไม่มีการเปิดเผยผู้ผลิตชิป (foundry), การบรรจุ (packaging) หรือชนิดหน่วยความจำ
    การออกแบบและผลิตชิปใช้เวลานานและต้องการความแม่นยำสูง
    ความสำเร็จของระบบใหม่ยังต้องพิสูจน์ในระดับการใช้งานจริง
    Ecosystem ของ Broadcom ยังไม่เทียบเท่ากับ CUDA ของ Nvidia ในด้านซอฟต์แวร์และเครื่องมือ

    https://www.tomshardware.com/openai-broadcom-to-co-develop-10gw-of-custom-ai-chips
    🤖 “OpenAI จับมือ Broadcom สร้างชิป AI 10GW – ก้าวใหม่สู่ยุคฮาร์ดแวร์เฉพาะทาง” ในโลกที่ AI กำลังกลายเป็นหัวใจของทุกอุตสาหกรรม OpenAI ไม่หยุดอยู่แค่การพัฒนาโมเดลอัจฉริยะ แต่กำลังเดินหน้าสู่การสร้าง “ฮาร์ดแวร์เฉพาะทาง” ด้วยตัวเอง โดยล่าสุดได้ประกาศความร่วมมือกับ Broadcom ในการพัฒนาและติดตั้งระบบเร่งการประมวลผล (accelerators) สำหรับงาน AI ขนาดมหึมา รวมถึงระบบแร็คเซิร์ฟเวอร์ที่รองรับพลังงานรวมถึง 10 กิกะวัตต์ ข้อตกลงนี้เป็นส่วนหนึ่งของยุทธศาสตร์ระยะยาวของ OpenAI ที่ต้องการลดการพึ่งพา GPU จาก Nvidia และหันมาใช้ชิปที่ออกแบบเอง โดยอาศัยความเชี่ยวชาญด้านเครือข่ายและ IP ฮาร์ดแวร์จาก Broadcom ซึ่งเคยผลิตชิป AI ให้กับ Google TPU มาก่อน ระบบใหม่จะใช้โครงสร้างเครือข่ายแบบ Ethernet เพื่อให้สามารถขยายได้ง่าย และไม่ผูกติดกับผู้ผลิตรายใดรายหนึ่ง โดยการติดตั้งจะเริ่มในครึ่งหลังของปี 2026 และคาดว่าจะเสร็จสมบูรณ์ภายในปี 2029 นอกจากนี้ OpenAI ยังมีดีลกับ AMD และ Nvidia รวมถึง CoreWeave ซึ่งรวมแล้วมีการลงทุนในฮาร์ดแวร์มากกว่า 26 กิกะวัตต์ทั่วโลก ถือเป็นการเตรียมความพร้อมสำหรับการฝึกและใช้งานโมเดล AI ขนาดใหญ่ในอนาคต ✅ ข้อตกลงระหว่าง OpenAI และ Broadcom ➡️ ร่วมกันพัฒนาและติดตั้งระบบเร่งการประมวลผล AI ขนาด 10GW ➡️ OpenAI ออกแบบตัวเร่งและระบบ ส่วน Broadcom รับผิดชอบการผลิตและติดตั้ง ➡️ เริ่มใช้งานจริงในครึ่งหลังของปี 2026 และเสร็จสิ้นภายในปี 2029 ✅ เป้าหมายของ OpenAI ➡️ ลดการพึ่งพา GPU จาก Nvidia ➡️ สร้างฮาร์ดแวร์เฉพาะทางที่เหมาะกับงานฝึกและใช้งานโมเดล AI ➡️ ใช้โครงสร้าง Ethernet เพื่อความยืดหยุ่นและขยายง่าย ✅ ความร่วมมือเพิ่มเติม ➡️ มีดีลกับ Nvidia, AMD และ CoreWeave รวมถึง 26GW ของฮาร์ดแวร์ ➡️ Broadcom เคยผลิตชิป AI ให้ Google TPU และมีความเชี่ยวชาญด้าน IP ➡️ OpenAI ได้เปรียบจาก supply chain ที่มั่นคงและทีมออกแบบ ASIC ระดับโลก ✅ ผลกระทบต่ออุตสาหกรรม ➡️ บริษัทใหญ่หลายราย เช่น Amazon, Google, Meta และ Microsoft กำลังพัฒนาชิป AI เอง ➡️ ตลาดกำลังเปลี่ยนจาก GPU-centric ไปสู่ระบบเร่งแบบเฉพาะทาง ➡️ ความสามารถในการผลิตและออกแบบชิปจะเป็นตัวชี้วัดความได้เปรียบในยุค AI ‼️ ความท้าทายและข้อควรระวัง ⛔ ยังไม่มีการเปิดเผยผู้ผลิตชิป (foundry), การบรรจุ (packaging) หรือชนิดหน่วยความจำ ⛔ การออกแบบและผลิตชิปใช้เวลานานและต้องการความแม่นยำสูง ⛔ ความสำเร็จของระบบใหม่ยังต้องพิสูจน์ในระดับการใช้งานจริง ⛔ Ecosystem ของ Broadcom ยังไม่เทียบเท่ากับ CUDA ของ Nvidia ในด้านซอฟต์แวร์และเครื่องมือ https://www.tomshardware.com/openai-broadcom-to-co-develop-10gw-of-custom-ai-chips
    WWW.TOMSHARDWARE.COM
    OpenAI and Broadcom to co-develop 10GW of custom AI chips in yet another blockbuster AI partnership — deployments start in 2026
    The AI firm’s latest hardware deal locks in another 10 gigawatts of capacity as it moves to design its own accelerators.
    0 Comments 0 Shares 218 Views 0 Reviews
  • "Tensor G5: ชิปเรือธงจาก Google ที่สะดุดกลางสนามแข่งสมาร์ตโฟน"

    ลองนึกภาพว่าคุณกำลังรอสมาร์ตโฟน Pixel รุ่นใหม่จาก Google ที่มาพร้อมชิป Tensor G5 ซึ่งผลิตบนเทคโนโลยี 3nm ของ TSMC ฟังดูน่าตื่นเต้นใช่ไหม? แต่เมื่อเปิดตัวจริงกลับพบว่า Tensor G5 มีปัญหาเรื่องความร้อนและการ throttle อย่างหนัก โดยเฉพาะในการเล่นเกมหรือแม้แต่การจำลอง PlayStation 2

    สาเหตุหลักมาจากการออกแบบชิปแบบ “ปะติดปะต่อ” ของ Google ที่ใช้คอร์ CPU จาก ARM แบบสำเร็จรูป ไม่ได้พัฒนาเองเหมือนคู่แข่งอย่าง Qualcomm ที่ใช้คอร์ Oryon แบบ custom ซึ่งมีความเร็วสูงและระบบ cache ที่ปรับแต่งมาอย่างดี

    GPU ที่ใช้ก็เป็น Imagination IMG DXT-48-1536 ซึ่งแม้จะมีประสิทธิภาพใกล้เคียง Adreno หรือ Mali แต่ไม่มี ray-tracing และ Google ยังต้องพึ่งพา Imagination ในการอัปเดตไดรเวอร์ ทำให้ขาดความคล่องตัวในการปรับแต่ง

    แม้ Tensor G5 จะมี TPU รุ่นใหม่สำหรับงาน AI และใช้โมเด็ม Exynos 5G แต่เมื่อเทียบกับ Snapdragon 8 Elite Gen 5 แล้ว ยังห่างไกลในด้านประสิทธิภาพและการควบคุมความร้อน

    สถาปัตยกรรมของ Tensor G5
    CPU แบบ 8-core: Cortex-X4, Cortex-A725, Cortex-A520
    GPU: Imagination IMG DXT-48-1536 ไม่มี ray-tracing
    TPU รุ่นที่ 5 สำหรับงาน AI
    โมเด็ม Exynos 5G
    ผลิตบนเทคโนโลยี 3nm ของ TSMC

    ปัญหาหลักของ Tensor G5
    เกิดความร้อนสูงและ throttle อย่างรวดเร็ว
    ประสิทธิภาพต่ำในการเล่นเกมและ emulation
    คะแนน Geekbench และ 3DMark ต่ำกว่าคู่แข่ง

    ข้อเปรียบเทียบกับ Snapdragon 8 Elite Gen 5
    ใช้คอร์ Oryon แบบ custom ที่มีความเร็วสูง
    มี L2 cache ขนาด 12MB สำหรับทั้ง prime และ performance cores
    ปรับแต่งระบบภายในได้ละเอียดกว่า

    ข้อจำกัดด้าน GPU และไดรเวอร์
    Google ต้องพึ่งพา Imagination ในการอัปเดตไดรเวอร์
    ขาดความสามารถในการควบคุมและปรับแต่งแบบเต็มรูปแบบ

    คำเตือนสำหรับผู้ใช้ Pixel 10 ที่ใช้ Tensor G5
    อาจพบปัญหาความร้อนและประสิทธิภาพตกในการใช้งานหนัก
    การเล่นเกมหรือใช้งาน AI อาจไม่ลื่นไหลเท่าที่คาดหวัง
    การพึ่งพาเทคโนโลยีจากภายนอกทำให้ Google ขาดความยืดหยุ่นในการพัฒนา

    Tensor G5 เป็นตัวอย่างของการพยายามลดต้นทุนด้วยการใช้ส่วนประกอบสำเร็จรูป แต่ในโลกของสมาร์ตโฟนระดับเรือธง ความเร็ว ความร้อน และความเสถียรคือสิ่งที่ผู้ใช้คาดหวังสูงสุด และดูเหมือนว่า Google ยังต้องปรับกลยุทธ์อีกมากหากต้องการแข่งขันกับ Qualcomm และ Apple อย่างเต็มตัว.

    https://wccftech.com/the-flaw-in-tensor-g5/
    📲 "Tensor G5: ชิปเรือธงจาก Google ที่สะดุดกลางสนามแข่งสมาร์ตโฟน" ลองนึกภาพว่าคุณกำลังรอสมาร์ตโฟน Pixel รุ่นใหม่จาก Google ที่มาพร้อมชิป Tensor G5 ซึ่งผลิตบนเทคโนโลยี 3nm ของ TSMC ฟังดูน่าตื่นเต้นใช่ไหม? แต่เมื่อเปิดตัวจริงกลับพบว่า Tensor G5 มีปัญหาเรื่องความร้อนและการ throttle อย่างหนัก โดยเฉพาะในการเล่นเกมหรือแม้แต่การจำลอง PlayStation 2 สาเหตุหลักมาจากการออกแบบชิปแบบ “ปะติดปะต่อ” ของ Google ที่ใช้คอร์ CPU จาก ARM แบบสำเร็จรูป ไม่ได้พัฒนาเองเหมือนคู่แข่งอย่าง Qualcomm ที่ใช้คอร์ Oryon แบบ custom ซึ่งมีความเร็วสูงและระบบ cache ที่ปรับแต่งมาอย่างดี GPU ที่ใช้ก็เป็น Imagination IMG DXT-48-1536 ซึ่งแม้จะมีประสิทธิภาพใกล้เคียง Adreno หรือ Mali แต่ไม่มี ray-tracing และ Google ยังต้องพึ่งพา Imagination ในการอัปเดตไดรเวอร์ ทำให้ขาดความคล่องตัวในการปรับแต่ง แม้ Tensor G5 จะมี TPU รุ่นใหม่สำหรับงาน AI และใช้โมเด็ม Exynos 5G แต่เมื่อเทียบกับ Snapdragon 8 Elite Gen 5 แล้ว ยังห่างไกลในด้านประสิทธิภาพและการควบคุมความร้อน ✅ สถาปัตยกรรมของ Tensor G5 ➡️ CPU แบบ 8-core: Cortex-X4, Cortex-A725, Cortex-A520 ➡️ GPU: Imagination IMG DXT-48-1536 ไม่มี ray-tracing ➡️ TPU รุ่นที่ 5 สำหรับงาน AI ➡️ โมเด็ม Exynos 5G ➡️ ผลิตบนเทคโนโลยี 3nm ของ TSMC ✅ ปัญหาหลักของ Tensor G5 ➡️ เกิดความร้อนสูงและ throttle อย่างรวดเร็ว ➡️ ประสิทธิภาพต่ำในการเล่นเกมและ emulation ➡️ คะแนน Geekbench และ 3DMark ต่ำกว่าคู่แข่ง ✅ ข้อเปรียบเทียบกับ Snapdragon 8 Elite Gen 5 ➡️ ใช้คอร์ Oryon แบบ custom ที่มีความเร็วสูง ➡️ มี L2 cache ขนาด 12MB สำหรับทั้ง prime และ performance cores ➡️ ปรับแต่งระบบภายในได้ละเอียดกว่า ✅ ข้อจำกัดด้าน GPU และไดรเวอร์ ➡️ Google ต้องพึ่งพา Imagination ในการอัปเดตไดรเวอร์ ➡️ ขาดความสามารถในการควบคุมและปรับแต่งแบบเต็มรูปแบบ ‼️ คำเตือนสำหรับผู้ใช้ Pixel 10 ที่ใช้ Tensor G5 ⛔ อาจพบปัญหาความร้อนและประสิทธิภาพตกในการใช้งานหนัก ⛔ การเล่นเกมหรือใช้งาน AI อาจไม่ลื่นไหลเท่าที่คาดหวัง ⛔ การพึ่งพาเทคโนโลยีจากภายนอกทำให้ Google ขาดความยืดหยุ่นในการพัฒนา Tensor G5 เป็นตัวอย่างของการพยายามลดต้นทุนด้วยการใช้ส่วนประกอบสำเร็จรูป แต่ในโลกของสมาร์ตโฟนระดับเรือธง ความเร็ว ความร้อน และความเสถียรคือสิ่งที่ผู้ใช้คาดหวังสูงสุด และดูเหมือนว่า Google ยังต้องปรับกลยุทธ์อีกมากหากต้องการแข่งขันกับ Qualcomm และ Apple อย่างเต็มตัว. https://wccftech.com/the-flaw-in-tensor-g5/
    WCCFTECH.COM
    The Flaw In Google Pixel's New Tensor G5 Chip
    Google's design strategy for the Tensor G5 chip is akin to buying an off-the-rack suit and then paying for some fittings here and there.
    0 Comments 0 Shares 215 Views 0 Reviews
  • หัวข้อข่าว: <output> แท็กที่ถูกลืมใน HTML แต่ทรงพลังเกินคาด — ตัวช่วยใหม่เพื่อการเข้าถึงที่แท้จริง

    ลองนึกถึงแท็ก HTML ที่สามารถแสดงผลลัพธ์แบบไดนามิก พร้อมรองรับการเข้าถึง (accessibility) โดยไม่ต้องเขียน ARIA เพิ่มเติม — นั่นคือ <output> แท็กที่อยู่ในสเปก HTML มาตั้งแต่ปี 2008 แต่แทบไม่มีใครพูดถึง

    Den Odell ผู้เขียนบทความนี้เล่าว่าเขาค้นพบแท็ก <output> ขณะทำโปรเจกต์ด้าน accessibility ที่ต้องแสดงคะแนนความเสี่ยงแบบเรียลไทม์ให้ผู้ใช้เห็นและ “ได้ยิน” ผ่าน screen reader เดิมทีเขาใช้ ARIA live region ซึ่งทำงานได้ แต่รู้สึกว่าเป็นการ “แปะ” แก้ปัญหาเฉพาะหน้า จนกระทั่งเขาพบว่า <output> ถูกออกแบบมาเพื่อสิ่งนี้โดยเฉพาะ

    แท็ก <output> จะประกาศค่าที่เปลี่ยนแปลงให้ screen reader โดยอัตโนมัติ โดยไม่รบกวนผู้ใช้ และยังสามารถเชื่อมโยงกับ <input> ได้ด้วย attribute for="" เพื่อระบุว่า output นี้ขึ้นอยู่กับ input ตัวใด

    ตัวอย่างการใช้งานมีตั้งแต่เครื่องคิดเลข, slider ที่แสดงค่าระยะทาง, การแจ้งเตือนความแข็งแรงของรหัสผ่าน ไปจนถึงการแสดงราคาค่าขนส่งที่ดึงมาจาก API แบบเรียลไทม์

    แม้ว่า <output> จะยังมีข้อจำกัด เช่น บาง screen reader ยังไม่รองรับการอ่านค่าที่เปลี่ยนแปลงได้ดีนัก แต่ก็สามารถแก้ได้ด้วยการเพิ่ม role="status" แบบชัดเจน

    สรุปเนื้อหาบทความและข้อมูลเสริม
    <output> คือแท็ก HTML สำหรับแสดงผลลัพธ์แบบไดนามิก
    ใช้แสดงค่าที่คำนวณหรือเกิดจากการกระทำของผู้ใช้
    ถูกแมปไปยัง role="status" ใน accessibility tree โดยอัตโนมัติ

    ความสามารถด้าน accessibility
    screen reader อ่านค่าที่เปลี่ยนแปลงโดยไม่รบกวนผู้ใช้
    อ่านค่าทั้งหมด ไม่ใช่แค่ส่วนที่เปลี่ยน

    การใช้งานร่วมกับ <input>
    ใช้ attribute for="" เพื่อเชื่อมโยงกับ input หลายตัว
    ไม่จำเป็นต้องอยู่ใน <form> ก็ใช้งานได้

    ตัวอย่างการใช้งานจริง
    เครื่องคิดเลขที่แสดงผลลัพธ์ทันที
    การแสดงค่าจาก slider เช่น “10,000 miles/year”
    การแจ้งเตือนความแข็งแรงของรหัสผ่าน
    การแสดงผลลัพธ์จาก API เช่นราคาค่าขนส่ง

    ข้อมูลเสริมจากภายนอก
    <output> อยู่ในสเปก HTML5 มาตั้งแต่ปี 2008
    รองรับในเบราว์เซอร์หลักและ screen reader ส่วนใหญ่
    ใช้งานร่วมกับ React, Vue และเฟรมเวิร์ก JavaScript อื่นได้ดี
    เป็นแท็ก inline โดยดีไซน์ สามารถจัดสไตล์ได้เหมือน <span> หรือ <div>

    คำเตือนเกี่ยวกับการใช้งาน <output>
    บาง screen reader ยังไม่รองรับการประกาศค่าที่เปลี่ยนแปลง
    ควรเพิ่ม role="status" เพื่อให้แน่ใจว่าค่าจะถูกอ่าน
    ไม่ควรใช้ <output> สำหรับการแจ้งเตือนทั่วไป เช่น toast message หรือ error message

    การกลับมาให้ความสนใจกับ <output> คือการย้ำเตือนว่า HTML ยังมีขุมทรัพย์ที่ถูกลืมซ่อนอยู่มากมาย และบางครั้งคำตอบที่ดีที่สุดก็อาจอยู่ตรงหน้าเรามานานแล้ว โดยไม่ต้องพึ่งพา JavaScript หรือ ARIA เสมอไปครับ

    https://denodell.com/blog/html-best-kept-secret-output-tag
    📰 หัวข้อข่าว: <output> แท็กที่ถูกลืมใน HTML แต่ทรงพลังเกินคาด — ตัวช่วยใหม่เพื่อการเข้าถึงที่แท้จริง ลองนึกถึงแท็ก HTML ที่สามารถแสดงผลลัพธ์แบบไดนามิก พร้อมรองรับการเข้าถึง (accessibility) โดยไม่ต้องเขียน ARIA เพิ่มเติม — นั่นคือ <output> แท็กที่อยู่ในสเปก HTML มาตั้งแต่ปี 2008 แต่แทบไม่มีใครพูดถึง Den Odell ผู้เขียนบทความนี้เล่าว่าเขาค้นพบแท็ก <output> ขณะทำโปรเจกต์ด้าน accessibility ที่ต้องแสดงคะแนนความเสี่ยงแบบเรียลไทม์ให้ผู้ใช้เห็นและ “ได้ยิน” ผ่าน screen reader เดิมทีเขาใช้ ARIA live region ซึ่งทำงานได้ แต่รู้สึกว่าเป็นการ “แปะ” แก้ปัญหาเฉพาะหน้า จนกระทั่งเขาพบว่า <output> ถูกออกแบบมาเพื่อสิ่งนี้โดยเฉพาะ แท็ก <output> จะประกาศค่าที่เปลี่ยนแปลงให้ screen reader โดยอัตโนมัติ โดยไม่รบกวนผู้ใช้ และยังสามารถเชื่อมโยงกับ <input> ได้ด้วย attribute for="" เพื่อระบุว่า output นี้ขึ้นอยู่กับ input ตัวใด ตัวอย่างการใช้งานมีตั้งแต่เครื่องคิดเลข, slider ที่แสดงค่าระยะทาง, การแจ้งเตือนความแข็งแรงของรหัสผ่าน ไปจนถึงการแสดงราคาค่าขนส่งที่ดึงมาจาก API แบบเรียลไทม์ แม้ว่า <output> จะยังมีข้อจำกัด เช่น บาง screen reader ยังไม่รองรับการอ่านค่าที่เปลี่ยนแปลงได้ดีนัก แต่ก็สามารถแก้ได้ด้วยการเพิ่ม role="status" แบบชัดเจน 📌 สรุปเนื้อหาบทความและข้อมูลเสริม ✅ <output> คือแท็ก HTML สำหรับแสดงผลลัพธ์แบบไดนามิก ➡️ ใช้แสดงค่าที่คำนวณหรือเกิดจากการกระทำของผู้ใช้ ➡️ ถูกแมปไปยัง role="status" ใน accessibility tree โดยอัตโนมัติ ✅ ความสามารถด้าน accessibility ➡️ screen reader อ่านค่าที่เปลี่ยนแปลงโดยไม่รบกวนผู้ใช้ ➡️ อ่านค่าทั้งหมด ไม่ใช่แค่ส่วนที่เปลี่ยน ✅ การใช้งานร่วมกับ <input> ➡️ ใช้ attribute for="" เพื่อเชื่อมโยงกับ input หลายตัว ➡️ ไม่จำเป็นต้องอยู่ใน <form> ก็ใช้งานได้ ✅ ตัวอย่างการใช้งานจริง ➡️ เครื่องคิดเลขที่แสดงผลลัพธ์ทันที ➡️ การแสดงค่าจาก slider เช่น “10,000 miles/year” ➡️ การแจ้งเตือนความแข็งแรงของรหัสผ่าน ➡️ การแสดงผลลัพธ์จาก API เช่นราคาค่าขนส่ง ✅ ข้อมูลเสริมจากภายนอก ➡️ <output> อยู่ในสเปก HTML5 มาตั้งแต่ปี 2008 ➡️ รองรับในเบราว์เซอร์หลักและ screen reader ส่วนใหญ่ ➡️ ใช้งานร่วมกับ React, Vue และเฟรมเวิร์ก JavaScript อื่นได้ดี ➡️ เป็นแท็ก inline โดยดีไซน์ สามารถจัดสไตล์ได้เหมือน <span> หรือ <div> ‼️ คำเตือนเกี่ยวกับการใช้งาน <output> ⛔ บาง screen reader ยังไม่รองรับการประกาศค่าที่เปลี่ยนแปลง ⛔ ควรเพิ่ม role="status" เพื่อให้แน่ใจว่าค่าจะถูกอ่าน ⛔ ไม่ควรใช้ <output> สำหรับการแจ้งเตือนทั่วไป เช่น toast message หรือ error message การกลับมาให้ความสนใจกับ <output> คือการย้ำเตือนว่า HTML ยังมีขุมทรัพย์ที่ถูกลืมซ่อนอยู่มากมาย และบางครั้งคำตอบที่ดีที่สุดก็อาจอยู่ตรงหน้าเรามานานแล้ว โดยไม่ต้องพึ่งพา JavaScript หรือ ARIA เสมอไปครับ https://denodell.com/blog/html-best-kept-secret-output-tag
    DENODELL.COM
    HTML’s Best Kept Secret: The output Tag
    Make your dynamic content accessible by default with the HTML tag that time forgot.
    0 Comments 0 Shares 173 Views 0 Reviews
  • https://youtube.com/shorts/liQaBm2zBRk?si=9ehUBkMYTPu1s8nJ
    https://youtube.com/shorts/liQaBm2zBRk?si=9ehUBkMYTPu1s8nJ
    0 Comments 0 Shares 60 Views 0 Reviews
  • “OCuLink แซง Thunderbolt 5 ในการทดสอบ RTX 5070 Ti — เกมเมอร์สาย eGPU อาจต้องคิดใหม่ก่อนเลือกพอร์ต”

    ในยุคที่การใช้ eGPU (external GPU) กลายเป็นทางเลือกยอดนิยมสำหรับผู้ใช้โน้ตบุ๊กและพีซีขนาดเล็ก คำถามสำคัญคือ “จะเชื่อมต่อผ่านอะไรดีที่สุด?” ล่าสุดเว็บไซต์ Tom’s Hardware ได้เผยผลการทดสอบที่ชี้ชัดว่า OCuLink ซึ่งเป็นการเชื่อมต่อแบบ PCIe โดยตรง ให้ประสิทธิภาพเหนือกว่า Thunderbolt 5 อย่างชัดเจน โดยเฉพาะในการเล่นเกม

    OCuLink (Optical-Copper Link) เป็นมาตรฐานที่พัฒนาโดย PCI-SIG เพื่อเชื่อมต่ออุปกรณ์ผ่าน PCIe โดยตรง โดยไม่ต้องผ่านการแปลงโปรโตคอลเหมือน Thunderbolt หรือ USB ซึ่งช่วยลด latency และเพิ่มประสิทธิภาพการส่งข้อมูล โดย OCuLink รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุดถึง 64 GT/s

    ในทางกลับกัน Thunderbolt 5 แม้จะมีฟีเจอร์ครบครัน เช่น การชาร์จไฟ การส่งภาพ และการเชื่อมต่อ USB ผ่านสายเดียว แต่ก็ต้องแลกกับ overhead จากการแปลงโปรโตคอล ซึ่งส่งผลให้ประสิทธิภาพลดลง โดยเฉพาะในงานที่ต้องการแบนด์วิดธ์สูงและ latency ต่ำ เช่น การเล่นเกมผ่าน eGPU

    จากการทดสอบด้วย RTX 5070 Ti พบว่า OCuLink ให้ค่า throughput สูงถึง 6.6 GB/s (host-to-device) และ 6.7 GB/s (device-to-host) ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6 และ 5.8 GB/s ตามลำดับ และเมื่อทดสอบเกมจริง 12 เกม Thunderbolt 5 มีค่า FPS เฉลี่ยต่ำกว่า OCuLink ถึง 13–14% โดยเฉพาะในเกมที่ใช้กราฟิกหนัก เช่น Spider-Man: Miles Morales และ Red Dead Redemption 2 ซึ่ง Thunderbolt 5 แพ้ถึง 20–23%

    แม้ Thunderbolt 5 จะสะดวกกว่าในแง่การใช้งานทั่วไป แต่สำหรับผู้ใช้ที่ต้องการประสิทธิภาพสูงสุดในการเล่นเกมผ่าน eGPU OCuLink ยังคงเป็นตัวเลือกที่แรงกว่า — แม้จะยังไม่แพร่หลายในตลาดทั่วไป และต้องใช้ฮาร์ดแวร์เฉพาะทาง

    ข้อมูลสำคัญจากข่าว
    OCuLink เป็นการเชื่อมต่อแบบ PCIe โดยตรง ไม่ผ่านการแปลงโปรโตคอล
    รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุด 64 GT/s
    Thunderbolt 5 รองรับ PCIe 4.0 x4 เช่นกัน แต่มี overhead จากการแปลงโปรโตคอล
    OCuLink ให้ throughput สูงถึง 6.6–6.7 GB/s ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6–5.8 GB/s
    ในการทดสอบเกม 12 เกม Thunderbolt 5 มี FPS ต่ำกว่า OCuLink เฉลี่ย 13–14%
    เกมที่ Thunderbolt 5 แพ้หนัก ได้แก่ Spider-Man: Miles Morales (-20%) และ Red Dead Redemption 2 (-23%)
    Ghost of Tsushima เป็นเกมเดียวที่ทั้งสามระบบทำได้ 120 FPS เท่ากัน
    Thunderbolt 5 ยังมีข้อดีด้านความสะดวก เช่น การชาร์จไฟและส่งภาพผ่านสายเดียว

    ข้อมูลเสริมจากภายนอก
    OCuLink เคยใช้ในเซิร์ฟเวอร์และ SSD มาก่อน ก่อนถูกนำมาใช้กับ GPU
    Thunderbolt 5 มีฟีเจอร์ใหม่ เช่น การชาร์จ 240W และส่งภาพระดับ 120 GT/s
    eGPU ที่ใช้ Thunderbolt 5 เช่น Peladn Link S-3 มีพอร์ตหลากหลายแต่ยังมีข้อจำกัดด้านสาย
    OCuLink ไม่รองรับการ hot-swap และไม่มีฟีเจอร์ USB หรือ video output
    โน้ตบุ๊กที่รองรับ OCuLink ยังมีน้อยมาก ส่วนใหญ่ต้องใช้กับพีซีหรือ mini-PC เฉพาะทาง

    https://www.tomshardware.com/pc-components/gpus/oculink-outpaces-thunderbolt-5-in-nvidia-rtx-5070-ti-tests-latter-up-to-14-percent-slower-on-average-in-gaming-benchmarks
    ⚡ “OCuLink แซง Thunderbolt 5 ในการทดสอบ RTX 5070 Ti — เกมเมอร์สาย eGPU อาจต้องคิดใหม่ก่อนเลือกพอร์ต” ในยุคที่การใช้ eGPU (external GPU) กลายเป็นทางเลือกยอดนิยมสำหรับผู้ใช้โน้ตบุ๊กและพีซีขนาดเล็ก คำถามสำคัญคือ “จะเชื่อมต่อผ่านอะไรดีที่สุด?” ล่าสุดเว็บไซต์ Tom’s Hardware ได้เผยผลการทดสอบที่ชี้ชัดว่า OCuLink ซึ่งเป็นการเชื่อมต่อแบบ PCIe โดยตรง ให้ประสิทธิภาพเหนือกว่า Thunderbolt 5 อย่างชัดเจน โดยเฉพาะในการเล่นเกม OCuLink (Optical-Copper Link) เป็นมาตรฐานที่พัฒนาโดย PCI-SIG เพื่อเชื่อมต่ออุปกรณ์ผ่าน PCIe โดยตรง โดยไม่ต้องผ่านการแปลงโปรโตคอลเหมือน Thunderbolt หรือ USB ซึ่งช่วยลด latency และเพิ่มประสิทธิภาพการส่งข้อมูล โดย OCuLink รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุดถึง 64 GT/s ในทางกลับกัน Thunderbolt 5 แม้จะมีฟีเจอร์ครบครัน เช่น การชาร์จไฟ การส่งภาพ และการเชื่อมต่อ USB ผ่านสายเดียว แต่ก็ต้องแลกกับ overhead จากการแปลงโปรโตคอล ซึ่งส่งผลให้ประสิทธิภาพลดลง โดยเฉพาะในงานที่ต้องการแบนด์วิดธ์สูงและ latency ต่ำ เช่น การเล่นเกมผ่าน eGPU จากการทดสอบด้วย RTX 5070 Ti พบว่า OCuLink ให้ค่า throughput สูงถึง 6.6 GB/s (host-to-device) และ 6.7 GB/s (device-to-host) ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6 และ 5.8 GB/s ตามลำดับ และเมื่อทดสอบเกมจริง 12 เกม Thunderbolt 5 มีค่า FPS เฉลี่ยต่ำกว่า OCuLink ถึง 13–14% โดยเฉพาะในเกมที่ใช้กราฟิกหนัก เช่น Spider-Man: Miles Morales และ Red Dead Redemption 2 ซึ่ง Thunderbolt 5 แพ้ถึง 20–23% แม้ Thunderbolt 5 จะสะดวกกว่าในแง่การใช้งานทั่วไป แต่สำหรับผู้ใช้ที่ต้องการประสิทธิภาพสูงสุดในการเล่นเกมผ่าน eGPU OCuLink ยังคงเป็นตัวเลือกที่แรงกว่า — แม้จะยังไม่แพร่หลายในตลาดทั่วไป และต้องใช้ฮาร์ดแวร์เฉพาะทาง ✅ ข้อมูลสำคัญจากข่าว ➡️ OCuLink เป็นการเชื่อมต่อแบบ PCIe โดยตรง ไม่ผ่านการแปลงโปรโตคอล ➡️ รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุด 64 GT/s ➡️ Thunderbolt 5 รองรับ PCIe 4.0 x4 เช่นกัน แต่มี overhead จากการแปลงโปรโตคอล ➡️ OCuLink ให้ throughput สูงถึง 6.6–6.7 GB/s ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6–5.8 GB/s ➡️ ในการทดสอบเกม 12 เกม Thunderbolt 5 มี FPS ต่ำกว่า OCuLink เฉลี่ย 13–14% ➡️ เกมที่ Thunderbolt 5 แพ้หนัก ได้แก่ Spider-Man: Miles Morales (-20%) และ Red Dead Redemption 2 (-23%) ➡️ Ghost of Tsushima เป็นเกมเดียวที่ทั้งสามระบบทำได้ 120 FPS เท่ากัน ➡️ Thunderbolt 5 ยังมีข้อดีด้านความสะดวก เช่น การชาร์จไฟและส่งภาพผ่านสายเดียว ✅ ข้อมูลเสริมจากภายนอก ➡️ OCuLink เคยใช้ในเซิร์ฟเวอร์และ SSD มาก่อน ก่อนถูกนำมาใช้กับ GPU ➡️ Thunderbolt 5 มีฟีเจอร์ใหม่ เช่น การชาร์จ 240W และส่งภาพระดับ 120 GT/s ➡️ eGPU ที่ใช้ Thunderbolt 5 เช่น Peladn Link S-3 มีพอร์ตหลากหลายแต่ยังมีข้อจำกัดด้านสาย ➡️ OCuLink ไม่รองรับการ hot-swap และไม่มีฟีเจอร์ USB หรือ video output ➡️ โน้ตบุ๊กที่รองรับ OCuLink ยังมีน้อยมาก ส่วนใหญ่ต้องใช้กับพีซีหรือ mini-PC เฉพาะทาง https://www.tomshardware.com/pc-components/gpus/oculink-outpaces-thunderbolt-5-in-nvidia-rtx-5070-ti-tests-latter-up-to-14-percent-slower-on-average-in-gaming-benchmarks
    0 Comments 0 Shares 322 Views 0 Reviews
  • “Stanford เปิดตัว Megakernel สำหรับ Llama-70B — ใช้ GPU เต็มประสิทธิภาพ แซง SGLang ไปกว่า 22%”

    ทีมนักวิจัยจาก Hazy Research แห่งมหาวิทยาลัย Stanford ได้เปิดตัว “Megakernel” สำหรับการ inference โมเดล Llama-70B โดยใช้ GPU H100 แบบเต็มประสิทธิภาพ ซึ่งสามารถแซงระบบยอดนิยมอย่าง SGLang ได้ถึง 22% ในการทดสอบชุดคำสั่งจาก ShareGPT

    แนวคิดหลักคือการรวมการประมวลผลทั้งหมดของโมเดลไว้ใน “megakernel” เดียว แทนที่จะใช้หลาย kernel แบบเดิม ซึ่งมักมีช่วงเวลาที่ GPU ว่างเปล่าและไม่ได้ทำงาน ทีมงานจึงออกแบบระบบ interpreter ที่สามารถ pipeline คำสั่งต่าง ๆ ได้อย่างต่อเนื่อง ทั้งในระดับ SM (Streaming Multiprocessor), ระหว่าง SM หลายตัว และระหว่าง GPU หลายตัว

    การออกแบบนี้ช่วยให้สามารถ overlap การโหลดข้อมูล, การคำนวณ, และการสื่อสารระหว่าง GPU ได้พร้อมกัน ทำให้ใช้ทรัพยากรของ GPU ได้เต็มที่ ไม่ว่าจะเป็น tensor core, memory bandwidth หรือ NVLink

    นอกจากนี้ยังมีการปรับโครงสร้างของ Llama-70B ให้เหมาะกับการทำงานแบบ parallel โดยใช้เทคนิค “distributed transpose” แทน reduce-scatter เพื่อลดการสื่อสารระหว่าง GPU ลงถึง 8 เท่า แม้จะแลกกับการใช้หน่วยความจำเพิ่มขึ้น 9GB ต่อ GPU

    ระบบนี้ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น inference engine ที่ออกแบบมาเพื่องาน throughput สูง โดยสามารถจัดการ batch ขนาดใหญ่ได้อย่างมีประสิทธิภาพ และใช้ CPU เพียงเล็กน้อยในการจัดคิวคำสั่ง

    ผลการทดสอบแสดงให้เห็นว่า Megakernel สามารถประมวลผลคำสั่งได้เร็วกว่า SGLang อย่างชัดเจน ทั้งในด้าน input, output และ throughput รวม โดยเฉพาะเมื่อใช้ batch ขนาดใหญ่ เช่น 8,192 prompt

    ข้อมูลสำคัญจากข่าว
    Megakernel ถูกออกแบบเพื่อ inference Llama-70B บน GPU H100
    ใช้ระบบ interpreter ที่ pipeline คำสั่งได้ทั้งใน SM, ระหว่าง SM และ GPU
    ลดช่วงเวลาที่ GPU ไม่ได้ทำงาน ด้วยการ overlap การโหลด, คำนวณ และสื่อสาร
    ใช้ distributed transpose แทน reduce-scatter เพื่อลด network traffic
    เพิ่มประสิทธิภาพการทำงานแบบ data-parallel โดย replicate O-projection matrix
    Megakernel ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น engine สำหรับงาน throughput สูง
    ผลการทดสอบแสดงว่า Megakernel แซง SGLang ไปกว่า 22% ในชุดคำสั่ง ShareGPT
    ใช้ global work queue และ interleaving เพื่อจัดการคำสั่งแบบ dynamic

    ข้อมูลเสริมจากภายนอก
    SM (Streaming Multiprocessor) คือหน่วยย่อยของ GPU ที่ทำงานแบบ parallel
    NVLink เป็นเทคโนโลยีเชื่อมต่อระหว่าง GPU ที่มี bandwidth สูง
    Reduce-scatter เป็นเทคนิคการรวมข้อมูลจากหลาย GPU แต่มีค่าใช้จ่ายด้าน network
    Distributed transpose ช่วยลดการสื่อสารโดยเปลี่ยนรูปแบบการจัดข้อมูล
    Tokasaurus รองรับการทำงานแบบ tensor-parallel และ pipeline-parallel

    https://hazyresearch.stanford.edu/blog/2025-09-28-tp-llama-main
    ⚙️ “Stanford เปิดตัว Megakernel สำหรับ Llama-70B — ใช้ GPU เต็มประสิทธิภาพ แซง SGLang ไปกว่า 22%” ทีมนักวิจัยจาก Hazy Research แห่งมหาวิทยาลัย Stanford ได้เปิดตัว “Megakernel” สำหรับการ inference โมเดล Llama-70B โดยใช้ GPU H100 แบบเต็มประสิทธิภาพ ซึ่งสามารถแซงระบบยอดนิยมอย่าง SGLang ได้ถึง 22% ในการทดสอบชุดคำสั่งจาก ShareGPT แนวคิดหลักคือการรวมการประมวลผลทั้งหมดของโมเดลไว้ใน “megakernel” เดียว แทนที่จะใช้หลาย kernel แบบเดิม ซึ่งมักมีช่วงเวลาที่ GPU ว่างเปล่าและไม่ได้ทำงาน ทีมงานจึงออกแบบระบบ interpreter ที่สามารถ pipeline คำสั่งต่าง ๆ ได้อย่างต่อเนื่อง ทั้งในระดับ SM (Streaming Multiprocessor), ระหว่าง SM หลายตัว และระหว่าง GPU หลายตัว การออกแบบนี้ช่วยให้สามารถ overlap การโหลดข้อมูล, การคำนวณ, และการสื่อสารระหว่าง GPU ได้พร้อมกัน ทำให้ใช้ทรัพยากรของ GPU ได้เต็มที่ ไม่ว่าจะเป็น tensor core, memory bandwidth หรือ NVLink นอกจากนี้ยังมีการปรับโครงสร้างของ Llama-70B ให้เหมาะกับการทำงานแบบ parallel โดยใช้เทคนิค “distributed transpose” แทน reduce-scatter เพื่อลดการสื่อสารระหว่าง GPU ลงถึง 8 เท่า แม้จะแลกกับการใช้หน่วยความจำเพิ่มขึ้น 9GB ต่อ GPU ระบบนี้ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น inference engine ที่ออกแบบมาเพื่องาน throughput สูง โดยสามารถจัดการ batch ขนาดใหญ่ได้อย่างมีประสิทธิภาพ และใช้ CPU เพียงเล็กน้อยในการจัดคิวคำสั่ง ผลการทดสอบแสดงให้เห็นว่า Megakernel สามารถประมวลผลคำสั่งได้เร็วกว่า SGLang อย่างชัดเจน ทั้งในด้าน input, output และ throughput รวม โดยเฉพาะเมื่อใช้ batch ขนาดใหญ่ เช่น 8,192 prompt ✅ ข้อมูลสำคัญจากข่าว ➡️ Megakernel ถูกออกแบบเพื่อ inference Llama-70B บน GPU H100 ➡️ ใช้ระบบ interpreter ที่ pipeline คำสั่งได้ทั้งใน SM, ระหว่าง SM และ GPU ➡️ ลดช่วงเวลาที่ GPU ไม่ได้ทำงาน ด้วยการ overlap การโหลด, คำนวณ และสื่อสาร ➡️ ใช้ distributed transpose แทน reduce-scatter เพื่อลด network traffic ➡️ เพิ่มประสิทธิภาพการทำงานแบบ data-parallel โดย replicate O-projection matrix ➡️ Megakernel ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น engine สำหรับงาน throughput สูง ➡️ ผลการทดสอบแสดงว่า Megakernel แซง SGLang ไปกว่า 22% ในชุดคำสั่ง ShareGPT ➡️ ใช้ global work queue และ interleaving เพื่อจัดการคำสั่งแบบ dynamic ✅ ข้อมูลเสริมจากภายนอก ➡️ SM (Streaming Multiprocessor) คือหน่วยย่อยของ GPU ที่ทำงานแบบ parallel ➡️ NVLink เป็นเทคโนโลยีเชื่อมต่อระหว่าง GPU ที่มี bandwidth สูง ➡️ Reduce-scatter เป็นเทคนิคการรวมข้อมูลจากหลาย GPU แต่มีค่าใช้จ่ายด้าน network ➡️ Distributed transpose ช่วยลดการสื่อสารโดยเปลี่ยนรูปแบบการจัดข้อมูล ➡️ Tokasaurus รองรับการทำงานแบบ tensor-parallel และ pipeline-parallel https://hazyresearch.stanford.edu/blog/2025-09-28-tp-llama-main
    0 Comments 0 Shares 277 Views 0 Reviews
  • “Sam Altman เดินเกมลับในเอเชีย — จับมือ TSMC, Foxconn และเกาหลีใต้ ปูทางผลิตชิป AI ของตัวเองแทน Nvidia”

    Sam Altman ซีอีโอของ OpenAI เดินทางเยือนเอเชียอย่างเงียบ ๆ ในช่วงปลายเดือนกันยายน 2025 โดยมีจุดหมายสำคัญคือไต้หวันและเกาหลีใต้ เพื่อเจรจาความร่วมมือด้านการผลิตชิป AI และโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ระดับโลก โดยเฉพาะโครงการ “Stargate” ที่มีมูลค่ากว่า 500,000 ล้านดอลลาร์ ซึ่งจะสร้างดาต้าเซ็นเตอร์และโรงงาน AI จำนวนมากในหลายประเทศ

    ในไต้หวัน Altman ได้พบกับผู้บริหารของ TSMC และ Foxconn เพื่อหารือเรื่องการออกแบบและผลิตชิป AI แบบ ASIC ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom โดยใช้เทคโนโลยี 3nm และการบรรจุชิปขั้นสูงแบบ CoWoS พร้อมหน่วยความจำ HBM ซึ่งคาดว่าจะเข้าสู่การผลิตจำนวนมากในไตรมาส 3 ปี 2026

    Foxconn ซึ่งเป็นผู้ผลิตเซิร์ฟเวอร์รายใหญ่ของ Oracle จะมีบทบาทสำคัญในการผลิตฮาร์ดแวร์สำหรับ Stargate โดยเฉพาะในโรงงานที่ SoftBank เข้าซื้อในรัฐโอไฮโอ เพื่อใช้เป็นฐานการผลิตร่วมกับ OpenAI

    หลังจากนั้น Altman เดินทางต่อไปยังเกาหลีใต้เพื่อพบกับประธานาธิบดี Lee Jae Myung และผู้บริหารของ Samsung และ SK hynix โดยมีการลงนามข้อตกลงเบื้องต้นในการสร้างดาต้าเซ็นเตอร์ขนาด 20 เมกะวัตต์ในเมือง Phang และอีกแห่งในจังหวัด South Jeolla

    เป้าหมายของ Altman คือการลดการพึ่งพา Nvidia ซึ่งปัจจุบันเป็นผู้ผลิต GPU รายใหญ่ที่ OpenAI ใช้ในการฝึกและรันโมเดล AI โดยการพัฒนาชิปของตัวเองจะช่วยให้ OpenAI ควบคุมทั้งฮาร์ดแวร์และซอฟต์แวร์ได้เหมือนที่ Apple ทำกับ Apple Silicon

    ข้อมูลสำคัญจากข่าว
    Sam Altman เดินทางเยือนไต้หวันและเกาหลีใต้เพื่อเจรจาความร่วมมือด้านชิปและดาต้าเซ็นเตอร์
    พบกับ TSMC และ Foxconn เพื่อหารือการผลิตชิป AI แบบ ASIC ด้วยเทคโนโลยี 3nm และ CoWoS
    ชิป AI ของ OpenAI จะใช้หน่วยความจำ HBM และคาดว่าจะผลิตจำนวนมากใน Q3 ปี 2026
    Foxconn จะผลิตเซิร์ฟเวอร์สำหรับโครงการ Stargate โดยใช้โรงงานในรัฐโอไฮโอที่ SoftBank ซื้อไว้
    Altman พบประธานาธิบดีเกาหลีใต้และผู้บริหาร Samsung, SK hynix เพื่อสร้างดาต้าเซ็นเตอร์ 20MW
    ดาต้าเซ็นเตอร์จะตั้งอยู่ในเมือง Phang และจังหวัด South Jeolla
    เป้าหมายคือลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง
    OpenAI ตั้งทีมออกแบบชิป ASIC ตั้งแต่ปี 2024 และดึงทีมงานจากโครงการ TPU ของ Google

    ข้อมูลเสริมจากภายนอก
    Stargate เป็นโครงการสร้างโครงสร้างพื้นฐาน AI มูลค่ากว่า $500 พันล้านของ OpenAI
    Oracle ลงทุน $300 พันล้านใน compute capacity ให้กับ OpenAI
    SoftBank เป็นพันธมิตรสำคัญของ OpenAI และมีบทบาทในโรงงานและดาต้าเซ็นเตอร์
    TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และมีเทคโนโลยี 3nm ที่ล้ำหน้าที่สุด
    การพัฒนาชิปของตัวเองช่วยให้ OpenAI สร้างโมเดลที่เหมาะกับฮาร์ดแวร์โดยตรง

    https://www.tomshardware.com/tech-industry/openais-sam-altman-had-secret-tsmc-meeting-over-future-chip-supply-report-claims-ai-pioneer-in-asia-as-south-korea-confirms-20mw-data-center-deal-with-chatgpt-maker
    🧠 “Sam Altman เดินเกมลับในเอเชีย — จับมือ TSMC, Foxconn และเกาหลีใต้ ปูทางผลิตชิป AI ของตัวเองแทน Nvidia” Sam Altman ซีอีโอของ OpenAI เดินทางเยือนเอเชียอย่างเงียบ ๆ ในช่วงปลายเดือนกันยายน 2025 โดยมีจุดหมายสำคัญคือไต้หวันและเกาหลีใต้ เพื่อเจรจาความร่วมมือด้านการผลิตชิป AI และโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ระดับโลก โดยเฉพาะโครงการ “Stargate” ที่มีมูลค่ากว่า 500,000 ล้านดอลลาร์ ซึ่งจะสร้างดาต้าเซ็นเตอร์และโรงงาน AI จำนวนมากในหลายประเทศ ในไต้หวัน Altman ได้พบกับผู้บริหารของ TSMC และ Foxconn เพื่อหารือเรื่องการออกแบบและผลิตชิป AI แบบ ASIC ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom โดยใช้เทคโนโลยี 3nm และการบรรจุชิปขั้นสูงแบบ CoWoS พร้อมหน่วยความจำ HBM ซึ่งคาดว่าจะเข้าสู่การผลิตจำนวนมากในไตรมาส 3 ปี 2026 Foxconn ซึ่งเป็นผู้ผลิตเซิร์ฟเวอร์รายใหญ่ของ Oracle จะมีบทบาทสำคัญในการผลิตฮาร์ดแวร์สำหรับ Stargate โดยเฉพาะในโรงงานที่ SoftBank เข้าซื้อในรัฐโอไฮโอ เพื่อใช้เป็นฐานการผลิตร่วมกับ OpenAI หลังจากนั้น Altman เดินทางต่อไปยังเกาหลีใต้เพื่อพบกับประธานาธิบดี Lee Jae Myung และผู้บริหารของ Samsung และ SK hynix โดยมีการลงนามข้อตกลงเบื้องต้นในการสร้างดาต้าเซ็นเตอร์ขนาด 20 เมกะวัตต์ในเมือง Phang และอีกแห่งในจังหวัด South Jeolla เป้าหมายของ Altman คือการลดการพึ่งพา Nvidia ซึ่งปัจจุบันเป็นผู้ผลิต GPU รายใหญ่ที่ OpenAI ใช้ในการฝึกและรันโมเดล AI โดยการพัฒนาชิปของตัวเองจะช่วยให้ OpenAI ควบคุมทั้งฮาร์ดแวร์และซอฟต์แวร์ได้เหมือนที่ Apple ทำกับ Apple Silicon ✅ ข้อมูลสำคัญจากข่าว ➡️ Sam Altman เดินทางเยือนไต้หวันและเกาหลีใต้เพื่อเจรจาความร่วมมือด้านชิปและดาต้าเซ็นเตอร์ ➡️ พบกับ TSMC และ Foxconn เพื่อหารือการผลิตชิป AI แบบ ASIC ด้วยเทคโนโลยี 3nm และ CoWoS ➡️ ชิป AI ของ OpenAI จะใช้หน่วยความจำ HBM และคาดว่าจะผลิตจำนวนมากใน Q3 ปี 2026 ➡️ Foxconn จะผลิตเซิร์ฟเวอร์สำหรับโครงการ Stargate โดยใช้โรงงานในรัฐโอไฮโอที่ SoftBank ซื้อไว้ ➡️ Altman พบประธานาธิบดีเกาหลีใต้และผู้บริหาร Samsung, SK hynix เพื่อสร้างดาต้าเซ็นเตอร์ 20MW ➡️ ดาต้าเซ็นเตอร์จะตั้งอยู่ในเมือง Phang และจังหวัด South Jeolla ➡️ เป้าหมายคือลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง ➡️ OpenAI ตั้งทีมออกแบบชิป ASIC ตั้งแต่ปี 2024 และดึงทีมงานจากโครงการ TPU ของ Google ✅ ข้อมูลเสริมจากภายนอก ➡️ Stargate เป็นโครงการสร้างโครงสร้างพื้นฐาน AI มูลค่ากว่า $500 พันล้านของ OpenAI ➡️ Oracle ลงทุน $300 พันล้านใน compute capacity ให้กับ OpenAI ➡️ SoftBank เป็นพันธมิตรสำคัญของ OpenAI และมีบทบาทในโรงงานและดาต้าเซ็นเตอร์ ➡️ TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และมีเทคโนโลยี 3nm ที่ล้ำหน้าที่สุด ➡️ การพัฒนาชิปของตัวเองช่วยให้ OpenAI สร้างโมเดลที่เหมาะกับฮาร์ดแวร์โดยตรง https://www.tomshardware.com/tech-industry/openais-sam-altman-had-secret-tsmc-meeting-over-future-chip-supply-report-claims-ai-pioneer-in-asia-as-south-korea-confirms-20mw-data-center-deal-with-chatgpt-maker
    0 Comments 0 Shares 279 Views 0 Reviews
  • “OpenAI ทุ่มสร้าง Stargate — โครงการดาต้าเซ็นเตอร์ AI ใหญ่ที่สุดในโลก กิน DRAM ถึง 40% ของกำลังผลิตโลก”

    OpenAI กำลังเดินหน้าโครงการ “Stargate” ซึ่งเป็นโครงการสร้างโครงสร้างพื้นฐานด้าน AI ที่ใหญ่ที่สุดในประวัติศาสตร์ ด้วยงบประมาณกว่า 500,000 ล้านดอลลาร์ โดยร่วมมือกับพันธมิตรระดับโลกอย่าง Oracle, SoftBank และล่าสุดคือ Samsung และ SK hynix สองยักษ์ใหญ่ด้านหน่วยความจำจากเกาหลีใต้

    Stargate มีเป้าหมายในการสร้างดาต้าเซ็นเตอร์ขนาดมหึมาหลายแห่งทั่วโลก เพื่อรองรับการทำงานของชิป AI จำนวนมหาศาล โดยแต่ละเซิร์ฟเวอร์จะมี GPU หลายร้อยถึงหลายพันตัว เช่น Nvidia Blackwell ซึ่งต้องการหน่วยความจำความเร็วสูงอย่าง HBM และ DDR5 ในปริมาณมหาศาล

    ล่าสุด Samsung และ SK hynix ได้ลงนามในข้อตกลงเบื้องต้นเพื่อจัดส่งแผ่นเวเฟอร์ DRAM ให้กับ OpenAI มากถึง 900,000 แผ่นต่อเดือน ซึ่งคิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 โดยจะจัดส่งในรูปแบบ “เวเฟอร์ยังไม่ตัด” เพื่อให้ OpenAI สามารถควบคุมการผลิตและบรรจุชิปได้เองตามความต้องการ

    นอกจากการจัดส่งหน่วยความจำแล้ว Samsung SDS ยังร่วมมือกับ OpenAI ในการออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ พร้อมให้บริการ ChatGPT Enterprise กับองค์กรในประเทศ ขณะที่ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนา “ดาต้าเซ็นเตอร์ลอยน้ำ” เพื่อเพิ่มประสิทธิภาพการระบายความร้อนและลดการปล่อยคาร์บอน

    การขยายตัวของ Stargate ยังรวมถึงการเปิดสำนักงาน OpenAI ในกรุงโซล ซึ่งปัจจุบันมีผู้สมัครใช้งาน ChatGPT แบบเสียเงินมากที่สุดเป็นอันดับสองของโลก รองจากสหรัฐฯ

    ข้อมูลสำคัญจากข่าว
    OpenAI สร้างโครงการ Stargate ด้วยงบประมาณกว่า $500 พันล้าน เพื่อสร้างดาต้าเซ็นเตอร์ AI ขนาดใหญ่
    Samsung และ SK hynix จะจัดส่งเวเฟอร์ DRAM ให้ OpenAI มากถึง 900,000 แผ่นต่อเดือน
    ปริมาณนี้คิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025
    เวเฟอร์จะถูกส่งในรูปแบบยังไม่ตัด เพื่อให้ OpenAI ควบคุมการผลิตชิปเอง
    หน่วยความจำที่ใช้รวมถึง DDR5 และ HBM สำหรับชิป AI เช่น Nvidia Blackwell
    Samsung SDS จะร่วมออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้
    Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนาดาต้าเซ็นเตอร์ลอยน้ำ
    OpenAI เปิดสำนักงานในกรุงโซล ซึ่งมีผู้ใช้ ChatGPT แบบเสียเงินมากเป็นอันดับสองของโลก

    ข้อมูลเสริมจากภายนอก
    HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ซ้อนชิปในแนวตั้ง เพื่อเพิ่มความเร็วและลดการใช้พลังงาน
    Nvidia ลงทุนใน Stargate มากถึง $100 พันล้าน เพื่อจัดหาชิปและกำลังประมวลผล
    Oracle ขาย compute capacity ให้ OpenAI มูลค่า $300 พันล้านในระยะเวลา 5 ปี
    ดาต้าเซ็นเตอร์ของ Stargate อาจต้องใช้โรงไฟฟ้าเฉพาะเพื่อรองรับการใช้พลังงาน
    การใช้เวเฟอร์แบบยังไม่ตัดช่วยให้ OpenAI ปรับแต่งการผลิตได้ตามโมเดล AI ที่ต้องการ

    https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month
    🌐 “OpenAI ทุ่มสร้าง Stargate — โครงการดาต้าเซ็นเตอร์ AI ใหญ่ที่สุดในโลก กิน DRAM ถึง 40% ของกำลังผลิตโลก” OpenAI กำลังเดินหน้าโครงการ “Stargate” ซึ่งเป็นโครงการสร้างโครงสร้างพื้นฐานด้าน AI ที่ใหญ่ที่สุดในประวัติศาสตร์ ด้วยงบประมาณกว่า 500,000 ล้านดอลลาร์ โดยร่วมมือกับพันธมิตรระดับโลกอย่าง Oracle, SoftBank และล่าสุดคือ Samsung และ SK hynix สองยักษ์ใหญ่ด้านหน่วยความจำจากเกาหลีใต้ Stargate มีเป้าหมายในการสร้างดาต้าเซ็นเตอร์ขนาดมหึมาหลายแห่งทั่วโลก เพื่อรองรับการทำงานของชิป AI จำนวนมหาศาล โดยแต่ละเซิร์ฟเวอร์จะมี GPU หลายร้อยถึงหลายพันตัว เช่น Nvidia Blackwell ซึ่งต้องการหน่วยความจำความเร็วสูงอย่าง HBM และ DDR5 ในปริมาณมหาศาล ล่าสุด Samsung และ SK hynix ได้ลงนามในข้อตกลงเบื้องต้นเพื่อจัดส่งแผ่นเวเฟอร์ DRAM ให้กับ OpenAI มากถึง 900,000 แผ่นต่อเดือน ซึ่งคิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 โดยจะจัดส่งในรูปแบบ “เวเฟอร์ยังไม่ตัด” เพื่อให้ OpenAI สามารถควบคุมการผลิตและบรรจุชิปได้เองตามความต้องการ นอกจากการจัดส่งหน่วยความจำแล้ว Samsung SDS ยังร่วมมือกับ OpenAI ในการออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ พร้อมให้บริการ ChatGPT Enterprise กับองค์กรในประเทศ ขณะที่ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนา “ดาต้าเซ็นเตอร์ลอยน้ำ” เพื่อเพิ่มประสิทธิภาพการระบายความร้อนและลดการปล่อยคาร์บอน การขยายตัวของ Stargate ยังรวมถึงการเปิดสำนักงาน OpenAI ในกรุงโซล ซึ่งปัจจุบันมีผู้สมัครใช้งาน ChatGPT แบบเสียเงินมากที่สุดเป็นอันดับสองของโลก รองจากสหรัฐฯ ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenAI สร้างโครงการ Stargate ด้วยงบประมาณกว่า $500 พันล้าน เพื่อสร้างดาต้าเซ็นเตอร์ AI ขนาดใหญ่ ➡️ Samsung และ SK hynix จะจัดส่งเวเฟอร์ DRAM ให้ OpenAI มากถึง 900,000 แผ่นต่อเดือน ➡️ ปริมาณนี้คิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 ➡️ เวเฟอร์จะถูกส่งในรูปแบบยังไม่ตัด เพื่อให้ OpenAI ควบคุมการผลิตชิปเอง ➡️ หน่วยความจำที่ใช้รวมถึง DDR5 และ HBM สำหรับชิป AI เช่น Nvidia Blackwell ➡️ Samsung SDS จะร่วมออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ ➡️ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนาดาต้าเซ็นเตอร์ลอยน้ำ ➡️ OpenAI เปิดสำนักงานในกรุงโซล ซึ่งมีผู้ใช้ ChatGPT แบบเสียเงินมากเป็นอันดับสองของโลก ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ซ้อนชิปในแนวตั้ง เพื่อเพิ่มความเร็วและลดการใช้พลังงาน ➡️ Nvidia ลงทุนใน Stargate มากถึง $100 พันล้าน เพื่อจัดหาชิปและกำลังประมวลผล ➡️ Oracle ขาย compute capacity ให้ OpenAI มูลค่า $300 พันล้านในระยะเวลา 5 ปี ➡️ ดาต้าเซ็นเตอร์ของ Stargate อาจต้องใช้โรงไฟฟ้าเฉพาะเพื่อรองรับการใช้พลังงาน ➡️ การใช้เวเฟอร์แบบยังไม่ตัดช่วยให้ OpenAI ปรับแต่งการผลิตได้ตามโมเดล AI ที่ต้องการ https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month
    0 Comments 0 Shares 265 Views 0 Reviews
  • “Grok 4 เปิดตัวบน Azure AI Foundry — เมื่อ AI ของ Elon Musk กลายเป็นตัวเลือกใหม่สำหรับงานวิเคราะห์ระดับลึก”

    Microsoft ประกาศเปิดให้ใช้งาน Grok 4 บนแพลตฟอร์ม Azure AI Foundry อย่างเป็นทางการ หลังจากผ่านการทดลองใช้งานแบบส่วนตัว โดย Grok 4 เป็นโมเดล AI จาก xAI ของ Elon Musk ที่เน้นด้าน “frontier-level reasoning” หรือการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ดขั้นสูง มากกว่าการสร้างสรรค์เนื้อหาแบบทั่วไป

    แม้ Grok 4 จะยังด้อยกว่าคู่แข่งอย่าง GPT-4 และ Gemini ในด้านความเข้าใจภาพและความสามารถแบบมัลติโหมด แต่จุดแข็งของมันคือการประมวลผลข้อมูลเชิงลึกในบริบทที่ซับซ้อน โดยมี context window ขนาดใหญ่ถึง 128,000 tokens ซึ่งเทียบเท่ากับ GPT-4 Turbo และเหนือกว่าหลายโมเดลในตลาด

    Microsoft เปิดให้ใช้งาน Grok 4 ผ่าน Azure ในรูปแบบ “AI supermarket” ที่ให้ลูกค้าเลือกโมเดลจากหลายผู้พัฒนาได้อย่างอิสระ โดยมี 3 รุ่นให้เลือกใช้งาน ได้แก่ Grok 4 Fast Reasoning สำหรับงานวิเคราะห์, Grok 4 Fast Non-Reasoning สำหรับงานทั่วไป และ Grok Code Fast 1 สำหรับนักพัฒนา โดยทั้งหมดมีจุดเด่นด้านความเร็วและการควบคุมความปลอดภัยระดับองค์กร

    ราคาการใช้งานอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ซึ่งถือว่าอยู่ในระดับแข่งขันได้เมื่อเทียบกับโมเดลระดับสูงอื่น ๆ

    แม้ Grok 4 จะมีประสิทธิภาพสูง แต่ก็ไม่ใช่โมเดลที่ “deploy แล้วลืม” เพราะ Microsoft เน้นให้ผู้ใช้งานตั้งระบบ guardrails และตรวจสอบผลลัพธ์อย่างต่อเนื่อง โดยจะมีการเผยแพร่คะแนนความปลอดภัยใหม่ในอนาคต

    ก่อนหน้านี้ Grok เคยมีประเด็นด้านความปลอดภัย เช่น การตอบคำถามที่ไม่เหมาะสมในเวอร์ชันก่อน ทำให้ Microsoftเลือกใช้แนวทาง “ระมัดระวัง” ในการเปิดตัวบน Azure เพื่อให้มั่นใจว่าการใช้งานจะอยู่ภายใต้การควบคุมที่เหมาะสม

    ข้อมูลสำคัญจากข่าว
    Microsoft เปิดให้ใช้งาน Grok 4 บน Azure AI Foundry อย่างเป็นทางการ
    Grok 4 เป็นโมเดลจาก xAI ที่เน้นการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ และโค้ด
    มี context window ขนาด 128,000 tokens เทียบเท่า GPT-4 Turbo
    มี 3 รุ่นให้เลือกใช้งาน: Fast Reasoning, Fast Non-Reasoning, และ Code Fast 1
    ราคาอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน
    Microsoft เน้นให้ผู้ใช้ตั้งระบบ guardrails และตรวจสอบผลลัพธ์
    Grok 4 เป็นส่วนหนึ่งของแนวคิด “AI supermarket” บน Azure
    เปิดใช้งานทั่วโลกภายใต้หมวด Global Standard Deployment
    xAI เซ็นสัญญากับรัฐบาลสหรัฐฯ เพื่อใช้งาน Grok ในหน่วยงานต่าง ๆ

    ข้อมูลเสริมจากภายนอก
    Grok 4 ถูกพัฒนาโดยทีมของ Elon Musk เพื่อแข่งขันกับ OpenAI และ Google
    xAI มีแผนใช้ GPU H100 จำนวน 50 ล้านตัวใน 5 ปีข้างหน้าเพื่อขยายการใช้งาน Grok
    Grok 2.5 เคยเปิดให้ใช้งานแบบโอเพ่นซอร์สเพื่อให้ชุมชนร่วมพัฒนา
    Azure AI Foundry เป็นแพลตฟอร์มที่รวมโมเดลจากหลายผู้พัฒนา เช่น OpenAI, Meta, Mistral
    การใช้ context window ขนาดใหญ่ช่วยให้โมเดลเข้าใจข้อมูลต่อเนื่องได้ดีขึ้นในงานวิเคราะห์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-adds-grok-4-to-azure-ai-foundry-following-cautious-trials-elon-musks-latest-ai-model-is-now-available-to-deploy-for-frontier-level-reasoning
    🧠 “Grok 4 เปิดตัวบน Azure AI Foundry — เมื่อ AI ของ Elon Musk กลายเป็นตัวเลือกใหม่สำหรับงานวิเคราะห์ระดับลึก” Microsoft ประกาศเปิดให้ใช้งาน Grok 4 บนแพลตฟอร์ม Azure AI Foundry อย่างเป็นทางการ หลังจากผ่านการทดลองใช้งานแบบส่วนตัว โดย Grok 4 เป็นโมเดล AI จาก xAI ของ Elon Musk ที่เน้นด้าน “frontier-level reasoning” หรือการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ดขั้นสูง มากกว่าการสร้างสรรค์เนื้อหาแบบทั่วไป แม้ Grok 4 จะยังด้อยกว่าคู่แข่งอย่าง GPT-4 และ Gemini ในด้านความเข้าใจภาพและความสามารถแบบมัลติโหมด แต่จุดแข็งของมันคือการประมวลผลข้อมูลเชิงลึกในบริบทที่ซับซ้อน โดยมี context window ขนาดใหญ่ถึง 128,000 tokens ซึ่งเทียบเท่ากับ GPT-4 Turbo และเหนือกว่าหลายโมเดลในตลาด Microsoft เปิดให้ใช้งาน Grok 4 ผ่าน Azure ในรูปแบบ “AI supermarket” ที่ให้ลูกค้าเลือกโมเดลจากหลายผู้พัฒนาได้อย่างอิสระ โดยมี 3 รุ่นให้เลือกใช้งาน ได้แก่ Grok 4 Fast Reasoning สำหรับงานวิเคราะห์, Grok 4 Fast Non-Reasoning สำหรับงานทั่วไป และ Grok Code Fast 1 สำหรับนักพัฒนา โดยทั้งหมดมีจุดเด่นด้านความเร็วและการควบคุมความปลอดภัยระดับองค์กร ราคาการใช้งานอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ซึ่งถือว่าอยู่ในระดับแข่งขันได้เมื่อเทียบกับโมเดลระดับสูงอื่น ๆ แม้ Grok 4 จะมีประสิทธิภาพสูง แต่ก็ไม่ใช่โมเดลที่ “deploy แล้วลืม” เพราะ Microsoft เน้นให้ผู้ใช้งานตั้งระบบ guardrails และตรวจสอบผลลัพธ์อย่างต่อเนื่อง โดยจะมีการเผยแพร่คะแนนความปลอดภัยใหม่ในอนาคต ก่อนหน้านี้ Grok เคยมีประเด็นด้านความปลอดภัย เช่น การตอบคำถามที่ไม่เหมาะสมในเวอร์ชันก่อน ทำให้ Microsoftเลือกใช้แนวทาง “ระมัดระวัง” ในการเปิดตัวบน Azure เพื่อให้มั่นใจว่าการใช้งานจะอยู่ภายใต้การควบคุมที่เหมาะสม ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft เปิดให้ใช้งาน Grok 4 บน Azure AI Foundry อย่างเป็นทางการ ➡️ Grok 4 เป็นโมเดลจาก xAI ที่เน้นการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ และโค้ด ➡️ มี context window ขนาด 128,000 tokens เทียบเท่า GPT-4 Turbo ➡️ มี 3 รุ่นให้เลือกใช้งาน: Fast Reasoning, Fast Non-Reasoning, และ Code Fast 1 ➡️ ราคาอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ➡️ Microsoft เน้นให้ผู้ใช้ตั้งระบบ guardrails และตรวจสอบผลลัพธ์ ➡️ Grok 4 เป็นส่วนหนึ่งของแนวคิด “AI supermarket” บน Azure ➡️ เปิดใช้งานทั่วโลกภายใต้หมวด Global Standard Deployment ➡️ xAI เซ็นสัญญากับรัฐบาลสหรัฐฯ เพื่อใช้งาน Grok ในหน่วยงานต่าง ๆ ✅ ข้อมูลเสริมจากภายนอก ➡️ Grok 4 ถูกพัฒนาโดยทีมของ Elon Musk เพื่อแข่งขันกับ OpenAI และ Google ➡️ xAI มีแผนใช้ GPU H100 จำนวน 50 ล้านตัวใน 5 ปีข้างหน้าเพื่อขยายการใช้งาน Grok ➡️ Grok 2.5 เคยเปิดให้ใช้งานแบบโอเพ่นซอร์สเพื่อให้ชุมชนร่วมพัฒนา ➡️ Azure AI Foundry เป็นแพลตฟอร์มที่รวมโมเดลจากหลายผู้พัฒนา เช่น OpenAI, Meta, Mistral ➡️ การใช้ context window ขนาดใหญ่ช่วยให้โมเดลเข้าใจข้อมูลต่อเนื่องได้ดีขึ้นในงานวิเคราะห์ https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-adds-grok-4-to-azure-ai-foundry-following-cautious-trials-elon-musks-latest-ai-model-is-now-available-to-deploy-for-frontier-level-reasoning
    0 Comments 0 Shares 249 Views 0 Reviews
More Results