• https://youtu.be/TQ6XTpU0V3c?si=HGd5P5Vcc4f2UtLD
    https://youtu.be/TQ6XTpU0V3c?si=HGd5P5Vcc4f2UtLD
    0 ความคิดเห็น 0 การแบ่งปัน 27 มุมมอง 0 รีวิว
  • Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ

    ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก

    Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4

    นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น

    Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย

    การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด

    สรุปเนื้อหาเป็นหัวข้อ
    Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung
    Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง
    CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4
    รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง
    ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit
    ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit
    Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก
    รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี
    มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle
    ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล

    ข้อมูลเสริมจากภายนอก
    TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ
    N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม
    การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry
    Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล
    Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์

    https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    🎙️ Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4 นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung ➡️ Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง ➡️ CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4 ➡️ รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง ➡️ ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit ➡️ ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit ➡️ Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก ➡️ รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี ➡️ มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle ➡️ ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ ➡️ N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม ➡️ การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry ➡️ Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล ➡️ Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์ https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 รีวิว
  • เมื่อคำสั่งสั้น ๆ ถึง AI กลายเป็นภาระต่อโลก – และการคลิกก็ไม่ไร้ผลอีกต่อไป

    Google เพิ่งเปิดเผยข้อมูลที่หลายคนรอคอยมานาน: คำสั่งข้อความหนึ่งคำสั่งที่ส่งไปยัง Gemini AI ใช้พลังงานไฟฟ้าเฉลี่ย 0.24 วัตต์-ชั่วโมง ซึ่งเทียบเท่ากับการดูทีวีประมาณ 9 วินาที และใช้น้ำประมาณ 0.26 มิลลิลิตร หรือราว 5 หยด เพื่อระบายความร้อนในศูนย์ข้อมูล

    แม้ตัวเลขจะดูเล็ก แต่เมื่อคูณกับจำนวนผู้ใช้หลายร้อยล้านคนทั่วโลก และคำสั่งที่ส่งเข้ามานับพันล้านครั้งต่อวัน ผลกระทบต่อสิ่งแวดล้อมก็เพิ่มขึ้นอย่างมหาศาล โดยเฉพาะเมื่อรวมกับพลังงานที่ใช้ในการฝึกโมเดล AI ซึ่งไม่ได้รวมอยู่ในตัวเลขนี้

    Google ระบุว่า 58% ของพลังงานถูกใช้โดยชิป TPU ที่รันโมเดล AI ส่วนอีก 25% มาจาก CPU และหน่วยความจำของเครื่องแม่ข่าย และอีก 10% จากเครื่องสำรองที่เปิดไว้เผื่อระบบล่ม ส่วนที่เหลือ 8% เป็นค่าใช้จ่ายทั่วไปของศูนย์ข้อมูล เช่น ระบบระบายความร้อนและแปลงไฟ

    แม้ Google จะพยายามลดการใช้พลังงานและคาร์บอนฟุตพริ้นต์ของ Gemini ลงถึง 33 เท่าและ 44 เท่าในช่วง 12 เดือนที่ผ่านมา แต่ผู้เชี่ยวชาญบางคนยังตั้งคำถามว่า ตัวเลขเหล่านี้อาจไม่สะท้อนความจริงทั้งหมด เพราะไม่ได้รวมการใช้น้ำทางอ้อม หรือผลกระทบจากแหล่งพลังงานที่ใช้จริงในแต่ละพื้นที่

    สรุปเนื้อหาเป็นหัวข้อ
    คำสั่งหนึ่งคำสั่งถึง Gemini AI ใช้พลังงานเฉลี่ย 0.24 วัตต์-ชั่วโมง
    เทียบเท่ากับการดูทีวีประมาณ 9 วินาที และใช้น้ำประมาณ 0.26 มิลลิลิตรเพื่อระบายความร้อน
    58% ของพลังงานใช้กับชิป TPU, 25% กับ CPU และ DRAM, 10% กับเครื่องสำรอง, 8% กับระบบศูนย์ข้อมูล
    Google ลดการใช้พลังงานและคาร์บอนฟุตพริ้นต์ของ Gemini ลง 33x และ 44x ภายใน 12 เดือน
    รายงานนี้เป็นครั้งแรกที่บริษัท AI รายใหญ่เปิดเผยข้อมูลการใช้พลังงานต่อคำสั่งอย่างละเอียด
    Google หวังให้รายงานนี้เป็นมาตรฐานใหม่ในการวัดผลกระทบสิ่งแวดล้อมของ AI
    ตัวเลขไม่รวมพลังงานจากการฝึกโมเดล, อุปกรณ์ผู้ใช้, หรือเครือข่ายภายนอก
    Gemini มีผู้ใช้งานมากกว่า 350 ล้านคนต่อเดือน ณ เดือนเมษายน 2025
    การวัดผลกระทบใช้ค่าเฉลี่ยจากศูนย์ข้อมูลทั่วโลกของ Google
    รายงานยังไม่ผ่านการ peer review แต่ Google เปิดรับข้อเสนอให้ตรวจสอบในอนาคต

    ข้อมูลเสริมจากภายนอก
    OpenAI เคยระบุว่าแต่ละคำสั่งใช้พลังงานประมาณ 0.34 วัตต์-ชั่วโมง เทียบเท่าการเปิดเตาอบ 1 วินาที
    นักวิจัยจาก MIT ระบุว่าการเปิดเผยข้อมูลนี้ช่วยให้เข้าใจผลกระทบของ AI ได้ชัดเจนขึ้น
    นักวิชาการบางคนชี้ว่า Google ใช้ “market-based” carbon measure ซึ่งอาจไม่สะท้อนผลกระทบจริงในแต่ละพื้นที่
    การใช้น้ำทางอ้อม เช่น น้ำที่ใช้ผลิตไฟฟ้า ยังไม่รวมอยู่ในตัวเลขที่รายงาน
    การใช้ AI อย่างแพร่หลายอาจทำให้ความพยายามลดคาร์บอนของบริษัทถูกกลบด้วยการใช้งานที่เพิ่มขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/08/22/google-one-ai-prompt-uses-as-much-energy-as-nine-seconds-of-tv
    🎙️ เมื่อคำสั่งสั้น ๆ ถึง AI กลายเป็นภาระต่อโลก – และการคลิกก็ไม่ไร้ผลอีกต่อไป Google เพิ่งเปิดเผยข้อมูลที่หลายคนรอคอยมานาน: คำสั่งข้อความหนึ่งคำสั่งที่ส่งไปยัง Gemini AI ใช้พลังงานไฟฟ้าเฉลี่ย 0.24 วัตต์-ชั่วโมง ซึ่งเทียบเท่ากับการดูทีวีประมาณ 9 วินาที และใช้น้ำประมาณ 0.26 มิลลิลิตร หรือราว 5 หยด เพื่อระบายความร้อนในศูนย์ข้อมูล แม้ตัวเลขจะดูเล็ก แต่เมื่อคูณกับจำนวนผู้ใช้หลายร้อยล้านคนทั่วโลก และคำสั่งที่ส่งเข้ามานับพันล้านครั้งต่อวัน ผลกระทบต่อสิ่งแวดล้อมก็เพิ่มขึ้นอย่างมหาศาล โดยเฉพาะเมื่อรวมกับพลังงานที่ใช้ในการฝึกโมเดล AI ซึ่งไม่ได้รวมอยู่ในตัวเลขนี้ Google ระบุว่า 58% ของพลังงานถูกใช้โดยชิป TPU ที่รันโมเดล AI ส่วนอีก 25% มาจาก CPU และหน่วยความจำของเครื่องแม่ข่าย และอีก 10% จากเครื่องสำรองที่เปิดไว้เผื่อระบบล่ม ส่วนที่เหลือ 8% เป็นค่าใช้จ่ายทั่วไปของศูนย์ข้อมูล เช่น ระบบระบายความร้อนและแปลงไฟ แม้ Google จะพยายามลดการใช้พลังงานและคาร์บอนฟุตพริ้นต์ของ Gemini ลงถึง 33 เท่าและ 44 เท่าในช่วง 12 เดือนที่ผ่านมา แต่ผู้เชี่ยวชาญบางคนยังตั้งคำถามว่า ตัวเลขเหล่านี้อาจไม่สะท้อนความจริงทั้งหมด เพราะไม่ได้รวมการใช้น้ำทางอ้อม หรือผลกระทบจากแหล่งพลังงานที่ใช้จริงในแต่ละพื้นที่ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ คำสั่งหนึ่งคำสั่งถึง Gemini AI ใช้พลังงานเฉลี่ย 0.24 วัตต์-ชั่วโมง ➡️ เทียบเท่ากับการดูทีวีประมาณ 9 วินาที และใช้น้ำประมาณ 0.26 มิลลิลิตรเพื่อระบายความร้อน ➡️ 58% ของพลังงานใช้กับชิป TPU, 25% กับ CPU และ DRAM, 10% กับเครื่องสำรอง, 8% กับระบบศูนย์ข้อมูล ➡️ Google ลดการใช้พลังงานและคาร์บอนฟุตพริ้นต์ของ Gemini ลง 33x และ 44x ภายใน 12 เดือน ➡️ รายงานนี้เป็นครั้งแรกที่บริษัท AI รายใหญ่เปิดเผยข้อมูลการใช้พลังงานต่อคำสั่งอย่างละเอียด ➡️ Google หวังให้รายงานนี้เป็นมาตรฐานใหม่ในการวัดผลกระทบสิ่งแวดล้อมของ AI ➡️ ตัวเลขไม่รวมพลังงานจากการฝึกโมเดล, อุปกรณ์ผู้ใช้, หรือเครือข่ายภายนอก ➡️ Gemini มีผู้ใช้งานมากกว่า 350 ล้านคนต่อเดือน ณ เดือนเมษายน 2025 ➡️ การวัดผลกระทบใช้ค่าเฉลี่ยจากศูนย์ข้อมูลทั่วโลกของ Google ➡️ รายงานยังไม่ผ่านการ peer review แต่ Google เปิดรับข้อเสนอให้ตรวจสอบในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ OpenAI เคยระบุว่าแต่ละคำสั่งใช้พลังงานประมาณ 0.34 วัตต์-ชั่วโมง เทียบเท่าการเปิดเตาอบ 1 วินาที ➡️ นักวิจัยจาก MIT ระบุว่าการเปิดเผยข้อมูลนี้ช่วยให้เข้าใจผลกระทบของ AI ได้ชัดเจนขึ้น ➡️ นักวิชาการบางคนชี้ว่า Google ใช้ “market-based” carbon measure ซึ่งอาจไม่สะท้อนผลกระทบจริงในแต่ละพื้นที่ ➡️ การใช้น้ำทางอ้อม เช่น น้ำที่ใช้ผลิตไฟฟ้า ยังไม่รวมอยู่ในตัวเลขที่รายงาน ➡️ การใช้ AI อย่างแพร่หลายอาจทำให้ความพยายามลดคาร์บอนของบริษัทถูกกลบด้วยการใช้งานที่เพิ่มขึ้น https://www.thestar.com.my/tech/tech-news/2025/08/22/google-one-ai-prompt-uses-as-much-energy-as-nine-seconds-of-tv
    WWW.THESTAR.COM.MY
    Google: One AI prompt uses as much energy as nine seconds of TV
    A single text prompt to Google's artificial intelligence (AI) software, Gemini, consumes roughly as much electricity as just under nine seconds of television, the company said on Aug 21.
    0 ความคิดเห็น 0 การแบ่งปัน 98 มุมมอง 0 รีวิว
  • เมื่อแชตบอตกลายเป็นช่องทางเจาะระบบ – และคำถามธรรมดาอาจเปิดประตูให้แฮกเกอร์

    Lenovo เปิดตัวแชตบอต Lena เพื่อช่วยลูกค้าในระบบสนับสนุน โดยใช้ GPT-4 เป็นแกนหลักในการตอบคำถาม แต่สิ่งที่ดูเหมือนจะเป็นนวัตกรรมกลับกลายเป็นช่องโหว่ร้ายแรง เมื่อทีมวิจัยจาก Cybernews พบว่า Lena สามารถถูกหลอกให้สร้างโค้ด HTML อันตรายผ่าน prompt เพียง 400 ตัวอักษร

    แฮกเกอร์ใช้เทคนิค prompt injection โดยเริ่มต้นด้วยคำถามเกี่ยวกับสินค้า แล้วแทรกคำสั่งให้ Lena ตอบกลับในรูปแบบ HTML พร้อมฝังโค้ด JavaScript ที่ขโมย session cookie เมื่อภาพไม่สามารถโหลดได้

    เมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา โค้ดนั้นจะทำงานทันทีใน browser ของพวกเขา ทำให้แฮกเกอร์สามารถเข้าถึงระบบสนับสนุนของบริษัทได้โดยไม่ต้องเจาะระบบโดยตรง

    Melissa Ruzzi จาก AppOmni เตือนว่า AI ที่มีสิทธิ์แก้ไขข้อมูลโดยไม่มีการควบคุม อาจกลายเป็นช่องทางโจมตีที่ร้ายแรง และ Arjun Chauhan จาก Everest Group เสริมว่าองค์กรส่วนใหญ่ยังมอง AI เป็น “โครงการทดลอง” มากกว่าระบบที่ต้องมีมาตรการความปลอดภัยจริงจัง

    ช่องโหว่นี้ไม่ใช่แค่การขโมย cookie แต่สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing หรือแม้แต่การฝัง backdoor เพื่อเคลื่อนย้ายภายในเครือข่ายองค์กร

    Lenovo ยอมรับช่องโหว่และแก้ไขทันทีหลังได้รับการแจ้งเตือนจากนักวิจัย แต่เหตุการณ์นี้สะท้อนถึง blind spot ด้านความปลอดภัยของ AI ที่องค์กรทั่วโลกกำลังเผชิญ

    สรุปเนื้อหาเป็นหัวข้อ
    Lenovo chatbot Lena ถูกพบว่ามีช่องโหว่ XSS จากการตอบสนองต่อ prompt ที่ถูกออกแบบมาอย่างเจาะจง
    ช่องโหว่เกิดจากการ sanitization ของ input และ output ที่ไม่เพียงพอ
    แฮกเกอร์สามารถฝังโค้ด JavaScript ผ่าน HTML ที่ Lena สร้างขึ้น
    โค้ดจะทำงานเมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา ทำให้ session cookie ถูกขโมย
    ช่องโหว่นี้สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing และฝัง backdoor
    Lena ใช้ GPT-4 เป็นแกนหลักในการตอบคำถามลูกค้า
    Lenovo ได้รับแจ้งจากนักวิจัยและดำเนินการแก้ไขทันที
    ผู้เชี่ยวชาญเตือนว่า AI ควรได้รับการดูแลด้านความปลอดภัยเทียบเท่ากับแอปพลิเคชันทั่วไป
    ช่องโหว่นี้สะท้อนถึง blind spot ในการออกแบบระบบ AI ที่เน้นความเร็วมากกว่าความปลอดภัย
    การโจมตีใช้ prompt เพียง 400 ตัวอักษรในการเจาะระบบ

    ข้อมูลเสริมจากภายนอก
    Cybernews และ CybersecurityNews รายงานว่า Lena สามารถรันสคริปต์บนเครื่องขององค์กรได้
    ช่องโหว่สามารถขยายผลไปยังระบบอื่นในเครือข่ายผ่าน lateral movement
    OWASP จัด prompt injection เป็นช่องโหว่อันดับหนึ่งใน AI systems
    ปริมาณ bot traffic แซงหน้าการใช้งานของมนุษย์ในปี 2024 คิดเป็น 51% ของทั้งหมด
    การป้องกันต้องใช้ CSP headers, whitelisting, และ context-aware validation

    https://www.csoonline.com/article/4043005/lenovo-chatbot-breach-highlights-ai-security-blind-spots-in-customer-facing-systems.html
    🎙️ เมื่อแชตบอตกลายเป็นช่องทางเจาะระบบ – และคำถามธรรมดาอาจเปิดประตูให้แฮกเกอร์ Lenovo เปิดตัวแชตบอต Lena เพื่อช่วยลูกค้าในระบบสนับสนุน โดยใช้ GPT-4 เป็นแกนหลักในการตอบคำถาม แต่สิ่งที่ดูเหมือนจะเป็นนวัตกรรมกลับกลายเป็นช่องโหว่ร้ายแรง เมื่อทีมวิจัยจาก Cybernews พบว่า Lena สามารถถูกหลอกให้สร้างโค้ด HTML อันตรายผ่าน prompt เพียง 400 ตัวอักษร แฮกเกอร์ใช้เทคนิค prompt injection โดยเริ่มต้นด้วยคำถามเกี่ยวกับสินค้า แล้วแทรกคำสั่งให้ Lena ตอบกลับในรูปแบบ HTML พร้อมฝังโค้ด JavaScript ที่ขโมย session cookie เมื่อภาพไม่สามารถโหลดได้ เมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา โค้ดนั้นจะทำงานทันทีใน browser ของพวกเขา ทำให้แฮกเกอร์สามารถเข้าถึงระบบสนับสนุนของบริษัทได้โดยไม่ต้องเจาะระบบโดยตรง Melissa Ruzzi จาก AppOmni เตือนว่า AI ที่มีสิทธิ์แก้ไขข้อมูลโดยไม่มีการควบคุม อาจกลายเป็นช่องทางโจมตีที่ร้ายแรง และ Arjun Chauhan จาก Everest Group เสริมว่าองค์กรส่วนใหญ่ยังมอง AI เป็น “โครงการทดลอง” มากกว่าระบบที่ต้องมีมาตรการความปลอดภัยจริงจัง ช่องโหว่นี้ไม่ใช่แค่การขโมย cookie แต่สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing หรือแม้แต่การฝัง backdoor เพื่อเคลื่อนย้ายภายในเครือข่ายองค์กร Lenovo ยอมรับช่องโหว่และแก้ไขทันทีหลังได้รับการแจ้งเตือนจากนักวิจัย แต่เหตุการณ์นี้สะท้อนถึง blind spot ด้านความปลอดภัยของ AI ที่องค์กรทั่วโลกกำลังเผชิญ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Lenovo chatbot Lena ถูกพบว่ามีช่องโหว่ XSS จากการตอบสนองต่อ prompt ที่ถูกออกแบบมาอย่างเจาะจง ➡️ ช่องโหว่เกิดจากการ sanitization ของ input และ output ที่ไม่เพียงพอ ➡️ แฮกเกอร์สามารถฝังโค้ด JavaScript ผ่าน HTML ที่ Lena สร้างขึ้น ➡️ โค้ดจะทำงานเมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา ทำให้ session cookie ถูกขโมย ➡️ ช่องโหว่นี้สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing และฝัง backdoor ➡️ Lena ใช้ GPT-4 เป็นแกนหลักในการตอบคำถามลูกค้า ➡️ Lenovo ได้รับแจ้งจากนักวิจัยและดำเนินการแก้ไขทันที ➡️ ผู้เชี่ยวชาญเตือนว่า AI ควรได้รับการดูแลด้านความปลอดภัยเทียบเท่ากับแอปพลิเคชันทั่วไป ➡️ ช่องโหว่นี้สะท้อนถึง blind spot ในการออกแบบระบบ AI ที่เน้นความเร็วมากกว่าความปลอดภัย ➡️ การโจมตีใช้ prompt เพียง 400 ตัวอักษรในการเจาะระบบ ✅ ข้อมูลเสริมจากภายนอก ➡️ Cybernews และ CybersecurityNews รายงานว่า Lena สามารถรันสคริปต์บนเครื่องขององค์กรได้ ➡️ ช่องโหว่สามารถขยายผลไปยังระบบอื่นในเครือข่ายผ่าน lateral movement ➡️ OWASP จัด prompt injection เป็นช่องโหว่อันดับหนึ่งใน AI systems ➡️ ปริมาณ bot traffic แซงหน้าการใช้งานของมนุษย์ในปี 2024 คิดเป็น 51% ของทั้งหมด ➡️ การป้องกันต้องใช้ CSP headers, whitelisting, และ context-aware validation https://www.csoonline.com/article/4043005/lenovo-chatbot-breach-highlights-ai-security-blind-spots-in-customer-facing-systems.html
    WWW.CSOONLINE.COM
    Lenovo chatbot breach highlights AI security blind spots in customer-facing systems
    Experts say the vulnerability in Lenovo’s GPT-4-powered chatbot reflects a broader enterprise trend: deploying AI tools without applying the same security rigor as traditional applications.
    0 ความคิดเห็น 0 การแบ่งปัน 100 มุมมอง 0 รีวิว
  • Tensor G5 – ชิป 3nm ตัวแรกจาก Google ที่ไม่ใช่แค่เร็ว แต่ฉลาดขึ้นอย่างมีนัย

    Google เปิดตัวชิป Tensor G5 พร้อมกับ Pixel 10 Series ซึ่งถือเป็นก้าวสำคัญของบริษัทในด้านฮาร์ดแวร์ เพราะนี่คือชิปแรกที่ผลิตด้วยเทคโนโลยี 3nm โดย TSMC แทนที่จะใช้โรงงานของ Samsung เหมือนรุ่นก่อนหน้า

    Tensor G5 ไม่ได้เน้นแค่ความเร็ว แต่ถูกออกแบบเพื่อรองรับงาน AI โดยเฉพาะ โดยมีการปรับโครงสร้าง CPU เป็นแบบ 1+5+2 (1 core แรง, 5 core กลาง, 2 core ประหยัดพลังงาน) และมีความเร็วสูงสุดถึง 3.78GHz จากผลทดสอบ Geekbench

    Google เคลมว่า Tensor G5 เร็วขึ้น 34% โดยเฉลี่ยเมื่อเทียบกับ Tensor G4 และ TPU (หน่วยประมวลผล AI) ก็แรงขึ้นถึง 60% ซึ่งช่วยให้ Gemini Nano รุ่นใหม่ทำงานเร็วขึ้น 2.6 เท่า และประหยัดพลังงานมากขึ้น

    ชิปนี้ยังรองรับ context window ขนาด 32,000 token ซึ่งเทียบเท่ากับการประมวลผลข้อมูลจากอีเมลทั้งเดือนหรือภาพหน้าจอ 100 ภาพ ทำให้ฟีเจอร์ AI อย่าง Magic Cue, Call Notes, Scam Detection และ Camera Coach ทำงานได้แบบเรียลไทม์โดยไม่ต้องพึ่งคลาวด์

    ด้านกราฟิก แม้จะมีการอัปเกรด GPU แต่ Tensor G5 ยังไม่รองรับ ray tracing ซึ่งทำให้ยังตามหลังคู่แข่งในด้านเกมมือถือ ส่วน ISP (Image Signal Processor) ก็ได้รับการปรับปรุงให้รองรับ 10-bit HDR และลดการเบลอในวิดีโอแสงน้อย

    Pixel 10 Series ที่ใช้ Tensor G5 มีให้เลือกหลายรุ่น ตั้งแต่ Pixel 10 ธรรมดาไปจนถึง Pixel 10 Pro Fold โดยมีราคาเริ่มต้นที่ $799 และมีโปรโมชั่นแจกบัตรของขวัญสูงสุดถึง $300

    สรุปเนื้อหาเป็นหัวข้อ
    Tensor G5 เป็นชิป 3nm ตัวแรกจาก Google ผลิตโดย TSMC
    ใช้โครงสร้าง CPU แบบ 1+5+2 และความเร็วสูงสุด 3.78GHz
    เร็วขึ้น 34% โดยเฉลี่ยจาก Tensor G4 และ TPU แรงขึ้น 60%
    Gemini Nano ทำงานเร็วขึ้น 2.6 เท่าและประหยัดพลังงานมากขึ้น
    รองรับ context window ขนาด 32,000 token สำหรับงาน AI
    ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Scam Detection, Journal, Call Notes
    GPU อัปเกรดแต่ไม่รองรับ ray tracing
    ISP รองรับ 10-bit HDR และลดเบลอในวิดีโอแสงน้อย
    Pixel 10 Series มีรุ่นธรรมดา, Pro, Pro XL และ Pro Fold
    ราคาเริ่มต้น $799 พร้อมบัตรของขวัญสูงสุด $300

    ข้อมูลเสริมจากภายนอก
    Tensor G5 ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็ว
    ใช้สถาปัตยกรรม Matryoshka Transformer และ Per Layer Embedding
    Pixel 10 รองรับ Android 16 และอัปเดตนาน 7 ปี
    Pixel 10 Pro มี vapor chamber cooling แต่รุ่นธรรมดาใช้ graphene
    Pixel 10 รองรับ Qi2 wireless charging และมีจอ Actua 120Hz

    https://wccftech.com/tensor-g5-goes-official-first-3nm-chipset-from-google/
    🎙️ Tensor G5 – ชิป 3nm ตัวแรกจาก Google ที่ไม่ใช่แค่เร็ว แต่ฉลาดขึ้นอย่างมีนัย Google เปิดตัวชิป Tensor G5 พร้อมกับ Pixel 10 Series ซึ่งถือเป็นก้าวสำคัญของบริษัทในด้านฮาร์ดแวร์ เพราะนี่คือชิปแรกที่ผลิตด้วยเทคโนโลยี 3nm โดย TSMC แทนที่จะใช้โรงงานของ Samsung เหมือนรุ่นก่อนหน้า Tensor G5 ไม่ได้เน้นแค่ความเร็ว แต่ถูกออกแบบเพื่อรองรับงาน AI โดยเฉพาะ โดยมีการปรับโครงสร้าง CPU เป็นแบบ 1+5+2 (1 core แรง, 5 core กลาง, 2 core ประหยัดพลังงาน) และมีความเร็วสูงสุดถึง 3.78GHz จากผลทดสอบ Geekbench Google เคลมว่า Tensor G5 เร็วขึ้น 34% โดยเฉลี่ยเมื่อเทียบกับ Tensor G4 และ TPU (หน่วยประมวลผล AI) ก็แรงขึ้นถึง 60% ซึ่งช่วยให้ Gemini Nano รุ่นใหม่ทำงานเร็วขึ้น 2.6 เท่า และประหยัดพลังงานมากขึ้น ชิปนี้ยังรองรับ context window ขนาด 32,000 token ซึ่งเทียบเท่ากับการประมวลผลข้อมูลจากอีเมลทั้งเดือนหรือภาพหน้าจอ 100 ภาพ ทำให้ฟีเจอร์ AI อย่าง Magic Cue, Call Notes, Scam Detection และ Camera Coach ทำงานได้แบบเรียลไทม์โดยไม่ต้องพึ่งคลาวด์ ด้านกราฟิก แม้จะมีการอัปเกรด GPU แต่ Tensor G5 ยังไม่รองรับ ray tracing ซึ่งทำให้ยังตามหลังคู่แข่งในด้านเกมมือถือ ส่วน ISP (Image Signal Processor) ก็ได้รับการปรับปรุงให้รองรับ 10-bit HDR และลดการเบลอในวิดีโอแสงน้อย Pixel 10 Series ที่ใช้ Tensor G5 มีให้เลือกหลายรุ่น ตั้งแต่ Pixel 10 ธรรมดาไปจนถึง Pixel 10 Pro Fold โดยมีราคาเริ่มต้นที่ $799 และมีโปรโมชั่นแจกบัตรของขวัญสูงสุดถึง $300 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Tensor G5 เป็นชิป 3nm ตัวแรกจาก Google ผลิตโดย TSMC ➡️ ใช้โครงสร้าง CPU แบบ 1+5+2 และความเร็วสูงสุด 3.78GHz ➡️ เร็วขึ้น 34% โดยเฉลี่ยจาก Tensor G4 และ TPU แรงขึ้น 60% ➡️ Gemini Nano ทำงานเร็วขึ้น 2.6 เท่าและประหยัดพลังงานมากขึ้น ➡️ รองรับ context window ขนาด 32,000 token สำหรับงาน AI ➡️ ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Scam Detection, Journal, Call Notes ➡️ GPU อัปเกรดแต่ไม่รองรับ ray tracing ➡️ ISP รองรับ 10-bit HDR และลดเบลอในวิดีโอแสงน้อย ➡️ Pixel 10 Series มีรุ่นธรรมดา, Pro, Pro XL และ Pro Fold ➡️ ราคาเริ่มต้น $799 พร้อมบัตรของขวัญสูงสุด $300 ✅ ข้อมูลเสริมจากภายนอก ➡️ Tensor G5 ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็ว ➡️ ใช้สถาปัตยกรรม Matryoshka Transformer และ Per Layer Embedding ➡️ Pixel 10 รองรับ Android 16 และอัปเดตนาน 7 ปี ➡️ Pixel 10 Pro มี vapor chamber cooling แต่รุ่นธรรมดาใช้ graphene ➡️ Pixel 10 รองรับ Qi2 wireless charging และมีจอ Actua 120Hz https://wccftech.com/tensor-g5-goes-official-first-3nm-chipset-from-google/
    WCCFTECH.COM
    Google Has Announced Its First 3nm Chipset, The Tensor G5, Alongside The Pixel 10 Series; Company Claims A 34 Percent Average Performance Increase Over The Tensor G4, No RT Support & More
    Google has officially announced its first 3nm SoC, the Tensor G5, and here is everything you need to know about the flagship silicon
    0 ความคิดเห็น 0 การแบ่งปัน 104 มุมมอง 0 รีวิว
  • Nvidia ยังนำ แต่คู่แข่งกำลังไล่ – เมื่อ AI ต้องเลือกมากกว่าความแรง

    ในโลกของ AI ที่ต้องการพลังการประมวลผลมหาศาล Nvidia ยังคงเป็นผู้นำด้านฮาร์ดแวร์ โดยเฉพาะ GPU ที่ใช้ในการฝึกโมเดลขนาดใหญ่ แต่ผลการสำรวจล่าสุดจาก Liquid Web ในเดือนสิงหาคม 2025 พบว่าเกือบหนึ่งในสามของทีม AI เริ่มหันไปใช้ฮาร์ดแวร์จาก Google, AMD และ Intel แทน

    เหตุผลหลักคือ “ต้นทุน” และ “ความพร้อมใช้งาน” ที่เริ่มกลายเป็นอุปสรรคสำคัญ ทีมงานหลายแห่งต้องลดขนาดโครงการ หรือยกเลิกไปเลย เพราะไม่สามารถจัดหาฮาร์ดแวร์ Nvidia ได้ทันเวลา หรือมีงบประมาณไม่พอ

    แม้ว่า 68% ของทีมยังคงเลือก Nvidia เป็นหลัก แต่มีถึง 28% ที่ยอมรับว่าไม่ได้เปรียบเทียบทางเลือกอื่นอย่างจริงจังก่อนตัดสินใจ ซึ่งนำไปสู่การติดตั้งระบบที่ไม่เหมาะสม และประสิทธิภาพต่ำกว่าที่ควร

    นอกจากนี้ การใช้ระบบแบบ hybrid และ cloud ก็เพิ่มขึ้นอย่างต่อเนื่อง โดยมากกว่าครึ่งของทีม AI ใช้ทั้งระบบในองค์กรและคลาวด์ร่วมกัน เพื่อหลีกเลี่ยงปัญหาด้านพลังงานและการจัดการ GPU แบบแบ่งส่วน

    สรุปเนื้อหาเป็นหัวข้อ
    Nvidia ยังคงเป็นผู้นำด้านฮาร์ดแวร์ AI โดยมีผู้ใช้ถึง 68% จากการสำรวจ
    เกือบหนึ่งในสามของทีม AI เริ่มใช้ฮาร์ดแวร์จาก Google, AMD และ Intel
    เหตุผลหลักคือข้อจำกัดด้านงบประมาณและการขาดแคลน GPU
    42% ของทีมต้องลดขนาดโครงการ และ 14% ยกเลิกโครงการเพราะต้นทุน
    28% ของผู้ตอบแบบสอบถามยอมรับว่าไม่ได้เปรียบเทียบทางเลือกอื่นก่อนซื้อ
    การขาดการทดสอบนำไปสู่ระบบที่ไม่เหมาะสมและประสิทธิภาพต่ำ
    มากกว่าครึ่งของทีมใช้ระบบ hybrid และ cloud เพื่อเสริมความยืดหยุ่น
    Dedicated GPU hosting ถูกมองว่าเป็นทางเลือกที่ลดการสูญเสียประสิทธิภาพ
    แม้ 45% ให้ความสำคัญกับการใช้พลังงานอย่างมีประสิทธิภาพ แต่มีเพียง 13% ที่ปรับระบบเพื่อประหยัดพลังงานจริง
    ความคุ้นเคยและประสบการณ์เดิมเป็นปัจจัยหลักในการเลือก GPU มากกว่าประสิทธิภาพหรือราคา

    ข้อมูลเสริมจากภายนอก
    Google TPU ถูกใช้โดย OpenAI และบริษัทใหญ่หลายแห่งเพื่อหลีกเลี่ยงต้นทุน Nvidia
    AMD เข้าซื้อกิจการหลายแห่งเพื่อพัฒนา Instinct GPU ให้ใกล้เคียงกับ Nvidia Blackwell
    Intel พัฒนา Gaudi2 และ Gaudi3 เพื่อเจาะตลาด AI โดยเน้นราคาต่ำและประสิทธิภาพเฉพาะทาง
    Nvidia เปิดตัว Cosmos Reason และ NuRec ที่ SIGGRAPH 2025 เพื่อเสริมการประมวลผล AI เชิงกายภาพ
    การแข่งขันด้านฮาร์ดแวร์ AI ส่งผลต่อการพัฒนาโมเดลใหม่ เช่น diffusion, LLM และ vision AI

    https://www.techradar.com/pro/google-amd-and-intel-catching-up-on-nvidia-survey-shows-almost-a-third-of-ai-teams-now-use-non-nvidia-hardware
    🎙️ Nvidia ยังนำ แต่คู่แข่งกำลังไล่ – เมื่อ AI ต้องเลือกมากกว่าความแรง ในโลกของ AI ที่ต้องการพลังการประมวลผลมหาศาล Nvidia ยังคงเป็นผู้นำด้านฮาร์ดแวร์ โดยเฉพาะ GPU ที่ใช้ในการฝึกโมเดลขนาดใหญ่ แต่ผลการสำรวจล่าสุดจาก Liquid Web ในเดือนสิงหาคม 2025 พบว่าเกือบหนึ่งในสามของทีม AI เริ่มหันไปใช้ฮาร์ดแวร์จาก Google, AMD และ Intel แทน เหตุผลหลักคือ “ต้นทุน” และ “ความพร้อมใช้งาน” ที่เริ่มกลายเป็นอุปสรรคสำคัญ ทีมงานหลายแห่งต้องลดขนาดโครงการ หรือยกเลิกไปเลย เพราะไม่สามารถจัดหาฮาร์ดแวร์ Nvidia ได้ทันเวลา หรือมีงบประมาณไม่พอ แม้ว่า 68% ของทีมยังคงเลือก Nvidia เป็นหลัก แต่มีถึง 28% ที่ยอมรับว่าไม่ได้เปรียบเทียบทางเลือกอื่นอย่างจริงจังก่อนตัดสินใจ ซึ่งนำไปสู่การติดตั้งระบบที่ไม่เหมาะสม และประสิทธิภาพต่ำกว่าที่ควร นอกจากนี้ การใช้ระบบแบบ hybrid และ cloud ก็เพิ่มขึ้นอย่างต่อเนื่อง โดยมากกว่าครึ่งของทีม AI ใช้ทั้งระบบในองค์กรและคลาวด์ร่วมกัน เพื่อหลีกเลี่ยงปัญหาด้านพลังงานและการจัดการ GPU แบบแบ่งส่วน 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Nvidia ยังคงเป็นผู้นำด้านฮาร์ดแวร์ AI โดยมีผู้ใช้ถึง 68% จากการสำรวจ ➡️ เกือบหนึ่งในสามของทีม AI เริ่มใช้ฮาร์ดแวร์จาก Google, AMD และ Intel ➡️ เหตุผลหลักคือข้อจำกัดด้านงบประมาณและการขาดแคลน GPU ➡️ 42% ของทีมต้องลดขนาดโครงการ และ 14% ยกเลิกโครงการเพราะต้นทุน ➡️ 28% ของผู้ตอบแบบสอบถามยอมรับว่าไม่ได้เปรียบเทียบทางเลือกอื่นก่อนซื้อ ➡️ การขาดการทดสอบนำไปสู่ระบบที่ไม่เหมาะสมและประสิทธิภาพต่ำ ➡️ มากกว่าครึ่งของทีมใช้ระบบ hybrid และ cloud เพื่อเสริมความยืดหยุ่น ➡️ Dedicated GPU hosting ถูกมองว่าเป็นทางเลือกที่ลดการสูญเสียประสิทธิภาพ ➡️ แม้ 45% ให้ความสำคัญกับการใช้พลังงานอย่างมีประสิทธิภาพ แต่มีเพียง 13% ที่ปรับระบบเพื่อประหยัดพลังงานจริง ➡️ ความคุ้นเคยและประสบการณ์เดิมเป็นปัจจัยหลักในการเลือก GPU มากกว่าประสิทธิภาพหรือราคา ✅ ข้อมูลเสริมจากภายนอก ➡️ Google TPU ถูกใช้โดย OpenAI และบริษัทใหญ่หลายแห่งเพื่อหลีกเลี่ยงต้นทุน Nvidia ➡️ AMD เข้าซื้อกิจการหลายแห่งเพื่อพัฒนา Instinct GPU ให้ใกล้เคียงกับ Nvidia Blackwell ➡️ Intel พัฒนา Gaudi2 และ Gaudi3 เพื่อเจาะตลาด AI โดยเน้นราคาต่ำและประสิทธิภาพเฉพาะทาง ➡️ Nvidia เปิดตัว Cosmos Reason และ NuRec ที่ SIGGRAPH 2025 เพื่อเสริมการประมวลผล AI เชิงกายภาพ ➡️ การแข่งขันด้านฮาร์ดแวร์ AI ส่งผลต่อการพัฒนาโมเดลใหม่ เช่น diffusion, LLM และ vision AI https://www.techradar.com/pro/google-amd-and-intel-catching-up-on-nvidia-survey-shows-almost-a-third-of-ai-teams-now-use-non-nvidia-hardware
    WWW.TECHRADAR.COM
    Rising costs push AI developers to weigh Google, AMD, and Intel hardware alongside Nvidia
    Rising costs, hardware shortages, and cloud adoption are pushing teams to test alternatives
    0 ความคิดเห็น 0 การแบ่งปัน 126 มุมมอง 0 รีวิว
  • เรื่องเล่าใหม่: GPU ไม่ใช่แค่การ์ดจอ – แต่คือเครื่องจักรแห่งการเรียนรู้ของ AI

    ในยุคที่ AI ใหญ่ขึ้นทุกวัน การเข้าใจว่า GPU ทำงานอย่างไรจึงสำคัญมาก โดยเฉพาะเมื่อเปรียบเทียบกับ TPU ที่ Google ใช้กันอย่างแพร่หลาย

    GPU สมัยใหม่ เช่น NVIDIA H100, B200 และ GB200 NVL72 ไม่ได้เป็นแค่การ์ดจอสำหรับเล่นเกมอีกต่อไป แต่กลายเป็นเครื่องมือหลักในการฝึกและรันโมเดลขนาดใหญ่ (LLMs) ด้วยพลังการคำนวณมหาศาลจาก Tensor Core ที่ออกแบบมาเพื่อการคูณเมทริกซ์โดยเฉพาะ

    แต่ละ GPU ประกอบด้วยหลาย SM (Streaming Multiprocessor) ซึ่งใน H100 มีถึง 132 SM และใน B200 มี 148 SM โดยแต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores ที่ทำงานแบบ SIMD/SIMT เพื่อประมวลผลแบบขนาน

    GPU ยังมีระบบหน่วยความจำหลายระดับ ตั้งแต่ Register, SMEM (L1 cache), L2 cache ไปจนถึง HBM (High Bandwidth Memory) ซึ่งใน B200 มีถึง 192GB และแบนด์วิดท์สูงถึง 9TB/s

    นอกจากนี้ยังมีระบบเครือข่ายภายในและระหว่าง GPU ที่ซับซ้อน เช่น NVLink, NVSwitch และ InfiniBand ที่ช่วยให้ GPU หลายตัวทำงานร่วมกันได้อย่างมีประสิทธิภาพ โดยเฉพาะในระบบ DGX SuperPod ที่สามารถเชื่อมต่อ GPU ได้ถึง 1024 ตัว

    GPU ยังรองรับการทำงานแบบ parallelism หลายรูปแบบ เช่น data parallelism, tensor parallelism, expert parallelism และ pipeline parallelism ซึ่งแต่ละแบบมีข้อดีข้อเสียต่างกัน และต้องเลือกใช้ให้เหมาะกับขนาดและโครงสร้างของโมเดล

    ข้อมูลในข่าว
    GPU สมัยใหม่เช่น H100 และ B200 มี Tensor Core สำหรับคูณเมทริกซ์โดยเฉพาะ
    H100 มี 132 SM ส่วน B200 มี 148 SM แต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores
    หน่วยความจำของ GPU มีหลายระดับ: Register, SMEM, L2 cache และ HBM
    B200 มี HBM ขนาด 192GB และแบนด์วิดท์ 9TB/s
    ระบบเครือข่ายภายในใช้ NVLink และ NVSwitch เชื่อม GPU ภายใน node
    ระบบเครือข่ายระหว่าง node ใช้ InfiniBand แบบ fat tree topology
    DGX SuperPod สามารถเชื่อม GPU ได้ถึง 1024 ตัว
    GPU รองรับ parallelism หลายแบบ: data, tensor, expert และ pipeline
    NVIDIA SHARP ช่วยให้การทำ AllReduce มีประสิทธิภาพมากขึ้น
    GB200 NVL72 มี node ขนาดใหญ่ขึ้น (72 GPU) และแบนด์วิดท์สูงถึง 3.6TB/s

    ข้อมูลเสริมจากภายนอก
    RTX PRO 4000 Blackwell SFF เปิดตัวเมื่อ 11 ส.ค. 2025 มี Tensor Core รุ่นที่ 5
    ใช้สถาปัตยกรรม Blackwell 2.0 บนกระบวนการผลิต 5nm โดย TSMC
    มี 8960 CUDA cores และ 280 Tensor cores พร้อม GDDR7 ขนาด 24GB
    ประสิทธิภาพ AI สูงขึ้น 2.5 เท่าเมื่อเทียบกับรุ่นก่อน
    ใช้พลังงานเพียง 70W เหมาะกับเวิร์กสเตชันขนาดเล็ก
    รองรับ PCIe 5.0 x8 และ DisplayPort 2.1b

    https://jax-ml.github.io/scaling-book/gpus/
    🧠 เรื่องเล่าใหม่: GPU ไม่ใช่แค่การ์ดจอ – แต่คือเครื่องจักรแห่งการเรียนรู้ของ AI ในยุคที่ AI ใหญ่ขึ้นทุกวัน การเข้าใจว่า GPU ทำงานอย่างไรจึงสำคัญมาก โดยเฉพาะเมื่อเปรียบเทียบกับ TPU ที่ Google ใช้กันอย่างแพร่หลาย GPU สมัยใหม่ เช่น NVIDIA H100, B200 และ GB200 NVL72 ไม่ได้เป็นแค่การ์ดจอสำหรับเล่นเกมอีกต่อไป แต่กลายเป็นเครื่องมือหลักในการฝึกและรันโมเดลขนาดใหญ่ (LLMs) ด้วยพลังการคำนวณมหาศาลจาก Tensor Core ที่ออกแบบมาเพื่อการคูณเมทริกซ์โดยเฉพาะ แต่ละ GPU ประกอบด้วยหลาย SM (Streaming Multiprocessor) ซึ่งใน H100 มีถึง 132 SM และใน B200 มี 148 SM โดยแต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores ที่ทำงานแบบ SIMD/SIMT เพื่อประมวลผลแบบขนาน GPU ยังมีระบบหน่วยความจำหลายระดับ ตั้งแต่ Register, SMEM (L1 cache), L2 cache ไปจนถึง HBM (High Bandwidth Memory) ซึ่งใน B200 มีถึง 192GB และแบนด์วิดท์สูงถึง 9TB/s นอกจากนี้ยังมีระบบเครือข่ายภายในและระหว่าง GPU ที่ซับซ้อน เช่น NVLink, NVSwitch และ InfiniBand ที่ช่วยให้ GPU หลายตัวทำงานร่วมกันได้อย่างมีประสิทธิภาพ โดยเฉพาะในระบบ DGX SuperPod ที่สามารถเชื่อมต่อ GPU ได้ถึง 1024 ตัว GPU ยังรองรับการทำงานแบบ parallelism หลายรูปแบบ เช่น data parallelism, tensor parallelism, expert parallelism และ pipeline parallelism ซึ่งแต่ละแบบมีข้อดีข้อเสียต่างกัน และต้องเลือกใช้ให้เหมาะกับขนาดและโครงสร้างของโมเดล ✅ ข้อมูลในข่าว ➡️ GPU สมัยใหม่เช่น H100 และ B200 มี Tensor Core สำหรับคูณเมทริกซ์โดยเฉพาะ ➡️ H100 มี 132 SM ส่วน B200 มี 148 SM แต่ละ SM มี Tensor Core, Warp Scheduler และ CUDA Cores ➡️ หน่วยความจำของ GPU มีหลายระดับ: Register, SMEM, L2 cache และ HBM ➡️ B200 มี HBM ขนาด 192GB และแบนด์วิดท์ 9TB/s ➡️ ระบบเครือข่ายภายในใช้ NVLink และ NVSwitch เชื่อม GPU ภายใน node ➡️ ระบบเครือข่ายระหว่าง node ใช้ InfiniBand แบบ fat tree topology ➡️ DGX SuperPod สามารถเชื่อม GPU ได้ถึง 1024 ตัว ➡️ GPU รองรับ parallelism หลายแบบ: data, tensor, expert และ pipeline ➡️ NVIDIA SHARP ช่วยให้การทำ AllReduce มีประสิทธิภาพมากขึ้น ➡️ GB200 NVL72 มี node ขนาดใหญ่ขึ้น (72 GPU) และแบนด์วิดท์สูงถึง 3.6TB/s ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX PRO 4000 Blackwell SFF เปิดตัวเมื่อ 11 ส.ค. 2025 มี Tensor Core รุ่นที่ 5 ➡️ ใช้สถาปัตยกรรม Blackwell 2.0 บนกระบวนการผลิต 5nm โดย TSMC ➡️ มี 8960 CUDA cores และ 280 Tensor cores พร้อม GDDR7 ขนาด 24GB ➡️ ประสิทธิภาพ AI สูงขึ้น 2.5 เท่าเมื่อเทียบกับรุ่นก่อน ➡️ ใช้พลังงานเพียง 70W เหมาะกับเวิร์กสเตชันขนาดเล็ก ➡️ รองรับ PCIe 5.0 x8 และ DisplayPort 2.1b https://jax-ml.github.io/scaling-book/gpus/
    0 ความคิดเห็น 0 การแบ่งปัน 91 มุมมอง 0 รีวิว
  • #ร่วมบริจาคปัจจัยสนับสนุนรั้วลวดหนามหีบเพลง

    https://youtube.com/watch?v=r1klwQGLPuk&si=g_sVYttPuaeWyGjG
    #ร่วมบริจาคปัจจัยสนับสนุนรั้วลวดหนามหีบเพลง https://youtube.com/watch?v=r1klwQGLPuk&si=g_sVYttPuaeWyGjG
    0 ความคิดเห็น 0 การแบ่งปัน 228 มุมมอง 0 รีวิว
  • เรื่องเล่าจากวงการชิป: Oxmiq Labs กับภารกิจพลิกโฉม GPU ด้วย RISC-V และซอฟต์แวร์ที่ไม่ผูกกับฮาร์ดแวร์

    Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ Intel, AMD และ Apple ได้เปิดตัวสตาร์ทอัพใหม่ชื่อ Oxmiq Labs ที่ Silicon Valley โดยมีเป้าหมายชัดเจน: สร้าง GPU ที่ไม่จำเป็นต้องผลิตฮาร์ดแวร์เอง แต่เน้นการพัฒนา IP และซอฟต์แวร์ที่สามารถนำไปใช้กับฮาร์ดแวร์ใดก็ได้

    Oxmiq ใช้สถาปัตยกรรม RISC-V เป็นแกนหลักของ GPU IP ที่ชื่อว่า OxCore ซึ่งรวม scalar, vector และ tensor compute engines เข้าไว้ในระบบ modular ที่สามารถปรับแต่งได้ตาม workload ตั้งแต่ edge device ไปจนถึง data center

    นอกจากฮาร์ดแวร์ IP แล้ว Oxmiq ยังมีซอฟต์แวร์ที่ทรงพลัง เช่น OXCapsule ที่ช่วยจัดการ workload และทำให้แอปพลิเคชันสามารถรันบน CPU, GPU หรือ accelerator โดยไม่ต้องแก้โค้ด และ OXPython ที่สามารถรันโค้ด Python CUDA บนฮาร์ดแวร์ที่ไม่ใช่ Nvidia ได้ทันที

    Oxmiq ยังร่วมมือกับ Tenstorrent เพื่อเปิดตัว OXPython บนแพลตฟอร์ม Wormhole และ Blackhole และได้รับเงินลงทุนเบื้องต้น $20 ล้านจาก MediaTek และนักลงทุนรายอื่น โดยไม่ต้องพึ่งการผลิตชิปจริงหรือใช้เครื่องมือ EDA ที่มีต้นทุนสูง

    Oxmiq Labs ก่อตั้งโดย Raja Koduri เพื่อพลิกโฉม GPU ด้วย RISC-V
    เน้นการพัฒนา IP และซอฟต์แวร์ ไม่ผลิตฮาร์ดแวร์เอง

    OxCore เป็น GPU IP ที่รวม scalar, vector และ tensor engines
    รองรับงาน AI, graphics และ multimodal workloads

    OxQuilt เป็นระบบประกอบ SoC แบบ chiplet
    ลูกค้าสามารถเลือกโมดูล compute, memory และ interconnect ได้ตามต้องการ

    OXCapsule เป็น runtime ที่จัดการ workload และ abstraction
    ทำให้แอปสามารถรันบนฮาร์ดแวร์ต่าง ๆ โดยไม่ต้องแก้โค้ด

    OXPython แปลงโค้ด Python CUDA ให้รันบน non-Nvidia hardware
    เปิดทางให้ใช้โค้ดเดิมกับฮาร์ดแวร์ใหม่ได้ทันที

    ได้รับเงินลงทุน $20 ล้านจาก MediaTek และนักลงทุนอื่น
    สะท้อนความเชื่อมั่นในโมเดลธุรกิจแบบ IP licensing

    Oxmiq ไม่พัฒนา GPU สำหรับผู้บริโภคโดยตรง
    ไม่รวมฟีเจอร์เช่น texture units, ray tracing หรือ HDMI output

    โมเดล IP-as-a-Service ช่วยลดต้นทุนการพัฒนาชิปได้ถึง 90%
    ไม่ต้องลงทุนในโรงงานหรือกระบวนการ tape-out

    RISC-V เป็นสถาปัตยกรรมเปิดที่กำลังเติบโตในงาน AI และ embedded
    มีความยืดหยุ่นสูงและไม่ผูกกับ vendor รายใด

    Tenstorrent เป็นผู้ผลิต accelerator ที่เน้นงาน AI โดยเฉพาะ
    การร่วมมือกับ Oxmiq ช่วยขยาย ecosystem ให้รองรับ CUDA workloads

    Capsule เป็นระบบ container ที่ช่วยจัดการ GPU cluster
    ใช้เทคโนโลยีจาก Endgame ของ Intel มาปรับให้เหมาะกับ compute workload

    https://www.tomshardware.com/tech-industry/artificial-intelligence/legendary-gpu-architect-raja-koduris-new-startup-leverages-risc-v-and-targets-cuda-workloads-oxmiq-labs-supports-running-python-based-cuda-applications-unmodified-on-non-nvidia-hardware
    🧠⚙️ เรื่องเล่าจากวงการชิป: Oxmiq Labs กับภารกิจพลิกโฉม GPU ด้วย RISC-V และซอฟต์แวร์ที่ไม่ผูกกับฮาร์ดแวร์ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ Intel, AMD และ Apple ได้เปิดตัวสตาร์ทอัพใหม่ชื่อ Oxmiq Labs ที่ Silicon Valley โดยมีเป้าหมายชัดเจน: สร้าง GPU ที่ไม่จำเป็นต้องผลิตฮาร์ดแวร์เอง แต่เน้นการพัฒนา IP และซอฟต์แวร์ที่สามารถนำไปใช้กับฮาร์ดแวร์ใดก็ได้ Oxmiq ใช้สถาปัตยกรรม RISC-V เป็นแกนหลักของ GPU IP ที่ชื่อว่า OxCore ซึ่งรวม scalar, vector และ tensor compute engines เข้าไว้ในระบบ modular ที่สามารถปรับแต่งได้ตาม workload ตั้งแต่ edge device ไปจนถึง data center นอกจากฮาร์ดแวร์ IP แล้ว Oxmiq ยังมีซอฟต์แวร์ที่ทรงพลัง เช่น OXCapsule ที่ช่วยจัดการ workload และทำให้แอปพลิเคชันสามารถรันบน CPU, GPU หรือ accelerator โดยไม่ต้องแก้โค้ด และ OXPython ที่สามารถรันโค้ด Python CUDA บนฮาร์ดแวร์ที่ไม่ใช่ Nvidia ได้ทันที Oxmiq ยังร่วมมือกับ Tenstorrent เพื่อเปิดตัว OXPython บนแพลตฟอร์ม Wormhole และ Blackhole และได้รับเงินลงทุนเบื้องต้น $20 ล้านจาก MediaTek และนักลงทุนรายอื่น โดยไม่ต้องพึ่งการผลิตชิปจริงหรือใช้เครื่องมือ EDA ที่มีต้นทุนสูง ✅ Oxmiq Labs ก่อตั้งโดย Raja Koduri เพื่อพลิกโฉม GPU ด้วย RISC-V ➡️ เน้นการพัฒนา IP และซอฟต์แวร์ ไม่ผลิตฮาร์ดแวร์เอง ✅ OxCore เป็น GPU IP ที่รวม scalar, vector และ tensor engines ➡️ รองรับงาน AI, graphics และ multimodal workloads ✅ OxQuilt เป็นระบบประกอบ SoC แบบ chiplet ➡️ ลูกค้าสามารถเลือกโมดูล compute, memory และ interconnect ได้ตามต้องการ ✅ OXCapsule เป็น runtime ที่จัดการ workload และ abstraction ➡️ ทำให้แอปสามารถรันบนฮาร์ดแวร์ต่าง ๆ โดยไม่ต้องแก้โค้ด ✅ OXPython แปลงโค้ด Python CUDA ให้รันบน non-Nvidia hardware ➡️ เปิดทางให้ใช้โค้ดเดิมกับฮาร์ดแวร์ใหม่ได้ทันที ✅ ได้รับเงินลงทุน $20 ล้านจาก MediaTek และนักลงทุนอื่น ➡️ สะท้อนความเชื่อมั่นในโมเดลธุรกิจแบบ IP licensing ✅ Oxmiq ไม่พัฒนา GPU สำหรับผู้บริโภคโดยตรง ➡️ ไม่รวมฟีเจอร์เช่น texture units, ray tracing หรือ HDMI output ✅ โมเดล IP-as-a-Service ช่วยลดต้นทุนการพัฒนาชิปได้ถึง 90% ➡️ ไม่ต้องลงทุนในโรงงานหรือกระบวนการ tape-out ✅ RISC-V เป็นสถาปัตยกรรมเปิดที่กำลังเติบโตในงาน AI และ embedded ➡️ มีความยืดหยุ่นสูงและไม่ผูกกับ vendor รายใด ✅ Tenstorrent เป็นผู้ผลิต accelerator ที่เน้นงาน AI โดยเฉพาะ ➡️ การร่วมมือกับ Oxmiq ช่วยขยาย ecosystem ให้รองรับ CUDA workloads ✅ Capsule เป็นระบบ container ที่ช่วยจัดการ GPU cluster ➡️ ใช้เทคโนโลยีจาก Endgame ของ Intel มาปรับให้เหมาะกับ compute workload https://www.tomshardware.com/tech-industry/artificial-intelligence/legendary-gpu-architect-raja-koduris-new-startup-leverages-risc-v-and-targets-cuda-workloads-oxmiq-labs-supports-running-python-based-cuda-applications-unmodified-on-non-nvidia-hardware
    0 ความคิดเห็น 0 การแบ่งปัน 292 มุมมอง 0 รีวิว
  • เรื่องเล่าจากแดนมังกร: เมื่อ “TrueGPU” จุดไฟความหวังให้จีนเป็นเจ้าตลาดกราฟิก

    ในเดือนกรกฎาคม 2025 บริษัท Lisuan Technology จากจีนได้เปิดตัวกราฟิกการ์ดรุ่นแรกของตนเอง—Lisuan 7G106 และ 7G105—ที่ใช้สถาปัตยกรรม “TrueGPU” ซึ่งออกแบบขึ้นใหม่ทั้งหมดโดยทีมงานอดีตวิศวกรจาก Silicon Valley

    GPU ทั้งสองรุ่นผลิตบนเทคโนโลยี 6nm ของ TSMC และมีเป้าหมายชัดเจน: แข่งกับ NVIDIA RTX 4060 ในตลาดกลาง โดย 7G106 เน้นเกม ส่วน 7G105 เน้นงาน AI และองค์กร

    ที่น่าทึ่งคือ แม้จะเป็นรุ่นแรก แต่สามารถรันเกมระดับ AAA อย่าง Black Myth: Wukong และ Shadow of the Tomb Raider ที่ 4K High ได้เกิน 70 FPS! และยังมีฟีเจอร์ล้ำๆ อย่างการเรนเดอร์แบบ out-of-order, การจัดการงานแบบ multitasking 48 งานพร้อมกัน และระบบอัปสเกลภาพ NRSS ที่ตั้งใจชนกับ DLSS และ FSR

    Lisuan เปิดตัว GPU รุ่นแรกของจีนที่ใช้สถาปัตยกรรม TrueGPU
    ผลิตบนเทคโนโลยี 6nm ของ TSMC
    ออกแบบ instruction set, compute core และ software stack เองทั้งหมด

    Lisuan 7G106 (เกมมิ่ง) และ 7G105 (มืออาชีพ/AI) มีสเปกใกล้เคียงกัน
    FP32 throughput สูงสุด 24 TFLOP/s
    ใช้ GDDR6 ขนาด 12 GB และ 24 GB (ECC) ตามลำดับ
    รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6, OpenCL 3.0

    รองรับการเข้ารหัส/ถอดรหัสวิดีโอระดับ 8K
    Decode AV1 และ HEVC ได้ถึง 8K60
    Encode HEVC ที่ 8K30 และ AV1 ที่ 4K30

    รองรับการใช้งานแบบ virtual GPU ได้ถึง 16 หน่วย
    เหมาะกับงาน cloud gaming, metaverse, robotics และ AI ขนาดใหญ่
    ใช้พลังงานประมาณ 225W ด้วยหัวต่อ PCIe 8-pin

    ผลทดสอบเบื้องต้นเทียบเคียง RTX 4060 ได้อย่างสูสี
    3DMark Fire Strike: 26,800 คะแนน
    Geekbench 6 OpenCL: 111,290 คะแนน (สูงกว่า RTX 4060 ประมาณ 10%)

    เกมดังรันได้ลื่นไหลในระดับ 4K High settings
    Black Myth: Wukong และ Wuchang: Fallen Feathers เกิน 70 FPS
    Shadow of the Tomb Raider เกิน 80 FPS

    เริ่มผลิตจริงกันยายน 2025 หลังจากทดลองในเดือนสิงหาคม
    ยังไม่ประกาศราคาหรือความเร็วสัญญาณนาฬิกา
    เน้นตลาดจีนเป็นหลักเพื่อลดการพึ่งพาต่างชาติ

    ยังไม่มีการทดสอบจากผู้ผลิตอิสระเพื่อยืนยันประสิทธิภาพจริง
    ผลทดสอบทั้งหมดมาจากบริษัท Lisuan เอง
    ต้องรอการรีวิวจากสื่อและผู้ใช้งานจริงเพื่อความน่าเชื่อถือ

    ยังไม่รองรับ ray tracing แม้จะใช้ DirectX 12
    ไม่มี DirectX 12 Ultimate
    อาจไม่เหมาะกับเกมที่เน้นกราฟิกแสงเงาขั้นสูง

    ยังไม่มี HDMI output บนการ์ดรุ่นนี้
    ใช้ DisplayPort 1.4 ทั้งหมด
    อาจไม่สะดวกสำหรับผู้ใช้ทั่วไปที่ต้องการต่อกับทีวีหรือจอ HDMI

    ยังไม่ประกาศราคาขายและรุ่นย่อย (SKU)
    อาจมีความเสี่ยงด้านความพร้อมของตลาด
    ต้องจับตาว่าจะสามารถแข่งขันด้านราคากับแบรนด์ระดับโลกได้หรือไม่

    https://www.tomshardware.com/pc-components/gpus/china-advances-toward-tech-independence-with-new-homegrown-6nm-gaming-and-ai-gpus-lisuan-7g106-runs-chinese-aaa-titles-at-4k-over-70-fps-and-matches-rtx-4060-in-synthetic-benchmarks
    🎮 เรื่องเล่าจากแดนมังกร: เมื่อ “TrueGPU” จุดไฟความหวังให้จีนเป็นเจ้าตลาดกราฟิก ในเดือนกรกฎาคม 2025 บริษัท Lisuan Technology จากจีนได้เปิดตัวกราฟิกการ์ดรุ่นแรกของตนเอง—Lisuan 7G106 และ 7G105—ที่ใช้สถาปัตยกรรม “TrueGPU” ซึ่งออกแบบขึ้นใหม่ทั้งหมดโดยทีมงานอดีตวิศวกรจาก Silicon Valley GPU ทั้งสองรุ่นผลิตบนเทคโนโลยี 6nm ของ TSMC และมีเป้าหมายชัดเจน: แข่งกับ NVIDIA RTX 4060 ในตลาดกลาง โดย 7G106 เน้นเกม ส่วน 7G105 เน้นงาน AI และองค์กร ที่น่าทึ่งคือ แม้จะเป็นรุ่นแรก แต่สามารถรันเกมระดับ AAA อย่าง Black Myth: Wukong และ Shadow of the Tomb Raider ที่ 4K High ได้เกิน 70 FPS! และยังมีฟีเจอร์ล้ำๆ อย่างการเรนเดอร์แบบ out-of-order, การจัดการงานแบบ multitasking 48 งานพร้อมกัน และระบบอัปสเกลภาพ NRSS ที่ตั้งใจชนกับ DLSS และ FSR ✅ Lisuan เปิดตัว GPU รุ่นแรกของจีนที่ใช้สถาปัตยกรรม TrueGPU ➡️ ผลิตบนเทคโนโลยี 6nm ของ TSMC ➡️ ออกแบบ instruction set, compute core และ software stack เองทั้งหมด ✅ Lisuan 7G106 (เกมมิ่ง) และ 7G105 (มืออาชีพ/AI) มีสเปกใกล้เคียงกัน ➡️ FP32 throughput สูงสุด 24 TFLOP/s ➡️ ใช้ GDDR6 ขนาด 12 GB และ 24 GB (ECC) ตามลำดับ ➡️ รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6, OpenCL 3.0 ✅ รองรับการเข้ารหัส/ถอดรหัสวิดีโอระดับ 8K ➡️ Decode AV1 และ HEVC ได้ถึง 8K60 ➡️ Encode HEVC ที่ 8K30 และ AV1 ที่ 4K30 ✅ รองรับการใช้งานแบบ virtual GPU ได้ถึง 16 หน่วย ➡️ เหมาะกับงาน cloud gaming, metaverse, robotics และ AI ขนาดใหญ่ ➡️ ใช้พลังงานประมาณ 225W ด้วยหัวต่อ PCIe 8-pin ✅ ผลทดสอบเบื้องต้นเทียบเคียง RTX 4060 ได้อย่างสูสี ➡️ 3DMark Fire Strike: 26,800 คะแนน ➡️ Geekbench 6 OpenCL: 111,290 คะแนน (สูงกว่า RTX 4060 ประมาณ 10%) ✅ เกมดังรันได้ลื่นไหลในระดับ 4K High settings ➡️ Black Myth: Wukong และ Wuchang: Fallen Feathers เกิน 70 FPS ➡️ Shadow of the Tomb Raider เกิน 80 FPS ✅ เริ่มผลิตจริงกันยายน 2025 หลังจากทดลองในเดือนสิงหาคม ➡️ ยังไม่ประกาศราคาหรือความเร็วสัญญาณนาฬิกา ➡️ เน้นตลาดจีนเป็นหลักเพื่อลดการพึ่งพาต่างชาติ ‼️ ยังไม่มีการทดสอบจากผู้ผลิตอิสระเพื่อยืนยันประสิทธิภาพจริง ⛔ ผลทดสอบทั้งหมดมาจากบริษัท Lisuan เอง ⛔ ต้องรอการรีวิวจากสื่อและผู้ใช้งานจริงเพื่อความน่าเชื่อถือ ‼️ ยังไม่รองรับ ray tracing แม้จะใช้ DirectX 12 ⛔ ไม่มี DirectX 12 Ultimate ⛔ อาจไม่เหมาะกับเกมที่เน้นกราฟิกแสงเงาขั้นสูง ‼️ ยังไม่มี HDMI output บนการ์ดรุ่นนี้ ⛔ ใช้ DisplayPort 1.4 ทั้งหมด ⛔ อาจไม่สะดวกสำหรับผู้ใช้ทั่วไปที่ต้องการต่อกับทีวีหรือจอ HDMI ‼️ ยังไม่ประกาศราคาขายและรุ่นย่อย (SKU) ⛔ อาจมีความเสี่ยงด้านความพร้อมของตลาด ⛔ ต้องจับตาว่าจะสามารถแข่งขันด้านราคากับแบรนด์ระดับโลกได้หรือไม่ https://www.tomshardware.com/pc-components/gpus/china-advances-toward-tech-independence-with-new-homegrown-6nm-gaming-and-ai-gpus-lisuan-7g106-runs-chinese-aaa-titles-at-4k-over-70-fps-and-matches-rtx-4060-in-synthetic-benchmarks
    0 ความคิดเห็น 0 การแบ่งปัน 302 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก AI: “ราคาคำตอบ” ที่คุณอาจไม่เคยคิด

    ลองจินตนาการว่า AI ที่คุณใช้ตอบคำถามหรือเขียนบทความนั้น คิดค่าบริการเป็น “จำนวนคำ” ที่มันอ่านและเขียนออกมา—หรือที่เรียกว่า “token” ซึ่งแต่ละ token คือเศษคำประมาณ 3–4 ตัวอักษร

    ในปี 2025 นี้ ตลาด LLM API แข่งขันกันดุเดือด ผู้ให้บริการอย่าง OpenAI, Google, Anthropic และ xAI ต่างออกโมเดลใหม่พร้อมราคาที่หลากหลาย ตั้งแต่ราคาถูกสุดเพียง $0.07 ต่อ 1 ล้าน token ไปจนถึง $600 ต่อ 1 ล้าน token สำหรับโมเดลระดับสูงสุด!

    สิ่งที่น่าสนใจคือ “ราคาสำหรับการตอบ” (output token) มักแพงกว่าการถาม (input token) ถึง 3–5 เท่า ทำให้การออกแบบ prompt ที่กระชับและฉลาดกลายเป็นกลยุทธ์สำคัญในการลดต้นทุน

    โมเดลราคาถูกที่สุดในตลาดตอนนี้ ได้แก่ Google Gemini 2.0 Flash-Lite และ OpenAI GPT-4.1-nano
    ราคา input token อยู่ที่ $0.07–$0.10 ต่อ 1 ล้าน token
    ราคา output token อยู่ที่ $0.30–$0.40 ต่อ 1 ล้าน token

    โมเดลระดับกลางที่คุ้มค่า เช่น GPT-4o-mini และ Claude Haiku 3
    ราคา input token อยู่ที่ $0.15–$0.25
    ราคา output token อยู่ที่ $0.60–$1.25

    โมเดลระดับสูง เช่น Claude Opus 4 และ GPT-o1-pro มีราคาสูงมาก
    Claude Opus 4: $15 (input) / $75 (output)
    GPT-o1-pro: $150 (input) / $600 (output)

    แนวโน้มการตั้งราคาคือการแยก input กับ output token อย่างชัดเจน
    output token แพงกว่า input token หลายเท่า
    ส่งเสริมการใช้เทคนิค RAG (Retrieval-Augmented Generation) เพื่อประหยัด

    ข้อมูลอัปเดตล่าสุดเมื่อวันที่ 27 กรกฎาคม 2025
    แหล่งข้อมูลมาจากเว็บไซต์ทางการของผู้ให้บริการแต่ละราย
    มีการเปรียบเทียบมากกว่า 30 โมเดลจากหลายค่าย

    การใช้โมเดลที่มี output token แพงอาจทำให้ต้นทุนพุ่งสูงโดยไม่รู้ตัว
    หากไม่จำกัดความยาวคำตอบหรือใช้ prompt ที่ไม่กระชับ อาจเสียเงินมากเกินจำเป็น
    ควรตั้งค่า max_tokens และ temperature ให้เหมาะสม

    การเปรียบเทียบราคาโดยไม่ดูคุณภาพอาจทำให้เลือกโมเดลไม่เหมาะกับงาน
    โมเดลราคาถูกอาจไม่เหมาะกับงาน reasoning หรือการเขียนเชิงลึก
    ควรพิจารณาความสามารถของโมเดลควบคู่กับราคา

    การเปลี่ยนแปลงราคาบ่อยครั้งอาจทำให้ข้อมูลล้าสมัยเร็ว
    ควรตรวจสอบราคาจากเว็บไซต์ทางการก่อนใช้งานจริง
    การใช้ข้อมูลเก่าอาจทำให้คำนวณต้นทุนผิดพลาด

    การใช้โมเดลที่มี context window ใหญ่เกินความจำเป็นอาจสิ้นเปลือง
    โมเดลที่รองรับ context 1M tokens มักมีราคาสูง
    หากงานไม่ต้องการ context ยาว ควรเลือกโมเดลที่เล็กลง

    https://pricepertoken.com/
    💸 เรื่องเล่าจากโลก AI: “ราคาคำตอบ” ที่คุณอาจไม่เคยคิด ลองจินตนาการว่า AI ที่คุณใช้ตอบคำถามหรือเขียนบทความนั้น คิดค่าบริการเป็น “จำนวนคำ” ที่มันอ่านและเขียนออกมา—หรือที่เรียกว่า “token” ซึ่งแต่ละ token คือเศษคำประมาณ 3–4 ตัวอักษร ในปี 2025 นี้ ตลาด LLM API แข่งขันกันดุเดือด ผู้ให้บริการอย่าง OpenAI, Google, Anthropic และ xAI ต่างออกโมเดลใหม่พร้อมราคาที่หลากหลาย ตั้งแต่ราคาถูกสุดเพียง $0.07 ต่อ 1 ล้าน token ไปจนถึง $600 ต่อ 1 ล้าน token สำหรับโมเดลระดับสูงสุด! สิ่งที่น่าสนใจคือ “ราคาสำหรับการตอบ” (output token) มักแพงกว่าการถาม (input token) ถึง 3–5 เท่า ทำให้การออกแบบ prompt ที่กระชับและฉลาดกลายเป็นกลยุทธ์สำคัญในการลดต้นทุน ✅ โมเดลราคาถูกที่สุดในตลาดตอนนี้ ได้แก่ Google Gemini 2.0 Flash-Lite และ OpenAI GPT-4.1-nano ➡️ ราคา input token อยู่ที่ $0.07–$0.10 ต่อ 1 ล้าน token ➡️ ราคา output token อยู่ที่ $0.30–$0.40 ต่อ 1 ล้าน token ✅ โมเดลระดับกลางที่คุ้มค่า เช่น GPT-4o-mini และ Claude Haiku 3 ➡️ ราคา input token อยู่ที่ $0.15–$0.25 ➡️ ราคา output token อยู่ที่ $0.60–$1.25 ✅ โมเดลระดับสูง เช่น Claude Opus 4 และ GPT-o1-pro มีราคาสูงมาก ➡️ Claude Opus 4: $15 (input) / $75 (output) ➡️ GPT-o1-pro: $150 (input) / $600 (output) ✅ แนวโน้มการตั้งราคาคือการแยก input กับ output token อย่างชัดเจน ➡️ output token แพงกว่า input token หลายเท่า ➡️ ส่งเสริมการใช้เทคนิค RAG (Retrieval-Augmented Generation) เพื่อประหยัด ✅ ข้อมูลอัปเดตล่าสุดเมื่อวันที่ 27 กรกฎาคม 2025 ➡️ แหล่งข้อมูลมาจากเว็บไซต์ทางการของผู้ให้บริการแต่ละราย ➡️ มีการเปรียบเทียบมากกว่า 30 โมเดลจากหลายค่าย ‼️ การใช้โมเดลที่มี output token แพงอาจทำให้ต้นทุนพุ่งสูงโดยไม่รู้ตัว ⛔ หากไม่จำกัดความยาวคำตอบหรือใช้ prompt ที่ไม่กระชับ อาจเสียเงินมากเกินจำเป็น ⛔ ควรตั้งค่า max_tokens และ temperature ให้เหมาะสม ‼️ การเปรียบเทียบราคาโดยไม่ดูคุณภาพอาจทำให้เลือกโมเดลไม่เหมาะกับงาน ⛔ โมเดลราคาถูกอาจไม่เหมาะกับงาน reasoning หรือการเขียนเชิงลึก ⛔ ควรพิจารณาความสามารถของโมเดลควบคู่กับราคา ‼️ การเปลี่ยนแปลงราคาบ่อยครั้งอาจทำให้ข้อมูลล้าสมัยเร็ว ⛔ ควรตรวจสอบราคาจากเว็บไซต์ทางการก่อนใช้งานจริง ⛔ การใช้ข้อมูลเก่าอาจทำให้คำนวณต้นทุนผิดพลาด ‼️ การใช้โมเดลที่มี context window ใหญ่เกินความจำเป็นอาจสิ้นเปลือง ⛔ โมเดลที่รองรับ context 1M tokens มักมีราคาสูง ⛔ หากงานไม่ต้องการ context ยาว ควรเลือกโมเดลที่เล็กลง https://pricepertoken.com/
    0 ความคิดเห็น 0 การแบ่งปัน 174 มุมมอง 0 รีวิว
  • https://youtube.com/watch?v=0eqTthNM_rc&si=TpUj5VMyfq-RBqI3
    https://youtube.com/watch?v=0eqTthNM_rc&si=TpUj5VMyfq-RBqI3
    0 ความคิดเห็น 0 การแบ่งปัน 43 มุมมอง 0 รีวิว
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 ความคิดเห็น 0 การแบ่งปัน 271 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก GPU หลักล้าน: เมื่อการสร้าง AI ไม่ใช่แค่โมเดล แต่คือการสร้างโลกใหม่

    Altman โพสต์บน X ว่า OpenAI จะมี “มากกว่า 1 ล้าน GPU” ภายในสิ้นปีนี้ — เทียบกับ xAI ของ Elon Musk ที่ใช้เพียง 200,000 GPU ในโมเดล Grok 4 ถือว่า OpenAI มีพลังมากกว่า 5 เท่า

    แต่ Altman ไม่หยุดแค่นั้น เขาบอกว่า “ทีมต้องหาวิธีเพิ่มอีก 100 เท่า” ซึ่งหมายถึง 100 ล้าน GPU — คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ (หรือเท่ากับ GDP ของสหราชอาณาจักร)

    แม้จะดูเป็นเป้าหมายที่เกินจริง แต่ OpenAI ก็มีโครงการรองรับ เช่น:
    - ศูนย์ข้อมูลในเท็กซัสที่ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW ในปี 2026
    - ความร่วมมือกับ Oracle และ Microsoft Azure
    - การสำรวจการใช้ Google TPU และการพัฒนาชิป AI ของตัวเอง

    Altman มองว่า compute คือ “คอขวด” ของวงการ AI และการลงทุนในโครงสร้างพื้นฐานคือการสร้างความได้เปรียบระยะยาว

    OpenAI จะมีมากกว่า 1 ล้าน GPU สำหรับงาน AI ภายในสิ้นปี 2025
    มากกว่าคู่แข่งอย่าง xAI ที่ใช้เพียง 200,000 GPU

    Altman ตั้งเป้าในอนาคตว่าจะมีถึง 100 ล้าน GPU
    คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ หรือเท่ากับ GDP ของ UK

    ศูนย์ข้อมูลในเท็กซัสของ OpenAI ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW
    เทียบเท่ากับการจ่ายไฟให้เมืองขนาดกลาง

    OpenAI ร่วมมือกับ Microsoft Azure และ Oracle ในการสร้างโครงสร้างพื้นฐาน
    และอาจใช้ Google TPU เพื่อกระจายความเสี่ยงด้าน compute

    Altman เคยกล่าวว่า GPT‑4.5 ต้องชะลอการเปิดตัวเพราะ “GPU ไม่พอ”
    ทำให้การขยาย compute กลายเป็นเป้าหมายหลักขององค์กร

    บริษัทอื่นอย่าง Meta, Amazon ก็กำลังพัฒนาชิป AI ของตัวเอง
    เพื่อแข่งขันในตลาดที่ compute คือทรัพยากรสำคัญที่สุด

    https://www.tomshardware.com/tech-industry/sam-altman-teases-100-million-gpu-scale-for-openai-that-could-cost-usd3-trillion-chatgpt-maker-to-cross-well-over-1-million-by-end-of-year
    🎙️ เรื่องเล่าจาก GPU หลักล้าน: เมื่อการสร้าง AI ไม่ใช่แค่โมเดล แต่คือการสร้างโลกใหม่ Altman โพสต์บน X ว่า OpenAI จะมี “มากกว่า 1 ล้าน GPU” ภายในสิ้นปีนี้ — เทียบกับ xAI ของ Elon Musk ที่ใช้เพียง 200,000 GPU ในโมเดล Grok 4 ถือว่า OpenAI มีพลังมากกว่า 5 เท่า แต่ Altman ไม่หยุดแค่นั้น เขาบอกว่า “ทีมต้องหาวิธีเพิ่มอีก 100 เท่า” ซึ่งหมายถึง 100 ล้าน GPU — คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ (หรือเท่ากับ GDP ของสหราชอาณาจักร) แม้จะดูเป็นเป้าหมายที่เกินจริง แต่ OpenAI ก็มีโครงการรองรับ เช่น: - ศูนย์ข้อมูลในเท็กซัสที่ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW ในปี 2026 - ความร่วมมือกับ Oracle และ Microsoft Azure - การสำรวจการใช้ Google TPU และการพัฒนาชิป AI ของตัวเอง Altman มองว่า compute คือ “คอขวด” ของวงการ AI และการลงทุนในโครงสร้างพื้นฐานคือการสร้างความได้เปรียบระยะยาว ✅ OpenAI จะมีมากกว่า 1 ล้าน GPU สำหรับงาน AI ภายในสิ้นปี 2025 ➡️ มากกว่าคู่แข่งอย่าง xAI ที่ใช้เพียง 200,000 GPU ✅ Altman ตั้งเป้าในอนาคตว่าจะมีถึง 100 ล้าน GPU ➡️ คิดเป็นมูลค่าราว $3 ล้านล้านดอลลาร์ หรือเท่ากับ GDP ของ UK ✅ ศูนย์ข้อมูลในเท็กซัสของ OpenAI ใช้พลังงาน 300MW และจะเพิ่มเป็น 1GW ➡️ เทียบเท่ากับการจ่ายไฟให้เมืองขนาดกลาง ✅ OpenAI ร่วมมือกับ Microsoft Azure และ Oracle ในการสร้างโครงสร้างพื้นฐาน ➡️ และอาจใช้ Google TPU เพื่อกระจายความเสี่ยงด้าน compute ✅ Altman เคยกล่าวว่า GPT‑4.5 ต้องชะลอการเปิดตัวเพราะ “GPU ไม่พอ” ➡️ ทำให้การขยาย compute กลายเป็นเป้าหมายหลักขององค์กร ✅ บริษัทอื่นอย่าง Meta, Amazon ก็กำลังพัฒนาชิป AI ของตัวเอง ➡️ เพื่อแข่งขันในตลาดที่ compute คือทรัพยากรสำคัญที่สุด https://www.tomshardware.com/tech-industry/sam-altman-teases-100-million-gpu-scale-for-openai-that-could-cost-usd3-trillion-chatgpt-maker-to-cross-well-over-1-million-by-end-of-year
    0 ความคิดเห็น 0 การแบ่งปัน 245 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโรงงาน NAND: เมื่อจีนพยายามปลดล็อกตัวเองจากการคว่ำบาตร

    ตั้งแต่ปลายปี 2022 YMTC ถูกขึ้นบัญชีดำโดยกระทรวงพาณิชย์สหรัฐฯ ทำให้ไม่สามารถเข้าถึงเครื่องมือผลิตชั้นสูงจากบริษัทอเมริกัน เช่น ASML, Applied Materials, KLA และ LAM Research ได้โดยตรง

    แต่ YMTC ไม่หยุดนิ่ง:
    - เริ่มผลิต NAND รุ่นใหม่ X4-9070 แบบ 3D TLC ที่มีถึง 294 ชั้น
    - เตรียมเปิดสายการผลิตทดลองที่ใช้เครื่องมือจีนทั้งหมดในครึ่งหลังของปี 2025
    - ตั้งเป้าเพิ่มกำลังผลิตเป็น 150,000 wafer starts ต่อเดือน (WSPM) ภายในปีนี้
    - วางแผนเปิดตัว NAND รุ่นใหม่ เช่น X5-9080 ขนาด 2TB และ QLC รุ่นใหม่ที่เร็วขึ้น

    แม้จะยังไม่สามารถผลิต lithography tools ขั้นสูงได้เอง แต่ YMTC มีอัตราการใช้เครื่องมือในประเทศสูงถึง 45% ซึ่งมากกว่าคู่แข่งในจีนอย่าง SMIC, Hua Hong และ CXMT ที่อยู่ในช่วง 15–27%

    YMTC ถูกขึ้นบัญชีดำโดยสหรัฐฯ ตั้งแต่ปลายปี 2022
    ไม่สามารถซื้อเครื่องมือผลิต NAND ที่มีมากกว่า 128 ชั้นจากบริษัทอเมริกันได้

    YMTC เริ่มผลิต NAND รุ่น X4-9070 ที่มี 294 ชั้น และเตรียมเปิดตัวรุ่น 2TB ในปีหน้า
    ใช้เทคนิคการเชื่อมโครงสร้างหลายชั้นเพื่อเพิ่ม bit density

    เตรียมเปิดสายการผลิตทดลองที่ใช้เครื่องมือจีนทั้งหมดในครึ่งหลังของปี 2025
    เป็นก้าวสำคัญในการลดการพึ่งพาเทคโนโลยีต่างชาติ

    ตั้งเป้าเพิ่มกำลังผลิตเป็น 150,000 WSPM และครองตลาด NAND 15% ภายในปี 2026
    หากสำเร็จจะเปลี่ยนสมดุลของตลาด NAND ทั่วโลก

    YMTC มีอัตราการใช้เครื่องมือในประเทศสูงถึง 45%
    สูงกว่าคู่แข่งในจีน เช่น SMIC (22%), Hua Hong (20%), CXMT (20%)

    ผู้ผลิตเครื่องมือในประเทศที่ร่วมกับ YMTC ได้แก่ AMEC, Naura, Piotech และ SMEE
    มีความเชี่ยวชาญด้าน etching, deposition และ lithography ระดับพื้นฐาน

    YMTC ลงทุนผ่าน Changjiang Capital เพื่อสนับสนุนผู้ผลิตเครื่องมือในประเทศ
    ใช้ช่องทางไม่เปิดเผยเพื่อหลีกเลี่ยงการตรวจสอบจากสหรัฐฯ

    เครื่องมือผลิตในประเทศจีนยังมี yield ต่ำกว่าของอเมริกา ญี่ปุ่น และยุโรป
    อาจทำให้สายการผลิตทดลองไม่สามารถขยายเป็นการผลิตจริงได้ทันเวลา

    การใช้เทคนิค stacking หลายชั้นทำให้ wafer ใช้เวลานานในโรงงาน
    ส่งผลให้จำนวน wafer ต่อเดือนลดลง แม้ bit output จะเพิ่มขึ้น

    การตั้งเป้าครองตลาด 15% ภายในปี 2026 อาจมองในแง่ดีเกินไป
    เพราะต้องใช้เวลานานในการปรับปรุง yield และขยายกำลังผลิตจริง

    การขาดเครื่องมือ lithography ขั้นสูงอาจเป็นอุปสรรคต่อการผลิต NAND รุ่นใหม่
    SMEE ยังผลิตได้แค่ระดับ 90nm ซึ่งไม่เพียงพอสำหรับ NAND ขั้นสูง

    หาก YMTC เพิ่มกำลังผลิตเกิน 200,000 WSPM อาจกระทบราคาตลาด NAND ทั่วโลก
    ทำให้เกิดการแข่งขันด้านราคาที่รุนแรงและกระทบผู้ผลิตรายอื่น

    https://www.tomshardware.com/pc-components/ssds/chinas-ymtc-moves-to-break-free-of-u-s-sanctions-by-building-production-line-with-homegrown-tools-aims-to-capture-15-percent-of-nand-market-by-late-2026
    🎙️ เรื่องเล่าจากโรงงาน NAND: เมื่อจีนพยายามปลดล็อกตัวเองจากการคว่ำบาตร ตั้งแต่ปลายปี 2022 YMTC ถูกขึ้นบัญชีดำโดยกระทรวงพาณิชย์สหรัฐฯ ทำให้ไม่สามารถเข้าถึงเครื่องมือผลิตชั้นสูงจากบริษัทอเมริกัน เช่น ASML, Applied Materials, KLA และ LAM Research ได้โดยตรง แต่ YMTC ไม่หยุดนิ่ง: - เริ่มผลิต NAND รุ่นใหม่ X4-9070 แบบ 3D TLC ที่มีถึง 294 ชั้น - เตรียมเปิดสายการผลิตทดลองที่ใช้เครื่องมือจีนทั้งหมดในครึ่งหลังของปี 2025 - ตั้งเป้าเพิ่มกำลังผลิตเป็น 150,000 wafer starts ต่อเดือน (WSPM) ภายในปีนี้ - วางแผนเปิดตัว NAND รุ่นใหม่ เช่น X5-9080 ขนาด 2TB และ QLC รุ่นใหม่ที่เร็วขึ้น แม้จะยังไม่สามารถผลิต lithography tools ขั้นสูงได้เอง แต่ YMTC มีอัตราการใช้เครื่องมือในประเทศสูงถึง 45% ซึ่งมากกว่าคู่แข่งในจีนอย่าง SMIC, Hua Hong และ CXMT ที่อยู่ในช่วง 15–27% ✅ YMTC ถูกขึ้นบัญชีดำโดยสหรัฐฯ ตั้งแต่ปลายปี 2022 ➡️ ไม่สามารถซื้อเครื่องมือผลิต NAND ที่มีมากกว่า 128 ชั้นจากบริษัทอเมริกันได้ ✅ YMTC เริ่มผลิต NAND รุ่น X4-9070 ที่มี 294 ชั้น และเตรียมเปิดตัวรุ่น 2TB ในปีหน้า ➡️ ใช้เทคนิคการเชื่อมโครงสร้างหลายชั้นเพื่อเพิ่ม bit density ✅ เตรียมเปิดสายการผลิตทดลองที่ใช้เครื่องมือจีนทั้งหมดในครึ่งหลังของปี 2025 ➡️ เป็นก้าวสำคัญในการลดการพึ่งพาเทคโนโลยีต่างชาติ ✅ ตั้งเป้าเพิ่มกำลังผลิตเป็น 150,000 WSPM และครองตลาด NAND 15% ภายในปี 2026 ➡️ หากสำเร็จจะเปลี่ยนสมดุลของตลาด NAND ทั่วโลก ✅ YMTC มีอัตราการใช้เครื่องมือในประเทศสูงถึง 45% ➡️ สูงกว่าคู่แข่งในจีน เช่น SMIC (22%), Hua Hong (20%), CXMT (20%) ✅ ผู้ผลิตเครื่องมือในประเทศที่ร่วมกับ YMTC ได้แก่ AMEC, Naura, Piotech และ SMEE ➡️ มีความเชี่ยวชาญด้าน etching, deposition และ lithography ระดับพื้นฐาน ✅ YMTC ลงทุนผ่าน Changjiang Capital เพื่อสนับสนุนผู้ผลิตเครื่องมือในประเทศ ➡️ ใช้ช่องทางไม่เปิดเผยเพื่อหลีกเลี่ยงการตรวจสอบจากสหรัฐฯ ‼️ เครื่องมือผลิตในประเทศจีนยังมี yield ต่ำกว่าของอเมริกา ญี่ปุ่น และยุโรป ⛔ อาจทำให้สายการผลิตทดลองไม่สามารถขยายเป็นการผลิตจริงได้ทันเวลา ‼️ การใช้เทคนิค stacking หลายชั้นทำให้ wafer ใช้เวลานานในโรงงาน ⛔ ส่งผลให้จำนวน wafer ต่อเดือนลดลง แม้ bit output จะเพิ่มขึ้น ‼️ การตั้งเป้าครองตลาด 15% ภายในปี 2026 อาจมองในแง่ดีเกินไป ⛔ เพราะต้องใช้เวลานานในการปรับปรุง yield และขยายกำลังผลิตจริง ‼️ การขาดเครื่องมือ lithography ขั้นสูงอาจเป็นอุปสรรคต่อการผลิต NAND รุ่นใหม่ ⛔ SMEE ยังผลิตได้แค่ระดับ 90nm ซึ่งไม่เพียงพอสำหรับ NAND ขั้นสูง ‼️ หาก YMTC เพิ่มกำลังผลิตเกิน 200,000 WSPM อาจกระทบราคาตลาด NAND ทั่วโลก ⛔ ทำให้เกิดการแข่งขันด้านราคาที่รุนแรงและกระทบผู้ผลิตรายอื่น https://www.tomshardware.com/pc-components/ssds/chinas-ymtc-moves-to-break-free-of-u-s-sanctions-by-building-production-line-with-homegrown-tools-aims-to-capture-15-percent-of-nand-market-by-late-2026
    0 ความคิดเห็น 0 การแบ่งปัน 304 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโรงงานชิป: เมื่อ TSMC ต้องเร่งผลิตชิปเล็กที่สุดในโลกให้ทันความต้องการ

    TSMC เริ่มผลิตชิปขนาด 2 นาโนเมตรในปี 2025 โดยตั้งเป้าเริ่มต้นที่ 40,000 แผ่นเวเฟอร์ต่อเดือน และจะเพิ่มเป็น 100,000 แผ่นในปี 2026 — แต่ด้วยความต้องการจากบริษัทอย่าง Apple, NVIDIA, Intel, AMD และ MediaTek ที่ใช้ชิปเหล่านี้ในผลิตภัณฑ์ AI, มือถือ และเซิร์ฟเวอร์ ทำให้ TSMC อาจต้องเพิ่มกำลังการผลิตถึง 5 เท่าในปี 2027

    หากแผนนี้สำเร็จ:
    - จะเป็นการผลิตชิปขนาด sub-7nm ที่มากที่สุดในประวัติศาสตร์ของ TSMC
    - ต้องใช้โรงงานถึง 8 แห่ง โดยมีโรงงานหลักอยู่ที่ F22 ในเมืองเกาสง ประเทศไต้หวัน

    แม้ Samsung จะมีเทคโนโลยีใกล้เคียง แต่ TSMC ยังครองตลาดด้วยอัตราการผลิตที่สูงกว่าและ yield ที่ดีกว่า — ทำให้กลายเป็นผู้ผลิตชิประดับสูงสำหรับลูกค้าภายนอกเพียงรายเดียวในโลก

    TSMC อาจเพิ่มกำลังผลิตชิป 2nm เป็น 200,000 แผ่นเวเฟอร์ต่อเดือนภายในปี 2027
    เริ่มต้นที่ 40,000 แผ่นในปี 2025 และเพิ่มเป็น 100,000 แผ่นในปี 2026

    ความต้องการมาจากบริษัทเทคโนโลยีใหญ่ เช่น Apple, NVIDIA, Intel, AMD และ MediaTek
    ใช้ในผลิตภัณฑ์ AI, มือถือ, เซิร์ฟเวอร์ และอุปกรณ์ประมวลผลขั้นสูง

    Apple มักได้รับล็อตแรกของชิปใหม่ เพราะไม่ต้องการประสิทธิภาพสูงสุด
    ส่วน AMD และ NVIDIA จะใช้หลังจาก TSMC ปรับปรุงการผลิตให้เสถียร

    หากผลิตถึง 200,000 แผ่น จะเป็นระดับสูงสุดในกลุ่ม sub-7nm ของ TSMC
    ต้องใช้โรงงานถึง 8 แห่ง โดยโรงงานหลักคือ F22 ที่เกาสง

    TSMC เป็นผู้ผลิตชิป 2nm รายเดียวที่ให้บริการภายนอกด้วย yield สูง
    Samsung มีเทคโนโลยีใกล้เคียงแต่ yield ยังต่ำกว่า

    https://wccftech.com/tsmc-worlds-largest-contract-chipmaker-nvidia-ai-supplier-could-boost-output-to-200000-wafers-per-month-report/
    🎙️ เรื่องเล่าจากโรงงานชิป: เมื่อ TSMC ต้องเร่งผลิตชิปเล็กที่สุดในโลกให้ทันความต้องการ TSMC เริ่มผลิตชิปขนาด 2 นาโนเมตรในปี 2025 โดยตั้งเป้าเริ่มต้นที่ 40,000 แผ่นเวเฟอร์ต่อเดือน และจะเพิ่มเป็น 100,000 แผ่นในปี 2026 — แต่ด้วยความต้องการจากบริษัทอย่าง Apple, NVIDIA, Intel, AMD และ MediaTek ที่ใช้ชิปเหล่านี้ในผลิตภัณฑ์ AI, มือถือ และเซิร์ฟเวอร์ ทำให้ TSMC อาจต้องเพิ่มกำลังการผลิตถึง 5 เท่าในปี 2027 หากแผนนี้สำเร็จ: - จะเป็นการผลิตชิปขนาด sub-7nm ที่มากที่สุดในประวัติศาสตร์ของ TSMC - ต้องใช้โรงงานถึง 8 แห่ง โดยมีโรงงานหลักอยู่ที่ F22 ในเมืองเกาสง ประเทศไต้หวัน แม้ Samsung จะมีเทคโนโลยีใกล้เคียง แต่ TSMC ยังครองตลาดด้วยอัตราการผลิตที่สูงกว่าและ yield ที่ดีกว่า — ทำให้กลายเป็นผู้ผลิตชิประดับสูงสำหรับลูกค้าภายนอกเพียงรายเดียวในโลก ✅ TSMC อาจเพิ่มกำลังผลิตชิป 2nm เป็น 200,000 แผ่นเวเฟอร์ต่อเดือนภายในปี 2027 ➡️ เริ่มต้นที่ 40,000 แผ่นในปี 2025 และเพิ่มเป็น 100,000 แผ่นในปี 2026 ✅ ความต้องการมาจากบริษัทเทคโนโลยีใหญ่ เช่น Apple, NVIDIA, Intel, AMD และ MediaTek ➡️ ใช้ในผลิตภัณฑ์ AI, มือถือ, เซิร์ฟเวอร์ และอุปกรณ์ประมวลผลขั้นสูง ✅ Apple มักได้รับล็อตแรกของชิปใหม่ เพราะไม่ต้องการประสิทธิภาพสูงสุด ➡️ ส่วน AMD และ NVIDIA จะใช้หลังจาก TSMC ปรับปรุงการผลิตให้เสถียร ✅ หากผลิตถึง 200,000 แผ่น จะเป็นระดับสูงสุดในกลุ่ม sub-7nm ของ TSMC ➡️ ต้องใช้โรงงานถึง 8 แห่ง โดยโรงงานหลักคือ F22 ที่เกาสง ✅ TSMC เป็นผู้ผลิตชิป 2nm รายเดียวที่ให้บริการภายนอกด้วย yield สูง ➡️ Samsung มีเทคโนโลยีใกล้เคียงแต่ yield ยังต่ำกว่า https://wccftech.com/tsmc-worlds-largest-contract-chipmaker-nvidia-ai-supplier-could-boost-output-to-200000-wafers-per-month-report/
    WCCFTECH.COM
    TSMC, World's Largest Contract Chipmaker & NVIDIA AI Supplier, Could Boost Output To 200,000 Wafers Per Month - Report
    TSMC may expand 2-nanometer wafer production to 200,000 per month by 2027 due to strong demand from Apple, NVIDIA, and Intel.
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกรีโทรที่กลับมาแบบ Next-Gen: Analogue 3D คืนชีพ Nintendo 64 อย่างสง่างาม

    หากย้อนกลับไปปี 1996 ตอนที่ Nintendo 64 เปิดตัวพร้อมเกม Super Mario 64 และ Pilotwings 64 โลกเกมเริ่มเข้าสู่ยุค 3D อย่างเต็มตัว แม้จะใช้ตลับแทนแผ่น CD เหมือนคู่แข่งอย่าง PlayStation แต่มันก็สร้างความคลาสสิกที่อยู่ในใจคอเกมหลายล้านคนมาจนถึงทุกวันนี้

    ล่าสุด Analogue บริษัทที่เชี่ยวชาญด้านฮาร์ดแวร์รีโทรแบบ “ระดับพรีเมียม” ได้เตรียมวางจำหน่าย Analogue 3D ในเดือนสิงหาคม 2025 หลังจากเลื่อนจากต้นปีเนื่องจากเรื่องภาษีอย่างกะทันหัน แต่ข่าวดีคือบริษัทจะรับภาระค่าใช้จ่ายเพิ่มเอง ไม่คิดจากลูกค้า

    จุดเด่นของเครื่องนี้คือการสร้างจาก FPGA (Field Programmable Gate Array) ไม่ใช่การจำลองด้วยซอฟต์แวร์ ทำให้มันสามารถเล่นตลับเกม N64 ได้โดยตรง พร้อมรองรับ 4K resolution และอุปกรณ์เสริมแท้ของยุคนั้น เช่น Expansion Pak

    ไม่ใช่แค่ “เครื่องที่สวย” แต่ยังมาพร้อมเทคโนโลยีใหม่ ๆ เช่น:
    - Bluetooth Low Energy
    - Wi-Fi แบบ Dual Band
    - HDMI output
    - รองรับ SD card 16GB และสาย USB-C

    ราคาเปิดตัวอยู่ที่ $249.99 มีให้เลือกสองสี — ดำและขาว และขายหมดเกลี้ยงไปแล้ว ไม่มีการเปิดพรีออเดอร์เพิ่มในตอนนี้

    https://www.techspot.com/news/108724-analogue-modern-take-nintendo-64-ship-august.html
    🎙️ เรื่องเล่าจากโลกรีโทรที่กลับมาแบบ Next-Gen: Analogue 3D คืนชีพ Nintendo 64 อย่างสง่างาม หากย้อนกลับไปปี 1996 ตอนที่ Nintendo 64 เปิดตัวพร้อมเกม Super Mario 64 และ Pilotwings 64 โลกเกมเริ่มเข้าสู่ยุค 3D อย่างเต็มตัว แม้จะใช้ตลับแทนแผ่น CD เหมือนคู่แข่งอย่าง PlayStation แต่มันก็สร้างความคลาสสิกที่อยู่ในใจคอเกมหลายล้านคนมาจนถึงทุกวันนี้ ล่าสุด Analogue บริษัทที่เชี่ยวชาญด้านฮาร์ดแวร์รีโทรแบบ “ระดับพรีเมียม” ได้เตรียมวางจำหน่าย Analogue 3D ในเดือนสิงหาคม 2025 หลังจากเลื่อนจากต้นปีเนื่องจากเรื่องภาษีอย่างกะทันหัน แต่ข่าวดีคือบริษัทจะรับภาระค่าใช้จ่ายเพิ่มเอง ไม่คิดจากลูกค้า จุดเด่นของเครื่องนี้คือการสร้างจาก FPGA (Field Programmable Gate Array) ไม่ใช่การจำลองด้วยซอฟต์แวร์ ทำให้มันสามารถเล่นตลับเกม N64 ได้โดยตรง พร้อมรองรับ 4K resolution และอุปกรณ์เสริมแท้ของยุคนั้น เช่น Expansion Pak ไม่ใช่แค่ “เครื่องที่สวย” แต่ยังมาพร้อมเทคโนโลยีใหม่ ๆ เช่น: - Bluetooth Low Energy - Wi-Fi แบบ Dual Band - HDMI output - รองรับ SD card 16GB และสาย USB-C ราคาเปิดตัวอยู่ที่ $249.99 มีให้เลือกสองสี — ดำและขาว และขายหมดเกลี้ยงไปแล้ว ไม่มีการเปิดพรีออเดอร์เพิ่มในตอนนี้ https://www.techspot.com/news/108724-analogue-modern-take-nintendo-64-ship-august.html
    WWW.TECHSPOT.COM
    Analogue's 4K-ready Nintendo 64 remake ships this August
    The Analogue 3D, if you recall, is essentially an FPGA version of Nintendo's legendary console. The original system hit North American on September 29, 1996, with just...
    0 ความคิดเห็น 0 การแบ่งปัน 246 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกองค์กร: เมื่อ AI เปลี่ยนเกม GRC และ CISO ต้องปรับตัวทัน

    ในอดีต GRC คือการจัดการความเสี่ยงตามกฎระเบียบและจริยธรรม แต่เมื่อ AI โดยเฉพาะ Generative AI เข้ามาในองค์กร ความเสี่ยงใหม่ ๆ เช่น การรั่วไหลของข้อมูล, การตัดสินใจผิดพลาดจากโมเดล, bias, hallucination และการใช้งานโดยไม่มีการควบคุม (shadow AI) ก็เพิ่มขึ้นอย่างรวดเร็ว

    รายงานจาก Check Point พบว่า 1 ใน 80 prompts ที่ส่งจากอุปกรณ์องค์กรไปยัง AI มีความเสี่ยงต่อการรั่วไหลของข้อมูลสำคัญ ขณะที่รายงานจาก Lenovo ระบุว่า มีเพียง 24% ขององค์กรที่มีนโยบาย GRC สำหรับ AI อย่างจริงจัง

    CISO จึงต้องทำหน้าที่สองด้าน คือ สนับสนุนการใช้งาน AI เพื่อเพิ่มประสิทธิภาพ และในขณะเดียวกันก็ต้องวางกรอบความปลอดภัยและการกำกับดูแลอย่างรัดกุม โดยใช้แนวทางเชิงกลยุทธ์และเชิงปฏิบัติ เช่น การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว), การสร้าง model card สำหรับแต่ละ use case, และการใช้ framework เช่น NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT เพื่อประเมินความเสี่ยงทั้งเชิงคุณภาพและเชิงปริมาณ

    AI เปลี่ยนแปลงแนวทาง GRC อย่างมีนัยสำคัญ
    เพิ่มความเสี่ยงใหม่ เช่น shadow AI, bias, hallucination, legal risk

    รายงานจาก Check Point พบว่า 1.25% ของ prompts มีความเสี่ยงรั่วไหล
    เป็นภัยที่เกิดจากการใช้งาน AI โดยไม่มีกลไกควบคุม

    มีเพียง 24% ขององค์กรที่มีนโยบาย AI GRC ครบถ้วน
    จากรายงาน Lenovo CIO Playbook ปี 2025

    CISO ต้องทำหน้าที่สองด้าน: สนับสนุน AI และควบคุมความเสี่ยง
    ต้องใช้แนวทางเชิงกลยุทธ์และ tactical พร้อมกัน

    แนวทาง tactical เช่น secure-by-design, shadow AI discovery, AI inventory
    ใช้จัดการ AI ขนาดเล็กที่กระจายอยู่ใน SaaS และผลิตภัณฑ์ต่าง ๆ

    แนวทาง strategic ใช้กับ AI ขนาดใหญ่ เช่น Copilot, ChatGPT
    ควบคุมผ่าน internal oversight forum และการจัดลำดับความเสี่ยง

    Framework ที่แนะนำ: NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT
    ใช้ประเมินความเสี่ยง AI ทั้งเชิงคุณภาพและเชิงปริมาณ

    การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว)
    ช่วยให้พนักงานเข้าใจและใช้งาน AI ได้อย่างปลอดภัย

    การสร้าง model card สำหรับแต่ละ use case
    ระบุ input, output, data flow, third party, และความเสี่ยงที่เกี่ยวข้อง

    การใช้งาน AI โดยไม่มีการควบคุมอาจนำไปสู่ shadow AI
    ทำให้ข้อมูลรั่วไหลและเกิดการใช้งานที่ไม่ปลอดภัย

    การประเมินความเสี่ยง AI ยังไม่เป็นระบบในหลายองค์กร
    ทำให้ CISO ขาดข้อมูลในการตัดสินใจเชิงกลยุทธ์

    การใช้ AI โดยไม่มี governance อาจละเมิดกฎหมายหรือจริยธรรม
    เช่น การใช้ข้อมูลลูกค้าโดยไม่ได้รับความยินยอม

    การใช้ framework โดยไม่ปรับให้เหมาะกับ AI อาจไม่ครอบคลุม
    เช่น COBIT หรือ COSO ที่ยังเน้น IT แบบเดิม

    การประเมินความเสี่ยงเฉพาะ use case อาจไม่พอ
    ต้องมีการรวมข้อมูลเพื่อวางแผนเชิงกลยุทธ์ระดับองค์กร

    https://www.csoonline.com/article/4016464/how-ai-is-changing-the-grc-strategy.html
    🎙️ เรื่องเล่าจากโลกองค์กร: เมื่อ AI เปลี่ยนเกม GRC และ CISO ต้องปรับตัวทัน ในอดีต GRC คือการจัดการความเสี่ยงตามกฎระเบียบและจริยธรรม แต่เมื่อ AI โดยเฉพาะ Generative AI เข้ามาในองค์กร ความเสี่ยงใหม่ ๆ เช่น การรั่วไหลของข้อมูล, การตัดสินใจผิดพลาดจากโมเดล, bias, hallucination และการใช้งานโดยไม่มีการควบคุม (shadow AI) ก็เพิ่มขึ้นอย่างรวดเร็ว รายงานจาก Check Point พบว่า 1 ใน 80 prompts ที่ส่งจากอุปกรณ์องค์กรไปยัง AI มีความเสี่ยงต่อการรั่วไหลของข้อมูลสำคัญ ขณะที่รายงานจาก Lenovo ระบุว่า มีเพียง 24% ขององค์กรที่มีนโยบาย GRC สำหรับ AI อย่างจริงจัง CISO จึงต้องทำหน้าที่สองด้าน คือ สนับสนุนการใช้งาน AI เพื่อเพิ่มประสิทธิภาพ และในขณะเดียวกันก็ต้องวางกรอบความปลอดภัยและการกำกับดูแลอย่างรัดกุม โดยใช้แนวทางเชิงกลยุทธ์และเชิงปฏิบัติ เช่น การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว), การสร้าง model card สำหรับแต่ละ use case, และการใช้ framework เช่น NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT เพื่อประเมินความเสี่ยงทั้งเชิงคุณภาพและเชิงปริมาณ ✅ AI เปลี่ยนแปลงแนวทาง GRC อย่างมีนัยสำคัญ ➡️ เพิ่มความเสี่ยงใหม่ เช่น shadow AI, bias, hallucination, legal risk ✅ รายงานจาก Check Point พบว่า 1.25% ของ prompts มีความเสี่ยงรั่วไหล ➡️ เป็นภัยที่เกิดจากการใช้งาน AI โดยไม่มีกลไกควบคุม ✅ มีเพียง 24% ขององค์กรที่มีนโยบาย AI GRC ครบถ้วน ➡️ จากรายงาน Lenovo CIO Playbook ปี 2025 ✅ CISO ต้องทำหน้าที่สองด้าน: สนับสนุน AI และควบคุมความเสี่ยง ➡️ ต้องใช้แนวทางเชิงกลยุทธ์และ tactical พร้อมกัน ✅ แนวทาง tactical เช่น secure-by-design, shadow AI discovery, AI inventory ➡️ ใช้จัดการ AI ขนาดเล็กที่กระจายอยู่ใน SaaS และผลิตภัณฑ์ต่าง ๆ ✅ แนวทาง strategic ใช้กับ AI ขนาดใหญ่ เช่น Copilot, ChatGPT ➡️ ควบคุมผ่าน internal oversight forum และการจัดลำดับความเสี่ยง ✅ Framework ที่แนะนำ: NIST AI RMF, ISO/IEC 42001, FAIR, COSO, COBIT ➡️ ใช้ประเมินความเสี่ยง AI ทั้งเชิงคุณภาพและเชิงปริมาณ ✅ การจัดประเภท AI ด้วยระบบไฟจราจร (แดง-เหลือง-เขียว) ➡️ ช่วยให้พนักงานเข้าใจและใช้งาน AI ได้อย่างปลอดภัย ✅ การสร้าง model card สำหรับแต่ละ use case ➡️ ระบุ input, output, data flow, third party, และความเสี่ยงที่เกี่ยวข้อง ‼️ การใช้งาน AI โดยไม่มีการควบคุมอาจนำไปสู่ shadow AI ⛔ ทำให้ข้อมูลรั่วไหลและเกิดการใช้งานที่ไม่ปลอดภัย ‼️ การประเมินความเสี่ยง AI ยังไม่เป็นระบบในหลายองค์กร ⛔ ทำให้ CISO ขาดข้อมูลในการตัดสินใจเชิงกลยุทธ์ ‼️ การใช้ AI โดยไม่มี governance อาจละเมิดกฎหมายหรือจริยธรรม ⛔ เช่น การใช้ข้อมูลลูกค้าโดยไม่ได้รับความยินยอม ‼️ การใช้ framework โดยไม่ปรับให้เหมาะกับ AI อาจไม่ครอบคลุม ⛔ เช่น COBIT หรือ COSO ที่ยังเน้น IT แบบเดิม ‼️ การประเมินความเสี่ยงเฉพาะ use case อาจไม่พอ ⛔ ต้องมีการรวมข้อมูลเพื่อวางแผนเชิงกลยุทธ์ระดับองค์กร https://www.csoonline.com/article/4016464/how-ai-is-changing-the-grc-strategy.html
    WWW.CSOONLINE.COM
    How AI is changing the GRC strategy
    CISOs find themselves at a pinch-point needing to manage AI risks while supporting organizational innovation. The way forward is adapting GRC frameworks.
    0 ความคิดเห็น 0 การแบ่งปัน 336 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกชิปเซ็ต: Broadcom เปิดตัว “Tomahawk Ultra” ชิปเครือข่ายเพื่อเร่งพลัง AI

    ในยุคที่ปัญญาประดิษฐ์ (AI) ต้องการพลังการประมวลผลมหาศาล การเชื่อมต่อระหว่างชิปหลายร้อยตัวให้ทำงานร่วมกันอย่างไร้รอยต่อกลายเป็นหัวใจสำคัญของระบบ AI ขนาดใหญ่ และนี่คือจุดที่ Broadcom เข้ามาเล่นบทพระเอก

    Broadcom เปิดตัว “Tomahawk Ultra” ชิปเครือข่ายรุ่นใหม่ที่ออกแบบมาเพื่อเร่งการประมวลผลข้อมูล AI โดยเฉพาะ โดยชิปนี้จะช่วยให้การเชื่อมโยงระหว่างชิปหลายตัวในระบบ AI เป็นไปอย่างรวดเร็วและมีประสิทธิภาพมากขึ้น

    แม้ Nvidia จะครองตลาด GPU สำหรับ AI มานาน แต่ Broadcom ก็ไม่ใช่ผู้เล่นหน้าใหม่ เพราะพวกเขาเป็นเบื้องหลังของชิป AI ที่ Google ใช้ในระบบของตัวเอง ซึ่งถือเป็นหนึ่งในไม่กี่ทางเลือกที่นักพัฒนา AI มองว่า “พอจะสู้ Nvidia ได้”

    Broadcom เปิดตัวชิปเครือข่ายใหม่ชื่อ “Tomahawk Ultra”
    ออกแบบมาเพื่อเร่งการประมวลผลข้อมูลในระบบ AI ขนาดใหญ่

    ชิปนี้ช่วยเชื่อมโยงชิปหลายร้อยตัวให้ทำงานร่วมกันได้อย่างมีประสิทธิภาพ
    เหมาะสำหรับระบบ AI ที่ต้องการการประมวลผลแบบกระจาย

    Broadcom เป็นผู้ช่วย Google ในการผลิตชิป AI ของตนเอง
    ถือเป็นหนึ่งในทางเลือกที่สามารถแข่งขันกับ Nvidia ได้

    การเปิดตัวครั้งนี้เป็นการขยายอิทธิพลของ Broadcom ในตลาด AI
    โดยเน้นที่โครงสร้างพื้นฐานด้านเครือข่ายมากกว่าตัวประมวลผลโดยตรง

    Tomahawk Ultra ยังไม่ใช่ชิปประมวลผล AI โดยตรง
    ต้องใช้ร่วมกับชิปอื่น เช่น GPU หรือ TPU เพื่อให้ระบบ AI ทำงานได้ครบวงจร

    การแข่งขันกับ Nvidia ยังต้องใช้เวลาและการยอมรับจากนักพัฒนา
    Nvidia มี ecosystem ที่แข็งแกร่งและครองตลาดมานาน

    การเปลี่ยนมาใช้โซลูชันของ Broadcom อาจต้องปรับโครงสร้างระบบเดิม
    โดยเฉพาะในองค์กรที่ใช้ GPU ของ Nvidia เป็นหลัก

    https://www.thestar.com.my/tech/tech-news/2025/07/15/broadcom-launches-new-tomahawk-ultra-networking-chip-in-ai-battle-against-nvidia
    🎙️ เรื่องเล่าจากโลกชิปเซ็ต: Broadcom เปิดตัว “Tomahawk Ultra” ชิปเครือข่ายเพื่อเร่งพลัง AI ในยุคที่ปัญญาประดิษฐ์ (AI) ต้องการพลังการประมวลผลมหาศาล การเชื่อมต่อระหว่างชิปหลายร้อยตัวให้ทำงานร่วมกันอย่างไร้รอยต่อกลายเป็นหัวใจสำคัญของระบบ AI ขนาดใหญ่ และนี่คือจุดที่ Broadcom เข้ามาเล่นบทพระเอก Broadcom เปิดตัว “Tomahawk Ultra” ชิปเครือข่ายรุ่นใหม่ที่ออกแบบมาเพื่อเร่งการประมวลผลข้อมูล AI โดยเฉพาะ โดยชิปนี้จะช่วยให้การเชื่อมโยงระหว่างชิปหลายตัวในระบบ AI เป็นไปอย่างรวดเร็วและมีประสิทธิภาพมากขึ้น แม้ Nvidia จะครองตลาด GPU สำหรับ AI มานาน แต่ Broadcom ก็ไม่ใช่ผู้เล่นหน้าใหม่ เพราะพวกเขาเป็นเบื้องหลังของชิป AI ที่ Google ใช้ในระบบของตัวเอง ซึ่งถือเป็นหนึ่งในไม่กี่ทางเลือกที่นักพัฒนา AI มองว่า “พอจะสู้ Nvidia ได้” ✅ Broadcom เปิดตัวชิปเครือข่ายใหม่ชื่อ “Tomahawk Ultra” 👉 ออกแบบมาเพื่อเร่งการประมวลผลข้อมูลในระบบ AI ขนาดใหญ่ ✅ ชิปนี้ช่วยเชื่อมโยงชิปหลายร้อยตัวให้ทำงานร่วมกันได้อย่างมีประสิทธิภาพ 👉 เหมาะสำหรับระบบ AI ที่ต้องการการประมวลผลแบบกระจาย ✅ Broadcom เป็นผู้ช่วย Google ในการผลิตชิป AI ของตนเอง 👉 ถือเป็นหนึ่งในทางเลือกที่สามารถแข่งขันกับ Nvidia ได้ ✅ การเปิดตัวครั้งนี้เป็นการขยายอิทธิพลของ Broadcom ในตลาด AI 👉 โดยเน้นที่โครงสร้างพื้นฐานด้านเครือข่ายมากกว่าตัวประมวลผลโดยตรง ‼️ Tomahawk Ultra ยังไม่ใช่ชิปประมวลผล AI โดยตรง 👉 ต้องใช้ร่วมกับชิปอื่น เช่น GPU หรือ TPU เพื่อให้ระบบ AI ทำงานได้ครบวงจร ‼️ การแข่งขันกับ Nvidia ยังต้องใช้เวลาและการยอมรับจากนักพัฒนา 👉 Nvidia มี ecosystem ที่แข็งแกร่งและครองตลาดมานาน ‼️ การเปลี่ยนมาใช้โซลูชันของ Broadcom อาจต้องปรับโครงสร้างระบบเดิม 👉 โดยเฉพาะในองค์กรที่ใช้ GPU ของ Nvidia เป็นหลัก https://www.thestar.com.my/tech/tech-news/2025/07/15/broadcom-launches-new-tomahawk-ultra-networking-chip-in-ai-battle-against-nvidia
    WWW.THESTAR.COM.MY
    Broadcom launches new Tomahawk Ultra networking chip in AI battle against Nvidia
    SAN FRANCISCO (Reuters) -Broadcom's chip unit unveiled on Tuesday a new networking processor that aims to speed artificial intelligence data crunching, which requires stringing together hundreds of chips that work together.
    0 ความคิดเห็น 0 การแบ่งปัน 289 มุมมอง 0 รีวิว
  • หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก!

    ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5

    แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU

    จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ

    OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5  
    • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series  
    • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M  
    • เน้น balance ระหว่างประสิทธิภาพ & portability

    Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว  
    • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)  
    • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator

    AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว

    Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU

    แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU

    https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก! ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5 แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ ✅ OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5   • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series   • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M   • เน้น balance ระหว่างประสิทธิภาพ & portability ✅ Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว   • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)   • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator ✅ AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว ✅ Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU ✅ แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    0 ความคิดเห็น 0 การแบ่งปัน 358 มุมมอง 0 รีวิว
  • AI: พลังขับเคลื่อนความก้าวหน้า... หรือเร่งโลกให้ร้อนขึ้น?

    บทนำ: ยุค AI กับผลกระทบที่มองไม่เห็น
    ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก จากการค้นหาข้อมูล รถยนต์ไร้คนขับ ไปจนถึงการวินิจฉัยทางการแพทย์ แต่ความก้าวหน้านี้มาพร้อมต้นทุนที่ซ่อนอยู่: การใช้พลังงานมหาศาลและความร้อนที่เกิดขึ้น ซึ่งส่งผลต่อภาวะโลกร้อน บทความนี้สำรวจสาเหตุที่ AI ใช้พลังงานมาก ผลกระทบต่อสิ่งแวดล้อม และนวัตกรรมเพื่อความยั่งยืน

    AI กับความต้องการพลังงานมหาศาล

    ทำไม AI ถึงใช้พลังงานมาก?
    AI โดยเฉพาะโมเดลกำเนิด เช่น GPT-4 ต้องการพลังการประมวลผลสูง ใช้หน่วยประมวลผลกราฟิก (GPUs) และหน่วยประมวลผลเทนเซอร์ (TPUs) ซึ่งกินไฟมากและสร้างความร้อนที่ต้องระบายด้วยระบบทำความเย็นซับซ้อน การฝึกโมเดล เช่น GPT-3 ใช้ไฟฟ้า ~1,300 MWh และ GPT-4 ใช้ ~1,750 MWh ส่วนการอนุมาน (เช่น การสอบถาม ChatGPT) ใช้พลังงานรวมมากกว่าการฝึกเมื่อมีผู้ใช้จำนวนมาก

    ตัวอย่างการใช้พลังงาน
    - ชั้นวาง AI ใช้ไฟมากกว่าครัวเรือนสหรัฐฯ 39 เท่า
    - การฝึก GPT-3 เทียบเท่าการใช้ไฟของบ้าน 120-130 หลังต่อปี
    - การสอบถาม ChatGPT ครั้งหนึ่งใช้พลังงานมากกว่าการค้นหา Google 10-15 เท่า และปล่อย CO2 มากกว่า 340 เท่า
    - ศูนย์ข้อมูลทั่วโลกในปี 2022 ใช้ไฟ 460 TWh และคาดว่าในปี 2026 จะเพิ่มเป็น ~1,050 TWh เทียบเท่าการใช้ไฟของเยอรมนี

    ความร้อนจาก AI: ตัวเร่งโลกร้อน

    จากไฟฟ้าสู่ความร้อน
    พลังงานไฟฟ้าที่ AI ใช้เกือบทั้งหมดแปลงเป็นความร้อน โดย 1 วัตต์ผลิตความร้อน 3.412 BTU/ชั่วโมง GPUs สมัยใหม่ใช้ไฟเกิน 1,000 วัตต์ต่อตัว สร้างความร้อนที่ต้องระบาย

    รอยเท้าคาร์บอนและน้ำ
    การฝึกโมเดล AI ปล่อย CO2 ได้ถึง 284 ตัน เทียบเท่ารถยนต์สหรัฐฯ 5 คันต่อปี การระบายความร้อนศูนย์ข้อมูลใช้ไฟฟ้าถึง 40% และน้ำราว 2 ลิตรต่อ kWh โดย ChatGPT-4o ใช้น้ำเทียบเท่าความต้องการน้ำดื่มของ 1.2 ล้านคนต่อปี คาดว่าภายในปี 2030 ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าฝรั่งเศสทั้งประเทศ

    ความท้าทายด้านความร้อน
    ความร้อนสูงเกินไปทำให้ประสิทธิภาพลดลง อายุฮาร์ดแวร์สั้นลง และระบบไม่เสถียร การระบายความร้อนด้วยอากาศแบบดั้งเดิมไม่เพียงพอต่อความร้อนจาก AI สมัยใหม่ และระบบทำความเย็นใช้พลังงานสูง ตัวอย่างการใช้พลังงาน GPU ในอนาคต:
    - ปี 2025 (Blackwell Ultra): 1,400W, ใช้การระบายความร้อนแบบ Direct-to-Chip
    - ปี 2027 (Rubin Ultra): 3,600W, ใช้ Direct-to-Chip
    - ปี 2029 (Feynman Ultra): 6,000W, ใช้ Immersion Cooling
    - ปี 2032: 15,360W, ใช้ Embedded Cooling

    นวัตกรรมเพื่อ AI ที่ยั่งยืน

    การระบายความร้อนที่ชาญฉลาด
    - การระบายความร้อนด้วยของLikely ResponseHed: มีประสิทธิภาพสูงกว่าอากาศ 3000 เท่า ใช้ในระบบ Direct-to-Chip และ Immersion Cooling
    - ระบบ HVAC ขั้นสูง: ใช้การระบายความร้อนแบบระเหยและท่อความร้อน ลดการใช้พลังงานและน้ำ
    - ตัวชี้วัด TUE: วัดประสิทธิภาพพลังงานโดยรวมของศูนย์ข้อมูล

    การออกแบบ AI ที่ประหยัดพลังงาน
    - การตัดแต่งโมเดล/ควอนไทซ์: ลดขนาดโมเดลและพลังงานที่ใช้
    - การกลั่นความรู้: ถ่ายทอดความรู้สู่โมเดลขนาดเล็ก
    - ชิปประหยัดพลังงาน: เช่น TPUs และ NPUs
    - AI จัดการพลังงาน: ใช้ AI วิเคราะห์และลดการใช้พลังงานในโครงข่ายไฟฟ้าอัจฉริยะ
    - Edge Computing: ลดการส่งข้อมูลไปยังคลาวด์

    พลังงานหมุนเวียน
    ศูนย์ข้อมูลเปลี่ยนไปใช้พลังงานแสงอาทิตย์ ลม และน้ำ รวมถึงนวัตกรรมอย่างการระบายความร้อนด้วยน้ำทะเลและพลังงานแสงอาทิตย์แบบ Dispatchable

    ความรับผิดชอบร่วมกัน

    ความโปร่งใสของบริษัท AI
    บริษัทควรเปิดเผยข้อมูลการใช้พลังงานและรอยเท้าคาร์บอน เพื่อให้เกิดความรับผิดชอบ

    นโยบายและกฎระเบียบ
    รัฐบาลทั่วโลกผลักดันนโยบาย Green AI เช่น กฎหมาย AI ของสหภาพยุโรป เพื่อความยั่งยืน

    บทบาทของนักพัฒนาและผู้ใช้
    - นักพัฒนา: เลือกโมเดลและฮาร์ดแวร์ประหยัดพลังงาน ใช้เครื่องมือติดตามคาร์บอน
    - ผู้ใช้: ตระหนักถึงการใช้พลังงานของ AI และสนับสนุนบริษัทที่ยั่งยืน

    บทสรุป: วิสัยทัศน์ Green AI
    AI มีศักยภาพเปลี่ยนแปลงโลก แต่ต้องจัดการกับการใช้พลังงานและความร้อนที่ส่งผลต่อภาวะโลกร้อน ด้วยนวัตกรรมการระบายความร้อน การออกแบบ AI ที่ประหยัดพลังงาน และพลังงานหมุนเวียน รวมถึงความโปร่งใสและนโยบายที่เหมาะสม เราสามารถสร้างอนาคต AI ที่ยั่งยืน โดยไม่ต้องเลือกว่าจะพัฒนา AI หรือรักษาสภาพภูมิอากาศ

    #ลุงเขียนหลานอ่าน
    🌍 AI: พลังขับเคลื่อนความก้าวหน้า... หรือเร่งโลกให้ร้อนขึ้น? 📝 บทนำ: ยุค AI กับผลกระทบที่มองไม่เห็น ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก จากการค้นหาข้อมูล รถยนต์ไร้คนขับ ไปจนถึงการวินิจฉัยทางการแพทย์ แต่ความก้าวหน้านี้มาพร้อมต้นทุนที่ซ่อนอยู่: การใช้พลังงานมหาศาลและความร้อนที่เกิดขึ้น ซึ่งส่งผลต่อภาวะโลกร้อน บทความนี้สำรวจสาเหตุที่ AI ใช้พลังงานมาก ผลกระทบต่อสิ่งแวดล้อม และนวัตกรรมเพื่อความยั่งยืน ⚡ AI กับความต้องการพลังงานมหาศาล ❓ ทำไม AI ถึงใช้พลังงานมาก? AI โดยเฉพาะโมเดลกำเนิด เช่น GPT-4 ต้องการพลังการประมวลผลสูง ใช้หน่วยประมวลผลกราฟิก (GPUs) และหน่วยประมวลผลเทนเซอร์ (TPUs) ซึ่งกินไฟมากและสร้างความร้อนที่ต้องระบายด้วยระบบทำความเย็นซับซ้อน การฝึกโมเดล เช่น GPT-3 ใช้ไฟฟ้า ~1,300 MWh และ GPT-4 ใช้ ~1,750 MWh ส่วนการอนุมาน (เช่น การสอบถาม ChatGPT) ใช้พลังงานรวมมากกว่าการฝึกเมื่อมีผู้ใช้จำนวนมาก 📊 ตัวอย่างการใช้พลังงาน - ชั้นวาง AI ใช้ไฟมากกว่าครัวเรือนสหรัฐฯ 39 เท่า - การฝึก GPT-3 เทียบเท่าการใช้ไฟของบ้าน 120-130 หลังต่อปี - การสอบถาม ChatGPT ครั้งหนึ่งใช้พลังงานมากกว่าการค้นหา Google 10-15 เท่า และปล่อย CO2 มากกว่า 340 เท่า - ศูนย์ข้อมูลทั่วโลกในปี 2022 ใช้ไฟ 460 TWh และคาดว่าในปี 2026 จะเพิ่มเป็น ~1,050 TWh เทียบเท่าการใช้ไฟของเยอรมนี 🔥 ความร้อนจาก AI: ตัวเร่งโลกร้อน 🌡️ จากไฟฟ้าสู่ความร้อน พลังงานไฟฟ้าที่ AI ใช้เกือบทั้งหมดแปลงเป็นความร้อน โดย 1 วัตต์ผลิตความร้อน 3.412 BTU/ชั่วโมง GPUs สมัยใหม่ใช้ไฟเกิน 1,000 วัตต์ต่อตัว สร้างความร้อนที่ต้องระบาย 🌱 รอยเท้าคาร์บอนและน้ำ การฝึกโมเดล AI ปล่อย CO2 ได้ถึง 284 ตัน เทียบเท่ารถยนต์สหรัฐฯ 5 คันต่อปี การระบายความร้อนศูนย์ข้อมูลใช้ไฟฟ้าถึง 40% และน้ำราว 2 ลิตรต่อ kWh โดย ChatGPT-4o ใช้น้ำเทียบเท่าความต้องการน้ำดื่มของ 1.2 ล้านคนต่อปี คาดว่าภายในปี 2030 ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าฝรั่งเศสทั้งประเทศ 🛠️ ความท้าทายด้านความร้อน ความร้อนสูงเกินไปทำให้ประสิทธิภาพลดลง อายุฮาร์ดแวร์สั้นลง และระบบไม่เสถียร การระบายความร้อนด้วยอากาศแบบดั้งเดิมไม่เพียงพอต่อความร้อนจาก AI สมัยใหม่ และระบบทำความเย็นใช้พลังงานสูง ตัวอย่างการใช้พลังงาน GPU ในอนาคต: - ปี 2025 (Blackwell Ultra): 1,400W, ใช้การระบายความร้อนแบบ Direct-to-Chip - ปี 2027 (Rubin Ultra): 3,600W, ใช้ Direct-to-Chip - ปี 2029 (Feynman Ultra): 6,000W, ใช้ Immersion Cooling - ปี 2032: 15,360W, ใช้ Embedded Cooling 🌱 นวัตกรรมเพื่อ AI ที่ยั่งยืน 💧 การระบายความร้อนที่ชาญฉลาด - การระบายความร้อนด้วยของLikely ResponseHed: มีประสิทธิภาพสูงกว่าอากาศ 3000 เท่า ใช้ในระบบ Direct-to-Chip และ Immersion Cooling - ระบบ HVAC ขั้นสูง: ใช้การระบายความร้อนแบบระเหยและท่อความร้อน ลดการใช้พลังงานและน้ำ - ตัวชี้วัด TUE: วัดประสิทธิภาพพลังงานโดยรวมของศูนย์ข้อมูล 🖥️ การออกแบบ AI ที่ประหยัดพลังงาน - การตัดแต่งโมเดล/ควอนไทซ์: ลดขนาดโมเดลและพลังงานที่ใช้ - การกลั่นความรู้: ถ่ายทอดความรู้สู่โมเดลขนาดเล็ก - ชิปประหยัดพลังงาน: เช่น TPUs และ NPUs - AI จัดการพลังงาน: ใช้ AI วิเคราะห์และลดการใช้พลังงานในโครงข่ายไฟฟ้าอัจฉริยะ - Edge Computing: ลดการส่งข้อมูลไปยังคลาวด์ ☀️ พลังงานหมุนเวียน ศูนย์ข้อมูลเปลี่ยนไปใช้พลังงานแสงอาทิตย์ ลม และน้ำ รวมถึงนวัตกรรมอย่างการระบายความร้อนด้วยน้ำทะเลและพลังงานแสงอาทิตย์แบบ Dispatchable 🤝 ความรับผิดชอบร่วมกัน 📊 ความโปร่งใสของบริษัท AI บริษัทควรเปิดเผยข้อมูลการใช้พลังงานและรอยเท้าคาร์บอน เพื่อให้เกิดความรับผิดชอบ 📜 นโยบายและกฎระเบียบ รัฐบาลทั่วโลกผลักดันนโยบาย Green AI เช่น กฎหมาย AI ของสหภาพยุโรป เพื่อความยั่งยืน 🧑‍💻 บทบาทของนักพัฒนาและผู้ใช้ - นักพัฒนา: เลือกโมเดลและฮาร์ดแวร์ประหยัดพลังงาน ใช้เครื่องมือติดตามคาร์บอน - ผู้ใช้: ตระหนักถึงการใช้พลังงานของ AI และสนับสนุนบริษัทที่ยั่งยืน 🌟 บทสรุป: วิสัยทัศน์ Green AI AI มีศักยภาพเปลี่ยนแปลงโลก แต่ต้องจัดการกับการใช้พลังงานและความร้อนที่ส่งผลต่อภาวะโลกร้อน ด้วยนวัตกรรมการระบายความร้อน การออกแบบ AI ที่ประหยัดพลังงาน และพลังงานหมุนเวียน รวมถึงความโปร่งใสและนโยบายที่เหมาะสม เราสามารถสร้างอนาคต AI ที่ยั่งยืน โดยไม่ต้องเลือกว่าจะพัฒนา AI หรือรักษาสภาพภูมิอากาศ #ลุงเขียนหลานอ่าน
    1 ความคิดเห็น 0 การแบ่งปัน 449 มุมมอง 0 รีวิว
  • โรงงาน Oppama ของ Nissan ที่เมืองโยโกสุกะ เป็นหนึ่งในสายการผลิตหลักมายาวนาน และมีพนักงานกว่า 3,900 คน แต่ในช่วงหลังบริษัทเริ่มประสบปัญหาในการบริหารต้นทุน จนมีแผนจะ “รวมสายการผลิต” ซึ่งหมายถึง…อาจต้องปิดโรงงานนี้

    แล้วอยู่ ๆ ก็มีไอเดียใหม่โผล่มา — แทนที่จะปล่อยให้สายการผลิตว่างเปล่า ทำไมไม่ให้ Foxconn (ผู้ผลิต iPhone และเจ้าของแบรนด์ EV อย่าง Foxtron) เข้ามาใช้สายพานนี้ผลิต EV แทน?

    Nikkei รายงานว่าทั้งสองบริษัทกำลังเจรจาจริงจัง → ถ้าดีลนี้เกิดขึ้น โรงงาน Oppama จะไม่ต้องปิด → งานของพนักงานหลายพันคนอาจปลอดภัย → แถม Nissan ยังได้ใช้เครือข่ายซัพพลายญี่ปุ่นต่อไป

    Nissan เจรจากับ Foxconn เพื่อผลิตรถ EV แบรนด์ Foxconn ในโรงงาน Oppama  
    • เป็นหนึ่งในแนวทาง “กู้ชีพ” โรงงานที่ถูกพิจารณาปิด  
    • สายการผลิตของโรงงานกำลังว่างและรอแผนใหม่

    โรงงาน Oppama มีพนักงานประมาณ 3,900 คน  
    • หากไม่มีดีล อาจเสี่ยงต่อการปลดพนักงานจำนวนมาก

    Foxconn เป็นผู้ผลิต iPhone ที่กำลังรุกธุรกิจ EV ภายใต้ชื่อ Foxtron  
    • กำลังหาโรงงานผลิตภายนอกไต้หวัน–จีน  
    • การเข้ามาใช้ฐานผลิตในญี่ปุ่นถือว่าน่าสนใจ

    แนวคิดนี้อาจช่วยคงซัพพลายเชนท้องถิ่นของญี่ปุ่น  
    • รักษา supplier network ของ Nissan ไว้ได้  
    • สร้างงานให้กับ ecosystem ท้องถิ่น

    https://www.thestar.com.my/tech/tech-news/2025/07/06/nissan-considers-foxconn-ev-output-to-save-oppama-from-closure-nikkei-says
    โรงงาน Oppama ของ Nissan ที่เมืองโยโกสุกะ เป็นหนึ่งในสายการผลิตหลักมายาวนาน และมีพนักงานกว่า 3,900 คน แต่ในช่วงหลังบริษัทเริ่มประสบปัญหาในการบริหารต้นทุน จนมีแผนจะ “รวมสายการผลิต” ซึ่งหมายถึง…อาจต้องปิดโรงงานนี้ แล้วอยู่ ๆ ก็มีไอเดียใหม่โผล่มา — แทนที่จะปล่อยให้สายการผลิตว่างเปล่า ทำไมไม่ให้ Foxconn (ผู้ผลิต iPhone และเจ้าของแบรนด์ EV อย่าง Foxtron) เข้ามาใช้สายพานนี้ผลิต EV แทน? Nikkei รายงานว่าทั้งสองบริษัทกำลังเจรจาจริงจัง → ถ้าดีลนี้เกิดขึ้น โรงงาน Oppama จะไม่ต้องปิด → งานของพนักงานหลายพันคนอาจปลอดภัย → แถม Nissan ยังได้ใช้เครือข่ายซัพพลายญี่ปุ่นต่อไป ✅ Nissan เจรจากับ Foxconn เพื่อผลิตรถ EV แบรนด์ Foxconn ในโรงงาน Oppama   • เป็นหนึ่งในแนวทาง “กู้ชีพ” โรงงานที่ถูกพิจารณาปิด   • สายการผลิตของโรงงานกำลังว่างและรอแผนใหม่ ✅ โรงงาน Oppama มีพนักงานประมาณ 3,900 คน   • หากไม่มีดีล อาจเสี่ยงต่อการปลดพนักงานจำนวนมาก ✅ Foxconn เป็นผู้ผลิต iPhone ที่กำลังรุกธุรกิจ EV ภายใต้ชื่อ Foxtron   • กำลังหาโรงงานผลิตภายนอกไต้หวัน–จีน   • การเข้ามาใช้ฐานผลิตในญี่ปุ่นถือว่าน่าสนใจ ✅ แนวคิดนี้อาจช่วยคงซัพพลายเชนท้องถิ่นของญี่ปุ่น   • รักษา supplier network ของ Nissan ไว้ได้   • สร้างงานให้กับ ecosystem ท้องถิ่น https://www.thestar.com.my/tech/tech-news/2025/07/06/nissan-considers-foxconn-ev-output-to-save-oppama-from-closure-nikkei-says
    WWW.THESTAR.COM.MY
    Nissan considers Foxconn EV output to save Oppama from closure, Nikkei says
    TOKYO (Reuters) -Nissan Motor is in discussions with Taiwan's Foxconn about a collaboration in electric vehicles that could save its Oppama plant in Japan from closure, the Nikkei business daily reported on Sunday, citing an unidentified Nissan source.
    0 ความคิดเห็น 0 การแบ่งปัน 230 มุมมอง 0 รีวิว
  • หลายคนลองใช้ AI แล้วเจอว่า “ก็ตอบโอเคนะ แต่ไม่ว้าว” → ซึ่งจริง ๆ ไม่ใช่เพราะ AI ไม่เก่ง แต่เป็นเพราะ เราอาจยังไม่ได้สื่อสารให้มันเข้าใจเราชัดพอ

    เหมือนคุณไปขอให้เพื่อนช่วยออกแบบโลโก้ แล้วพูดแค่ว่า “ทำโลโก้ให้หน่อย” → ผลลัพธ์ก็คงจินตนาการคนละเรื่องกันเลย

    เพราะงั้น AI ถึงต้องการ “prompt” ที่ไม่ใช่แค่ถาม...แต่ต้องเล่าให้ฟังแบบเข้าใจ → ว่าคุณต้องการอะไร แค่ไหน ในน้ำเสียงแบบไหน และเพื่อใคร → ข่าวนี้เลยรวบรวมเทคนิคหลายมุมมาจากผู้สร้าง AI รุ่นท็อป เพื่อให้คุณ สื่อสารกับ AI แบบไม่เสียเวลา – ได้คำตอบฉลาดแบบที่คุณต้องการ ครับ

    เขียนให้ชัดและเฉพาะเจาะจงที่สุด (Be specific)  
    • อย่าบอกแค่ “ออกแบบโลโก้” → ให้เพิ่ม: ชื่อแบรนด์, อุตสาหกรรม, อารมณ์ที่ต้องการ, กลุ่มเป้าหมาย  
    • ลองใช้โครงสร้าง: “ช่วย __ สำหรับ __ ในแบบที่ __ โดยไม่ต้อง __”

    ถามแบบต่อเนื่อง ไม่ใช่จบที่คำถามแรก (Refine & Follow up)  
    • คิดว่า AI คือเพื่อนที่คุยได้ยาว ๆ → คำตอบแรกอาจไม่สุด แต่คำถามถัดไปทำให้ดีขึ้นมาก  
    • ปรับคำถาม, ขออธิบายเพิ่ม, ขอตัวอย่างใหม่ได้เรื่อย ๆ

    ระบุ “บุคลิก” และ “ผู้ฟัง” ที่ต้องการ (Voice & Audience)  
    • เช่น: “เขียนแบบเป็นกันเอง สำหรับคนอายุ 50 ที่ไม่ใช้ศัพท์เทคนิคเยอะ”  
    • หรือ “สรุปแบบจริงจัง ให้เหมือนผู้เชี่ยวชาญอธิบายให้ CEO ฟัง”

    ให้บริบทเพิ่ม พร้อมตัวอย่างถ้ามี (Context helps!)
    • อย่าบอกว่า “ช่วยวางแผนเที่ยวลอนดอน”  
    • ให้เพิ่มเช่น: “สำหรับครอบครัว 4 คน, ไม่เน้นพิพิธภัณฑ์, ชอบมิวสิคัล, งบกลาง ๆ”  
    • ยิ่งเล่าเหมือนเพื่อนยิ่งได้คำตอบแม่น

    จำกัดคำตอบให้เหมาะสม (Limit the output)  
    • สั่งได้เลยว่า “ตอบใน 150 คำ” หรือ “สรุปใน 5 bullet”  
    • ดีมากถ้าอยากให้เข้าใจง่าย หรือใช้ในพื้นที่จำกัด

    https://www.thestar.com.my/tech/tech-news/2025/07/04/one-tech-tip-get-the-most-out-of-chatgpt-and-other-ai-chatbots-with-better-prompts
    หลายคนลองใช้ AI แล้วเจอว่า “ก็ตอบโอเคนะ แต่ไม่ว้าว” → ซึ่งจริง ๆ ไม่ใช่เพราะ AI ไม่เก่ง แต่เป็นเพราะ เราอาจยังไม่ได้สื่อสารให้มันเข้าใจเราชัดพอ เหมือนคุณไปขอให้เพื่อนช่วยออกแบบโลโก้ แล้วพูดแค่ว่า “ทำโลโก้ให้หน่อย” → ผลลัพธ์ก็คงจินตนาการคนละเรื่องกันเลย เพราะงั้น AI ถึงต้องการ “prompt” ที่ไม่ใช่แค่ถาม...แต่ต้องเล่าให้ฟังแบบเข้าใจ → ว่าคุณต้องการอะไร แค่ไหน ในน้ำเสียงแบบไหน และเพื่อใคร → ข่าวนี้เลยรวบรวมเทคนิคหลายมุมมาจากผู้สร้าง AI รุ่นท็อป เพื่อให้คุณ สื่อสารกับ AI แบบไม่เสียเวลา – ได้คำตอบฉลาดแบบที่คุณต้องการ ครับ ✅ เขียนให้ชัดและเฉพาะเจาะจงที่สุด (Be specific)   • อย่าบอกแค่ “ออกแบบโลโก้” → ให้เพิ่ม: ชื่อแบรนด์, อุตสาหกรรม, อารมณ์ที่ต้องการ, กลุ่มเป้าหมาย   • ลองใช้โครงสร้าง: “ช่วย __ สำหรับ __ ในแบบที่ __ โดยไม่ต้อง __” ✅ ถามแบบต่อเนื่อง ไม่ใช่จบที่คำถามแรก (Refine & Follow up)   • คิดว่า AI คือเพื่อนที่คุยได้ยาว ๆ → คำตอบแรกอาจไม่สุด แต่คำถามถัดไปทำให้ดีขึ้นมาก   • ปรับคำถาม, ขออธิบายเพิ่ม, ขอตัวอย่างใหม่ได้เรื่อย ๆ ✅ ระบุ “บุคลิก” และ “ผู้ฟัง” ที่ต้องการ (Voice & Audience)   • เช่น: “เขียนแบบเป็นกันเอง สำหรับคนอายุ 50 ที่ไม่ใช้ศัพท์เทคนิคเยอะ”   • หรือ “สรุปแบบจริงจัง ให้เหมือนผู้เชี่ยวชาญอธิบายให้ CEO ฟัง” ✅ ให้บริบทเพิ่ม พร้อมตัวอย่างถ้ามี (Context helps!) • อย่าบอกว่า “ช่วยวางแผนเที่ยวลอนดอน”   • ให้เพิ่มเช่น: “สำหรับครอบครัว 4 คน, ไม่เน้นพิพิธภัณฑ์, ชอบมิวสิคัล, งบกลาง ๆ”   • ยิ่งเล่าเหมือนเพื่อนยิ่งได้คำตอบแม่น ✅ จำกัดคำตอบให้เหมาะสม (Limit the output)   • สั่งได้เลยว่า “ตอบใน 150 คำ” หรือ “สรุปใน 5 bullet”   • ดีมากถ้าอยากให้เข้าใจง่าย หรือใช้ในพื้นที่จำกัด https://www.thestar.com.my/tech/tech-news/2025/07/04/one-tech-tip-get-the-most-out-of-chatgpt-and-other-ai-chatbots-with-better-prompts
    WWW.THESTAR.COM.MY
    Get the most out of ChatGPT and other AI chatbots with better prompts
    If you're using ChatGPT but getting mediocre results, don't blame the chatbot. Instead, try sharpening up your prompts.
    0 ความคิดเห็น 0 การแบ่งปัน 311 มุมมอง 0 รีวิว
  • Microsoft พยายามเลิกพึ่ง GPU ของ Nvidia (อย่าง H100 และ Blackwell) โดยพัฒนาชิปของตัวเองที่ชื่อว่า “Maia” โดยรุ่นถัดไปที่ชื่อเล่นว่า “Braga” มุ่งเน้นงาน inference บน Copilot และโมเดล OpenAI ในระบบ Azure

    แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่

    ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด

    Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure  
    • วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง  
    • ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training)

    Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว  
    • ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน  
    • น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง

    ปัจจัยที่ทำให้ล่าช้า:  
    • ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI  
    • พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง  
    • แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ

    Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก  
    • ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ  
    • สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom

    Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น  
    • มี transistor เกิน 200 พันล้าน  
    • ใช้สำหรับทั้ง training และ inference ระดับ hyperscale  
    • ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย

    คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน  
    • เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon

    https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
    Microsoft พยายามเลิกพึ่ง GPU ของ Nvidia (อย่าง H100 และ Blackwell) โดยพัฒนาชิปของตัวเองที่ชื่อว่า “Maia” โดยรุ่นถัดไปที่ชื่อเล่นว่า “Braga” มุ่งเน้นงาน inference บน Copilot และโมเดล OpenAI ในระบบ Azure แต่แผนดันสะดุด — เพราะนอกจากจะมี “ขาดคน พนักงานลาออกเกิน 20% ในบางทีม” แล้ว OpenAI ยังขอเพิ่มฟีเจอร์กลางคัน ซึ่งทำให้แผนผังชิปเสียสมดุลจนต้องเริ่ม simulation ใหม่ ระหว่างนี้ Nvidia กลับเดินหน้าเปิดตัวชิป Blackwell ที่แรงกว่า, เร็วกว่า, และครอบคลุมทั้ง training และ inference — พูดง่าย ๆ คือ Microsoft ยังไม่มีอะไรที่ชนะ Nvidia ได้สักจุด ✅ Microsoft พัฒนา “Braga” (Maia รุ่นถัดไป) ชิป AI สำหรับดาต้าเซ็นเตอร์ใน Azure   • วางแผนใช้ทดแทน GPU ของ Nvidia เพื่อควบคุมต้นทุนและ ecosystem เอง   • ออกแบบเพื่อใช้งาน inference เป็นหลัก (ไม่เน้น training) ✅ Braga เลื่อนเปิดตัวไปปี 2026 เป็นอย่างเร็ว   • ช้ากว่าแผนเดิมอย่างน้อย 6 เดือน   • น่าจะอ่อนกว่า Nvidia Blackwell ตอนที่วางขายจริง ✅ ปัจจัยที่ทำให้ล่าช้า:   • ความเปลี่ยนแปลงด้านดีไซน์จากคำร้องของ OpenAI   • พนักงานลาออกเยอะ → ทีมขาดความต่อเนื่อง   • แรงกดดันด้านเดดไลน์ทำให้ simulation fail หลายรอบ ✅ Maia รุ่นแรก (Maia 100) ยังใช้งานจำกัดมาก   • ใช้เทคโนโลยี 5nm + มีระบบ rack และ liquid cooling เฉพาะ   • สเปกไม่ตอบโจทย์การเทรนโมเดลขนาดใหญ่ในยุค LLM boom ✅ Nvidia Blackwell เริ่มใช้งานจริงแล้ว → สร้างแรงกดดันมากขึ้น   • มี transistor เกิน 200 พันล้าน   • ใช้สำหรับทั้ง training และ inference ระดับ hyperscale   • ประสิทธิภาพ + ประหยัดไฟกว่ารุ่นเก่าแบบขาดลอย ✅ คู่แข่งอื่นอย่าง Google (TPU v7) และ Amazon (Trainium 3) ก็เร่งพัฒนาชิปของตนเองไม่แพ้กัน   • เพิ่มแรงบีบให้ Microsoft ต้องเร่งแผน silicon https://www.techspot.com/news/108489-microsoft-custom-ai-chip-hits-delays-giving-nvidia.html
    WWW.TECHSPOT.COM
    Microsoft's custom AI chip hits delays, giving Nvidia more runway
    Microsoft's push into custom artificial intelligence hardware has hit a serious snag. Its next-generation Maia chip, code-named Braga, won't enter mass production until 2026 – at least...
    0 ความคิดเห็น 0 การแบ่งปัน 258 มุมมอง 0 รีวิว
  • ถ้าคุณเป็นสาย dev ที่ทำงานอยู่ในเทอร์มินัลเป็นหลัก และเบื่อการสลับหน้าจอไปมาเพื่อถาม AI หรือขอคำแนะนำ — ข่าวนี้คือของขวัญครับ

    Gemini CLI คือเครื่องมือใหม่จาก Google ที่เปิดให้ใช้งานฟรี โดยใช้บัญชี Google ส่วนตัวก็สามารถเข้าถึง Gemini 2.5 Pro ได้ทันที พร้อม สิทธิ์ใช้งาน 60 ครั้งต่อนาที และสูงสุด 1,000 ครั้งต่อวัน แบบไม่เสียเงินเลย

    สิ่งที่เจ๋งคือ เราสามารถเรียก Gemini มาช่วยสรุปโค้ด, สร้างสคริปต์, วิเคราะห์ output, หรือแม้แต่ค้นข้อมูลจาก Google Search แบบเรียลไทม์ — ทั้งหมดทำผ่านเทอร์มินัลได้ทันที!

    ติดตั้งง่ายแค่มี Node.js 18 ขึ้นไป แล้วใช้ npx หรือ npm install -g ก็พร้อมใช้แล้วครับ

    Google เปิดตัว Gemini CLI สำหรับใช้งาน AI ผ่านเทอร์มินัลแบบตรง ๆ  
    • รองรับการทำงานร่วมกับ Gemini 2.5 Pro  
    • ให้ใช้ฟรี 1,000 คำสั่ง/วัน โดยใช้บัญชี Google ส่วนตัว

    นักพัฒนาองค์กรสามารถใช้ API Key จาก Google AI Studio หรือ Vertex AI ได้ด้วย  
    • รองรับ billing แบบจ่ายตามการใช้งาน หรือใช้ผ่าน Gemini Code Assist (Standard / Enterprise)

    ความสามารถเด่นของ Gemini CLI:  
    • ค้นเว็บเรียลไทม์ผ่าน Google Search เพื่อเสริมคำตอบ  
    • รองรับการทำ automation แบบ non-interactive ผ่าน script  
    • ต่อขยายได้ผ่าน Model Context Protocol (MCP) และ Extension

    ติดตั้งง่ายด้วย Node.js:  
    • ใช้ npx https://github.com/google-gemini/gemini-cli หรือ npm install -g @google/gemini-cli

    ตัวโค้ดเป็นโอเพ่นซอร์ส บน GitHub ภายใต้ Apache 2.0 License  
    • ใช้เฟรมเวิร์ก Yargs ในการพัฒนา  
    • ตรวจสอบพฤติกรรมได้ และร่วมพัฒนาต่อยอดได้ทันที

    ประสบการณ์เชื่อมโยงกับ Gemini Code Assist IDE plugin  
    • ทำให้ dev ใช้ Gemini ได้ทั้งบน VS Code และ CLI แบบ seamless

    https://www.neowin.net/news/google-releases-gemini-cli-bringing-gemini-to-the-terminal/
    ถ้าคุณเป็นสาย dev ที่ทำงานอยู่ในเทอร์มินัลเป็นหลัก และเบื่อการสลับหน้าจอไปมาเพื่อถาม AI หรือขอคำแนะนำ — ข่าวนี้คือของขวัญครับ Gemini CLI คือเครื่องมือใหม่จาก Google ที่เปิดให้ใช้งานฟรี โดยใช้บัญชี Google ส่วนตัวก็สามารถเข้าถึง Gemini 2.5 Pro ได้ทันที พร้อม สิทธิ์ใช้งาน 60 ครั้งต่อนาที และสูงสุด 1,000 ครั้งต่อวัน แบบไม่เสียเงินเลย สิ่งที่เจ๋งคือ เราสามารถเรียก Gemini มาช่วยสรุปโค้ด, สร้างสคริปต์, วิเคราะห์ output, หรือแม้แต่ค้นข้อมูลจาก Google Search แบบเรียลไทม์ — ทั้งหมดทำผ่านเทอร์มินัลได้ทันที! ติดตั้งง่ายแค่มี Node.js 18 ขึ้นไป แล้วใช้ npx หรือ npm install -g ก็พร้อมใช้แล้วครับ ✅ Google เปิดตัว Gemini CLI สำหรับใช้งาน AI ผ่านเทอร์มินัลแบบตรง ๆ   • รองรับการทำงานร่วมกับ Gemini 2.5 Pro   • ให้ใช้ฟรี 1,000 คำสั่ง/วัน โดยใช้บัญชี Google ส่วนตัว ✅ นักพัฒนาองค์กรสามารถใช้ API Key จาก Google AI Studio หรือ Vertex AI ได้ด้วย   • รองรับ billing แบบจ่ายตามการใช้งาน หรือใช้ผ่าน Gemini Code Assist (Standard / Enterprise) ✅ ความสามารถเด่นของ Gemini CLI:   • ค้นเว็บเรียลไทม์ผ่าน Google Search เพื่อเสริมคำตอบ   • รองรับการทำ automation แบบ non-interactive ผ่าน script   • ต่อขยายได้ผ่าน Model Context Protocol (MCP) และ Extension ✅ ติดตั้งง่ายด้วย Node.js:   • ใช้ npx https://github.com/google-gemini/gemini-cli หรือ npm install -g @google/gemini-cli ✅ ตัวโค้ดเป็นโอเพ่นซอร์ส บน GitHub ภายใต้ Apache 2.0 License   • ใช้เฟรมเวิร์ก Yargs ในการพัฒนา   • ตรวจสอบพฤติกรรมได้ และร่วมพัฒนาต่อยอดได้ทันที ✅ ประสบการณ์เชื่อมโยงกับ Gemini Code Assist IDE plugin   • ทำให้ dev ใช้ Gemini ได้ทั้งบน VS Code และ CLI แบบ seamless https://www.neowin.net/news/google-releases-gemini-cli-bringing-gemini-to-the-terminal/
    WWW.NEOWIN.NET
    Google releases Gemini CLI, bringing Gemini to the terminal
    Google has finally launched Gemini CLI, its answer to tools like Codex CLI and Claude Code. It brings Gemini to the terminal and offers features like task automation for developers.
    0 ความคิดเห็น 0 การแบ่งปัน 264 มุมมอง 0 รีวิว
Pages Boosts