• “DDR4 ยังไหว หรือถึงเวลาย้ายไป DDR5”

    DDR5 มอบแบนด์วิดท์สูงและความจุที่มากกว่า DDR4 แต่ยังมีข้อจำกัดด้านราคาและค่า Latency ทำให้การอัปเกรดเหมาะกับงานเฉพาะทางมากกว่าการเล่นเกมทั่วไป

    สเปกและความแตกต่างหลัก
    DDR5 ถูกออกแบบมาเพื่อรองรับ ชิปที่มีจำนวนคอร์สูง โดยมีแบนด์วิดท์มากกว่า DDR4 ถึง 112% เมื่อเทียบกับ DDR4-2133 และยังสามารถขยายความจุได้สูงสุดถึง 128GB ต่อโมดูลในตลาดผู้ใช้ทั่วไป ขณะที่ DDR4 หยุดอยู่ที่ 16Gb ต่อชิป นอกจากนี้ DDR5 ยังมี สถาปัตยกรรมใหม่ เช่นการแบ่งช่องสัญญาณเป็น 2×32-bit, Burst Length 16 ไบต์ และการใช้ PMIC (Power Management IC) บนโมดูล ทำให้การจัดการพลังงานมีประสิทธิภาพมากขึ้น แต่ก็เพิ่มต้นทุนการผลิต

    ผลการทดสอบประสิทธิภาพ
    Bandwidth: DDR5-4800 C40 มีแบนด์วิดท์มากกว่า DDR4-4000 C16 ถึง 19% และ DDR5-6400 C36 สามารถเข้าใกล้ 100 GB/s
    Latency: DDR5 มีค่า Latency สูงกว่า DDR4 โดย DDR4-3200 C22 เร็วกว่า DDR5-4800 C40 ถึง 17%
    งานทั่วไป: Microsoft Office และงานเบา ๆ แทบไม่เห็นความแตกต่าง (เพียง 4%)
    งานเฉพาะทาง: Compression และการคำนวณเชิงวิทยาศาสตร์ (เช่น y-cruncher) ได้ประโยชน์ชัดเจนจาก DDR5 โดยเร็วกว่า DDR4 ถึง 25–46%
    เกม: ความแตกต่างน้อยมาก เช่น Assassin’s Creed Valhalla DDR5-6400 C36 เร็วกว่า DDR4-3200 C15 เพียง 3%

    ราคาและความคุ้มค่า
    DDR5 ยังมีราคาสูงกว่า DDR4 อย่างมาก เช่น DDR5-4800 32GB C40 ราคาเฉลี่ย 73 ดอลลาร์ ขณะที่ DDR4-3200 32GB C16 ราคาเพียง 50 ดอลลาร์ แม้ DDR5 จะให้ประสิทธิภาพสูงกว่า 6% แต่ก็แพงกว่า 46% อย่างไรก็ตาม การลงทุนใน DDR5 ถือเป็นการ Future-proof เพราะซีพียูรุ่นใหม่จาก Intel และ AMD ไม่รองรับ DDR4 อีกต่อไป

    สรุปประเด็นสำคัญ
    สเปก DDR5
    แบนด์วิดท์สูงกว่า DDR4 ถึง 112%
    รองรับความจุสูงสุด 128GB ต่อโมดูล

    ผลการทดสอบ
    งาน Compression และคำนวณเร็วขึ้น 25–46%
    เกมต่างกันเพียง 1–3%

    ราคาและความคุ้มค่า
    DDR5 แพงกว่า DDR4 ถึง 46%
    แต่เป็นการลงทุนเพื่ออนาคต

    คำเตือนสำหรับผู้ใช้
    หากใช้เพื่อเล่นเกมทั่วไป DDR4 ยังคุ้มค่ากว่า
    DDR5 มีค่า Latency สูงกว่า DDR4 ในหลายกรณี

    https://www.tomshardware.com/features/ddr5-vs-ddr4-is-it-time-to-upgrade-your-ram
    💸 “DDR4 ยังไหว หรือถึงเวลาย้ายไป DDR5” DDR5 มอบแบนด์วิดท์สูงและความจุที่มากกว่า DDR4 แต่ยังมีข้อจำกัดด้านราคาและค่า Latency ทำให้การอัปเกรดเหมาะกับงานเฉพาะทางมากกว่าการเล่นเกมทั่วไป ⚙️ สเปกและความแตกต่างหลัก DDR5 ถูกออกแบบมาเพื่อรองรับ ชิปที่มีจำนวนคอร์สูง โดยมีแบนด์วิดท์มากกว่า DDR4 ถึง 112% เมื่อเทียบกับ DDR4-2133 และยังสามารถขยายความจุได้สูงสุดถึง 128GB ต่อโมดูลในตลาดผู้ใช้ทั่วไป ขณะที่ DDR4 หยุดอยู่ที่ 16Gb ต่อชิป นอกจากนี้ DDR5 ยังมี สถาปัตยกรรมใหม่ เช่นการแบ่งช่องสัญญาณเป็น 2×32-bit, Burst Length 16 ไบต์ และการใช้ PMIC (Power Management IC) บนโมดูล ทำให้การจัดการพลังงานมีประสิทธิภาพมากขึ้น แต่ก็เพิ่มต้นทุนการผลิต 📊 ผลการทดสอบประสิทธิภาพ Bandwidth: DDR5-4800 C40 มีแบนด์วิดท์มากกว่า DDR4-4000 C16 ถึง 19% และ DDR5-6400 C36 สามารถเข้าใกล้ 100 GB/s 🟢 Latency: DDR5 มีค่า Latency สูงกว่า DDR4 โดย DDR4-3200 C22 เร็วกว่า DDR5-4800 C40 ถึง 17% 🟢 งานทั่วไป: Microsoft Office และงานเบา ๆ แทบไม่เห็นความแตกต่าง (เพียง 4%) 🟢 งานเฉพาะทาง: Compression และการคำนวณเชิงวิทยาศาสตร์ (เช่น y-cruncher) ได้ประโยชน์ชัดเจนจาก DDR5 โดยเร็วกว่า DDR4 ถึง 25–46% 🟢 เกม: ความแตกต่างน้อยมาก เช่น Assassin’s Creed Valhalla DDR5-6400 C36 เร็วกว่า DDR4-3200 C15 เพียง 3% 💰 ราคาและความคุ้มค่า DDR5 ยังมีราคาสูงกว่า DDR4 อย่างมาก เช่น DDR5-4800 32GB C40 ราคาเฉลี่ย 73 ดอลลาร์ ขณะที่ DDR4-3200 32GB C16 ราคาเพียง 50 ดอลลาร์ แม้ DDR5 จะให้ประสิทธิภาพสูงกว่า 6% แต่ก็แพงกว่า 46% อย่างไรก็ตาม การลงทุนใน DDR5 ถือเป็นการ Future-proof เพราะซีพียูรุ่นใหม่จาก Intel และ AMD ไม่รองรับ DDR4 อีกต่อไป 📌 สรุปประเด็นสำคัญ ✅ สเปก DDR5 ➡️ แบนด์วิดท์สูงกว่า DDR4 ถึง 112% ➡️ รองรับความจุสูงสุด 128GB ต่อโมดูล ✅ ผลการทดสอบ ➡️ งาน Compression และคำนวณเร็วขึ้น 25–46% ➡️ เกมต่างกันเพียง 1–3% ✅ ราคาและความคุ้มค่า ➡️ DDR5 แพงกว่า DDR4 ถึง 46% ➡️ แต่เป็นการลงทุนเพื่ออนาคต ‼️ คำเตือนสำหรับผู้ใช้ ⛔ หากใช้เพื่อเล่นเกมทั่วไป DDR4 ยังคุ้มค่ากว่า ⛔ DDR5 มีค่า Latency สูงกว่า DDR4 ในหลายกรณี https://www.tomshardware.com/features/ddr5-vs-ddr4-is-it-time-to-upgrade-your-ram
    0 Comments 0 Shares 157 Views 0 Reviews
  • เปิดตัว Nano Banana Pro: ก้าวใหม่ของการสร้างภาพด้วย AI

    Google DeepMind ได้เปิดตัว Nano Banana Pro ซึ่งเป็นโมเดลสร้างและแก้ไขภาพรุ่นล่าสุดที่ใช้ Gemini 3 Pro เป็นแกนหลัก จุดเด่นคือการสร้างภาพที่มีรายละเอียดสูง ความสามารถในการใส่ข้อความที่อ่านได้ชัดเจนในหลายภาษา และการเชื่อมโยงกับข้อมูลจริง เช่น สภาพอากาศหรือสูตรอาหาร เพื่อสร้างอินโฟกราฟิกที่มีสาระครบถ้วนและสวยงาม

    Nano Banana Pro ไม่ได้เป็นเพียงเครื่องมือสร้างภาพ แต่ยังช่วยให้ผู้ใช้สามารถแปลงไอเดียเป็นภาพที่มีความหมาย เช่น การทำอินโฟกราฟิกการเรียนรู้ การออกแบบโปสเตอร์ หรือแม้แต่การสร้างสตอรีบอร์ดสำหรับภาพยนตร์ ด้วยความสามารถด้าน reasoning ที่ลึกซึ้งของ Gemini 3 Pro ทำให้ภาพที่สร้างขึ้นมีความสมจริงและสอดคล้องกับบริบทมากขึ้น

    ความสามารถใหม่: ข้อความหลายภาษาและการเชื่อมโยงข้อมูลจริง
    หนึ่งในจุดแข็งของ Nano Banana Pro คือการสร้างข้อความที่อ่านได้ชัดเจนในภาพ ไม่ว่าจะเป็นสโลแกนสั้น ๆ หรือย่อหน้าที่ยาวขึ้น พร้อมรองรับหลายภาษาเพื่อการใช้งานระดับสากล ผู้ใช้สามารถสร้างโปสเตอร์ที่มีข้อความทั้งภาษาอังกฤษและเกาหลี หรือออกแบบโลโก้ที่ใช้ตัวอักษรเชิงศิลป์ได้อย่างแม่นยำ

    นอกจากนี้ Nano Banana Pro ยังสามารถเชื่อมโยงกับ Google Search เพื่อดึงข้อมูลจริงมาใช้ เช่น การสร้างอินโฟกราฟิกเกี่ยวกับพืช การทำชา หรือการแสดงข้อมูลสภาพอากาศแบบเรียลไทม์ ทำให้ภาพที่ได้ไม่ใช่แค่สวยงาม แต่ยังมีสาระและความถูกต้องทางข้อมูล

    ควบคุมการสร้างภาพระดับสตูดิโอ
    Nano Banana Pro มาพร้อมความสามารถในการควบคุมภาพอย่างละเอียด เช่น การปรับโฟกัส การเปลี่ยนแสงจากกลางวันเป็นกลางคืน การจัดองค์ประกอบหลายตัวละครในฉากเดียว และการสร้างภาพที่มีความละเอียดสูงถึง 4K สิ่งนี้ช่วยให้ผู้ใช้สามารถสร้างงานออกแบบที่มีความเป็นมืออาชีพ ตั้งแต่โฆษณาไปจนถึงงานศิลป์เชิงสร้างสรรค์

    Google ยังเพิ่มระบบ SynthID watermark เพื่อให้ผู้ใช้สามารถตรวจสอบได้ว่า ภาพที่สร้างขึ้นมาจาก AI ของ Google หรือไม่ ซึ่งช่วยเพิ่มความโปร่งใสและความน่าเชื่อถือในการใช้งาน

    สรุปประเด็นสำคัญ
    การเปิดตัว Nano Banana Pro
    พัฒนาบน Gemini 3 Pro เพื่อสร้างภาพที่แม่นยำและมีข้อมูลจริง
    รองรับการใช้งานใน Google Ads, Workspace, Gemini App และ AI Studio

    ความสามารถด้านข้อความและภาษา
    สร้างข้อความที่อ่านได้ชัดเจนในหลายภาษา
    ใช้ตัวอักษรเชิงศิลป์และฟอนต์ที่หลากหลาย

    การเชื่อมโยงข้อมูลจริง
    ดึงข้อมูลจาก Google Search เช่น สภาพอากาศ สูตรอาหาร หรือข้อมูลพืช
    สร้างอินโฟกราฟิกที่มีสาระและความถูกต้อง

    การควบคุมภาพระดับมืออาชีพ
    ปรับแสง โฟกัส และองค์ประกอบภาพได้ละเอียด
    รองรับความละเอียดสูงสุด 4K และหลายอัตราส่วนภาพ

    คำเตือนด้านการใช้งาน AI
    แม้ภาพจะสวยงามและสมจริง แต่ยังคงเป็น Generative AI ที่อาจมีข้อผิดพลาด
    ผู้ใช้ควรตรวจสอบข้อมูลที่ปรากฏในภาพก่อนนำไปใช้จริง

    https://blog.google/technology/ai/nano-banana-pro/
    🖼️ เปิดตัว Nano Banana Pro: ก้าวใหม่ของการสร้างภาพด้วย AI Google DeepMind ได้เปิดตัว Nano Banana Pro ซึ่งเป็นโมเดลสร้างและแก้ไขภาพรุ่นล่าสุดที่ใช้ Gemini 3 Pro เป็นแกนหลัก จุดเด่นคือการสร้างภาพที่มีรายละเอียดสูง ความสามารถในการใส่ข้อความที่อ่านได้ชัดเจนในหลายภาษา และการเชื่อมโยงกับข้อมูลจริง เช่น สภาพอากาศหรือสูตรอาหาร เพื่อสร้างอินโฟกราฟิกที่มีสาระครบถ้วนและสวยงาม Nano Banana Pro ไม่ได้เป็นเพียงเครื่องมือสร้างภาพ แต่ยังช่วยให้ผู้ใช้สามารถแปลงไอเดียเป็นภาพที่มีความหมาย เช่น การทำอินโฟกราฟิกการเรียนรู้ การออกแบบโปสเตอร์ หรือแม้แต่การสร้างสตอรีบอร์ดสำหรับภาพยนตร์ ด้วยความสามารถด้าน reasoning ที่ลึกซึ้งของ Gemini 3 Pro ทำให้ภาพที่สร้างขึ้นมีความสมจริงและสอดคล้องกับบริบทมากขึ้น 🌍 ความสามารถใหม่: ข้อความหลายภาษาและการเชื่อมโยงข้อมูลจริง หนึ่งในจุดแข็งของ Nano Banana Pro คือการสร้างข้อความที่อ่านได้ชัดเจนในภาพ ไม่ว่าจะเป็นสโลแกนสั้น ๆ หรือย่อหน้าที่ยาวขึ้น พร้อมรองรับหลายภาษาเพื่อการใช้งานระดับสากล ผู้ใช้สามารถสร้างโปสเตอร์ที่มีข้อความทั้งภาษาอังกฤษและเกาหลี หรือออกแบบโลโก้ที่ใช้ตัวอักษรเชิงศิลป์ได้อย่างแม่นยำ นอกจากนี้ Nano Banana Pro ยังสามารถเชื่อมโยงกับ Google Search เพื่อดึงข้อมูลจริงมาใช้ เช่น การสร้างอินโฟกราฟิกเกี่ยวกับพืช การทำชา หรือการแสดงข้อมูลสภาพอากาศแบบเรียลไทม์ ทำให้ภาพที่ได้ไม่ใช่แค่สวยงาม แต่ยังมีสาระและความถูกต้องทางข้อมูล 🎨 ควบคุมการสร้างภาพระดับสตูดิโอ Nano Banana Pro มาพร้อมความสามารถในการควบคุมภาพอย่างละเอียด เช่น การปรับโฟกัส การเปลี่ยนแสงจากกลางวันเป็นกลางคืน การจัดองค์ประกอบหลายตัวละครในฉากเดียว และการสร้างภาพที่มีความละเอียดสูงถึง 4K สิ่งนี้ช่วยให้ผู้ใช้สามารถสร้างงานออกแบบที่มีความเป็นมืออาชีพ ตั้งแต่โฆษณาไปจนถึงงานศิลป์เชิงสร้างสรรค์ Google ยังเพิ่มระบบ SynthID watermark เพื่อให้ผู้ใช้สามารถตรวจสอบได้ว่า ภาพที่สร้างขึ้นมาจาก AI ของ Google หรือไม่ ซึ่งช่วยเพิ่มความโปร่งใสและความน่าเชื่อถือในการใช้งาน 📌 สรุปประเด็นสำคัญ ✅ การเปิดตัว Nano Banana Pro ➡️ พัฒนาบน Gemini 3 Pro เพื่อสร้างภาพที่แม่นยำและมีข้อมูลจริง ➡️ รองรับการใช้งานใน Google Ads, Workspace, Gemini App และ AI Studio ✅ ความสามารถด้านข้อความและภาษา ➡️ สร้างข้อความที่อ่านได้ชัดเจนในหลายภาษา ➡️ ใช้ตัวอักษรเชิงศิลป์และฟอนต์ที่หลากหลาย ✅ การเชื่อมโยงข้อมูลจริง ➡️ ดึงข้อมูลจาก Google Search เช่น สภาพอากาศ สูตรอาหาร หรือข้อมูลพืช ➡️ สร้างอินโฟกราฟิกที่มีสาระและความถูกต้อง ✅ การควบคุมภาพระดับมืออาชีพ ➡️ ปรับแสง โฟกัส และองค์ประกอบภาพได้ละเอียด ➡️ รองรับความละเอียดสูงสุด 4K และหลายอัตราส่วนภาพ ‼️ คำเตือนด้านการใช้งาน AI ⛔ แม้ภาพจะสวยงามและสมจริง แต่ยังคงเป็น Generative AI ที่อาจมีข้อผิดพลาด ⛔ ผู้ใช้ควรตรวจสอบข้อมูลที่ปรากฏในภาพก่อนนำไปใช้จริง https://blog.google/technology/ai/nano-banana-pro/
    BLOG.GOOGLE
    Introducing Nano Banana Pro
    Nano Banana Pro is our new image generation and editing model from Google DeepMind.
    0 Comments 0 Shares 130 Views 0 Reviews
  • “ฟองสบู่ AI? Google เตือนการลงทุนอาจเกินจริง แต่ยังเดินหน้าลงทุนมหาศาลใน UK”

    ในบทสัมภาษณ์กับ BBC, Sundar Pichai CEO ของ Alphabet (Google) กล่าวว่าการลงทุนใน AI ที่กำลังพุ่งสูงนั้นมี “องค์ประกอบของความไร้เหตุผล” แม้จะเป็นช่วงเวลาสำคัญทางเทคโนโลยี แต่ก็คล้ายกับการลงทุนเกินจริงในยุคดอทคอมที่เคยนำไปสู่การล่มสลายของตลาดเมื่อปี 2000 เขาย้ำว่า ไม่มีบริษัทใดที่จะรอดพ้นผลกระทบหากฟองสบู่ AI แตก แม้แต่ Google เองก็ตาม

    ขณะเดียวกัน Google กำลังขยายการลงทุนในสหราชอาณาจักร โดยประกาศทุ่มงบกว่า £5 พันล้าน (ราว 6.8 พันล้านดอลลาร์) เพื่อสร้างโครงสร้างพื้นฐานและศูนย์วิจัย AI รวมถึงการพัฒนา DeepMind ในลอนดอน รัฐบาลอังกฤษมองว่านี่คือโอกาสที่จะทำให้ประเทศขึ้นเป็น “มหาอำนาจ AI อันดับ 3” รองจากสหรัฐฯ และจีน

    อย่างไรก็ตาม ความท้าทายใหญ่คือ พลังงาน เนื่องจาก AI ใช้ไฟฟ้ามากขึ้นเรื่อย ๆ โดยปี 2024 ศูนย์ข้อมูลทั่วโลกใช้ไฟฟ้าราว 415 TWh หรือ 1.5% ของการใช้ไฟฟ้าทั้งโลก และคาดว่าจะเพิ่มขึ้นถึง 620–1,050 TWh ภายในปี 2030 เทียบเท่าการใช้ไฟฟ้าของประเทศขนาดใหญ่ทั้งประเทศ เช่น ญี่ปุ่นหรือเยอรมนี สิ่งนี้ทำให้เป้าหมาย Net Zero ของ Google ภายในปี 2030 อาจล่าช้า

    นักวิเคราะห์บางรายมองว่าแม้การลงทุน AI จะสร้างโอกาสมหาศาล แต่ก็มีความเสี่ยงสูง หากผลตอบแทนไม่เป็นไปตามที่คาด ฟองสบู่ AI อาจแตกและส่งผลกระทบต่อเศรษฐกิจโลก คล้ายกับที่เคยเกิดขึ้นในยุคดอทคอม

    สรุปสาระสำคัญ
    การเตือนเรื่องฟองสบู่ AI
    Sundar Pichai ระบุว่ามี “องค์ประกอบของความไร้เหตุผล” ในการลงทุน AI
    ไม่มีบริษัทใดรอดพ้นผลกระทบหากฟองสบู่แตก

    การลงทุนในสหราชอาณาจักร
    Google ทุ่มงบ £5 พันล้านเพื่อโครงสร้างพื้นฐานและวิจัย AI
    รัฐบาลอังกฤษหวังขึ้นเป็นมหาอำนาจ AI อันดับ 3 ของโลก

    ความต้องการพลังงานมหาศาล
    AI ใช้ไฟฟ้า 1.5% ของโลกในปี 2024 และอาจเพิ่มขึ้นเท่าประเทศใหญ่ภายในปี 2030
    Google ยอมรับว่าเป้าหมาย Net Zero ปี 2030 อาจล่าช้า

    คำเตือนด้านเศรษฐกิจและสิ่งแวดล้อม
    หากฟองสบู่ AI แตก อาจกระทบตลาดหุ้นและเงินออมประชาชน
    การใช้พลังงานมหาศาลอาจทำให้เกิดวิกฤติพลังงานและชะลอเป้าหมายด้านสิ่งแวดล้อม

    https://www.bbc.com/news/articles/cwy7vrd8k4eo
    📰 “ฟองสบู่ AI? Google เตือนการลงทุนอาจเกินจริง แต่ยังเดินหน้าลงทุนมหาศาลใน UK” ในบทสัมภาษณ์กับ BBC, Sundar Pichai CEO ของ Alphabet (Google) กล่าวว่าการลงทุนใน AI ที่กำลังพุ่งสูงนั้นมี “องค์ประกอบของความไร้เหตุผล” แม้จะเป็นช่วงเวลาสำคัญทางเทคโนโลยี แต่ก็คล้ายกับการลงทุนเกินจริงในยุคดอทคอมที่เคยนำไปสู่การล่มสลายของตลาดเมื่อปี 2000 เขาย้ำว่า ไม่มีบริษัทใดที่จะรอดพ้นผลกระทบหากฟองสบู่ AI แตก แม้แต่ Google เองก็ตาม ขณะเดียวกัน Google กำลังขยายการลงทุนในสหราชอาณาจักร โดยประกาศทุ่มงบกว่า £5 พันล้าน (ราว 6.8 พันล้านดอลลาร์) เพื่อสร้างโครงสร้างพื้นฐานและศูนย์วิจัย AI รวมถึงการพัฒนา DeepMind ในลอนดอน รัฐบาลอังกฤษมองว่านี่คือโอกาสที่จะทำให้ประเทศขึ้นเป็น “มหาอำนาจ AI อันดับ 3” รองจากสหรัฐฯ และจีน อย่างไรก็ตาม ความท้าทายใหญ่คือ พลังงาน เนื่องจาก AI ใช้ไฟฟ้ามากขึ้นเรื่อย ๆ โดยปี 2024 ศูนย์ข้อมูลทั่วโลกใช้ไฟฟ้าราว 415 TWh หรือ 1.5% ของการใช้ไฟฟ้าทั้งโลก และคาดว่าจะเพิ่มขึ้นถึง 620–1,050 TWh ภายในปี 2030 เทียบเท่าการใช้ไฟฟ้าของประเทศขนาดใหญ่ทั้งประเทศ เช่น ญี่ปุ่นหรือเยอรมนี สิ่งนี้ทำให้เป้าหมาย Net Zero ของ Google ภายในปี 2030 อาจล่าช้า นักวิเคราะห์บางรายมองว่าแม้การลงทุน AI จะสร้างโอกาสมหาศาล แต่ก็มีความเสี่ยงสูง หากผลตอบแทนไม่เป็นไปตามที่คาด ฟองสบู่ AI อาจแตกและส่งผลกระทบต่อเศรษฐกิจโลก คล้ายกับที่เคยเกิดขึ้นในยุคดอทคอม 📌 สรุปสาระสำคัญ ✅ การเตือนเรื่องฟองสบู่ AI ➡️ Sundar Pichai ระบุว่ามี “องค์ประกอบของความไร้เหตุผล” ในการลงทุน AI ➡️ ไม่มีบริษัทใดรอดพ้นผลกระทบหากฟองสบู่แตก ✅ การลงทุนในสหราชอาณาจักร ➡️ Google ทุ่มงบ £5 พันล้านเพื่อโครงสร้างพื้นฐานและวิจัย AI ➡️ รัฐบาลอังกฤษหวังขึ้นเป็นมหาอำนาจ AI อันดับ 3 ของโลก ✅ ความต้องการพลังงานมหาศาล ➡️ AI ใช้ไฟฟ้า 1.5% ของโลกในปี 2024 และอาจเพิ่มขึ้นเท่าประเทศใหญ่ภายในปี 2030 ➡️ Google ยอมรับว่าเป้าหมาย Net Zero ปี 2030 อาจล่าช้า ‼️ คำเตือนด้านเศรษฐกิจและสิ่งแวดล้อม ⛔ หากฟองสบู่ AI แตก อาจกระทบตลาดหุ้นและเงินออมประชาชน ⛔ การใช้พลังงานมหาศาลอาจทำให้เกิดวิกฤติพลังงานและชะลอเป้าหมายด้านสิ่งแวดล้อม https://www.bbc.com/news/articles/cwy7vrd8k4eo
    WWW.BBC.COM
    Google boss says trillion-dollar AI investment boom has 'elements of irrationality'
    In an exclusive BBC interview, Sundar Pichai hailed artificial intelligence as an "extraordinary moment" but said no company would be immune if bubble burst.
    0 Comments 0 Shares 162 Views 0 Reviews
  • Jeff Bezos หวนคืนสู่ตำแหน่งผู้นำ

    หลังจากก้าวลงจากตำแหน่ง CEO ของ Amazon ในปี 2021 Jeff Bezos ได้ทุ่มเวลาให้กับ Blue Origin บริษัทด้านอวกาศของเขา แต่ล่าสุดเขากลับมาสู่บทบาทผู้นำอีกครั้งในฐานะ Co-CEO ของ Project Prometheus สตาร์ทอัพ AI ที่เขาเป็นผู้ลงทุนรายใหญ่ การตัดสินใจครั้งนี้สะท้อนถึงความเชื่อมั่นของ Bezos ว่า AI จะเป็นหัวใจสำคัญในการพลิกโฉมอุตสาหกรรมการผลิตทั่วโลก

    พันธมิตรใหม่: Vik Bajaj
    Bezos จะทำงานร่วมกับ Vik Bajaj นักฟิสิกส์และนักเคมีที่เคยทำงานใน Google X และเป็นอดีตหัวหน้าของ Verily บริษัทด้านสุขภาพในเครือ Alphabet ทั้งสองจะร่วมกันนำ Project Prometheus ไปสู่เป้าหมายการใช้ AI เพื่อเพิ่มความแม่นยำและประสิทธิภาพในอุตสาหกรรม เช่น คอมพิวเตอร์, วิศวกรรมยานยนต์ และการบินอวกาศ

    เงินทุนมหาศาลและทีมงานระดับโลก
    Project Prometheus ได้รับเงินทุนมหาศาลกว่า 6.2 พันล้านดอลลาร์ ทำให้มันกลายเป็นหนึ่งในสตาร์ทอัพที่มีเงินทุนสูงที่สุดในโลก ทีมงานประกอบด้วยผู้เชี่ยวชาญจาก OpenAI, DeepMind และ Meta ซึ่งบ่งบอกถึงความจริงจังและศักยภาพในการแข่งขันกับบริษัทเทคโนโลยีระดับโลก

    ความเชื่อมั่นในอนาคตของ AI
    การกลับมาของ Bezos ในบทบาทนี้ไม่ใช่แค่การลงทุน แต่เป็นการแสดงให้เห็นว่าเขามอง AI เป็นเส้นทางใหม่ที่จะสร้างผลกระทบต่อโลกเช่นเดียวกับที่ Amazon เคยทำกับการค้าปลีกออนไลน์ และ Blue Origin กำลังทำกับการเดินทางสู่อวกาศ

    สรุปสาระสำคัญ
    การกลับมาของ Jeff Bezos
    รับตำแหน่ง Co-CEO ของ Project Prometheus หลังจากออกจาก Amazon
    แสดงความเชื่อมั่นในศักยภาพของ AI

    พันธมิตรและทีมงาน
    Vik Bajaj ร่วมเป็น Co-CEO และนำประสบการณ์จาก Google X, Verily
    ทีมงานประกอบด้วยอดีตผู้เชี่ยวชาญจาก OpenAI, DeepMind, Meta

    เงินทุนและเป้าหมาย
    ได้รับเงินทุนกว่า 6.2 พันล้านดอลลาร์
    มุ่งใช้ AI ปฏิวัติอุตสาหกรรมการผลิตขั้นสูง

    คำเตือนและความเสี่ยง
    การพึ่งพา AI ในอุตสาหกรรมสำคัญอาจสร้างความเสี่ยงหากระบบล้มเหลว
    การแข่งขันกับบริษัทเทคโนโลยีใหญ่จะท้าทายและอาจนำไปสู่ความขัดแย้งด้านทรัพยากรบุคคล
    การลงทุนมหาศาลอาจกดดันให้บริษัทต้องเร่งผลลัพธ์ ซึ่งเสี่ยงต่อการตัดสินใจผิดพลาด

    https://securityonline.info/jeff-bezos-returns-to-leadership-co-ceo-of-6-2-billion-ai-startup-project-prometheus/
    🚀 Jeff Bezos หวนคืนสู่ตำแหน่งผู้นำ หลังจากก้าวลงจากตำแหน่ง CEO ของ Amazon ในปี 2021 Jeff Bezos ได้ทุ่มเวลาให้กับ Blue Origin บริษัทด้านอวกาศของเขา แต่ล่าสุดเขากลับมาสู่บทบาทผู้นำอีกครั้งในฐานะ Co-CEO ของ Project Prometheus สตาร์ทอัพ AI ที่เขาเป็นผู้ลงทุนรายใหญ่ การตัดสินใจครั้งนี้สะท้อนถึงความเชื่อมั่นของ Bezos ว่า AI จะเป็นหัวใจสำคัญในการพลิกโฉมอุตสาหกรรมการผลิตทั่วโลก 🧪 พันธมิตรใหม่: Vik Bajaj Bezos จะทำงานร่วมกับ Vik Bajaj นักฟิสิกส์และนักเคมีที่เคยทำงานใน Google X และเป็นอดีตหัวหน้าของ Verily บริษัทด้านสุขภาพในเครือ Alphabet ทั้งสองจะร่วมกันนำ Project Prometheus ไปสู่เป้าหมายการใช้ AI เพื่อเพิ่มความแม่นยำและประสิทธิภาพในอุตสาหกรรม เช่น คอมพิวเตอร์, วิศวกรรมยานยนต์ และการบินอวกาศ 💰 เงินทุนมหาศาลและทีมงานระดับโลก Project Prometheus ได้รับเงินทุนมหาศาลกว่า 6.2 พันล้านดอลลาร์ ทำให้มันกลายเป็นหนึ่งในสตาร์ทอัพที่มีเงินทุนสูงที่สุดในโลก ทีมงานประกอบด้วยผู้เชี่ยวชาญจาก OpenAI, DeepMind และ Meta ซึ่งบ่งบอกถึงความจริงจังและศักยภาพในการแข่งขันกับบริษัทเทคโนโลยีระดับโลก 🌌 ความเชื่อมั่นในอนาคตของ AI การกลับมาของ Bezos ในบทบาทนี้ไม่ใช่แค่การลงทุน แต่เป็นการแสดงให้เห็นว่าเขามอง AI เป็นเส้นทางใหม่ที่จะสร้างผลกระทบต่อโลกเช่นเดียวกับที่ Amazon เคยทำกับการค้าปลีกออนไลน์ และ Blue Origin กำลังทำกับการเดินทางสู่อวกาศ 📌 สรุปสาระสำคัญ ✅ การกลับมาของ Jeff Bezos ➡️ รับตำแหน่ง Co-CEO ของ Project Prometheus หลังจากออกจาก Amazon ➡️ แสดงความเชื่อมั่นในศักยภาพของ AI ✅ พันธมิตรและทีมงาน ➡️ Vik Bajaj ร่วมเป็น Co-CEO และนำประสบการณ์จาก Google X, Verily ➡️ ทีมงานประกอบด้วยอดีตผู้เชี่ยวชาญจาก OpenAI, DeepMind, Meta ✅ เงินทุนและเป้าหมาย ➡️ ได้รับเงินทุนกว่า 6.2 พันล้านดอลลาร์ ➡️ มุ่งใช้ AI ปฏิวัติอุตสาหกรรมการผลิตขั้นสูง ‼️ คำเตือนและความเสี่ยง ⛔ การพึ่งพา AI ในอุตสาหกรรมสำคัญอาจสร้างความเสี่ยงหากระบบล้มเหลว ⛔ การแข่งขันกับบริษัทเทคโนโลยีใหญ่จะท้าทายและอาจนำไปสู่ความขัดแย้งด้านทรัพยากรบุคคล ⛔ การลงทุนมหาศาลอาจกดดันให้บริษัทต้องเร่งผลลัพธ์ ซึ่งเสี่ยงต่อการตัดสินใจผิดพลาด https://securityonline.info/jeff-bezos-returns-to-leadership-co-ceo-of-6-2-billion-ai-startup-project-prometheus/
    SECURITYONLINE.INFO
    Jeff Bezos Returns to Leadership: Co-CEO of $6.2 Billion AI Startup Project Prometheus
    Jeff Bezos is the new Co-CEO of Project Prometheus, a secretive AI startup that has raised $6.2 billion to transform high-precision manufacturing. This is his first CEO role since 2021.
    0 Comments 0 Shares 197 Views 0 Reviews
  • “Elon Musk ท้าดวล Andrej Karpathy ในศึก AI Coding Showdown — แต่ได้คำตอบว่า ‘ขอร่วมมือดีกว่าแข่งกัน’” — เมื่อการเปรียบเทียบ Grok กับ Deep Blue กลายเป็นบทสนทนาเรื่องอนาคตของ AGI

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ท้าทาย Andrej Karpathy อดีตหัวหน้าฝ่ายวิจัยของ OpenAI ให้เข้าร่วมการแข่งขันเขียนโค้ดระหว่างมนุษย์กับ AI โดยใช้ Grok 5 ซึ่งเป็นโมเดลล่าสุดจากบริษัท xAI ของ Musk โดยเปรียบเทียบการแข่งขันนี้กับแมตช์ในตำนานระหว่าง Garry Kasparov กับ IBM Deep Blue ในปี 1997

    คำท้าของ Musk เกิดขึ้นหลังจาก Karpathy ให้สัมภาษณ์ในรายการ Dwarkesh Podcast โดยกล่าวว่า AGI (Artificial General Intelligence) ยังห่างไกลอีกประมาณ 10 ปี และ Grok 5 ยังตามหลัง GPT-4 อยู่หลายเดือน ซึ่ง Musk ตีความว่าเป็นการเปิดช่องให้จัดการแข่งขัน

    Karpathy ตอบกลับอย่างสุภาพว่าเขาไม่สนใจการแข่งขัน แต่ยินดีร่วมมือกับ Grok แทน โดยมองว่าโมเดล AI ควรเป็น “ผู้ร่วมงาน” มากกว่า “คู่แข่ง”

    บทความยังกล่าวถึงการแข่งขันในวงการ AI ที่เริ่มจริงจังขึ้น เช่น:
    DeepMind ใช้ Gemini 2.5 แก้โจทย์จาก ICPC World Finals ได้ 10 จาก 12 ข้อ
    GPT-4 และ GPT-5 ทำได้ครบ 12/12 ข้อใน benchmark เดียวกัน
    นักพัฒนาชาวโปแลนด์เคยเอาชนะโมเดลของ OpenAI ในการแข่งขัน AtCoder World Tour Finals แบบตัวต่อตัว

    หาก Musk ต้องการให้ Grok 5 ได้รับการยอมรับในระดับเดียวกับโมเดลเหล่านี้ เขาจะต้องจัดการแข่งขันที่มีเงื่อนไขชัดเจน เช่น:
    ใช้ชุดโจทย์สาธารณะ
    จำกัดเวลาและทรัพยากร
    ไม่มีการช่วยเหลือจากมนุษย์
    ให้คะแนนโดยคณะกรรมการอิสระและเผยแพร่ผลอย่างโปร่งใส

    Elon Musk ท้า Andrej Karpathy แข่งเขียนโค้ดกับ Grok 5
    เปรียบเทียบกับแมตช์ Kasparov vs Deep Blue

    Karpathy ปฏิเสธคำท้าอย่างสุภาพ
    ระบุว่าอยากร่วมมือกับ AI มากกว่าจะแข่งกัน

    Karpathy มองว่า AGI ยังห่างไกลอีก 10 ปี
    และ Grok 5 ยังตามหลัง GPT-4 อยู่หลายเดือน

    DeepMind ใช้ Gemini 2.5 แก้โจทย์ ICPC ได้ 10 จาก 12 ข้อ
    GPT-4 และ GPT-5 ทำได้ครบ 12/12 ข้อ

    นักพัฒนาชาวโปแลนด์เคยชนะโมเดล OpenAI ในการแข่งขันจริง
    ที่ AtCoder World Tour Finals

    หาก Grok 5 ต้องการพิสูจน์ตัวเอง ต้องแข่งขันภายใต้เงื่อนไขที่ชัดเจน
    เช่น ชุดโจทย์สาธารณะ, ไม่มีการช่วยเหลือ, ให้คะแนนโดยอิสระ

    https://www.tomshardware.com/tech-industry/musk-challenges-kaparthy-to-an-ai-coding-showdown
    🤖 “Elon Musk ท้าดวล Andrej Karpathy ในศึก AI Coding Showdown — แต่ได้คำตอบว่า ‘ขอร่วมมือดีกว่าแข่งกัน’” — เมื่อการเปรียบเทียบ Grok กับ Deep Blue กลายเป็นบทสนทนาเรื่องอนาคตของ AGI Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ท้าทาย Andrej Karpathy อดีตหัวหน้าฝ่ายวิจัยของ OpenAI ให้เข้าร่วมการแข่งขันเขียนโค้ดระหว่างมนุษย์กับ AI โดยใช้ Grok 5 ซึ่งเป็นโมเดลล่าสุดจากบริษัท xAI ของ Musk โดยเปรียบเทียบการแข่งขันนี้กับแมตช์ในตำนานระหว่าง Garry Kasparov กับ IBM Deep Blue ในปี 1997 คำท้าของ Musk เกิดขึ้นหลังจาก Karpathy ให้สัมภาษณ์ในรายการ Dwarkesh Podcast โดยกล่าวว่า AGI (Artificial General Intelligence) ยังห่างไกลอีกประมาณ 10 ปี และ Grok 5 ยังตามหลัง GPT-4 อยู่หลายเดือน ซึ่ง Musk ตีความว่าเป็นการเปิดช่องให้จัดการแข่งขัน Karpathy ตอบกลับอย่างสุภาพว่าเขาไม่สนใจการแข่งขัน แต่ยินดีร่วมมือกับ Grok แทน โดยมองว่าโมเดล AI ควรเป็น “ผู้ร่วมงาน” มากกว่า “คู่แข่ง” บทความยังกล่าวถึงการแข่งขันในวงการ AI ที่เริ่มจริงจังขึ้น เช่น: 🎗️ DeepMind ใช้ Gemini 2.5 แก้โจทย์จาก ICPC World Finals ได้ 10 จาก 12 ข้อ 🎗️ GPT-4 และ GPT-5 ทำได้ครบ 12/12 ข้อใน benchmark เดียวกัน 🎗️ นักพัฒนาชาวโปแลนด์เคยเอาชนะโมเดลของ OpenAI ในการแข่งขัน AtCoder World Tour Finals แบบตัวต่อตัว หาก Musk ต้องการให้ Grok 5 ได้รับการยอมรับในระดับเดียวกับโมเดลเหล่านี้ เขาจะต้องจัดการแข่งขันที่มีเงื่อนไขชัดเจน เช่น: 🎗️ ใช้ชุดโจทย์สาธารณะ 🎗️ จำกัดเวลาและทรัพยากร 🎗️ ไม่มีการช่วยเหลือจากมนุษย์ 🎗️ ให้คะแนนโดยคณะกรรมการอิสระและเผยแพร่ผลอย่างโปร่งใส ✅ Elon Musk ท้า Andrej Karpathy แข่งเขียนโค้ดกับ Grok 5 ➡️ เปรียบเทียบกับแมตช์ Kasparov vs Deep Blue ✅ Karpathy ปฏิเสธคำท้าอย่างสุภาพ ➡️ ระบุว่าอยากร่วมมือกับ AI มากกว่าจะแข่งกัน ✅ Karpathy มองว่า AGI ยังห่างไกลอีก 10 ปี ➡️ และ Grok 5 ยังตามหลัง GPT-4 อยู่หลายเดือน ✅ DeepMind ใช้ Gemini 2.5 แก้โจทย์ ICPC ได้ 10 จาก 12 ข้อ ➡️ GPT-4 และ GPT-5 ทำได้ครบ 12/12 ข้อ ✅ นักพัฒนาชาวโปแลนด์เคยชนะโมเดล OpenAI ในการแข่งขันจริง ➡️ ที่ AtCoder World Tour Finals ✅ หาก Grok 5 ต้องการพิสูจน์ตัวเอง ต้องแข่งขันภายใต้เงื่อนไขที่ชัดเจน ➡️ เช่น ชุดโจทย์สาธารณะ, ไม่มีการช่วยเหลือ, ให้คะแนนโดยอิสระ https://www.tomshardware.com/tech-industry/musk-challenges-kaparthy-to-an-ai-coding-showdown
    0 Comments 0 Shares 253 Views 0 Reviews
  • “RoBERTa Diffusion: เมื่อ BERT กลายเป็นโมเดลสร้างข้อความผ่านกระบวนการ ‘ลบสัญญาณรบกวน’” — จากภาพสู่ภาษา: การประยุกต์ diffusion model กับการสร้างข้อความแบบใหม่

    บทความจาก Nathan.rs นำเสนอแนวคิดที่น่าสนใจว่า BERT ซึ่งเป็นโมเดลภาษายอดนิยม อาจเป็นเพียง “กรณีย่อย” ของโมเดล diffusion สำหรับภาษา โดยอธิบายว่า masked language modeling (MLM) ที่ใช้ใน BERT มีโครงสร้างคล้ายกับการลบสัญญาณรบกวน (denoising) ใน diffusion model ที่ใช้ในงานสร้างภาพ

    แนวคิดนี้เริ่มจากการศึกษางานของ Google DeepMind ที่เปิดตัว Gemini Diffusion ซึ่งสร้างข้อความโดยเริ่มจาก noise แล้วค่อย ๆ refine ให้กลายเป็นข้อความที่มีความหมาย — ต่างจาก GPT ที่สร้างทีละ token แบบ autoregressive

    Nathan เสนอว่า BERT เองก็สามารถนำมาใช้สร้างข้อความได้ หากเปลี่ยนจากการ mask แบบคงที่ มาเป็นการ mask แบบไล่ระดับ (จากน้อยไปมาก แล้วค่อย ๆ ลดกลับลงมา) ซึ่งคล้ายกับกระบวนการ diffusion ในภาพ

    เขาเรียกแนวทางนี้ว่า “RoBERTa Diffusion” โดยใช้ RoBERTa (เวอร์ชันปรับปรุงของ BERT) มาฝึกแบบใหม่บน WikiText dataset ด้วยการสุ่มระดับการ mask และฝึกให้โมเดลเดา token ที่หายไปในแต่ละขั้นตอน

    ผลลัพธ์ที่ได้คือข้อความที่สร้างขึ้นมีความต่อเนื่องและสมเหตุสมผล แม้จะยังไม่เทียบเท่า GPT-2 แต่ก็ถือเป็น “proof of concept” ที่แสดงให้เห็นว่าโมเดล encoder-only อย่าง BERT ก็สามารถใช้สร้างข้อความได้ หากปรับวิธีการฝึกให้เหมาะสม

    Gemini Diffusion ของ Google DeepMind ใช้ diffusion model สร้างข้อความจาก noise
    ต่างจาก GPT ที่สร้างทีละ token แบบ autoregressive

    BERT ใช้ masked language modeling (MLM) ซึ่งคล้ายกับการ denoise
    เหมาะกับการประยุกต์เป็น diffusion model สำหรับภาษา

    RoBERTa เป็นเวอร์ชันปรับปรุงของ BERT ที่ใช้ MLM อย่างเดียว
    ไม่มีการทำนายประโยคถัดไป (next sentence prediction)

    RoBERTa Diffusion ใช้การ mask แบบไล่ระดับในหลายขั้นตอน
    ฝึกให้โมเดลเดา token ที่หายไปในแต่ละระดับ

    ใช้ WikiText dataset และ HuggingFace library ในการฝึก
    พร้อม diffusion_collator ที่สุ่มระดับการ mask

    ผลลัพธ์ที่ได้มีความต่อเนื่องและสมเหตุสมผล
    แม้จะยังช้ากว่า GPT-2 (~13 วินาที vs ~9 วินาที)

    แนวคิดนี้สามารถต่อยอดด้วยเทคนิคใหม่ เช่น AR-Diffusion และ Skip-Step Diffusion
    เพื่อเพิ่มคุณภาพและความเร็วในการสร้างข้อความ

    https://nathan.rs/posts/roberta-diffusion/
    🧠 “RoBERTa Diffusion: เมื่อ BERT กลายเป็นโมเดลสร้างข้อความผ่านกระบวนการ ‘ลบสัญญาณรบกวน’” — จากภาพสู่ภาษา: การประยุกต์ diffusion model กับการสร้างข้อความแบบใหม่ บทความจาก Nathan.rs นำเสนอแนวคิดที่น่าสนใจว่า BERT ซึ่งเป็นโมเดลภาษายอดนิยม อาจเป็นเพียง “กรณีย่อย” ของโมเดล diffusion สำหรับภาษา โดยอธิบายว่า masked language modeling (MLM) ที่ใช้ใน BERT มีโครงสร้างคล้ายกับการลบสัญญาณรบกวน (denoising) ใน diffusion model ที่ใช้ในงานสร้างภาพ แนวคิดนี้เริ่มจากการศึกษางานของ Google DeepMind ที่เปิดตัว Gemini Diffusion ซึ่งสร้างข้อความโดยเริ่มจาก noise แล้วค่อย ๆ refine ให้กลายเป็นข้อความที่มีความหมาย — ต่างจาก GPT ที่สร้างทีละ token แบบ autoregressive Nathan เสนอว่า BERT เองก็สามารถนำมาใช้สร้างข้อความได้ หากเปลี่ยนจากการ mask แบบคงที่ มาเป็นการ mask แบบไล่ระดับ (จากน้อยไปมาก แล้วค่อย ๆ ลดกลับลงมา) ซึ่งคล้ายกับกระบวนการ diffusion ในภาพ เขาเรียกแนวทางนี้ว่า “RoBERTa Diffusion” โดยใช้ RoBERTa (เวอร์ชันปรับปรุงของ BERT) มาฝึกแบบใหม่บน WikiText dataset ด้วยการสุ่มระดับการ mask และฝึกให้โมเดลเดา token ที่หายไปในแต่ละขั้นตอน ผลลัพธ์ที่ได้คือข้อความที่สร้างขึ้นมีความต่อเนื่องและสมเหตุสมผล แม้จะยังไม่เทียบเท่า GPT-2 แต่ก็ถือเป็น “proof of concept” ที่แสดงให้เห็นว่าโมเดล encoder-only อย่าง BERT ก็สามารถใช้สร้างข้อความได้ หากปรับวิธีการฝึกให้เหมาะสม ✅ Gemini Diffusion ของ Google DeepMind ใช้ diffusion model สร้างข้อความจาก noise ➡️ ต่างจาก GPT ที่สร้างทีละ token แบบ autoregressive ✅ BERT ใช้ masked language modeling (MLM) ซึ่งคล้ายกับการ denoise ➡️ เหมาะกับการประยุกต์เป็น diffusion model สำหรับภาษา ✅ RoBERTa เป็นเวอร์ชันปรับปรุงของ BERT ที่ใช้ MLM อย่างเดียว ➡️ ไม่มีการทำนายประโยคถัดไป (next sentence prediction) ✅ RoBERTa Diffusion ใช้การ mask แบบไล่ระดับในหลายขั้นตอน ➡️ ฝึกให้โมเดลเดา token ที่หายไปในแต่ละระดับ ✅ ใช้ WikiText dataset และ HuggingFace library ในการฝึก ➡️ พร้อม diffusion_collator ที่สุ่มระดับการ mask ✅ ผลลัพธ์ที่ได้มีความต่อเนื่องและสมเหตุสมผล ➡️ แม้จะยังช้ากว่า GPT-2 (~13 วินาที vs ~9 วินาที) ✅ แนวคิดนี้สามารถต่อยอดด้วยเทคนิคใหม่ เช่น AR-Diffusion และ Skip-Step Diffusion ➡️ เพื่อเพิ่มคุณภาพและความเร็วในการสร้างข้อความ https://nathan.rs/posts/roberta-diffusion/
    NATHAN.RS
    BERT is just a Single Text Diffusion Step
    A while back, Google DeepMind unveiled Gemini Diffusion, an experimental language model that generates text using diffusion. Unlike traditional GPT-style models that generate one word at a time, Gemini Diffusion creates whole blocks of text by refining random noise step-by-step. I read the paper Large Language Diffusion Models and was surprised to find that discrete language diffusion is just a generalization of masked language modeling (MLM), something we’ve been doing since 2018. The first thought I had was, “can we finetune a BERT-like model to do text generation?” I decided to try a quick proof of concept out of curiosity.
    0 Comments 0 Shares 164 Views 0 Reviews
  • “DeepMind จับมือ CFS ใช้ AI เพิ่มประสิทธิภาพเตาปฏิกรณ์ฟิวชัน SPARC” — เมื่อ AI ไม่ได้แค่เล่นหมากรุก แต่ช่วยเร่งอนาคตพลังงานสะอาดให้ใกล้ขึ้น

    Google DeepMind ประกาศความร่วมมือกับบริษัทฟิวชันพลังงานจากสหรัฐฯ อย่าง Commonwealth Fusion Systems (CFS) เพื่อใช้ AI เพิ่มประสิทธิภาพการทำงานของเตาปฏิกรณ์ฟิวชัน SPARC ซึ่งเป็นหนึ่งในโครงการที่มีเป้าหมายเพื่อผลิตพลังงานสะอาดแบบ “เกินดุล” (net energy gain) ให้ได้ภายในปี 2027

    CFS เพิ่งระดมทุนได้ถึง 863 ล้านดอลลาร์จากนักลงทุนรายใหญ่ เช่น NVIDIA, Google, Breakthrough Energy Ventures (ของ Bill Gates), Morgan Stanley, และบริษัทญี่ปุ่นอย่าง Mitsui & Co. และ Mitsubishi Corporation สะท้อนถึงความเชื่อมั่นระดับโลกในพลังงานฟิวชัน

    DeepMind จะนำเทคโนโลยี AI ที่เคยใช้ควบคุมพลาสมาใน tokamak (เตาปฏิกรณ์ฟิวชันแบบแม่เหล็ก) มาพัฒนา 3 ระบบหลักให้กับ SPARC ได้แก่:

    1️⃣ TORAX — ซอฟต์แวร์จำลองพลาสมาแบบ open-source ที่สามารถรันการทดลองจำลองนับล้านครั้งเพื่อปรับแต่งพารามิเตอร์ของเตาปฏิกรณ์

    2️⃣ AlphaEvolve — ระบบ AI ที่ใช้ reinforcement learning เพื่อค้นหาวิธีการควบคุมพลาสมาให้ได้พลังงานสูงสุด

    3️⃣ AI Navigator — ระบบควบคุมพลาสมาแบบเรียลไทม์ ที่สามารถปรับสมดุลความร้อนและแรงดันในเตาได้อย่างแม่นยำ

    เป้าหมายสูงสุดคือการสร้างระบบควบคุมอัตโนมัติที่ “ฉลาดกว่าวิศวกรมนุษย์” ในการจัดการเตาปฏิกรณ์ฟิวชัน ซึ่งจะเป็นรากฐานของโรงไฟฟ้าฟิวชันในอนาคต

    DeepMind ร่วมมือกับ CFS เพื่อเพิ่มประสิทธิภาพเตาฟิวชัน SPARC
    ใช้ AI ควบคุมพลาสมาและจำลองการทำงานของเตา

    CFS ได้รับเงินลงทุน 863 ล้านดอลลาร์จากบริษัทชั้นนำ
    เช่น Google, NVIDIA, Breakthrough Energy, Morgan Stanley ฯลฯ

    เป้าหมายคือการผลิตพลังงานฟิวชันแบบ net energy gain ภายในปี 2027
    หมายถึงผลิตพลังงานได้มากกว่าที่ใช้ในการจุดพลาสมา

    DeepMind พัฒนา 3 ระบบ AI ได้แก่ TORAX, AlphaEvolve และ AI Navigator
    ครอบคลุมทั้งการจำลอง, การเรียนรู้, และการควบคุมแบบเรียลไทม์

    ระบบ AI จะช่วยควบคุมความร้อนและแรงดันในเตา
    ป้องกันความเสียหายและเพิ่มประสิทธิภาพการผลิตพลังงาน

    https://securityonline.info/google-deepmind-partners-with-cfs-to-use-ai-for-optimizing-sparc-fusion-reactor-efficiency/
    ⚛️ “DeepMind จับมือ CFS ใช้ AI เพิ่มประสิทธิภาพเตาปฏิกรณ์ฟิวชัน SPARC” — เมื่อ AI ไม่ได้แค่เล่นหมากรุก แต่ช่วยเร่งอนาคตพลังงานสะอาดให้ใกล้ขึ้น Google DeepMind ประกาศความร่วมมือกับบริษัทฟิวชันพลังงานจากสหรัฐฯ อย่าง Commonwealth Fusion Systems (CFS) เพื่อใช้ AI เพิ่มประสิทธิภาพการทำงานของเตาปฏิกรณ์ฟิวชัน SPARC ซึ่งเป็นหนึ่งในโครงการที่มีเป้าหมายเพื่อผลิตพลังงานสะอาดแบบ “เกินดุล” (net energy gain) ให้ได้ภายในปี 2027 CFS เพิ่งระดมทุนได้ถึง 863 ล้านดอลลาร์จากนักลงทุนรายใหญ่ เช่น NVIDIA, Google, Breakthrough Energy Ventures (ของ Bill Gates), Morgan Stanley, และบริษัทญี่ปุ่นอย่าง Mitsui & Co. และ Mitsubishi Corporation สะท้อนถึงความเชื่อมั่นระดับโลกในพลังงานฟิวชัน DeepMind จะนำเทคโนโลยี AI ที่เคยใช้ควบคุมพลาสมาใน tokamak (เตาปฏิกรณ์ฟิวชันแบบแม่เหล็ก) มาพัฒนา 3 ระบบหลักให้กับ SPARC ได้แก่: 1️⃣ TORAX — ซอฟต์แวร์จำลองพลาสมาแบบ open-source ที่สามารถรันการทดลองจำลองนับล้านครั้งเพื่อปรับแต่งพารามิเตอร์ของเตาปฏิกรณ์ 2️⃣ AlphaEvolve — ระบบ AI ที่ใช้ reinforcement learning เพื่อค้นหาวิธีการควบคุมพลาสมาให้ได้พลังงานสูงสุด 3️⃣ AI Navigator — ระบบควบคุมพลาสมาแบบเรียลไทม์ ที่สามารถปรับสมดุลความร้อนและแรงดันในเตาได้อย่างแม่นยำ เป้าหมายสูงสุดคือการสร้างระบบควบคุมอัตโนมัติที่ “ฉลาดกว่าวิศวกรมนุษย์” ในการจัดการเตาปฏิกรณ์ฟิวชัน ซึ่งจะเป็นรากฐานของโรงไฟฟ้าฟิวชันในอนาคต ✅ DeepMind ร่วมมือกับ CFS เพื่อเพิ่มประสิทธิภาพเตาฟิวชัน SPARC ➡️ ใช้ AI ควบคุมพลาสมาและจำลองการทำงานของเตา ✅ CFS ได้รับเงินลงทุน 863 ล้านดอลลาร์จากบริษัทชั้นนำ ➡️ เช่น Google, NVIDIA, Breakthrough Energy, Morgan Stanley ฯลฯ ✅ เป้าหมายคือการผลิตพลังงานฟิวชันแบบ net energy gain ภายในปี 2027 ➡️ หมายถึงผลิตพลังงานได้มากกว่าที่ใช้ในการจุดพลาสมา ✅ DeepMind พัฒนา 3 ระบบ AI ได้แก่ TORAX, AlphaEvolve และ AI Navigator ➡️ ครอบคลุมทั้งการจำลอง, การเรียนรู้, และการควบคุมแบบเรียลไทม์ ✅ ระบบ AI จะช่วยควบคุมความร้อนและแรงดันในเตา ➡️ ป้องกันความเสียหายและเพิ่มประสิทธิภาพการผลิตพลังงาน https://securityonline.info/google-deepmind-partners-with-cfs-to-use-ai-for-optimizing-sparc-fusion-reactor-efficiency/
    SECURITYONLINE.INFO
    Google DeepMind Partners with CFS to Use AI for Optimizing SPARC Fusion Reactor Efficiency
    DeepMind is partnering with CFS to optimize its SPARC fusion reactor for net energy gain (Q>1) by 2027. The AI uses TORAX simulations and AlphaEvolve agents to control extreme plasma heat.
    0 Comments 0 Shares 318 Views 0 Reviews
  • “CAD Assistant เวอร์ชัน PC — วิวัฒนาการใหม่ของการดูโมเดล 3D แบบมืออาชีพ” — เมื่อเครื่องมือจากมือถือถูกยกระดับสู่เดสก์ท็อป พร้อมเรนเดอร์ Ray-Tracing และ Path-Tracing เต็มรูปแบบ

    CAD Assistant ซึ่งเดิมเป็นแอปดูโมเดล 3D บนมือถือที่พัฒนาโดย Open CASCADE Technology ได้ถูกนำมาปรับใช้บนแพลตฟอร์ม PC โดยใช้ Android emulator อย่าง NoxPlayer เพื่อให้วิศวกรและนักออกแบบสามารถใช้งานได้บนหน้าจอใหญ่ พร้อมประสิทธิภาพที่สูงขึ้น

    ตัวแอปรองรับไฟล์ CAD หลากหลายรูปแบบ เช่น STEP, IGES, BREP, DXF, SAT, XT รวมถึงไฟล์ mesh อย่าง STL, OBJ, glTF และ JT โดยสามารถแสดงสี, texture, ข้อมูล scalar และ PMI ได้ครบถ้วน พร้อมแถบควบคุมการแสดงผล scalar แบบ interactive

    จุดเด่นของเวอร์ชัน PC คือการรองรับ GPU Ray-Tracing และ Path-Tracing ด้วยเทคโนโลยีของ Open CASCADE ซึ่งให้ภาพเรนเดอร์ที่สมจริงระดับ photorealistic เหมาะสำหรับการตรวจสอบงานออกแบบหรือใช้ในการนำเสนอแก่ลูกค้า

    นอกจากนี้ยังมี Material Editor ที่รองรับทั้ง Blinn-Phong และ PBR (metallic-roughness) ซึ่งช่วยให้ผู้ใช้สามารถแก้ไขวัสดุจาก Bill of Materials หรือสร้างวัสดุใหม่ได้อย่างง่ายดาย

    CAD Assistant ยังเหมาะกับการใช้งานในภาคอุตสาหกรรม เช่น ยานยนต์, อากาศยาน, การผลิต และการศึกษา โดยสามารถใช้ในการตรวจสอบหน้างาน, การฝึกอบรม หรือการทำงานร่วมกันระหว่างทีม

    CAD Assistant เดิมเป็นแอปมือถือจาก Open CASCADE
    ปรับใช้บน PC ผ่าน Android emulator เช่น NoxPlayer

    รองรับไฟล์ CAD หลากหลาย: STEP, IGES, BREP, DXF, SAT, XT
    รวมถึง mesh formats เช่น STL, OBJ, glTF, JT

    แสดงข้อมูล geometry, assembly, color, PMI และ scalar data
    พร้อมแถบควบคุม scalar แบบ interactive

    รองรับ GPU Ray-Tracing และ Path-Tracing บน PC
    ให้ภาพเรนเดอร์สมจริงระดับ photorealistic

    มี Material Editor รองรับ Blinn-Phong และ PBR
    แก้ไขวัสดุจาก BOM หรือสร้างใหม่ได้

    เหมาะกับภาคอุตสาหกรรมและการศึกษา
    ใช้ในการตรวจสอบ, ฝึกอบรม, และการนำเสนอ

    https://securityonline.info/cad-assistant-for-pc-professional-3d-cad-visualization-on-desktop/
    🧱 “CAD Assistant เวอร์ชัน PC — วิวัฒนาการใหม่ของการดูโมเดล 3D แบบมืออาชีพ” — เมื่อเครื่องมือจากมือถือถูกยกระดับสู่เดสก์ท็อป พร้อมเรนเดอร์ Ray-Tracing และ Path-Tracing เต็มรูปแบบ CAD Assistant ซึ่งเดิมเป็นแอปดูโมเดล 3D บนมือถือที่พัฒนาโดย Open CASCADE Technology ได้ถูกนำมาปรับใช้บนแพลตฟอร์ม PC โดยใช้ Android emulator อย่าง NoxPlayer เพื่อให้วิศวกรและนักออกแบบสามารถใช้งานได้บนหน้าจอใหญ่ พร้อมประสิทธิภาพที่สูงขึ้น ตัวแอปรองรับไฟล์ CAD หลากหลายรูปแบบ เช่น STEP, IGES, BREP, DXF, SAT, XT รวมถึงไฟล์ mesh อย่าง STL, OBJ, glTF และ JT โดยสามารถแสดงสี, texture, ข้อมูล scalar และ PMI ได้ครบถ้วน พร้อมแถบควบคุมการแสดงผล scalar แบบ interactive จุดเด่นของเวอร์ชัน PC คือการรองรับ GPU Ray-Tracing และ Path-Tracing ด้วยเทคโนโลยีของ Open CASCADE ซึ่งให้ภาพเรนเดอร์ที่สมจริงระดับ photorealistic เหมาะสำหรับการตรวจสอบงานออกแบบหรือใช้ในการนำเสนอแก่ลูกค้า นอกจากนี้ยังมี Material Editor ที่รองรับทั้ง Blinn-Phong และ PBR (metallic-roughness) ซึ่งช่วยให้ผู้ใช้สามารถแก้ไขวัสดุจาก Bill of Materials หรือสร้างวัสดุใหม่ได้อย่างง่ายดาย CAD Assistant ยังเหมาะกับการใช้งานในภาคอุตสาหกรรม เช่น ยานยนต์, อากาศยาน, การผลิต และการศึกษา โดยสามารถใช้ในการตรวจสอบหน้างาน, การฝึกอบรม หรือการทำงานร่วมกันระหว่างทีม ✅ CAD Assistant เดิมเป็นแอปมือถือจาก Open CASCADE ➡️ ปรับใช้บน PC ผ่าน Android emulator เช่น NoxPlayer ✅ รองรับไฟล์ CAD หลากหลาย: STEP, IGES, BREP, DXF, SAT, XT ➡️ รวมถึง mesh formats เช่น STL, OBJ, glTF, JT ✅ แสดงข้อมูล geometry, assembly, color, PMI และ scalar data ➡️ พร้อมแถบควบคุม scalar แบบ interactive ✅ รองรับ GPU Ray-Tracing และ Path-Tracing บน PC ➡️ ให้ภาพเรนเดอร์สมจริงระดับ photorealistic ✅ มี Material Editor รองรับ Blinn-Phong และ PBR ➡️ แก้ไขวัสดุจาก BOM หรือสร้างใหม่ได้ ✅ เหมาะกับภาคอุตสาหกรรมและการศึกษา ➡️ ใช้ในการตรวจสอบ, ฝึกอบรม, และการนำเสนอ https://securityonline.info/cad-assistant-for-pc-professional-3d-cad-visualization-on-desktop/
    SECURITYONLINE.INFO
    CAD Assistant for PC: Professional 3D CAD Visualization on Desktop
    CAD Assistant represents a sophisticated solution for professionals who demand reliable 3D model visualization capabilities. Originally developed as
    0 Comments 0 Shares 199 Views 0 Reviews
  • “Gemini 2.5 Computer Use — โมเดล AI ที่คลิก พิมพ์ และเลื่อนหน้าเว็บแทนคุณได้จริง เปิดประตูสู่ยุคผู้ช่วยดิจิทัลที่ลงมือทำ”

    Google DeepMind เปิดตัวโมเดลใหม่ “Gemini 2.5 Computer Use” ซึ่งเป็นเวอร์ชันเฉพาะทางของ Gemini 2.5 Pro ที่ออกแบบมาเพื่อให้ AI สามารถควบคุมอินเทอร์เฟซของเว็บไซต์และแอปได้โดยตรง ไม่ใช่แค่เข้าใจคำสั่งหรือภาพ แต่สามารถ “ลงมือทำ” ได้จริง เช่น คลิกปุ่ม พิมพ์ข้อความ เลื่อนหน้าเว็บ หรือกรอกแบบฟอร์ม — ทั้งหมดนี้จากคำสั่งเดียวของผู้ใช้

    โมเดลนี้เปิดให้ใช้งานผ่าน Gemini API บน Google AI Studio และ Vertex AI โดยใช้เครื่องมือใหม่ชื่อว่า computer_use ซึ่งทำงานในรูปแบบลูป: รับคำสั่ง → วิเคราะห์ภาพหน้าจอและประวัติการกระทำ → สร้างคำสั่ง UI → ส่งกลับไปยังระบบ → ถ่ายภาพหน้าจอใหม่ → ประเมินผล → ทำต่อหรือหยุด

    Gemini 2.5 Computer Use รองรับคำสั่ง UI 13 รูปแบบ เช่น คลิก พิมพ์ ลากวัตถุ เลื่อนหน้าเว็บ และจัดการ dropdown โดยสามารถทำงานหลังล็อกอินได้ด้วย ซึ่งถือเป็นก้าวสำคัญในการสร้าง “agent” ที่สามารถทำงานแทนมนุษย์ในระบบดิจิทัล

    ด้านความปลอดภัย Google ได้ฝังระบบตรวจสอบไว้ในตัวโมเดล เช่น per-step safety service ที่ตรวจสอบทุกคำสั่งก่อนรัน และ system instructions ที่ให้ผู้พัฒนากำหนดว่าต้องขออนุมัติก่อนทำงานที่มีความเสี่ยง เช่น การซื้อของหรือควบคุมอุปกรณ์ทางการแพทย์

    ทีมภายในของ Google ได้ใช้โมเดลนี้ในงานจริง เช่น Project Mariner, Firebase Testing Agent และ AI Mode ใน Search โดยช่วยลดเวลาในการทดสอบ UI และแก้ปัญหาการทำงานล้มเหลวได้ถึง 60% ในบางกรณี

    ข้อมูลสำคัญจากข่าว
    Gemini 2.5 Computer Use เป็นโมเดล AI ที่ควบคุม UI ได้โดยตรง
    ทำงานผ่าน Gemini API บน Google AI Studio และ Vertex AI
    ใช้เครื่องมือ computer_use ที่ทำงานแบบลูปต่อเนื่อง
    รองรับคำสั่ง UI 13 รูปแบบ เช่น คลิก พิมพ์ ลาก เลื่อน dropdown
    สามารถทำงานหลังล็อกอิน และจัดการฟอร์มได้เหมือนมนุษย์
    มีระบบ per-step safety service ตรวจสอบคำสั่งก่อนรัน
    ผู้พัฒนาสามารถตั้ง system instructions เพื่อป้องกันความเสี่ยง
    ใช้ในโปรเจกต์จริงของ Google เช่น Project Mariner และ Firebase Testing Agent
    ช่วยลดเวลาในการทดสอบ UI และเพิ่มความแม่นยำในการทำงาน
    เปิดให้ใช้งานแบบ public preview แล้ววันนี้

    ข้อมูลเสริมจากภายนอก
    Browserbase เป็นแพลตฟอร์มที่ใช้ทดสอบ Gemini 2.5 Computer Use แบบ headless browser
    โมเดลนี้ outperform คู่แข่งใน benchmark เช่น Online-Mind2Web และ AndroidWorld
    Claude Sonnet 4.5 และ ChatGPT Agent ก็มีฟีเจอร์ควบคุม UI แต่ยังไม่เน้นภาพหน้าจอ
    การควบคุม UI ด้วยภาพหน้าจอช่วยให้ AI ทำงานในระบบที่ไม่มี API ได้
    Gemini 2.5 Computer Use ใช้ Gemini Pro เป็นฐาน โดยเสริมความเข้าใจภาพและตรรกะ

    คำเตือนและข้อจำกัด
    ยังไม่รองรับการควบคุมระบบปฏิบัติการแบบเต็ม เช่น Windows หรือ macOS
    การทำงานผ่านภาพหน้าจออาจมีข้อจำกัดในแอปที่เปลี่ยน UI แบบไดนามิก
    หากไม่มีการตั้งค่าความปลอดภัย อาจเกิดการคลิกผิดหรือกรอกข้อมูลผิด
    การใช้งานในระบบที่มีข้อมูลอ่อนไหวต้องมีการยืนยันจากผู้ใช้ก่อนเสมอ
    ผู้พัฒนาต้องทดสอบระบบอย่างละเอียดก่อนนำไปใช้จริงในองค์กร

    https://blog.google/technology/google-deepmind/gemini-computer-use-model/
    🖱️ “Gemini 2.5 Computer Use — โมเดล AI ที่คลิก พิมพ์ และเลื่อนหน้าเว็บแทนคุณได้จริง เปิดประตูสู่ยุคผู้ช่วยดิจิทัลที่ลงมือทำ” Google DeepMind เปิดตัวโมเดลใหม่ “Gemini 2.5 Computer Use” ซึ่งเป็นเวอร์ชันเฉพาะทางของ Gemini 2.5 Pro ที่ออกแบบมาเพื่อให้ AI สามารถควบคุมอินเทอร์เฟซของเว็บไซต์และแอปได้โดยตรง ไม่ใช่แค่เข้าใจคำสั่งหรือภาพ แต่สามารถ “ลงมือทำ” ได้จริง เช่น คลิกปุ่ม พิมพ์ข้อความ เลื่อนหน้าเว็บ หรือกรอกแบบฟอร์ม — ทั้งหมดนี้จากคำสั่งเดียวของผู้ใช้ โมเดลนี้เปิดให้ใช้งานผ่าน Gemini API บน Google AI Studio และ Vertex AI โดยใช้เครื่องมือใหม่ชื่อว่า computer_use ซึ่งทำงานในรูปแบบลูป: รับคำสั่ง → วิเคราะห์ภาพหน้าจอและประวัติการกระทำ → สร้างคำสั่ง UI → ส่งกลับไปยังระบบ → ถ่ายภาพหน้าจอใหม่ → ประเมินผล → ทำต่อหรือหยุด Gemini 2.5 Computer Use รองรับคำสั่ง UI 13 รูปแบบ เช่น คลิก พิมพ์ ลากวัตถุ เลื่อนหน้าเว็บ และจัดการ dropdown โดยสามารถทำงานหลังล็อกอินได้ด้วย ซึ่งถือเป็นก้าวสำคัญในการสร้าง “agent” ที่สามารถทำงานแทนมนุษย์ในระบบดิจิทัล ด้านความปลอดภัย Google ได้ฝังระบบตรวจสอบไว้ในตัวโมเดล เช่น per-step safety service ที่ตรวจสอบทุกคำสั่งก่อนรัน และ system instructions ที่ให้ผู้พัฒนากำหนดว่าต้องขออนุมัติก่อนทำงานที่มีความเสี่ยง เช่น การซื้อของหรือควบคุมอุปกรณ์ทางการแพทย์ ทีมภายในของ Google ได้ใช้โมเดลนี้ในงานจริง เช่น Project Mariner, Firebase Testing Agent และ AI Mode ใน Search โดยช่วยลดเวลาในการทดสอบ UI และแก้ปัญหาการทำงานล้มเหลวได้ถึง 60% ในบางกรณี ✅ ข้อมูลสำคัญจากข่าว ➡️ Gemini 2.5 Computer Use เป็นโมเดล AI ที่ควบคุม UI ได้โดยตรง ➡️ ทำงานผ่าน Gemini API บน Google AI Studio และ Vertex AI ➡️ ใช้เครื่องมือ computer_use ที่ทำงานแบบลูปต่อเนื่อง ➡️ รองรับคำสั่ง UI 13 รูปแบบ เช่น คลิก พิมพ์ ลาก เลื่อน dropdown ➡️ สามารถทำงานหลังล็อกอิน และจัดการฟอร์มได้เหมือนมนุษย์ ➡️ มีระบบ per-step safety service ตรวจสอบคำสั่งก่อนรัน ➡️ ผู้พัฒนาสามารถตั้ง system instructions เพื่อป้องกันความเสี่ยง ➡️ ใช้ในโปรเจกต์จริงของ Google เช่น Project Mariner และ Firebase Testing Agent ➡️ ช่วยลดเวลาในการทดสอบ UI และเพิ่มความแม่นยำในการทำงาน ➡️ เปิดให้ใช้งานแบบ public preview แล้ววันนี้ ✅ ข้อมูลเสริมจากภายนอก ➡️ Browserbase เป็นแพลตฟอร์มที่ใช้ทดสอบ Gemini 2.5 Computer Use แบบ headless browser ➡️ โมเดลนี้ outperform คู่แข่งใน benchmark เช่น Online-Mind2Web และ AndroidWorld ➡️ Claude Sonnet 4.5 และ ChatGPT Agent ก็มีฟีเจอร์ควบคุม UI แต่ยังไม่เน้นภาพหน้าจอ ➡️ การควบคุม UI ด้วยภาพหน้าจอช่วยให้ AI ทำงานในระบบที่ไม่มี API ได้ ➡️ Gemini 2.5 Computer Use ใช้ Gemini Pro เป็นฐาน โดยเสริมความเข้าใจภาพและตรรกะ ‼️ คำเตือนและข้อจำกัด ⛔ ยังไม่รองรับการควบคุมระบบปฏิบัติการแบบเต็ม เช่น Windows หรือ macOS ⛔ การทำงานผ่านภาพหน้าจออาจมีข้อจำกัดในแอปที่เปลี่ยน UI แบบไดนามิก ⛔ หากไม่มีการตั้งค่าความปลอดภัย อาจเกิดการคลิกผิดหรือกรอกข้อมูลผิด ⛔ การใช้งานในระบบที่มีข้อมูลอ่อนไหวต้องมีการยืนยันจากผู้ใช้ก่อนเสมอ ⛔ ผู้พัฒนาต้องทดสอบระบบอย่างละเอียดก่อนนำไปใช้จริงในองค์กร https://blog.google/technology/google-deepmind/gemini-computer-use-model/
    BLOG.GOOGLE
    Introducing the Gemini 2.5 Computer Use model
    Today we are releasing the Gemini 2.5 Computer Use model via the API, which outperforms leading alternatives at browser and mobile tasks.
    0 Comments 0 Shares 310 Views 0 Reviews
  • “CodeMender จาก DeepMind — AI ผู้พิทักษ์โค้ดที่ตรวจจับและซ่อมช่องโหว่ก่อนถูกโจมตี”

    Google DeepMind เปิดตัว CodeMender เครื่องมือ AI ใหม่ที่ออกแบบมาเพื่อค้นหาและแก้ไขช่องโหว่ในซอฟต์แวร์แบบอัตโนมัติ โดยเฉพาะในโครงการโอเพ่นซอร์สที่มีขนาดใหญ่และซับซ้อน จุดเด่นของ CodeMender คือความสามารถในการทำงานเชิงรุกและเชิงรับ — ทั้งการแก้ไขช่องโหว่ที่พบ และการเขียนโค้ดใหม่เพื่อป้องกันช่องโหว่ในอนาคต

    CodeMender ใช้โมเดล Gemini Deep Think ร่วมกับเครื่องมือวิเคราะห์โค้ดหลายประเภท เช่น static analysis, dynamic analysis, fuzzing, differential testing และ SMT solvers เพื่อระบุสาเหตุของช่องโหว่และสร้าง patch ที่ผ่านการตรวจสอบหลายขั้นตอน ก่อนจะส่งให้มนุษย์ตรวจสอบอีกครั้ง

    ในช่วง 6 เดือนแรกของการใช้งาน CodeMender ได้ส่ง patch ความปลอดภัยจำนวน 72 รายการไปยังโครงการโอเพ่นซอร์ส รวมถึงโค้ดที่มีมากกว่า 4.5 ล้านบรรทัด หนึ่งในตัวอย่างคือการเพิ่ม annotation “-fbounds-safety” ให้กับไลบรารี libwebp ซึ่งเคยถูกใช้โจมตีแบบ zero-click บน iOS ในปี 2023

    DeepMind ย้ำว่า CodeMender ไม่ได้มาแทนที่นักพัฒนา แต่เป็นผู้ช่วยที่สามารถลดภาระงานด้านความปลอดภัย โดยระบบจะตรวจสอบ patch ด้วยตัวเองก่อนส่งให้มนุษย์ และสามารถแก้ไขตัวเองได้หากพบข้อผิดพลาดระหว่างการตรวจสอบ

    การเปิดตัว CodeMender ยังมาพร้อมกับการอัปเดต Secure AI Framework เป็นเวอร์ชัน 2.0 และการเปิดตัว AI Vulnerability Reward Program เพื่อส่งเสริมการรายงานช่องโหว่ในระบบ AI โดยมีการจ่ายเงินรางวัลรวมแล้วกว่า $430,000

    ข้อมูลสำคัญจากข่าว
    DeepMind เปิดตัว CodeMender เครื่องมือ AI สำหรับตรวจจับและแก้ไขช่องโหว่ในซอฟต์แวร์
    ใช้ Gemini Deep Think ร่วมกับ static/dynamic analysis, fuzzing และ SMT solvers
    ทำงานแบบ proactive และ reactive — ทั้งแก้ไขและป้องกันช่องโหว่
    ส่ง patch แล้ว 72 รายการในช่วง 6 เดือนแรก รวมถึงโค้ดขนาด 4.5 ล้านบรรทัด
    ตัวอย่างการใช้งานคือการเพิ่ม “-fbounds-safety” ใน libwebp เพื่อป้องกัน buffer overflow
    ระบบตรวจสอบ patch ด้วยตัวเองก่อนส่งให้มนุษย์ตรวจสอบ
    สามารถแก้ไขตัวเองได้หากพบข้อผิดพลาดระหว่างการตรวจสอบ
    เปิดตัวควบคู่กับ Secure AI Framework 2.0 และ AI Vulnerability Reward Program
    มีการจ่ายเงินรางวัลรวมกว่า $430,000 สำหรับการรายงานช่องโหว่ AI
    DeepMind ย้ำว่า CodeMender เป็นผู้ช่วย ไม่ใช่ตัวแทนของนักพัฒนา

    ข้อมูลเสริมจากภายนอก
    Gemini Deep Think เป็นโมเดลที่เน้นการวางแผนและการให้เหตุผลเชิงลึก
    SMT solvers ใช้ในการตรวจสอบความถูกต้องเชิงตรรกะของโค้ด
    libwebp เคยถูกใช้โจมตีใน CVE-2023-4863 ซึ่งเป็นช่องโหว่ zero-click บน iOS
    differential testing ช่วยเปรียบเทียบผลลัพธ์ก่อนและหลังการแก้ไขเพื่อหาข้อผิดพลาด
    Secure AI Framework 2.0 เน้นการควบคุม agentic systems ให้ปลอดภัยและตรวจสอบได้

    https://www.techradar.com/pro/security/deepminds-latest-ai-tool-wants-to-detect-and-repair-software-vulnerabilities-before-they-get-attacked
    🛡️ “CodeMender จาก DeepMind — AI ผู้พิทักษ์โค้ดที่ตรวจจับและซ่อมช่องโหว่ก่อนถูกโจมตี” Google DeepMind เปิดตัว CodeMender เครื่องมือ AI ใหม่ที่ออกแบบมาเพื่อค้นหาและแก้ไขช่องโหว่ในซอฟต์แวร์แบบอัตโนมัติ โดยเฉพาะในโครงการโอเพ่นซอร์สที่มีขนาดใหญ่และซับซ้อน จุดเด่นของ CodeMender คือความสามารถในการทำงานเชิงรุกและเชิงรับ — ทั้งการแก้ไขช่องโหว่ที่พบ และการเขียนโค้ดใหม่เพื่อป้องกันช่องโหว่ในอนาคต CodeMender ใช้โมเดล Gemini Deep Think ร่วมกับเครื่องมือวิเคราะห์โค้ดหลายประเภท เช่น static analysis, dynamic analysis, fuzzing, differential testing และ SMT solvers เพื่อระบุสาเหตุของช่องโหว่และสร้าง patch ที่ผ่านการตรวจสอบหลายขั้นตอน ก่อนจะส่งให้มนุษย์ตรวจสอบอีกครั้ง ในช่วง 6 เดือนแรกของการใช้งาน CodeMender ได้ส่ง patch ความปลอดภัยจำนวน 72 รายการไปยังโครงการโอเพ่นซอร์ส รวมถึงโค้ดที่มีมากกว่า 4.5 ล้านบรรทัด หนึ่งในตัวอย่างคือการเพิ่ม annotation “-fbounds-safety” ให้กับไลบรารี libwebp ซึ่งเคยถูกใช้โจมตีแบบ zero-click บน iOS ในปี 2023 DeepMind ย้ำว่า CodeMender ไม่ได้มาแทนที่นักพัฒนา แต่เป็นผู้ช่วยที่สามารถลดภาระงานด้านความปลอดภัย โดยระบบจะตรวจสอบ patch ด้วยตัวเองก่อนส่งให้มนุษย์ และสามารถแก้ไขตัวเองได้หากพบข้อผิดพลาดระหว่างการตรวจสอบ การเปิดตัว CodeMender ยังมาพร้อมกับการอัปเดต Secure AI Framework เป็นเวอร์ชัน 2.0 และการเปิดตัว AI Vulnerability Reward Program เพื่อส่งเสริมการรายงานช่องโหว่ในระบบ AI โดยมีการจ่ายเงินรางวัลรวมแล้วกว่า $430,000 ✅ ข้อมูลสำคัญจากข่าว ➡️ DeepMind เปิดตัว CodeMender เครื่องมือ AI สำหรับตรวจจับและแก้ไขช่องโหว่ในซอฟต์แวร์ ➡️ ใช้ Gemini Deep Think ร่วมกับ static/dynamic analysis, fuzzing และ SMT solvers ➡️ ทำงานแบบ proactive และ reactive — ทั้งแก้ไขและป้องกันช่องโหว่ ➡️ ส่ง patch แล้ว 72 รายการในช่วง 6 เดือนแรก รวมถึงโค้ดขนาด 4.5 ล้านบรรทัด ➡️ ตัวอย่างการใช้งานคือการเพิ่ม “-fbounds-safety” ใน libwebp เพื่อป้องกัน buffer overflow ➡️ ระบบตรวจสอบ patch ด้วยตัวเองก่อนส่งให้มนุษย์ตรวจสอบ ➡️ สามารถแก้ไขตัวเองได้หากพบข้อผิดพลาดระหว่างการตรวจสอบ ➡️ เปิดตัวควบคู่กับ Secure AI Framework 2.0 และ AI Vulnerability Reward Program ➡️ มีการจ่ายเงินรางวัลรวมกว่า $430,000 สำหรับการรายงานช่องโหว่ AI ➡️ DeepMind ย้ำว่า CodeMender เป็นผู้ช่วย ไม่ใช่ตัวแทนของนักพัฒนา ✅ ข้อมูลเสริมจากภายนอก ➡️ Gemini Deep Think เป็นโมเดลที่เน้นการวางแผนและการให้เหตุผลเชิงลึก ➡️ SMT solvers ใช้ในการตรวจสอบความถูกต้องเชิงตรรกะของโค้ด ➡️ libwebp เคยถูกใช้โจมตีใน CVE-2023-4863 ซึ่งเป็นช่องโหว่ zero-click บน iOS ➡️ differential testing ช่วยเปรียบเทียบผลลัพธ์ก่อนและหลังการแก้ไขเพื่อหาข้อผิดพลาด ➡️ Secure AI Framework 2.0 เน้นการควบคุม agentic systems ให้ปลอดภัยและตรวจสอบได้ https://www.techradar.com/pro/security/deepminds-latest-ai-tool-wants-to-detect-and-repair-software-vulnerabilities-before-they-get-attacked
    WWW.TECHRADAR.COM
    DeepMind’s CodeMender uses AI to fix software flaws
    CodeMender can even loop in humans to check its work
    0 Comments 0 Shares 303 Views 0 Reviews
  • “StreetViewAI จาก Google ใช้ AI สนทนาเพื่อช่วยผู้พิการทางสายตาเดินทางผ่านภาพถนน — เมื่อการสำรวจโลกไม่ต้องพึ่งสายตาอีกต่อไป”

    Google Research และ DeepMind ได้เปิดตัวระบบใหม่ชื่อว่า “StreetViewAI” ที่ออกแบบมาเพื่อแก้ปัญหาการพึ่งพาภาพในการใช้งาน Street View ซึ่งเป็นอุปสรรคสำคัญสำหรับผู้พิการทางสายตา โดยระบบนี้ใช้โมเดลมัลติโหมด Gemini Flash 2.0 เพื่อให้ผู้ใช้สามารถสำรวจภาพถนนกว่า 220 พันล้านภาพจากกว่า 100 ประเทศผ่านการสนทนาแบบธรรมชาติ

    StreetViewAI ประกอบด้วย 3 ระบบหลัก ได้แก่

    AI Describer: บรรยายสิ่งของ ความสัมพันธ์เชิงพื้นที่ และคำแนะนำการเดินทางแบบเรียลไทม์
    AI Chat Agent: ให้ผู้ใช้ถามคำถามเชิงสถานการณ์ เช่น “ทางเดินมีร่มเงาไหม” หรือ “ทางเข้าร้านกาแฟใช้วีลแชร์ได้หรือเปล่า” แล้ว AI ตอบจากภาพก่อนหน้าและบริบทการสนทนา
    AI Tour Guide: เพิ่มข้อมูลเชิงประวัติศาสตร์ วัฒนธรรม และสถาปัตยกรรมให้การสำรวจกลายเป็นการเรียนรู้

    ในการทดสอบจริง มีผู้พิการทางสายตา 11 คนเข้าร่วม โดยใช้ไม้เท้าและ screen reader เป็นประจำ พบว่าผู้ใช้สนทนากับ AI Chat Agent ถึง 917 ครั้ง เทียบกับ 136 ครั้งกับ AI Describer ซึ่งแสดงให้เห็นว่าการสนทนาเป็นวิธีที่เข้าถึงง่ายและเป็นธรรมชาติที่สุด

    ระบบสามารถตอบคำถามได้ถูกต้องถึง 86.3% โดยคำถามส่วนใหญ่เกี่ยวกับความสัมพันธ์เชิงพื้นที่ (27%), การตรวจสอบวัตถุ (26.5%) และการบรรยายภาพแบบเรียลไทม์ (18.4%) ผู้ใช้กว่า 90% เลือกใช้คำสั่งเสียงในการโต้ตอบ

    ผู้ทดสอบหลายคนกล่าวว่า StreetViewAI ไม่เพียงนำทางถึงจุดหมาย แต่ยังบรรยายลักษณะของสถานที่นั้น เช่น สีของประตูหรือความสูงของบันได ซึ่งเป็นสิ่งที่ระบบนำทางทั่วไปไม่สามารถทำได้

    Google มองว่า StreetViewAI เป็นก้าวสำคัญของ AI ที่ไม่ใช่แค่เพื่อความบันเทิงหรือผลิตภาพ แต่เพื่อการเข้าถึงอย่างเท่าเทียม และอาจขยายไปสู่การใช้งานในด้านการศึกษา การท่องเที่ยว และระบบเมืองอัจฉริยะในอนาคต

    ข้อมูลสำคัญจากข่าว
    StreetViewAI ใช้โมเดล Gemini Flash 2.0 เพื่อช่วยผู้พิการทางสายตาใช้งาน Street View
    ครอบคลุมภาพถนนกว่า 220 พันล้านภาพจากกว่า 100 ประเทศ
    มี 3 ระบบหลัก: AI Describer, AI Chat Agent, AI Tour Guide
    AI Describer ให้คำบรรยายภาพแบบเรียลไทม์
    AI Chat Agent ตอบคำถามเชิงสถานการณ์จากภาพและบริบท
    AI Tour Guide ให้ข้อมูลเชิงวัฒนธรรมและประวัติศาสตร์
    ผู้ใช้โต้ตอบกับ AI Chat Agent มากกว่าระบบอื่นถึง 917 ครั้ง
    ความแม่นยำของ AI อยู่ที่ 86.3% โดยมีข้อผิดพลาดเพียง 3.9%
    คำถามส่วนใหญ่เกี่ยวกับพื้นที่ วัตถุ และการบรรยายภาพ
    ผู้ใช้กว่า 90% เลือกใช้คำสั่งเสียงในการโต้ตอบ
    StreetViewAI บรรยายลักษณะของสถานที่ได้ละเอียดกว่าระบบนำทางทั่วไป

    ข้อมูลเสริมจากภายนอก
    Gemini Flash 2.0 เป็นโมเดลมัลติโหมดที่รองรับภาพ เสียง และข้อความในบริบทเดียวกัน
    การใช้ AI ในการนำทางช่วยลดการพึ่งพาอุปกรณ์เสริม เช่น GPS หรือแอปแผนที่
    การบรรยายภาพแบบ contextual ช่วยให้ผู้พิการทางสายตาเข้าใจสภาพแวดล้อมได้ดีขึ้น
    StreetViewAI อาจนำไปใช้ในระบบเมืองอัจฉริยะ เช่น ป้ายบอกทางเสียงหรือแผนที่แบบสัมผัส
    การใช้ AI เพื่อการเข้าถึงเป็นแนวทางใหม่ที่กำลังเติบโตในวงการเทคโนโลยี

    https://securityonline.info/streetviewai-googles-multimodal-ai-brings-conversational-street-view-navigation-to-the-visually-impaired/
    🗺️ “StreetViewAI จาก Google ใช้ AI สนทนาเพื่อช่วยผู้พิการทางสายตาเดินทางผ่านภาพถนน — เมื่อการสำรวจโลกไม่ต้องพึ่งสายตาอีกต่อไป” Google Research และ DeepMind ได้เปิดตัวระบบใหม่ชื่อว่า “StreetViewAI” ที่ออกแบบมาเพื่อแก้ปัญหาการพึ่งพาภาพในการใช้งาน Street View ซึ่งเป็นอุปสรรคสำคัญสำหรับผู้พิการทางสายตา โดยระบบนี้ใช้โมเดลมัลติโหมด Gemini Flash 2.0 เพื่อให้ผู้ใช้สามารถสำรวจภาพถนนกว่า 220 พันล้านภาพจากกว่า 100 ประเทศผ่านการสนทนาแบบธรรมชาติ StreetViewAI ประกอบด้วย 3 ระบบหลัก ได้แก่ 🔰 AI Describer: บรรยายสิ่งของ ความสัมพันธ์เชิงพื้นที่ และคำแนะนำการเดินทางแบบเรียลไทม์ 🔰 AI Chat Agent: ให้ผู้ใช้ถามคำถามเชิงสถานการณ์ เช่น “ทางเดินมีร่มเงาไหม” หรือ “ทางเข้าร้านกาแฟใช้วีลแชร์ได้หรือเปล่า” แล้ว AI ตอบจากภาพก่อนหน้าและบริบทการสนทนา 🔰 AI Tour Guide: เพิ่มข้อมูลเชิงประวัติศาสตร์ วัฒนธรรม และสถาปัตยกรรมให้การสำรวจกลายเป็นการเรียนรู้ ในการทดสอบจริง มีผู้พิการทางสายตา 11 คนเข้าร่วม โดยใช้ไม้เท้าและ screen reader เป็นประจำ พบว่าผู้ใช้สนทนากับ AI Chat Agent ถึง 917 ครั้ง เทียบกับ 136 ครั้งกับ AI Describer ซึ่งแสดงให้เห็นว่าการสนทนาเป็นวิธีที่เข้าถึงง่ายและเป็นธรรมชาติที่สุด ระบบสามารถตอบคำถามได้ถูกต้องถึง 86.3% โดยคำถามส่วนใหญ่เกี่ยวกับความสัมพันธ์เชิงพื้นที่ (27%), การตรวจสอบวัตถุ (26.5%) และการบรรยายภาพแบบเรียลไทม์ (18.4%) ผู้ใช้กว่า 90% เลือกใช้คำสั่งเสียงในการโต้ตอบ ผู้ทดสอบหลายคนกล่าวว่า StreetViewAI ไม่เพียงนำทางถึงจุดหมาย แต่ยังบรรยายลักษณะของสถานที่นั้น เช่น สีของประตูหรือความสูงของบันได ซึ่งเป็นสิ่งที่ระบบนำทางทั่วไปไม่สามารถทำได้ Google มองว่า StreetViewAI เป็นก้าวสำคัญของ AI ที่ไม่ใช่แค่เพื่อความบันเทิงหรือผลิตภาพ แต่เพื่อการเข้าถึงอย่างเท่าเทียม และอาจขยายไปสู่การใช้งานในด้านการศึกษา การท่องเที่ยว และระบบเมืองอัจฉริยะในอนาคต ✅ ข้อมูลสำคัญจากข่าว ➡️ StreetViewAI ใช้โมเดล Gemini Flash 2.0 เพื่อช่วยผู้พิการทางสายตาใช้งาน Street View ➡️ ครอบคลุมภาพถนนกว่า 220 พันล้านภาพจากกว่า 100 ประเทศ ➡️ มี 3 ระบบหลัก: AI Describer, AI Chat Agent, AI Tour Guide ➡️ AI Describer ให้คำบรรยายภาพแบบเรียลไทม์ ➡️ AI Chat Agent ตอบคำถามเชิงสถานการณ์จากภาพและบริบท ➡️ AI Tour Guide ให้ข้อมูลเชิงวัฒนธรรมและประวัติศาสตร์ ➡️ ผู้ใช้โต้ตอบกับ AI Chat Agent มากกว่าระบบอื่นถึง 917 ครั้ง ➡️ ความแม่นยำของ AI อยู่ที่ 86.3% โดยมีข้อผิดพลาดเพียง 3.9% ➡️ คำถามส่วนใหญ่เกี่ยวกับพื้นที่ วัตถุ และการบรรยายภาพ ➡️ ผู้ใช้กว่า 90% เลือกใช้คำสั่งเสียงในการโต้ตอบ ➡️ StreetViewAI บรรยายลักษณะของสถานที่ได้ละเอียดกว่าระบบนำทางทั่วไป ✅ ข้อมูลเสริมจากภายนอก ➡️ Gemini Flash 2.0 เป็นโมเดลมัลติโหมดที่รองรับภาพ เสียง และข้อความในบริบทเดียวกัน ➡️ การใช้ AI ในการนำทางช่วยลดการพึ่งพาอุปกรณ์เสริม เช่น GPS หรือแอปแผนที่ ➡️ การบรรยายภาพแบบ contextual ช่วยให้ผู้พิการทางสายตาเข้าใจสภาพแวดล้อมได้ดีขึ้น ➡️ StreetViewAI อาจนำไปใช้ในระบบเมืองอัจฉริยะ เช่น ป้ายบอกทางเสียงหรือแผนที่แบบสัมผัส ➡️ การใช้ AI เพื่อการเข้าถึงเป็นแนวทางใหม่ที่กำลังเติบโตในวงการเทคโนโลยี https://securityonline.info/streetviewai-googles-multimodal-ai-brings-conversational-street-view-navigation-to-the-visually-impaired/
    SECURITYONLINE.INFO
    StreetViewAI: Google's Multimodal AI Brings Conversational Street View Navigation to the Visually Impaired
    Google unveiled StreetViewAI, an AI system using Gemini Flash 2.0 to provide visually impaired users with conversational, real-time descriptions and navigational cues for Street View images.
    0 Comments 0 Shares 426 Views 0 Reviews
  • “Google Gemini vs ChatGPT: ศึก AI ระดับพรีเมียม ใครคุ้มค่ากว่ากันในปี 2025?”

    ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของผู้คนทั่วโลก Google Gemini และ ChatGPT คือสองแพลตฟอร์มที่แข่งขันกันอย่างดุเดือด ทั้งในด้านความสามารถและราคาค่าบริการ โดยแต่ละเจ้ามีจุดแข็งที่แตกต่างกัน — ChatGPT เด่นด้านตรรกะและการให้เหตุผล ส่วน Gemini เหนือกว่าด้านการจัดการข้อมูลที่ซับซ้อนและการค้นหาข้อมูลแบบเรียลไทม์

    หากมองในแง่ของราคาสำหรับผู้ใช้ทั่วไป Gemini Pro เริ่มต้นที่ $19.99/เดือน ส่วน ChatGPT Plus อยู่ที่ $20/เดือน ซึ่งแทบไม่ต่างกันเลย แต่เมื่อขยับไปยังระดับสูง Gemini Ultra อยู่ที่ $249.99/เดือน ขณะที่ ChatGPT Pro อยู่ที่ $200/เดือน ทำให้ Gemini แพงกว่าถึง $49.99

    Gemini Ultra มาพร้อมฟีเจอร์พิเศษ เช่น Gemini 2.5 Deep Think สำหรับงาน reasoning ขั้นสูง และ Project Mariner ที่สามารถทำงานหลายอย่างพร้อมกันได้ นอกจากนี้ยังรวม YouTube Premium และพื้นที่เก็บข้อมูล 30TB บน Google Drive, Photos และ Gmail

    ด้าน ChatGPT Pro แม้ราคาถูกกว่า แต่ก็ให้สิทธิ์เข้าถึง GPT-5 Pro ซึ่งเป็นโมเดลที่แม่นยำและลดข้อผิดพลาดได้มากกว่า GPT-5 รุ่นฟรี พร้อมใช้งานได้ไม่จำกัด และสามารถแชร์ GPTs กับทีมงานได้ ซึ่ง Plus ไม่สามารถทำได้

    สำหรับผู้ใช้เชิงธุรกิจ ChatGPT ยังมีแผน Business ($30/ผู้ใช้) และ Enterprise (ราคาตามตกลง) ที่ให้สิทธิ์ใช้งานโมเดลพิเศษ OpenAI o3 Pro และฟีเจอร์เชิงลึก เช่น deep research, voice agent และ Codex preview

    ข้อมูลสำคัญจากข่าว
    Gemini Pro ราคา $19.99/เดือน ส่วน ChatGPT Plus ราคา $20/เดือน
    Gemini Ultra ราคา $249.99/เดือน ขณะที่ ChatGPT Pro อยู่ที่ $200/เดือน
    Gemini Ultra มีฟีเจอร์พิเศษ เช่น Deep Think, Project Mariner และ YouTube Premium
    Gemini Ultra ให้พื้นที่เก็บข้อมูล 30TB ส่วน Pro ให้ 2TB
    ChatGPT Pro เข้าถึง GPT-5 Pro ได้แบบไม่จำกัด
    ChatGPT Pro สามารถแชร์ GPTs กับ workspace ได้
    ChatGPT Business และ Enterprise มีฟีเจอร์เพิ่มเติม เช่น deep research และ voice agent
    Gemini ใช้ AI credits สำหรับบริการเสริม เช่น Flow และ Whisk
    Gemini มีข้อจำกัดในการใช้งานใน Google Workspace บางส่วน

    ข้อมูลเสริมจากภายนอก
    Gemini พัฒนาโดย Google DeepMind และมีการรีแบรนด์จาก Bard
    Gemini สามารถค้นหาข้อมูลแบบเรียลไทม์ผ่าน Google Search ได้
    ChatGPT มีระบบปลั๊กอินและ GPTs ที่สามารถปรับแต่งได้ตามผู้ใช้
    GPT-5 Pro มีความแม่นยำสูงกว่า GPT-5 รุ่นฟรี และลดข้อผิดพลาดได้ดี
    Gemini Ultra เหมาะกับผู้ใช้ที่ต้องการพื้นที่เก็บข้อมูลขนาดใหญ่และฟีเจอร์หลายด้านในระบบ Google

    https://www.slashgear.com/1980135/google-gemini-vs-chatgpt-price-difference/
    🤖 “Google Gemini vs ChatGPT: ศึก AI ระดับพรีเมียม ใครคุ้มค่ากว่ากันในปี 2025?” ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของผู้คนทั่วโลก Google Gemini และ ChatGPT คือสองแพลตฟอร์มที่แข่งขันกันอย่างดุเดือด ทั้งในด้านความสามารถและราคาค่าบริการ โดยแต่ละเจ้ามีจุดแข็งที่แตกต่างกัน — ChatGPT เด่นด้านตรรกะและการให้เหตุผล ส่วน Gemini เหนือกว่าด้านการจัดการข้อมูลที่ซับซ้อนและการค้นหาข้อมูลแบบเรียลไทม์ หากมองในแง่ของราคาสำหรับผู้ใช้ทั่วไป Gemini Pro เริ่มต้นที่ $19.99/เดือน ส่วน ChatGPT Plus อยู่ที่ $20/เดือน ซึ่งแทบไม่ต่างกันเลย แต่เมื่อขยับไปยังระดับสูง Gemini Ultra อยู่ที่ $249.99/เดือน ขณะที่ ChatGPT Pro อยู่ที่ $200/เดือน ทำให้ Gemini แพงกว่าถึง $49.99 Gemini Ultra มาพร้อมฟีเจอร์พิเศษ เช่น Gemini 2.5 Deep Think สำหรับงาน reasoning ขั้นสูง และ Project Mariner ที่สามารถทำงานหลายอย่างพร้อมกันได้ นอกจากนี้ยังรวม YouTube Premium และพื้นที่เก็บข้อมูล 30TB บน Google Drive, Photos และ Gmail ด้าน ChatGPT Pro แม้ราคาถูกกว่า แต่ก็ให้สิทธิ์เข้าถึง GPT-5 Pro ซึ่งเป็นโมเดลที่แม่นยำและลดข้อผิดพลาดได้มากกว่า GPT-5 รุ่นฟรี พร้อมใช้งานได้ไม่จำกัด และสามารถแชร์ GPTs กับทีมงานได้ ซึ่ง Plus ไม่สามารถทำได้ สำหรับผู้ใช้เชิงธุรกิจ ChatGPT ยังมีแผน Business ($30/ผู้ใช้) และ Enterprise (ราคาตามตกลง) ที่ให้สิทธิ์ใช้งานโมเดลพิเศษ OpenAI o3 Pro และฟีเจอร์เชิงลึก เช่น deep research, voice agent และ Codex preview ✅ ข้อมูลสำคัญจากข่าว ➡️ Gemini Pro ราคา $19.99/เดือน ส่วน ChatGPT Plus ราคา $20/เดือน ➡️ Gemini Ultra ราคา $249.99/เดือน ขณะที่ ChatGPT Pro อยู่ที่ $200/เดือน ➡️ Gemini Ultra มีฟีเจอร์พิเศษ เช่น Deep Think, Project Mariner และ YouTube Premium ➡️ Gemini Ultra ให้พื้นที่เก็บข้อมูล 30TB ส่วน Pro ให้ 2TB ➡️ ChatGPT Pro เข้าถึง GPT-5 Pro ได้แบบไม่จำกัด ➡️ ChatGPT Pro สามารถแชร์ GPTs กับ workspace ได้ ➡️ ChatGPT Business และ Enterprise มีฟีเจอร์เพิ่มเติม เช่น deep research และ voice agent ➡️ Gemini ใช้ AI credits สำหรับบริการเสริม เช่น Flow และ Whisk ➡️ Gemini มีข้อจำกัดในการใช้งานใน Google Workspace บางส่วน ✅ ข้อมูลเสริมจากภายนอก ➡️ Gemini พัฒนาโดย Google DeepMind และมีการรีแบรนด์จาก Bard ➡️ Gemini สามารถค้นหาข้อมูลแบบเรียลไทม์ผ่าน Google Search ได้ ➡️ ChatGPT มีระบบปลั๊กอินและ GPTs ที่สามารถปรับแต่งได้ตามผู้ใช้ ➡️ GPT-5 Pro มีความแม่นยำสูงกว่า GPT-5 รุ่นฟรี และลดข้อผิดพลาดได้ดี ➡️ Gemini Ultra เหมาะกับผู้ใช้ที่ต้องการพื้นที่เก็บข้อมูลขนาดใหญ่และฟีเจอร์หลายด้านในระบบ Google https://www.slashgear.com/1980135/google-gemini-vs-chatgpt-price-difference/
    WWW.SLASHGEAR.COM
    Google Gemini And ChatGPT Price Differences - Here's How Much They Cost - SlashGear
    Gemini costs $19.99/month for the AI Pro plan, while ChatGPT Plus runs $20/month. There are more tiers and plans available for both depending on the usage.
    0 Comments 0 Shares 306 Views 0 Reviews
  • ลูกครึ่ง หรือ นกสองหัว ตอนที่ 6 – จมูกคนอื่น
    นิทานเรื่องจริง เรื่อง “ลูกครึ่ง หรือ นกสองหัว”
    ตอนที่ 6 “จมูกคนอื่น”
    เมื่อตุรกีออกประกาศเชิญชวนให้บรรดา พวกนักสร้างระบบเครื่องมือรบ ให้มายื่นประมูลเครื่องมือป้องกันตนเอง ที่เรียกว่า Long Range Air and Missle Defense System ใครจะยิงจรวดแบบไหน มาจากทางไหน เครื่องมือนี้จับได้ทำลายหมด ตุรกีบอกฉันควรมีของใช้ส่วนตัวบ้าง ไม่ใช่ยืมจมูกคนอื่นเขาหายใจ ตะบี้ตะบันไปตลอดชาติ ถ้ามันจมูกบี้ไป แล้วตูจะหายใจยังไงวะ เออ ! อันนี้มีเหตุผล ฟังขึ้น แม้ดูจะออกลูกกะล่อนนิด ๆ แต่ก็ไม่น่าเกลียดเท่าไหร่
    โครงการนี้ยาวนาน ตุรกีคิดมานานแล้ว และทำอย่างเปิดเผย ตอนแรกอเมริกา NATO และ EU ต่างก็หน้างอ ทำไมตุรกีไม่ปรึกษา ทำไมตุรกีไม่ขออนุญาต ตุรกีบอกขอโทษ ตุรกีคิดว่ายังมีอธิปไตยเหนือบ้านเมืองตนเองอยู่นะ แม้กระผมจะยอมนายท่านไปหลายเรื่องก็เถอะ แต่เรื่องหายใจด้วยจมูกของผม นี่มันเรื่องส่วนตัวจริง ๆ
    หลังจากสุมหัวคิดกันดูแล้ว อเมริกาและ EU ก็บอกว่าเอาแบบนี้แล้วกัน พวกเราก็ยื่นประมูลสร้างไอ้เครื่องป้องกันบ้าบอนี้เข้าไปด้วย แล้วเราก็ไปบีบคอมันให้มันเลือกเรา มันจะยากเย็นอะไร
    ตุรกีออกประกาศเชิญชวนตั้งแต่ปี ค.ศ. 2009 เกือบ 4 ปีแล้ว พิจารณาอะไร มันถึงใช้เวลานานขนาดนั้น มันควรจะประกาศได้แล้วว่าใครชนะประมูล- แต่ตุรกีก็ไม่ประกาศ อะไรมันปิดปากค้ำคออยู่ หรือตุรกีรอดูอะไร หรือตุรกีกำลังเล่นบท “ตุรกี” ให้ดูอยู่
    ขณะที่ทุกฝ่ายกำลังยุ่งอยู่กับ เรื่องกระทืบซีเรีย เรื่องเส้นทางเดินท่อแก๊ส เรื่องการเลือกตั้ง เรื่องคอรับชั่นในประเทศ เดือนสิงหาคม ค.ศ. 2013 ตุรกีกลับใช้ช่วงเวลานั้นประกาศเสียงเรียบ ๆ ว่า ขณะนี้เราได้พิจารณาเสร็จสิ้นแล้ว เราได้ข้อสรุปเบื้องต้นว่า เบื้องต้นผู้ที่เราน่าจะเลือกให้มาทำเครื่องหายใจของเราเอง น่าจะเป็นบริษัทของประเทศจีน !
    เขาว่าวันนั้น ขนาดเสียงจิ้งจกไต่ผ่านเพดานห้องทำงานรูปไข่ของนาย Obama (หมายถึง Oval Room ครับ ลุงนิทานไม่ได้ทะลึ่ง) ทหารรักษาการณ์ข้างนอกประตูหน้า White House ยังได้ยินเลย ทุกอย่างเงียบสงบ ลมไม่กล้าพัด เจ้าหน้าที่ต้องกลั้นหายใจ เกรงว่าแม้ลมหายใจ ก็จะทำให้เกิดแรงสะเทือนได้ อาการเช่นนี้ไม่ได้เป็นเฉพาะที่ White House หรอก เขาว่าห้องทำงานของท่านนายพลใหญ่ หัวหน้าใหญ่ของ NATO ก็เป็นเหมือนกัน
    ในคำแถลงของตุรกีบอกว่า จีนโดยบริษัท CPMIEC ซึ่งเป็นของรัฐบาลจีน ยินดีที่จะรับเป็นผู้ดำเนินการก่อสร้างและติดตั้งเครื่องมือ ที่เรียกว่า Long Range Air and Missile Defense System (T-LORAMIDS) ตามคำเชิญชวนของตุรกี เมื่อ ค.ศ. 2009 ที่ให้บุคคลภายนอกเสนอการทำงานแบบ off-the-shelf vesion ของ (T-LORAMIDS) ในระบบที่สามารถเข้ากับอุปกรณ์การทำงานทั้งปวงของตุรกีได้ ในราคาประมาณ 3.4 พันล้านเหรียญ (เท่านั้นเอง) เป็นการสร้างจมูกส่วนตัวของตุรกี ที่ว่าไปแล้วในราคาไม่แพงเลย ฮา
    นาย Murad Bayer เจ้าหน้าที่ผู้รับผิดชอบ การจัดซื้อจัดจ้างของตุรกี แถลงเพิ่มเติมว่าข้อเสนอของ CPMIEC ดีกว่าผู้เข้าแข่งประมูลทั้งหมด รวมทั้ง Raytheon/Lockheed-Martin ของอเมริกา กลุ่ม Italian/French และของรัสเซีย นาย Bayer บอกว่า เขาจะเจรจารายละเอียดขั้นสุดท้ายและสรุปผลกับ CPMIEC ให้เสร็จสิ้นก่อนครั้งแรกของปี ค.ศ. 2014
    จิ้งจกแมงสาบเริ่มออกเดินต่อ หลังจากตัวชากันไปพักใหญ่ วุฒิสมาชิกอเมริกัน ส่งหนังสือลงวันที่ 11 ตุลาคม 2013 ขอให้รัฐมนตรีต่างประเทศ John Kerry และรัฐมนตรีกลาโหม Chuck Hagel ดำเนินการทุกวิถีทาง ทางการฑูต เพื่อกดดันไม่ให้ตุรกีตกลงกับ CPMIEC ทำจมูกให้ตุรกี และแจ้ง NATO ถึงจุดยืนของอเมริกาว่า ต้องยืนยันว่าระบบที่ CPMIEC ทำนั้น ไม่มีวันจะใช้ร่วมกับระบบใด ๆ ทั้งสิ้นของ NATO ได้ และดูว่าจมูกที่จีนเสนอมันเป็นอย่างไรกันแน่ ทำไมพวกเราถึงสร้างจมูกอย่างเขาไม่ได้ ทำไม่ตุรกีไม่ชอบจมูกฝรั่ง แต่ไปชอบจมูกจีน ! ไปหาคำตอบกันมาให้ได้
    4 พฤศจิกายน ค.ศ. 2013 จดหมายอีกฉบับถูกส่งไปยังทูตอเมริกา ประจำตุรกี ว่าในกรณีที่ตุรกียังยืนยันจะใช้จมูกจีน แน่นอนว่าเจ้าหน้าที่ของจีนจะต้องมาเดินขวักไขว่ เข้านอกออกในอยู่ในทุกสถานที่และองค์กรต่าง ๆ ของตุรกี ในด้านความมั่นคงจะจัดการกับปัญหานี้อย่างไร
    นอกจากการเข้ากันไม่ได้ของระบบที่จีนจะทำ กับระบบของอเมริกาและ NATO แล้ว สิ่งที่น่าเป็นห่วงอย่างยิ่ง คือการที่จีนจะเข้าถึงข้อมูลต่าง ๆ ในระบบของตุรกี ซึ่งเป็นระบบที่เชื่อมโยงกับอเมริกาและ NATO ได้อีกด้วย จีนบอก อั๊วทำจมูกให้ตุรกี แต่อั๊วได้กลิ่นอเมริกา กับยุโรปหมดเลย ฮ่า ฮ่า เอิ้ก
    คำถามสำคัญที่ทุกคนคิดในใจดัง ๆ คือ ตุรกีกำลังคิดอะไร อเมริกาลงทุนกับตุรกีไปขนาดไหน ตุรกีย่อมรู้อยู่แก่ใจ และตุรกีก็คงตอบอยู่ในใจเช่นกันว่า อเมริกาก็คงรู้ดีอยู่แก่ใจเช่นเดียวกัน ว่าตุรกีทำอะไร เพื่ออเมริกาบ้าง
    นับเป็นโจทก์ที่น่าคิดอย่างยิ่ง ตุรกีทำได้อย่างไร โดยเฉพาะในประเด็นว่าตุรกีนั้น เป็นสมาชิกของ NATOแต่จะใช้จีน ซึ่งอยู่นอก NATO มาสร้างระบบที่เชื่อมถึง NATO ได้ และที่สำคัญ CPMIEC เป็นบริษัทที่อยู่ในข่ายการคว่ำ บาตรของอเมริกา ตามกฎหมาย Iran, North Korea and Syria Nonproliferation Act (P.L 106-178 as amended) ตุรกีสมกับเป็นลูกครึ่ง ลูกกลม ลูกกลิ้ง จริง ๆ เอ๊ะ ! หรือนี่คือบทของ นกสองหัว !
    อย่างไรก็ตามประธานาธิบดี Gul ได้ออกมาแถลงว่า เรื่องทำจมูกโดยจีนนี้ ยังไม่ได้เป็นข้อสรุปนะ เราเพียงแค่คัดรายชื่อผู้เสนอทำงานให้เหลือน้อยลง เรารู้ดีเรื่องความเป็นห่วงของ NATO เรารู้ดีเรื่องการเป็นคู่แข่งกันระหว่างตะวันตกกับจีน เราก็เป็น 1 ใน NATO นะ เพราะฉะนั้นใจเย็น ๆ ก่อน
    ในรายงานของ CRS ฉบับวันที่ 27 มี.ค ค.ศ. 2014 ได้มีพูดถึงเรื่องการทำจมูกตุรกี โดยจีนนี้ อย่างยืดยาว ตอนหนึ่งในรายงานระบุว่า แม้แต่ทางกองทัพของตุรกีเอง ก็ไม่พอใจกับการตัดสินใจเช่นนี้ของรัฐบาล ด้วยเกรงว่าจะได้จมูกเก่าที่ใช้แล้ว และไม่เหมาะที่จะนำไปสู่รบกับอะไร ได้ “second – hand, not battle-tested and cheap Chinese missiles” อืม เจ็บมากนะ เด็ก ๆ ของอาเฮียอ่านแล้ว แจ้งให้เจ้านายทราบด้วย
    แล้วประมาณกลางเดือนธันวาคม ค.ศ. 2013 รัฐมนตรีหลายคน รวมทั้งครอบครัว และนักธุรกิจที่ใกล้ชิดกับนายกรัฐมนตรี Erdogan รวมทั้งเจ้าหน้าที่ระดับสูง ก็ถูกตั้งข้อกล่าวหา ถูกจับข้อหารับสินบน จากนั้นการเมืองภายในประเทศของตุรกีก็เริ่มร้อนขึ้น แม้ตัวนายกรัฐมนตรี Erdogan เอง ก็ถูกกล่าวหาว่ามีส่วนพัวพันกับการโกง สื่อตีข่าวทุกวัน ขนาดมีการปล่อยเสียงการคุยกันระหว่าง นาย Erdogan กับลูกชาย ชื่อ Bilal ถึงการโอนเงินจำนวนใหญ่ เพื่อป้องกันไม่ให้ถูกจับตามอง
    นาย Erdogan ให้ข่าวว่า ข้อกล่าวหาตัวเขาและลูกชาย เกี่ยวกับเรื่องการโกงนี้ เป็นการกำกับและจัดฉากของนาย Fethullah Gulen ซึ่งสมคบและเลี้ยงดูโดยอเมริกา สนุกจริง ๆ ตอนนี้ไม่ได้เป็นนิยายรักแล้ว แต่เป็นนิยายชีวิต เข้ม ข้น โหด มัน ฮา (ยังไม่รู้ใครจะได้ฮา)
    สวัสดีครับ
คนเล่านิทาน
20 กค. 2557
    ลูกครึ่ง หรือ นกสองหัว ตอนที่ 6 – จมูกคนอื่น นิทานเรื่องจริง เรื่อง “ลูกครึ่ง หรือ นกสองหัว” ตอนที่ 6 “จมูกคนอื่น” เมื่อตุรกีออกประกาศเชิญชวนให้บรรดา พวกนักสร้างระบบเครื่องมือรบ ให้มายื่นประมูลเครื่องมือป้องกันตนเอง ที่เรียกว่า Long Range Air and Missle Defense System ใครจะยิงจรวดแบบไหน มาจากทางไหน เครื่องมือนี้จับได้ทำลายหมด ตุรกีบอกฉันควรมีของใช้ส่วนตัวบ้าง ไม่ใช่ยืมจมูกคนอื่นเขาหายใจ ตะบี้ตะบันไปตลอดชาติ ถ้ามันจมูกบี้ไป แล้วตูจะหายใจยังไงวะ เออ ! อันนี้มีเหตุผล ฟังขึ้น แม้ดูจะออกลูกกะล่อนนิด ๆ แต่ก็ไม่น่าเกลียดเท่าไหร่ โครงการนี้ยาวนาน ตุรกีคิดมานานแล้ว และทำอย่างเปิดเผย ตอนแรกอเมริกา NATO และ EU ต่างก็หน้างอ ทำไมตุรกีไม่ปรึกษา ทำไมตุรกีไม่ขออนุญาต ตุรกีบอกขอโทษ ตุรกีคิดว่ายังมีอธิปไตยเหนือบ้านเมืองตนเองอยู่นะ แม้กระผมจะยอมนายท่านไปหลายเรื่องก็เถอะ แต่เรื่องหายใจด้วยจมูกของผม นี่มันเรื่องส่วนตัวจริง ๆ หลังจากสุมหัวคิดกันดูแล้ว อเมริกาและ EU ก็บอกว่าเอาแบบนี้แล้วกัน พวกเราก็ยื่นประมูลสร้างไอ้เครื่องป้องกันบ้าบอนี้เข้าไปด้วย แล้วเราก็ไปบีบคอมันให้มันเลือกเรา มันจะยากเย็นอะไร ตุรกีออกประกาศเชิญชวนตั้งแต่ปี ค.ศ. 2009 เกือบ 4 ปีแล้ว พิจารณาอะไร มันถึงใช้เวลานานขนาดนั้น มันควรจะประกาศได้แล้วว่าใครชนะประมูล- แต่ตุรกีก็ไม่ประกาศ อะไรมันปิดปากค้ำคออยู่ หรือตุรกีรอดูอะไร หรือตุรกีกำลังเล่นบท “ตุรกี” ให้ดูอยู่ ขณะที่ทุกฝ่ายกำลังยุ่งอยู่กับ เรื่องกระทืบซีเรีย เรื่องเส้นทางเดินท่อแก๊ส เรื่องการเลือกตั้ง เรื่องคอรับชั่นในประเทศ เดือนสิงหาคม ค.ศ. 2013 ตุรกีกลับใช้ช่วงเวลานั้นประกาศเสียงเรียบ ๆ ว่า ขณะนี้เราได้พิจารณาเสร็จสิ้นแล้ว เราได้ข้อสรุปเบื้องต้นว่า เบื้องต้นผู้ที่เราน่าจะเลือกให้มาทำเครื่องหายใจของเราเอง น่าจะเป็นบริษัทของประเทศจีน ! เขาว่าวันนั้น ขนาดเสียงจิ้งจกไต่ผ่านเพดานห้องทำงานรูปไข่ของนาย Obama (หมายถึง Oval Room ครับ ลุงนิทานไม่ได้ทะลึ่ง) ทหารรักษาการณ์ข้างนอกประตูหน้า White House ยังได้ยินเลย ทุกอย่างเงียบสงบ ลมไม่กล้าพัด เจ้าหน้าที่ต้องกลั้นหายใจ เกรงว่าแม้ลมหายใจ ก็จะทำให้เกิดแรงสะเทือนได้ อาการเช่นนี้ไม่ได้เป็นเฉพาะที่ White House หรอก เขาว่าห้องทำงานของท่านนายพลใหญ่ หัวหน้าใหญ่ของ NATO ก็เป็นเหมือนกัน ในคำแถลงของตุรกีบอกว่า จีนโดยบริษัท CPMIEC ซึ่งเป็นของรัฐบาลจีน ยินดีที่จะรับเป็นผู้ดำเนินการก่อสร้างและติดตั้งเครื่องมือ ที่เรียกว่า Long Range Air and Missile Defense System (T-LORAMIDS) ตามคำเชิญชวนของตุรกี เมื่อ ค.ศ. 2009 ที่ให้บุคคลภายนอกเสนอการทำงานแบบ off-the-shelf vesion ของ (T-LORAMIDS) ในระบบที่สามารถเข้ากับอุปกรณ์การทำงานทั้งปวงของตุรกีได้ ในราคาประมาณ 3.4 พันล้านเหรียญ (เท่านั้นเอง) เป็นการสร้างจมูกส่วนตัวของตุรกี ที่ว่าไปแล้วในราคาไม่แพงเลย ฮา นาย Murad Bayer เจ้าหน้าที่ผู้รับผิดชอบ การจัดซื้อจัดจ้างของตุรกี แถลงเพิ่มเติมว่าข้อเสนอของ CPMIEC ดีกว่าผู้เข้าแข่งประมูลทั้งหมด รวมทั้ง Raytheon/Lockheed-Martin ของอเมริกา กลุ่ม Italian/French และของรัสเซีย นาย Bayer บอกว่า เขาจะเจรจารายละเอียดขั้นสุดท้ายและสรุปผลกับ CPMIEC ให้เสร็จสิ้นก่อนครั้งแรกของปี ค.ศ. 2014 จิ้งจกแมงสาบเริ่มออกเดินต่อ หลังจากตัวชากันไปพักใหญ่ วุฒิสมาชิกอเมริกัน ส่งหนังสือลงวันที่ 11 ตุลาคม 2013 ขอให้รัฐมนตรีต่างประเทศ John Kerry และรัฐมนตรีกลาโหม Chuck Hagel ดำเนินการทุกวิถีทาง ทางการฑูต เพื่อกดดันไม่ให้ตุรกีตกลงกับ CPMIEC ทำจมูกให้ตุรกี และแจ้ง NATO ถึงจุดยืนของอเมริกาว่า ต้องยืนยันว่าระบบที่ CPMIEC ทำนั้น ไม่มีวันจะใช้ร่วมกับระบบใด ๆ ทั้งสิ้นของ NATO ได้ และดูว่าจมูกที่จีนเสนอมันเป็นอย่างไรกันแน่ ทำไมพวกเราถึงสร้างจมูกอย่างเขาไม่ได้ ทำไม่ตุรกีไม่ชอบจมูกฝรั่ง แต่ไปชอบจมูกจีน ! ไปหาคำตอบกันมาให้ได้ 4 พฤศจิกายน ค.ศ. 2013 จดหมายอีกฉบับถูกส่งไปยังทูตอเมริกา ประจำตุรกี ว่าในกรณีที่ตุรกียังยืนยันจะใช้จมูกจีน แน่นอนว่าเจ้าหน้าที่ของจีนจะต้องมาเดินขวักไขว่ เข้านอกออกในอยู่ในทุกสถานที่และองค์กรต่าง ๆ ของตุรกี ในด้านความมั่นคงจะจัดการกับปัญหานี้อย่างไร นอกจากการเข้ากันไม่ได้ของระบบที่จีนจะทำ กับระบบของอเมริกาและ NATO แล้ว สิ่งที่น่าเป็นห่วงอย่างยิ่ง คือการที่จีนจะเข้าถึงข้อมูลต่าง ๆ ในระบบของตุรกี ซึ่งเป็นระบบที่เชื่อมโยงกับอเมริกาและ NATO ได้อีกด้วย จีนบอก อั๊วทำจมูกให้ตุรกี แต่อั๊วได้กลิ่นอเมริกา กับยุโรปหมดเลย ฮ่า ฮ่า เอิ้ก คำถามสำคัญที่ทุกคนคิดในใจดัง ๆ คือ ตุรกีกำลังคิดอะไร อเมริกาลงทุนกับตุรกีไปขนาดไหน ตุรกีย่อมรู้อยู่แก่ใจ และตุรกีก็คงตอบอยู่ในใจเช่นกันว่า อเมริกาก็คงรู้ดีอยู่แก่ใจเช่นเดียวกัน ว่าตุรกีทำอะไร เพื่ออเมริกาบ้าง นับเป็นโจทก์ที่น่าคิดอย่างยิ่ง ตุรกีทำได้อย่างไร โดยเฉพาะในประเด็นว่าตุรกีนั้น เป็นสมาชิกของ NATOแต่จะใช้จีน ซึ่งอยู่นอก NATO มาสร้างระบบที่เชื่อมถึง NATO ได้ และที่สำคัญ CPMIEC เป็นบริษัทที่อยู่ในข่ายการคว่ำ บาตรของอเมริกา ตามกฎหมาย Iran, North Korea and Syria Nonproliferation Act (P.L 106-178 as amended) ตุรกีสมกับเป็นลูกครึ่ง ลูกกลม ลูกกลิ้ง จริง ๆ เอ๊ะ ! หรือนี่คือบทของ นกสองหัว ! อย่างไรก็ตามประธานาธิบดี Gul ได้ออกมาแถลงว่า เรื่องทำจมูกโดยจีนนี้ ยังไม่ได้เป็นข้อสรุปนะ เราเพียงแค่คัดรายชื่อผู้เสนอทำงานให้เหลือน้อยลง เรารู้ดีเรื่องความเป็นห่วงของ NATO เรารู้ดีเรื่องการเป็นคู่แข่งกันระหว่างตะวันตกกับจีน เราก็เป็น 1 ใน NATO นะ เพราะฉะนั้นใจเย็น ๆ ก่อน ในรายงานของ CRS ฉบับวันที่ 27 มี.ค ค.ศ. 2014 ได้มีพูดถึงเรื่องการทำจมูกตุรกี โดยจีนนี้ อย่างยืดยาว ตอนหนึ่งในรายงานระบุว่า แม้แต่ทางกองทัพของตุรกีเอง ก็ไม่พอใจกับการตัดสินใจเช่นนี้ของรัฐบาล ด้วยเกรงว่าจะได้จมูกเก่าที่ใช้แล้ว และไม่เหมาะที่จะนำไปสู่รบกับอะไร ได้ “second – hand, not battle-tested and cheap Chinese missiles” อืม เจ็บมากนะ เด็ก ๆ ของอาเฮียอ่านแล้ว แจ้งให้เจ้านายทราบด้วย แล้วประมาณกลางเดือนธันวาคม ค.ศ. 2013 รัฐมนตรีหลายคน รวมทั้งครอบครัว และนักธุรกิจที่ใกล้ชิดกับนายกรัฐมนตรี Erdogan รวมทั้งเจ้าหน้าที่ระดับสูง ก็ถูกตั้งข้อกล่าวหา ถูกจับข้อหารับสินบน จากนั้นการเมืองภายในประเทศของตุรกีก็เริ่มร้อนขึ้น แม้ตัวนายกรัฐมนตรี Erdogan เอง ก็ถูกกล่าวหาว่ามีส่วนพัวพันกับการโกง สื่อตีข่าวทุกวัน ขนาดมีการปล่อยเสียงการคุยกันระหว่าง นาย Erdogan กับลูกชาย ชื่อ Bilal ถึงการโอนเงินจำนวนใหญ่ เพื่อป้องกันไม่ให้ถูกจับตามอง นาย Erdogan ให้ข่าวว่า ข้อกล่าวหาตัวเขาและลูกชาย เกี่ยวกับเรื่องการโกงนี้ เป็นการกำกับและจัดฉากของนาย Fethullah Gulen ซึ่งสมคบและเลี้ยงดูโดยอเมริกา สนุกจริง ๆ ตอนนี้ไม่ได้เป็นนิยายรักแล้ว แต่เป็นนิยายชีวิต เข้ม ข้น โหด มัน ฮา (ยังไม่รู้ใครจะได้ฮา) สวัสดีครับ
คนเล่านิทาน
20 กค. 2557
    0 Comments 0 Shares 630 Views 0 Reviews
  • https://youtu.be/ogrrlXmRQLM?si=WR7t2PmIzFpj5FtH
    https://youtu.be/ogrrlXmRQLM?si=WR7t2PmIzFpj5FtH
    0 Comments 0 Shares 57 Views 0 Reviews
  • “Google Chrome อัปเดตด่วน! แก้ 3 ช่องโหว่ร้ายแรงใน V8 — หนึ่งในนั้นอาจทำให้ข้อมูลรั่วโดยไม่ต้องคลิกอะไรเลย”

    Google ได้ปล่อยอัปเดตเวอร์ชันใหม่ของ Chrome สำหรับ Windows, macOS และ Linux (140.0.7339.207/.208) เพื่อแก้ไขช่องโหว่ร้ายแรง 3 รายการใน V8 ซึ่งเป็นเอนจิน JavaScript ที่ขับเคลื่อนเว็บแอปทั่วโลก โดยช่องโหว่เหล่านี้ถูกค้นพบทั้งจากนักวิจัยอิสระและระบบ AI ของ Google เอง

    ช่องโหว่แรกคือ CVE-2025-10890 ซึ่งเป็นการรั่วไหลข้อมูลแบบ side-channel — หมายถึงการที่ผู้โจมตีสามารถสังเกตพฤติกรรมเล็ก ๆ ของระบบ เช่น เวลาในการประมวลผล หรือการเปลี่ยนแปลงเล็กน้อยในหน่วยความจำ เพื่อสกัดข้อมูลลับ เช่น session ID หรือคีย์เข้ารหัส โดยไม่ต้องเจาะระบบโดยตรง

    ช่องโหว่ที่สองและสาม (CVE-2025-10891 และ CVE-2025-10892) เป็นช่องโหว่แบบ integer overflow ซึ่งเกิดจากการคำนวณที่เกินขนาดหน่วยความจำ ทำให้สามารถเปลี่ยนโครงสร้างหน่วยความจำและอาจนำไปสู่การรันโค้ดอันตรายได้ ช่องโหว่เหล่านี้ถูกค้นพบโดยระบบ AI ที่ชื่อว่า Big Sleep ซึ่งพัฒนาโดย DeepMind และทีม Project Zero ของ Google

    การค้นพบโดย AI แสดงให้เห็นถึงความก้าวหน้าของการใช้ระบบอัตโนมัติในการตรวจสอบช่องโหว่ โดยเฉพาะในเอนจินที่ซับซ้อนอย่าง V8 ซึ่งมีบทบาทสำคัญในเบราว์เซอร์และแอปพลิเคชันจำนวนมหาศาล

    ข้อมูลสำคัญจากข่าว
    Google Chrome อัปเดตเวอร์ชัน 140.0.7339.207/.208 เพื่อแก้ 3 ช่องโหว่ร้ายแรงใน V8
    CVE-2025-10890 เป็นช่องโหว่แบบ side-channel ที่อาจทำให้ข้อมูลลับรั่ว
    CVE-2025-10891 และ CVE-2025-10892 เป็นช่องโหว่แบบ integer overflow
    ช่องโหว่ถูกค้นพบโดยนักวิจัยอิสระและระบบ AI “Big Sleep” ของ Google
    การโจมตีแบบ side-channel สามารถขโมยข้อมูลโดยไม่ต้องเจาะระบบโดยตรง
    ช่องโหว่แบบ overflow อาจนำไปสู่การรันโค้ดอันตรายในหน่วยความจำ
    ผู้ใช้ควรอัปเดต Chrome ทันทีเพื่อป้องกันการถูกโจมตี

    ข้อมูลเสริมจากภายนอก
    V8 เป็นเอนจิน JavaScript ที่ใช้ใน Chrome, Edge, Brave และเบราว์เซอร์อื่น ๆ ที่ใช้ Chromium
    Side-channel attack เคยถูกใช้ในการขโมยคีย์เข้ารหัสจาก CPU โดยไม่ต้องเข้าถึงระบบโดยตรง
    Integer overflow เป็นช่องโหว่ที่พบได้บ่อยในระบบที่จัดการหน่วยความจำแบบ low-level
    AI อย่าง Big Sleep ใช้เทคนิค fuzzing และ symbolic execution เพื่อค้นหาช่องโหว่
    การอัปเดต Chrome สามารถทำได้โดยไปที่ Settings > About Chrome แล้วรีสตาร์ตเบราว์เซอร์

    https://securityonline.info/google-chrome-patches-three-high-severity-flaws-in-v8-engine/
    🛡️ “Google Chrome อัปเดตด่วน! แก้ 3 ช่องโหว่ร้ายแรงใน V8 — หนึ่งในนั้นอาจทำให้ข้อมูลรั่วโดยไม่ต้องคลิกอะไรเลย” Google ได้ปล่อยอัปเดตเวอร์ชันใหม่ของ Chrome สำหรับ Windows, macOS และ Linux (140.0.7339.207/.208) เพื่อแก้ไขช่องโหว่ร้ายแรง 3 รายการใน V8 ซึ่งเป็นเอนจิน JavaScript ที่ขับเคลื่อนเว็บแอปทั่วโลก โดยช่องโหว่เหล่านี้ถูกค้นพบทั้งจากนักวิจัยอิสระและระบบ AI ของ Google เอง ช่องโหว่แรกคือ CVE-2025-10890 ซึ่งเป็นการรั่วไหลข้อมูลแบบ side-channel — หมายถึงการที่ผู้โจมตีสามารถสังเกตพฤติกรรมเล็ก ๆ ของระบบ เช่น เวลาในการประมวลผล หรือการเปลี่ยนแปลงเล็กน้อยในหน่วยความจำ เพื่อสกัดข้อมูลลับ เช่น session ID หรือคีย์เข้ารหัส โดยไม่ต้องเจาะระบบโดยตรง ช่องโหว่ที่สองและสาม (CVE-2025-10891 และ CVE-2025-10892) เป็นช่องโหว่แบบ integer overflow ซึ่งเกิดจากการคำนวณที่เกินขนาดหน่วยความจำ ทำให้สามารถเปลี่ยนโครงสร้างหน่วยความจำและอาจนำไปสู่การรันโค้ดอันตรายได้ ช่องโหว่เหล่านี้ถูกค้นพบโดยระบบ AI ที่ชื่อว่า Big Sleep ซึ่งพัฒนาโดย DeepMind และทีม Project Zero ของ Google การค้นพบโดย AI แสดงให้เห็นถึงความก้าวหน้าของการใช้ระบบอัตโนมัติในการตรวจสอบช่องโหว่ โดยเฉพาะในเอนจินที่ซับซ้อนอย่าง V8 ซึ่งมีบทบาทสำคัญในเบราว์เซอร์และแอปพลิเคชันจำนวนมหาศาล ✅ ข้อมูลสำคัญจากข่าว ➡️ Google Chrome อัปเดตเวอร์ชัน 140.0.7339.207/.208 เพื่อแก้ 3 ช่องโหว่ร้ายแรงใน V8 ➡️ CVE-2025-10890 เป็นช่องโหว่แบบ side-channel ที่อาจทำให้ข้อมูลลับรั่ว ➡️ CVE-2025-10891 และ CVE-2025-10892 เป็นช่องโหว่แบบ integer overflow ➡️ ช่องโหว่ถูกค้นพบโดยนักวิจัยอิสระและระบบ AI “Big Sleep” ของ Google ➡️ การโจมตีแบบ side-channel สามารถขโมยข้อมูลโดยไม่ต้องเจาะระบบโดยตรง ➡️ ช่องโหว่แบบ overflow อาจนำไปสู่การรันโค้ดอันตรายในหน่วยความจำ ➡️ ผู้ใช้ควรอัปเดต Chrome ทันทีเพื่อป้องกันการถูกโจมตี ✅ ข้อมูลเสริมจากภายนอก ➡️ V8 เป็นเอนจิน JavaScript ที่ใช้ใน Chrome, Edge, Brave และเบราว์เซอร์อื่น ๆ ที่ใช้ Chromium ➡️ Side-channel attack เคยถูกใช้ในการขโมยคีย์เข้ารหัสจาก CPU โดยไม่ต้องเข้าถึงระบบโดยตรง ➡️ Integer overflow เป็นช่องโหว่ที่พบได้บ่อยในระบบที่จัดการหน่วยความจำแบบ low-level ➡️ AI อย่าง Big Sleep ใช้เทคนิค fuzzing และ symbolic execution เพื่อค้นหาช่องโหว่ ➡️ การอัปเดต Chrome สามารถทำได้โดยไปที่ Settings > About Chrome แล้วรีสตาร์ตเบราว์เซอร์ https://securityonline.info/google-chrome-patches-three-high-severity-flaws-in-v8-engine/
    SECURITYONLINE.INFO
    Google Chrome Patches Three High-Severity Flaws in V8 Engine
    Google has released an urgent update for Chrome, patching three high-severity flaws in its V8 JavaScript engine, two of which were discovered by AI.
    0 Comments 0 Shares 245 Views 0 Reviews
  • “Google Gemini Nano Banana — สร้างภาพเหมือนจริงด้วยคำสั่งเดียว พร้อมฟีเจอร์แก้ไขภาพที่แม่นยำที่สุดในโลก AI”

    ในยุคที่การสร้างภาพไม่ต้องใช้กล้องหรือโปรแกรมแต่งภาพอีกต่อไป Google ได้เปิดตัวโมเดล AI ใหม่ในชื่อ “Nano Banana” ซึ่งเป็นส่วนหนึ่งของ Gemini 2.5 Flash ที่สามารถสร้างภาพเหมือนจริงจากคำสั่งข้อความได้ทันที และยังแก้ไขภาพที่มีอยู่ได้อย่างแม่นยำโดยไม่ทำลายรายละเอียดเดิม

    Nano Banana ใช้เทคโนโลยี Imagen 4 ซึ่งเป็นโมเดล text-to-image ล่าสุดจาก Google DeepMind โดยผสานการทำงานของ LLMs กับ diffusion model เพื่อสร้างภาพที่มีความละเอียดสูงถึง 2048x2048 พิกเซล พร้อมความสามารถในการรักษาโครงสร้างใบหน้า, แสง, มุมกล้อง และองค์ประกอบเดิมของภาพได้อย่างแม่นยำ

    ผู้ใช้สามารถเข้าถึง Nano Banana ได้ผ่านแอป Gemini ทั้งบนมือถือและคอมพิวเตอร์ รวมถึง API สำหรับนักพัฒนา โดยสามารถสร้างภาพจาก prompt เดียว หรืออัปโหลดภาพเพื่อแก้ไข เช่น เปลี่ยนทรงผม, เพิ่มคนเข้าไปในภาพ, รวมภาพสองใบให้กลายเป็นภาพเดียว หรือแม้แต่แปลงภาพเป็นสไตล์ของสติ๊กเกอร์, ภาพย้อนยุค หรือภาพ 3D figurine

    Google ยังเพิ่มระบบความปลอดภัย เช่น SynthID watermark ที่ฝังในภาพแบบมองไม่เห็น และ Content Credentials (C2PA) เพื่อป้องกันการนำภาพไปใช้ในทางที่ผิด พร้อมเปิดให้ใช้งานฟรีสำหรับผู้มีบัญชี Google โดยมีข้อจำกัดจำนวนคำสั่งต่อวันสำหรับผู้ใช้ทั่วไป

    ฟีเจอร์เด่นของ Nano Banana
    สร้างภาพเหมือนจริงจากข้อความด้วยโมเดล Imagen 4
    รองรับความละเอียดสูงสุด 2048x2048 พิกเซล
    รักษาโครงสร้างใบหน้า, แสง, มุมกล้อง และองค์ประกอบเดิมของภาพ
    แก้ไขภาพได้แม่นยำ เช่น เปลี่ยนทรงผม, เสื้อผ้า, ฉากหลัง หรือเพิ่มคนเข้าไป
    รองรับการรวมภาพหลายใบให้กลายเป็นภาพเดียว
    มีฟีเจอร์สร้างภาพสไตล์ 3D figurine, สติ๊กเกอร์, ภาพย้อนยุค ฯลฯ
    ใช้งานได้ผ่านแอป Gemini, API, และ Google AI Studio
    มีระบบ SynthID watermark และ Content Credentials เพื่อความปลอดภัย

    ข้อมูลเสริมจากภายนอก
    Nano Banana ได้รับความนิยมสูงสุดในอินเดีย โดยมีผู้ใช้กว่า 23 ล้านคนภายใน 2 สัปดาห์แรก
    สามารถใช้งานผ่าน WhatsApp ผ่านบอตของ Perplexity AI ได้แล้ว
    Prompt ที่ละเอียด เช่น “Create a photorealistic image of…” ให้ผลลัพธ์แม่นยำมากขึ้น
    สามารถใช้เพื่อสร้างภาพโฮโลกราฟิก, ภาพโฆษณา, หรือภาพโปรดักต์แบบหลายมุม
    เหมาะสำหรับทั้งผู้ใช้ทั่วไปและนักออกแบบมืออาชีพ

    https://www.slashgear.com/1974425/how-to-use-google-gemini-ai-to-create-realistic-photos-guide/
    🎨 “Google Gemini Nano Banana — สร้างภาพเหมือนจริงด้วยคำสั่งเดียว พร้อมฟีเจอร์แก้ไขภาพที่แม่นยำที่สุดในโลก AI” ในยุคที่การสร้างภาพไม่ต้องใช้กล้องหรือโปรแกรมแต่งภาพอีกต่อไป Google ได้เปิดตัวโมเดล AI ใหม่ในชื่อ “Nano Banana” ซึ่งเป็นส่วนหนึ่งของ Gemini 2.5 Flash ที่สามารถสร้างภาพเหมือนจริงจากคำสั่งข้อความได้ทันที และยังแก้ไขภาพที่มีอยู่ได้อย่างแม่นยำโดยไม่ทำลายรายละเอียดเดิม Nano Banana ใช้เทคโนโลยี Imagen 4 ซึ่งเป็นโมเดล text-to-image ล่าสุดจาก Google DeepMind โดยผสานการทำงานของ LLMs กับ diffusion model เพื่อสร้างภาพที่มีความละเอียดสูงถึง 2048x2048 พิกเซล พร้อมความสามารถในการรักษาโครงสร้างใบหน้า, แสง, มุมกล้อง และองค์ประกอบเดิมของภาพได้อย่างแม่นยำ ผู้ใช้สามารถเข้าถึง Nano Banana ได้ผ่านแอป Gemini ทั้งบนมือถือและคอมพิวเตอร์ รวมถึง API สำหรับนักพัฒนา โดยสามารถสร้างภาพจาก prompt เดียว หรืออัปโหลดภาพเพื่อแก้ไข เช่น เปลี่ยนทรงผม, เพิ่มคนเข้าไปในภาพ, รวมภาพสองใบให้กลายเป็นภาพเดียว หรือแม้แต่แปลงภาพเป็นสไตล์ของสติ๊กเกอร์, ภาพย้อนยุค หรือภาพ 3D figurine Google ยังเพิ่มระบบความปลอดภัย เช่น SynthID watermark ที่ฝังในภาพแบบมองไม่เห็น และ Content Credentials (C2PA) เพื่อป้องกันการนำภาพไปใช้ในทางที่ผิด พร้อมเปิดให้ใช้งานฟรีสำหรับผู้มีบัญชี Google โดยมีข้อจำกัดจำนวนคำสั่งต่อวันสำหรับผู้ใช้ทั่วไป ✅ ฟีเจอร์เด่นของ Nano Banana ➡️ สร้างภาพเหมือนจริงจากข้อความด้วยโมเดล Imagen 4 ➡️ รองรับความละเอียดสูงสุด 2048x2048 พิกเซล ➡️ รักษาโครงสร้างใบหน้า, แสง, มุมกล้อง และองค์ประกอบเดิมของภาพ ➡️ แก้ไขภาพได้แม่นยำ เช่น เปลี่ยนทรงผม, เสื้อผ้า, ฉากหลัง หรือเพิ่มคนเข้าไป ➡️ รองรับการรวมภาพหลายใบให้กลายเป็นภาพเดียว ➡️ มีฟีเจอร์สร้างภาพสไตล์ 3D figurine, สติ๊กเกอร์, ภาพย้อนยุค ฯลฯ ➡️ ใช้งานได้ผ่านแอป Gemini, API, และ Google AI Studio ➡️ มีระบบ SynthID watermark และ Content Credentials เพื่อความปลอดภัย ✅ ข้อมูลเสริมจากภายนอก ➡️ Nano Banana ได้รับความนิยมสูงสุดในอินเดีย โดยมีผู้ใช้กว่า 23 ล้านคนภายใน 2 สัปดาห์แรก ➡️ สามารถใช้งานผ่าน WhatsApp ผ่านบอตของ Perplexity AI ได้แล้ว ➡️ Prompt ที่ละเอียด เช่น “Create a photorealistic image of…” ให้ผลลัพธ์แม่นยำมากขึ้น ➡️ สามารถใช้เพื่อสร้างภาพโฮโลกราฟิก, ภาพโฆษณา, หรือภาพโปรดักต์แบบหลายมุม ➡️ เหมาะสำหรับทั้งผู้ใช้ทั่วไปและนักออกแบบมืออาชีพ https://www.slashgear.com/1974425/how-to-use-google-gemini-ai-to-create-realistic-photos-guide/
    WWW.SLASHGEAR.COM
    How To Use Google Gemini AI To Create Realistic Photos: A Step-By-Step Guide - SlashGear
    You can use Google's Gemini AI to do lots of things, but many have found it's good at generating realistic photos or touching up existing ones. Here's how.
    0 Comments 0 Shares 269 Views 0 Reviews
  • https://youtu.be/RD_cKKWKpmI?si=m__8N9xTwMuNSZWn
    https://youtu.be/RD_cKKWKpmI?si=m__8N9xTwMuNSZWn
    0 Comments 0 Shares 78 Views 0 Reviews
  • “ByteDance เปิดตัว Seedream 4.0 ท้าชน Nano Banana ของ Google — เมื่อ AI สร้างภาพกลายเป็นสนามแข่งระดับโลก”

    ByteDance เจ้าของ TikTok เปิดตัวเครื่องมือ AI สร้างภาพรุ่นใหม่ชื่อว่า “Seedream 4.0” โดยตั้งเป้าแข่งขันโดยตรงกับ Gemini 2.5 Flash Image ของ Google DeepMind ซึ่งเป็นที่รู้จักในชื่อเล่นว่า “Nano Banana” ที่โด่งดังจากการสร้างภาพ 3D สุดสร้างสรรค์บนโซเชียล Seedream 4.0 ได้รับการพัฒนาโดยแผนก Seed ของ ByteDance และเปิดตัวเมื่อวันที่ 10 กันยายน 2025

    ByteDance อ้างว่า Seedream 4.0 มีประสิทธิภาพเหนือกว่า Nano Banana ในการสร้างภาพและแก้ไขภาพ โดยเฉพาะด้านความแม่นยำของ prompt, ความสอดคล้องขององค์ประกอบ และความสวยงามของภาพ ซึ่งวัดจาก benchmark ภายในชื่อว่า MagicBench แม้ผลการทดสอบจะยังไม่ถูกเผยแพร่ในรายงานทางเทคนิคอย่างเป็นทางการ

    Seedream 4.0 เป็นการรวมจุดแข็งของ Seedream 3.0 (ด้าน text-to-image) และ SeedEdit 3.0 (ด้าน image editing) เข้าด้วยกัน พร้อมปรับสถาปัตยกรรมใหม่ให้ inference เร็วขึ้นกว่าเดิมถึง 10 เท่า โดยยังคงราคาเดิมที่ $30 ต่อ 1,000 ภาพ และมีราคาต่อภาพต่ำกว่า Gemini 2.5 Flash Image บนแพลตฟอร์ม Fal.ai

    เครื่องมือนี้เปิดให้ใช้งานแล้วในจีนผ่านแอป Jimeng และ Doubao รวมถึงลูกค้าองค์กรผ่าน Volcano Engine ขณะที่ตลาด AI สร้างภาพในจีนกำลังร้อนแรง โดยมีคู่แข่งอย่าง Tencent, Kuaishou และ Vidu จาก Tsinghua University ที่เพิ่งเปิดตัวฟีเจอร์ใหม่สำหรับการสร้างภาพจากหลาย reference

    จุดเด่นของ Seedream 4.0 จาก ByteDance
    เปิดตัวเมื่อ 10 กันยายน 2025 โดยแผนก Seed ของ ByteDance
    รวมความสามารถของ Seedream 3.0 และ SeedEdit 3.0 เข้าด้วยกัน
    ปรับสถาปัตยกรรมใหม่ ทำให้ inference เร็วขึ้นกว่าเดิม 10 เท่า
    ราคา $30 ต่อ 1,000 ภาพ หรือ $0.03 ต่อภาพ บน Fal.ai — ถูกกว่า Nano Banana

    การเปรียบเทียบกับ Gemini 2.5 Flash Image (Nano Banana)
    ByteDance อ้างว่า Seedream 4.0 เหนือกว่าใน prompt adherence, alignment และ aesthetics
    ใช้ benchmark ภายในชื่อ MagicBench แต่ยังไม่มีรายงานเทคนิคเผยแพร่
    Nano Banana ได้รับความนิยมจากการสร้างภาพ 3D ที่แชร์ได้ง่ายและสนุก
    Gemini 2.5 ยังครองอันดับสูงสุดใน text-to-image และ image editing บน Artificial Analysis

    การใช้งานและการเข้าถึง
    เปิดให้ใช้งานในจีนผ่านแอป Jimeng และ Doubao
    ลูกค้าองค์กรสามารถใช้ผ่าน Volcano Engine ของ ByteDance
    ได้รับคำชมจากผู้ใช้เรื่องความแม่นยำในการแก้ไขภาพผ่าน text prompt
    รองรับการใช้งานแบบ bulk สำหรับลูกค้าเชิงพาณิชย์

    ข้อมูลเสริมจากภายนอก
    ตลาด AI สร้างภาพในจีนเติบโตอย่างรวดเร็ว โดยมีผู้เล่นหลายราย
    Vidu จาก Tsinghua University เปิดตัวฟีเจอร์สร้างภาพจาก 7 reference
    Gemini 2.5 รองรับการสร้างภาพจาก 9 reference
    รัฐบาลจีนรับรองลิขสิทธิ์ของภาพที่สร้างด้วย AI ตั้งแต่ปลายปี 2023 พร้อมบังคับติดป้ายกำกับ

    https://www.thestar.com.my/tech/tech-news/2025/09/12/bytedance-unveils-new-ai-image-model-to-rival-google-deepminds-nano-banana
    🖼️ “ByteDance เปิดตัว Seedream 4.0 ท้าชน Nano Banana ของ Google — เมื่อ AI สร้างภาพกลายเป็นสนามแข่งระดับโลก” ByteDance เจ้าของ TikTok เปิดตัวเครื่องมือ AI สร้างภาพรุ่นใหม่ชื่อว่า “Seedream 4.0” โดยตั้งเป้าแข่งขันโดยตรงกับ Gemini 2.5 Flash Image ของ Google DeepMind ซึ่งเป็นที่รู้จักในชื่อเล่นว่า “Nano Banana” ที่โด่งดังจากการสร้างภาพ 3D สุดสร้างสรรค์บนโซเชียล Seedream 4.0 ได้รับการพัฒนาโดยแผนก Seed ของ ByteDance และเปิดตัวเมื่อวันที่ 10 กันยายน 2025 ByteDance อ้างว่า Seedream 4.0 มีประสิทธิภาพเหนือกว่า Nano Banana ในการสร้างภาพและแก้ไขภาพ โดยเฉพาะด้านความแม่นยำของ prompt, ความสอดคล้องขององค์ประกอบ และความสวยงามของภาพ ซึ่งวัดจาก benchmark ภายในชื่อว่า MagicBench แม้ผลการทดสอบจะยังไม่ถูกเผยแพร่ในรายงานทางเทคนิคอย่างเป็นทางการ Seedream 4.0 เป็นการรวมจุดแข็งของ Seedream 3.0 (ด้าน text-to-image) และ SeedEdit 3.0 (ด้าน image editing) เข้าด้วยกัน พร้อมปรับสถาปัตยกรรมใหม่ให้ inference เร็วขึ้นกว่าเดิมถึง 10 เท่า โดยยังคงราคาเดิมที่ $30 ต่อ 1,000 ภาพ และมีราคาต่อภาพต่ำกว่า Gemini 2.5 Flash Image บนแพลตฟอร์ม Fal.ai เครื่องมือนี้เปิดให้ใช้งานแล้วในจีนผ่านแอป Jimeng และ Doubao รวมถึงลูกค้าองค์กรผ่าน Volcano Engine ขณะที่ตลาด AI สร้างภาพในจีนกำลังร้อนแรง โดยมีคู่แข่งอย่าง Tencent, Kuaishou และ Vidu จาก Tsinghua University ที่เพิ่งเปิดตัวฟีเจอร์ใหม่สำหรับการสร้างภาพจากหลาย reference ✅ จุดเด่นของ Seedream 4.0 จาก ByteDance ➡️ เปิดตัวเมื่อ 10 กันยายน 2025 โดยแผนก Seed ของ ByteDance ➡️ รวมความสามารถของ Seedream 3.0 และ SeedEdit 3.0 เข้าด้วยกัน ➡️ ปรับสถาปัตยกรรมใหม่ ทำให้ inference เร็วขึ้นกว่าเดิม 10 เท่า ➡️ ราคา $30 ต่อ 1,000 ภาพ หรือ $0.03 ต่อภาพ บน Fal.ai — ถูกกว่า Nano Banana ✅ การเปรียบเทียบกับ Gemini 2.5 Flash Image (Nano Banana) ➡️ ByteDance อ้างว่า Seedream 4.0 เหนือกว่าใน prompt adherence, alignment และ aesthetics ➡️ ใช้ benchmark ภายในชื่อ MagicBench แต่ยังไม่มีรายงานเทคนิคเผยแพร่ ➡️ Nano Banana ได้รับความนิยมจากการสร้างภาพ 3D ที่แชร์ได้ง่ายและสนุก ➡️ Gemini 2.5 ยังครองอันดับสูงสุดใน text-to-image และ image editing บน Artificial Analysis ✅ การใช้งานและการเข้าถึง ➡️ เปิดให้ใช้งานในจีนผ่านแอป Jimeng และ Doubao ➡️ ลูกค้าองค์กรสามารถใช้ผ่าน Volcano Engine ของ ByteDance ➡️ ได้รับคำชมจากผู้ใช้เรื่องความแม่นยำในการแก้ไขภาพผ่าน text prompt ➡️ รองรับการใช้งานแบบ bulk สำหรับลูกค้าเชิงพาณิชย์ ✅ ข้อมูลเสริมจากภายนอก ➡️ ตลาด AI สร้างภาพในจีนเติบโตอย่างรวดเร็ว โดยมีผู้เล่นหลายราย ➡️ Vidu จาก Tsinghua University เปิดตัวฟีเจอร์สร้างภาพจาก 7 reference ➡️ Gemini 2.5 รองรับการสร้างภาพจาก 9 reference ➡️ รัฐบาลจีนรับรองลิขสิทธิ์ของภาพที่สร้างด้วย AI ตั้งแต่ปลายปี 2023 พร้อมบังคับติดป้ายกำกับ https://www.thestar.com.my/tech/tech-news/2025/09/12/bytedance-unveils-new-ai-image-model-to-rival-google-deepminds-nano-banana
    WWW.THESTAR.COM.MY
    ByteDance unveils new AI image model to rival Google DeepMind’s ‘Nano Banana’
    ByteDance claims that Seedream 4.0 beat Gemini 2.5 Flash Image for image generation and editing on its internal evaluation benchmark.
    0 Comments 0 Shares 330 Views 0 Reviews
  • เรื่องเล่าจาก Scaling Laws: เมื่อ compute ไม่ใช่พระเจ้าองค์เดียว และ data คือสิ่งที่เรากำลังขาดแคลน

    Kushal Chakrabarti เขียนบทความที่พลิกความเข้าใจเดิมเกี่ยวกับ The Bitter Lesson โดยชี้ว่า เราอ่านบทเรียนนี้ “กลับด้าน” มานานหลายปี เพราะจริง ๆ แล้ว Scaling Laws บอกเราว่า compute (C) ไม่ได้ทำงานลอย ๆ—มันต้องจับคู่กับ data (D) อย่างถูกสัดส่วน และความสัมพันธ์นั้นคือ C ∼ D²

    แปลว่า ถ้าเราจะเพิ่ม GPU เป็นสองเท่า เราต้องเพิ่มข้อมูลอีก 40% ไม่งั้นก็เหมือนจุดไฟเผาเงินเล่น เพราะ compute ที่มากขึ้นจะไม่มีประโยชน์ถ้าไม่มีข้อมูลที่มากพอให้มันเรียนรู้

    ปัญหาคือ เรากินข้อมูลจากอินเทอร์เน็ตไปหมดแล้ว และไม่มี “อินเทอร์เน็ตที่สอง” ให้เทรน GPT-6 ได้อีกต่อไป ข้อมูลที่มีคุณภาพสูงจริง ๆ เหลืออยู่แค่ประมาณ 10 ล้านล้าน token เท่านั้น ซึ่งไม่พอสำหรับโมเดลระดับ 100B+ parameters ที่ต้องใช้ข้อมูลมหาศาลต่อ parameter

    ดังนั้น ทีม AI ต้องเลือกทางเดินใหม่: จะเป็น “Architect” ที่ออกแบบโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม หรือเป็น “Alchemist” ที่สร้างข้อมูลใหม่จากการเรียนรู้ของโมเดลเอง เช่น self-play, RLHF, หรือ agentic feedback loop

    Scaling Laws และความเข้าใจใหม่
    ความสัมพันธ์ระหว่าง compute กับ data คือ C ∼ D²
    เพิ่ม GPU โดยไม่เพิ่มข้อมูล = ประสิทธิภาพลดลง
    Chinchilla model ของ DeepMind ยืนยันว่า model size ควรสอดคล้องกับ data size

    ปัญหาคอขวดด้านข้อมูล
    อินเทอร์เน็ตถูกใช้หมดแล้ว ไม่มีแหล่งข้อมูลใหม่ขนาดใหญ่
    ข้อมูลคุณภาพสูงเหลือเพียง ~10T token หลังกรองซ้ำและคุณภาพ
    GPT-6 ต้องการข้อมูลระดับ ~20 token ต่อ parameter ซึ่งไม่พอในปัจจุบัน

    ทางเลือกของทีมวิจัย AI
    Architect: พัฒนาโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม เช่น Mamba, HRM, ParScale
    Alchemist: สร้างข้อมูลใหม่จาก self-play, RLHF, agentic feedback loop
    ทั้งสองแนวทางต้องทำงานร่วมกันเพื่อผลลัพธ์ที่ดีที่สุด

    กลยุทธ์สำหรับผู้นำองค์กร
    Incumbent’s Gambit: ลงทุน 70% กับ Architect เพื่อความมั่นคง และ 30% กับ Alchemist เพื่อ hedge
    Challenger’s Gambit: ลงทุน 70% กับ Alchemist เพื่อ leapfrog และ 30% กับ Architect เพื่อความต่อเนื่อง
    การจัดพอร์ตวิจัยต้องสะท้อนความเสี่ยงและเป้าหมายขององค์กร

    https://obviouslywrong.substack.com/p/the-bitter-lesson-is-misunderstood
    🎙️ เรื่องเล่าจาก Scaling Laws: เมื่อ compute ไม่ใช่พระเจ้าองค์เดียว และ data คือสิ่งที่เรากำลังขาดแคลน Kushal Chakrabarti เขียนบทความที่พลิกความเข้าใจเดิมเกี่ยวกับ The Bitter Lesson โดยชี้ว่า เราอ่านบทเรียนนี้ “กลับด้าน” มานานหลายปี เพราะจริง ๆ แล้ว Scaling Laws บอกเราว่า compute (C) ไม่ได้ทำงานลอย ๆ—มันต้องจับคู่กับ data (D) อย่างถูกสัดส่วน และความสัมพันธ์นั้นคือ C ∼ D² แปลว่า ถ้าเราจะเพิ่ม GPU เป็นสองเท่า เราต้องเพิ่มข้อมูลอีก 40% ไม่งั้นก็เหมือนจุดไฟเผาเงินเล่น เพราะ compute ที่มากขึ้นจะไม่มีประโยชน์ถ้าไม่มีข้อมูลที่มากพอให้มันเรียนรู้ ปัญหาคือ เรากินข้อมูลจากอินเทอร์เน็ตไปหมดแล้ว และไม่มี “อินเทอร์เน็ตที่สอง” ให้เทรน GPT-6 ได้อีกต่อไป ข้อมูลที่มีคุณภาพสูงจริง ๆ เหลืออยู่แค่ประมาณ 10 ล้านล้าน token เท่านั้น ซึ่งไม่พอสำหรับโมเดลระดับ 100B+ parameters ที่ต้องใช้ข้อมูลมหาศาลต่อ parameter ดังนั้น ทีม AI ต้องเลือกทางเดินใหม่: จะเป็น “Architect” ที่ออกแบบโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม หรือเป็น “Alchemist” ที่สร้างข้อมูลใหม่จากการเรียนรู้ของโมเดลเอง เช่น self-play, RLHF, หรือ agentic feedback loop ✅ Scaling Laws และความเข้าใจใหม่ ➡️ ความสัมพันธ์ระหว่าง compute กับ data คือ C ∼ D² ➡️ เพิ่ม GPU โดยไม่เพิ่มข้อมูล = ประสิทธิภาพลดลง ➡️ Chinchilla model ของ DeepMind ยืนยันว่า model size ควรสอดคล้องกับ data size ✅ ปัญหาคอขวดด้านข้อมูล ➡️ อินเทอร์เน็ตถูกใช้หมดแล้ว ไม่มีแหล่งข้อมูลใหม่ขนาดใหญ่ ➡️ ข้อมูลคุณภาพสูงเหลือเพียง ~10T token หลังกรองซ้ำและคุณภาพ ➡️ GPT-6 ต้องการข้อมูลระดับ ~20 token ต่อ parameter ซึ่งไม่พอในปัจจุบัน ✅ ทางเลือกของทีมวิจัย AI ➡️ Architect: พัฒนาโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม เช่น Mamba, HRM, ParScale ➡️ Alchemist: สร้างข้อมูลใหม่จาก self-play, RLHF, agentic feedback loop ➡️ ทั้งสองแนวทางต้องทำงานร่วมกันเพื่อผลลัพธ์ที่ดีที่สุด ✅ กลยุทธ์สำหรับผู้นำองค์กร ➡️ Incumbent’s Gambit: ลงทุน 70% กับ Architect เพื่อความมั่นคง และ 30% กับ Alchemist เพื่อ hedge ➡️ Challenger’s Gambit: ลงทุน 70% กับ Alchemist เพื่อ leapfrog และ 30% กับ Architect เพื่อความต่อเนื่อง ➡️ การจัดพอร์ตวิจัยต้องสะท้อนความเสี่ยงและเป้าหมายขององค์กร https://obviouslywrong.substack.com/p/the-bitter-lesson-is-misunderstood
    OBVIOUSLYWRONG.SUBSTACK.COM
    The Bitter Lesson is Misunderstood
    Together, the Bitter Lesson and Scaling Laws reveal that the god of Compute we worship is yoked to an even greater one — the god of Data.
    0 Comments 0 Shares 271 Views 0 Reviews
  • โลกเตรียมถูกลดประชากรโลกครัังใหญ่.
    ..คนไร้คุณภาพและมีคุณภาพจะถูกลดในเวลาเดียวกัน.

    https://youtube.com/shorts/gdqPmiVC1ws?si=IyIVyLEZlBoGgTrj
    โลกเตรียมถูกลดประชากรโลกครัังใหญ่. ..คนไร้คุณภาพและมีคุณภาพจะถูกลดในเวลาเดียวกัน. https://youtube.com/shorts/gdqPmiVC1ws?si=IyIVyLEZlBoGgTrj
    0 Comments 0 Shares 114 Views 0 Reviews
  • Gemini 2.5 Flash Image — เมื่อ AI เข้าใจภาพอย่างมี “ความหมาย”

    ในอดีต โมเดลสร้างภาพด้วย AI มักจะเน้นความสวยงาม แต่ขาดความเข้าใจโลกจริง เช่น ถ้าขอให้วาด “แมวถือกล้วยในร้านอาหารหรู” ก็อาจได้ภาพที่ดูดีแต่ไม่สมเหตุสมผล วันนี้ Google เปิดตัว Gemini 2.5 Flash Image ซึ่งไม่ใช่แค่สร้างภาพสวย แต่ “เข้าใจ” ว่าอะไรควรอยู่ตรงไหน และทำไม

    Gemini 2.5 Flash Image สามารถรวมหลายภาพเป็นภาพเดียวได้อย่างกลมกลืน เช่น การวางสินค้าลงในฉากใหม่ หรือเปลี่ยนโทนสีห้องด้วยภาพตัวอย่าง นอกจากนี้ยังสามารถแก้ไขภาพด้วยคำสั่งธรรมดา เช่น “ลบคนด้านหลัง” หรือ “เปลี่ยนท่าทางของตัวละคร” โดยไม่ต้องใช้เครื่องมือซับซ้อน

    สิ่งที่โดดเด่นคือความสามารถในการรักษาความสม่ำเสมอของตัวละคร เช่น ถ้าสร้างภาพตัวละครหนึ่งในฉากต่าง ๆ ตัวละครนั้นจะยังคงหน้าตา เสื้อผ้า และบุคลิกเดิมไว้ได้อย่างแม่นยำ ซึ่งเหมาะกับการสร้างแบรนด์ การ์ตูน หรือสินค้าหลายมุมมอง

    Gemini ยังใช้ความรู้จากโลกจริง เช่น การอ่านภาพวาดมือ การเข้าใจแผนภาพ และการตอบคำถามจากภาพ เพื่อสร้างแอปการเรียนรู้แบบ interactive ได้ทันที

    โมเดลนี้เปิดให้ใช้งานผ่าน Google AI Studio และ Vertex AI โดยมีราคาประมาณ $0.039 ต่อภาพ และทุกภาพจะมีลายน้ำดิจิทัล SynthID ฝังไว้แบบมองไม่เห็น เพื่อระบุว่าเป็นภาพที่สร้างหรือแก้ไขด้วย AI

    สรุปเนื้อหาเป็นหัวข้อ
    Gemini 2.5 Flash Image เป็นโมเดลสร้างและแก้ไขภาพที่ล้ำหน้าที่สุดของ Google
    รองรับการรวมหลายภาพเป็นภาพเดียว (multi-image fusion) ด้วย prompt เดียว
    สามารถแก้ไขภาพแบบเจาะจง เช่น ลบสิ่งของ เปลี่ยนท่าทาง หรือปรับสี ด้วยคำสั่งธรรมดา
    รักษาความสม่ำเสมอของตัวละครในหลายฉากได้อย่างแม่นยำ
    ใช้ความรู้จากโลกจริง เช่น การอ่านภาพวาดมือ และตอบคำถามจากภาพ
    มี template app ใน Google AI Studio สำหรับทดลองและปรับแต่งได้ทันที
    รองรับการสร้างแอปแก้ไขภาพด้วย prompt เดียว เช่น “สร้างแอปใส่ฟิลเตอร์ภาพ”
    เปิดให้ใช้งานผ่าน Gemini API, Google AI Studio และ Vertex AI
    ราคา $30 ต่อ 1 ล้าน output tokens หรือประมาณ $0.039 ต่อภาพ
    ทุกภาพมีลายน้ำ SynthID ฝังไว้เพื่อระบุว่าเป็นภาพจาก AI

    ข้อมูลเสริมจากภายนอก
    Gemini 2.5 Flash Image เป็นโมเดลแรกที่ OpenRouter รองรับการสร้างภาพโดยตรง
    ใช้สถาปัตยกรรมเดียวกับ Gemini 2.5 Flash ซึ่งเน้นความเร็วและต้นทุนต่ำ
    DeepMind ระบุว่า Gemini 2.5 มีความสามารถ reasoning ที่ดีขึ้นจาก reinforcement learning2
    โมเดลนี้สามารถรันผ่าน SDK ที่รองรับ OpenAI API เช่น openai-python และ typescript
    มีการใช้งานร่วมกับ fal.ai เพื่อขยายสู่ชุมชนนักพัฒนา generative media

    https://developers.googleblog.com/en/introducing-gemini-2-5-flash-image/
    🎨 Gemini 2.5 Flash Image — เมื่อ AI เข้าใจภาพอย่างมี “ความหมาย” ในอดีต โมเดลสร้างภาพด้วย AI มักจะเน้นความสวยงาม แต่ขาดความเข้าใจโลกจริง เช่น ถ้าขอให้วาด “แมวถือกล้วยในร้านอาหารหรู” ก็อาจได้ภาพที่ดูดีแต่ไม่สมเหตุสมผล วันนี้ Google เปิดตัว Gemini 2.5 Flash Image ซึ่งไม่ใช่แค่สร้างภาพสวย แต่ “เข้าใจ” ว่าอะไรควรอยู่ตรงไหน และทำไม Gemini 2.5 Flash Image สามารถรวมหลายภาพเป็นภาพเดียวได้อย่างกลมกลืน เช่น การวางสินค้าลงในฉากใหม่ หรือเปลี่ยนโทนสีห้องด้วยภาพตัวอย่าง นอกจากนี้ยังสามารถแก้ไขภาพด้วยคำสั่งธรรมดา เช่น “ลบคนด้านหลัง” หรือ “เปลี่ยนท่าทางของตัวละคร” โดยไม่ต้องใช้เครื่องมือซับซ้อน สิ่งที่โดดเด่นคือความสามารถในการรักษาความสม่ำเสมอของตัวละคร เช่น ถ้าสร้างภาพตัวละครหนึ่งในฉากต่าง ๆ ตัวละครนั้นจะยังคงหน้าตา เสื้อผ้า และบุคลิกเดิมไว้ได้อย่างแม่นยำ ซึ่งเหมาะกับการสร้างแบรนด์ การ์ตูน หรือสินค้าหลายมุมมอง Gemini ยังใช้ความรู้จากโลกจริง เช่น การอ่านภาพวาดมือ การเข้าใจแผนภาพ และการตอบคำถามจากภาพ เพื่อสร้างแอปการเรียนรู้แบบ interactive ได้ทันที โมเดลนี้เปิดให้ใช้งานผ่าน Google AI Studio และ Vertex AI โดยมีราคาประมาณ $0.039 ต่อภาพ และทุกภาพจะมีลายน้ำดิจิทัล SynthID ฝังไว้แบบมองไม่เห็น เพื่อระบุว่าเป็นภาพที่สร้างหรือแก้ไขด้วย AI 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Gemini 2.5 Flash Image เป็นโมเดลสร้างและแก้ไขภาพที่ล้ำหน้าที่สุดของ Google ➡️ รองรับการรวมหลายภาพเป็นภาพเดียว (multi-image fusion) ด้วย prompt เดียว ➡️ สามารถแก้ไขภาพแบบเจาะจง เช่น ลบสิ่งของ เปลี่ยนท่าทาง หรือปรับสี ด้วยคำสั่งธรรมดา ➡️ รักษาความสม่ำเสมอของตัวละครในหลายฉากได้อย่างแม่นยำ ➡️ ใช้ความรู้จากโลกจริง เช่น การอ่านภาพวาดมือ และตอบคำถามจากภาพ ➡️ มี template app ใน Google AI Studio สำหรับทดลองและปรับแต่งได้ทันที ➡️ รองรับการสร้างแอปแก้ไขภาพด้วย prompt เดียว เช่น “สร้างแอปใส่ฟิลเตอร์ภาพ” ➡️ เปิดให้ใช้งานผ่าน Gemini API, Google AI Studio และ Vertex AI ➡️ ราคา $30 ต่อ 1 ล้าน output tokens หรือประมาณ $0.039 ต่อภาพ ➡️ ทุกภาพมีลายน้ำ SynthID ฝังไว้เพื่อระบุว่าเป็นภาพจาก AI ✅ ข้อมูลเสริมจากภายนอก ➡️ Gemini 2.5 Flash Image เป็นโมเดลแรกที่ OpenRouter รองรับการสร้างภาพโดยตรง ➡️ ใช้สถาปัตยกรรมเดียวกับ Gemini 2.5 Flash ซึ่งเน้นความเร็วและต้นทุนต่ำ ➡️ DeepMind ระบุว่า Gemini 2.5 มีความสามารถ reasoning ที่ดีขึ้นจาก reinforcement learning2 ➡️ โมเดลนี้สามารถรันผ่าน SDK ที่รองรับ OpenAI API เช่น openai-python และ typescript ➡️ มีการใช้งานร่วมกับ fal.ai เพื่อขยายสู่ชุมชนนักพัฒนา generative media https://developers.googleblog.com/en/introducing-gemini-2-5-flash-image/
    DEVELOPERS.GOOGLEBLOG.COM
    Introducing Gemini 2.5 Flash Image, our state-of-the-art image model- Google Developers Blog
    Explore Gemini 2.5 Flash Image, a powerful new image generation and editing model with advanced features and creative control.
    0 Comments 0 Shares 356 Views 0 Reviews
  • Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ

    ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก

    Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4

    นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น

    Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย

    การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด

    สรุปเนื้อหาเป็นหัวข้อ
    Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung
    Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง
    CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4
    รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง
    ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit
    ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit
    Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก
    รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี
    มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle
    ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล

    ข้อมูลเสริมจากภายนอก
    TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ
    N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม
    การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry
    Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล
    Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์

    https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    🎙️ Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4 นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung ➡️ Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง ➡️ CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4 ➡️ รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง ➡️ ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit ➡️ ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit ➡️ Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก ➡️ รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี ➡️ มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle ➡️ ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ ➡️ N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม ➡️ การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry ➡️ Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล ➡️ Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์ https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    0 Comments 0 Shares 281 Views 0 Reviews
  • ปฏิบัติการยึดคริปโตจากกลุ่ม Zeppelin: เมื่อความยุติธรรมไล่ทันอาชญากรรมไซเบอร์

    กระทรวงยุติธรรมสหรัฐฯ ประกาศยึดเงินคริปโตมูลค่ากว่า $2.8 ล้าน พร้อมเงินสด $70,000 และรถยนต์หรูจาก Ianis Aleksandrovich Antropenko ผู้ต้องสงสัยว่าเป็นหัวหน้ากลุ่มแรนซัมแวร์ Zeppelin ซึ่งเคยโจมตีองค์กรในหลายประเทศตั้งแต่ปี 2019–2022

    Zeppelin เป็นแรนซัมแวร์แบบ RaaS (Ransomware-as-a-Service) ที่ใช้วิธี “double extortion” คือเข้ารหัสข้อมูลเหยื่อและขโมยข้อมูลไปด้วย จากนั้นขู่จะเปิดเผยข้อมูลหากไม่จ่ายค่าไถ่ โดยกลุ่มนี้เคยโจมตีองค์กรด้านสุขภาพ, เทคโนโลยี, การเงิน และแม้แต่ศูนย์พักพิงคนไร้บ้าน

    Antropenko และพวกใช้บริการ ChipMixer ซึ่งเป็นแพลตฟอร์ม “ล้างรอย” เงินคริปโต เพื่อซ่อนที่มาของเงินค่าไถ่ และยังใช้วิธีแลกคริปโตเป็นเงินสดแล้วฝากแบบแบ่งยอดเพื่อหลบเลี่ยงการตรวจสอบจากธนาคาร

    แม้ Zeppelin จะถูกระบุว่า “ล้มหาย” ไปในปี 2022 หลังนักวิจัยจาก Unit221b สร้างเครื่องมือถอดรหัสฟรีให้เหยื่อ แต่ในปี 2024 มีรายงานว่าโค้ดของ Zeppelin ถูกขายในฟอรั่มแฮกเกอร์รัสเซียในราคาเพียง $500 ซึ่งอาจนำไปสู่การฟื้นคืนชีพของมัลแวร์นี้ในอนาคต

    ข้อมูลจากข่าวหลัก
    DoJ ยึดคริปโตมูลค่า $2.8 ล้าน, เงินสด $70,000 และรถหรูจากผู้ต้องสงสัย Antropenko
    Antropenko ถูกตั้งข้อหาฉ้อโกงคอมพิวเตอร์และฟอกเงินในศาลรัฐเท็กซัส
    Zeppelin เป็นแรนซัมแวร์แบบ RaaS ที่ใช้วิธี double extortion
    เหยื่อถูกเข้ารหัสข้อมูลและขู่เปิดเผยข้อมูลหากไม่จ่ายค่าไถ่
    กลุ่มนี้เคยโจมตีองค์กรในสหรัฐฯ และต่างประเทศ รวมถึง NGO และศูนย์พักพิง
    ใช้ ChipMixer และการฝากเงินแบบแบ่งยอดเพื่อฟอกเงิน
    DoJ ออกหมายจับ 6 ฉบับในรัฐเท็กซัส, เวอร์จิเนีย และแคลิฟอร์เนีย
    Zeppelin ถูกระบุว่าเลิกใช้งานในปี 2022 หลังนักวิจัยสร้างเครื่องมือถอดรหัสฟรี
    การยึดทรัพย์ครั้งนี้เป็นส่วนหนึ่งของแคมเปญปราบปรามแรนซัมแวร์ของ DoJ

    ข้อมูลเสริมจากภายนอก
    Zeppelin พัฒนาจาก VegaLocker และ Buran ซึ่งเป็นมัลแวร์สาย Delphi
    FBI เคยเตือนว่า Zeppelin ใช้ช่องโหว่ RDP และ SonicWall ในการเข้าถึงระบบ
    Unit221b หยุดให้บริการถอดรหัส Zeppelin แล้วในปี 2024
    มีรายงานว่า Zeppelin2 ถูกขายในฟอรั่มแฮกเกอร์รัสเซียในราคา $500
    DoJ เคยยึดคริปโตจากกลุ่ม Chaos และ BlackSuit รวมกว่า $3.4 ล้าน
    ตั้งแต่ปี 2020 DoJ ยึดทรัพย์จากอาชญากรรมไซเบอร์รวมกว่า $350 ล้าน

    https://www.techradar.com/pro/security/millions-of-dollars-in-cryptocurrency-has-been-confiscated-as-the-doj-cracks-down-on-an-infamous-ransomware-operator
    🕵️‍♂️ ปฏิบัติการยึดคริปโตจากกลุ่ม Zeppelin: เมื่อความยุติธรรมไล่ทันอาชญากรรมไซเบอร์ กระทรวงยุติธรรมสหรัฐฯ ประกาศยึดเงินคริปโตมูลค่ากว่า $2.8 ล้าน พร้อมเงินสด $70,000 และรถยนต์หรูจาก Ianis Aleksandrovich Antropenko ผู้ต้องสงสัยว่าเป็นหัวหน้ากลุ่มแรนซัมแวร์ Zeppelin ซึ่งเคยโจมตีองค์กรในหลายประเทศตั้งแต่ปี 2019–2022 Zeppelin เป็นแรนซัมแวร์แบบ RaaS (Ransomware-as-a-Service) ที่ใช้วิธี “double extortion” คือเข้ารหัสข้อมูลเหยื่อและขโมยข้อมูลไปด้วย จากนั้นขู่จะเปิดเผยข้อมูลหากไม่จ่ายค่าไถ่ โดยกลุ่มนี้เคยโจมตีองค์กรด้านสุขภาพ, เทคโนโลยี, การเงิน และแม้แต่ศูนย์พักพิงคนไร้บ้าน Antropenko และพวกใช้บริการ ChipMixer ซึ่งเป็นแพลตฟอร์ม “ล้างรอย” เงินคริปโต เพื่อซ่อนที่มาของเงินค่าไถ่ และยังใช้วิธีแลกคริปโตเป็นเงินสดแล้วฝากแบบแบ่งยอดเพื่อหลบเลี่ยงการตรวจสอบจากธนาคาร แม้ Zeppelin จะถูกระบุว่า “ล้มหาย” ไปในปี 2022 หลังนักวิจัยจาก Unit221b สร้างเครื่องมือถอดรหัสฟรีให้เหยื่อ แต่ในปี 2024 มีรายงานว่าโค้ดของ Zeppelin ถูกขายในฟอรั่มแฮกเกอร์รัสเซียในราคาเพียง $500 ซึ่งอาจนำไปสู่การฟื้นคืนชีพของมัลแวร์นี้ในอนาคต ✅ ข้อมูลจากข่าวหลัก ➡️ DoJ ยึดคริปโตมูลค่า $2.8 ล้าน, เงินสด $70,000 และรถหรูจากผู้ต้องสงสัย Antropenko ➡️ Antropenko ถูกตั้งข้อหาฉ้อโกงคอมพิวเตอร์และฟอกเงินในศาลรัฐเท็กซัส ➡️ Zeppelin เป็นแรนซัมแวร์แบบ RaaS ที่ใช้วิธี double extortion ➡️ เหยื่อถูกเข้ารหัสข้อมูลและขู่เปิดเผยข้อมูลหากไม่จ่ายค่าไถ่ ➡️ กลุ่มนี้เคยโจมตีองค์กรในสหรัฐฯ และต่างประเทศ รวมถึง NGO และศูนย์พักพิง ➡️ ใช้ ChipMixer และการฝากเงินแบบแบ่งยอดเพื่อฟอกเงิน ➡️ DoJ ออกหมายจับ 6 ฉบับในรัฐเท็กซัส, เวอร์จิเนีย และแคลิฟอร์เนีย ➡️ Zeppelin ถูกระบุว่าเลิกใช้งานในปี 2022 หลังนักวิจัยสร้างเครื่องมือถอดรหัสฟรี ➡️ การยึดทรัพย์ครั้งนี้เป็นส่วนหนึ่งของแคมเปญปราบปรามแรนซัมแวร์ของ DoJ ✅ ข้อมูลเสริมจากภายนอก ➡️ Zeppelin พัฒนาจาก VegaLocker และ Buran ซึ่งเป็นมัลแวร์สาย Delphi ➡️ FBI เคยเตือนว่า Zeppelin ใช้ช่องโหว่ RDP และ SonicWall ในการเข้าถึงระบบ ➡️ Unit221b หยุดให้บริการถอดรหัส Zeppelin แล้วในปี 2024 ➡️ มีรายงานว่า Zeppelin2 ถูกขายในฟอรั่มแฮกเกอร์รัสเซียในราคา $500 ➡️ DoJ เคยยึดคริปโตจากกลุ่ม Chaos และ BlackSuit รวมกว่า $3.4 ล้าน ➡️ ตั้งแต่ปี 2020 DoJ ยึดทรัพย์จากอาชญากรรมไซเบอร์รวมกว่า $350 ล้าน https://www.techradar.com/pro/security/millions-of-dollars-in-cryptocurrency-has-been-confiscated-as-the-doj-cracks-down-on-an-infamous-ransomware-operator
    0 Comments 0 Shares 573 Views 0 Reviews
  • ยุคแห่งการแฮกด้วย AI มาถึงแล้ว: เมื่อทั้งฝ่ายดีและร้ายใช้ AI ในสงครามไซเบอร์

    ในปี 2025 โลกไซเบอร์กำลังเข้าสู่ยุคใหม่ที่ AI ไม่ได้เป็นแค่เครื่องมือช่วยงานทั่วไปอีกต่อไป แต่กลายเป็นอาวุธในสงครามระหว่างแฮกเกอร์และผู้ป้องกันระบบ โดยรายงานจาก NBC และ Tom’s Hardware ระบุว่า AI โดยเฉพาะ LLMs (Large Language Models) เช่น ChatGPT, Gemini และ Big Sleep ถูกนำมาใช้ทั้งในการค้นหาช่องโหว่และสร้างมัลแวร์

    ตัวอย่างที่ชัดเจนคือกรณีของรัสเซียที่ฝังโปรแกรม AI ลงในอีเมลฟิชชิ่งเพื่อค้นหาไฟล์ลับในคอมพิวเตอร์ของเหยื่อโดยอัตโนมัติ หรือกรณีของเกาหลีเหนือที่ใช้ AI สร้างโปรไฟล์ปลอมเพื่อสมัครงานในบริษัทเทคโนโลยีตะวันตก แล้วใช้ AI สื่อสารกับเพื่อนร่วมงานเพื่อหลอกลวงข้อมูล

    ในฝั่งของผู้ป้องกัน Google ใช้ AI “Big Sleep” ค้นพบช่องโหว่กว่า 20 จุดในซอฟต์แวร์โอเพ่นซอร์ส เช่น FFmpeg และ ImageMagick โดยไม่มีมนุษย์เข้าไปช่วยในขั้นตอนแรกเลย ส่วน CrowdStrike และ ReliaQuest ก็ใช้ AI ช่วยวิเคราะห์เหตุการณ์และลดภาระงานที่ไม่จำเป็นให้กับทีมรักษาความปลอดภัย

    อย่างไรก็ตาม AI ยังไม่สามารถค้นพบช่องโหว่ใหม่ที่มนุษย์ไม่เคยรู้มาก่อน และยังสร้าง “AI slop” หรือรายงานปลอมจำนวนมากที่ทำให้นักพัฒนาซอฟต์แวร์ต้องเสียเวลาไปกับการตรวจสอบข้อมูลที่ไม่มีคุณภาพ

    ข้อมูลจากข่าวหลัก
    แฮกเกอร์จากหลายประเทศเริ่มใช้ AI ในการโจมตีไซเบอร์ เช่น รัสเซีย, เกาหลีเหนือ, จีน และอิหร่าน
    รัสเซียใช้ AI ฝังในอีเมลฟิชชิ่งเพื่อค้นหาไฟล์ลับในคอมพิวเตอร์เหยื่อ
    เกาหลีเหนือใช้ AI สร้างโปรไฟล์ปลอมเพื่อสมัครงานในบริษัทเทคโนโลยีตะวันตก
    Google ใช้ AI “Big Sleep” ค้นพบช่องโหว่กว่า 20 จุดในซอฟต์แวร์โอเพ่นซอร์ส
    CrowdStrike และ ReliaQuest ใช้ AI ช่วยวิเคราะห์และตอบสนองต่อเหตุการณ์ไซเบอร์
    AI ช่วยให้การค้นหาช่องโหว่เร็วขึ้น แต่ยังไม่สามารถค้นพบสิ่งใหม่ที่มนุษย์ไม่รู้
    HackerOne เริ่มแยกอันดับระหว่างนักวิจัยเดี่ยวกับกลุ่ม AI เช่น Xbow
    ปริมาณรายงานช่องโหว่ปลอมจาก AI เพิ่มขึ้นถึง 20% ในปี 2025

    ข้อมูลเสริมจากภายนอก
    Google Gemini และ DeepMind ร่วมกันพัฒนา Big Sleep เพื่อค้นหาช่องโหว่ก่อนที่แฮกเกอร์จะเจอ
    ช่องโหว่ CVE-2025-6965 ใน SQLite ถูก AI ค้นพบก่อนถูกโจมตีจริง
    AI ถูกใช้สร้าง deepfake เสียงและวิดีโอในแคมเปญฟิชชิ่งขั้นสูง
    87% ของผู้บริหาร IT กังวลเรื่องสงครามไซเบอร์ที่ใช้ AI เป็นอาวุธ
    85% ของเทคนิคโจมตีสามารถหลบหลีกเครื่องมือรักษาความปลอดภัยแบบเดิมได้
    Amazon และบริษัทใหญ่เชื่อว่า AI agents จะเปลี่ยนวิธีทำงานของมนุษย์ในทุกอุตสาหกรรม

    https://www.tomshardware.com/tech-industry/cyber-security/report-claims-the-era-of-ai-hacking-has-arrived-good-and-bad-actors-leveraging-ai-in-cybersecurity-arms-race
    🧠 ยุคแห่งการแฮกด้วย AI มาถึงแล้ว: เมื่อทั้งฝ่ายดีและร้ายใช้ AI ในสงครามไซเบอร์ ในปี 2025 โลกไซเบอร์กำลังเข้าสู่ยุคใหม่ที่ AI ไม่ได้เป็นแค่เครื่องมือช่วยงานทั่วไปอีกต่อไป แต่กลายเป็นอาวุธในสงครามระหว่างแฮกเกอร์และผู้ป้องกันระบบ โดยรายงานจาก NBC และ Tom’s Hardware ระบุว่า AI โดยเฉพาะ LLMs (Large Language Models) เช่น ChatGPT, Gemini และ Big Sleep ถูกนำมาใช้ทั้งในการค้นหาช่องโหว่และสร้างมัลแวร์ ตัวอย่างที่ชัดเจนคือกรณีของรัสเซียที่ฝังโปรแกรม AI ลงในอีเมลฟิชชิ่งเพื่อค้นหาไฟล์ลับในคอมพิวเตอร์ของเหยื่อโดยอัตโนมัติ หรือกรณีของเกาหลีเหนือที่ใช้ AI สร้างโปรไฟล์ปลอมเพื่อสมัครงานในบริษัทเทคโนโลยีตะวันตก แล้วใช้ AI สื่อสารกับเพื่อนร่วมงานเพื่อหลอกลวงข้อมูล ในฝั่งของผู้ป้องกัน Google ใช้ AI “Big Sleep” ค้นพบช่องโหว่กว่า 20 จุดในซอฟต์แวร์โอเพ่นซอร์ส เช่น FFmpeg และ ImageMagick โดยไม่มีมนุษย์เข้าไปช่วยในขั้นตอนแรกเลย ส่วน CrowdStrike และ ReliaQuest ก็ใช้ AI ช่วยวิเคราะห์เหตุการณ์และลดภาระงานที่ไม่จำเป็นให้กับทีมรักษาความปลอดภัย อย่างไรก็ตาม AI ยังไม่สามารถค้นพบช่องโหว่ใหม่ที่มนุษย์ไม่เคยรู้มาก่อน และยังสร้าง “AI slop” หรือรายงานปลอมจำนวนมากที่ทำให้นักพัฒนาซอฟต์แวร์ต้องเสียเวลาไปกับการตรวจสอบข้อมูลที่ไม่มีคุณภาพ ✅ ข้อมูลจากข่าวหลัก ➡️ แฮกเกอร์จากหลายประเทศเริ่มใช้ AI ในการโจมตีไซเบอร์ เช่น รัสเซีย, เกาหลีเหนือ, จีน และอิหร่าน ➡️ รัสเซียใช้ AI ฝังในอีเมลฟิชชิ่งเพื่อค้นหาไฟล์ลับในคอมพิวเตอร์เหยื่อ ➡️ เกาหลีเหนือใช้ AI สร้างโปรไฟล์ปลอมเพื่อสมัครงานในบริษัทเทคโนโลยีตะวันตก ➡️ Google ใช้ AI “Big Sleep” ค้นพบช่องโหว่กว่า 20 จุดในซอฟต์แวร์โอเพ่นซอร์ส ➡️ CrowdStrike และ ReliaQuest ใช้ AI ช่วยวิเคราะห์และตอบสนองต่อเหตุการณ์ไซเบอร์ ➡️ AI ช่วยให้การค้นหาช่องโหว่เร็วขึ้น แต่ยังไม่สามารถค้นพบสิ่งใหม่ที่มนุษย์ไม่รู้ ➡️ HackerOne เริ่มแยกอันดับระหว่างนักวิจัยเดี่ยวกับกลุ่ม AI เช่น Xbow ➡️ ปริมาณรายงานช่องโหว่ปลอมจาก AI เพิ่มขึ้นถึง 20% ในปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ Google Gemini และ DeepMind ร่วมกันพัฒนา Big Sleep เพื่อค้นหาช่องโหว่ก่อนที่แฮกเกอร์จะเจอ ➡️ ช่องโหว่ CVE-2025-6965 ใน SQLite ถูก AI ค้นพบก่อนถูกโจมตีจริง ➡️ AI ถูกใช้สร้าง deepfake เสียงและวิดีโอในแคมเปญฟิชชิ่งขั้นสูง ➡️ 87% ของผู้บริหาร IT กังวลเรื่องสงครามไซเบอร์ที่ใช้ AI เป็นอาวุธ ➡️ 85% ของเทคนิคโจมตีสามารถหลบหลีกเครื่องมือรักษาความปลอดภัยแบบเดิมได้ ➡️ Amazon และบริษัทใหญ่เชื่อว่า AI agents จะเปลี่ยนวิธีทำงานของมนุษย์ในทุกอุตสาหกรรม https://www.tomshardware.com/tech-industry/cyber-security/report-claims-the-era-of-ai-hacking-has-arrived-good-and-bad-actors-leveraging-ai-in-cybersecurity-arms-race
    WWW.TOMSHARDWARE.COM
    Report claims 'the era of AI hacking has arrived' — good and bad actors leveraging AI in cybersecurity arms race
    The security industry and the hackers they're supposed to defend against have both increased their use of AI as publicly available agents become more capable.
    0 Comments 0 Shares 340 Views 0 Reviews
  • เมื่อสตาร์ทอัพ AI อายุ 3 ปี เสนอซื้อ Chrome: เกมพลิกวงการเบราว์เซอร์

    ในโลกที่ Google Chrome ครองตลาดเบราว์เซอร์ด้วยผู้ใช้กว่า 3 พันล้านคน และเป็นหัวใจของระบบ AI และโฆษณาของ Google การที่ Perplexity AI เสนอซื้อ Chrome ด้วยเงินสด 34.5 พันล้านดอลลาร์ กลายเป็นข่าวใหญ่ที่สะเทือนวงการ

    Perplexity ก่อตั้งโดย Aravind Srinivas และทีมงานจาก UC Berkeley, OpenAI และ DeepMind โดยมีเป้าหมายสร้างระบบค้นหาที่ใช้ AI ตอบคำถามแบบเรียลไทม์ ล่าสุดเปิดตัวเบราว์เซอร์ Comet ที่ใช้ AI ช่วยค้นหาและทำงานแทนผู้ใช้

    ข้อเสนอซื้อ Chrome ถูกมองว่าเป็นกลยุทธ์เรียกความสนใจมากกว่าความเป็นไปได้จริง เพราะ Chrome ไม่ได้ประกาศขาย และ Google กำลังต่อสู้คดีผูกขาดจากกระทรวงยุติธรรมสหรัฐ ที่อาจบังคับให้ขาย Chrome เพื่อเปิดตลาดให้แข่งขันมากขึ้น

    Perplexity ระบุว่าจะคงรหัส Chromium แบบโอเพ่นซอร์ส ลงทุนเพิ่มอีก 3 พันล้านดอลลาร์ภายใน 2 ปี และไม่เปลี่ยนเครื่องมือค้นหาเริ่มต้น เพื่อคลายความกังวลด้านกฎระเบียบ

    แม้ข้อเสนอจะต่ำกว่าที่ DuckDuckGo ประเมินว่า Chrome อาจมีมูลค่าสูงถึง 50 พันล้านดอลลาร์ แต่ก็ทำให้ Perplexity กลายเป็นผู้เล่นที่ถูกจับตามองในสงครามเบราว์เซอร์ยุค AI

    ข้อมูลในข่าว
    Perplexity AI เสนอซื้อ Google Chrome ด้วยเงินสด 34.5 พันล้านดอลลาร์
    บริษัทมีอายุเพียง 3 ปี และมีมูลค่าประเมินล่าสุดที่ 18 พันล้านดอลลาร์
    ข้อเสนอเกิดขึ้นท่ามกลางคดีผูกขาดที่ Google ถูกตัดสินว่าครองตลาดค้นหาอย่างไม่เป็นธรรม
    Perplexity ระบุว่าจะคงรหัส Chromium แบบโอเพ่นซอร์ส และไม่เปลี่ยนเครื่องมือค้นหาเริ่มต้น
    DuckDuckGo ประเมินว่า Chrome อาจมีมูลค่าสูงถึง 50 พันล้านดอลลาร์
    Google ยังไม่ตอบรับข้อเสนอ และกำลังอุทธรณ์คำตัดสินของศาล
    Perplexity เปิดตัวเบราว์เซอร์ Comet ที่ใช้ AI ช่วยค้นหาและทำงานแทนผู้ใช้
    หากได้ Chrome จะเข้าถึงผู้ใช้กว่า 3 พันล้านคนทันที

    Google ยังไม่แสดงท่าทีว่าจะขาย Chrome และมีแนวโน้มต่อต้านการบังคับขาย
    การซื้อ Chrome อาจเผชิญแรงต้านจากศาลสูงและหน่วยงานกำกับดูแล
    Perplexity ยังไม่เปิดเผยแหล่งเงินทุนอย่างชัดเจน แม้จะอ้างว่ามีผู้สนับสนุนเต็มจำนวน
    หาก Chrome ถูกขายจริง อาจส่งผลกระทบต่อระบบโฆษณาและ AI ของ Google ทั่วโลก

    https://www.techradar.com/pro/openai-rival-gets-free-publicity-by-offering-to-buy-google-chrome-for-just-under-usd35-billion-so-does-that-mean-it-will-kill-comet
    🧠 เมื่อสตาร์ทอัพ AI อายุ 3 ปี เสนอซื้อ Chrome: เกมพลิกวงการเบราว์เซอร์ ในโลกที่ Google Chrome ครองตลาดเบราว์เซอร์ด้วยผู้ใช้กว่า 3 พันล้านคน และเป็นหัวใจของระบบ AI และโฆษณาของ Google การที่ Perplexity AI เสนอซื้อ Chrome ด้วยเงินสด 34.5 พันล้านดอลลาร์ กลายเป็นข่าวใหญ่ที่สะเทือนวงการ Perplexity ก่อตั้งโดย Aravind Srinivas และทีมงานจาก UC Berkeley, OpenAI และ DeepMind โดยมีเป้าหมายสร้างระบบค้นหาที่ใช้ AI ตอบคำถามแบบเรียลไทม์ ล่าสุดเปิดตัวเบราว์เซอร์ Comet ที่ใช้ AI ช่วยค้นหาและทำงานแทนผู้ใช้ ข้อเสนอซื้อ Chrome ถูกมองว่าเป็นกลยุทธ์เรียกความสนใจมากกว่าความเป็นไปได้จริง เพราะ Chrome ไม่ได้ประกาศขาย และ Google กำลังต่อสู้คดีผูกขาดจากกระทรวงยุติธรรมสหรัฐ ที่อาจบังคับให้ขาย Chrome เพื่อเปิดตลาดให้แข่งขันมากขึ้น Perplexity ระบุว่าจะคงรหัส Chromium แบบโอเพ่นซอร์ส ลงทุนเพิ่มอีก 3 พันล้านดอลลาร์ภายใน 2 ปี และไม่เปลี่ยนเครื่องมือค้นหาเริ่มต้น เพื่อคลายความกังวลด้านกฎระเบียบ แม้ข้อเสนอจะต่ำกว่าที่ DuckDuckGo ประเมินว่า Chrome อาจมีมูลค่าสูงถึง 50 พันล้านดอลลาร์ แต่ก็ทำให้ Perplexity กลายเป็นผู้เล่นที่ถูกจับตามองในสงครามเบราว์เซอร์ยุค AI ✅ ข้อมูลในข่าว ➡️ Perplexity AI เสนอซื้อ Google Chrome ด้วยเงินสด 34.5 พันล้านดอลลาร์ ➡️ บริษัทมีอายุเพียง 3 ปี และมีมูลค่าประเมินล่าสุดที่ 18 พันล้านดอลลาร์ ➡️ ข้อเสนอเกิดขึ้นท่ามกลางคดีผูกขาดที่ Google ถูกตัดสินว่าครองตลาดค้นหาอย่างไม่เป็นธรรม ➡️ Perplexity ระบุว่าจะคงรหัส Chromium แบบโอเพ่นซอร์ส และไม่เปลี่ยนเครื่องมือค้นหาเริ่มต้น ➡️ DuckDuckGo ประเมินว่า Chrome อาจมีมูลค่าสูงถึง 50 พันล้านดอลลาร์ ➡️ Google ยังไม่ตอบรับข้อเสนอ และกำลังอุทธรณ์คำตัดสินของศาล ➡️ Perplexity เปิดตัวเบราว์เซอร์ Comet ที่ใช้ AI ช่วยค้นหาและทำงานแทนผู้ใช้ ➡️ หากได้ Chrome จะเข้าถึงผู้ใช้กว่า 3 พันล้านคนทันที ⛔ Google ยังไม่แสดงท่าทีว่าจะขาย Chrome และมีแนวโน้มต่อต้านการบังคับขาย ⛔ การซื้อ Chrome อาจเผชิญแรงต้านจากศาลสูงและหน่วยงานกำกับดูแล ⛔ Perplexity ยังไม่เปิดเผยแหล่งเงินทุนอย่างชัดเจน แม้จะอ้างว่ามีผู้สนับสนุนเต็มจำนวน ⛔ หาก Chrome ถูกขายจริง อาจส่งผลกระทบต่อระบบโฆษณาและ AI ของ Google ทั่วโลก https://www.techradar.com/pro/openai-rival-gets-free-publicity-by-offering-to-buy-google-chrome-for-just-under-usd35-billion-so-does-that-mean-it-will-kill-comet
    0 Comments 0 Shares 326 Views 0 Reviews
More Results