• “ไมโครโฟนตรวจจับเสียงปืนของ Flock จะเริ่มฟังเสียงมนุษย์ — เทคโนโลยีความปลอดภัยหรือการละเมิดสิทธิพลเมือง?”

    Flock Safety บริษัทเทคโนโลยีตำรวจที่มีชื่อเสียงจากระบบอ่านป้ายทะเบียนอัตโนมัติทั่วสหรัฐฯ กำลังเปิดตัวฟีเจอร์ใหม่ในผลิตภัณฑ์ Raven ซึ่งเดิมใช้ตรวจจับเสียงปืนในพื้นที่สาธารณะ แต่ตอนนี้จะสามารถ “ฟังเสียงมนุษย์” โดยเฉพาะเสียงที่แสดงถึงความทุกข์ เช่น การกรีดร้องหรือร้องขอความช่วยเหลือ

    แม้จะถูกนำเสนอว่าเป็นการเพิ่มประสิทธิภาพในการช่วยเหลือผู้ประสบเหตุ แต่ Electronic Frontier Foundation (EFF) เตือนว่าการเปลี่ยนไมโครโฟนให้ฟังเสียงมนุษย์ในพื้นที่สาธารณะอาจละเมิดกฎหมายการดักฟังของรัฐ และเปิดช่องให้เกิดการเฝ้าระวังที่เกินขอบเขต

    ระบบ Raven ใช้ AI วิเคราะห์เสียงแบบเรียลไทม์ โดยอ้างว่าไม่เก็บเสียงไว้หากไม่มีการตรวจพบเหตุการณ์ แต่ผู้เชี่ยวชาญชี้ว่าเทคโนโลยีนี้อาจเกิด false positive ได้ง่าย เช่น เข้าใจเสียงเด็กเล่นเป็นเสียงกรีดร้อง หรือเสียงพลุเป็นเสียงปืน ซึ่งเคยเกิดกรณีตำรวจยิงเด็กในชิคาโกเพราะเข้าใจผิดจากระบบ ShotSpotter

    นอกจากนี้ Flock ยังมีประวัติปัญหาทางกฎหมาย เช่น การให้ ICE เข้าถึงข้อมูลในรัฐอิลลินอยส์โดยไม่ได้รับอนุญาต และการติดตั้งกล้องใหม่ในเมือง Evanston หลังถูกสั่งให้ถอดออก ซึ่งทำให้หลายเมืองเริ่มยกเลิกสัญญากับบริษัท

    การเพิ่มฟีเจอร์ตรวจจับเสียงมนุษย์จึงอาจเป็นจุดเปลี่ยนที่ทำให้เมืองต่าง ๆ ต้องทบทวนว่าเทคโนโลยีนี้ยังคงเป็นเครื่องมือเพื่อความปลอดภัย หรือกลายเป็นภัยต่อสิทธิพลเมืองโดยไม่รู้ตัว

    ข้อมูลสำคัญจากข่าว
    Flock Safety เพิ่มฟีเจอร์ใหม่ใน Raven ให้ตรวจจับเสียงมนุษย์ที่แสดงความทุกข์ เช่น กรีดร้อง
    ระบบใช้ AI วิเคราะห์เสียงแบบเรียลไทม์ และอ้างว่าไม่เก็บเสียงหากไม่มีเหตุการณ์
    Raven เดิมใช้ตรวจจับเสียงปืน แต่ตอนนี้ขยายไปสู่เสียงมนุษย์
    EFF เตือนว่าอาจละเมิดกฎหมายการดักฟังของรัฐ
    มีกรณีตำรวจยิงเด็กในชิคาโกจากการเข้าใจผิดว่าเสียงพลุคือเสียงปืน
    Flock เคยให้ ICE เข้าถึงข้อมูลในรัฐอิลลินอยส์โดยไม่ได้รับอนุญาต
    เมือง Evanston สั่งให้ถอดกล้อง แต่ Flock กลับติดตั้งใหม่โดยไม่ได้รับอนุญาต
    หลายเมืองเริ่มยกเลิกสัญญากับ Flock เพราะปัญหาทางกฎหมายและความเชื่อมั่น

    ข้อมูลเสริมจากภายนอก
    Raven ใช้เทคโนโลยีคล้าย ShotSpotter ที่ตรวจจับเสียงปืนและเสียงกระจกแตก
    AI voice detection เริ่มมีความแม่นยำใกล้เสียงมนุษย์จริง ทำให้แยกแยะยากขึ้น
    การตรวจจับเสียง distress อาจช่วยเพิ่มความเร็วในการช่วยเหลือผู้ประสบเหตุ
    เทคโนโลยีนี้สามารถเชื่อมกับกล้องและระบบอื่นเพื่อให้ข้อมูลแบบครบวงจร
    การใช้ไมโครโฟนในพื้นที่สาธารณะอาจส่งผลต่อเสรีภาพในการพูดและความเป็นส่วนตัว

    https://www.eff.org/deeplinks/2025/10/flocks-gunshot-detection-microphones-will-start-listening-human-voices
    🎙️ “ไมโครโฟนตรวจจับเสียงปืนของ Flock จะเริ่มฟังเสียงมนุษย์ — เทคโนโลยีความปลอดภัยหรือการละเมิดสิทธิพลเมือง?” Flock Safety บริษัทเทคโนโลยีตำรวจที่มีชื่อเสียงจากระบบอ่านป้ายทะเบียนอัตโนมัติทั่วสหรัฐฯ กำลังเปิดตัวฟีเจอร์ใหม่ในผลิตภัณฑ์ Raven ซึ่งเดิมใช้ตรวจจับเสียงปืนในพื้นที่สาธารณะ แต่ตอนนี้จะสามารถ “ฟังเสียงมนุษย์” โดยเฉพาะเสียงที่แสดงถึงความทุกข์ เช่น การกรีดร้องหรือร้องขอความช่วยเหลือ แม้จะถูกนำเสนอว่าเป็นการเพิ่มประสิทธิภาพในการช่วยเหลือผู้ประสบเหตุ แต่ Electronic Frontier Foundation (EFF) เตือนว่าการเปลี่ยนไมโครโฟนให้ฟังเสียงมนุษย์ในพื้นที่สาธารณะอาจละเมิดกฎหมายการดักฟังของรัฐ และเปิดช่องให้เกิดการเฝ้าระวังที่เกินขอบเขต ระบบ Raven ใช้ AI วิเคราะห์เสียงแบบเรียลไทม์ โดยอ้างว่าไม่เก็บเสียงไว้หากไม่มีการตรวจพบเหตุการณ์ แต่ผู้เชี่ยวชาญชี้ว่าเทคโนโลยีนี้อาจเกิด false positive ได้ง่าย เช่น เข้าใจเสียงเด็กเล่นเป็นเสียงกรีดร้อง หรือเสียงพลุเป็นเสียงปืน ซึ่งเคยเกิดกรณีตำรวจยิงเด็กในชิคาโกเพราะเข้าใจผิดจากระบบ ShotSpotter นอกจากนี้ Flock ยังมีประวัติปัญหาทางกฎหมาย เช่น การให้ ICE เข้าถึงข้อมูลในรัฐอิลลินอยส์โดยไม่ได้รับอนุญาต และการติดตั้งกล้องใหม่ในเมือง Evanston หลังถูกสั่งให้ถอดออก ซึ่งทำให้หลายเมืองเริ่มยกเลิกสัญญากับบริษัท การเพิ่มฟีเจอร์ตรวจจับเสียงมนุษย์จึงอาจเป็นจุดเปลี่ยนที่ทำให้เมืองต่าง ๆ ต้องทบทวนว่าเทคโนโลยีนี้ยังคงเป็นเครื่องมือเพื่อความปลอดภัย หรือกลายเป็นภัยต่อสิทธิพลเมืองโดยไม่รู้ตัว ✅ ข้อมูลสำคัญจากข่าว ➡️ Flock Safety เพิ่มฟีเจอร์ใหม่ใน Raven ให้ตรวจจับเสียงมนุษย์ที่แสดงความทุกข์ เช่น กรีดร้อง ➡️ ระบบใช้ AI วิเคราะห์เสียงแบบเรียลไทม์ และอ้างว่าไม่เก็บเสียงหากไม่มีเหตุการณ์ ➡️ Raven เดิมใช้ตรวจจับเสียงปืน แต่ตอนนี้ขยายไปสู่เสียงมนุษย์ ➡️ EFF เตือนว่าอาจละเมิดกฎหมายการดักฟังของรัฐ ➡️ มีกรณีตำรวจยิงเด็กในชิคาโกจากการเข้าใจผิดว่าเสียงพลุคือเสียงปืน ➡️ Flock เคยให้ ICE เข้าถึงข้อมูลในรัฐอิลลินอยส์โดยไม่ได้รับอนุญาต ➡️ เมือง Evanston สั่งให้ถอดกล้อง แต่ Flock กลับติดตั้งใหม่โดยไม่ได้รับอนุญาต ➡️ หลายเมืองเริ่มยกเลิกสัญญากับ Flock เพราะปัญหาทางกฎหมายและความเชื่อมั่น ✅ ข้อมูลเสริมจากภายนอก ➡️ Raven ใช้เทคโนโลยีคล้าย ShotSpotter ที่ตรวจจับเสียงปืนและเสียงกระจกแตก ➡️ AI voice detection เริ่มมีความแม่นยำใกล้เสียงมนุษย์จริง ทำให้แยกแยะยากขึ้น ➡️ การตรวจจับเสียง distress อาจช่วยเพิ่มความเร็วในการช่วยเหลือผู้ประสบเหตุ ➡️ เทคโนโลยีนี้สามารถเชื่อมกับกล้องและระบบอื่นเพื่อให้ข้อมูลแบบครบวงจร ➡️ การใช้ไมโครโฟนในพื้นที่สาธารณะอาจส่งผลต่อเสรีภาพในการพูดและความเป็นส่วนตัว https://www.eff.org/deeplinks/2025/10/flocks-gunshot-detection-microphones-will-start-listening-human-voices
    0 ความคิดเห็น 0 การแบ่งปัน 56 มุมมอง 0 รีวิว
  • “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง”

    ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI

    ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด

    AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้

    Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง

    ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน

    ข้อมูลสำคัญจากข่าว
    Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane
    RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ
    GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40
    AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D
    RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า
    Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client
    Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง
    Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร

    ข้อมูลเสริมจากภายนอก
    RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7
    RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2
    Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI
    MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล
    CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ

    https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    🎨 “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง” ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้ Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane ➡️ RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ ➡️ GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40 ➡️ AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D ➡️ RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า ➡️ Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client ➡️ Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง ➡️ Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7 ➡️ RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2 ➡️ Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI ➡️ MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล ➡️ CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    0 ความคิดเห็น 0 การแบ่งปัน 141 มุมมอง 0 รีวิว
  • “5G ยังไม่สุด แต่ 6G กำลังมา — Qualcomm, Verizon และ Meta ร่วมวางรากฐานสู่ยุค AI แบบไร้รอยต่อ”

    แม้ 5G จะยังไม่เข้าถึงศักยภาพเต็มที่ในหลายประเทศ แต่โลกเทคโนโลยีก็ไม่รอช้า ล่าสุด Qualcomm ได้ประกาศในงาน Snapdragon Summit 2025 ว่า “6G” กำลังถูกพัฒนาอย่างจริงจัง และจะเริ่มมีอุปกรณ์ “pre-commercial” ออกมาในปี 2028 ก่อนจะเข้าสู่การใช้งานจริงในช่วงปี 2030

    Cristiano Amon ซีอีโอของ Qualcomm ระบุว่า 6G จะไม่ใช่แค่การเชื่อมต่อที่เร็วขึ้น แต่จะเป็น “โครงสร้างพื้นฐานของยุค AI” โดยอุปกรณ์จะไม่ใช่แค่โทรศัพท์อีกต่อไป แต่จะเป็นศูนย์กลางของระบบที่ประกอบด้วยสมาร์ตวอทช์, แว่นตาอัจฉริยะ, รถยนต์ และอุปกรณ์ edge computing ที่ทำงานร่วมกันแบบเรียลไทม์

    6G จะต้องใช้สถาปัตยกรรมใหม่ทั้งหมด ทั้งระบบหน่วยความจำและหน่วยประมวลผลแบบ neural processing unit เพื่อรองรับการทำงานของ AI agent ที่จะมาแทนแอปพลิเคชันแบบเดิม เช่น การจัดการปฏิทิน, การจองร้านอาหาร, การส่งอีเมล — ทั้งหมดจะถูกจัดการโดย AI ที่เข้าใจบริบทและความต้องการของผู้ใช้

    Verizon ก็ได้จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia เพื่อกำหนด use case ใหม่ ๆ เช่น การใช้แว่นตาเป็นอินเทอร์เฟซหลัก, การเชื่อมต่อ edge-cloud แบบไร้รอยต่อ และการใช้ข้อมูลจากเซนเซอร์เพื่อสร้างระบบที่ “เข้าใจ” ผู้ใช้มากกว่าที่เคย

    แม้จะยังไม่มีมาตรฐาน 6G อย่างเป็นทางการ แต่ 3GPP ได้เริ่มศึกษาแล้วใน Release 20 และคาดว่า Release 21 จะเป็นจุดเริ่มต้นของมาตรฐาน 6G ที่แท้จริงในช่วงปลายทศวรรษนี้

    ข้อมูลสำคัญจากข่าว
    Qualcomm ประกาศว่าอุปกรณ์ 6G แบบ pre-commercial จะเริ่มออกในปี 2028
    6G จะเป็นโครงสร้างพื้นฐานของยุค AI โดยเน้น edge computing และ AI agent
    อุปกรณ์จะทำงานร่วมกัน เช่น สมาร์ตวอทช์, แว่นตา, รถยนต์ และโทรศัพท์
    6G ต้องใช้สถาปัตยกรรมใหม่ เช่น neural processing unit และ memory system แบบใหม่
    Verizon จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia
    3GPP เริ่มศึกษา 6G แล้วใน Release 20 และจะมีมาตรฐานใน Release 21
    Qualcomm ร่วมมือกับ Google, Adobe, Asus, HP, Lenovo และ Razer เพื่อสร้าง ecosystem ใหม่
    AI agent จะมาแทนแอปแบบเดิม โดยเข้าใจเจตนาและบริบทของผู้ใช้

    ข้อมูลเสริมจากภายนอก
    5G Advanced จะเป็นรากฐานของ 6G โดยเน้น latency ต่ำและการเชื่อมต่อแบบ context-aware
    Snapdragon Cockpit Elite platform ของ Qualcomm ถูกใช้ในรถยนต์เพื่อสร้างประสบการณ์ AI
    Edge AI ช่วยให้ประมวลผลได้เร็วขึ้นโดยไม่ต้องพึ่ง cloud ลดความเสี่ยงด้านความเป็นส่วนตัว
    แว่นตาอัจฉริยะ เช่น Meta Ray-Ban และ Xreal Project Aura จะเป็นอุปกรณ์หลักในยุค 6G
    ตลาด edge AI และอุปกรณ์เชื่อมต่อคาดว่าจะมีมูลค่ากว่า $200 พันล้านดอลลาร์ในทศวรรษหน้า

    https://www.thestar.com.my/tech/tech-news/2025/10/04/5g-hasnt-yet-hit-its-stride-but-6g-is-already-on-the-horizon
    📡 “5G ยังไม่สุด แต่ 6G กำลังมา — Qualcomm, Verizon และ Meta ร่วมวางรากฐานสู่ยุค AI แบบไร้รอยต่อ” แม้ 5G จะยังไม่เข้าถึงศักยภาพเต็มที่ในหลายประเทศ แต่โลกเทคโนโลยีก็ไม่รอช้า ล่าสุด Qualcomm ได้ประกาศในงาน Snapdragon Summit 2025 ว่า “6G” กำลังถูกพัฒนาอย่างจริงจัง และจะเริ่มมีอุปกรณ์ “pre-commercial” ออกมาในปี 2028 ก่อนจะเข้าสู่การใช้งานจริงในช่วงปี 2030 Cristiano Amon ซีอีโอของ Qualcomm ระบุว่า 6G จะไม่ใช่แค่การเชื่อมต่อที่เร็วขึ้น แต่จะเป็น “โครงสร้างพื้นฐานของยุค AI” โดยอุปกรณ์จะไม่ใช่แค่โทรศัพท์อีกต่อไป แต่จะเป็นศูนย์กลางของระบบที่ประกอบด้วยสมาร์ตวอทช์, แว่นตาอัจฉริยะ, รถยนต์ และอุปกรณ์ edge computing ที่ทำงานร่วมกันแบบเรียลไทม์ 6G จะต้องใช้สถาปัตยกรรมใหม่ทั้งหมด ทั้งระบบหน่วยความจำและหน่วยประมวลผลแบบ neural processing unit เพื่อรองรับการทำงานของ AI agent ที่จะมาแทนแอปพลิเคชันแบบเดิม เช่น การจัดการปฏิทิน, การจองร้านอาหาร, การส่งอีเมล — ทั้งหมดจะถูกจัดการโดย AI ที่เข้าใจบริบทและความต้องการของผู้ใช้ Verizon ก็ได้จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia เพื่อกำหนด use case ใหม่ ๆ เช่น การใช้แว่นตาเป็นอินเทอร์เฟซหลัก, การเชื่อมต่อ edge-cloud แบบไร้รอยต่อ และการใช้ข้อมูลจากเซนเซอร์เพื่อสร้างระบบที่ “เข้าใจ” ผู้ใช้มากกว่าที่เคย แม้จะยังไม่มีมาตรฐาน 6G อย่างเป็นทางการ แต่ 3GPP ได้เริ่มศึกษาแล้วใน Release 20 และคาดว่า Release 21 จะเป็นจุดเริ่มต้นของมาตรฐาน 6G ที่แท้จริงในช่วงปลายทศวรรษนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Qualcomm ประกาศว่าอุปกรณ์ 6G แบบ pre-commercial จะเริ่มออกในปี 2028 ➡️ 6G จะเป็นโครงสร้างพื้นฐานของยุค AI โดยเน้น edge computing และ AI agent ➡️ อุปกรณ์จะทำงานร่วมกัน เช่น สมาร์ตวอทช์, แว่นตา, รถยนต์ และโทรศัพท์ ➡️ 6G ต้องใช้สถาปัตยกรรมใหม่ เช่น neural processing unit และ memory system แบบใหม่ ➡️ Verizon จัดงาน 6G Innovation Forum ร่วมกับ Meta, Samsung, Ericsson และ Nokia ➡️ 3GPP เริ่มศึกษา 6G แล้วใน Release 20 และจะมีมาตรฐานใน Release 21 ➡️ Qualcomm ร่วมมือกับ Google, Adobe, Asus, HP, Lenovo และ Razer เพื่อสร้าง ecosystem ใหม่ ➡️ AI agent จะมาแทนแอปแบบเดิม โดยเข้าใจเจตนาและบริบทของผู้ใช้ ✅ ข้อมูลเสริมจากภายนอก ➡️ 5G Advanced จะเป็นรากฐานของ 6G โดยเน้น latency ต่ำและการเชื่อมต่อแบบ context-aware ➡️ Snapdragon Cockpit Elite platform ของ Qualcomm ถูกใช้ในรถยนต์เพื่อสร้างประสบการณ์ AI ➡️ Edge AI ช่วยให้ประมวลผลได้เร็วขึ้นโดยไม่ต้องพึ่ง cloud ลดความเสี่ยงด้านความเป็นส่วนตัว ➡️ แว่นตาอัจฉริยะ เช่น Meta Ray-Ban และ Xreal Project Aura จะเป็นอุปกรณ์หลักในยุค 6G ➡️ ตลาด edge AI และอุปกรณ์เชื่อมต่อคาดว่าจะมีมูลค่ากว่า $200 พันล้านดอลลาร์ในทศวรรษหน้า https://www.thestar.com.my/tech/tech-news/2025/10/04/5g-hasnt-yet-hit-its-stride-but-6g-is-already-on-the-horizon
    WWW.THESTAR.COM.MY
    5G hasn’t yet hit its stride, but 6G is already on the horizon
    The companies that power telecom providers are already laying the groundwork for 6G communications.
    0 ความคิดเห็น 0 การแบ่งปัน 142 มุมมอง 0 รีวิว
  • “SpaceX เตรียมปล่อยดาวเทียม Starlink กลุ่มใหม่ — พร้อมทดสอบ Starship ครั้งที่ 5 เพื่อภารกิจสู่ดวงจันทร์และดาวอังคาร”

    หลังจากเพิ่งปล่อยดาวเทียม Starlink ไปเมื่อสัปดาห์ก่อน SpaceX ก็ไม่รอช้า เตรียมภารกิจใหม่ในวันที่ 3 ตุลาคม 2025 โดยจะปล่อยจรวด Falcon 9 จากฐานยิง SLC-4E ที่ Vandenberg Space Force Base รัฐแคลิฟอร์เนีย เวลา 6:00 น. PDT (13:00 UTC) ภารกิจนี้มีชื่อว่า Starlink Group 11-39 ซึ่งจะนำดาวเทียม Starlink V2 Mini จำนวน 28 ดวงเข้าสู่วงโคจรระดับต่ำที่ความสูงประมาณ 595 กิโลเมตร

    แม้จะเป็นภารกิจลำดับที่ 39 ของกลุ่มนี้ แต่จริง ๆ แล้วนี่คือการปล่อยครั้งที่ 15 สำหรับวงโคจรเฉพาะนี้ โดยมีเป้าหมายเพื่อเสริมประสิทธิภาพและขยายพื้นที่ครอบคลุมของเครือข่ายอินเทอร์เน็ต Starlink ที่ปัจจุบันมีดาวเทียมทำงานอยู่แล้วกว่า 8,460 ดวงทั่วโลก

    หลังจากปล่อยดาวเทียมแล้ว บูสเตอร์ขั้นแรกของ Falcon 9 จะพยายามลงจอดบนเรือโดรน “Of Course I Still Love You” ที่ลอยอยู่ในมหาสมุทรแปซิฟิก ซึ่งอาจทำให้เกิดเสียงโซนิคบูมในพื้นที่ Santa Barbara, San Luis Obispo และ Ventura

    นอกจากภารกิจ Starlink แล้ว SpaceX ยังเตรียมทดสอบจรวด Starship ครั้งที่ 5 ในวันที่ 13 ตุลาคม 2025 จากฐาน Starbase ในรัฐเท็กซัส โดยจรวด Starship ถือเป็นจรวดที่ทรงพลังที่สุดในโลก และเป็นหัวใจของแผนการพามนุษย์กลับไปดวงจันทร์และเดินทางสู่ดาวอังคารในอนาคต

    การทดสอบครั้งก่อนในเดือนสิงหาคมประสบความสำเร็จ ขณะที่การทดสอบในเดือนมิถุนายนจบลงด้วยการระเบิด แต่ Elon Musk ยืนยันว่าจะเร่งรอบการทดสอบให้เร็วขึ้น หลังได้รับการอนุมัติจากหน่วยงานกำกับดูแล

    ผู้สนใจสามารถติดตามการถ่ายทอดสดได้ผ่านเว็บไซต์ SpaceX, แอป X TV หรือบัญชี @SpaceX บนแพลตฟอร์ม X โดยการถ่ายทอดจะเริ่มประมาณ 5 นาทีก่อนปล่อยจรวด และสามารถใช้เครื่องมืออย่าง Satellite Tracker, SkySafari หรือ Stellarium เพื่อติดตามตำแหน่งของดาวเทียม Starlink ได้แบบเรียลไทม์

    ข้อมูลสำคัญจากข่าว
    SpaceX เตรียมปล่อยจรวด Falcon 9 ภารกิจ Starlink Group 11-39 วันที่ 3 ตุลาคม 2025
    ปล่อยจากฐาน SLC-4E ที่ Vandenberg Space Force Base เวลา 6:00 น. PDT
    บรรทุกดาวเทียม Starlink V2 Mini จำนวน 28 ดวง เข้าสู่วงโคจรต่ำที่ 595 กม.
    เป็นการปล่อยครั้งที่ 15 สำหรับวงโคจรเฉพาะนี้ แม้จะเป็นภารกิจลำดับที่ 39
    ปัจจุบันมีดาวเทียม Starlink ทำงานอยู่แล้วกว่า 8,460 ดวง
    บูสเตอร์ขั้นแรกจะลงจอดบนเรือโดรน “Of Course I Still Love You” ในมหาสมุทรแปซิฟิก
    อาจเกิดเสียงโซนิคบูมในพื้นที่ Santa Barbara, San Luis Obispo และ Ventura
    SpaceX เตรียมทดสอบจรวด Starship ครั้งที่ 5 วันที่ 13 ตุลาคม 2025 ที่ Starbase, Texas
    Starship เป็นจรวดที่ทรงพลังที่สุดในโลก ใช้สำหรับภารกิจดวงจันทร์และดาวอังคาร
    การถ่ายทอดสดสามารถดูได้ผ่านเว็บไซต์ SpaceX, แอป X TV และบัญชี @SpaceX

    ข้อมูลเสริมจากภายนอก
    Starlink V2 Mini มีขนาดเล็กลงแต่ประสิทธิภาพสูงขึ้น รองรับการเชื่อมต่อในพื้นที่ห่างไกล
    เรือโดรน “Of Course I Still Love You” เป็นหนึ่งในระบบลงจอดอัตโนมัติของ SpaceX
    Starship มีความสูงกว่า 120 เมตร และสามารถบรรทุกน้ำหนักได้มากกว่า 100 ตัน
    การทดสอบ Starship เป็นขั้นตอนสำคัญก่อนภารกิจ Artemis ของ NASA
    การติดตามดาวเทียม Starlink สามารถทำได้ผ่านแอปมือถือและเว็บไซต์เฉพาะทาง

    https://www.slashgear.com/1984666/how-to-see-when-and-where-next-spacex-launch-is/
    🚀 “SpaceX เตรียมปล่อยดาวเทียม Starlink กลุ่มใหม่ — พร้อมทดสอบ Starship ครั้งที่ 5 เพื่อภารกิจสู่ดวงจันทร์และดาวอังคาร” หลังจากเพิ่งปล่อยดาวเทียม Starlink ไปเมื่อสัปดาห์ก่อน SpaceX ก็ไม่รอช้า เตรียมภารกิจใหม่ในวันที่ 3 ตุลาคม 2025 โดยจะปล่อยจรวด Falcon 9 จากฐานยิง SLC-4E ที่ Vandenberg Space Force Base รัฐแคลิฟอร์เนีย เวลา 6:00 น. PDT (13:00 UTC) ภารกิจนี้มีชื่อว่า Starlink Group 11-39 ซึ่งจะนำดาวเทียม Starlink V2 Mini จำนวน 28 ดวงเข้าสู่วงโคจรระดับต่ำที่ความสูงประมาณ 595 กิโลเมตร แม้จะเป็นภารกิจลำดับที่ 39 ของกลุ่มนี้ แต่จริง ๆ แล้วนี่คือการปล่อยครั้งที่ 15 สำหรับวงโคจรเฉพาะนี้ โดยมีเป้าหมายเพื่อเสริมประสิทธิภาพและขยายพื้นที่ครอบคลุมของเครือข่ายอินเทอร์เน็ต Starlink ที่ปัจจุบันมีดาวเทียมทำงานอยู่แล้วกว่า 8,460 ดวงทั่วโลก หลังจากปล่อยดาวเทียมแล้ว บูสเตอร์ขั้นแรกของ Falcon 9 จะพยายามลงจอดบนเรือโดรน “Of Course I Still Love You” ที่ลอยอยู่ในมหาสมุทรแปซิฟิก ซึ่งอาจทำให้เกิดเสียงโซนิคบูมในพื้นที่ Santa Barbara, San Luis Obispo และ Ventura นอกจากภารกิจ Starlink แล้ว SpaceX ยังเตรียมทดสอบจรวด Starship ครั้งที่ 5 ในวันที่ 13 ตุลาคม 2025 จากฐาน Starbase ในรัฐเท็กซัส โดยจรวด Starship ถือเป็นจรวดที่ทรงพลังที่สุดในโลก และเป็นหัวใจของแผนการพามนุษย์กลับไปดวงจันทร์และเดินทางสู่ดาวอังคารในอนาคต การทดสอบครั้งก่อนในเดือนสิงหาคมประสบความสำเร็จ ขณะที่การทดสอบในเดือนมิถุนายนจบลงด้วยการระเบิด แต่ Elon Musk ยืนยันว่าจะเร่งรอบการทดสอบให้เร็วขึ้น หลังได้รับการอนุมัติจากหน่วยงานกำกับดูแล ผู้สนใจสามารถติดตามการถ่ายทอดสดได้ผ่านเว็บไซต์ SpaceX, แอป X TV หรือบัญชี @SpaceX บนแพลตฟอร์ม X โดยการถ่ายทอดจะเริ่มประมาณ 5 นาทีก่อนปล่อยจรวด และสามารถใช้เครื่องมืออย่าง Satellite Tracker, SkySafari หรือ Stellarium เพื่อติดตามตำแหน่งของดาวเทียม Starlink ได้แบบเรียลไทม์ ✅ ข้อมูลสำคัญจากข่าว ➡️ SpaceX เตรียมปล่อยจรวด Falcon 9 ภารกิจ Starlink Group 11-39 วันที่ 3 ตุลาคม 2025 ➡️ ปล่อยจากฐาน SLC-4E ที่ Vandenberg Space Force Base เวลา 6:00 น. PDT ➡️ บรรทุกดาวเทียม Starlink V2 Mini จำนวน 28 ดวง เข้าสู่วงโคจรต่ำที่ 595 กม. ➡️ เป็นการปล่อยครั้งที่ 15 สำหรับวงโคจรเฉพาะนี้ แม้จะเป็นภารกิจลำดับที่ 39 ➡️ ปัจจุบันมีดาวเทียม Starlink ทำงานอยู่แล้วกว่า 8,460 ดวง ➡️ บูสเตอร์ขั้นแรกจะลงจอดบนเรือโดรน “Of Course I Still Love You” ในมหาสมุทรแปซิฟิก ➡️ อาจเกิดเสียงโซนิคบูมในพื้นที่ Santa Barbara, San Luis Obispo และ Ventura ➡️ SpaceX เตรียมทดสอบจรวด Starship ครั้งที่ 5 วันที่ 13 ตุลาคม 2025 ที่ Starbase, Texas ➡️ Starship เป็นจรวดที่ทรงพลังที่สุดในโลก ใช้สำหรับภารกิจดวงจันทร์และดาวอังคาร ➡️ การถ่ายทอดสดสามารถดูได้ผ่านเว็บไซต์ SpaceX, แอป X TV และบัญชี @SpaceX ✅ ข้อมูลเสริมจากภายนอก ➡️ Starlink V2 Mini มีขนาดเล็กลงแต่ประสิทธิภาพสูงขึ้น รองรับการเชื่อมต่อในพื้นที่ห่างไกล ➡️ เรือโดรน “Of Course I Still Love You” เป็นหนึ่งในระบบลงจอดอัตโนมัติของ SpaceX ➡️ Starship มีความสูงกว่า 120 เมตร และสามารถบรรทุกน้ำหนักได้มากกว่า 100 ตัน ➡️ การทดสอบ Starship เป็นขั้นตอนสำคัญก่อนภารกิจ Artemis ของ NASA ➡️ การติดตามดาวเทียม Starlink สามารถทำได้ผ่านแอปมือถือและเว็บไซต์เฉพาะทาง https://www.slashgear.com/1984666/how-to-see-when-and-where-next-spacex-launch-is/
    WWW.SLASHGEAR.COM
    Interested In Seeing The Next SpaceX Launch? Here's What We Know About When And Where It Is - SlashGear
    SpaceX’s next Falcon 9 launch is scheduled for Oct. 3, 2025, from Vandenberg SFB in California, carrying 28 Starlink V2 Mini satellites.
    0 ความคิดเห็น 0 การแบ่งปัน 132 มุมมอง 0 รีวิว
  • “Excel ครบรอบ 40 ปี — จากเครื่องมือบัญชีสู่เวทีแข่งขันระดับโลก แต่ Google Sheets กำลังเบียดขึ้นแท่น”

    Microsoft Excel เพิ่งครบรอบ 40 ปีอย่างเงียบ ๆ แม้จะเป็นหนึ่งในซอฟต์แวร์ที่เปลี่ยนโลกการทำงานอย่างมหาศาล ตั้งแต่การจัดการบัญชีไปจนถึงการวิเคราะห์ข้อมูลระดับองค์กร Excel เริ่มต้นในปี 1985 บน Macintosh ด้วยอินเทอร์เฟซแบบกราฟิก ซึ่งถือว่าแหวกแนวจากคู่แข่งที่ยังใช้แบบข้อความอยู่ในยุคนั้น ก่อนจะถูกพอร์ตมาสู่ Windows และกลายเป็นผู้นำตลาดอย่างรวดเร็วในยุค 90 โดยเฉพาะหลังจากแซงหน้า Lotus 1-2-3 และ Quattro Pro

    ตลอดหลายทศวรรษที่ผ่านมา Excel ได้เพิ่มฟีเจอร์มากมาย เช่น VBA สำหรับเขียนฟังก์ชันเอง, Pivot Table, แผนภูมิ 3D และ Ribbon Interface ที่เปลี่ยนวิธีการใช้งานไปโดยสิ้นเชิง ล่าสุด Excel ยังได้เสริมพลังด้วย AI ผ่าน Copilot และ Agent Mode ที่ช่วยให้ผู้ใช้สามารถสร้างตารางหรือวิเคราะห์ข้อมูลผ่านคำสั่งธรรมดาได้ทันที

    แต่ในยุคที่การทำงานย้ายเข้าสู่ระบบคลาวด์ Google Sheets กลายเป็นคู่แข่งที่น่ากลัวที่สุด ด้วยความสามารถในการทำงานร่วมกันแบบเรียลไทม์, ใช้งานฟรี, และเข้าถึงได้จากทุกอุปกรณ์โดยไม่ต้องติดตั้งโปรแกรมใด ๆ ทำให้กลุ่มผู้ใช้รุ่นใหม่ โดยเฉพาะในโรงเรียนและธุรกิจขนาดเล็ก หันมาใช้ Google Sheets เป็นหลัก

    แม้ Excel จะยังครองใจองค์กรขนาดใหญ่และงานที่ต้องการความซับซ้อนสูง แต่การเปลี่ยนผ่านสู่ยุคออนไลน์และการทำงานร่วมกันแบบเรียลไทม์กำลังท้าทายตำแหน่งผู้นำของ Excel อย่างจริงจัง

    ข้อมูลสำคัญจากข่าว
    Excel ครบรอบ 40 ปี โดยเริ่มต้นบน Macintosh ในปี 1985
    แซงหน้า Lotus 1-2-3 และ Quattro Pro จนกลายเป็นผู้นำตลาดในยุค 90
    เพิ่มฟีเจอร์สำคัญ เช่น VBA, Pivot Table, Ribbon Interface
    ล่าสุดมี AI Copilot และ Agent Mode ที่ช่วยสร้างตารางผ่านคำสั่งธรรมดา
    Excel ถูกใช้ในงานหลากหลาย ตั้งแต่บัญชีไปจนถึงงานศิลปะและเกม
    มีการแข่งขัน Excel World Championship ที่จัดในลาสเวกัส
    Google Sheets กลายเป็นคู่แข่งสำคัญ ด้วยระบบคลาวด์และการทำงานร่วมกัน
    Excel บนเว็บพยายามตอบโต้ด้วยฟีเจอร์คล้าย Google Sheets

    ข้อมูลเสริมจากภายนอก
    VisiCalc คือโปรแกรม spreadsheet ตัวแรกในปี 1979 บน Apple II
    VBA (Visual Basic for Applications) เป็นภาษาสคริปต์ที่ใช้ใน Excel ตั้งแต่ยุค 90
    Google Sheets ใช้ Google Apps Script ซึ่งคล้ายกับ VBA สำหรับงานอัตโนมัติ
    Excel มีความสามารถในการจัดการข้อมูลขนาดใหญ่ได้ดีกว่า Sheets
    Google Sheets เหมาะกับงานที่ต้องการความร่วมมือและการเข้าถึงจากหลายอุปกรณ์

    https://www.techradar.com/pro/microsoft-excel-turned-40-and-almost-nobody-noticed-worlds-most-popular-spreadsheet-now-faces-tough-competition-from-google-sheets-after-crushing-lotus-1-2-3-and-borland-quattro-pro
    📊 “Excel ครบรอบ 40 ปี — จากเครื่องมือบัญชีสู่เวทีแข่งขันระดับโลก แต่ Google Sheets กำลังเบียดขึ้นแท่น” Microsoft Excel เพิ่งครบรอบ 40 ปีอย่างเงียบ ๆ แม้จะเป็นหนึ่งในซอฟต์แวร์ที่เปลี่ยนโลกการทำงานอย่างมหาศาล ตั้งแต่การจัดการบัญชีไปจนถึงการวิเคราะห์ข้อมูลระดับองค์กร Excel เริ่มต้นในปี 1985 บน Macintosh ด้วยอินเทอร์เฟซแบบกราฟิก ซึ่งถือว่าแหวกแนวจากคู่แข่งที่ยังใช้แบบข้อความอยู่ในยุคนั้น ก่อนจะถูกพอร์ตมาสู่ Windows และกลายเป็นผู้นำตลาดอย่างรวดเร็วในยุค 90 โดยเฉพาะหลังจากแซงหน้า Lotus 1-2-3 และ Quattro Pro ตลอดหลายทศวรรษที่ผ่านมา Excel ได้เพิ่มฟีเจอร์มากมาย เช่น VBA สำหรับเขียนฟังก์ชันเอง, Pivot Table, แผนภูมิ 3D และ Ribbon Interface ที่เปลี่ยนวิธีการใช้งานไปโดยสิ้นเชิง ล่าสุด Excel ยังได้เสริมพลังด้วย AI ผ่าน Copilot และ Agent Mode ที่ช่วยให้ผู้ใช้สามารถสร้างตารางหรือวิเคราะห์ข้อมูลผ่านคำสั่งธรรมดาได้ทันที แต่ในยุคที่การทำงานย้ายเข้าสู่ระบบคลาวด์ Google Sheets กลายเป็นคู่แข่งที่น่ากลัวที่สุด ด้วยความสามารถในการทำงานร่วมกันแบบเรียลไทม์, ใช้งานฟรี, และเข้าถึงได้จากทุกอุปกรณ์โดยไม่ต้องติดตั้งโปรแกรมใด ๆ ทำให้กลุ่มผู้ใช้รุ่นใหม่ โดยเฉพาะในโรงเรียนและธุรกิจขนาดเล็ก หันมาใช้ Google Sheets เป็นหลัก แม้ Excel จะยังครองใจองค์กรขนาดใหญ่และงานที่ต้องการความซับซ้อนสูง แต่การเปลี่ยนผ่านสู่ยุคออนไลน์และการทำงานร่วมกันแบบเรียลไทม์กำลังท้าทายตำแหน่งผู้นำของ Excel อย่างจริงจัง ✅ ข้อมูลสำคัญจากข่าว ➡️ Excel ครบรอบ 40 ปี โดยเริ่มต้นบน Macintosh ในปี 1985 ➡️ แซงหน้า Lotus 1-2-3 และ Quattro Pro จนกลายเป็นผู้นำตลาดในยุค 90 ➡️ เพิ่มฟีเจอร์สำคัญ เช่น VBA, Pivot Table, Ribbon Interface ➡️ ล่าสุดมี AI Copilot และ Agent Mode ที่ช่วยสร้างตารางผ่านคำสั่งธรรมดา ➡️ Excel ถูกใช้ในงานหลากหลาย ตั้งแต่บัญชีไปจนถึงงานศิลปะและเกม ➡️ มีการแข่งขัน Excel World Championship ที่จัดในลาสเวกัส ➡️ Google Sheets กลายเป็นคู่แข่งสำคัญ ด้วยระบบคลาวด์และการทำงานร่วมกัน ➡️ Excel บนเว็บพยายามตอบโต้ด้วยฟีเจอร์คล้าย Google Sheets ✅ ข้อมูลเสริมจากภายนอก ➡️ VisiCalc คือโปรแกรม spreadsheet ตัวแรกในปี 1979 บน Apple II ➡️ VBA (Visual Basic for Applications) เป็นภาษาสคริปต์ที่ใช้ใน Excel ตั้งแต่ยุค 90 ➡️ Google Sheets ใช้ Google Apps Script ซึ่งคล้ายกับ VBA สำหรับงานอัตโนมัติ ➡️ Excel มีความสามารถในการจัดการข้อมูลขนาดใหญ่ได้ดีกว่า Sheets ➡️ Google Sheets เหมาะกับงานที่ต้องการความร่วมมือและการเข้าถึงจากหลายอุปกรณ์ https://www.techradar.com/pro/microsoft-excel-turned-40-and-almost-nobody-noticed-worlds-most-popular-spreadsheet-now-faces-tough-competition-from-google-sheets-after-crushing-lotus-1-2-3-and-borland-quattro-pro
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • “Klopatra: มัลแวร์ Android ตัวใหม่ปลอมเป็นแอป VPN/IPTV — ขโมยเงินแม้ตอนหน้าจอดับ พร้อมหลบแอนตี้ไวรัสแบบเหนือชั้น”

    นักวิจัยจาก Cleafy ได้เปิดโปงมัลแวร์ Android ตัวใหม่ชื่อ “Klopatra” ซึ่งถูกสร้างขึ้นโดยกลุ่มแฮกเกอร์ที่พูดภาษาตุรกี และมีความสามารถเหนือกว่ามัลแวร์ทั่วไปอย่างชัดเจน โดย Klopatra ถูกปล่อยผ่านแอปปลอมชื่อ “Modpro IP TV + VPN” ที่ไม่ได้อยู่บน Google Play Store แต่ถูกแจกจ่ายผ่านเว็บไซต์อันตรายโดยตรง

    เมื่อผู้ใช้ติดตั้งแอปนี้ มัลแวร์จะขอสิทธิ์ Accessibility Services ซึ่งเปิดทางให้มันควบคุมเครื่องได้เต็มรูปแบบ เช่น อ่านหน้าจอ, จำลองการแตะ, ขโมยรหัสผ่าน, และแม้แต่ควบคุมอุปกรณ์ขณะหน้าจอดับผ่านโหมด VNC แบบ “หน้าจอดำ” ที่ผู้ใช้ไม่รู้ตัวเลยว่ามีการใช้งานอยู่

    Klopatra ยังมีความสามารถในการตรวจสอบว่าเครื่องกำลังชาร์จหรือหน้าจอดับ เพื่อเลือกช่วงเวลาที่เหมาะสมในการโจมตีโดยไม่ให้ผู้ใช้สงสัย และสามารถจำลองการแตะ, ปัด, กดค้าง เพื่อทำธุรกรรมธนาคารหรือขโมยคริปโตได้แบบเรียลไทม์

    เพื่อหลบเลี่ยงการตรวจจับ มัลแวร์ใช้เทคนิคขั้นสูง เช่น การเข้ารหัสด้วย NP Manager, การใช้ native libraries แทน Java/Kotlin, การฝัง Virbox ซึ่งเป็นระบบป้องกันโค้ดระดับเชิงพาณิชย์ และมีระบบตรวจจับ emulator, anti-debugging, และ integrity check เพื่อป้องกันนักวิจัยไม่ให้วิเคราะห์ได้ง่าย

    จนถึงตอนนี้ Klopatra ถูกพัฒนาไปแล้วกว่า 40 เวอร์ชันตั้งแต่มีการพบครั้งแรกในเดือนมีนาคม 2025 และมีผู้ติดเชื้อแล้วกว่า 3,000 รายในยุโรป โดยเฉพาะในสเปนและอิตาลี ซึ่งเป็นเป้าหมายหลักของแคมเปญนี้

    ข้อมูลสำคัญจากข่าว
    Klopatra เป็นมัลแวร์ Android ที่ปลอมตัวเป็นแอป IPTV และ VPN
    แจกจ่ายผ่านเว็บไซต์อันตราย ไม่ใช่ Google Play Store
    ขอสิทธิ์ Accessibility Services เพื่อควบคุมเครื่องแบบเต็มรูปแบบ
    ใช้โหมด VNC แบบหน้าจอดำเพื่อควบคุมเครื่องขณะผู้ใช้ไม่รู้ตัว
    ตรวจสอบสถานะการชาร์จและหน้าจอเพื่อเลือกเวลาที่เหมาะสมในการโจมตี
    ใช้ Virbox, NP Manager, native libraries และเทคนิค anti-debugging เพื่อหลบเลี่ยงการตรวจจับ
    ถูกพัฒนาไปแล้วกว่า 40 เวอร์ชันตั้งแต่เดือนมีนาคม 2025
    มีผู้ติดเชื้อแล้วกว่า 3,000 รายในยุโรป โดยเฉพาะในสเปนและอิตาลี
    กลุ่มผู้พัฒนาเป็นแฮกเกอร์ที่พูดภาษาตุรกี และมีโครงสร้าง C2 ที่ซับซ้อน

    ข้อมูลเสริมจากภายนอก
    Accessibility Services เป็นช่องทางที่มัลแวร์นิยมใช้เพื่อควบคุมอุปกรณ์ Android
    Virbox เป็นระบบป้องกันโค้ดที่ใช้ในซอฟต์แวร์เชิงพาณิชย์ เช่น เกมหรือแอปที่ต้องการป้องกันการแครก
    VNC (Virtual Network Computing) เป็นระบบควบคุมอุปกรณ์จากระยะไกลที่ใช้ในงาน IT แต่ถูกนำมาใช้ในมัลแวร์
    NP Manager เป็นเครื่องมือที่ใช้เข้ารหัส string เพื่อหลบเลี่ยงการวิเคราะห์โค้ด
    การใช้ native libraries แทน Java/Kotlin ช่วยลดการตรวจจับจากระบบวิเคราะห์มัลแวร์อัตโนมัติ

    https://www.techradar.com/pro/security/this-dangerous-new-android-malware-disguises-itself-as-a-vpn-or-iptv-app-so-be-on-your-guard
    📱💀 “Klopatra: มัลแวร์ Android ตัวใหม่ปลอมเป็นแอป VPN/IPTV — ขโมยเงินแม้ตอนหน้าจอดับ พร้อมหลบแอนตี้ไวรัสแบบเหนือชั้น” นักวิจัยจาก Cleafy ได้เปิดโปงมัลแวร์ Android ตัวใหม่ชื่อ “Klopatra” ซึ่งถูกสร้างขึ้นโดยกลุ่มแฮกเกอร์ที่พูดภาษาตุรกี และมีความสามารถเหนือกว่ามัลแวร์ทั่วไปอย่างชัดเจน โดย Klopatra ถูกปล่อยผ่านแอปปลอมชื่อ “Modpro IP TV + VPN” ที่ไม่ได้อยู่บน Google Play Store แต่ถูกแจกจ่ายผ่านเว็บไซต์อันตรายโดยตรง เมื่อผู้ใช้ติดตั้งแอปนี้ มัลแวร์จะขอสิทธิ์ Accessibility Services ซึ่งเปิดทางให้มันควบคุมเครื่องได้เต็มรูปแบบ เช่น อ่านหน้าจอ, จำลองการแตะ, ขโมยรหัสผ่าน, และแม้แต่ควบคุมอุปกรณ์ขณะหน้าจอดับผ่านโหมด VNC แบบ “หน้าจอดำ” ที่ผู้ใช้ไม่รู้ตัวเลยว่ามีการใช้งานอยู่ Klopatra ยังมีความสามารถในการตรวจสอบว่าเครื่องกำลังชาร์จหรือหน้าจอดับ เพื่อเลือกช่วงเวลาที่เหมาะสมในการโจมตีโดยไม่ให้ผู้ใช้สงสัย และสามารถจำลองการแตะ, ปัด, กดค้าง เพื่อทำธุรกรรมธนาคารหรือขโมยคริปโตได้แบบเรียลไทม์ เพื่อหลบเลี่ยงการตรวจจับ มัลแวร์ใช้เทคนิคขั้นสูง เช่น การเข้ารหัสด้วย NP Manager, การใช้ native libraries แทน Java/Kotlin, การฝัง Virbox ซึ่งเป็นระบบป้องกันโค้ดระดับเชิงพาณิชย์ และมีระบบตรวจจับ emulator, anti-debugging, และ integrity check เพื่อป้องกันนักวิจัยไม่ให้วิเคราะห์ได้ง่าย จนถึงตอนนี้ Klopatra ถูกพัฒนาไปแล้วกว่า 40 เวอร์ชันตั้งแต่มีการพบครั้งแรกในเดือนมีนาคม 2025 และมีผู้ติดเชื้อแล้วกว่า 3,000 รายในยุโรป โดยเฉพาะในสเปนและอิตาลี ซึ่งเป็นเป้าหมายหลักของแคมเปญนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Klopatra เป็นมัลแวร์ Android ที่ปลอมตัวเป็นแอป IPTV และ VPN ➡️ แจกจ่ายผ่านเว็บไซต์อันตราย ไม่ใช่ Google Play Store ➡️ ขอสิทธิ์ Accessibility Services เพื่อควบคุมเครื่องแบบเต็มรูปแบบ ➡️ ใช้โหมด VNC แบบหน้าจอดำเพื่อควบคุมเครื่องขณะผู้ใช้ไม่รู้ตัว ➡️ ตรวจสอบสถานะการชาร์จและหน้าจอเพื่อเลือกเวลาที่เหมาะสมในการโจมตี ➡️ ใช้ Virbox, NP Manager, native libraries และเทคนิค anti-debugging เพื่อหลบเลี่ยงการตรวจจับ ➡️ ถูกพัฒนาไปแล้วกว่า 40 เวอร์ชันตั้งแต่เดือนมีนาคม 2025 ➡️ มีผู้ติดเชื้อแล้วกว่า 3,000 รายในยุโรป โดยเฉพาะในสเปนและอิตาลี ➡️ กลุ่มผู้พัฒนาเป็นแฮกเกอร์ที่พูดภาษาตุรกี และมีโครงสร้าง C2 ที่ซับซ้อน ✅ ข้อมูลเสริมจากภายนอก ➡️ Accessibility Services เป็นช่องทางที่มัลแวร์นิยมใช้เพื่อควบคุมอุปกรณ์ Android ➡️ Virbox เป็นระบบป้องกันโค้ดที่ใช้ในซอฟต์แวร์เชิงพาณิชย์ เช่น เกมหรือแอปที่ต้องการป้องกันการแครก ➡️ VNC (Virtual Network Computing) เป็นระบบควบคุมอุปกรณ์จากระยะไกลที่ใช้ในงาน IT แต่ถูกนำมาใช้ในมัลแวร์ ➡️ NP Manager เป็นเครื่องมือที่ใช้เข้ารหัส string เพื่อหลบเลี่ยงการวิเคราะห์โค้ด ➡️ การใช้ native libraries แทน Java/Kotlin ช่วยลดการตรวจจับจากระบบวิเคราะห์มัลแวร์อัตโนมัติ https://www.techradar.com/pro/security/this-dangerous-new-android-malware-disguises-itself-as-a-vpn-or-iptv-app-so-be-on-your-guard
    0 ความคิดเห็น 0 การแบ่งปัน 135 มุมมอง 0 รีวิว
  • “Ampinel: อุปกรณ์ $95 ที่อาจช่วยชีวิตการ์ดจอ RTX ของคุณ — แก้ปัญหา 16-pin ละลายด้วยระบบบาลานซ์ไฟที่ Nvidia ลืมใส่”

    ตั้งแต่การ์ดจอซีรีส์ RTX 40 ของ Nvidia เปิดตัวพร้อมหัวต่อไฟแบบ 16-pin (12VHPWR) ก็มีรายงานปัญหาหัวละลายและสายไหม้ตามมาอย่างต่อเนื่อง โดยเฉพาะในรุ่น RTX 4090 และ 5090 ซึ่งดึงไฟสูงถึง 600W แต่ไม่มีระบบกระจายโหลดไฟฟ้าในตัว ต่างจาก RTX 3090 Ti ที่ยังมีวงจรบาลานซ์ไฟอยู่

    ล่าสุด Aqua Computer จากเยอรมนีเปิดตัวอุปกรณ์ชื่อว่า Ampinel ที่ออกแบบมาเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการใส่ระบบ active load balancing ที่สามารถตรวจสอบและกระจายกระแสไฟฟ้าแบบเรียลไทม์ผ่านสาย 12V ทั้ง 6 เส้นในหัวต่อ 16-pin หากพบว่ามีสายใดเกิน 7.5A ซึ่งเป็นค่าที่ปลอดภัยต่อคอนแทค Ampinel จะปรับโหลดทันทีเพื่อป้องกันความร้อนสะสม

    Ampinel ยังมาพร้อมหน้าจอ OLED ขนาดเล็กที่แสดงค่ากระแสไฟแต่ละเส้น, ระบบแจ้งเตือนด้วยเสียง 85 dB และไฟ RGB ที่เปลี่ยนสีตามสถานะการใช้งาน นอกจากนี้ยังสามารถตั้งค่าผ่านซอฟต์แวร์ Aquasuite เพื่อกำหนดพฤติกรรมเมื่อเกิดเหตุ เช่น ปิดแอปที่ใช้ GPU หนัก, สั่ง shutdown เครื่อง หรือแม้แต่ตัดสัญญาณ sense บนการ์ดจอเพื่อหยุดจ่ายไฟทันที

    อุปกรณ์นี้ใช้แผงวงจร 6 ชั้นที่ทำจากทองแดงหนา 70 ไมครอน พร้อมบอดี้อะลูมิเนียมที่ช่วยระบายความร้อน และระบบ MCU ที่ควบคุม MOSFET แบบ low-resistance เพื่อให้การกระจายโหลดมีประสิทธิภาพสูงสุด โดยไม่ต้องพึ่งพาการเชื่อมต่อ USB หรือซอฟต์แวร์ตลอดเวลา

    ข้อมูลสำคัญจากข่าว
    Ampinel เป็นอุปกรณ์เสริมสำหรับหัวต่อ 16-pin ที่มีระบบ active load balancing
    ตรวจสอบสายไฟ 6 เส้นแบบเรียลไทม์ และปรับโหลดทันทีเมื่อเกิน 7.5A
    มีหน้าจอ OLED แสดงค่ากระแสไฟ, ไฟ RGB แจ้งเตือน และเสียงเตือน 85 dB
    ใช้แผงวงจร 6 ชั้นทองแดงหนา พร้อมบอดี้อะลูมิเนียมช่วยระบายความร้อน
    สามารถตั้งค่าผ่าน Aquasuite ให้สั่งปิดแอป, shutdown หรือหยุดจ่ายไฟ
    ระบบแจ้งเตือนแบ่งเป็น 8 ระดับ ตั้งค่าได้ทั้งภาพ เสียง และการตอบสนอง
    ไม่ต้องพึ่งพา USB หรือซอฟต์แวร์ในการทำงานหลัก
    ราคาประมาณ $95 หรือ €79.90 เริ่มส่งกลางเดือนพฤศจิกายน

    ข้อมูลเสริมจากภายนอก
    หัวต่อ 16-pin มี safety margin ต่ำกว่าหัว 8-pin PCIe เดิมถึง 40%
    ปัญหาหัวละลายเกิดจากการกระจายโหลดไม่เท่ากันในสายไฟ
    RTX 3090 Ti ไม่มีปัญหาเพราะยังมีวงจรบาลานซ์ไฟในตัว
    MOSFET แบบ low-RDS(on) ช่วยลดความร้อนและเพิ่มประสิทธิภาพการควบคุม
    การตัดสัญญาณ sense บนการ์ดจอคือวิธีหยุดจ่ายไฟแบบฉุกเฉินที่ปลอดภัย

    https://www.tomshardware.com/pc-components/gpus/nvidias-16-pin-time-bomb-could-be-defused-by-this-usd95-gadget-ampinel-offers-load-balancing-that-nvidia-forgot-to-include
    🔥 “Ampinel: อุปกรณ์ $95 ที่อาจช่วยชีวิตการ์ดจอ RTX ของคุณ — แก้ปัญหา 16-pin ละลายด้วยระบบบาลานซ์ไฟที่ Nvidia ลืมใส่” ตั้งแต่การ์ดจอซีรีส์ RTX 40 ของ Nvidia เปิดตัวพร้อมหัวต่อไฟแบบ 16-pin (12VHPWR) ก็มีรายงานปัญหาหัวละลายและสายไหม้ตามมาอย่างต่อเนื่อง โดยเฉพาะในรุ่น RTX 4090 และ 5090 ซึ่งดึงไฟสูงถึง 600W แต่ไม่มีระบบกระจายโหลดไฟฟ้าในตัว ต่างจาก RTX 3090 Ti ที่ยังมีวงจรบาลานซ์ไฟอยู่ ล่าสุด Aqua Computer จากเยอรมนีเปิดตัวอุปกรณ์ชื่อว่า Ampinel ที่ออกแบบมาเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการใส่ระบบ active load balancing ที่สามารถตรวจสอบและกระจายกระแสไฟฟ้าแบบเรียลไทม์ผ่านสาย 12V ทั้ง 6 เส้นในหัวต่อ 16-pin หากพบว่ามีสายใดเกิน 7.5A ซึ่งเป็นค่าที่ปลอดภัยต่อคอนแทค Ampinel จะปรับโหลดทันทีเพื่อป้องกันความร้อนสะสม Ampinel ยังมาพร้อมหน้าจอ OLED ขนาดเล็กที่แสดงค่ากระแสไฟแต่ละเส้น, ระบบแจ้งเตือนด้วยเสียง 85 dB และไฟ RGB ที่เปลี่ยนสีตามสถานะการใช้งาน นอกจากนี้ยังสามารถตั้งค่าผ่านซอฟต์แวร์ Aquasuite เพื่อกำหนดพฤติกรรมเมื่อเกิดเหตุ เช่น ปิดแอปที่ใช้ GPU หนัก, สั่ง shutdown เครื่อง หรือแม้แต่ตัดสัญญาณ sense บนการ์ดจอเพื่อหยุดจ่ายไฟทันที อุปกรณ์นี้ใช้แผงวงจร 6 ชั้นที่ทำจากทองแดงหนา 70 ไมครอน พร้อมบอดี้อะลูมิเนียมที่ช่วยระบายความร้อน และระบบ MCU ที่ควบคุม MOSFET แบบ low-resistance เพื่อให้การกระจายโหลดมีประสิทธิภาพสูงสุด โดยไม่ต้องพึ่งพาการเชื่อมต่อ USB หรือซอฟต์แวร์ตลอดเวลา ✅ ข้อมูลสำคัญจากข่าว ➡️ Ampinel เป็นอุปกรณ์เสริมสำหรับหัวต่อ 16-pin ที่มีระบบ active load balancing ➡️ ตรวจสอบสายไฟ 6 เส้นแบบเรียลไทม์ และปรับโหลดทันทีเมื่อเกิน 7.5A ➡️ มีหน้าจอ OLED แสดงค่ากระแสไฟ, ไฟ RGB แจ้งเตือน และเสียงเตือน 85 dB ➡️ ใช้แผงวงจร 6 ชั้นทองแดงหนา พร้อมบอดี้อะลูมิเนียมช่วยระบายความร้อน ➡️ สามารถตั้งค่าผ่าน Aquasuite ให้สั่งปิดแอป, shutdown หรือหยุดจ่ายไฟ ➡️ ระบบแจ้งเตือนแบ่งเป็น 8 ระดับ ตั้งค่าได้ทั้งภาพ เสียง และการตอบสนอง ➡️ ไม่ต้องพึ่งพา USB หรือซอฟต์แวร์ในการทำงานหลัก ➡️ ราคาประมาณ $95 หรือ €79.90 เริ่มส่งกลางเดือนพฤศจิกายน ✅ ข้อมูลเสริมจากภายนอก ➡️ หัวต่อ 16-pin มี safety margin ต่ำกว่าหัว 8-pin PCIe เดิมถึง 40% ➡️ ปัญหาหัวละลายเกิดจากการกระจายโหลดไม่เท่ากันในสายไฟ ➡️ RTX 3090 Ti ไม่มีปัญหาเพราะยังมีวงจรบาลานซ์ไฟในตัว ➡️ MOSFET แบบ low-RDS(on) ช่วยลดความร้อนและเพิ่มประสิทธิภาพการควบคุม ➡️ การตัดสัญญาณ sense บนการ์ดจอคือวิธีหยุดจ่ายไฟแบบฉุกเฉินที่ปลอดภัย https://www.tomshardware.com/pc-components/gpus/nvidias-16-pin-time-bomb-could-be-defused-by-this-usd95-gadget-ampinel-offers-load-balancing-that-nvidia-forgot-to-include
    0 ความคิดเห็น 0 การแบ่งปัน 147 มุมมอง 0 รีวิว
  • “LatentCSI: เปลี่ยนสัญญาณ Wi-Fi ให้กลายเป็นภาพห้องแบบสมจริง — AI วาดภาพจากคลื่นที่มองไม่เห็น”

    นักวิจัยจากสถาบันวิทยาศาสตร์โตเกียวได้เปิดตัวเทคโนโลยีใหม่ชื่อว่า LatentCSI ซึ่งสามารถใช้สัญญาณ Wi-Fi ที่อยู่รอบตัวเราในการสร้างภาพความละเอียดสูงของห้องหรือพื้นที่ได้อย่างแม่นยำ โดยอาศัยโมเดล AI แบบ diffusion ที่ถูกฝึกไว้ล่วงหน้า เช่น Stable Diffusion 3

    หลักการทำงานคือการใช้ข้อมูล Wi-Fi CSI (Channel State Information) ซึ่งเป็นข้อมูลที่เกิดจากการสะท้อนของคลื่น Wi-Fi กับวัตถุต่าง ๆ ในห้อง เช่น ผนัง เฟอร์นิเจอร์ หรือแม้แต่คน แล้วนำข้อมูลนั้นไปแปลงเป็น “latent space” แทนที่จะเป็น “pixel space” แบบภาพทั่วไป จากนั้น AI จะเติมรายละเอียดที่ขาดหายไป และสร้างภาพที่สมจริงออกมา

    สิ่งที่ทำให้ LatentCSI แตกต่างจากเทคโนโลยีเดิมคือความเร็วและความแม่นยำ เพราะไม่ต้องใช้การประมวลผลหนักแบบ GAN หรือการวิเคราะห์ภาพแบบเดิม ๆ อีกต่อไป โดยใช้ encoder ที่ถูกปรับแต่งให้รับข้อมูล Wi-Fi แทนภาพ และสามารถสร้างภาพได้รวดเร็วกว่าเดิมหลายเท่า

    อย่างไรก็ตาม ระบบนี้ยังต้องใช้โมเดลที่ถูกฝึกไว้ล่วงหน้าด้วยภาพจริงของพื้นที่นั้น ๆ ก่อน จึงจะสามารถสร้างภาพจาก Wi-Fi ได้อย่างแม่นยำ ซึ่งหมายความว่าไม่สามารถใช้กับพื้นที่ที่ไม่เคยถูกฝึกไว้ได้ทันที และยังมีข้อกังวลเรื่องความเป็นส่วนตัว หากเทคโนโลยีนี้ถูกนำไปใช้ในอุปกรณ์ทั่วไป เช่น เราเตอร์หรือโมเด็มที่มีฟีเจอร์ตรวจจับการเคลื่อนไหว

    ข้อมูลสำคัญจากข่าว
    LatentCSI ใช้ข้อมูล Wi-Fi CSI เพื่อสร้างภาพห้องแบบสมจริง
    ข้อมูล CSI เกิดจากการสะท้อนคลื่น Wi-Fi กับวัตถุในพื้นที่
    ระบบแปลง CSI เป็น latent space แล้วใช้ AI เติมรายละเอียด
    ใช้ Stable Diffusion 3 ที่ถูกฝึกไว้ล่วงหน้าในการสร้างภาพ
    Encoder ถูกปรับให้รับข้อมูล Wi-Fi แทนภาพทั่วไป
    LatentCSI ทำงานเร็วและแม่นยำกว่าระบบเดิมที่ใช้ GAN
    สามารถตรวจจับตำแหน่งคนและวัตถุในห้องได้แบบเรียลไทม์
    ใช้ภาพจริงในการฝึกโมเดลก่อนนำไปใช้กับ Wi-Fi CSI

    ข้อมูลเสริมจากภายนอก
    Wi-Fi CSI ถูกใช้ในงานวิจัยด้าน motion sensing และ indoor mapping มานาน
    Latent space คือการแทนภาพในรูปแบบที่บีบอัดและเข้าใจง่ายสำหรับ AI
    Stable Diffusion เป็นโมเดลสร้างภาพที่ได้รับความนิยมสูงในงาน generative AI
    เทคโนโลยีนี้สามารถนำไปใช้ใน smart home, robotics หรือระบบรักษาความปลอดภัย
    การใช้ latent diffusion ช่วยลดภาระการประมวลผลและเพิ่มความเร็วในการสร้างภาพ

    https://www.tomshardware.com/tech-industry/wi-fi-signals-can-now-create-accurate-images-of-a-room-with-the-help-of-pre-trained-ai-latentcsi-leverages-stable-diffusion-3-to-turn-wi-fi-data-into-a-digital-paintbrush
    📡 “LatentCSI: เปลี่ยนสัญญาณ Wi-Fi ให้กลายเป็นภาพห้องแบบสมจริง — AI วาดภาพจากคลื่นที่มองไม่เห็น” นักวิจัยจากสถาบันวิทยาศาสตร์โตเกียวได้เปิดตัวเทคโนโลยีใหม่ชื่อว่า LatentCSI ซึ่งสามารถใช้สัญญาณ Wi-Fi ที่อยู่รอบตัวเราในการสร้างภาพความละเอียดสูงของห้องหรือพื้นที่ได้อย่างแม่นยำ โดยอาศัยโมเดล AI แบบ diffusion ที่ถูกฝึกไว้ล่วงหน้า เช่น Stable Diffusion 3 หลักการทำงานคือการใช้ข้อมูล Wi-Fi CSI (Channel State Information) ซึ่งเป็นข้อมูลที่เกิดจากการสะท้อนของคลื่น Wi-Fi กับวัตถุต่าง ๆ ในห้อง เช่น ผนัง เฟอร์นิเจอร์ หรือแม้แต่คน แล้วนำข้อมูลนั้นไปแปลงเป็น “latent space” แทนที่จะเป็น “pixel space” แบบภาพทั่วไป จากนั้น AI จะเติมรายละเอียดที่ขาดหายไป และสร้างภาพที่สมจริงออกมา สิ่งที่ทำให้ LatentCSI แตกต่างจากเทคโนโลยีเดิมคือความเร็วและความแม่นยำ เพราะไม่ต้องใช้การประมวลผลหนักแบบ GAN หรือการวิเคราะห์ภาพแบบเดิม ๆ อีกต่อไป โดยใช้ encoder ที่ถูกปรับแต่งให้รับข้อมูล Wi-Fi แทนภาพ และสามารถสร้างภาพได้รวดเร็วกว่าเดิมหลายเท่า อย่างไรก็ตาม ระบบนี้ยังต้องใช้โมเดลที่ถูกฝึกไว้ล่วงหน้าด้วยภาพจริงของพื้นที่นั้น ๆ ก่อน จึงจะสามารถสร้างภาพจาก Wi-Fi ได้อย่างแม่นยำ ซึ่งหมายความว่าไม่สามารถใช้กับพื้นที่ที่ไม่เคยถูกฝึกไว้ได้ทันที และยังมีข้อกังวลเรื่องความเป็นส่วนตัว หากเทคโนโลยีนี้ถูกนำไปใช้ในอุปกรณ์ทั่วไป เช่น เราเตอร์หรือโมเด็มที่มีฟีเจอร์ตรวจจับการเคลื่อนไหว ✅ ข้อมูลสำคัญจากข่าว ➡️ LatentCSI ใช้ข้อมูล Wi-Fi CSI เพื่อสร้างภาพห้องแบบสมจริง ➡️ ข้อมูล CSI เกิดจากการสะท้อนคลื่น Wi-Fi กับวัตถุในพื้นที่ ➡️ ระบบแปลง CSI เป็น latent space แล้วใช้ AI เติมรายละเอียด ➡️ ใช้ Stable Diffusion 3 ที่ถูกฝึกไว้ล่วงหน้าในการสร้างภาพ ➡️ Encoder ถูกปรับให้รับข้อมูล Wi-Fi แทนภาพทั่วไป ➡️ LatentCSI ทำงานเร็วและแม่นยำกว่าระบบเดิมที่ใช้ GAN ➡️ สามารถตรวจจับตำแหน่งคนและวัตถุในห้องได้แบบเรียลไทม์ ➡️ ใช้ภาพจริงในการฝึกโมเดลก่อนนำไปใช้กับ Wi-Fi CSI ✅ ข้อมูลเสริมจากภายนอก ➡️ Wi-Fi CSI ถูกใช้ในงานวิจัยด้าน motion sensing และ indoor mapping มานาน ➡️ Latent space คือการแทนภาพในรูปแบบที่บีบอัดและเข้าใจง่ายสำหรับ AI ➡️ Stable Diffusion เป็นโมเดลสร้างภาพที่ได้รับความนิยมสูงในงาน generative AI ➡️ เทคโนโลยีนี้สามารถนำไปใช้ใน smart home, robotics หรือระบบรักษาความปลอดภัย ➡️ การใช้ latent diffusion ช่วยลดภาระการประมวลผลและเพิ่มความเร็วในการสร้างภาพ https://www.tomshardware.com/tech-industry/wi-fi-signals-can-now-create-accurate-images-of-a-room-with-the-help-of-pre-trained-ai-latentcsi-leverages-stable-diffusion-3-to-turn-wi-fi-data-into-a-digital-paintbrush
    0 ความคิดเห็น 0 การแบ่งปัน 146 มุมมอง 0 รีวิว
  • “Gemini Trifecta: ช่องโหว่ 3 จุดใน AI ของ Google ที่เปิดทางให้แฮกเกอร์ขโมยข้อมูล — แม้ไม่ต้องติดมัลแวร์”

    Tenable บริษัทด้านความปลอดภัยไซเบอร์ได้เปิดเผยช่องโหว่ร้ายแรง 3 จุดในชุดเครื่องมือ Gemini AI ของ Google ซึ่งถูกเรียกรวมว่า “Gemini Trifecta” โดยช่องโหว่เหล่านี้เปิดทางให้ผู้โจมตีสามารถฝังคำสั่งลับ (prompt injection) และขโมยข้อมูลผู้ใช้ได้โดยไม่ต้องติดตั้งมัลแวร์หรือส่งอีเมลฟิชชิ่งเลยแม้แต่น้อย

    ช่องโหว่แรกอยู่ในฟีเจอร์ Gemini Cloud Assist ซึ่งใช้สรุป log จากระบบคลาวด์ของ Google Cloud Platform (GCP) โดยนักวิจัยพบว่า หากมีการฝังคำสั่งลับไว้ใน log เช่นในช่อง HTTP User-Agent เมื่อผู้ใช้กด “Explain this log entry” ระบบจะรันคำสั่งนั้นทันที ทำให้สามารถสั่งให้ Gemini ดึงข้อมูล cloud ที่ละเอียดอ่อนได้

    ช่องโหว่ที่สองคือ Gemini Search Personalization Model ที่ใช้ประวัติการค้นหาของผู้ใช้ใน Chrome เพื่อปรับแต่งคำตอบของ AI นักวิจัยสามารถใช้ JavaScript จากเว็บไซต์อันตรายเขียนคำสั่งลับลงในประวัติการค้นหา และเมื่อผู้ใช้เรียกใช้ Gemini ระบบจะถือว่าคำสั่งนั้นเป็นบริบทที่เชื่อถือได้ และรันคำสั่งทันที เช่น ส่งข้อมูลตำแหน่งหรือข้อมูลที่บันทึกไว้ไปยังเซิร์ฟเวอร์ภายนอก

    ช่องโหว่สุดท้ายคือ Gemini Browsing Tool ซึ่งใช้สรุปเนื้อหาจากเว็บไซต์แบบเรียลไทม์ นักวิจัยสามารถหลอกให้ Gemini ส่งข้อมูลผู้ใช้ เช่น ตำแหน่งหรือข้อมูลส่วนตัว ไปยังเซิร์ฟเวอร์ของแฮกเกอร์ โดยใช้ฟีเจอร์ “Show Thinking” เพื่อติดตามขั้นตอนการรันคำสั่ง

    แม้ Google จะตอบสนองอย่างรวดเร็วและแก้ไขช่องโหว่ทั้งหมดแล้ว โดยการย้อนกลับโมเดลที่มีปัญหา, ปิดการแสดงผลลิงก์อันตรายใน Cloud Assist และเพิ่มระบบป้องกัน prompt injection แบบหลายชั้น แต่เหตุการณ์นี้สะท้อนให้เห็นว่า AI ไม่ใช่แค่เป้าหมายของการโจมตีอีกต่อไป — มันสามารถกลายเป็น “ตัวโจมตี” ได้เอง หากไม่มีการควบคุมที่ดีพอ

    ข้อมูลสำคัญจากข่าว
    Tenable พบช่องโหว่ 3 จุดในชุด Gemini AI ของ Google เรียกว่า “Gemini Trifecta”
    ช่องโหว่แรกอยู่ใน Cloud Assist — ฝังคำสั่งใน log แล้วให้ Gemini รันโดยไม่รู้ตัว
    ช่องโหว่ที่สองอยู่ใน Search Personalization — เขียนคำสั่งลงในประวัติ Chrome
    ช่องโหว่ที่สามอยู่ใน Browsing Tool — หลอกให้ Gemini ส่งข้อมูลผู้ใช้ออกไป
    ใช้เทคนิค prompt injection โดยไม่ต้องติดมัลแวร์หรือส่งอีเมลฟิชชิ่ง
    Google แก้ไขโดยย้อนกลับโมเดล, ปิดลิงก์อันตราย และเพิ่มระบบป้องกันหลายชั้น
    ช่องโหว่ถูกเปิดเผยเมื่อวันที่ 1 ตุลาคม 2025 และได้รับการแก้ไขทันที
    นักวิจัยใช้ PoC (Proof-of-Concept) เพื่อแสดงการโจมตีในแต่ละช่องโหว่

    ข้อมูลเสริมจากภายนอก
    Prompt injection คือการฝังคำสั่งลับลงในข้อความหรือบริบทที่ AI ใช้
    “Living off the land” คือการใช้เครื่องมือในระบบเองในการโจมตี เช่น rundll32 หรือ PowerShell
    Search history และ log ไม่ใช่แค่ข้อมูล — มันคือ “ช่องทางโจมตี” หาก AI ใช้โดยไม่มีการกรอง
    การป้องกัน prompt injection ต้องใช้การตรวจสอบ runtime และการแยกบริบทอย่างเข้มงวด
    AI ที่มีความสามารถสูงจะยิ่งเสี่ยง หากไม่มี guardrails ที่ชัดเจน

    https://hackread.com/google-gemini-trifecta-vulnerabilities-gemini-ai/
    🛡️ “Gemini Trifecta: ช่องโหว่ 3 จุดใน AI ของ Google ที่เปิดทางให้แฮกเกอร์ขโมยข้อมูล — แม้ไม่ต้องติดมัลแวร์” Tenable บริษัทด้านความปลอดภัยไซเบอร์ได้เปิดเผยช่องโหว่ร้ายแรง 3 จุดในชุดเครื่องมือ Gemini AI ของ Google ซึ่งถูกเรียกรวมว่า “Gemini Trifecta” โดยช่องโหว่เหล่านี้เปิดทางให้ผู้โจมตีสามารถฝังคำสั่งลับ (prompt injection) และขโมยข้อมูลผู้ใช้ได้โดยไม่ต้องติดตั้งมัลแวร์หรือส่งอีเมลฟิชชิ่งเลยแม้แต่น้อย ช่องโหว่แรกอยู่ในฟีเจอร์ Gemini Cloud Assist ซึ่งใช้สรุป log จากระบบคลาวด์ของ Google Cloud Platform (GCP) โดยนักวิจัยพบว่า หากมีการฝังคำสั่งลับไว้ใน log เช่นในช่อง HTTP User-Agent เมื่อผู้ใช้กด “Explain this log entry” ระบบจะรันคำสั่งนั้นทันที ทำให้สามารถสั่งให้ Gemini ดึงข้อมูล cloud ที่ละเอียดอ่อนได้ ช่องโหว่ที่สองคือ Gemini Search Personalization Model ที่ใช้ประวัติการค้นหาของผู้ใช้ใน Chrome เพื่อปรับแต่งคำตอบของ AI นักวิจัยสามารถใช้ JavaScript จากเว็บไซต์อันตรายเขียนคำสั่งลับลงในประวัติการค้นหา และเมื่อผู้ใช้เรียกใช้ Gemini ระบบจะถือว่าคำสั่งนั้นเป็นบริบทที่เชื่อถือได้ และรันคำสั่งทันที เช่น ส่งข้อมูลตำแหน่งหรือข้อมูลที่บันทึกไว้ไปยังเซิร์ฟเวอร์ภายนอก ช่องโหว่สุดท้ายคือ Gemini Browsing Tool ซึ่งใช้สรุปเนื้อหาจากเว็บไซต์แบบเรียลไทม์ นักวิจัยสามารถหลอกให้ Gemini ส่งข้อมูลผู้ใช้ เช่น ตำแหน่งหรือข้อมูลส่วนตัว ไปยังเซิร์ฟเวอร์ของแฮกเกอร์ โดยใช้ฟีเจอร์ “Show Thinking” เพื่อติดตามขั้นตอนการรันคำสั่ง แม้ Google จะตอบสนองอย่างรวดเร็วและแก้ไขช่องโหว่ทั้งหมดแล้ว โดยการย้อนกลับโมเดลที่มีปัญหา, ปิดการแสดงผลลิงก์อันตรายใน Cloud Assist และเพิ่มระบบป้องกัน prompt injection แบบหลายชั้น แต่เหตุการณ์นี้สะท้อนให้เห็นว่า AI ไม่ใช่แค่เป้าหมายของการโจมตีอีกต่อไป — มันสามารถกลายเป็น “ตัวโจมตี” ได้เอง หากไม่มีการควบคุมที่ดีพอ ✅ ข้อมูลสำคัญจากข่าว ➡️ Tenable พบช่องโหว่ 3 จุดในชุด Gemini AI ของ Google เรียกว่า “Gemini Trifecta” ➡️ ช่องโหว่แรกอยู่ใน Cloud Assist — ฝังคำสั่งใน log แล้วให้ Gemini รันโดยไม่รู้ตัว ➡️ ช่องโหว่ที่สองอยู่ใน Search Personalization — เขียนคำสั่งลงในประวัติ Chrome ➡️ ช่องโหว่ที่สามอยู่ใน Browsing Tool — หลอกให้ Gemini ส่งข้อมูลผู้ใช้ออกไป ➡️ ใช้เทคนิค prompt injection โดยไม่ต้องติดมัลแวร์หรือส่งอีเมลฟิชชิ่ง ➡️ Google แก้ไขโดยย้อนกลับโมเดล, ปิดลิงก์อันตราย และเพิ่มระบบป้องกันหลายชั้น ➡️ ช่องโหว่ถูกเปิดเผยเมื่อวันที่ 1 ตุลาคม 2025 และได้รับการแก้ไขทันที ➡️ นักวิจัยใช้ PoC (Proof-of-Concept) เพื่อแสดงการโจมตีในแต่ละช่องโหว่ ✅ ข้อมูลเสริมจากภายนอก ➡️ Prompt injection คือการฝังคำสั่งลับลงในข้อความหรือบริบทที่ AI ใช้ ➡️ “Living off the land” คือการใช้เครื่องมือในระบบเองในการโจมตี เช่น rundll32 หรือ PowerShell ➡️ Search history และ log ไม่ใช่แค่ข้อมูล — มันคือ “ช่องทางโจมตี” หาก AI ใช้โดยไม่มีการกรอง ➡️ การป้องกัน prompt injection ต้องใช้การตรวจสอบ runtime และการแยกบริบทอย่างเข้มงวด ➡️ AI ที่มีความสามารถสูงจะยิ่งเสี่ยง หากไม่มี guardrails ที่ชัดเจน https://hackread.com/google-gemini-trifecta-vulnerabilities-gemini-ai/
    HACKREAD.COM
    Google Patches “Gemini Trifecta” Vulnerabilities in Gemini AI Suite
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 130 มุมมอง 0 รีวิว
  • “Apple ยังไม่ต้องรีบ — นักวิเคราะห์ชี้แว่น AI ของ Meta ยังไม่ท้าทาย iPhone ecosystem ในอีก 2–3 ปี”

    ในขณะที่ Meta กำลังผลักดันแว่นตาอัจฉริยะ Ray-Ban Display ที่มาพร้อมฟีเจอร์ AI และการควบคุมด้วยสัญญาณจากมือผ่าน Neural Band นักวิเคราะห์จาก Oppenheimer อย่าง Martin Yang ได้ทดลองใช้งานจริงและสรุปว่า แม้จะเป็นก้าวใหม่ในโลก wearable แต่ยังไม่สามารถใช้งานได้ต่อเนื่องแบบ Apple Watch และยังห่างไกลจากการเป็นคู่แข่งของสมาร์ตโฟน

    Yang ระบุว่า Apple ยังมีเวลาอีก 2–3 ปีในการพัฒนาแว่นตาอัจฉริยะของตัวเอง โดยไม่ต้องกังวลว่า Meta จะเข้ามาแย่งพื้นที่ใน ecosystem ของตนได้ในระยะสั้น ซึ่งถือเป็นโอกาสทองสำหรับ Apple ในการปรับแต่งผลิตภัณฑ์ให้พร้อมก่อนเปิดตัว

    ในขณะเดียวกัน UBS Evidence Lab รายงานว่า iPhone 17 ได้ผ่านช่วงพีคของความต้องการหลังเปิดตัวไปแล้ว โดยเฉพาะรุ่น Air ที่มีดีไซน์บางและสเปกเบา ทำให้ความต้องการในตลาดจีนและตลาดหลักลดลงอย่างเห็นได้ชัด

    Apple เองก็มีการปรับกลยุทธ์ โดยหยุดพัฒนา Vision Pro รุ่นใหม่ (รหัส N100) เพื่อหันไปโฟกัสกับแว่นตา AI ที่จะเปิดตัวในปี 2026 ซึ่งจะมาพร้อมกล้อง, ไมโครโฟน, ลำโพง และ Siri รุ่นใหม่ที่สามารถโต้ตอบแบบเรียลไทม์ได้ โดยไม่จำเป็นต้องมีหน้าจอ AR ในตัว

    ข้อมูลสำคัญจากข่าว
    นักวิเคราะห์จาก Oppenheimer ระบุว่าแว่น AI ของ Meta ยังไม่สามารถท้าทาย Apple ecosystem ได้ใน 2–3 ปี
    Ray-Ban Display ยังมีปัญหาเรื่องความสบายตาและการใช้งานต่อเนื่อง
    Apple หยุดพัฒนา Vision Pro รุ่นใหม่ (N100) เพื่อโฟกัสกับแว่น AI ที่จะเปิดตัวในปี 2026
    แว่น AI ของ Apple จะมีกล้อง, ไมโครโฟน, ลำโพง และ Siri รุ่นใหม่
    UBS พบว่า iPhone 17 ผ่านช่วงพีคของความต้องการหลังเปิดตัวแล้ว
    iPhone 17 Air มีความต้องการลดลงในหลายภูมิภาค รวมถึงจีน
    Apple เตรียมเปิดตัว iPhone 18 และรุ่นพับได้ในปี 2026 รวมทั้งหมด 6 รุ่น
    Morgan Stanley คาดว่า Apple จะขาย iPhone ได้ถึง 270 ล้านเครื่องในปี 2026

    ข้อมูลเสริมจากภายนอก
    Ray-Ban Display ใช้เทคโนโลยี EMG ผ่าน Neural Band เพื่อควบคุมด้วยมือ
    Apple Glass รุ่นแรกจะไม่มีหน้าจอ แต่ใช้ AI และเสียงเป็นหลัก
    Meta เปิดตัวแว่นตาอัจฉริยะรุ่นใหม่ในปี 2023 และได้รับความนิยมสูง
    Apple กำลังพัฒนาแว่นตา 2 รุ่น: รุ่น Companion (ไม่มีจอ) และรุ่น Display (มีจอในเลนส์)
    แว่นตาอัจฉริยะกำลังกลายเป็นอุปกรณ์ที่อาจมาแทนสมาร์ตโฟนในอนาคต

    https://wccftech.com/oppenheimer-believes-apple-ecosystem-is-safe-from-metas-ai-smart-glasses-for-the-next-2-3-years-ubs-finds-iphone-17-post-launch-peak-demand-is-over/
    🕶️ “Apple ยังไม่ต้องรีบ — นักวิเคราะห์ชี้แว่น AI ของ Meta ยังไม่ท้าทาย iPhone ecosystem ในอีก 2–3 ปี” ในขณะที่ Meta กำลังผลักดันแว่นตาอัจฉริยะ Ray-Ban Display ที่มาพร้อมฟีเจอร์ AI และการควบคุมด้วยสัญญาณจากมือผ่าน Neural Band นักวิเคราะห์จาก Oppenheimer อย่าง Martin Yang ได้ทดลองใช้งานจริงและสรุปว่า แม้จะเป็นก้าวใหม่ในโลก wearable แต่ยังไม่สามารถใช้งานได้ต่อเนื่องแบบ Apple Watch และยังห่างไกลจากการเป็นคู่แข่งของสมาร์ตโฟน Yang ระบุว่า Apple ยังมีเวลาอีก 2–3 ปีในการพัฒนาแว่นตาอัจฉริยะของตัวเอง โดยไม่ต้องกังวลว่า Meta จะเข้ามาแย่งพื้นที่ใน ecosystem ของตนได้ในระยะสั้น ซึ่งถือเป็นโอกาสทองสำหรับ Apple ในการปรับแต่งผลิตภัณฑ์ให้พร้อมก่อนเปิดตัว ในขณะเดียวกัน UBS Evidence Lab รายงานว่า iPhone 17 ได้ผ่านช่วงพีคของความต้องการหลังเปิดตัวไปแล้ว โดยเฉพาะรุ่น Air ที่มีดีไซน์บางและสเปกเบา ทำให้ความต้องการในตลาดจีนและตลาดหลักลดลงอย่างเห็นได้ชัด Apple เองก็มีการปรับกลยุทธ์ โดยหยุดพัฒนา Vision Pro รุ่นใหม่ (รหัส N100) เพื่อหันไปโฟกัสกับแว่นตา AI ที่จะเปิดตัวในปี 2026 ซึ่งจะมาพร้อมกล้อง, ไมโครโฟน, ลำโพง และ Siri รุ่นใหม่ที่สามารถโต้ตอบแบบเรียลไทม์ได้ โดยไม่จำเป็นต้องมีหน้าจอ AR ในตัว ✅ ข้อมูลสำคัญจากข่าว ➡️ นักวิเคราะห์จาก Oppenheimer ระบุว่าแว่น AI ของ Meta ยังไม่สามารถท้าทาย Apple ecosystem ได้ใน 2–3 ปี ➡️ Ray-Ban Display ยังมีปัญหาเรื่องความสบายตาและการใช้งานต่อเนื่อง ➡️ Apple หยุดพัฒนา Vision Pro รุ่นใหม่ (N100) เพื่อโฟกัสกับแว่น AI ที่จะเปิดตัวในปี 2026 ➡️ แว่น AI ของ Apple จะมีกล้อง, ไมโครโฟน, ลำโพง และ Siri รุ่นใหม่ ➡️ UBS พบว่า iPhone 17 ผ่านช่วงพีคของความต้องการหลังเปิดตัวแล้ว ➡️ iPhone 17 Air มีความต้องการลดลงในหลายภูมิภาค รวมถึงจีน ➡️ Apple เตรียมเปิดตัว iPhone 18 และรุ่นพับได้ในปี 2026 รวมทั้งหมด 6 รุ่น ➡️ Morgan Stanley คาดว่า Apple จะขาย iPhone ได้ถึง 270 ล้านเครื่องในปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ Ray-Ban Display ใช้เทคโนโลยี EMG ผ่าน Neural Band เพื่อควบคุมด้วยมือ ➡️ Apple Glass รุ่นแรกจะไม่มีหน้าจอ แต่ใช้ AI และเสียงเป็นหลัก ➡️ Meta เปิดตัวแว่นตาอัจฉริยะรุ่นใหม่ในปี 2023 และได้รับความนิยมสูง ➡️ Apple กำลังพัฒนาแว่นตา 2 รุ่น: รุ่น Companion (ไม่มีจอ) และรุ่น Display (มีจอในเลนส์) ➡️ แว่นตาอัจฉริยะกำลังกลายเป็นอุปกรณ์ที่อาจมาแทนสมาร์ตโฟนในอนาคต https://wccftech.com/oppenheimer-believes-apple-ecosystem-is-safe-from-metas-ai-smart-glasses-for-the-next-2-3-years-ubs-finds-iphone-17-post-launch-peak-demand-is-over/
    WCCFTECH.COM
    Oppenheimer Believes Apple Ecosystem Is Safe From Meta's AI Smart Glasses For The Next 2-3 Years; UBS Finds iPhone 17 Post-Launch Peak Demand Is Over
    Morgan Stanley now expects Apple to ship a whopping 270 million iPhone units in 2026, helped along by six new iPhone launches next year.
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • “Photonicat 2 คอมพิวเตอร์พกพาแบบเปิดซอร์ส — แบตอึด 24 ชั่วโมง, รองรับ 5G, NVMe และปรับแต่งได้ทุกพอร์ต”

    ถ้า MacGyver ต้องเลือกคอมพิวเตอร์พกพาสักเครื่อง เขาอาจเลือก Photonicat 2 — อุปกรณ์ขนาดเท่าก้อนอิฐที่รวมทุกสิ่งไว้ในตัวเดียว ทั้งแบตเตอรี่ใช้งานได้ 24 ชั่วโมง, พอร์ตเชื่อมต่อรอบตัว, หน้าจอแสดงสถานะ, และระบบปฏิบัติการแบบเปิดซอร์สที่ปรับแต่งได้เต็มรูปแบบ

    Photonicat 2 เป็นรุ่นต่อยอดจาก Photonicat 1 ที่เคยเปิดตัวในฐานะเราเตอร์พกพาแบบเปิดซอร์ส โดยรุ่นใหม่นี้ยังคงแนวคิดเดิม แต่เพิ่มประสิทธิภาพอย่างชัดเจน ด้วยชิป Rockchip RK3576 แบบ 8 คอร์ ที่แรงกว่ารุ่นก่อนถึง 3 เท่า รองรับ RAM สูงสุด 16GB LPDDR5 และ eMMC สูงสุด 128GB พร้อมช่อง NVMe ขนาด 2230 สำหรับขยายพื้นที่เก็บข้อมูล

    ตัวเครื่องมีขนาด 154 x 78 x 32 มม. น้ำหนักประมาณ 485 กรัมเมื่อรวมแบตเตอรี่ ใช้แบตเตอรี่ 18650 จำนวน 4 ก้อน ให้พลังงานใช้งานต่อเนื่องได้ถึง 24 ชั่วโมง และรองรับการชาร์จเร็วผ่าน USB-C PD 30W

    ด้านการเชื่อมต่อ Photonicat 2 รองรับ dual gigabit Ethernet, HDMI 4K60, USB-C, USB 3.0, microSD, nano-SIM และช่องต่อเสาอากาศภายนอกสูงสุด 4 จุด เพื่อเพิ่มประสิทธิภาพสัญญาณ 5G หรือ Wi-Fi ในพื้นที่ห่างไกล

    หน้าจอ LCD ด้านหน้าสามารถแสดงข้อมูลแบบเรียลไทม์ เช่น ความเร็วเน็ต, อุณหภูมิ CPU, สถานะแบตเตอรี่ และ IP address โดยผู้ใช้สามารถปรับแต่งหน้าจอผ่าน JSON ได้ตามต้องการ

    ระบบปฏิบัติการรองรับ Linux kernel 6.12+, Debian, OpenWrt และ Android build script พร้อมรองรับ KVM virtualization ทำให้สามารถใช้งานเป็นทั้งคอมพิวเตอร์พกพา, เราเตอร์, NAS, หรือแม้แต่ UPS สำหรับอุปกรณ์เครือข่าย

    Photonicat 2 เปิดระดมทุนผ่าน Kickstarter และสามารถระดมทุนเกินเป้าหมายภายในเวลาไม่กี่วัน โดยมีแผนจัดส่งทั่วโลกในเดือนพฤศจิกายน 2025

    ข้อมูลสำคัญจากข่าว
    Photonicat 2 เป็นคอมพิวเตอร์พกพาแบบเปิดซอร์สรุ่นใหม่จาก Photonicat
    ใช้ชิป Rockchip RK3576 แบบ 8 คอร์ แรงกว่ารุ่นก่อนถึง 3 เท่า
    รองรับ RAM สูงสุด 16GB LPDDR5 และ eMMC สูงสุด 128GB
    มีช่อง NVMe ขนาด 2230 สำหรับขยายพื้นที่เก็บข้อมูล
    ใช้แบตเตอรี่ 18650 จำนวน 4 ก้อน ใช้งานได้สูงสุด 24 ชั่วโมง
    รองรับการชาร์จเร็วผ่าน USB-C PD 30W
    มีพอร์ตเชื่อมต่อครบครัน: Ethernet, HDMI 4K, USB-C, USB 3.0, microSD, nano-SIM
    รองรับเสาอากาศภายนอกสูงสุด 4 จุด
    หน้าจอ LCD แสดงข้อมูลแบบเรียลไทม์ ปรับแต่งได้ผ่าน JSON
    รองรับ Linux kernel 6.12+, Debian, OpenWrt และ Android build script
    ใช้งานได้ทั้งเป็นคอมพิวเตอร์, เราเตอร์, NAS หรือ UPS
    ระดมทุนผ่าน Kickstarter และจัดส่งทั่วโลกใน พ.ย. 2025

    ข้อมูลเสริมจากภายนอก
    RK3576 เป็นชิป ARM ที่เน้นประสิทธิภาพและการจัดการพลังงาน
    NVMe 2230 เป็นฟอร์แมต SSD ขนาดเล็กที่นิยมใช้ในอุปกรณ์พกพา
    OpenWrt เป็นระบบปฏิบัติการสำหรับเราเตอร์ที่เน้นความปลอดภัยและการปรับแต่ง
    KVM virtualization ช่วยให้ Photonicat 2 รันหลายระบบพร้อมกันได้
    การใช้ JSON ปรับแต่งหน้าจอช่วยให้ผู้ใช้ควบคุมอินเทอร์เฟซได้ละเอียด

    https://www.techradar.com/pro/if-mcgyver-bought-a-pc-it-would-probably-be-the-photonicat-brick-like-computer-has-built-in-24-hr-battery-ports-agogo-sim-slot-external-antennas-nvme-slot-and-is-open-source
    🧱 “Photonicat 2 คอมพิวเตอร์พกพาแบบเปิดซอร์ส — แบตอึด 24 ชั่วโมง, รองรับ 5G, NVMe และปรับแต่งได้ทุกพอร์ต” ถ้า MacGyver ต้องเลือกคอมพิวเตอร์พกพาสักเครื่อง เขาอาจเลือก Photonicat 2 — อุปกรณ์ขนาดเท่าก้อนอิฐที่รวมทุกสิ่งไว้ในตัวเดียว ทั้งแบตเตอรี่ใช้งานได้ 24 ชั่วโมง, พอร์ตเชื่อมต่อรอบตัว, หน้าจอแสดงสถานะ, และระบบปฏิบัติการแบบเปิดซอร์สที่ปรับแต่งได้เต็มรูปแบบ Photonicat 2 เป็นรุ่นต่อยอดจาก Photonicat 1 ที่เคยเปิดตัวในฐานะเราเตอร์พกพาแบบเปิดซอร์ส โดยรุ่นใหม่นี้ยังคงแนวคิดเดิม แต่เพิ่มประสิทธิภาพอย่างชัดเจน ด้วยชิป Rockchip RK3576 แบบ 8 คอร์ ที่แรงกว่ารุ่นก่อนถึง 3 เท่า รองรับ RAM สูงสุด 16GB LPDDR5 และ eMMC สูงสุด 128GB พร้อมช่อง NVMe ขนาด 2230 สำหรับขยายพื้นที่เก็บข้อมูล ตัวเครื่องมีขนาด 154 x 78 x 32 มม. น้ำหนักประมาณ 485 กรัมเมื่อรวมแบตเตอรี่ ใช้แบตเตอรี่ 18650 จำนวน 4 ก้อน ให้พลังงานใช้งานต่อเนื่องได้ถึง 24 ชั่วโมง และรองรับการชาร์จเร็วผ่าน USB-C PD 30W ด้านการเชื่อมต่อ Photonicat 2 รองรับ dual gigabit Ethernet, HDMI 4K60, USB-C, USB 3.0, microSD, nano-SIM และช่องต่อเสาอากาศภายนอกสูงสุด 4 จุด เพื่อเพิ่มประสิทธิภาพสัญญาณ 5G หรือ Wi-Fi ในพื้นที่ห่างไกล หน้าจอ LCD ด้านหน้าสามารถแสดงข้อมูลแบบเรียลไทม์ เช่น ความเร็วเน็ต, อุณหภูมิ CPU, สถานะแบตเตอรี่ และ IP address โดยผู้ใช้สามารถปรับแต่งหน้าจอผ่าน JSON ได้ตามต้องการ ระบบปฏิบัติการรองรับ Linux kernel 6.12+, Debian, OpenWrt และ Android build script พร้อมรองรับ KVM virtualization ทำให้สามารถใช้งานเป็นทั้งคอมพิวเตอร์พกพา, เราเตอร์, NAS, หรือแม้แต่ UPS สำหรับอุปกรณ์เครือข่าย Photonicat 2 เปิดระดมทุนผ่าน Kickstarter และสามารถระดมทุนเกินเป้าหมายภายในเวลาไม่กี่วัน โดยมีแผนจัดส่งทั่วโลกในเดือนพฤศจิกายน 2025 ✅ ข้อมูลสำคัญจากข่าว ➡️ Photonicat 2 เป็นคอมพิวเตอร์พกพาแบบเปิดซอร์สรุ่นใหม่จาก Photonicat ➡️ ใช้ชิป Rockchip RK3576 แบบ 8 คอร์ แรงกว่ารุ่นก่อนถึง 3 เท่า ➡️ รองรับ RAM สูงสุด 16GB LPDDR5 และ eMMC สูงสุด 128GB ➡️ มีช่อง NVMe ขนาด 2230 สำหรับขยายพื้นที่เก็บข้อมูล ➡️ ใช้แบตเตอรี่ 18650 จำนวน 4 ก้อน ใช้งานได้สูงสุด 24 ชั่วโมง ➡️ รองรับการชาร์จเร็วผ่าน USB-C PD 30W ➡️ มีพอร์ตเชื่อมต่อครบครัน: Ethernet, HDMI 4K, USB-C, USB 3.0, microSD, nano-SIM ➡️ รองรับเสาอากาศภายนอกสูงสุด 4 จุด ➡️ หน้าจอ LCD แสดงข้อมูลแบบเรียลไทม์ ปรับแต่งได้ผ่าน JSON ➡️ รองรับ Linux kernel 6.12+, Debian, OpenWrt และ Android build script ➡️ ใช้งานได้ทั้งเป็นคอมพิวเตอร์, เราเตอร์, NAS หรือ UPS ➡️ ระดมทุนผ่าน Kickstarter และจัดส่งทั่วโลกใน พ.ย. 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ RK3576 เป็นชิป ARM ที่เน้นประสิทธิภาพและการจัดการพลังงาน ➡️ NVMe 2230 เป็นฟอร์แมต SSD ขนาดเล็กที่นิยมใช้ในอุปกรณ์พกพา ➡️ OpenWrt เป็นระบบปฏิบัติการสำหรับเราเตอร์ที่เน้นความปลอดภัยและการปรับแต่ง ➡️ KVM virtualization ช่วยให้ Photonicat 2 รันหลายระบบพร้อมกันได้ ➡️ การใช้ JSON ปรับแต่งหน้าจอช่วยให้ผู้ใช้ควบคุมอินเทอร์เฟซได้ละเอียด https://www.techradar.com/pro/if-mcgyver-bought-a-pc-it-would-probably-be-the-photonicat-brick-like-computer-has-built-in-24-hr-battery-ports-agogo-sim-slot-external-antennas-nvme-slot-and-is-open-source
    0 ความคิดเห็น 0 การแบ่งปัน 165 มุมมอง 0 รีวิว
  • “TSMC ลดพีคพลังงาน EUV ลง 44% — ประหยัดไฟ 190 ล้าน kWh ภายในปี 2030 พร้อมขยายสู่เครื่องจักรอื่น”

    TSMC ผู้ผลิตเซมิคอนดักเตอร์รายใหญ่ที่สุดในโลก กำลังเดินหน้าโครงการ “EUV Dynamic Energy Saving Program” ซึ่งเริ่มใช้งานตั้งแต่เดือนกันยายน 2025 ที่โรงงาน Fab 15B, 18A และ 18B โดยมีเป้าหมายลดการใช้พลังงานของเครื่อง EUV lithography ที่ขึ้นชื่อว่ากินไฟมหาศาล

    ผลลัพธ์เบื้องต้นน่าประทับใจ: TSMC สามารถลดการใช้พลังงานช่วงพีคของเครื่อง EUV ลงได้ถึง 44% โดยไม่กระทบต่อคุณภาพหรือผลผลิต และคาดว่าจะประหยัดไฟรวม 190 ล้านกิโลวัตต์ชั่วโมงภายในปี 2030 พร้อมลดการปล่อยคาร์บอนลง 101,000 ตัน

    แม้ TSMC จะไม่เปิดเผยรายละเอียดเชิงเทคนิคของระบบนี้ แต่มีการคาดการณ์ว่าอาจใช้การปรับพลังงานตามสถานะการทำงานแบบเรียลไทม์ เช่น หากไม่มีเวเฟอร์รอการประมวลผล เครื่องจะเข้าสู่โหมดประหยัดพลังงานโดยอัตโนมัติ ซึ่งต้องอาศัยการแลกเปลี่ยนข้อมูลระหว่างระบบในคลีนรูมอย่างแม่นยำ

    นอกจากนี้ TSMC ยังมีแผนขยายระบบประหยัดพลังงานนี้ไปยังเครื่อง DUV และโมดูลอื่น ๆ ที่ไม่ใช่ lithography เพื่อเพิ่มประสิทธิภาพโดยรวมของโรงงาน และจะใช้ระบบนี้เป็นมาตรฐานสำหรับโรงงานใหม่ทุกแห่ง เช่น Fab 21 เฟส 2 ในรัฐแอริโซนา

    แม้การประหยัดไฟ 190 ล้าน kWh จะดูมหาศาล แต่เมื่อเทียบกับการใช้พลังงานรวมของ TSMC ในปี 2024 ที่สูงถึง 25.55 พันล้าน kWh ก็ยังถือเป็นเพียงส่วนเล็ก ๆ เท่านั้น โดยกว่า 53.9% ของพลังงานทั้งหมดถูกใช้ไปกับระบบสนับสนุนต่าง ๆ เช่น ระบบทำความเย็นและกรองอากาศ

    ข้อมูลสำคัญจากข่าว
    TSMC เริ่มใช้ EUV Dynamic Energy Saving Program ตั้งแต่ ก.ย. 2025
    ลดพีคพลังงานของเครื่อง EUV lithography ได้ถึง 44%
    คาดว่าจะประหยัดไฟรวม 190 ล้าน kWh ภายในปี 2030
    ลดการปล่อยคาร์บอนลง 101,000 ตัน
    เริ่มใช้งานที่โรงงาน Fab 15B, 18A และ 18B
    จะใช้เป็นมาตรฐานสำหรับโรงงานใหม่ เช่น Fab 21 เฟส 2
    มีแผนขยายไปยังเครื่อง DUV และโมดูลอื่น ๆ
    ระบบอาจใช้การปรับพลังงานตามสถานะการทำงานแบบเรียลไทม์
    ในปี 2024 TSMC ใช้พลังงานรวม 25.55 พันล้าน kWh
    พลังงานกว่า 53.9% ถูกใช้กับระบบสนับสนุน ไม่ใช่เครื่องผลิตโดยตรง

    ข้อมูลเสริมจากภายนอก
    เครื่อง EUV ของ ASML ใช้พลังงานสูงถึงหลายร้อยกิโลวัตต์ต่อเครื่อง
    การลดพีคพลังงานช่วยลดความจำเป็นในการขยายระบบไฟฟ้าในโรงงาน
    ระบบ adaptive power scaling ถูกใช้ในอุตสาหกรรมอื่น เช่น data center และ cloud infrastructure
    การลดพลังงานในคลีนรูม เช่น fan filter units และระบบทำความเย็น มีผลต่อคุณภาพเวเฟอร์โดยตรง
    TSMC ยังมีโครงการรีไซเคิลสารทำความเย็นเพื่อลดคาร์บอนเพิ่มเติม

    https://www.tomshardware.com/tech-industry/semiconductors/tsmc-reduces-peak-power-consumption-of-euv-tools-by-44-percent-company-to-save-190-million-kilowatt-hours-of-electricity-by-2030
    ⚡ “TSMC ลดพีคพลังงาน EUV ลง 44% — ประหยัดไฟ 190 ล้าน kWh ภายในปี 2030 พร้อมขยายสู่เครื่องจักรอื่น” TSMC ผู้ผลิตเซมิคอนดักเตอร์รายใหญ่ที่สุดในโลก กำลังเดินหน้าโครงการ “EUV Dynamic Energy Saving Program” ซึ่งเริ่มใช้งานตั้งแต่เดือนกันยายน 2025 ที่โรงงาน Fab 15B, 18A และ 18B โดยมีเป้าหมายลดการใช้พลังงานของเครื่อง EUV lithography ที่ขึ้นชื่อว่ากินไฟมหาศาล ผลลัพธ์เบื้องต้นน่าประทับใจ: TSMC สามารถลดการใช้พลังงานช่วงพีคของเครื่อง EUV ลงได้ถึง 44% โดยไม่กระทบต่อคุณภาพหรือผลผลิต และคาดว่าจะประหยัดไฟรวม 190 ล้านกิโลวัตต์ชั่วโมงภายในปี 2030 พร้อมลดการปล่อยคาร์บอนลง 101,000 ตัน แม้ TSMC จะไม่เปิดเผยรายละเอียดเชิงเทคนิคของระบบนี้ แต่มีการคาดการณ์ว่าอาจใช้การปรับพลังงานตามสถานะการทำงานแบบเรียลไทม์ เช่น หากไม่มีเวเฟอร์รอการประมวลผล เครื่องจะเข้าสู่โหมดประหยัดพลังงานโดยอัตโนมัติ ซึ่งต้องอาศัยการแลกเปลี่ยนข้อมูลระหว่างระบบในคลีนรูมอย่างแม่นยำ นอกจากนี้ TSMC ยังมีแผนขยายระบบประหยัดพลังงานนี้ไปยังเครื่อง DUV และโมดูลอื่น ๆ ที่ไม่ใช่ lithography เพื่อเพิ่มประสิทธิภาพโดยรวมของโรงงาน และจะใช้ระบบนี้เป็นมาตรฐานสำหรับโรงงานใหม่ทุกแห่ง เช่น Fab 21 เฟส 2 ในรัฐแอริโซนา แม้การประหยัดไฟ 190 ล้าน kWh จะดูมหาศาล แต่เมื่อเทียบกับการใช้พลังงานรวมของ TSMC ในปี 2024 ที่สูงถึง 25.55 พันล้าน kWh ก็ยังถือเป็นเพียงส่วนเล็ก ๆ เท่านั้น โดยกว่า 53.9% ของพลังงานทั้งหมดถูกใช้ไปกับระบบสนับสนุนต่าง ๆ เช่น ระบบทำความเย็นและกรองอากาศ ✅ ข้อมูลสำคัญจากข่าว ➡️ TSMC เริ่มใช้ EUV Dynamic Energy Saving Program ตั้งแต่ ก.ย. 2025 ➡️ ลดพีคพลังงานของเครื่อง EUV lithography ได้ถึง 44% ➡️ คาดว่าจะประหยัดไฟรวม 190 ล้าน kWh ภายในปี 2030 ➡️ ลดการปล่อยคาร์บอนลง 101,000 ตัน ➡️ เริ่มใช้งานที่โรงงาน Fab 15B, 18A และ 18B ➡️ จะใช้เป็นมาตรฐานสำหรับโรงงานใหม่ เช่น Fab 21 เฟส 2 ➡️ มีแผนขยายไปยังเครื่อง DUV และโมดูลอื่น ๆ ➡️ ระบบอาจใช้การปรับพลังงานตามสถานะการทำงานแบบเรียลไทม์ ➡️ ในปี 2024 TSMC ใช้พลังงานรวม 25.55 พันล้าน kWh ➡️ พลังงานกว่า 53.9% ถูกใช้กับระบบสนับสนุน ไม่ใช่เครื่องผลิตโดยตรง ✅ ข้อมูลเสริมจากภายนอก ➡️ เครื่อง EUV ของ ASML ใช้พลังงานสูงถึงหลายร้อยกิโลวัตต์ต่อเครื่อง ➡️ การลดพีคพลังงานช่วยลดความจำเป็นในการขยายระบบไฟฟ้าในโรงงาน ➡️ ระบบ adaptive power scaling ถูกใช้ในอุตสาหกรรมอื่น เช่น data center และ cloud infrastructure ➡️ การลดพลังงานในคลีนรูม เช่น fan filter units และระบบทำความเย็น มีผลต่อคุณภาพเวเฟอร์โดยตรง ➡️ TSMC ยังมีโครงการรีไซเคิลสารทำความเย็นเพื่อลดคาร์บอนเพิ่มเติม https://www.tomshardware.com/tech-industry/semiconductors/tsmc-reduces-peak-power-consumption-of-euv-tools-by-44-percent-company-to-save-190-million-kilowatt-hours-of-electricity-by-2030
    0 ความคิดเห็น 0 การแบ่งปัน 168 มุมมอง 0 รีวิว
  • “Apple พับแผน Vision Pro รุ่นประหยัด — หันไปเร่งพัฒนาแว่นตา AI แข่ง Meta”

    Apple ตัดสินใจเปลี่ยนทิศทางครั้งใหญ่ในตลาดอุปกรณ์สวมใส่ โดยประกาศยุติการพัฒนา Vision Pro รุ่นใหม่ที่มีรหัสภายในว่า N100 ซึ่งเดิมทีวางแผนเปิดตัวในปี 2027 เพื่อเป็นรุ่นที่เบาและราคาถูกลงจาก Vision Pro รุ่นแรกที่เปิดตัวในปี 2024 ด้วยราคา 3,499 ดอลลาร์สหรัฐ แต่กลับไม่สามารถสร้างแรงกระเพื่อมในตลาดได้เท่าที่คาด เนื่องจากขาดเนื้อหาหลักและต้องเผชิญกับการแข่งขันจากอุปกรณ์ราคาถูกกว่า เช่น Meta Quest

    Apple จึงหันมาโฟกัสที่การพัฒนา “แว่นตาอัจฉริยะ” ซึ่งมีแนวโน้มจะกลายเป็นอุปกรณ์สวมใส่ยุคใหม่ที่มาแทนสมาร์ตโฟน โดยมีแผนพัฒนาอย่างน้อย 2 รุ่น ได้แก่:

    รุ่นแรก N50: ไม่มีหน้าจอในตัว ต้องเชื่อมต่อกับ iPhone เพื่อใช้งาน โดยอาจเปิดตัวในปีหน้า และวางจำหน่ายจริงในปี 2027

    รุ่นที่สอง: มีหน้าจอในตัว คล้ายกับ Meta Ray-Ban Display โดยเดิมทีวางแผนเปิดตัวในปี 2028 แต่ Apple กำลังเร่งพัฒนาให้เร็วขึ้น

    แว่นตาอัจฉริยะของ Apple จะเน้นการควบคุมด้วยเสียงและระบบปัญญาประดิษฐ์ โดยใช้ Siri เวอร์ชันใหม่ที่กำลังอยู่ระหว่างการปรับปรุงให้ฉลาดขึ้น และอาจเปิดตัวในช่วงต้นปี 2026

    การเปลี่ยนแผนครั้งนี้สะท้อนถึงแรงกดดันจากตลาดและความสำเร็จของ Meta ที่เปิดตัวแว่นตาอัจฉริยะรุ่นใหม่พร้อมหน้าจอและฟีเจอร์ AI เช่น การแปลภาษาแบบเรียลไทม์ การควบคุมด้วย EMG ผ่านสายรัดข้อมือ และการบันทึกวิดีโอระดับ 3K

    ข้อมูลสำคัญจากข่าว
    Apple ยุติการพัฒนา Vision Pro รุ่น N100 ที่เดิมวางแผนเปิดตัวในปี 2027
    หันไปเร่งพัฒนาแว่นตาอัจฉริยะ 2 รุ่น ได้แก่ N50 (ไม่มีหน้าจอ) และรุ่นมีหน้าจอ
    N50 จะเชื่อมต่อกับ iPhone และอาจเปิดตัวในปีหน้า
    รุ่นมีหน้าจอเดิมทีวางแผนเปิดตัวในปี 2028 แต่กำลังเร่งให้เร็วขึ้น
    แว่นตาใหม่จะใช้ Siri เวอร์ชันใหม่ที่เน้นการควบคุมด้วยเสียงและ AI
    Apple ยังไม่ยืนยันรายละเอียดอย่างเป็นทางการ แต่มีการเปลี่ยนแผนภายในแล้ว
    Vision Pro รุ่นแรกเปิดตัวในปี 2024 ด้วยราคา 3,499 ดอลลาร์ แต่ยอดขายไม่เป็นไปตามเป้า
    Meta เปิดตัว Ray-Ban Display และ Oakley Vanguard พร้อมฟีเจอร์ AI และหน้าจอในตัว

    https://www.thestar.com.my/tech/tech-news/2025/10/02/apple-halts-vision-pro-overhaul-to-focus-on-ai-glasses-bloomberg-news-reports
    🕶️ “Apple พับแผน Vision Pro รุ่นประหยัด — หันไปเร่งพัฒนาแว่นตา AI แข่ง Meta” Apple ตัดสินใจเปลี่ยนทิศทางครั้งใหญ่ในตลาดอุปกรณ์สวมใส่ โดยประกาศยุติการพัฒนา Vision Pro รุ่นใหม่ที่มีรหัสภายในว่า N100 ซึ่งเดิมทีวางแผนเปิดตัวในปี 2027 เพื่อเป็นรุ่นที่เบาและราคาถูกลงจาก Vision Pro รุ่นแรกที่เปิดตัวในปี 2024 ด้วยราคา 3,499 ดอลลาร์สหรัฐ แต่กลับไม่สามารถสร้างแรงกระเพื่อมในตลาดได้เท่าที่คาด เนื่องจากขาดเนื้อหาหลักและต้องเผชิญกับการแข่งขันจากอุปกรณ์ราคาถูกกว่า เช่น Meta Quest Apple จึงหันมาโฟกัสที่การพัฒนา “แว่นตาอัจฉริยะ” ซึ่งมีแนวโน้มจะกลายเป็นอุปกรณ์สวมใส่ยุคใหม่ที่มาแทนสมาร์ตโฟน โดยมีแผนพัฒนาอย่างน้อย 2 รุ่น ได้แก่: 👓 รุ่นแรก N50: ไม่มีหน้าจอในตัว ต้องเชื่อมต่อกับ iPhone เพื่อใช้งาน โดยอาจเปิดตัวในปีหน้า และวางจำหน่ายจริงในปี 2027 👓 รุ่นที่สอง: มีหน้าจอในตัว คล้ายกับ Meta Ray-Ban Display โดยเดิมทีวางแผนเปิดตัวในปี 2028 แต่ Apple กำลังเร่งพัฒนาให้เร็วขึ้น แว่นตาอัจฉริยะของ Apple จะเน้นการควบคุมด้วยเสียงและระบบปัญญาประดิษฐ์ โดยใช้ Siri เวอร์ชันใหม่ที่กำลังอยู่ระหว่างการปรับปรุงให้ฉลาดขึ้น และอาจเปิดตัวในช่วงต้นปี 2026 การเปลี่ยนแผนครั้งนี้สะท้อนถึงแรงกดดันจากตลาดและความสำเร็จของ Meta ที่เปิดตัวแว่นตาอัจฉริยะรุ่นใหม่พร้อมหน้าจอและฟีเจอร์ AI เช่น การแปลภาษาแบบเรียลไทม์ การควบคุมด้วย EMG ผ่านสายรัดข้อมือ และการบันทึกวิดีโอระดับ 3K ✅ ข้อมูลสำคัญจากข่าว ➡️ Apple ยุติการพัฒนา Vision Pro รุ่น N100 ที่เดิมวางแผนเปิดตัวในปี 2027 ➡️ หันไปเร่งพัฒนาแว่นตาอัจฉริยะ 2 รุ่น ได้แก่ N50 (ไม่มีหน้าจอ) และรุ่นมีหน้าจอ ➡️ N50 จะเชื่อมต่อกับ iPhone และอาจเปิดตัวในปีหน้า ➡️ รุ่นมีหน้าจอเดิมทีวางแผนเปิดตัวในปี 2028 แต่กำลังเร่งให้เร็วขึ้น ➡️ แว่นตาใหม่จะใช้ Siri เวอร์ชันใหม่ที่เน้นการควบคุมด้วยเสียงและ AI ➡️ Apple ยังไม่ยืนยันรายละเอียดอย่างเป็นทางการ แต่มีการเปลี่ยนแผนภายในแล้ว ➡️ Vision Pro รุ่นแรกเปิดตัวในปี 2024 ด้วยราคา 3,499 ดอลลาร์ แต่ยอดขายไม่เป็นไปตามเป้า ➡️ Meta เปิดตัว Ray-Ban Display และ Oakley Vanguard พร้อมฟีเจอร์ AI และหน้าจอในตัว https://www.thestar.com.my/tech/tech-news/2025/10/02/apple-halts-vision-pro-overhaul-to-focus-on-ai-glasses-bloomberg-news-reports
    WWW.THESTAR.COM.MY
    Apple halts Vision Pro overhaul to focus on AI glasses, Bloomberg News reports
    (Reuters) -Apple has halted a planned overhaul of its Vision Pro mixed-reality headset to shift resources to smart glasses that would rival products from Meta Platforms, Bloomberg News reported on Wednesday, citing people familiar with the matter.
    0 ความคิดเห็น 0 การแบ่งปัน 112 มุมมอง 0 รีวิว
  • “Cisco เปิดตัว AI Agents เต็มรูปแบบใน Webex — เปลี่ยนห้องประชุมให้กลายเป็นผู้ช่วยอัจฉริยะ”

    ในงาน WebexOne 2025 Cisco ประกาศการเปลี่ยนแปลงครั้งใหญ่ในแพลตฟอร์ม Webex ด้วยการเปิดตัวชุด AI Agents ที่จะเข้ามาทำงานร่วมกับมนุษย์แบบ “Connected Intelligence” โดยเป้าหมายคือการเปลี่ยนวิธีการทำงานร่วมกันในองค์กรให้มีประสิทธิภาพมากขึ้น ผ่านการผสานระหว่างคนและ AI ที่สามารถทำงานแทนได้ในหลายมิติ

    AI Agents ที่เปิดตัวมีหลากหลายรูปแบบ เช่น Task Agent ที่สามารถสรุป action items จากการประชุม, Notetaker Agent ที่ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์, Polling Agent ที่แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม และ Meeting Scheduler ที่ช่วยจัดตารางประชุมโดยอัตโนมัติ

    นอกจากนี้ยังมี AI Receptionist ที่ทำหน้าที่เหมือนพนักงานต้อนรับเสมือนจริง คอยตอบคำถามลูกค้า โอนสาย และจัดการนัดหมาย โดยทั้งหมดจะเริ่มเปิดให้ใช้งานจริงในช่วง Q4 ปี 2025 ถึง Q1 ปี 2026

    Cisco ยังอัปเดตระบบปฏิบัติการ RoomOS 26 สำหรับอุปกรณ์ Collaboration Devices ให้รองรับการทำงานร่วมกับ AI Agents ได้เต็มรูปแบบ พร้อมฟีเจอร์ใหม่อย่าง Dynamic Camera Mode ที่เลือกมุมกล้องอัตโนมัติเหมือนผู้กำกับภาพยนตร์ และระบบเสียงแบบ Audio Zones ที่ใช้ไมโครโฟน Ceiling Mic Pro เพื่อรับเสียงเฉพาะพื้นที่ที่กำหนด

    เพื่อเสริมความสามารถของระบบ AI เหล่านี้ Cisco ได้ร่วมมือกับ Nvidia ในการสร้าง digital twin ของห้องประชุม เพื่อให้ทีม IT สามารถปรับแต่งและจัดการอุปกรณ์ได้อย่างมีประสิทธิภาพมากขึ้น

    การเปิดตัวครั้งนี้ยังมาพร้อมการเชื่อมต่อกับแพลตฟอร์มอื่น เช่น Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira เพื่อให้ AI Agents สามารถทำงานข้ามระบบได้อย่างไร้รอยต่อ

    ข้อมูลสำคัญจากข่าว
    Cisco เปิดตัวชุด AI Agents ใน Webex ภายใต้แนวคิด “Connected Intelligence”
    Task Agent สรุป action items จากการประชุมโดยอัตโนมัติ
    Notetaker Agent ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์ ทั้งใน Webex และ RoomOS 26
    Polling Agent แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม
    Meeting Scheduler ช่วยจัดตารางประชุมโดยอัตโนมัติจากข้อมูลความพร้อมของผู้เข้าร่วม
    AI Receptionist ทำหน้าที่ตอบคำถาม โอนสาย และจัดการนัดหมายแบบเสมือนจริง
    RoomOS 26 เพิ่มฟีเจอร์ Dynamic Camera Mode และ Audio Zones ด้วย Ceiling Mic Pro
    Cisco ร่วมมือกับ Nvidia สร้าง digital twin ของห้องประชุมเพื่อปรับแต่งการใช้งาน
    เชื่อมต่อกับ Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira

    ข้อมูลเสริมจากภายนอก
    Agentic AI คือแนวคิดใหม่ที่ AI ไม่ใช่แค่ผู้ช่วย แต่เป็น “ผู้ร่วมงาน” ที่ทำงานแทนมนุษย์ได้
    Zoom และ Microsoft ก็เริ่มพัฒนา AI Agents ในแพลตฟอร์มของตนเช่นกัน
    Digital twin คือการจำลองสภาพแวดล้อมจริงในรูปแบบดิจิทัล เพื่อการวิเคราะห์และปรับแต่ง
    การใช้ AI ในห้องประชุมช่วยลดภาระงานซ้ำซ้อน และเพิ่มคุณภาพการประชุม
    RoomOS 26 ถือเป็นการอัปเดตครั้งใหญ่ที่สุดของ Cisco ในด้าน Collaboration Devices

    https://www.techradar.com/pro/cisco-goes-all-in-on-agents-and-it-could-mean-big-changes-in-your-workplace
    🤖 “Cisco เปิดตัว AI Agents เต็มรูปแบบใน Webex — เปลี่ยนห้องประชุมให้กลายเป็นผู้ช่วยอัจฉริยะ” ในงาน WebexOne 2025 Cisco ประกาศการเปลี่ยนแปลงครั้งใหญ่ในแพลตฟอร์ม Webex ด้วยการเปิดตัวชุด AI Agents ที่จะเข้ามาทำงานร่วมกับมนุษย์แบบ “Connected Intelligence” โดยเป้าหมายคือการเปลี่ยนวิธีการทำงานร่วมกันในองค์กรให้มีประสิทธิภาพมากขึ้น ผ่านการผสานระหว่างคนและ AI ที่สามารถทำงานแทนได้ในหลายมิติ AI Agents ที่เปิดตัวมีหลากหลายรูปแบบ เช่น Task Agent ที่สามารถสรุป action items จากการประชุม, Notetaker Agent ที่ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์, Polling Agent ที่แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม และ Meeting Scheduler ที่ช่วยจัดตารางประชุมโดยอัตโนมัติ นอกจากนี้ยังมี AI Receptionist ที่ทำหน้าที่เหมือนพนักงานต้อนรับเสมือนจริง คอยตอบคำถามลูกค้า โอนสาย และจัดการนัดหมาย โดยทั้งหมดจะเริ่มเปิดให้ใช้งานจริงในช่วง Q4 ปี 2025 ถึง Q1 ปี 2026 Cisco ยังอัปเดตระบบปฏิบัติการ RoomOS 26 สำหรับอุปกรณ์ Collaboration Devices ให้รองรับการทำงานร่วมกับ AI Agents ได้เต็มรูปแบบ พร้อมฟีเจอร์ใหม่อย่าง Dynamic Camera Mode ที่เลือกมุมกล้องอัตโนมัติเหมือนผู้กำกับภาพยนตร์ และระบบเสียงแบบ Audio Zones ที่ใช้ไมโครโฟน Ceiling Mic Pro เพื่อรับเสียงเฉพาะพื้นที่ที่กำหนด เพื่อเสริมความสามารถของระบบ AI เหล่านี้ Cisco ได้ร่วมมือกับ Nvidia ในการสร้าง digital twin ของห้องประชุม เพื่อให้ทีม IT สามารถปรับแต่งและจัดการอุปกรณ์ได้อย่างมีประสิทธิภาพมากขึ้น การเปิดตัวครั้งนี้ยังมาพร้อมการเชื่อมต่อกับแพลตฟอร์มอื่น เช่น Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira เพื่อให้ AI Agents สามารถทำงานข้ามระบบได้อย่างไร้รอยต่อ ✅ ข้อมูลสำคัญจากข่าว ➡️ Cisco เปิดตัวชุด AI Agents ใน Webex ภายใต้แนวคิด “Connected Intelligence” ➡️ Task Agent สรุป action items จากการประชุมโดยอัตโนมัติ ➡️ Notetaker Agent ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์ ทั้งใน Webex และ RoomOS 26 ➡️ Polling Agent แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม ➡️ Meeting Scheduler ช่วยจัดตารางประชุมโดยอัตโนมัติจากข้อมูลความพร้อมของผู้เข้าร่วม ➡️ AI Receptionist ทำหน้าที่ตอบคำถาม โอนสาย และจัดการนัดหมายแบบเสมือนจริง ➡️ RoomOS 26 เพิ่มฟีเจอร์ Dynamic Camera Mode และ Audio Zones ด้วย Ceiling Mic Pro ➡️ Cisco ร่วมมือกับ Nvidia สร้าง digital twin ของห้องประชุมเพื่อปรับแต่งการใช้งาน ➡️ เชื่อมต่อกับ Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira ✅ ข้อมูลเสริมจากภายนอก ➡️ Agentic AI คือแนวคิดใหม่ที่ AI ไม่ใช่แค่ผู้ช่วย แต่เป็น “ผู้ร่วมงาน” ที่ทำงานแทนมนุษย์ได้ ➡️ Zoom และ Microsoft ก็เริ่มพัฒนา AI Agents ในแพลตฟอร์มของตนเช่นกัน ➡️ Digital twin คือการจำลองสภาพแวดล้อมจริงในรูปแบบดิจิทัล เพื่อการวิเคราะห์และปรับแต่ง ➡️ การใช้ AI ในห้องประชุมช่วยลดภาระงานซ้ำซ้อน และเพิ่มคุณภาพการประชุม ➡️ RoomOS 26 ถือเป็นการอัปเดตครั้งใหญ่ที่สุดของ Cisco ในด้าน Collaboration Devices https://www.techradar.com/pro/cisco-goes-all-in-on-agents-and-it-could-mean-big-changes-in-your-workplace
    0 ความคิดเห็น 0 การแบ่งปัน 169 มุมมอง 0 รีวิว
  • .. "เอกภาพ" และ "เอกสิทธิ" ส.ส. หมายถึง สภาพที่ ส.ส. มีความเป็นเอกภาพในฐานะองค์กรที่ทำหน้าที่แทนประชาชน และ "เอกสิทธิ์" ของ ส.ส. คือ สิทธิเด็ดขาดในการกล่าวแสดงความคิดเห็น ออกเสียงลงคะแนน หรือกระทำการอื่นใดในที่ประชุมสภา โดยไม่ถูกฟ้องร้องดำเนินคดีทางกฎหมายใดๆ เพื่อให้ ส.ส. สามารถทำหน้าที่ได้อย่างเต็มที่

    เอกภาพของ ส.ส.
    ในฐานะองค์กร:
    ส.ส. รวมกันเป็นสภาผู้แทนราษฎร ซึ่งเป็นองค์กรทางการเมืองที่สำคัญ

    การทำงานร่วมกัน:
    แม้ว่าจะมีแนวคิดทางการเมืองที่แตกต่างกัน ส.ส. ก็ต้องทำงานร่วมกันในสภาเพื่อผลประโยชน์ของประชาชน

    การรักษาผลประโยชน์:
    ความเป็นเอกภาพนี้มีความสำคัญเพื่อให้สภาสามารถทำหน้าที่ในการควบคุมฝ่ายบริหาร และออกกฎหมายเพื่อประโยชน์ส่วนรวมได้อย่างมีประสิทธิภาพ

    เอกสิทธิ์ของ ส.ส.
    สิทธิเด็ดขาดในการแสดงความคิดเห็น:
    ส.ส. มีสิทธิอย่างเด็ดขาดที่จะกล่าวแถลงข้อเท็จจริง แสดงความคิดเห็น หรือออกเสียงลงคะแนนในที่ประชุมสภา โดยไม่มีใครสามารถนำเรื่องนั้นไปฟ้องร้องดำเนินคดีได้

    ขอบเขตของเอกสิทธิ์:
    เอกสิทธิ์นี้มีผลเฉพาะการกระทำที่เกิดขึ้นในที่ประชุมสภาเท่านั้น หากเป็นการกล่าวถ้อยคำนอกที่ประชุมสภา หรือก่อนและหลังการประชุม ก็จะไม่ได้รับความคุ้มครอง

    วัตถุประสงค์:
    เอกสิทธิ์นี้มีขึ้นเพื่อคุ้มครองเสรีภาพในการทำหน้าที่ของผู้แทนราษฎร เพื่อให้สามารถแสดงความคิดเห็นได้อย่างเต็มที่ โดยไม่ต้องเกรงกลัวต่อการถูกฟ้องร้องหรือลงโทษจากผู้อื่น

    ที่มา:
    แนวคิดนี้มีต้นกำเนิดจากระบบรัฐสภาของสหราชอาณาจักรในอดีต เพื่อปกป้องสมาชิกสภาจากการถูกจับกุมหรือฟ้องร้องในข้อหาหมิ่นพระบรมเดชานุภาพ

    ..เงื่อนไข MOAที่ครอบงำและควบคุม สส.ในพรรคตนเองทั้งหมดนั้นที่รวมลงนามMOAกันนั้น มีความผิดเต็มๆจะพรรคส้มและพรรคสีน้ำเงิน หรือพรรคใดๆที่ลงร่วมลงนามข้อตกลงสิ่งนี้บนMOA68นี้ ,ผิดกฎหมายรัฐธรรมนูญปี60แน่นอน,ซวยแน่นอนในสถานะสส.ทุกๆคน กรรมการพรรคนั้นๆตลอดสถานะพรรคการเมืองชื่อนั้นๆด้วย อาจถูกยุบพรรคหรือตัดสิทธิทางการเมืองได้ จะตลอดชีวิตหรือไม่ก็ตามพิจารณาเหตุคดีความความผิด เข้าข่ายครอบงำสส.พรรคตนด้วย ครอบ สส.พรรคอื่นด้วย ตลอดครอบงำบนฐานเงื่อนไขที่MOAตนเขียนเงื่อนไขนั้นด้วยที่อ้างกล่าว สรุปครอบงำนั่นเอง.
    ..สถาบันกษัตริย์มีคณาประการมากมายในการสร้างชาติไทยขึ้นมาจนเป็นประเทศไทย เรา..ประชาชนคนไทย ร่วมกันรักษาถนอมไว้ไม่ผิดอะไรดอก,พระองค์ก็มีบทบาทของพระองค์ท่าน,เรา..ประชาชนก็มีบทบาทของเราตามยุคสมัย ผสามกลมเกลียวกันได้ มิเดือดร้อนอะไร,เสรีภาพเราก็มี แค่กฎหมายเราร่วมออกร่วมเขียนผ่านสส.สว.คนของข้าราชการกระทรวงทบวงกรมนั้น,อันใดกดขี่ข่มเหงไม่เป็นคุณประโยชน์ขัดขวางประชาชนไม่ให้สะดวก ทำให้ลำบาก เรา..ประชาชนก็ร่วมกันยกเลิกได้.

    ..แพลตฟอร์มออนไลน์ลงมติเสียงคะแนนเรียลไทม์จากประชาชนเราต้องพัฒนาขึ้นโดยรวดเร็ว เวลาประชาชนเดือดร้อนด้วยกฎหมายปัญญาที่คนข้าราชการออกมาบังคับกดหัวประชาชนมากเกินไปแบบกฎหมายผีบ้าไม่สวมหมวกกันน็อคในขี่มอไซค์ปรับ2,000บาท คนซ้อนท้ายไม่ใส่ด้วยปรับ2เท่าคือ4,000บาท กฎหมายแบบนี้จัญไรอุบาทก์บัดสบเกินไปก็ร่วมกันโหวตลงประชามติเรียลไทม์ผ่านแพลตฟอร์มออนไลน์เราร่วมกันยกเลิกเรียลไทม์ได้,สามารถประเมินแบนคนข้าราชการคณะออกกฎหมายนั้นได้อีกกับความปัญญาอ่อนที่ก่อการเรื่องกฎกติกาผีบ้าไร้สมองคิดตามความเป็นจริงออก. เป็นต้น ตลอดMOU43,44คนไทยก็ลงมติเรียลไทม์ได้,หรือร่วมย้ายแม่ทัพภาค1ที่ละเว้นปฏิบัติหน้าที่ไม่ยึดคืนบ้านหนองจานจากคนเขมรได้ในช่วงเวลาเดียวกันที่แม่ทัพภาค2กลับยึดได้ถึง11จุดพื้นที่ คนไร้น้ำยาไร้ฝีมือเรามิอาจเอาชาติบ้านเมืองมาเสี่ยงได้และเขมรคือภัยคุกคามรุกรานศัตรูเราจริง ยิงระเบิดใส่7/11ประชาชนเราตายเกือบหมดครอบครัว เด็กๆตัวน้อยๆผู้บริสุทธิ์ไม่รู้ห่าอะไรด้วย นอกแนวรบอีกต้องมาเสียชีวิต,แต่แม่ทัพภาคที่1ทำลายจิตใจคนไทยทั้งประเทศมิอาจปล่อยไว้ได้หรืออภัยให้ได้จริงๆ เป็นต้น.

    https://youtube.com/watch?v=5uHtZTK7Xmo&si=oivLl0K396LtfHRH
    .. "เอกภาพ" และ "เอกสิทธิ" ส.ส. หมายถึง สภาพที่ ส.ส. มีความเป็นเอกภาพในฐานะองค์กรที่ทำหน้าที่แทนประชาชน และ "เอกสิทธิ์" ของ ส.ส. คือ สิทธิเด็ดขาดในการกล่าวแสดงความคิดเห็น ออกเสียงลงคะแนน หรือกระทำการอื่นใดในที่ประชุมสภา โดยไม่ถูกฟ้องร้องดำเนินคดีทางกฎหมายใดๆ เพื่อให้ ส.ส. สามารถทำหน้าที่ได้อย่างเต็มที่ เอกภาพของ ส.ส. ในฐานะองค์กร: ส.ส. รวมกันเป็นสภาผู้แทนราษฎร ซึ่งเป็นองค์กรทางการเมืองที่สำคัญ การทำงานร่วมกัน: แม้ว่าจะมีแนวคิดทางการเมืองที่แตกต่างกัน ส.ส. ก็ต้องทำงานร่วมกันในสภาเพื่อผลประโยชน์ของประชาชน การรักษาผลประโยชน์: ความเป็นเอกภาพนี้มีความสำคัญเพื่อให้สภาสามารถทำหน้าที่ในการควบคุมฝ่ายบริหาร และออกกฎหมายเพื่อประโยชน์ส่วนรวมได้อย่างมีประสิทธิภาพ เอกสิทธิ์ของ ส.ส. สิทธิเด็ดขาดในการแสดงความคิดเห็น: ส.ส. มีสิทธิอย่างเด็ดขาดที่จะกล่าวแถลงข้อเท็จจริง แสดงความคิดเห็น หรือออกเสียงลงคะแนนในที่ประชุมสภา โดยไม่มีใครสามารถนำเรื่องนั้นไปฟ้องร้องดำเนินคดีได้ ขอบเขตของเอกสิทธิ์: เอกสิทธิ์นี้มีผลเฉพาะการกระทำที่เกิดขึ้นในที่ประชุมสภาเท่านั้น หากเป็นการกล่าวถ้อยคำนอกที่ประชุมสภา หรือก่อนและหลังการประชุม ก็จะไม่ได้รับความคุ้มครอง วัตถุประสงค์: เอกสิทธิ์นี้มีขึ้นเพื่อคุ้มครองเสรีภาพในการทำหน้าที่ของผู้แทนราษฎร เพื่อให้สามารถแสดงความคิดเห็นได้อย่างเต็มที่ โดยไม่ต้องเกรงกลัวต่อการถูกฟ้องร้องหรือลงโทษจากผู้อื่น ที่มา: แนวคิดนี้มีต้นกำเนิดจากระบบรัฐสภาของสหราชอาณาจักรในอดีต เพื่อปกป้องสมาชิกสภาจากการถูกจับกุมหรือฟ้องร้องในข้อหาหมิ่นพระบรมเดชานุภาพ ..เงื่อนไข MOAที่ครอบงำและควบคุม สส.ในพรรคตนเองทั้งหมดนั้นที่รวมลงนามMOAกันนั้น มีความผิดเต็มๆจะพรรคส้มและพรรคสีน้ำเงิน หรือพรรคใดๆที่ลงร่วมลงนามข้อตกลงสิ่งนี้บนMOA68นี้ ,ผิดกฎหมายรัฐธรรมนูญปี60แน่นอน,ซวยแน่นอนในสถานะสส.ทุกๆคน กรรมการพรรคนั้นๆตลอดสถานะพรรคการเมืองชื่อนั้นๆด้วย อาจถูกยุบพรรคหรือตัดสิทธิทางการเมืองได้ จะตลอดชีวิตหรือไม่ก็ตามพิจารณาเหตุคดีความความผิด เข้าข่ายครอบงำสส.พรรคตนด้วย ครอบ สส.พรรคอื่นด้วย ตลอดครอบงำบนฐานเงื่อนไขที่MOAตนเขียนเงื่อนไขนั้นด้วยที่อ้างกล่าว สรุปครอบงำนั่นเอง. ..สถาบันกษัตริย์มีคณาประการมากมายในการสร้างชาติไทยขึ้นมาจนเป็นประเทศไทย เรา..ประชาชนคนไทย ร่วมกันรักษาถนอมไว้ไม่ผิดอะไรดอก,พระองค์ก็มีบทบาทของพระองค์ท่าน,เรา..ประชาชนก็มีบทบาทของเราตามยุคสมัย ผสามกลมเกลียวกันได้ มิเดือดร้อนอะไร,เสรีภาพเราก็มี แค่กฎหมายเราร่วมออกร่วมเขียนผ่านสส.สว.คนของข้าราชการกระทรวงทบวงกรมนั้น,อันใดกดขี่ข่มเหงไม่เป็นคุณประโยชน์ขัดขวางประชาชนไม่ให้สะดวก ทำให้ลำบาก เรา..ประชาชนก็ร่วมกันยกเลิกได้. ..แพลตฟอร์มออนไลน์ลงมติเสียงคะแนนเรียลไทม์จากประชาชนเราต้องพัฒนาขึ้นโดยรวดเร็ว เวลาประชาชนเดือดร้อนด้วยกฎหมายปัญญาที่คนข้าราชการออกมาบังคับกดหัวประชาชนมากเกินไปแบบกฎหมายผีบ้าไม่สวมหมวกกันน็อคในขี่มอไซค์ปรับ2,000บาท คนซ้อนท้ายไม่ใส่ด้วยปรับ2เท่าคือ4,000บาท กฎหมายแบบนี้จัญไรอุบาทก์บัดสบเกินไปก็ร่วมกันโหวตลงประชามติเรียลไทม์ผ่านแพลตฟอร์มออนไลน์เราร่วมกันยกเลิกเรียลไทม์ได้,สามารถประเมินแบนคนข้าราชการคณะออกกฎหมายนั้นได้อีกกับความปัญญาอ่อนที่ก่อการเรื่องกฎกติกาผีบ้าไร้สมองคิดตามความเป็นจริงออก. เป็นต้น ตลอดMOU43,44คนไทยก็ลงมติเรียลไทม์ได้,หรือร่วมย้ายแม่ทัพภาค1ที่ละเว้นปฏิบัติหน้าที่ไม่ยึดคืนบ้านหนองจานจากคนเขมรได้ในช่วงเวลาเดียวกันที่แม่ทัพภาค2กลับยึดได้ถึง11จุดพื้นที่ คนไร้น้ำยาไร้ฝีมือเรามิอาจเอาชาติบ้านเมืองมาเสี่ยงได้และเขมรคือภัยคุกคามรุกรานศัตรูเราจริง ยิงระเบิดใส่7/11ประชาชนเราตายเกือบหมดครอบครัว เด็กๆตัวน้อยๆผู้บริสุทธิ์ไม่รู้ห่าอะไรด้วย นอกแนวรบอีกต้องมาเสียชีวิต,แต่แม่ทัพภาคที่1ทำลายจิตใจคนไทยทั้งประเทศมิอาจปล่อยไว้ได้หรืออภัยให้ได้จริงๆ เป็นต้น. https://youtube.com/watch?v=5uHtZTK7Xmo&si=oivLl0K396LtfHRH
    0 ความคิดเห็น 0 การแบ่งปัน 196 มุมมอง 0 รีวิว
  • “Crucial เปิดตัว LPCAMM2 แรมโน้ตบุ๊กยุคใหม่เร็วสุด 8,533MT/s — พร้อมรองรับ AI และอัปเกรดได้ในเครื่องบางเบา”

    Micron Technology ได้เปิดตัวหน่วยความจำ Crucial LPCAMM2 ซึ่งเป็นแรมโน้ตบุ๊กรุ่นใหม่ที่ใช้ LPDDR5X และมีความเร็วสูงสุดถึง 8,533MT/s ถือเป็นการก้าวกระโดดครั้งสำคัญในวงการหน่วยความจำสำหรับโน้ตบุ๊ก โดยออกแบบมาเพื่อรองรับงาน AI, การประมวลผลแบบเรียลไทม์ และการใช้งานหนักในเครื่องบางเบา

    LPCAMM2 มีขนาดเล็กกว่าหน่วยความจำ DDR5 SODIMM ถึงครึ่งหนึ่ง แต่ให้ประสิทธิภาพสูงกว่า 1.5 เท่า และใช้พลังงานน้อยลงอย่างมาก โดยลดการใช้พลังงานขณะ standby ได้ถึง 80% และลดการใช้พลังงานขณะทำงานได้ถึง 58% ทำให้เหมาะกับโน้ตบุ๊กที่ต้องการประสิทธิภาพสูงแต่ยังคงอายุแบตเตอรี่ยาวนาน

    จุดเด่นอีกอย่างคือ “ความสามารถในการอัปเกรด” ซึ่งแตกต่างจาก LPDDR ที่มักถูกบัดกรีติดกับเมนบอร์ด LPCAMM2 มาในรูปแบบโมดูลที่สามารถถอดเปลี่ยนได้ ทำให้ผู้ใช้สามารถเพิ่มความจุหรือเปลี่ยนแรมได้ในอนาคต ลดปัญหาขยะอิเล็กทรอนิกส์ และเพิ่มอายุการใช้งานของเครื่อง

    Crucial ระบุว่า LPCAMM2 เหมาะกับผู้ใช้สายสร้างสรรค์, นักพัฒนา AI และผู้ใช้ทั่วไปที่ต้องการประสิทธิภาพสูงในการทำงานหลายอย่างพร้อมกัน เช่น การประชุมวิดีโอ, การตัดต่อภาพ, การเขียนเอกสาร และการจัดการข้อมูลขนาดใหญ่ โดยสามารถเพิ่มประสิทธิภาพได้ถึง 15% ในงาน productivity และ 7% ในงานสร้างสรรค์ จากผลทดสอบ PCMark 10

    หน่วยความจำนี้รองรับโน้ตบุ๊กรุ่นใหม่จาก Lenovo และ Dell และคาดว่าจะมีการนำไปใช้ในโน้ตบุ๊ก AI รุ่นถัดไปอย่างแพร่หลาย

    ข้อมูลสำคัญจากข่าว
    Crucial เปิดตัว LPCAMM2 หน่วยความจำ LPDDR5X สำหรับโน้ตบุ๊ก
    ความเร็วสูงสุดถึง 8,533MT/s เร็วกว่า DDR5 SODIMM ถึง 1.5 เท่า
    ลดการใช้พลังงานขณะ standby ได้ถึง 80% และขณะทำงานได้ถึง 58%
    ขนาดเล็กกว่าหน่วยความจำ DDR5 SODIMM ถึง 64%
    รองรับการอัปเกรดและเปลี่ยนแรมได้ ไม่ต้องบัดกรีติดเมนบอร์ด
    เหมาะกับงาน AI, การสร้างสรรค์, และการทำงานหลายอย่างพร้อมกัน
    เพิ่มประสิทธิภาพได้ถึง 15% ในงาน productivity และ 7% ในงานสร้างสรรค์
    รองรับโน้ตบุ๊กรุ่นใหม่จาก Lenovo และ Dell
    มีจำหน่ายแล้วผ่านช่องทางค้าปลีกและตัวแทนจำหน่ายทั่วโลก

    LPDDR5X เป็นหน่วยความจำที่ใช้ในสมาร์ตโฟนระดับเรือธง เช่น Galaxy S Ultra และ iPhone Pro
    CAMM (Compression Attached Memory Module) เป็นมาตรฐานใหม่ที่กำลังแทนที่ SODIMM
    LPCAMM2 ใช้การเชื่อมต่อแบบ dual-channel ในโมดูลเดียว เพิ่มแบนด์วิดธ์ได้เต็ม 128 บิต
    การออกแบบบางเบาและไม่มีพัดลมช่วยให้โน้ตบุ๊กมีดีไซน์ที่บางลงและเงียบขึ้น
    การอัปเกรดแรมในโน้ตบุ๊กเป็นสิ่งที่ผู้ใช้เรียกร้องมานาน หลังจากหลายรุ่นใช้แรมบัดกรีถาวร

    https://www.techpowerup.com/341496/crucial-unveils-lpcamm2-memory-with-record-8-533mt-s-performance-for-ai-ready-laptops
    🚀 “Crucial เปิดตัว LPCAMM2 แรมโน้ตบุ๊กยุคใหม่เร็วสุด 8,533MT/s — พร้อมรองรับ AI และอัปเกรดได้ในเครื่องบางเบา” Micron Technology ได้เปิดตัวหน่วยความจำ Crucial LPCAMM2 ซึ่งเป็นแรมโน้ตบุ๊กรุ่นใหม่ที่ใช้ LPDDR5X และมีความเร็วสูงสุดถึง 8,533MT/s ถือเป็นการก้าวกระโดดครั้งสำคัญในวงการหน่วยความจำสำหรับโน้ตบุ๊ก โดยออกแบบมาเพื่อรองรับงาน AI, การประมวลผลแบบเรียลไทม์ และการใช้งานหนักในเครื่องบางเบา LPCAMM2 มีขนาดเล็กกว่าหน่วยความจำ DDR5 SODIMM ถึงครึ่งหนึ่ง แต่ให้ประสิทธิภาพสูงกว่า 1.5 เท่า และใช้พลังงานน้อยลงอย่างมาก โดยลดการใช้พลังงานขณะ standby ได้ถึง 80% และลดการใช้พลังงานขณะทำงานได้ถึง 58% ทำให้เหมาะกับโน้ตบุ๊กที่ต้องการประสิทธิภาพสูงแต่ยังคงอายุแบตเตอรี่ยาวนาน จุดเด่นอีกอย่างคือ “ความสามารถในการอัปเกรด” ซึ่งแตกต่างจาก LPDDR ที่มักถูกบัดกรีติดกับเมนบอร์ด LPCAMM2 มาในรูปแบบโมดูลที่สามารถถอดเปลี่ยนได้ ทำให้ผู้ใช้สามารถเพิ่มความจุหรือเปลี่ยนแรมได้ในอนาคต ลดปัญหาขยะอิเล็กทรอนิกส์ และเพิ่มอายุการใช้งานของเครื่อง Crucial ระบุว่า LPCAMM2 เหมาะกับผู้ใช้สายสร้างสรรค์, นักพัฒนา AI และผู้ใช้ทั่วไปที่ต้องการประสิทธิภาพสูงในการทำงานหลายอย่างพร้อมกัน เช่น การประชุมวิดีโอ, การตัดต่อภาพ, การเขียนเอกสาร และการจัดการข้อมูลขนาดใหญ่ โดยสามารถเพิ่มประสิทธิภาพได้ถึง 15% ในงาน productivity และ 7% ในงานสร้างสรรค์ จากผลทดสอบ PCMark 10 หน่วยความจำนี้รองรับโน้ตบุ๊กรุ่นใหม่จาก Lenovo และ Dell และคาดว่าจะมีการนำไปใช้ในโน้ตบุ๊ก AI รุ่นถัดไปอย่างแพร่หลาย ✅ ข้อมูลสำคัญจากข่าว ➡️ Crucial เปิดตัว LPCAMM2 หน่วยความจำ LPDDR5X สำหรับโน้ตบุ๊ก ➡️ ความเร็วสูงสุดถึง 8,533MT/s เร็วกว่า DDR5 SODIMM ถึง 1.5 เท่า ➡️ ลดการใช้พลังงานขณะ standby ได้ถึง 80% และขณะทำงานได้ถึง 58% ➡️ ขนาดเล็กกว่าหน่วยความจำ DDR5 SODIMM ถึง 64% ➡️ รองรับการอัปเกรดและเปลี่ยนแรมได้ ไม่ต้องบัดกรีติดเมนบอร์ด ➡️ เหมาะกับงาน AI, การสร้างสรรค์, และการทำงานหลายอย่างพร้อมกัน ➡️ เพิ่มประสิทธิภาพได้ถึง 15% ในงาน productivity และ 7% ในงานสร้างสรรค์ ➡️ รองรับโน้ตบุ๊กรุ่นใหม่จาก Lenovo และ Dell ➡️ มีจำหน่ายแล้วผ่านช่องทางค้าปลีกและตัวแทนจำหน่ายทั่วโลก ➡️ LPDDR5X เป็นหน่วยความจำที่ใช้ในสมาร์ตโฟนระดับเรือธง เช่น Galaxy S Ultra และ iPhone Pro ➡️ CAMM (Compression Attached Memory Module) เป็นมาตรฐานใหม่ที่กำลังแทนที่ SODIMM ➡️ LPCAMM2 ใช้การเชื่อมต่อแบบ dual-channel ในโมดูลเดียว เพิ่มแบนด์วิดธ์ได้เต็ม 128 บิต ➡️ การออกแบบบางเบาและไม่มีพัดลมช่วยให้โน้ตบุ๊กมีดีไซน์ที่บางลงและเงียบขึ้น ➡️ การอัปเกรดแรมในโน้ตบุ๊กเป็นสิ่งที่ผู้ใช้เรียกร้องมานาน หลังจากหลายรุ่นใช้แรมบัดกรีถาวร https://www.techpowerup.com/341496/crucial-unveils-lpcamm2-memory-with-record-8-533mt-s-performance-for-ai-ready-laptops
    WWW.TECHPOWERUP.COM
    Crucial Unveils LPCAMM2 Memory with Record 8,533MT/s Performance for AI-Ready Laptops
    Micron Technology is pushing the boundaries of laptop performance with higher speeds for Crucial LPCAMM2 memory, now reaching up to 8,533 megatransfers per second (MT/s). This latest enhancement brings even more performance to Crucial's standards-based compact memory module, purpose-built to allow e...
    0 ความคิดเห็น 0 การแบ่งปัน 185 มุมมอง 0 รีวิว
  • “Nvidia Rubin CPX: ชิป AI ยุคใหม่ที่แยกงานประมวลผลออกเป็นสองเฟส — เร็วขึ้น ถูกลง และรองรับ context ยาวระดับล้านโทเคน”

    ในยุคที่โมเดล AI ขนาดใหญ่ เช่น GPT-5, Gemini 2 และ Grok 3 ต้องประมวลผลข้อมูลจำนวนมหาศาลในคราวเดียว Nvidia ได้เปิดตัว GPU ใหม่ในชื่อ “Rubin CPX” ซึ่งออกแบบมาเฉพาะสำหรับงาน “context phase” ของการ inference — คือช่วงที่โมเดลต้องอ่านและตีความอินพุตทั้งหมดก่อนจะเริ่มสร้างผลลัพธ์ใด ๆ

    Rubin CPX ใช้หน่วยความจำ GDDR7 ขนาด 128GB ซึ่งแม้จะมีแบนด์วิดธ์ต่ำกว่า HBM3E หรือ HBM4 แต่ก็มีข้อดีคือราคาถูกกว่า กินไฟน้อยกว่า และไม่ต้องใช้เทคโนโลยีแพ็กเกจขั้นสูงอย่าง CoWoS ทำให้ต้นทุนการผลิตลดลงอย่างมาก

    ตัวชิปสามารถประมวลผลได้ถึง 30 NVFP4 PetaFLOPS และมีฮาร์ดแวร์เฉพาะสำหรับการเร่ง attention mechanism ซึ่งจำเป็นมากในการจัดการกับ context ยาวระดับล้านโทเคน โดยไม่ลดความเร็ว นอกจากนี้ยังมีฟีเจอร์สำหรับการเข้ารหัสและถอดรหัสวิดีโอ เพื่อรองรับงาน generative video ที่กำลังมาแรง

    Rubin CPX จะทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ซึ่งให้พลังประมวลผลรวมถึง 8 ExaFLOPS และหน่วยความจำสูงถึง 100TB ต่อแร็ค โดยใช้การเชื่อมต่อผ่าน Quantum-X800 InfiniBand หรือ Spectrum-XGS Ethernet

    ที่สำคัญคือ Rubin CPX ไม่ต้องการการเขียนโค้ดใหม่ — นักพัฒนา AI สามารถใช้ CUDA, NIM microservices และเครื่องมือของ Nvidia ได้ทันที โดยระบบจะใช้ซอฟต์แวร์ “Dynamo” ในการจัดการการแบ่งงานระหว่าง context phase และ generation phase โดยอัตโนมัติ

    หลายบริษัทเริ่มนำ Rubin CPX ไปใช้งานแล้ว เช่น Cursor สำหรับการสร้างโค้ดแบบเรียลไทม์, Runway สำหรับการสร้างวิดีโอแบบ agent-driven และ Magic สำหรับโมเดลที่ใช้ context ยาวถึง 100 ล้านโทเคน

    ข้อมูลสำคัญจากข่าว
    Nvidia เปิดตัว Rubin CPX GPU สำหรับงาน inference เฟสแรก (context phase)
    ใช้ GDDR7 ขนาด 128GB ซึ่งราคาถูกและกินไฟน้อยกว่าหน่วยความจำ HBM
    ประมวลผลได้ถึง 30 NVFP4 PetaFLOPS พร้อมฮาร์ดแวร์เร่ง attention mechanism
    รองรับการเข้ารหัสและถอดรหัสวิดีโอสำหรับงาน generative video
    ทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX
    ระบบมีพลังรวม 8 ExaFLOPS และหน่วยความจำ 100TB ต่อแร็ค
    ใช้การเชื่อมต่อผ่าน InfiniBand Quantum-X800 หรือ Ethernet Spectrum-XGS
    รองรับ CUDA, NIM และเครื่องมือ Nvidia โดยไม่ต้องเขียนโค้ดใหม่
    ใช้ซอฟต์แวร์ Dynamo ในการจัดการการแบ่งงานระหว่าง GPU โดยอัตโนมัติ
    บริษัท Cursor, Runway และ Magic เริ่มนำ Rubin CPX ไปใช้งานจริงแล้ว

    ข้อมูลเสริมจากภายนอก
    Long-context inference คือการประมวลผลอินพุตจำนวนมากก่อนสร้างผลลัพธ์แรก
    GDDR7 มีแบนด์วิดธ์ต่ำกว่า HBM แต่เหมาะกับงานที่เน้นความจุและต้นทุน
    NVFP4 เป็นรูปแบบการประมวลผลที่ Nvidia พัฒนาขึ้นสำหรับงาน AI โดยเฉพาะ
    Rubin CPX อาจใช้ดีไซน์เดียวกับ GR102/GR202 ซึ่งเป็น GPU สำหรับกราฟิกระดับสูง
    การแยก context phase ออกจาก generation phase ช่วยเพิ่ม throughput ได้ถึง 6 เท่า

    https://www.tomshardware.com/pc-components/gpus/nvidias-new-cpx-gpu-aims-to-change-the-game-in-ai-inference-how-the-debut-of-cheaper-and-cooler-gddr7-memory-could-redefine-ai-inference-infrastructure
    🧠 “Nvidia Rubin CPX: ชิป AI ยุคใหม่ที่แยกงานประมวลผลออกเป็นสองเฟส — เร็วขึ้น ถูกลง และรองรับ context ยาวระดับล้านโทเคน” ในยุคที่โมเดล AI ขนาดใหญ่ เช่น GPT-5, Gemini 2 และ Grok 3 ต้องประมวลผลข้อมูลจำนวนมหาศาลในคราวเดียว Nvidia ได้เปิดตัว GPU ใหม่ในชื่อ “Rubin CPX” ซึ่งออกแบบมาเฉพาะสำหรับงาน “context phase” ของการ inference — คือช่วงที่โมเดลต้องอ่านและตีความอินพุตทั้งหมดก่อนจะเริ่มสร้างผลลัพธ์ใด ๆ Rubin CPX ใช้หน่วยความจำ GDDR7 ขนาด 128GB ซึ่งแม้จะมีแบนด์วิดธ์ต่ำกว่า HBM3E หรือ HBM4 แต่ก็มีข้อดีคือราคาถูกกว่า กินไฟน้อยกว่า และไม่ต้องใช้เทคโนโลยีแพ็กเกจขั้นสูงอย่าง CoWoS ทำให้ต้นทุนการผลิตลดลงอย่างมาก ตัวชิปสามารถประมวลผลได้ถึง 30 NVFP4 PetaFLOPS และมีฮาร์ดแวร์เฉพาะสำหรับการเร่ง attention mechanism ซึ่งจำเป็นมากในการจัดการกับ context ยาวระดับล้านโทเคน โดยไม่ลดความเร็ว นอกจากนี้ยังมีฟีเจอร์สำหรับการเข้ารหัสและถอดรหัสวิดีโอ เพื่อรองรับงาน generative video ที่กำลังมาแรง Rubin CPX จะทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ซึ่งให้พลังประมวลผลรวมถึง 8 ExaFLOPS และหน่วยความจำสูงถึง 100TB ต่อแร็ค โดยใช้การเชื่อมต่อผ่าน Quantum-X800 InfiniBand หรือ Spectrum-XGS Ethernet ที่สำคัญคือ Rubin CPX ไม่ต้องการการเขียนโค้ดใหม่ — นักพัฒนา AI สามารถใช้ CUDA, NIM microservices และเครื่องมือของ Nvidia ได้ทันที โดยระบบจะใช้ซอฟต์แวร์ “Dynamo” ในการจัดการการแบ่งงานระหว่าง context phase และ generation phase โดยอัตโนมัติ หลายบริษัทเริ่มนำ Rubin CPX ไปใช้งานแล้ว เช่น Cursor สำหรับการสร้างโค้ดแบบเรียลไทม์, Runway สำหรับการสร้างวิดีโอแบบ agent-driven และ Magic สำหรับโมเดลที่ใช้ context ยาวถึง 100 ล้านโทเคน ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia เปิดตัว Rubin CPX GPU สำหรับงาน inference เฟสแรก (context phase) ➡️ ใช้ GDDR7 ขนาด 128GB ซึ่งราคาถูกและกินไฟน้อยกว่าหน่วยความจำ HBM ➡️ ประมวลผลได้ถึง 30 NVFP4 PetaFLOPS พร้อมฮาร์ดแวร์เร่ง attention mechanism ➡️ รองรับการเข้ารหัสและถอดรหัสวิดีโอสำหรับงาน generative video ➡️ ทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ➡️ ระบบมีพลังรวม 8 ExaFLOPS และหน่วยความจำ 100TB ต่อแร็ค ➡️ ใช้การเชื่อมต่อผ่าน InfiniBand Quantum-X800 หรือ Ethernet Spectrum-XGS ➡️ รองรับ CUDA, NIM และเครื่องมือ Nvidia โดยไม่ต้องเขียนโค้ดใหม่ ➡️ ใช้ซอฟต์แวร์ Dynamo ในการจัดการการแบ่งงานระหว่าง GPU โดยอัตโนมัติ ➡️ บริษัท Cursor, Runway และ Magic เริ่มนำ Rubin CPX ไปใช้งานจริงแล้ว ✅ ข้อมูลเสริมจากภายนอก ➡️ Long-context inference คือการประมวลผลอินพุตจำนวนมากก่อนสร้างผลลัพธ์แรก ➡️ GDDR7 มีแบนด์วิดธ์ต่ำกว่า HBM แต่เหมาะกับงานที่เน้นความจุและต้นทุน ➡️ NVFP4 เป็นรูปแบบการประมวลผลที่ Nvidia พัฒนาขึ้นสำหรับงาน AI โดยเฉพาะ ➡️ Rubin CPX อาจใช้ดีไซน์เดียวกับ GR102/GR202 ซึ่งเป็น GPU สำหรับกราฟิกระดับสูง ➡️ การแยก context phase ออกจาก generation phase ช่วยเพิ่ม throughput ได้ถึง 6 เท่า https://www.tomshardware.com/pc-components/gpus/nvidias-new-cpx-gpu-aims-to-change-the-game-in-ai-inference-how-the-debut-of-cheaper-and-cooler-gddr7-memory-could-redefine-ai-inference-infrastructure
    0 ความคิดเห็น 0 การแบ่งปัน 180 มุมมอง 0 รีวิว
  • “Glass Substrate: วัสดุใหม่ที่ Apple และ Tesla กำลังจับตามอง — จุดเปลี่ยนของวงการชิปยุคถัดไป”

    หลังจากถูกพูดถึงในวงการเซมิคอนดักเตอร์มาหลายปี “Glass Substrate” หรือวัสดุแก้วสำหรับฐานชิป กำลังได้รับความสนใจอย่างจริงจังจากบริษัทเทคโนโลยีระดับโลก ล่าสุดมีรายงานว่า Apple และ Tesla กำลังเจรจากับผู้ผลิตเพื่อเตรียมนำเทคโนโลยีนี้มาใช้ในผลิตภัณฑ์รุ่นถัดไป เช่น ชิป FSD ของ Tesla และชิป ASIC ที่ใช้ใน iPhone หรือ MacBook ของ Apple

    Glass Substrate คือวัสดุที่มาแทน “organic core” ในการแพ็กเกจชิปแบบ chiplet โดยมีข้อดีคือสามารถบรรจุชั้นสัญญาณ (RDL) ได้มากกว่าในพื้นที่เท่าเดิม ทำให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้แน่นขึ้น และลดจำนวนชั้นที่ต้องใช้ ส่งผลให้ผลิตภัณฑ์มีประสิทธิภาพสูงขึ้นและขนาดเล็กลง

    Apple ได้เริ่มเข้าเยี่ยมผู้ผลิตอุปกรณ์ที่เกี่ยวข้องกับ Glass Substrate เพื่อศึกษาความเป็นไปได้ในการนำมาใช้จริง ขณะที่ Tesla กำลังพิจารณาใช้กับชิป FSD รุ่นถัดไป ซึ่งต้องการความหนาแน่นและความเสถียรสูงในการประมวลผลแบบเรียลไทม์

    แม้เทคโนโลยีนี้ยังไม่พร้อมสำหรับการผลิตจำนวนมาก เนื่องจากมีความซับซ้อนด้านการผลิต เช่น การเจาะรู TGV (Through-Glass Via) และการจัดการแผ่นแก้วที่เปราะบาง แต่การที่บริษัทใหญ่อย่าง Apple และ Tesla เริ่มสนใจ ก็เป็นสัญญาณว่า Glass Substrate อาจกลายเป็นมาตรฐานใหม่ในอีกไม่กี่ปีข้างหน้า

    ข้อมูลสำคัญจากข่าว
    Apple และ Tesla กำลังเจรจากับผู้ผลิตเพื่อใช้ Glass Substrate ในชิปรุ่นถัดไป
    Apple อาจใช้กับชิป ASIC สำหรับ iPhone และ MacBook ส่วน Tesla อาจใช้กับชิป FSD
    Glass Substrate มาแทน organic core ในการแพ็กเกจชิปแบบ chiplet
    มีความสามารถในการบรรจุสัญญาณมากขึ้นในพื้นที่เท่าเดิม และลดจำนวนชั้นที่ต้องใช้
    Intel เคยเป็นผู้นำด้าน Glass Substrate แต่ลดการลงทุนในปี 2023
    มีการทดสอบ Glass Substrate ที่โรงงานของ Intel ในรัฐแอริโซนาเมื่อปี 2023
    Samsung และ TSMC กำลังเร่งพัฒนาเทคโนโลยีนี้เพื่อผลิตจริงในปี 2026
    Glass Substrate ช่วยให้สามารถผลิตชิปแบบ multi-die ที่ใหญ่และหนาแน่นขึ้น

    ข้อมูลเสริมจากภายนอก
    Glass Substrate มีความแข็งแรงและเสถียรกว่า organic core ลดการบิดเบี้ยวของชิป
    สามารถใช้ร่วมกับเทคโนโลยี 3D stacking เช่น SoIC ที่ Apple เตรียมนำมาใช้ใน MacBook ปี 2025
    มีความโปร่งใส ทำให้สามารถรวม photonic และ electronic components ในชิปเดียวกันได้
    TSMC กำลังเปลี่ยนจาก wafer กลมเป็น substrate สี่เหลี่ยมเพื่อเพิ่มจำนวนชิปต่อแผ่น
    Glass Substrate เหมาะกับงานที่ต้องการความแม่นยำสูง เช่น AI, รถยนต์อัตโนมัติ และอุปกรณ์สื่อสาร

    https://wccftech.com/glass-substrates-are-beginning-to-draw-big-tech-interest/
    🔬 “Glass Substrate: วัสดุใหม่ที่ Apple และ Tesla กำลังจับตามอง — จุดเปลี่ยนของวงการชิปยุคถัดไป” หลังจากถูกพูดถึงในวงการเซมิคอนดักเตอร์มาหลายปี “Glass Substrate” หรือวัสดุแก้วสำหรับฐานชิป กำลังได้รับความสนใจอย่างจริงจังจากบริษัทเทคโนโลยีระดับโลก ล่าสุดมีรายงานว่า Apple และ Tesla กำลังเจรจากับผู้ผลิตเพื่อเตรียมนำเทคโนโลยีนี้มาใช้ในผลิตภัณฑ์รุ่นถัดไป เช่น ชิป FSD ของ Tesla และชิป ASIC ที่ใช้ใน iPhone หรือ MacBook ของ Apple Glass Substrate คือวัสดุที่มาแทน “organic core” ในการแพ็กเกจชิปแบบ chiplet โดยมีข้อดีคือสามารถบรรจุชั้นสัญญาณ (RDL) ได้มากกว่าในพื้นที่เท่าเดิม ทำให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้แน่นขึ้น และลดจำนวนชั้นที่ต้องใช้ ส่งผลให้ผลิตภัณฑ์มีประสิทธิภาพสูงขึ้นและขนาดเล็กลง Apple ได้เริ่มเข้าเยี่ยมผู้ผลิตอุปกรณ์ที่เกี่ยวข้องกับ Glass Substrate เพื่อศึกษาความเป็นไปได้ในการนำมาใช้จริง ขณะที่ Tesla กำลังพิจารณาใช้กับชิป FSD รุ่นถัดไป ซึ่งต้องการความหนาแน่นและความเสถียรสูงในการประมวลผลแบบเรียลไทม์ แม้เทคโนโลยีนี้ยังไม่พร้อมสำหรับการผลิตจำนวนมาก เนื่องจากมีความซับซ้อนด้านการผลิต เช่น การเจาะรู TGV (Through-Glass Via) และการจัดการแผ่นแก้วที่เปราะบาง แต่การที่บริษัทใหญ่อย่าง Apple และ Tesla เริ่มสนใจ ก็เป็นสัญญาณว่า Glass Substrate อาจกลายเป็นมาตรฐานใหม่ในอีกไม่กี่ปีข้างหน้า ✅ ข้อมูลสำคัญจากข่าว ➡️ Apple และ Tesla กำลังเจรจากับผู้ผลิตเพื่อใช้ Glass Substrate ในชิปรุ่นถัดไป ➡️ Apple อาจใช้กับชิป ASIC สำหรับ iPhone และ MacBook ส่วน Tesla อาจใช้กับชิป FSD ➡️ Glass Substrate มาแทน organic core ในการแพ็กเกจชิปแบบ chiplet ➡️ มีความสามารถในการบรรจุสัญญาณมากขึ้นในพื้นที่เท่าเดิม และลดจำนวนชั้นที่ต้องใช้ ➡️ Intel เคยเป็นผู้นำด้าน Glass Substrate แต่ลดการลงทุนในปี 2023 ➡️ มีการทดสอบ Glass Substrate ที่โรงงานของ Intel ในรัฐแอริโซนาเมื่อปี 2023 ➡️ Samsung และ TSMC กำลังเร่งพัฒนาเทคโนโลยีนี้เพื่อผลิตจริงในปี 2026 ➡️ Glass Substrate ช่วยให้สามารถผลิตชิปแบบ multi-die ที่ใหญ่และหนาแน่นขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ Glass Substrate มีความแข็งแรงและเสถียรกว่า organic core ลดการบิดเบี้ยวของชิป ➡️ สามารถใช้ร่วมกับเทคโนโลยี 3D stacking เช่น SoIC ที่ Apple เตรียมนำมาใช้ใน MacBook ปี 2025 ➡️ มีความโปร่งใส ทำให้สามารถรวม photonic และ electronic components ในชิปเดียวกันได้ ➡️ TSMC กำลังเปลี่ยนจาก wafer กลมเป็น substrate สี่เหลี่ยมเพื่อเพิ่มจำนวนชิปต่อแผ่น ➡️ Glass Substrate เหมาะกับงานที่ต้องการความแม่นยำสูง เช่น AI, รถยนต์อัตโนมัติ และอุปกรณ์สื่อสาร https://wccftech.com/glass-substrates-are-beginning-to-draw-big-tech-interest/
    WCCFTECH.COM
    Glass Substrates Are Beginning to Draw Big Tech Interest, With Apple and Tesla Reportedly Lining Up for Adoption in Next-Gen Chips
    Glass substrates have started to be recognized, as a new report claims that both Apple and Tesla are looking to adopt the technology.
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
  • “Claude Opus 4.1 แซงหน้า GPT-5, Gemini และ Grok ในงานจริง — แม้เป็นงานวิจัยของ OpenAI เอง!”

    ในโลกที่ AI แข่งกันด้วยตัวเลข benchmark และการสาธิตที่ดูดีบนเวที OpenAI ได้เปิดตัวระบบประเมินใหม่ชื่อว่า “GDPval” เพื่อวัดความสามารถของ AI ในงานจริงที่มนุษย์ทำในชีวิตประจำวัน เช่น การตอบอีเมลลูกค้าที่ไม่พอใจ, การจัดตารางงานอีเวนต์ หรือการตรวจสอบใบสั่งซื้อที่มีราคาผิด

    ผลลัพธ์กลับพลิกความคาดหมาย — Claude Opus 4.1 จาก Anthropic กลายเป็นโมเดลที่ทำงานได้ดีที่สุดในงานจริง โดยมีอัตราชนะ (win rate) สูงถึง 47.6% เทียบกับผู้เชี่ยวชาญในอุตสาหกรรม ขณะที่ GPT-5 ของ OpenAI ตามมาเป็นอันดับสองที่ 38.8% และ Gemini 2.5 Pro กับ Grok 4 อยู่ในระดับกลาง ส่วน GPT-4o กลับรั้งท้ายที่ 12.4%

    Claude ทำคะแนนสูงสุดใน 8 จาก 9 อุตสาหกรรมที่ทดสอบ เช่น ภาครัฐ, สาธารณสุข และบริการสังคม ซึ่งแสดงให้เห็นว่าโมเดลนี้มีความสามารถในการเข้าใจบริบทและตอบสนองอย่างเหมาะสมในสถานการณ์ที่ซับซ้อน

    OpenAI ยอมรับผลการทดสอบนี้อย่างเปิดเผย โดยระบุว่า “การสื่อสารความก้าวหน้าของ AI อย่างโปร่งใสคือภารกิจของเรา” และหวังว่า GDPval จะกลายเป็นมาตรฐานใหม่ในการวัดความสามารถของ AI ในโลกจริง ไม่ใช่แค่ในห้องแล็บ

    การเปิดเผยนี้เกิดขึ้นหลังจากมีรายงานว่า 70% ของผู้ใช้ ChatGPT ใช้ AI ที่บ้านมากกว่าที่ทำงาน ซึ่งอาจสะท้อนถึงการเปลี่ยนแปลงพฤติกรรมผู้ใช้ และทำให้ OpenAI ต้องปรับโฟกัสใหม่จากการเน้นเครื่องมือสำหรับงาน ไปสู่การใช้งานในชีวิตประจำวัน

    ข้อมูลสำคัญจากข่าว
    OpenAI เปิดตัวระบบประเมินใหม่ชื่อ GDPval เพื่อวัดความสามารถ AI ในงานจริง
    Claude Opus 4.1 ได้คะแนนสูงสุดในงานจริง โดยมี win rate 47.6%
    GPT-5 ได้อันดับสองที่ 38.8%, GPT-4o ได้ต่ำสุดที่ 12.4%
    Claude ทำคะแนนสูงสุดใน 8 จาก 9 อุตสาหกรรม เช่น รัฐบาลและสาธารณสุข
    ตัวอย่างงานที่ใช้ทดสอบ ได้แก่ การตอบอีเมลลูกค้า, จัดตารางงาน, ตรวจสอบใบสั่งซื้อ
    OpenAI ยอมรับผลการทดสอบอย่างโปร่งใส และหวังให้ GDPval เป็นมาตรฐานใหม่
    การศึกษานี้ร่วมกับนักเศรษฐศาสตร์จาก Harvard และทีมวิจัยเศรษฐกิจของ OpenAI
    70% ของผู้ใช้ ChatGPT ใช้งานที่บ้านมากกว่าที่ทำงาน

    ข้อมูลเสริมจากภายนอก
    Claude Opus 4.1 มี cutoff ความรู้ล่าสุดถึงกรกฎาคม 2025 ซึ่งใหม่กว่าคู่แข่งหลายราย
    GPT-5 มี context window สูงถึง 400,000 tokens แต่ยังแพ้ Claude ในงานจริง
    Gemini 2.5 Pro มี context window ใหญ่ที่สุดถึง 1 ล้าน tokens เหมาะกับงานเอกสารยาว
    Grok 4 มีความสามารถด้านการเขียนโค้ดและข้อมูลเรียลไทม์ แต่ยังไม่โดดเด่นในงานทั่วไป
    Claude ใช้แนวคิด Constitutional AI ที่เน้นความปลอดภัยและการตอบสนองอย่างมีเหตุผล

    https://www.techradar.com/ai-platforms-assistants/claude/claude-just-beat-gpt-5-gemini-and-grok-in-real-world-job-tasks-according-to-openais-own-study
    🏆 “Claude Opus 4.1 แซงหน้า GPT-5, Gemini และ Grok ในงานจริง — แม้เป็นงานวิจัยของ OpenAI เอง!” ในโลกที่ AI แข่งกันด้วยตัวเลข benchmark และการสาธิตที่ดูดีบนเวที OpenAI ได้เปิดตัวระบบประเมินใหม่ชื่อว่า “GDPval” เพื่อวัดความสามารถของ AI ในงานจริงที่มนุษย์ทำในชีวิตประจำวัน เช่น การตอบอีเมลลูกค้าที่ไม่พอใจ, การจัดตารางงานอีเวนต์ หรือการตรวจสอบใบสั่งซื้อที่มีราคาผิด ผลลัพธ์กลับพลิกความคาดหมาย — Claude Opus 4.1 จาก Anthropic กลายเป็นโมเดลที่ทำงานได้ดีที่สุดในงานจริง โดยมีอัตราชนะ (win rate) สูงถึง 47.6% เทียบกับผู้เชี่ยวชาญในอุตสาหกรรม ขณะที่ GPT-5 ของ OpenAI ตามมาเป็นอันดับสองที่ 38.8% และ Gemini 2.5 Pro กับ Grok 4 อยู่ในระดับกลาง ส่วน GPT-4o กลับรั้งท้ายที่ 12.4% Claude ทำคะแนนสูงสุดใน 8 จาก 9 อุตสาหกรรมที่ทดสอบ เช่น ภาครัฐ, สาธารณสุข และบริการสังคม ซึ่งแสดงให้เห็นว่าโมเดลนี้มีความสามารถในการเข้าใจบริบทและตอบสนองอย่างเหมาะสมในสถานการณ์ที่ซับซ้อน OpenAI ยอมรับผลการทดสอบนี้อย่างเปิดเผย โดยระบุว่า “การสื่อสารความก้าวหน้าของ AI อย่างโปร่งใสคือภารกิจของเรา” และหวังว่า GDPval จะกลายเป็นมาตรฐานใหม่ในการวัดความสามารถของ AI ในโลกจริง ไม่ใช่แค่ในห้องแล็บ การเปิดเผยนี้เกิดขึ้นหลังจากมีรายงานว่า 70% ของผู้ใช้ ChatGPT ใช้ AI ที่บ้านมากกว่าที่ทำงาน ซึ่งอาจสะท้อนถึงการเปลี่ยนแปลงพฤติกรรมผู้ใช้ และทำให้ OpenAI ต้องปรับโฟกัสใหม่จากการเน้นเครื่องมือสำหรับงาน ไปสู่การใช้งานในชีวิตประจำวัน ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenAI เปิดตัวระบบประเมินใหม่ชื่อ GDPval เพื่อวัดความสามารถ AI ในงานจริง ➡️ Claude Opus 4.1 ได้คะแนนสูงสุดในงานจริง โดยมี win rate 47.6% ➡️ GPT-5 ได้อันดับสองที่ 38.8%, GPT-4o ได้ต่ำสุดที่ 12.4% ➡️ Claude ทำคะแนนสูงสุดใน 8 จาก 9 อุตสาหกรรม เช่น รัฐบาลและสาธารณสุข ➡️ ตัวอย่างงานที่ใช้ทดสอบ ได้แก่ การตอบอีเมลลูกค้า, จัดตารางงาน, ตรวจสอบใบสั่งซื้อ ➡️ OpenAI ยอมรับผลการทดสอบอย่างโปร่งใส และหวังให้ GDPval เป็นมาตรฐานใหม่ ➡️ การศึกษานี้ร่วมกับนักเศรษฐศาสตร์จาก Harvard และทีมวิจัยเศรษฐกิจของ OpenAI ➡️ 70% ของผู้ใช้ ChatGPT ใช้งานที่บ้านมากกว่าที่ทำงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ Claude Opus 4.1 มี cutoff ความรู้ล่าสุดถึงกรกฎาคม 2025 ซึ่งใหม่กว่าคู่แข่งหลายราย ➡️ GPT-5 มี context window สูงถึง 400,000 tokens แต่ยังแพ้ Claude ในงานจริง ➡️ Gemini 2.5 Pro มี context window ใหญ่ที่สุดถึง 1 ล้าน tokens เหมาะกับงานเอกสารยาว ➡️ Grok 4 มีความสามารถด้านการเขียนโค้ดและข้อมูลเรียลไทม์ แต่ยังไม่โดดเด่นในงานทั่วไป ➡️ Claude ใช้แนวคิด Constitutional AI ที่เน้นความปลอดภัยและการตอบสนองอย่างมีเหตุผล https://www.techradar.com/ai-platforms-assistants/claude/claude-just-beat-gpt-5-gemini-and-grok-in-real-world-job-tasks-according-to-openais-own-study
    0 ความคิดเห็น 0 การแบ่งปัน 202 มุมมอง 0 รีวิว
  • “Snapdragon Guardian: ระบบจัดการพีซีผ่านเครือข่ายเซลลูลาร์ — ควบคุมได้แม้เครื่องดับ อินเทล vPro ต้องมีหนาว”

    Qualcomm เปิดตัวเทคโนโลยีใหม่ในชื่อ “Snapdragon Guardian” ซึ่งเป็นแพลตฟอร์มจัดการและรักษาความปลอดภัยสำหรับพีซีที่ออกแบบมาเพื่อเป็นคู่แข่งโดยตรงกับ Intel vPro โดยความโดดเด่นของ Guardian คือความสามารถในการควบคุมอุปกรณ์ได้แม้ในขณะที่เครื่องปิดอยู่ ไม่เชื่อมต่อ Wi-Fi หรือแม้แต่บูตไม่ขึ้น — ทั้งหมดนี้เป็นไปได้ด้วยการฝังโมเด็ม 4G, 5G และ Wi-Fi 7 ไว้ในตัวชิปโดยตรง2

    Guardian จะเปิดตัวพร้อมกับ Snapdragon X2 Elite และ X2 Elite Extreme ซึ่งเป็นชิปโน้ตบุ๊กรุ่นใหม่ที่เน้นการประมวลผล AI และการเชื่อมต่อแบบ always-on โดยระบบนี้ผสานฮาร์ดแวร์ เฟิร์มแวร์ และบริการคลาวด์เข้าด้วยกัน ทำให้สามารถติดตาม, อัปเดต, ล็อก หรือแม้แต่ล้างข้อมูลในเครื่องได้จากระยะไกลผ่านแดชบอร์ดบนเว็บหรือแอปมือถือ2

    นอกจากการจัดการอุปกรณ์ในองค์กร Guardian ยังเหมาะกับผู้ใช้ทั่วไปที่ต้องการระบบป้องกันการโจรกรรมหรือการเข้าถึงโดยไม่ได้รับอนุญาต โดยสามารถตั้ง geofencing, ติดตามตำแหน่ง และดำเนินการแก้ไขจากระยะไกลได้ทันที

    อย่างไรก็ตาม ความสามารถในการเข้าถึงอุปกรณ์แม้ในขณะปิดเครื่องก็ทำให้เกิดคำถามด้านความเป็นส่วนตัวและการควบคุมว่า “ใคร” ควรมีสิทธิ์เข้าถึง และ “เมื่อไร” ควรอนุญาตให้ใช้งานฟีเจอร์เหล่านี้

    ข้อมูลสำคัญจากข่าว
    Snapdragon Guardian เป็นแพลตฟอร์มจัดการพีซีที่ทำงานได้แม้เครื่องปิดหรือไม่เชื่อมต่อ Wi-Fi
    ใช้โมเด็ม 4G, 5G และ Wi-Fi 7 ฝังในตัวชิปเพื่อเชื่อมต่อแบบ always-on
    ผสานฮาร์ดแวร์ เฟิร์มแวร์ และคลาวด์เพื่อจัดการอุปกรณ์แบบ out-of-band
    รองรับการติดตาม, ล็อก, ล้างข้อมูล และอัปเดตจากระยะไกล
    ใช้งานผ่านแดชบอร์ดบนเว็บและแอปมือถือ
    รองรับ geofencing และการติดตามตำแหน่งแบบเรียลไทม์
    ใช้งานได้ทั้งในองค์กรขนาดใหญ่, SMB และผู้ใช้ทั่วไป
    เปิดตัวพร้อมกับ Snapdragon X2 Elite และ Extreme ในปี 2026
    Qualcomm ระบุว่า Guardian เข้ากันได้กับระบบจัดการ IT ที่มีอยู่แล้ว

    ข้อมูลเสริมจากภายนอก
    Intel vPro ใช้การจัดการแบบ out-of-band ผ่าน LAN แต่ไม่รองรับ cellular
    อุปกรณ์ที่มี Guardian สามารถจัดการได้แม้ถูกขโมยหรืออยู่ต่างประเทศ
    92% ของการโจมตี ransomware เริ่มจากอุปกรณ์ที่ไม่ได้รับการจัดการ
    Qualcomm กำลังขยายตลาดจากมือถือไปสู่พีซี, รถยนต์ และอุปกรณ์ IoT
    Guardian อาจกลายเป็นมาตรฐานใหม่สำหรับการจัดการ endpoint ในยุค AI

    https://www.techradar.com/pro/security/qualcomm-has-a-rival-to-intels-popular-vpro-platform-management-system-called-guardian-and-it-can-even-work-without-wi-fi-but-i-dont-know-whether-it-is-such-a-good-thing
    📡 “Snapdragon Guardian: ระบบจัดการพีซีผ่านเครือข่ายเซลลูลาร์ — ควบคุมได้แม้เครื่องดับ อินเทล vPro ต้องมีหนาว” Qualcomm เปิดตัวเทคโนโลยีใหม่ในชื่อ “Snapdragon Guardian” ซึ่งเป็นแพลตฟอร์มจัดการและรักษาความปลอดภัยสำหรับพีซีที่ออกแบบมาเพื่อเป็นคู่แข่งโดยตรงกับ Intel vPro โดยความโดดเด่นของ Guardian คือความสามารถในการควบคุมอุปกรณ์ได้แม้ในขณะที่เครื่องปิดอยู่ ไม่เชื่อมต่อ Wi-Fi หรือแม้แต่บูตไม่ขึ้น — ทั้งหมดนี้เป็นไปได้ด้วยการฝังโมเด็ม 4G, 5G และ Wi-Fi 7 ไว้ในตัวชิปโดยตรง2 Guardian จะเปิดตัวพร้อมกับ Snapdragon X2 Elite และ X2 Elite Extreme ซึ่งเป็นชิปโน้ตบุ๊กรุ่นใหม่ที่เน้นการประมวลผล AI และการเชื่อมต่อแบบ always-on โดยระบบนี้ผสานฮาร์ดแวร์ เฟิร์มแวร์ และบริการคลาวด์เข้าด้วยกัน ทำให้สามารถติดตาม, อัปเดต, ล็อก หรือแม้แต่ล้างข้อมูลในเครื่องได้จากระยะไกลผ่านแดชบอร์ดบนเว็บหรือแอปมือถือ2 นอกจากการจัดการอุปกรณ์ในองค์กร Guardian ยังเหมาะกับผู้ใช้ทั่วไปที่ต้องการระบบป้องกันการโจรกรรมหรือการเข้าถึงโดยไม่ได้รับอนุญาต โดยสามารถตั้ง geofencing, ติดตามตำแหน่ง และดำเนินการแก้ไขจากระยะไกลได้ทันที อย่างไรก็ตาม ความสามารถในการเข้าถึงอุปกรณ์แม้ในขณะปิดเครื่องก็ทำให้เกิดคำถามด้านความเป็นส่วนตัวและการควบคุมว่า “ใคร” ควรมีสิทธิ์เข้าถึง และ “เมื่อไร” ควรอนุญาตให้ใช้งานฟีเจอร์เหล่านี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Snapdragon Guardian เป็นแพลตฟอร์มจัดการพีซีที่ทำงานได้แม้เครื่องปิดหรือไม่เชื่อมต่อ Wi-Fi ➡️ ใช้โมเด็ม 4G, 5G และ Wi-Fi 7 ฝังในตัวชิปเพื่อเชื่อมต่อแบบ always-on ➡️ ผสานฮาร์ดแวร์ เฟิร์มแวร์ และคลาวด์เพื่อจัดการอุปกรณ์แบบ out-of-band ➡️ รองรับการติดตาม, ล็อก, ล้างข้อมูล และอัปเดตจากระยะไกล ➡️ ใช้งานผ่านแดชบอร์ดบนเว็บและแอปมือถือ ➡️ รองรับ geofencing และการติดตามตำแหน่งแบบเรียลไทม์ ➡️ ใช้งานได้ทั้งในองค์กรขนาดใหญ่, SMB และผู้ใช้ทั่วไป ➡️ เปิดตัวพร้อมกับ Snapdragon X2 Elite และ Extreme ในปี 2026 ➡️ Qualcomm ระบุว่า Guardian เข้ากันได้กับระบบจัดการ IT ที่มีอยู่แล้ว ✅ ข้อมูลเสริมจากภายนอก ➡️ Intel vPro ใช้การจัดการแบบ out-of-band ผ่าน LAN แต่ไม่รองรับ cellular ➡️ อุปกรณ์ที่มี Guardian สามารถจัดการได้แม้ถูกขโมยหรืออยู่ต่างประเทศ ➡️ 92% ของการโจมตี ransomware เริ่มจากอุปกรณ์ที่ไม่ได้รับการจัดการ ➡️ Qualcomm กำลังขยายตลาดจากมือถือไปสู่พีซี, รถยนต์ และอุปกรณ์ IoT ➡️ Guardian อาจกลายเป็นมาตรฐานใหม่สำหรับการจัดการ endpoint ในยุค AI https://www.techradar.com/pro/security/qualcomm-has-a-rival-to-intels-popular-vpro-platform-management-system-called-guardian-and-it-can-even-work-without-wi-fi-but-i-dont-know-whether-it-is-such-a-good-thing
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
  • “Google Gemini vs ChatGPT: ศึก AI ระดับพรีเมียม ใครคุ้มค่ากว่ากันในปี 2025?”

    ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของผู้คนทั่วโลก Google Gemini และ ChatGPT คือสองแพลตฟอร์มที่แข่งขันกันอย่างดุเดือด ทั้งในด้านความสามารถและราคาค่าบริการ โดยแต่ละเจ้ามีจุดแข็งที่แตกต่างกัน — ChatGPT เด่นด้านตรรกะและการให้เหตุผล ส่วน Gemini เหนือกว่าด้านการจัดการข้อมูลที่ซับซ้อนและการค้นหาข้อมูลแบบเรียลไทม์

    หากมองในแง่ของราคาสำหรับผู้ใช้ทั่วไป Gemini Pro เริ่มต้นที่ $19.99/เดือน ส่วน ChatGPT Plus อยู่ที่ $20/เดือน ซึ่งแทบไม่ต่างกันเลย แต่เมื่อขยับไปยังระดับสูง Gemini Ultra อยู่ที่ $249.99/เดือน ขณะที่ ChatGPT Pro อยู่ที่ $200/เดือน ทำให้ Gemini แพงกว่าถึง $49.99

    Gemini Ultra มาพร้อมฟีเจอร์พิเศษ เช่น Gemini 2.5 Deep Think สำหรับงาน reasoning ขั้นสูง และ Project Mariner ที่สามารถทำงานหลายอย่างพร้อมกันได้ นอกจากนี้ยังรวม YouTube Premium และพื้นที่เก็บข้อมูล 30TB บน Google Drive, Photos และ Gmail

    ด้าน ChatGPT Pro แม้ราคาถูกกว่า แต่ก็ให้สิทธิ์เข้าถึง GPT-5 Pro ซึ่งเป็นโมเดลที่แม่นยำและลดข้อผิดพลาดได้มากกว่า GPT-5 รุ่นฟรี พร้อมใช้งานได้ไม่จำกัด และสามารถแชร์ GPTs กับทีมงานได้ ซึ่ง Plus ไม่สามารถทำได้

    สำหรับผู้ใช้เชิงธุรกิจ ChatGPT ยังมีแผน Business ($30/ผู้ใช้) และ Enterprise (ราคาตามตกลง) ที่ให้สิทธิ์ใช้งานโมเดลพิเศษ OpenAI o3 Pro และฟีเจอร์เชิงลึก เช่น deep research, voice agent และ Codex preview

    ข้อมูลสำคัญจากข่าว
    Gemini Pro ราคา $19.99/เดือน ส่วน ChatGPT Plus ราคา $20/เดือน
    Gemini Ultra ราคา $249.99/เดือน ขณะที่ ChatGPT Pro อยู่ที่ $200/เดือน
    Gemini Ultra มีฟีเจอร์พิเศษ เช่น Deep Think, Project Mariner และ YouTube Premium
    Gemini Ultra ให้พื้นที่เก็บข้อมูล 30TB ส่วน Pro ให้ 2TB
    ChatGPT Pro เข้าถึง GPT-5 Pro ได้แบบไม่จำกัด
    ChatGPT Pro สามารถแชร์ GPTs กับ workspace ได้
    ChatGPT Business และ Enterprise มีฟีเจอร์เพิ่มเติม เช่น deep research และ voice agent
    Gemini ใช้ AI credits สำหรับบริการเสริม เช่น Flow และ Whisk
    Gemini มีข้อจำกัดในการใช้งานใน Google Workspace บางส่วน

    ข้อมูลเสริมจากภายนอก
    Gemini พัฒนาโดย Google DeepMind และมีการรีแบรนด์จาก Bard
    Gemini สามารถค้นหาข้อมูลแบบเรียลไทม์ผ่าน Google Search ได้
    ChatGPT มีระบบปลั๊กอินและ GPTs ที่สามารถปรับแต่งได้ตามผู้ใช้
    GPT-5 Pro มีความแม่นยำสูงกว่า GPT-5 รุ่นฟรี และลดข้อผิดพลาดได้ดี
    Gemini Ultra เหมาะกับผู้ใช้ที่ต้องการพื้นที่เก็บข้อมูลขนาดใหญ่และฟีเจอร์หลายด้านในระบบ Google

    https://www.slashgear.com/1980135/google-gemini-vs-chatgpt-price-difference/
    🤖 “Google Gemini vs ChatGPT: ศึก AI ระดับพรีเมียม ใครคุ้มค่ากว่ากันในปี 2025?” ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของผู้คนทั่วโลก Google Gemini และ ChatGPT คือสองแพลตฟอร์มที่แข่งขันกันอย่างดุเดือด ทั้งในด้านความสามารถและราคาค่าบริการ โดยแต่ละเจ้ามีจุดแข็งที่แตกต่างกัน — ChatGPT เด่นด้านตรรกะและการให้เหตุผล ส่วน Gemini เหนือกว่าด้านการจัดการข้อมูลที่ซับซ้อนและการค้นหาข้อมูลแบบเรียลไทม์ หากมองในแง่ของราคาสำหรับผู้ใช้ทั่วไป Gemini Pro เริ่มต้นที่ $19.99/เดือน ส่วน ChatGPT Plus อยู่ที่ $20/เดือน ซึ่งแทบไม่ต่างกันเลย แต่เมื่อขยับไปยังระดับสูง Gemini Ultra อยู่ที่ $249.99/เดือน ขณะที่ ChatGPT Pro อยู่ที่ $200/เดือน ทำให้ Gemini แพงกว่าถึง $49.99 Gemini Ultra มาพร้อมฟีเจอร์พิเศษ เช่น Gemini 2.5 Deep Think สำหรับงาน reasoning ขั้นสูง และ Project Mariner ที่สามารถทำงานหลายอย่างพร้อมกันได้ นอกจากนี้ยังรวม YouTube Premium และพื้นที่เก็บข้อมูล 30TB บน Google Drive, Photos และ Gmail ด้าน ChatGPT Pro แม้ราคาถูกกว่า แต่ก็ให้สิทธิ์เข้าถึง GPT-5 Pro ซึ่งเป็นโมเดลที่แม่นยำและลดข้อผิดพลาดได้มากกว่า GPT-5 รุ่นฟรี พร้อมใช้งานได้ไม่จำกัด และสามารถแชร์ GPTs กับทีมงานได้ ซึ่ง Plus ไม่สามารถทำได้ สำหรับผู้ใช้เชิงธุรกิจ ChatGPT ยังมีแผน Business ($30/ผู้ใช้) และ Enterprise (ราคาตามตกลง) ที่ให้สิทธิ์ใช้งานโมเดลพิเศษ OpenAI o3 Pro และฟีเจอร์เชิงลึก เช่น deep research, voice agent และ Codex preview ✅ ข้อมูลสำคัญจากข่าว ➡️ Gemini Pro ราคา $19.99/เดือน ส่วน ChatGPT Plus ราคา $20/เดือน ➡️ Gemini Ultra ราคา $249.99/เดือน ขณะที่ ChatGPT Pro อยู่ที่ $200/เดือน ➡️ Gemini Ultra มีฟีเจอร์พิเศษ เช่น Deep Think, Project Mariner และ YouTube Premium ➡️ Gemini Ultra ให้พื้นที่เก็บข้อมูล 30TB ส่วน Pro ให้ 2TB ➡️ ChatGPT Pro เข้าถึง GPT-5 Pro ได้แบบไม่จำกัด ➡️ ChatGPT Pro สามารถแชร์ GPTs กับ workspace ได้ ➡️ ChatGPT Business และ Enterprise มีฟีเจอร์เพิ่มเติม เช่น deep research และ voice agent ➡️ Gemini ใช้ AI credits สำหรับบริการเสริม เช่น Flow และ Whisk ➡️ Gemini มีข้อจำกัดในการใช้งานใน Google Workspace บางส่วน ✅ ข้อมูลเสริมจากภายนอก ➡️ Gemini พัฒนาโดย Google DeepMind และมีการรีแบรนด์จาก Bard ➡️ Gemini สามารถค้นหาข้อมูลแบบเรียลไทม์ผ่าน Google Search ได้ ➡️ ChatGPT มีระบบปลั๊กอินและ GPTs ที่สามารถปรับแต่งได้ตามผู้ใช้ ➡️ GPT-5 Pro มีความแม่นยำสูงกว่า GPT-5 รุ่นฟรี และลดข้อผิดพลาดได้ดี ➡️ Gemini Ultra เหมาะกับผู้ใช้ที่ต้องการพื้นที่เก็บข้อมูลขนาดใหญ่และฟีเจอร์หลายด้านในระบบ Google https://www.slashgear.com/1980135/google-gemini-vs-chatgpt-price-difference/
    WWW.SLASHGEAR.COM
    Google Gemini And ChatGPT Price Differences - Here's How Much They Cost - SlashGear
    Gemini costs $19.99/month for the AI Pro plan, while ChatGPT Plus runs $20/month. There are more tiers and plans available for both depending on the usage.
    0 ความคิดเห็น 0 การแบ่งปัน 201 มุมมอง 0 รีวิว
  • “Flexxon เปิดตัว SSD ฝัง AI ป้องกันแรนซัมแวร์และการงัดแงะ — เมื่อความปลอดภัยเริ่มต้นที่ฮาร์ดแวร์”

    บริษัท Flexxon จากสิงคโปร์ได้เปิดตัว X-Phy SSD รุ่นใหม่ที่ฝังระบบปัญญาประดิษฐ์ไว้ในระดับเฟิร์มแวร์ เพื่อป้องกันภัยไซเบอร์ทั้งจากระยะไกลและการโจมตีทางกายภาพ โดย SSD รุ่นนี้ไม่ใช่แค่ที่เก็บข้อมูลธรรมดา แต่เป็น “แนวป้องกันสุดท้าย” สำหรับองค์กรที่ต้องการความปลอดภัยระดับสูง เช่น หน่วยงานรัฐบาล โรงงานอุตสาหกรรม และสถานพยาบาล

    X-Phy ใช้ AI Quantum Engine ที่ฝังอยู่ในตัวควบคุม SSD เพื่อเฝ้าระวังภัยแบบเรียลไทม์ เช่น การโจมตีด้วยแรนซัมแวร์ การโคลนข้อมูล การรบกวนจากคลื่นแม่เหล็กไฟฟ้า และแม้แต่การเปลี่ยนแปลงอุณหภูมิที่อาจบ่งบอกถึงการงัดแงะ หากตรวจพบสิ่งผิดปกติ SSD จะล็อกตัวเองทันที และแจ้งเตือนผู้ใช้ผ่านระบบ authentication หรือในกรณีร้ายแรงสามารถลบข้อมูลทั้งหมดเพื่อป้องกันการเข้าถึงโดยไม่ได้รับอนุญาต

    X-Phy มีให้เลือก 3 รุ่น ได้แก่ Lite, Essential และ Premium โดยแต่ละรุ่นมีระดับการป้องกันที่แตกต่างกัน พร้อมระบบ subscription รายปี เริ่มต้นที่ $249 ไปจนถึง $489 ต่อปี แม้ความเร็วในการอ่าน/เขียนจะต่ำกว่ารุ่น NVMe ทั่วไป แต่จุดเด่นของมันคือ “ความปลอดภัยระดับฮาร์ดแวร์” ที่ไม่พึ่งพาซอฟต์แวร์ภายนอก

    ข้อมูลสำคัญจากข่าว
    Flexxon เปิดตัว SSD ฝัง AI รุ่น X-Phy เพื่อป้องกันภัยไซเบอร์ระดับฮาร์ดแวร์
    ใช้ AI Quantum Engine ฝังในเฟิร์มแวร์เพื่อเฝ้าระวังภัยแบบเรียลไทม์
    ตรวจจับแรนซัมแวร์ การโคลนข้อมูล การรบกวนคลื่นแม่เหล็ก และอุณหภูมิผิดปกติ
    หากพบภัยคุกคาม SSD จะล็อกตัวเองและแจ้งเตือนผู้ใช้ทันที
    มีระบบ authentication เพื่อปลดล็อก หรือสามารถลบข้อมูลอัตโนมัติในกรณีร้ายแรง
    มีให้เลือก 3 รุ่น: Lite ($249), Essential ($359), Premium ($489) ต่อปี
    ความเร็วอ่าน/เขียนสูงสุด 1,700MB/s และ 1,200MB/s ตามลำดับ
    เหมาะกับองค์กรที่ต้องการความปลอดภัยสูง เช่น รัฐบาล อุตสาหกรรม และการแพทย์
    มีการฝังเซ็นเซอร์ตรวจจับการงัดแงะและระบบลายเซ็นดิจิทัลในเฟิร์มแวร์

    ข้อมูลเสริมจากภายนอก
    แรนซัมแวร์ยังคงเป็นภัยไซเบอร์อันดับต้น ๆ ที่สร้างความเสียหายหลายพันล้านดอลลาร์ต่อปี
    SSD ทั่วไปไม่มีระบบป้องกันภัยในระดับเฟิร์มแวร์ ทำให้เสี่ยงต่อการโจมตีแบบลึก
    การฝัง AI ในระดับ low-level programming ช่วยลดการใช้หน่วยความจำและเพิ่มความเร็วในการตอบสนอง
    ระบบ “Zero Trust” ที่ไม่เชื่อถือใครโดยอัตโนมัติ กำลังกลายเป็นมาตรฐานใหม่ในโลกไซเบอร์
    องค์กรกว่า 77% ยังไม่มีแผนรับมือภัยไซเบอร์ที่ชัดเจน ทำให้การป้องกันระดับฮาร์ดแวร์มีความสำคัญมากขึ้น

    https://www.techradar.com/pro/this-secure-ssd-subscription-service-may-well-be-the-perfect-protection-against-physical-tampering-and-a-ransomware-attack-but-its-neither-cheap-nor-fast
    🛡️ “Flexxon เปิดตัว SSD ฝัง AI ป้องกันแรนซัมแวร์และการงัดแงะ — เมื่อความปลอดภัยเริ่มต้นที่ฮาร์ดแวร์” บริษัท Flexxon จากสิงคโปร์ได้เปิดตัว X-Phy SSD รุ่นใหม่ที่ฝังระบบปัญญาประดิษฐ์ไว้ในระดับเฟิร์มแวร์ เพื่อป้องกันภัยไซเบอร์ทั้งจากระยะไกลและการโจมตีทางกายภาพ โดย SSD รุ่นนี้ไม่ใช่แค่ที่เก็บข้อมูลธรรมดา แต่เป็น “แนวป้องกันสุดท้าย” สำหรับองค์กรที่ต้องการความปลอดภัยระดับสูง เช่น หน่วยงานรัฐบาล โรงงานอุตสาหกรรม และสถานพยาบาล X-Phy ใช้ AI Quantum Engine ที่ฝังอยู่ในตัวควบคุม SSD เพื่อเฝ้าระวังภัยแบบเรียลไทม์ เช่น การโจมตีด้วยแรนซัมแวร์ การโคลนข้อมูล การรบกวนจากคลื่นแม่เหล็กไฟฟ้า และแม้แต่การเปลี่ยนแปลงอุณหภูมิที่อาจบ่งบอกถึงการงัดแงะ หากตรวจพบสิ่งผิดปกติ SSD จะล็อกตัวเองทันที และแจ้งเตือนผู้ใช้ผ่านระบบ authentication หรือในกรณีร้ายแรงสามารถลบข้อมูลทั้งหมดเพื่อป้องกันการเข้าถึงโดยไม่ได้รับอนุญาต X-Phy มีให้เลือก 3 รุ่น ได้แก่ Lite, Essential และ Premium โดยแต่ละรุ่นมีระดับการป้องกันที่แตกต่างกัน พร้อมระบบ subscription รายปี เริ่มต้นที่ $249 ไปจนถึง $489 ต่อปี แม้ความเร็วในการอ่าน/เขียนจะต่ำกว่ารุ่น NVMe ทั่วไป แต่จุดเด่นของมันคือ “ความปลอดภัยระดับฮาร์ดแวร์” ที่ไม่พึ่งพาซอฟต์แวร์ภายนอก ✅ ข้อมูลสำคัญจากข่าว ➡️ Flexxon เปิดตัว SSD ฝัง AI รุ่น X-Phy เพื่อป้องกันภัยไซเบอร์ระดับฮาร์ดแวร์ ➡️ ใช้ AI Quantum Engine ฝังในเฟิร์มแวร์เพื่อเฝ้าระวังภัยแบบเรียลไทม์ ➡️ ตรวจจับแรนซัมแวร์ การโคลนข้อมูล การรบกวนคลื่นแม่เหล็ก และอุณหภูมิผิดปกติ ➡️ หากพบภัยคุกคาม SSD จะล็อกตัวเองและแจ้งเตือนผู้ใช้ทันที ➡️ มีระบบ authentication เพื่อปลดล็อก หรือสามารถลบข้อมูลอัตโนมัติในกรณีร้ายแรง ➡️ มีให้เลือก 3 รุ่น: Lite ($249), Essential ($359), Premium ($489) ต่อปี ➡️ ความเร็วอ่าน/เขียนสูงสุด 1,700MB/s และ 1,200MB/s ตามลำดับ ➡️ เหมาะกับองค์กรที่ต้องการความปลอดภัยสูง เช่น รัฐบาล อุตสาหกรรม และการแพทย์ ➡️ มีการฝังเซ็นเซอร์ตรวจจับการงัดแงะและระบบลายเซ็นดิจิทัลในเฟิร์มแวร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ แรนซัมแวร์ยังคงเป็นภัยไซเบอร์อันดับต้น ๆ ที่สร้างความเสียหายหลายพันล้านดอลลาร์ต่อปี ➡️ SSD ทั่วไปไม่มีระบบป้องกันภัยในระดับเฟิร์มแวร์ ทำให้เสี่ยงต่อการโจมตีแบบลึก ➡️ การฝัง AI ในระดับ low-level programming ช่วยลดการใช้หน่วยความจำและเพิ่มความเร็วในการตอบสนอง ➡️ ระบบ “Zero Trust” ที่ไม่เชื่อถือใครโดยอัตโนมัติ กำลังกลายเป็นมาตรฐานใหม่ในโลกไซเบอร์ ➡️ องค์กรกว่า 77% ยังไม่มีแผนรับมือภัยไซเบอร์ที่ชัดเจน ทำให้การป้องกันระดับฮาร์ดแวร์มีความสำคัญมากขึ้น https://www.techradar.com/pro/this-secure-ssd-subscription-service-may-well-be-the-perfect-protection-against-physical-tampering-and-a-ransomware-attack-but-its-neither-cheap-nor-fast
    WWW.TECHRADAR.COM
    New AI powered SSD combines 1TB storage with ransomware and tamper protections
    X-Phy Guard Solution is available in Lite, Essential, or Premium subs
    0 ความคิดเห็น 0 การแบ่งปัน 170 มุมมอง 0 รีวิว
  • “แขนกลช่วยเล็งจาก AI ดัน YouTuber ขึ้นอันดับ 2 โลก — เมื่อ ‘Aimbot’ กลายเป็น ‘Aimborg’ ในชีวิตจริง”

    Nick Zetta หรือที่รู้จักในชื่อ Basically Homeless บน YouTube ได้สร้างสิ่งที่เรียกว่า “แขนกลช่วยเล็ง” หรือ exoskeleton แบบโฮมเมด ที่ใช้ AI และฮาร์ดแวร์จริงในการปรับท่าทางแขนและนิ้วของเขา เพื่อให้เล็งเป้าในเกม FPS ได้แม่นยำขึ้น โดยเป้าหมายคือการไต่ขึ้นอันดับใน Aimlabs ซึ่งเป็นแพลตฟอร์มฝึกเล็งยอดนิยมของเกมเมอร์สายแข่งขัน

    อุปกรณ์นี้ประกอบด้วยกล้องความเร็วสูง, ชิป Nvidia Jetson, มอเตอร์, เซอร์โว และชิ้นส่วน 3D-printed ที่ติดตั้งบนแขนและนิ้วของเขา โดยระบบจะตรวจจับตำแหน่งมือและเป้าหมายบนหน้าจอ แล้วปรับท่าทางของแขนให้เล็งเป้าได้แม่นยำขึ้นแบบเรียลไทม์

    ในช่วงแรกของการทดลอง คะแนนของเขากลับลดลงถึง 20% เพราะยังไม่ชินกับการปล่อยให้ระบบควบคุมแขน แต่เมื่อปรับตัวได้ เขาสามารถเพิ่มคะแนนได้ถึง 3% จากเดิม และหลังจากปรับปรุงระบบให้มี latency ต่ำลงจาก 50ms เหลือเพียง 17ms พร้อมเพิ่มแรงมอเตอร์ให้แข็งแรงขึ้น เขาก็สามารถเพิ่มคะแนนได้แบบก้าวกระโดด — จาก 12% เป็น 28%, 43% และสุดท้าย 63% ซึ่งทำให้เขาขึ้นอันดับ 2 ของโลกใน Aimlabs

    แม้จะดูเหมือน “โกง” แต่ในทางเทคนิคแล้ว เกมไม่สามารถตรวจจับได้ เพราะเป็นการปรับท่าทางในโลกจริง ไม่ใช่การแฮกซอฟต์แวร์ ทำให้เกิดคำถามใหม่ว่า “ถ้า AI ควบคุมร่างกายเราแทน จะถือว่าโกงหรือไม่?”

    ข้อมูลสำคัญจากข่าว
    Nick Zetta สร้างแขนกลช่วยเล็งแบบโฮมเมดเพื่อใช้ใน Aimlabs
    ใช้กล้องความเร็วสูง, Nvidia Jetson, มอเตอร์ และเซอร์โวควบคุมแขนและนิ้ว
    ระบบสามารถปรับท่าทางแขนให้เล็งเป้าได้แม่นยำขึ้นแบบเรียลไทม์
    latency ของระบบลดลงจาก 50ms เหลือเพียง 17ms
    เพิ่มแรงมอเตอร์ให้แข็งแรงขึ้นเพื่อควบคุมแขนแม้มีแรงต้าน
    คะแนนเพิ่มขึ้นจากเดิม 3% ไปจนถึง 63% หลังปรับระบบ
    ขึ้นอันดับ 2 ของโลกใน Aimlabs leaderboard
    ระบบใช้ YOLO model ในการตรวจจับเป้าหมายบนหน้าจอ
    อุปกรณ์ประกอบด้วยชิ้นส่วน 3D-printed และกลไกที่ติดตั้งบนแขนจริง

    ข้อมูลเสริมจากภายนอก
    Nvidia Jetson เป็นชิปที่นิยมใช้ในงาน AI ฝังตัว เช่น หุ่นยนต์และระบบอัตโนมัติ
    YOLO (You Only Look Once) เป็นโมเดล AI ที่ใช้ในการตรวจจับวัตถุแบบเรียลไทม์
    Aimlabs เป็นแพลตฟอร์มฝึกเล็งที่ใช้โดยนักกีฬาอีสปอร์ตทั่วโลก
    การใช้ exoskeleton ในการควบคุมร่างกายเริ่มถูกนำไปใช้ในงานแพทย์และกายภาพบำบัด
    การผสมผสาน AI กับร่างกายมนุษย์กำลังเป็นแนวทางใหม่ในวงการเทคโนโลยี

    https://www.tomshardware.com/video-games/pc-gaming/youtubers-homebrew-aim-assist-exoskeleton-grabs-them-second-place-in-global-aimlabs-leader-board-63-percent-aim-boost-from-ai-powered-project
    🎮 “แขนกลช่วยเล็งจาก AI ดัน YouTuber ขึ้นอันดับ 2 โลก — เมื่อ ‘Aimbot’ กลายเป็น ‘Aimborg’ ในชีวิตจริง” Nick Zetta หรือที่รู้จักในชื่อ Basically Homeless บน YouTube ได้สร้างสิ่งที่เรียกว่า “แขนกลช่วยเล็ง” หรือ exoskeleton แบบโฮมเมด ที่ใช้ AI และฮาร์ดแวร์จริงในการปรับท่าทางแขนและนิ้วของเขา เพื่อให้เล็งเป้าในเกม FPS ได้แม่นยำขึ้น โดยเป้าหมายคือการไต่ขึ้นอันดับใน Aimlabs ซึ่งเป็นแพลตฟอร์มฝึกเล็งยอดนิยมของเกมเมอร์สายแข่งขัน อุปกรณ์นี้ประกอบด้วยกล้องความเร็วสูง, ชิป Nvidia Jetson, มอเตอร์, เซอร์โว และชิ้นส่วน 3D-printed ที่ติดตั้งบนแขนและนิ้วของเขา โดยระบบจะตรวจจับตำแหน่งมือและเป้าหมายบนหน้าจอ แล้วปรับท่าทางของแขนให้เล็งเป้าได้แม่นยำขึ้นแบบเรียลไทม์ ในช่วงแรกของการทดลอง คะแนนของเขากลับลดลงถึง 20% เพราะยังไม่ชินกับการปล่อยให้ระบบควบคุมแขน แต่เมื่อปรับตัวได้ เขาสามารถเพิ่มคะแนนได้ถึง 3% จากเดิม และหลังจากปรับปรุงระบบให้มี latency ต่ำลงจาก 50ms เหลือเพียง 17ms พร้อมเพิ่มแรงมอเตอร์ให้แข็งแรงขึ้น เขาก็สามารถเพิ่มคะแนนได้แบบก้าวกระโดด — จาก 12% เป็น 28%, 43% และสุดท้าย 63% ซึ่งทำให้เขาขึ้นอันดับ 2 ของโลกใน Aimlabs แม้จะดูเหมือน “โกง” แต่ในทางเทคนิคแล้ว เกมไม่สามารถตรวจจับได้ เพราะเป็นการปรับท่าทางในโลกจริง ไม่ใช่การแฮกซอฟต์แวร์ ทำให้เกิดคำถามใหม่ว่า “ถ้า AI ควบคุมร่างกายเราแทน จะถือว่าโกงหรือไม่?” ✅ ข้อมูลสำคัญจากข่าว ➡️ Nick Zetta สร้างแขนกลช่วยเล็งแบบโฮมเมดเพื่อใช้ใน Aimlabs ➡️ ใช้กล้องความเร็วสูง, Nvidia Jetson, มอเตอร์ และเซอร์โวควบคุมแขนและนิ้ว ➡️ ระบบสามารถปรับท่าทางแขนให้เล็งเป้าได้แม่นยำขึ้นแบบเรียลไทม์ ➡️ latency ของระบบลดลงจาก 50ms เหลือเพียง 17ms ➡️ เพิ่มแรงมอเตอร์ให้แข็งแรงขึ้นเพื่อควบคุมแขนแม้มีแรงต้าน ➡️ คะแนนเพิ่มขึ้นจากเดิม 3% ไปจนถึง 63% หลังปรับระบบ ➡️ ขึ้นอันดับ 2 ของโลกใน Aimlabs leaderboard ➡️ ระบบใช้ YOLO model ในการตรวจจับเป้าหมายบนหน้าจอ ➡️ อุปกรณ์ประกอบด้วยชิ้นส่วน 3D-printed และกลไกที่ติดตั้งบนแขนจริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia Jetson เป็นชิปที่นิยมใช้ในงาน AI ฝังตัว เช่น หุ่นยนต์และระบบอัตโนมัติ ➡️ YOLO (You Only Look Once) เป็นโมเดล AI ที่ใช้ในการตรวจจับวัตถุแบบเรียลไทม์ ➡️ Aimlabs เป็นแพลตฟอร์มฝึกเล็งที่ใช้โดยนักกีฬาอีสปอร์ตทั่วโลก ➡️ การใช้ exoskeleton ในการควบคุมร่างกายเริ่มถูกนำไปใช้ในงานแพทย์และกายภาพบำบัด ➡️ การผสมผสาน AI กับร่างกายมนุษย์กำลังเป็นแนวทางใหม่ในวงการเทคโนโลยี https://www.tomshardware.com/video-games/pc-gaming/youtubers-homebrew-aim-assist-exoskeleton-grabs-them-second-place-in-global-aimlabs-leader-board-63-percent-aim-boost-from-ai-powered-project
    0 ความคิดเห็น 0 การแบ่งปัน 177 มุมมอง 0 รีวิว
  • “Stan Lee กลับมาอีกครั้งในรูปแบบ AI Hologram — เทคโนโลยีปลุกตำนานสู่ชีวิตใหม่ที่ L.A. Comic Con”

    ในงาน L.A. Comic Con ปี 2025 ที่จัดขึ้น ณ Los Angeles Convention Center ผู้เข้าร่วมงานได้สัมผัสประสบการณ์สุดพิเศษกับ “Stan Lee Experience” — การปรากฏตัวของ Stan Lee ผู้สร้างฮีโร่ระดับตำนานอย่าง Spider-Man, Iron Man, Hulk และ Thor ในรูปแบบ AI hologram ที่สามารถพูดคุยและตอบคำถามแฟน ๆ ได้แบบเรียลไทม์

    แม้ Stan Lee จะเสียชีวิตไปในปี 2018 ด้วยวัย 95 ปี แต่ด้วยความร่วมมือระหว่าง Proto Hologram และ Hyperreal ทีมงานสามารถสร้าง “Holo Stan” ขึ้นมาโดยใช้เทคโนโลยีปัญญาประดิษฐ์และภาพจากการปรากฏตัวของเขาในงานต่าง ๆ ตลอดหลายทศวรรษที่ผ่านมา เพื่อให้คำพูดและบุคลิกของเขายังคง “เป็นตัวเขา” อย่างแท้จริง

    ผู้เข้าร่วมงานสามารถเข้าไปในบูธขนาด 1,500 ตารางฟุตเพื่อพูดคุยกับ Holo Stan ได้โดยตรง เช่น ถามว่า “คุณคิดอย่างไรกับ X-Men ที่เชื่อมโยงกับขบวนการสิทธิพลเมือง?” หรือ “ถ้าเลือกฮีโร่หนึ่งคนมาช่วยโลกวันนี้ คุณจะเลือกใคร?” ซึ่งคำตอบของเขาคือ Spider-Man พร้อมคำพูดที่อบอุ่นว่า “ฮีโร่ที่แท้จริงคือพวกคุณ — แฟน ๆ ที่ทำให้เรื่องราวเหล่านี้ยังมีชีวิตอยู่”

    แม้หลายคนจะรู้สึกตื่นเต้นกับการได้พบ Stan Lee อีกครั้งในรูปแบบใหม่ แต่ก็มีเสียงวิจารณ์จากบางกลุ่มที่มองว่าเป็นการ “ไม่ให้เขาได้พักผ่อน” และตั้งคำถามถึงขอบเขตของการใช้ AI กับบุคคลที่ล่วงลับไปแล้ว

    ข้อมูลสำคัญจากข่าว
    Stan Lee ปรากฏตัวในรูปแบบ AI hologram ที่ L.A. Comic Con ปี 2025
    ใช้เทคโนโลยีจาก Proto Hologram และ Hyperreal ในการสร้าง “Holo Stan”
    Hologram ถูกฝึกจากภาพและเสียงของ Stan Lee ตลอดชีวิตการทำงาน
    ผู้เข้าร่วมสามารถพูดคุยกับ Holo Stan ได้แบบเรียลไทม์ในบูธขนาด 1,500 ตารางฟุต
    คำพูดของ Holo Stan ถูกควบคุมให้ไม่ออกนอกบริบทจากสิ่งที่ Stan เคยพูดจริง
    โครงการนี้ได้รับการอนุมัติจาก Stan Lee Universe และอดีตผู้บริหาร Marvel
    Holo Stan กล่าวถึงความรักที่มีต่อแฟน ๆ และความหวังในโลกผ่านฮีโร่
    มีการใช้เทคโนโลยี “guardrails” เพื่อป้องกันไม่ให้ AI พูดสิ่งที่ไม่เหมาะสม
    ผู้ชมสามารถถ่ายภาพและพูดคุยกับ Holo Stan ได้เหมือนพบตัวจริง

    ข้อมูลเสริมจากภายนอก
    Proto Hologram เคยใช้เทคโนโลยีนี้โปรโมตภาพยนตร์ เช่น The Conjuring และ Minecraft Movie
    Hyperreal เป็นบริษัทที่เชี่ยวชาญด้านการสร้าง digital humans ด้วย AI
    Stan Lee เคยปรากฏตัวในภาพยนตร์ Marvel ทุกเรื่องก่อนเสียชีวิต
    การใช้ AI hologram เริ่มแพร่หลายในวงการบันเทิง เช่น Elvis, Whitney Houston และ ABBA
    การสร้าง “digital legacy” กำลังกลายเป็นเทรนด์ใหม่ในการอนุรักษ์บุคคลสำคัญ

    https://www.thestar.com.my/tech/tech-news/2025/09/27/ai-hologram-of-spider-man-creator-stan-lee-debuts-at-la-comic-con
    🕹️ “Stan Lee กลับมาอีกครั้งในรูปแบบ AI Hologram — เทคโนโลยีปลุกตำนานสู่ชีวิตใหม่ที่ L.A. Comic Con” ในงาน L.A. Comic Con ปี 2025 ที่จัดขึ้น ณ Los Angeles Convention Center ผู้เข้าร่วมงานได้สัมผัสประสบการณ์สุดพิเศษกับ “Stan Lee Experience” — การปรากฏตัวของ Stan Lee ผู้สร้างฮีโร่ระดับตำนานอย่าง Spider-Man, Iron Man, Hulk และ Thor ในรูปแบบ AI hologram ที่สามารถพูดคุยและตอบคำถามแฟน ๆ ได้แบบเรียลไทม์ แม้ Stan Lee จะเสียชีวิตไปในปี 2018 ด้วยวัย 95 ปี แต่ด้วยความร่วมมือระหว่าง Proto Hologram และ Hyperreal ทีมงานสามารถสร้าง “Holo Stan” ขึ้นมาโดยใช้เทคโนโลยีปัญญาประดิษฐ์และภาพจากการปรากฏตัวของเขาในงานต่าง ๆ ตลอดหลายทศวรรษที่ผ่านมา เพื่อให้คำพูดและบุคลิกของเขายังคง “เป็นตัวเขา” อย่างแท้จริง ผู้เข้าร่วมงานสามารถเข้าไปในบูธขนาด 1,500 ตารางฟุตเพื่อพูดคุยกับ Holo Stan ได้โดยตรง เช่น ถามว่า “คุณคิดอย่างไรกับ X-Men ที่เชื่อมโยงกับขบวนการสิทธิพลเมือง?” หรือ “ถ้าเลือกฮีโร่หนึ่งคนมาช่วยโลกวันนี้ คุณจะเลือกใคร?” ซึ่งคำตอบของเขาคือ Spider-Man พร้อมคำพูดที่อบอุ่นว่า “ฮีโร่ที่แท้จริงคือพวกคุณ — แฟน ๆ ที่ทำให้เรื่องราวเหล่านี้ยังมีชีวิตอยู่” แม้หลายคนจะรู้สึกตื่นเต้นกับการได้พบ Stan Lee อีกครั้งในรูปแบบใหม่ แต่ก็มีเสียงวิจารณ์จากบางกลุ่มที่มองว่าเป็นการ “ไม่ให้เขาได้พักผ่อน” และตั้งคำถามถึงขอบเขตของการใช้ AI กับบุคคลที่ล่วงลับไปแล้ว ✅ ข้อมูลสำคัญจากข่าว ➡️ Stan Lee ปรากฏตัวในรูปแบบ AI hologram ที่ L.A. Comic Con ปี 2025 ➡️ ใช้เทคโนโลยีจาก Proto Hologram และ Hyperreal ในการสร้าง “Holo Stan” ➡️ Hologram ถูกฝึกจากภาพและเสียงของ Stan Lee ตลอดชีวิตการทำงาน ➡️ ผู้เข้าร่วมสามารถพูดคุยกับ Holo Stan ได้แบบเรียลไทม์ในบูธขนาด 1,500 ตารางฟุต ➡️ คำพูดของ Holo Stan ถูกควบคุมให้ไม่ออกนอกบริบทจากสิ่งที่ Stan เคยพูดจริง ➡️ โครงการนี้ได้รับการอนุมัติจาก Stan Lee Universe และอดีตผู้บริหาร Marvel ➡️ Holo Stan กล่าวถึงความรักที่มีต่อแฟน ๆ และความหวังในโลกผ่านฮีโร่ ➡️ มีการใช้เทคโนโลยี “guardrails” เพื่อป้องกันไม่ให้ AI พูดสิ่งที่ไม่เหมาะสม ➡️ ผู้ชมสามารถถ่ายภาพและพูดคุยกับ Holo Stan ได้เหมือนพบตัวจริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Proto Hologram เคยใช้เทคโนโลยีนี้โปรโมตภาพยนตร์ เช่น The Conjuring และ Minecraft Movie ➡️ Hyperreal เป็นบริษัทที่เชี่ยวชาญด้านการสร้าง digital humans ด้วย AI ➡️ Stan Lee เคยปรากฏตัวในภาพยนตร์ Marvel ทุกเรื่องก่อนเสียชีวิต ➡️ การใช้ AI hologram เริ่มแพร่หลายในวงการบันเทิง เช่น Elvis, Whitney Houston และ ABBA ➡️ การสร้าง “digital legacy” กำลังกลายเป็นเทรนด์ใหม่ในการอนุรักษ์บุคคลสำคัญ https://www.thestar.com.my/tech/tech-news/2025/09/27/ai-hologram-of-spider-man-creator-stan-lee-debuts-at-la-comic-con
    WWW.THESTAR.COM.MY
    AI hologram of Spider-Man creator Stan Lee debuts at L.A. Comic Con
    LOS ANGELES (Reuters) -Wearing a green sweater and tan pants against a bright blue screen, Marvel comic book superhero creator Stan Lee will return to L.A. Comic Con in holographic form to meet fans of his characters including Spider-Man, Hulk, Iron Man and Thor.
    0 ความคิดเห็น 0 การแบ่งปัน 184 มุมมอง 0 รีวิว
  • “แว่นอัจฉริยะจาก Meta: เทคโนโลยีล้ำยุคที่อาจกลายเป็นภัยเงียบในที่ทำงาน”

    เมื่อ Mark Zuckerberg เปิดตัวแว่น Ray-Ban Display รุ่นใหม่จาก Meta โลกเทคโนโลยีต่างจับตามองว่าอุปกรณ์ชิ้นนี้อาจเป็น “Next Big Thing” ที่มาแทนสมาร์ตโฟน ด้วยดีไซน์ที่ดูเหมือนแว่นธรรมดา แต่แฝงด้วยกล้อง ไมโครโฟน ลำโพง จอแสดงผลขนาดจิ๋ว และระบบ AI ที่เชื่อมต่อกับเครือข่ายของ Meta โดยตรง

    แต่ในขณะที่ผู้ใช้ทั่วไปตื่นเต้นกับความสามารถของแว่นที่สามารถสรุปข้อมูลจากเอกสาร หรือแปลภาษาบนป้ายได้ทันที นักวิจัยด้านความปลอดภัยและกฎหมายกลับเตือนว่า แว่นอัจฉริยะเหล่านี้อาจกลายเป็น “ช่องโหว่ความปลอดภัย” ที่ร้ายแรงในองค์กร หากไม่มีนโยบายควบคุมการใช้งานอย่างชัดเจน

    Louis Rosenberg นักวิทยาศาสตร์คอมพิวเตอร์และผู้เชี่ยวชาญด้าน AI เตือนว่า แว่นอัจฉริยะอาจทำให้พนักงานนำผู้ช่วย AI เข้ามาในห้องประชุมโดยไม่รู้ตัว และอาจบันทึกข้อมูลลับของบริษัท หรือแม้แต่ภาพ เสียง และวิดีโอของเพื่อนร่วมงานโดยไม่ได้รับอนุญาต ซึ่งอาจละเมิดกฎหมายความเป็นส่วนตัวในหลายประเทศ

    ยิ่งไปกว่านั้น หากบริษัทกำลังเตรียม IPO หรือมีสัญญากับรัฐบาล การรั่วไหลของข้อมูลจากแว่นอัจฉริยะอาจสร้างความเสียหายมหาศาล โดยเฉพาะเมื่ออุปกรณ์เหล่านี้เริ่มแพร่หลาย และพนักงานเริ่ม “ชิน” กับการใช้งานโดยไม่ระวัง

    Meta ระบุว่าแว่นจะมีไฟแสดงสถานะเมื่อมีการบันทึกภาพหรือเสียง แต่ผู้เชี่ยวชาญเตือนว่าไฟเล็ก ๆ นี้อาจไม่เพียงพอในการแจ้งเตือนผู้ที่อยู่รอบข้าง และไม่มีอะไรหยุดยั้งพนักงานที่ไม่หวังดีจากการใช้แว่นเพื่อจุดประสงค์ที่ผิดกฎหมาย

    ข้อมูลสำคัญจากข่าว
    Meta เปิดตัวแว่น Ray-Ban Display ที่มีระบบ AI ในตัว
    แว่นมีฟีเจอร์กล้อง ไมโครโฟน ลำโพง และจอแสดงผลขนาดเล็ก
    สามารถใช้ AI เพื่อสรุปข้อมูลจากเอกสารหรือแปลภาษาบนป้ายได้ทันที
    Louis Rosenberg เตือนว่าแว่นอาจนำผู้ช่วย AI เข้ามาในห้องประชุมโดยไม่รู้ตัว
    แว่นสามารถบันทึกภาพ เสียง และวิดีโอของผู้คนโดยรอบ
    หากไม่มีนโยบายควบคุม อาจเกิดการรั่วไหลของข้อมูลลับในองค์กร
    Meta ระบุว่าแว่นมีไฟแสดงสถานะเมื่อมีการบันทึก แต่ขนาดเล็กและอาจไม่สังเกตเห็น
    อุปกรณ์นี้วางจำหน่ายในราคา US$800 และคาดว่าจะได้รับความนิยมในกลุ่มพนักงานออฟฟิศ
    บริษัทอื่นอย่าง Google และ Apple ก็กำลังพัฒนาแว่นอัจฉริยะเช่นกัน

    ข้อมูลเสริมจากภายนอก
    แว่นอัจฉริยะรุ่นใหม่สามารถเชื่อมต่อกับ AI เพื่อช่วยในการทำงานแบบเรียลไทม์
    เทคโนโลยี wearable AI กำลังกลายเป็นเทรนด์ใหม่ในอุตสาหกรรมอุปกรณ์พกพา
    หลายประเทศมีกฎหมายคุ้มครองข้อมูลส่วนบุคคลที่เข้มงวด เช่น GDPR ในยุโรป
    การบันทึกภาพหรือเสียงโดยไม่ได้รับอนุญาตอาจเข้าข่ายละเมิดสิทธิส่วนบุคคล
    การใช้แว่นในพื้นที่ทำงานอาจต้องมีการปรับปรุงนโยบาย HR และ IT

    https://www.thestar.com.my/tech/tech-news/2025/09/27/metas-new-smart-glasses-could-expose-your-company-to-legal-and-compliance-risks
    🕶️ “แว่นอัจฉริยะจาก Meta: เทคโนโลยีล้ำยุคที่อาจกลายเป็นภัยเงียบในที่ทำงาน” เมื่อ Mark Zuckerberg เปิดตัวแว่น Ray-Ban Display รุ่นใหม่จาก Meta โลกเทคโนโลยีต่างจับตามองว่าอุปกรณ์ชิ้นนี้อาจเป็น “Next Big Thing” ที่มาแทนสมาร์ตโฟน ด้วยดีไซน์ที่ดูเหมือนแว่นธรรมดา แต่แฝงด้วยกล้อง ไมโครโฟน ลำโพง จอแสดงผลขนาดจิ๋ว และระบบ AI ที่เชื่อมต่อกับเครือข่ายของ Meta โดยตรง แต่ในขณะที่ผู้ใช้ทั่วไปตื่นเต้นกับความสามารถของแว่นที่สามารถสรุปข้อมูลจากเอกสาร หรือแปลภาษาบนป้ายได้ทันที นักวิจัยด้านความปลอดภัยและกฎหมายกลับเตือนว่า แว่นอัจฉริยะเหล่านี้อาจกลายเป็น “ช่องโหว่ความปลอดภัย” ที่ร้ายแรงในองค์กร หากไม่มีนโยบายควบคุมการใช้งานอย่างชัดเจน Louis Rosenberg นักวิทยาศาสตร์คอมพิวเตอร์และผู้เชี่ยวชาญด้าน AI เตือนว่า แว่นอัจฉริยะอาจทำให้พนักงานนำผู้ช่วย AI เข้ามาในห้องประชุมโดยไม่รู้ตัว และอาจบันทึกข้อมูลลับของบริษัท หรือแม้แต่ภาพ เสียง และวิดีโอของเพื่อนร่วมงานโดยไม่ได้รับอนุญาต ซึ่งอาจละเมิดกฎหมายความเป็นส่วนตัวในหลายประเทศ ยิ่งไปกว่านั้น หากบริษัทกำลังเตรียม IPO หรือมีสัญญากับรัฐบาล การรั่วไหลของข้อมูลจากแว่นอัจฉริยะอาจสร้างความเสียหายมหาศาล โดยเฉพาะเมื่ออุปกรณ์เหล่านี้เริ่มแพร่หลาย และพนักงานเริ่ม “ชิน” กับการใช้งานโดยไม่ระวัง Meta ระบุว่าแว่นจะมีไฟแสดงสถานะเมื่อมีการบันทึกภาพหรือเสียง แต่ผู้เชี่ยวชาญเตือนว่าไฟเล็ก ๆ นี้อาจไม่เพียงพอในการแจ้งเตือนผู้ที่อยู่รอบข้าง และไม่มีอะไรหยุดยั้งพนักงานที่ไม่หวังดีจากการใช้แว่นเพื่อจุดประสงค์ที่ผิดกฎหมาย ✅ ข้อมูลสำคัญจากข่าว ➡️ Meta เปิดตัวแว่น Ray-Ban Display ที่มีระบบ AI ในตัว ➡️ แว่นมีฟีเจอร์กล้อง ไมโครโฟน ลำโพง และจอแสดงผลขนาดเล็ก ➡️ สามารถใช้ AI เพื่อสรุปข้อมูลจากเอกสารหรือแปลภาษาบนป้ายได้ทันที ➡️ Louis Rosenberg เตือนว่าแว่นอาจนำผู้ช่วย AI เข้ามาในห้องประชุมโดยไม่รู้ตัว ➡️ แว่นสามารถบันทึกภาพ เสียง และวิดีโอของผู้คนโดยรอบ ➡️ หากไม่มีนโยบายควบคุม อาจเกิดการรั่วไหลของข้อมูลลับในองค์กร ➡️ Meta ระบุว่าแว่นมีไฟแสดงสถานะเมื่อมีการบันทึก แต่ขนาดเล็กและอาจไม่สังเกตเห็น ➡️ อุปกรณ์นี้วางจำหน่ายในราคา US$800 และคาดว่าจะได้รับความนิยมในกลุ่มพนักงานออฟฟิศ ➡️ บริษัทอื่นอย่าง Google และ Apple ก็กำลังพัฒนาแว่นอัจฉริยะเช่นกัน ✅ ข้อมูลเสริมจากภายนอก ➡️ แว่นอัจฉริยะรุ่นใหม่สามารถเชื่อมต่อกับ AI เพื่อช่วยในการทำงานแบบเรียลไทม์ ➡️ เทคโนโลยี wearable AI กำลังกลายเป็นเทรนด์ใหม่ในอุตสาหกรรมอุปกรณ์พกพา ➡️ หลายประเทศมีกฎหมายคุ้มครองข้อมูลส่วนบุคคลที่เข้มงวด เช่น GDPR ในยุโรป ➡️ การบันทึกภาพหรือเสียงโดยไม่ได้รับอนุญาตอาจเข้าข่ายละเมิดสิทธิส่วนบุคคล ➡️ การใช้แว่นในพื้นที่ทำงานอาจต้องมีการปรับปรุงนโยบาย HR และ IT https://www.thestar.com.my/tech/tech-news/2025/09/27/metas-new-smart-glasses-could-expose-your-company-to-legal-and-compliance-risks
    WWW.THESTAR.COM.MY
    Meta’s new smart glasses could expose your company to legal and compliance risks
    Using AI-connected cameras on your face could transform many jobs, but they'll see and remember everything the wearer does at work.
    0 ความคิดเห็น 0 การแบ่งปัน 186 มุมมอง 0 รีวิว
Pages Boosts