• OpenAI เข้าซื้อบริษัทผู้สร้างแอป Sky บน macOS – เตรียมผสาน AI เข้ากับระบบของ Apple อย่างลึกซึ้ง

    OpenAI ประกาศเข้าซื้อ Software Applications Incorporated ซึ่งเป็นผู้พัฒนาแอป Sky บน macOS แอปนี้เป็นผู้ช่วย AI ที่สามารถเข้าใจสิ่งที่อยู่บนหน้าจอของผู้ใช้ และดำเนินการตามคำสั่งได้โดยตรง เช่น สรุปเนื้อหาเว็บไซต์แล้วส่งให้เพื่อนผ่านแอป Messages หรือสร้างสคริปต์อัตโนมัติที่เชื่อมโยงหลายแอปเข้าด้วยกัน

    Sky ทำงานในหน้าต่างลอยขนาดเล็กที่อยู่เหนือแอปอื่น ๆ และมีจุดเด่นคือการผสานเข้ากับระบบ macOS อย่างลึกซึ้ง ซึ่ง OpenAI มองว่าเป็นโอกาสในการนำความสามารถนี้มาเสริมให้กับ ChatGPT โดยทีมงานทั้งหมดของ Sky จะเข้าร่วมกับ OpenAI เพื่อพัฒนาเทคโนโลยีร่วมกัน

    น่าสนใจว่า ทีมที่สร้าง Sky เคยเป็นผู้อยู่เบื้องหลังแอป Workflow ซึ่ง Apple เคยซื้อไปในปี 2017 และเปลี่ยนชื่อเป็น Shortcuts ดังนั้น Sky จึงถือเป็นวิวัฒนาการต่อยอดที่ก้าวข้ามความสามารถของ Siri และ Apple Intelligence ในปัจจุบัน

    การเข้าซื้อครั้งนี้เกิดขึ้นในช่วงที่ Apple กำลังเผชิญกับความท้าทายภายใน เช่น การลาออกของหัวหน้าทีม AKI (Answers, Knowledge and Information) ที่เพิ่งได้รับตำแหน่งไม่นาน และความกังวลของวิศวกรบางส่วนต่อประสิทธิภาพของ Siri รุ่นใหม่ที่จะเปิดตัวใน iOS 26.4

    การเข้าซื้อบริษัท Software Applications Incorporated
    เป็นผู้พัฒนาแอป Sky บน macOS
    แอป Sky เป็นผู้ช่วย AI ที่เข้าใจหน้าจอและดำเนินการตามคำสั่ง
    ทีมงานทั้งหมดจะเข้าร่วมกับ OpenAI เพื่อพัฒนา ChatGPT
    Sky ทำงานในหน้าต่างลอยและเชื่อมโยงหลายแอปได้

    ความสามารถของ Sky
    สรุปเนื้อหาเว็บไซต์แล้วส่งผ่าน Messages
    สร้างสคริปต์อัตโนมัติและคำสั่งเฉพาะสำหรับแต่ละแอป
    เข้าใจบริบทบนหน้าจอและดำเนินการแบบเรียลไทม์
    พัฒนาโดยทีมเดียวกับ Workflow ซึ่งกลายเป็น Shortcuts ของ Apple

    ความเคลื่อนไหวของ Apple
    Siri รุ่นใหม่จะเปิดตัวพร้อม iOS 26.4 ในปี 2026
    มีความกังวลเรื่องประสิทธิภาพของ Siri จากวิศวกรภายใน
    หัวหน้าทีม AKI ลาออกไปเข้าร่วมกับ Meta
    Apple Intelligence ยังตามหลังความสามารถของ Sky ในบางด้าน

    https://wccftech.com/openai-acquires-the-company-behind-the-new-apple-mac-app-sky/
    🧠 OpenAI เข้าซื้อบริษัทผู้สร้างแอป Sky บน macOS – เตรียมผสาน AI เข้ากับระบบของ Apple อย่างลึกซึ้ง OpenAI ประกาศเข้าซื้อ Software Applications Incorporated ซึ่งเป็นผู้พัฒนาแอป Sky บน macOS แอปนี้เป็นผู้ช่วย AI ที่สามารถเข้าใจสิ่งที่อยู่บนหน้าจอของผู้ใช้ และดำเนินการตามคำสั่งได้โดยตรง เช่น สรุปเนื้อหาเว็บไซต์แล้วส่งให้เพื่อนผ่านแอป Messages หรือสร้างสคริปต์อัตโนมัติที่เชื่อมโยงหลายแอปเข้าด้วยกัน Sky ทำงานในหน้าต่างลอยขนาดเล็กที่อยู่เหนือแอปอื่น ๆ และมีจุดเด่นคือการผสานเข้ากับระบบ macOS อย่างลึกซึ้ง ซึ่ง OpenAI มองว่าเป็นโอกาสในการนำความสามารถนี้มาเสริมให้กับ ChatGPT โดยทีมงานทั้งหมดของ Sky จะเข้าร่วมกับ OpenAI เพื่อพัฒนาเทคโนโลยีร่วมกัน น่าสนใจว่า ทีมที่สร้าง Sky เคยเป็นผู้อยู่เบื้องหลังแอป Workflow ซึ่ง Apple เคยซื้อไปในปี 2017 และเปลี่ยนชื่อเป็น Shortcuts ดังนั้น Sky จึงถือเป็นวิวัฒนาการต่อยอดที่ก้าวข้ามความสามารถของ Siri และ Apple Intelligence ในปัจจุบัน การเข้าซื้อครั้งนี้เกิดขึ้นในช่วงที่ Apple กำลังเผชิญกับความท้าทายภายใน เช่น การลาออกของหัวหน้าทีม AKI (Answers, Knowledge and Information) ที่เพิ่งได้รับตำแหน่งไม่นาน และความกังวลของวิศวกรบางส่วนต่อประสิทธิภาพของ Siri รุ่นใหม่ที่จะเปิดตัวใน iOS 26.4 ✅ การเข้าซื้อบริษัท Software Applications Incorporated ➡️ เป็นผู้พัฒนาแอป Sky บน macOS ➡️ แอป Sky เป็นผู้ช่วย AI ที่เข้าใจหน้าจอและดำเนินการตามคำสั่ง ➡️ ทีมงานทั้งหมดจะเข้าร่วมกับ OpenAI เพื่อพัฒนา ChatGPT ➡️ Sky ทำงานในหน้าต่างลอยและเชื่อมโยงหลายแอปได้ ✅ ความสามารถของ Sky ➡️ สรุปเนื้อหาเว็บไซต์แล้วส่งผ่าน Messages ➡️ สร้างสคริปต์อัตโนมัติและคำสั่งเฉพาะสำหรับแต่ละแอป ➡️ เข้าใจบริบทบนหน้าจอและดำเนินการแบบเรียลไทม์ ➡️ พัฒนาโดยทีมเดียวกับ Workflow ซึ่งกลายเป็น Shortcuts ของ Apple ✅ ความเคลื่อนไหวของ Apple ➡️ Siri รุ่นใหม่จะเปิดตัวพร้อม iOS 26.4 ในปี 2026 ➡️ มีความกังวลเรื่องประสิทธิภาพของ Siri จากวิศวกรภายใน ➡️ หัวหน้าทีม AKI ลาออกไปเข้าร่วมกับ Meta ➡️ Apple Intelligence ยังตามหลังความสามารถของ Sky ในบางด้าน https://wccftech.com/openai-acquires-the-company-behind-the-new-apple-mac-app-sky/
    WCCFTECH.COM
    OpenAI Acquires The Company Behind The New Apple Mac App Sky
    OpenAI is trying to encroach into Apple's sprawling ecosystem by acquiring a company that is championing enhanced automation on the Mac.
    0 Comments 0 Shares 80 Views 0 Reviews
  • KDE Plasma 6.5 มาแล้ว! อัปเกรดครั้งใหญ่เพื่อประสบการณ์ที่ลื่นไหลและฉลาดขึ้น

    หลังจากหลายสัปดาห์ของการพัฒนา KDE Plasma 6.5 ได้เปิดตัวอย่างเป็นทางการ พร้อมฟีเจอร์ใหม่ที่เน้นความลื่นไหล ความสามารถในการปรับแต่ง และการเข้าถึงที่ดีขึ้นสำหรับผู้ใช้ทุกระดับ ไม่ว่าจะเป็นผู้ใช้ทั่วไปหรือสาย power user

    การอัปเดตครั้งนี้มาพร้อมกับการเปลี่ยนแปลงในหลายด้าน ตั้งแต่การปรับปรุงหน้าตา UI ไปจนถึงการเพิ่มฟีเจอร์ใหม่ที่ช่วยให้การใช้งานสะดวกขึ้น เช่น การสลับธีมอัตโนมัติตามเวลา การปักหมุดข้อความใน clipboard และการค้นหาแบบ fuzzy ใน KRunner ที่ช่วยให้ค้นหาแอปได้แม้พิมพ์ผิด

    นอกจากนี้ยังมีการปรับปรุงระบบ widget ให้ยืดหยุ่นมากขึ้น เช่น sticky notes ที่ปรับขนาดได้และเปลี่ยนสีพื้นหลังได้ทันที รวมถึงการเพิ่มโหมด “โปร่งใส” สำหรับผู้ชอบความเรียบง่าย

    ด้านเสียงก็มีการปรับปรุงเช่นกัน เช่น การเตือนเมื่อเปิดเสียงสูงสุดนานเกินไป และการ mute ไมโครโฟนแบบรวมทุกตัวในระบบ

    สำหรับผู้ที่อยากลอง KDE Plasma 6.5 สามารถติดตั้งผ่าน KDE Neon หรือคอมไพล์จากซอร์สได้โดยตรง

    ฟีเจอร์ใหม่ใน KDE Plasma 6.5
    สลับธีมอัตโนมัติตามเวลา
    ปักหมุดข้อความใน clipboard
    ค้นหาแบบ fuzzy ใน KRunner
    รองรับการตั้งค่าปากกาและแท็บเล็ตแบบ rotary dial และ touch ring
    เพิ่ม grayscale filter และปรับปรุง screen reader สำหรับผู้พิการ

    การปรับปรุง UI
    หน้าต่าง Breeze มีมุมโค้งทั้ง 4 ด้าน
    หน้า Wi-Fi & Networking แสดงเครือข่ายทันที
    แชร์ Wi-Fi ผ่าน QR code พร้อมรหัสผ่าน
    หน้า Flatpak Permissions เปลี่ยนเป็น Application Permissions

    การปรับปรุง widget
    Sticky notes ปรับขนาดได้และเปลี่ยนสีพื้นหลังได้
    เพิ่มโหมด “โปร่งใส” สำหรับ widget
    KRunner แสดงผลตั้งแต่พิมพ์ตัวแรก พร้อมเรียงลำดับใหม่

    การปรับปรุงระบบเสียง
    เตือนเมื่อเปิด “Raise maximum volume” นานเกินไป
    ปรับพฤติกรรม mute ไมโครโฟนให้รวมทุกตัว
    ปรับระดับเสียงขณะ mute จะ unmute อัตโนมัติ

    คำเตือนสำหรับผู้ใช้เวอร์ชันเก่า
    หากยังใช้ Plasma 5 อาจไม่รองรับฟีเจอร์ใหม่เหล่านี้
    การอัปเดตจากซอร์สต้องมีความรู้ด้านการคอมไพล์
    การเปลี่ยนธีมอัตโนมัติอาจไม่ทำงานหากตั้งค่าผิด

    คำแนะนำเพิ่มเติม
    ใช้ KDE Neon เพื่อทดลอง Plasma 6.5 ได้ง่ายที่สุด
    ตรวจสอบการตั้งค่าธีมและ wallpaper ให้ตรงกับช่วงเวลาที่ต้องการ
    ลองใช้ฟีเจอร์ clipboard ปักหมุดเพื่อเพิ่มประสิทธิภาพการทำงาน

    https://news.itsfoss.com/kde-plasma-6-5-release/
    🖥️ KDE Plasma 6.5 มาแล้ว! อัปเกรดครั้งใหญ่เพื่อประสบการณ์ที่ลื่นไหลและฉลาดขึ้น หลังจากหลายสัปดาห์ของการพัฒนา KDE Plasma 6.5 ได้เปิดตัวอย่างเป็นทางการ พร้อมฟีเจอร์ใหม่ที่เน้นความลื่นไหล ความสามารถในการปรับแต่ง และการเข้าถึงที่ดีขึ้นสำหรับผู้ใช้ทุกระดับ ไม่ว่าจะเป็นผู้ใช้ทั่วไปหรือสาย power user การอัปเดตครั้งนี้มาพร้อมกับการเปลี่ยนแปลงในหลายด้าน ตั้งแต่การปรับปรุงหน้าตา UI ไปจนถึงการเพิ่มฟีเจอร์ใหม่ที่ช่วยให้การใช้งานสะดวกขึ้น เช่น การสลับธีมอัตโนมัติตามเวลา การปักหมุดข้อความใน clipboard และการค้นหาแบบ fuzzy ใน KRunner ที่ช่วยให้ค้นหาแอปได้แม้พิมพ์ผิด นอกจากนี้ยังมีการปรับปรุงระบบ widget ให้ยืดหยุ่นมากขึ้น เช่น sticky notes ที่ปรับขนาดได้และเปลี่ยนสีพื้นหลังได้ทันที รวมถึงการเพิ่มโหมด “โปร่งใส” สำหรับผู้ชอบความเรียบง่าย ด้านเสียงก็มีการปรับปรุงเช่นกัน เช่น การเตือนเมื่อเปิดเสียงสูงสุดนานเกินไป และการ mute ไมโครโฟนแบบรวมทุกตัวในระบบ สำหรับผู้ที่อยากลอง KDE Plasma 6.5 สามารถติดตั้งผ่าน KDE Neon หรือคอมไพล์จากซอร์สได้โดยตรง ✅ ฟีเจอร์ใหม่ใน KDE Plasma 6.5 ➡️ สลับธีมอัตโนมัติตามเวลา ➡️ ปักหมุดข้อความใน clipboard ➡️ ค้นหาแบบ fuzzy ใน KRunner ➡️ รองรับการตั้งค่าปากกาและแท็บเล็ตแบบ rotary dial และ touch ring ➡️ เพิ่ม grayscale filter และปรับปรุง screen reader สำหรับผู้พิการ ✅ การปรับปรุง UI ➡️ หน้าต่าง Breeze มีมุมโค้งทั้ง 4 ด้าน ➡️ หน้า Wi-Fi & Networking แสดงเครือข่ายทันที ➡️ แชร์ Wi-Fi ผ่าน QR code พร้อมรหัสผ่าน ➡️ หน้า Flatpak Permissions เปลี่ยนเป็น Application Permissions ✅ การปรับปรุง widget ➡️ Sticky notes ปรับขนาดได้และเปลี่ยนสีพื้นหลังได้ ➡️ เพิ่มโหมด “โปร่งใส” สำหรับ widget ➡️ KRunner แสดงผลตั้งแต่พิมพ์ตัวแรก พร้อมเรียงลำดับใหม่ ✅ การปรับปรุงระบบเสียง ➡️ เตือนเมื่อเปิด “Raise maximum volume” นานเกินไป ➡️ ปรับพฤติกรรม mute ไมโครโฟนให้รวมทุกตัว ➡️ ปรับระดับเสียงขณะ mute จะ unmute อัตโนมัติ ‼️ คำเตือนสำหรับผู้ใช้เวอร์ชันเก่า ⛔ หากยังใช้ Plasma 5 อาจไม่รองรับฟีเจอร์ใหม่เหล่านี้ ⛔ การอัปเดตจากซอร์สต้องมีความรู้ด้านการคอมไพล์ ⛔ การเปลี่ยนธีมอัตโนมัติอาจไม่ทำงานหากตั้งค่าผิด ‼️ คำแนะนำเพิ่มเติม ⛔ ใช้ KDE Neon เพื่อทดลอง Plasma 6.5 ได้ง่ายที่สุด ⛔ ตรวจสอบการตั้งค่าธีมและ wallpaper ให้ตรงกับช่วงเวลาที่ต้องการ ⛔ ลองใช้ฟีเจอร์ clipboard ปักหมุดเพื่อเพิ่มประสิทธิภาพการทำงาน https://news.itsfoss.com/kde-plasma-6-5-release/
    NEWS.ITSFOSS.COM
    KDE Plasma 6.5 Released: Let Me Walk You Through What's New
    Rounded corners, auto dark mode, pinned clipboard, and a whole lot more in this update!
    0 Comments 0 Shares 51 Views 0 Reviews
  • “9 เครื่องมือจัดการ Attack Surface ที่องค์กรควรรู้ – ป้องกันภัยไซเบอร์ก่อนถูกเจาะ!”

    ในยุคที่ระบบ IT เชื่อมต่อกับโลกภายนอกตลอดเวลา การรู้ว่า “อะไรเปิดเผยอยู่บ้าง” คือกุญแจสำคัญในการป้องกันการโจมตี เครื่องมือประเภท CAASM (Cyber Asset Attack Surface Management) และ EASM (External Attack Surface Management) จึงกลายเป็นหัวใจของการรักษาความปลอดภัยระดับองค์กร

    บทความจาก CSO Online ได้รวบรวม 9 เครื่องมือเด่นที่ช่วยค้นหาและจัดการช่องโหว่ในระบบขององค์กร โดยแต่ละตัวมีจุดเด่นต่างกัน เช่น การมองจากมุมของแฮกเกอร์, การเชื่อมต่อกับระบบภายใน, หรือการวิเคราะห์ความเสี่ยงเชิงธุรกิจ

    เป้าหมายของเครื่องมือเหล่านี้คือการลด “ข้อมูลที่แฮกเกอร์มองเห็น” ให้เหลือน้อยที่สุด โดยยังคงให้บริการธุรกิจได้ตามปกติ และสามารถตรวจจับการเปลี่ยนแปลงแบบเรียลไทม์ เช่น การเพิ่ม asset ใหม่ หรือการเปลี่ยน config ที่อาจเกิดจาก human error หรือการโจมตี

    ความเข้าใจพื้นฐานของ Attack Surface
    หมายถึงทรัพยากรทั้งหมดที่เข้าถึงได้จากอินเทอร์เน็ต เช่น IP, domain, application
    รวมถึง open ports, SSL, server platform และ protocol ที่ใช้งาน
    ช่องโหว่เกิดจาก config ผิดพลาดหรือ software ที่ยังไม่ได้ patch
    แม้ asset จะอยู่ใน data center ก็ยังเสี่ยง หากไม่มีการ monitor ที่ดี

    ความสามารถของเครื่องมือ CAASM/EASM
    ตรวจจับ asset ใหม่และ config drift แบบเรียลไทม์
    วิเคราะห์ความเสี่ยงจากทั้งมุมเทคนิคและมุมธุรกิจ
    เชื่อมต่อกับระบบภายใน เช่น Jira, ServiceNow, Slack
    บางตัวสามารถทำ remediation อัตโนมัติหรือผ่าน playbook

    เครื่องมือเด่นที่แนะนำ
    Axonius – เน้น asset inventory และ policy compliance เช่น PCI/HIPAA
    CrowdStrike Falcon Surface – มองจากมุมแฮกเกอร์ พร้อม remediation ผ่าน integration
    CyCognito – วิเคราะห์ความสัมพันธ์ระหว่าง asset และจัดลำดับความเสี่ยง
    Informer – ค้นหา asset บน web/API พร้อม pen testing เสริม
    JupiterOne – แสดง asset แบบ visual map พร้อม query ขั้นสูง
    Microsoft Defender EASM – ค้นหา shadow IT และ probe ทุก layer ของ tech stack
    Rapid7 InsightVM – มีสิทธิ์ออก CVE ใหม่ พร้อม dashboard วิเคราะห์แบบเจาะลึก
    SOCRadar AttackMapper – ตรวจ SSL, DNS, defacement และ correlate กับวิธีโจมตี
    Tenable.asm – วิเคราะห์ asset ด้วย metadata กว่า 200 field พร้อม context เชิงธุรกิจ

    ข้อควรระวังและคำเตือน
    การ scan แบบ periodic ไม่เพียงพอ ต้องใช้ monitoring แบบต่อเนื่อง
    การไม่จัดการ config drift อาจเปิดช่องให้โจมตีโดยไม่รู้ตัว
    หากไม่เชื่อมโยง asset กับ context ธุรกิจ อาจจัดลำดับความเสี่ยงผิด
    การใช้หลายเครื่องมือโดยไม่มีการบูรณาการ อาจทำให้ข้อมูลกระจัดกระจาย
    การไม่ฝึกซ้อม incident response ทำให้ 57% ของเหตุการณ์จริงไม่เคยถูกจำลองมาก่อน

    https://www.csoonline.com/article/574797/9-attack-surface-discovery-and-management-tools.html
    🛡️ “9 เครื่องมือจัดการ Attack Surface ที่องค์กรควรรู้ – ป้องกันภัยไซเบอร์ก่อนถูกเจาะ!” ในยุคที่ระบบ IT เชื่อมต่อกับโลกภายนอกตลอดเวลา การรู้ว่า “อะไรเปิดเผยอยู่บ้าง” คือกุญแจสำคัญในการป้องกันการโจมตี เครื่องมือประเภท CAASM (Cyber Asset Attack Surface Management) และ EASM (External Attack Surface Management) จึงกลายเป็นหัวใจของการรักษาความปลอดภัยระดับองค์กร บทความจาก CSO Online ได้รวบรวม 9 เครื่องมือเด่นที่ช่วยค้นหาและจัดการช่องโหว่ในระบบขององค์กร โดยแต่ละตัวมีจุดเด่นต่างกัน เช่น การมองจากมุมของแฮกเกอร์, การเชื่อมต่อกับระบบภายใน, หรือการวิเคราะห์ความเสี่ยงเชิงธุรกิจ เป้าหมายของเครื่องมือเหล่านี้คือการลด “ข้อมูลที่แฮกเกอร์มองเห็น” ให้เหลือน้อยที่สุด โดยยังคงให้บริการธุรกิจได้ตามปกติ และสามารถตรวจจับการเปลี่ยนแปลงแบบเรียลไทม์ เช่น การเพิ่ม asset ใหม่ หรือการเปลี่ยน config ที่อาจเกิดจาก human error หรือการโจมตี ✅ ความเข้าใจพื้นฐานของ Attack Surface ➡️ หมายถึงทรัพยากรทั้งหมดที่เข้าถึงได้จากอินเทอร์เน็ต เช่น IP, domain, application ➡️ รวมถึง open ports, SSL, server platform และ protocol ที่ใช้งาน ➡️ ช่องโหว่เกิดจาก config ผิดพลาดหรือ software ที่ยังไม่ได้ patch ➡️ แม้ asset จะอยู่ใน data center ก็ยังเสี่ยง หากไม่มีการ monitor ที่ดี ✅ ความสามารถของเครื่องมือ CAASM/EASM ➡️ ตรวจจับ asset ใหม่และ config drift แบบเรียลไทม์ ➡️ วิเคราะห์ความเสี่ยงจากทั้งมุมเทคนิคและมุมธุรกิจ ➡️ เชื่อมต่อกับระบบภายใน เช่น Jira, ServiceNow, Slack ➡️ บางตัวสามารถทำ remediation อัตโนมัติหรือผ่าน playbook ✅ เครื่องมือเด่นที่แนะนำ ➡️ Axonius – เน้น asset inventory และ policy compliance เช่น PCI/HIPAA ➡️ CrowdStrike Falcon Surface – มองจากมุมแฮกเกอร์ พร้อม remediation ผ่าน integration ➡️ CyCognito – วิเคราะห์ความสัมพันธ์ระหว่าง asset และจัดลำดับความเสี่ยง ➡️ Informer – ค้นหา asset บน web/API พร้อม pen testing เสริม ➡️ JupiterOne – แสดง asset แบบ visual map พร้อม query ขั้นสูง ➡️ Microsoft Defender EASM – ค้นหา shadow IT และ probe ทุก layer ของ tech stack ➡️ Rapid7 InsightVM – มีสิทธิ์ออก CVE ใหม่ พร้อม dashboard วิเคราะห์แบบเจาะลึก ➡️ SOCRadar AttackMapper – ตรวจ SSL, DNS, defacement และ correlate กับวิธีโจมตี ➡️ Tenable.asm – วิเคราะห์ asset ด้วย metadata กว่า 200 field พร้อม context เชิงธุรกิจ ‼️ ข้อควรระวังและคำเตือน ⛔ การ scan แบบ periodic ไม่เพียงพอ ต้องใช้ monitoring แบบต่อเนื่อง ⛔ การไม่จัดการ config drift อาจเปิดช่องให้โจมตีโดยไม่รู้ตัว ⛔ หากไม่เชื่อมโยง asset กับ context ธุรกิจ อาจจัดลำดับความเสี่ยงผิด ⛔ การใช้หลายเครื่องมือโดยไม่มีการบูรณาการ อาจทำให้ข้อมูลกระจัดกระจาย ⛔ การไม่ฝึกซ้อม incident response ทำให้ 57% ของเหตุการณ์จริงไม่เคยถูกจำลองมาก่อน https://www.csoonline.com/article/574797/9-attack-surface-discovery-and-management-tools.html
    WWW.CSOONLINE.COM
    CAASM and EASM: Top 12 attack surface discovery and management tools
    The main goal of cyber asset attack surface management (CAASM) and external attack surface management (EASM) tools is to protect information about a company’s security measures from attackers. Here are 9 tools to consider when deciding what is best for the business.
    0 Comments 0 Shares 170 Views 0 Reviews
  • ibank e-Savings ธนาคารอิสลามบนแอปฯ เป๋าตัง

    แอปพลิเคชันเป๋าตัง (PaoTang) ซึ่งพัฒนาโดยธนาคารกรุงไทย จำกัด (มหาชน) ที่มีผู้ใช้งานกว่า 40 ล้านราย ถูกวางตำแหน่งให้เป็น Thailand Open Digital Platform ให้บริการทางการเงินและบริการดิจิทัลที่หลากหลายแก่ประชาชน เช่น G-Wallet กระเป๋าอิเล็กทรอนิกส์ภาครัฐ ที่กำลังใช้ดำเนินโครงการคนละครึ่งพลัส, วอลเล็ต สบม. ที่ใช้ซื้อขายพันธบัตรรัฐบาล, บริการซื้อขายหุ้นกู้, Gold Wallet บริการลงทุนทองคำออนไลน์ หนึ่งในนั้นมีบริการ ibank Application ของธนาคารอิสลามแห่งประเทศไทย

    ล่าสุดเปิดตัวผลิตภัณฑ์ ibank e-savings บัญชีเงินรับฝากออมทรัพย์อิเล็กทรอนิกส์ ให้บริการแก่ลูกค้าทุกศาสนา มีจุดเด่นคือรับอัตราผลตอบแทนสูง 2.2% ต่อปี ตั้งแต่บาทแรกถึง 20,000 บาท สามารถโอนเงิน เติมเงิน จ่ายบิล ถอนเงิน ผ่านบริการ ibank Application บนแอปฯ เป๋าตัง ตลอด 24 ชั่วโมง ผู้สนใจสามารถเปิดบัญชีออนไลน์ผ่านแอปฯ เป๋าตัง ได้ทุกที่โดยไม่ต้องไปสาขา ตั้งแต่เวลา 07.00-22.00 น. โดยสแกนใบหน้า กรอกข้อมูล เลือกสาขาที่ต้องการ ไม่จำกัดจำนวนขั้นต่ำในการเปิดบัญชี

    นุจรี ภักดีเจริญ ผู้ช่วยกรรมการผู้จัดการ ผู้บริหารกลุ่มงานธุรกิจรายย่อย ธนาคารอิสลามแห่งประเทศไทย เปิดเผยว่า ไอแบงก์ยกระดับการให้บริการเพื่อเพิ่มความสะดวกสบายให้ลูกค้ามากยิ่งขึ้น บัญชี ibank e-savings นอกจากจะเป็นก้าวสำคัญต่อช่องทางดิจิทัลของธนาคารแล้ว ยังส่งมอบความเชื่อมั่นในคุณค่าที่ผสานความทันสมัยของเทคโนโลยีเข้ากับคุณค่าของความศรัทธาและคุณธรรมตามหลักการเงินอิสลาม (Islamic Finance) และทำธุรกรรมทางการเงินได้ทุกที่ ทุกเวลา เหมือนมีสาขาธนาคารอยู่ในมือ

    นอกจากนี้ ยังมีโปรโมชันพิเศษสำหรับลูกค้าที่เปิดบัญชี ibank e-Savings ระหว่างวันที่ 9 ต.ค. ถึง 15 พ.ย. 2568 และมียอดเงินฝากในบัญชีขั้นต่ำ 10,000 บาท ตลอดระยะเวลาโปรโมชัน ถึงวันที่ 30 พ.ย. 2568 สำหรับลูกค้าที่มียอดเงินฝากสูงสุด 1,000 รายแรก จะได้รับเงินคืน 100 บาท โอนเงินเข้าบัญชี e-Savings ของลูกค้า ภายในวันที่ 31 ธ.ค. 2568

    สำหรับธนาคารอิสลามแห่งประเทศไทย จัดตั้งตาม พ.ร.บ.ธนาคารอิสลามแห่งประเทศไทย ปี 2545 ภายใต้การกำกับดูแลของกระทรวงการคลัง ให้บริการทางการเงินแบบปราศจากดอกเบี้ย เริ่มดำเนินกิจการครั้งแรกเมื่อวันที่ 12 มิ.ย. 2546 โดยมีสำนักงานใหญ่และสาขาแห่งแรกอยู่ที่ย่านคลองตัน กรุงเทพฯ จากนั้นเริ่มทยอยเปิดสาขาในกรุงเทพฯ พื้นที่ภาคใต้ และทุกภาคทั่วประเทศ ปัจจุบันมีสาขาให้บริการในกรุงเทพฯ 15 แห่ง สามจังหวัดชายแดนภาคใต้ 20 แห่ง และสาขาอื่นๆ รวมทั่วประเทศมากกว่า 80 แห่ง

    #Newskit
    ibank e-Savings ธนาคารอิสลามบนแอปฯ เป๋าตัง แอปพลิเคชันเป๋าตัง (PaoTang) ซึ่งพัฒนาโดยธนาคารกรุงไทย จำกัด (มหาชน) ที่มีผู้ใช้งานกว่า 40 ล้านราย ถูกวางตำแหน่งให้เป็น Thailand Open Digital Platform ให้บริการทางการเงินและบริการดิจิทัลที่หลากหลายแก่ประชาชน เช่น G-Wallet กระเป๋าอิเล็กทรอนิกส์ภาครัฐ ที่กำลังใช้ดำเนินโครงการคนละครึ่งพลัส, วอลเล็ต สบม. ที่ใช้ซื้อขายพันธบัตรรัฐบาล, บริการซื้อขายหุ้นกู้, Gold Wallet บริการลงทุนทองคำออนไลน์ หนึ่งในนั้นมีบริการ ibank Application ของธนาคารอิสลามแห่งประเทศไทย ล่าสุดเปิดตัวผลิตภัณฑ์ ibank e-savings บัญชีเงินรับฝากออมทรัพย์อิเล็กทรอนิกส์ ให้บริการแก่ลูกค้าทุกศาสนา มีจุดเด่นคือรับอัตราผลตอบแทนสูง 2.2% ต่อปี ตั้งแต่บาทแรกถึง 20,000 บาท สามารถโอนเงิน เติมเงิน จ่ายบิล ถอนเงิน ผ่านบริการ ibank Application บนแอปฯ เป๋าตัง ตลอด 24 ชั่วโมง ผู้สนใจสามารถเปิดบัญชีออนไลน์ผ่านแอปฯ เป๋าตัง ได้ทุกที่โดยไม่ต้องไปสาขา ตั้งแต่เวลา 07.00-22.00 น. โดยสแกนใบหน้า กรอกข้อมูล เลือกสาขาที่ต้องการ ไม่จำกัดจำนวนขั้นต่ำในการเปิดบัญชี นุจรี ภักดีเจริญ ผู้ช่วยกรรมการผู้จัดการ ผู้บริหารกลุ่มงานธุรกิจรายย่อย ธนาคารอิสลามแห่งประเทศไทย เปิดเผยว่า ไอแบงก์ยกระดับการให้บริการเพื่อเพิ่มความสะดวกสบายให้ลูกค้ามากยิ่งขึ้น บัญชี ibank e-savings นอกจากจะเป็นก้าวสำคัญต่อช่องทางดิจิทัลของธนาคารแล้ว ยังส่งมอบความเชื่อมั่นในคุณค่าที่ผสานความทันสมัยของเทคโนโลยีเข้ากับคุณค่าของความศรัทธาและคุณธรรมตามหลักการเงินอิสลาม (Islamic Finance) และทำธุรกรรมทางการเงินได้ทุกที่ ทุกเวลา เหมือนมีสาขาธนาคารอยู่ในมือ นอกจากนี้ ยังมีโปรโมชันพิเศษสำหรับลูกค้าที่เปิดบัญชี ibank e-Savings ระหว่างวันที่ 9 ต.ค. ถึง 15 พ.ย. 2568 และมียอดเงินฝากในบัญชีขั้นต่ำ 10,000 บาท ตลอดระยะเวลาโปรโมชัน ถึงวันที่ 30 พ.ย. 2568 สำหรับลูกค้าที่มียอดเงินฝากสูงสุด 1,000 รายแรก จะได้รับเงินคืน 100 บาท โอนเงินเข้าบัญชี e-Savings ของลูกค้า ภายในวันที่ 31 ธ.ค. 2568 สำหรับธนาคารอิสลามแห่งประเทศไทย จัดตั้งตาม พ.ร.บ.ธนาคารอิสลามแห่งประเทศไทย ปี 2545 ภายใต้การกำกับดูแลของกระทรวงการคลัง ให้บริการทางการเงินแบบปราศจากดอกเบี้ย เริ่มดำเนินกิจการครั้งแรกเมื่อวันที่ 12 มิ.ย. 2546 โดยมีสำนักงานใหญ่และสาขาแห่งแรกอยู่ที่ย่านคลองตัน กรุงเทพฯ จากนั้นเริ่มทยอยเปิดสาขาในกรุงเทพฯ พื้นที่ภาคใต้ และทุกภาคทั่วประเทศ ปัจจุบันมีสาขาให้บริการในกรุงเทพฯ 15 แห่ง สามจังหวัดชายแดนภาคใต้ 20 แห่ง และสาขาอื่นๆ รวมทั่วประเทศมากกว่า 80 แห่ง #Newskit
    1 Comments 0 Shares 229 Views 0 Reviews
  • “Unkey ลาออกจาก Serverless” — เมื่อความเร็วและความเรียบง่ายสำคัญกว่าแนวคิดไร้เซิร์ฟเวอร์

    หลังจากใช้ Cloudflare Workers มานานกว่า 2 ปี Unkey ตัดสินใจย้ายระบบ API authentication ทั้งหมดไปใช้ Go servers แบบ stateful โดยให้เหตุผลว่า serverless แม้จะดูดีในแง่การกระจายโหลดและต้นทุน แต่กลับสร้าง “ภาษีความซับซ้อน” ที่ทำให้ทีมต้องสร้าง workaround มากมายเพื่อให้ระบบทำงานได้เร็วและเสถียร

    ปัญหาหลักคือ latency ที่ไม่สามารถลดต่ำกว่า 30ms ได้ แม้จะใช้ cache หลายชั้น รวมถึงการต้องพึ่งพา SaaS หลายตัวเพื่อแก้ปัญหาที่ serverless สร้างขึ้น เช่น Redis, Queues, Durable Objects และ Logstreams ซึ่งเพิ่มทั้งความซับซ้อนและจุดล้มเหลว

    เมื่อย้ายมาใช้ Go servers ทีมสามารถลด latency ได้ถึง 6 เท่า และตัดทิ้งระบบ pipeline ที่ซับซ้อน เช่น chproxy และ logdrain workers โดยใช้การ batch ข้อมูลใน memory แบบง่าย ๆ แทน

    นอกจากนี้ยังได้ประโยชน์ด้าน self-hosting, การพัฒนาในเครื่อง, และการหลุดพ้นจากข้อจำกัดของ Cloudflare runtime โดยยังคงใช้ AWS Global Accelerator และ Fargate เพื่อรักษาความสามารถในการกระจายโหลดและ autoscaling

    ข้อมูลในข่าว
    Unkey ย้ายจาก Cloudflare Workers ไปใช้ Go servers แบบ stateful
    ลด latency ได้ถึง 6 เท่า จากเดิมที่ติดอยู่ที่ 30ms+
    ปัญหาหลักคือการ cache ที่ต้องพึ่ง network request เสมอ
    ใช้ cache แบบ SWR หลายชั้นแต่ยังไม่เร็วพอ
    ต้องใช้ SaaS หลายตัวเพื่อแก้ปัญหา serverless เช่น Redis, Queues, Durable Objects
    pipeline สำหรับ analytics และ logs มีความซับซ้อนสูง
    ใช้ chproxy เพื่อ buffer event ก่อนส่งเข้า ClickHouse
    ใช้ logdrain worker เพื่อจัดการ metrics และ logs ก่อนส่งเข้า Axiom
    เมื่อย้ายมา Go servers สามารถ batch ข้อมูลใน memory ได้โดยตรง
    ลดความซับซ้อนของระบบจาก distributed system เหลือแค่ application เดียว
    รองรับ self-hosting ด้วยคำสั่งง่าย ๆ เช่น docker run -p 8080:8080 unkey/api
    พัฒนาและ debug ในเครื่องได้ง่ายขึ้น
    หลุดพ้นจากข้อจำกัดของ Cloudflare runtime
    ใช้ AWS Global Accelerator และ Fargate เพื่อรักษาความสามารถในการกระจายโหลด
    เตรียมเปิดตัว “Unkey Deploy” แพลตฟอร์มสำหรับรัน Unkey ได้ทุกที่

    https://www.unkey.com/blog/serverless-exit
    🚪 “Unkey ลาออกจาก Serverless” — เมื่อความเร็วและความเรียบง่ายสำคัญกว่าแนวคิดไร้เซิร์ฟเวอร์ หลังจากใช้ Cloudflare Workers มานานกว่า 2 ปี Unkey ตัดสินใจย้ายระบบ API authentication ทั้งหมดไปใช้ Go servers แบบ stateful โดยให้เหตุผลว่า serverless แม้จะดูดีในแง่การกระจายโหลดและต้นทุน แต่กลับสร้าง “ภาษีความซับซ้อน” ที่ทำให้ทีมต้องสร้าง workaround มากมายเพื่อให้ระบบทำงานได้เร็วและเสถียร ปัญหาหลักคือ latency ที่ไม่สามารถลดต่ำกว่า 30ms ได้ แม้จะใช้ cache หลายชั้น รวมถึงการต้องพึ่งพา SaaS หลายตัวเพื่อแก้ปัญหาที่ serverless สร้างขึ้น เช่น Redis, Queues, Durable Objects และ Logstreams ซึ่งเพิ่มทั้งความซับซ้อนและจุดล้มเหลว เมื่อย้ายมาใช้ Go servers ทีมสามารถลด latency ได้ถึง 6 เท่า และตัดทิ้งระบบ pipeline ที่ซับซ้อน เช่น chproxy และ logdrain workers โดยใช้การ batch ข้อมูลใน memory แบบง่าย ๆ แทน นอกจากนี้ยังได้ประโยชน์ด้าน self-hosting, การพัฒนาในเครื่อง, และการหลุดพ้นจากข้อจำกัดของ Cloudflare runtime โดยยังคงใช้ AWS Global Accelerator และ Fargate เพื่อรักษาความสามารถในการกระจายโหลดและ autoscaling ✅ ข้อมูลในข่าว ➡️ Unkey ย้ายจาก Cloudflare Workers ไปใช้ Go servers แบบ stateful ➡️ ลด latency ได้ถึง 6 เท่า จากเดิมที่ติดอยู่ที่ 30ms+ ➡️ ปัญหาหลักคือการ cache ที่ต้องพึ่ง network request เสมอ ➡️ ใช้ cache แบบ SWR หลายชั้นแต่ยังไม่เร็วพอ ➡️ ต้องใช้ SaaS หลายตัวเพื่อแก้ปัญหา serverless เช่น Redis, Queues, Durable Objects ➡️ pipeline สำหรับ analytics และ logs มีความซับซ้อนสูง ➡️ ใช้ chproxy เพื่อ buffer event ก่อนส่งเข้า ClickHouse ➡️ ใช้ logdrain worker เพื่อจัดการ metrics และ logs ก่อนส่งเข้า Axiom ➡️ เมื่อย้ายมา Go servers สามารถ batch ข้อมูลใน memory ได้โดยตรง ➡️ ลดความซับซ้อนของระบบจาก distributed system เหลือแค่ application เดียว ➡️ รองรับ self-hosting ด้วยคำสั่งง่าย ๆ เช่น docker run -p 8080:8080 unkey/api ➡️ พัฒนาและ debug ในเครื่องได้ง่ายขึ้น ➡️ หลุดพ้นจากข้อจำกัดของ Cloudflare runtime ➡️ ใช้ AWS Global Accelerator และ Fargate เพื่อรักษาความสามารถในการกระจายโหลด ➡️ เตรียมเปิดตัว “Unkey Deploy” แพลตฟอร์มสำหรับรัน Unkey ได้ทุกที่ https://www.unkey.com/blog/serverless-exit
    0 Comments 0 Shares 124 Views 0 Reviews
  • “SAP อุดช่องโหว่ CVSS 10.0 ใน NetWeaver — เสี่ยง RCE โดยไม่ต้องยืนยันตัวตน”

    SAP ได้ออกแพตช์ความปลอดภัยเพื่อแก้ไขช่องโหว่ร้ายแรงในระบบ NetWeaver Application Server ABAP ซึ่งเป็นหัวใจของระบบ ERP ที่ใช้กันอย่างแพร่หลายทั่วโลก โดยช่องโหว่นี้ได้รับรหัส CVE-2023-40311 และมีคะแนนความรุนแรง CVSS เต็ม 10.0 ซึ่งหมายถึงระดับ “วิกฤต” ที่สามารถถูกโจมตีจากระยะไกลโดยไม่ต้องยืนยันตัวตน

    ช่องโหว่นี้เกิดจากการจัดการอินพุตที่ไม่ปลอดภัยในฟีเจอร์ Remote Code Management (RCM) ซึ่งเปิดให้ผู้โจมตีสามารถส่งคำสั่งที่ออกแบบมาเฉพาะเพื่อรันโค้ดบนเซิร์ฟเวอร์ SAP ได้ทันที โดยไม่ต้องมีสิทธิ์เข้าระบบก่อน

    SAP ระบุว่าช่องโหว่นี้ส่งผลกระทบต่อระบบที่เปิดใช้งานฟีเจอร์ RCM และไม่ได้มีการกำหนดสิทธิ์อย่างเหมาะสม โดยเฉพาะระบบที่เปิดให้เข้าถึงผ่านอินเทอร์เน็ตหรือเชื่อมต่อกับระบบภายนอก

    นักวิจัยจาก Onapsis ซึ่งเป็นพันธมิตรด้านความปลอดภัยของ SAP เป็นผู้ค้นพบช่องโหว่นี้ และได้แจ้งให้ SAP ทราบก่อนการเปิดเผยต่อสาธารณะ โดย SAP ได้ออกแพตช์ใน Security Patch Day เดือนตุลาคม 2025 พร้อมคำแนะนำให้ผู้ดูแลระบบอัปเดตทันที

    ช่องโหว่ CVE-2023-40311 ใน SAP NetWeaver Application Server ABAP
    ได้คะแนน CVSS เต็ม 10.0 ถือเป็นระดับ “วิกฤต”

    ช่องโหว่เกิดจากการจัดการอินพุตในฟีเจอร์ Remote Code Management (RCM)
    เปิดทางให้รันโค้ดจากระยะไกลโดยไม่ต้องยืนยันตัวตน

    ส่งผลกระทบต่อระบบที่เปิดใช้งาน RCM และไม่มีการกำหนดสิทธิ์ที่เหมาะสม
    โดยเฉพาะระบบที่เชื่อมต่อกับอินเทอร์เน็ตหรือระบบภายนอก

    นักวิจัยจาก Onapsis เป็นผู้ค้นพบช่องโหว่
    แจ้ง SAP ก่อนการเปิดเผยต่อสาธารณะ

    SAP ออกแพตช์ใน Security Patch Day เดือนตุลาคม 2025
    พร้อมคำแนะนำให้ผู้ดูแลระบบอัปเดตทันที

    ช่องโหว่นี้สามารถถูกโจมตีจากระยะไกลโดยไม่ต้องยืนยันตัวตน
    เสี่ยงต่อการถูกควบคุมระบบ SAP ทั้งระบบ

    ระบบที่เปิดใช้งาน RCM โดยไม่มีการกำหนดสิทธิ์อย่างเหมาะสม
    อาจถูกโจมตีได้ทันทีหากเชื่อมต่อกับอินเทอร์เน็ต

    การไม่อัปเดตแพตช์ทันทีอาจทำให้ระบบถูกเจาะโดย botnet หรือ ransomware
    โดยเฉพาะในองค์กรที่ใช้ SAP เป็นระบบหลักในการจัดการข้อมูล

    การตรวจสอบสิทธิ์และการตั้งค่า access control เป็นสิ่งจำเป็น
    หากละเลยอาจเปิดช่องให้เกิดการโจมตีแบบ lateral movement

    https://securityonline.info/sap-patches-critical-10-0-flaw-in-netweaver-unauthenticated-rce-risk/
    🚨 “SAP อุดช่องโหว่ CVSS 10.0 ใน NetWeaver — เสี่ยง RCE โดยไม่ต้องยืนยันตัวตน” SAP ได้ออกแพตช์ความปลอดภัยเพื่อแก้ไขช่องโหว่ร้ายแรงในระบบ NetWeaver Application Server ABAP ซึ่งเป็นหัวใจของระบบ ERP ที่ใช้กันอย่างแพร่หลายทั่วโลก โดยช่องโหว่นี้ได้รับรหัส CVE-2023-40311 และมีคะแนนความรุนแรง CVSS เต็ม 10.0 ซึ่งหมายถึงระดับ “วิกฤต” ที่สามารถถูกโจมตีจากระยะไกลโดยไม่ต้องยืนยันตัวตน ช่องโหว่นี้เกิดจากการจัดการอินพุตที่ไม่ปลอดภัยในฟีเจอร์ Remote Code Management (RCM) ซึ่งเปิดให้ผู้โจมตีสามารถส่งคำสั่งที่ออกแบบมาเฉพาะเพื่อรันโค้ดบนเซิร์ฟเวอร์ SAP ได้ทันที โดยไม่ต้องมีสิทธิ์เข้าระบบก่อน SAP ระบุว่าช่องโหว่นี้ส่งผลกระทบต่อระบบที่เปิดใช้งานฟีเจอร์ RCM และไม่ได้มีการกำหนดสิทธิ์อย่างเหมาะสม โดยเฉพาะระบบที่เปิดให้เข้าถึงผ่านอินเทอร์เน็ตหรือเชื่อมต่อกับระบบภายนอก นักวิจัยจาก Onapsis ซึ่งเป็นพันธมิตรด้านความปลอดภัยของ SAP เป็นผู้ค้นพบช่องโหว่นี้ และได้แจ้งให้ SAP ทราบก่อนการเปิดเผยต่อสาธารณะ โดย SAP ได้ออกแพตช์ใน Security Patch Day เดือนตุลาคม 2025 พร้อมคำแนะนำให้ผู้ดูแลระบบอัปเดตทันที ✅ ช่องโหว่ CVE-2023-40311 ใน SAP NetWeaver Application Server ABAP ➡️ ได้คะแนน CVSS เต็ม 10.0 ถือเป็นระดับ “วิกฤต” ✅ ช่องโหว่เกิดจากการจัดการอินพุตในฟีเจอร์ Remote Code Management (RCM) ➡️ เปิดทางให้รันโค้ดจากระยะไกลโดยไม่ต้องยืนยันตัวตน ✅ ส่งผลกระทบต่อระบบที่เปิดใช้งาน RCM และไม่มีการกำหนดสิทธิ์ที่เหมาะสม ➡️ โดยเฉพาะระบบที่เชื่อมต่อกับอินเทอร์เน็ตหรือระบบภายนอก ✅ นักวิจัยจาก Onapsis เป็นผู้ค้นพบช่องโหว่ ➡️ แจ้ง SAP ก่อนการเปิดเผยต่อสาธารณะ ✅ SAP ออกแพตช์ใน Security Patch Day เดือนตุลาคม 2025 ➡️ พร้อมคำแนะนำให้ผู้ดูแลระบบอัปเดตทันที ‼️ ช่องโหว่นี้สามารถถูกโจมตีจากระยะไกลโดยไม่ต้องยืนยันตัวตน ⛔ เสี่ยงต่อการถูกควบคุมระบบ SAP ทั้งระบบ ‼️ ระบบที่เปิดใช้งาน RCM โดยไม่มีการกำหนดสิทธิ์อย่างเหมาะสม ⛔ อาจถูกโจมตีได้ทันทีหากเชื่อมต่อกับอินเทอร์เน็ต ‼️ การไม่อัปเดตแพตช์ทันทีอาจทำให้ระบบถูกเจาะโดย botnet หรือ ransomware ⛔ โดยเฉพาะในองค์กรที่ใช้ SAP เป็นระบบหลักในการจัดการข้อมูล ‼️ การตรวจสอบสิทธิ์และการตั้งค่า access control เป็นสิ่งจำเป็น ⛔ หากละเลยอาจเปิดช่องให้เกิดการโจมตีแบบ lateral movement https://securityonline.info/sap-patches-critical-10-0-flaw-in-netweaver-unauthenticated-rce-risk/
    SECURITYONLINE.INFO
    SAP Patches Critical 10.0 Flaw in NetWeaver: Unauthenticated RCE Risk
    SAP's October 2025 Security Patch Day addressed 13 new notes, including two critical 10.0 flaws in NetWeaver AS Java and Print Service, posing an RCE threat.
    0 Comments 0 Shares 120 Views 0 Reviews
  • “SVG Smuggling กลับมาอีกครั้ง — ล่อเหยื่อด้วยเอกสารปลอมจากศาลโคลอมเบีย ติดตั้ง AsyncRAT ผ่าน HTA file”

    นักวิจัยด้านความปลอดภัยไซเบอร์ได้ตรวจพบแคมเปญโจมตีใหม่ที่ใช้เทคนิค “SVG Smuggling” ร่วมกับไฟล์ HTA (HTML Application) เพื่อแพร่กระจายมัลแวร์ควบคุมระยะไกลชื่อ AsyncRAT โดยแฮ็กเกอร์ใช้เอกสารปลอมที่ดูเหมือนเป็นหมายเรียกจากศาลโคลอมเบียเพื่อหลอกให้เหยื่อเปิดไฟล์ SVG ที่ฝังโค้ดอันตรายไว้

    เมื่อเหยื่อเปิดไฟล์ SVG ที่แนบมาในอีเมล ฟังก์ชัน JavaScript ภายในจะถูกเรียกใช้เพื่อสร้างไฟล์ HTA ที่มีโค้ด PowerShell ซึ่งจะดาวน์โหลดและติดตั้ง AsyncRAT โดยไม่ต้องใช้ไฟล์แนบแบบ .exe หรือ .zip ที่มักถูกระบบอีเมลบล็อกไว้

    AsyncRAT เป็นมัลแวร์ที่สามารถควบคุมเครื่องของเหยื่อจากระยะไกลได้อย่างสมบูรณ์ เช่น การบันทึกคีย์ การเปิดกล้อง การขโมยข้อมูล และการติดตั้งมัลแวร์เพิ่มเติม โดยมีการเข้ารหัสการสื่อสารเพื่อหลบเลี่ยงการตรวจจับ

    การใช้ SVG Smuggling ถือเป็นเทคนิคที่ซับซ้อนและยากต่อการตรวจจับ เพราะไฟล์ SVG มักถูกมองว่าเป็นไฟล์ภาพธรรมดา และสามารถฝัง JavaScript ได้โดยไม่ถูกสแกนจากระบบป้องกันทั่วไป

    ข้อมูลสำคัญจากข่าว
    แฮ็กเกอร์ใช้เอกสารปลอมจากศาลโคลอมเบียเพื่อหลอกเหยื่อ
    ใช้เทคนิค SVG Smuggling เพื่อฝังโค้ด JavaScript
    JavaScript สร้างไฟล์ HTA ที่มี PowerShell สำหรับติดตั้ง AsyncRAT
    AsyncRAT สามารถควบคุมเครื่องเหยื่อจากระยะไกล
    การสื่อสารของ AsyncRAT ถูกเข้ารหัสเพื่อหลบเลี่ยงการตรวจจับ
    SVG Smuggling เป็นเทคนิคที่ยากต่อการตรวจจับโดยระบบทั่วไป

    ข้อมูลเสริมจากภายนอก
    HTA file เป็นไฟล์ที่สามารถรันสคริปต์ได้โดยตรงใน Windows
    PowerShell เป็นเครื่องมือที่ถูกใช้บ่อยในการโจมตีแบบ fileless
    AsyncRAT เป็น open-source RAT ที่ถูกใช้ในหลายแคมเปญโจมตี
    SVG Smuggling เคยถูกใช้ในแคมเปญโจมตี Microsoft 365 และ Google Workspace
    การฝัง JavaScript ใน SVG สามารถหลบการสแกนของระบบอีเมลและ endpoint

    https://securityonline.info/svg-smuggling-fake-colombian-judicial-lure-deploys-asyncrat-via-malicious-hta-file/
    🎯 “SVG Smuggling กลับมาอีกครั้ง — ล่อเหยื่อด้วยเอกสารปลอมจากศาลโคลอมเบีย ติดตั้ง AsyncRAT ผ่าน HTA file” นักวิจัยด้านความปลอดภัยไซเบอร์ได้ตรวจพบแคมเปญโจมตีใหม่ที่ใช้เทคนิค “SVG Smuggling” ร่วมกับไฟล์ HTA (HTML Application) เพื่อแพร่กระจายมัลแวร์ควบคุมระยะไกลชื่อ AsyncRAT โดยแฮ็กเกอร์ใช้เอกสารปลอมที่ดูเหมือนเป็นหมายเรียกจากศาลโคลอมเบียเพื่อหลอกให้เหยื่อเปิดไฟล์ SVG ที่ฝังโค้ดอันตรายไว้ เมื่อเหยื่อเปิดไฟล์ SVG ที่แนบมาในอีเมล ฟังก์ชัน JavaScript ภายในจะถูกเรียกใช้เพื่อสร้างไฟล์ HTA ที่มีโค้ด PowerShell ซึ่งจะดาวน์โหลดและติดตั้ง AsyncRAT โดยไม่ต้องใช้ไฟล์แนบแบบ .exe หรือ .zip ที่มักถูกระบบอีเมลบล็อกไว้ AsyncRAT เป็นมัลแวร์ที่สามารถควบคุมเครื่องของเหยื่อจากระยะไกลได้อย่างสมบูรณ์ เช่น การบันทึกคีย์ การเปิดกล้อง การขโมยข้อมูล และการติดตั้งมัลแวร์เพิ่มเติม โดยมีการเข้ารหัสการสื่อสารเพื่อหลบเลี่ยงการตรวจจับ การใช้ SVG Smuggling ถือเป็นเทคนิคที่ซับซ้อนและยากต่อการตรวจจับ เพราะไฟล์ SVG มักถูกมองว่าเป็นไฟล์ภาพธรรมดา และสามารถฝัง JavaScript ได้โดยไม่ถูกสแกนจากระบบป้องกันทั่วไป ✅ ข้อมูลสำคัญจากข่าว ➡️ แฮ็กเกอร์ใช้เอกสารปลอมจากศาลโคลอมเบียเพื่อหลอกเหยื่อ ➡️ ใช้เทคนิค SVG Smuggling เพื่อฝังโค้ด JavaScript ➡️ JavaScript สร้างไฟล์ HTA ที่มี PowerShell สำหรับติดตั้ง AsyncRAT ➡️ AsyncRAT สามารถควบคุมเครื่องเหยื่อจากระยะไกล ➡️ การสื่อสารของ AsyncRAT ถูกเข้ารหัสเพื่อหลบเลี่ยงการตรวจจับ ➡️ SVG Smuggling เป็นเทคนิคที่ยากต่อการตรวจจับโดยระบบทั่วไป ✅ ข้อมูลเสริมจากภายนอก ➡️ HTA file เป็นไฟล์ที่สามารถรันสคริปต์ได้โดยตรงใน Windows ➡️ PowerShell เป็นเครื่องมือที่ถูกใช้บ่อยในการโจมตีแบบ fileless ➡️ AsyncRAT เป็น open-source RAT ที่ถูกใช้ในหลายแคมเปญโจมตี ➡️ SVG Smuggling เคยถูกใช้ในแคมเปญโจมตี Microsoft 365 และ Google Workspace ➡️ การฝัง JavaScript ใน SVG สามารถหลบการสแกนของระบบอีเมลและ endpoint https://securityonline.info/svg-smuggling-fake-colombian-judicial-lure-deploys-asyncrat-via-malicious-hta-file/
    SECURITYONLINE.INFO
    SVG Smuggling: Fake Colombian Judicial Lure Deploys AsyncRAT via Malicious HTA File
    Seqrite discovered a campaign using SVG smuggling and a fake Colombian court lure to deploy AsyncRAT. The SVG executes JS to stage a malicious HTA file, evading detection.
    0 Comments 0 Shares 142 Views 0 Reviews
  • “Datastar — เฟรมเวิร์กใหม่ที่พลิกโฉมการสร้างเว็บแบบเรียลไทม์ ด้วยไฟล์เดียวและไม่ต้องใช้ JavaScript”

    ลองนึกภาพว่าคุณสามารถสร้างเว็บแอปแบบเรียลไทม์ที่ตอบสนองไว ใช้งานง่าย และไม่ต้องพึ่งพา JavaScript ฝั่งผู้ใช้เลย — นั่นคือสิ่งที่ Datastar เสนอให้กับนักพัฒนาในยุคที่หลายคนเริ่มเบื่อกับความซับซ้อนของ SPA (Single Page Application)

    Datastar เป็นเฟรมเวิร์กน้ำหนักเบาเพียง 10.75 KiB ที่ช่วยให้คุณสร้างเว็บตั้งแต่หน้าเว็บธรรมดาไปจนถึงแอปแบบ collaborative ที่ทำงานแบบเรียลไทม์ โดยใช้แนวคิด “hypermedia-driven frontend” ซึ่งหมายถึงการควบคุม DOM และ state จากฝั่ง backend ผ่าน HTML attributes เช่น data-on-click="@get('/endpoint')" โดยไม่ต้องเขียน JavaScript ฝั่งผู้ใช้เลย

    เฟรมเวิร์กนี้รองรับการส่งข้อมูลแบบ HTML ปกติและแบบ event-stream (SSE) ทำให้สามารถอัปเดต DOM แบบเรียลไทม์ได้ง่าย และยังสามารถใช้ backend ภาษาใดก็ได้ เช่น Go, Python, Rust หรือ Node.js โดยมี SDK รองรับ

    นักพัฒนาหลายคนที่เคยใช้ React, htmx หรือ Alpine.js ต่างพูดเป็นเสียงเดียวกันว่า Datastar ช่วยลดความซับซ้อนของ frontend ได้อย่างมาก และทำให้พวกเขากลับมาโฟกัสกับการแก้ปัญหาทางธุรกิจแทนที่จะต้องมานั่งจัดการกับ state และ virtual DOM

    จุดเด่นของ Datastar
    เป็นเฟรมเวิร์กน้ำหนักเบาเพียง 10.75 KiB
    รองรับการสร้างเว็บแบบเรียลไทม์โดยไม่ต้องใช้ JavaScript ฝั่งผู้ใช้
    ใช้แนวคิด hypermedia-driven frontend ควบคุม DOM ผ่าน HTML attributes

    การทำงานแบบเรียลไทม์
    รองรับการส่งข้อมูลแบบ text/html และ text/event-stream (SSE)
    สามารถอัปเดต DOM จาก backend ได้ทันที
    ใช้คำสั่งเช่น PatchElements() เพื่อเปลี่ยนแปลง DOM แบบสดๆ

    ความยืดหยุ่นของ backend
    สามารถใช้ภาษาใดก็ได้ในการเขียน backend เช่น Go, Python, Rust
    มี SDK รองรับหลายภาษา
    ไม่จำกัดเทคโนโลยีฝั่งเซิร์ฟเวอร์

    ความเห็นจากนักพัฒนา
    ลดความซับซ้อนจาก SPA และ virtual DOM
    ใช้งานง่ายกว่า htmx หรือ Alpine.js
    เหมาะกับแอปที่ต้องการความเร็วและความเสถียร

    ข้อมูลเสริมจากภายนอก
    SSE (Server-Sent Events) เป็นเทคโนโลยีที่ใช้ส่งข้อมูลจากเซิร์ฟเวอร์ไปยัง client แบบต่อเนื่อง โดยไม่ต้องเปิด WebSocket
    Hypermedia-driven frontend เป็นแนวคิดที่ใช้ข้อมูลจาก backend ควบคุม UI โดยตรง ผ่าน HTML attributes
    การไม่ใช้ JavaScript ฝั่งผู้ใช้ช่วยลดปัญหาเรื่อง bundle size, security และ performance

    https://data-star.dev/
    ⭐ “Datastar — เฟรมเวิร์กใหม่ที่พลิกโฉมการสร้างเว็บแบบเรียลไทม์ ด้วยไฟล์เดียวและไม่ต้องใช้ JavaScript” ลองนึกภาพว่าคุณสามารถสร้างเว็บแอปแบบเรียลไทม์ที่ตอบสนองไว ใช้งานง่าย และไม่ต้องพึ่งพา JavaScript ฝั่งผู้ใช้เลย — นั่นคือสิ่งที่ Datastar เสนอให้กับนักพัฒนาในยุคที่หลายคนเริ่มเบื่อกับความซับซ้อนของ SPA (Single Page Application) Datastar เป็นเฟรมเวิร์กน้ำหนักเบาเพียง 10.75 KiB ที่ช่วยให้คุณสร้างเว็บตั้งแต่หน้าเว็บธรรมดาไปจนถึงแอปแบบ collaborative ที่ทำงานแบบเรียลไทม์ โดยใช้แนวคิด “hypermedia-driven frontend” ซึ่งหมายถึงการควบคุม DOM และ state จากฝั่ง backend ผ่าน HTML attributes เช่น data-on-click="@get('/endpoint')" โดยไม่ต้องเขียน JavaScript ฝั่งผู้ใช้เลย เฟรมเวิร์กนี้รองรับการส่งข้อมูลแบบ HTML ปกติและแบบ event-stream (SSE) ทำให้สามารถอัปเดต DOM แบบเรียลไทม์ได้ง่าย และยังสามารถใช้ backend ภาษาใดก็ได้ เช่น Go, Python, Rust หรือ Node.js โดยมี SDK รองรับ นักพัฒนาหลายคนที่เคยใช้ React, htmx หรือ Alpine.js ต่างพูดเป็นเสียงเดียวกันว่า Datastar ช่วยลดความซับซ้อนของ frontend ได้อย่างมาก และทำให้พวกเขากลับมาโฟกัสกับการแก้ปัญหาทางธุรกิจแทนที่จะต้องมานั่งจัดการกับ state และ virtual DOM ✅ จุดเด่นของ Datastar ➡️ เป็นเฟรมเวิร์กน้ำหนักเบาเพียง 10.75 KiB ➡️ รองรับการสร้างเว็บแบบเรียลไทม์โดยไม่ต้องใช้ JavaScript ฝั่งผู้ใช้ ➡️ ใช้แนวคิด hypermedia-driven frontend ควบคุม DOM ผ่าน HTML attributes ✅ การทำงานแบบเรียลไทม์ ➡️ รองรับการส่งข้อมูลแบบ text/html และ text/event-stream (SSE) ➡️ สามารถอัปเดต DOM จาก backend ได้ทันที ➡️ ใช้คำสั่งเช่น PatchElements() เพื่อเปลี่ยนแปลง DOM แบบสดๆ ✅ ความยืดหยุ่นของ backend ➡️ สามารถใช้ภาษาใดก็ได้ในการเขียน backend เช่น Go, Python, Rust ➡️ มี SDK รองรับหลายภาษา ➡️ ไม่จำกัดเทคโนโลยีฝั่งเซิร์ฟเวอร์ ✅ ความเห็นจากนักพัฒนา ➡️ ลดความซับซ้อนจาก SPA และ virtual DOM ➡️ ใช้งานง่ายกว่า htmx หรือ Alpine.js ➡️ เหมาะกับแอปที่ต้องการความเร็วและความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ SSE (Server-Sent Events) เป็นเทคโนโลยีที่ใช้ส่งข้อมูลจากเซิร์ฟเวอร์ไปยัง client แบบต่อเนื่อง โดยไม่ต้องเปิด WebSocket ➡️ Hypermedia-driven frontend เป็นแนวคิดที่ใช้ข้อมูลจาก backend ควบคุม UI โดยตรง ผ่าน HTML attributes ➡️ การไม่ใช้ JavaScript ฝั่งผู้ใช้ช่วยลดปัญหาเรื่อง bundle size, security และ performance https://data-star.dev/
    DATA-STAR.DEV
    Datastar
    The hypermedia framework.
    0 Comments 0 Shares 180 Views 0 Reviews
  • “ASML ตั้ง Marco Pieters เป็น CTO คนใหม่ — ผู้นำเทคโนโลยีลิเธียกราฟีระดับโลกเตรียมขยายบอร์ดบริหารในปี 2026”

    ASML บริษัทผู้ผลิตเครื่องจักรลิเธียกราฟีสำหรับอุตสาหกรรมเซมิคอนดักเตอร์ที่ใหญ่ที่สุดในโลก ประกาศแต่งตั้ง Marco Pieters เป็นประธานเจ้าหน้าที่ฝ่ายเทคโนโลยี (CTO) คนใหม่ โดยมีผลทันทีในเดือนตุลาคม 2025 พร้อมเตรียมเสนอชื่อเขาเข้าสู่คณะกรรมการบริหารในเดือนเมษายน 2026

    Pieters เป็นบุคลากรที่อยู่กับ ASML มานานกว่า 25 ปี โดยก่อนหน้านี้ดำรงตำแหน่งรองประธานบริหารฝ่ายผลิตภัณฑ์ Applications และมีบทบาทสำคัญในการพัฒนาเทคโนโลยีลิเธียกราฟีแบบ Holistic Lithography ซึ่งเป็นหัวใจของการผลิตชิปความละเอียดสูงในยุคปัจจุบัน

    การแต่งตั้งครั้งนี้เป็นส่วนหนึ่งของแผนสืบทอดตำแหน่งที่วางไว้อย่างรอบคอบ โดย CEO Christophe Fouquet กล่าวว่า “Marco คือผู้นำที่มีความเข้าใจลึกซึ้งในเทคโนโลยีของเรา และจะเป็นกำลังสำคัญในการขับเคลื่อนแผนงานด้านเทคโนโลยีในอนาคต”

    นอกจากนี้ ASML ยังเตรียมเสนอการแต่งตั้ง Pieters เข้าสู่คณะกรรมการบริหารในการประชุม AGM วันที่ 22 เมษายน 2026 ซึ่งจะทำให้จำนวนสมาชิกเพิ่มจาก 5 เป็น 6 คน พร้อมกับการต่อวาระของ CFO Roger Dassen และ COO Frédéric Schneider-Maunoury เพื่อรักษาความต่อเนื่องของทีมบริหาร

    ASML มีบทบาทสำคัญในการผลักดันเทคโนโลยีการผลิตชิปทั่วโลก โดยเครื่อง EUV ของบริษัทมีราคาสูงถึง 400 ล้านดอลลาร์ต่อเครื่อง และถูกใช้โดยผู้ผลิตชิปรายใหญ่ เช่น TSMC, Intel และ Samsung

    ข้อมูลสำคัญจากข่าว
    ASML แต่งตั้ง Marco Pieters เป็น CTO คนใหม่ มีผลทันทีในเดือนตุลาคม 2025
    Pieters มีประสบการณ์กว่า 25 ปีใน ASML และเคยเป็น EVP ฝ่าย Applications
    เคยดูแลโครงการ Holistic Lithography ซึ่งเป็นเทคโนโลยีสำคัญของ ASML
    CEO Christophe Fouquet สนับสนุนการแต่งตั้งอย่างเต็มที่
    Pieters จะถูกเสนอชื่อเข้าสู่คณะกรรมการบริหารในการประชุม AGM วันที่ 22 เมษายน 2026
    คณะกรรมการจะขยายจาก 5 เป็น 6 คน
    CFO Roger Dassen จะต่อวาระอีก 4 ปี และ COO Frédéric Schneider-Maunoury อีก 2 ปี
    ASML เป็นผู้นำด้านเครื่องจักรลิเธียกราฟีสำหรับการผลิตชิประดับโลก

    ข้อมูลเสริมจากภายนอก
    Holistic Lithography คือการรวมการออกแบบ การตรวจสอบ และการผลิตชิปเข้าด้วยกันแบบครบวงจร
    เครื่อง EUV ของ ASML ใช้เลเซอร์พลังสูงในการสร้างลวดลายบนเวเฟอร์ซิลิคอน
    ASML มีสำนักงานทั่วโลก และมีพนักงานมากกว่า 44,000 คน
    บริษัทมีรายได้รวมกว่า €28.3 พันล้านยูโรในปี 2024
    การแต่งตั้ง CTO จากภายในองค์กรช่วยรักษาความต่อเนื่องและวัฒนธรรมองค์กร

    https://www.techpowerup.com/341731/asml-appoints-marco-pieters-as-next-chief-technology-officer
    🧠 “ASML ตั้ง Marco Pieters เป็น CTO คนใหม่ — ผู้นำเทคโนโลยีลิเธียกราฟีระดับโลกเตรียมขยายบอร์ดบริหารในปี 2026” ASML บริษัทผู้ผลิตเครื่องจักรลิเธียกราฟีสำหรับอุตสาหกรรมเซมิคอนดักเตอร์ที่ใหญ่ที่สุดในโลก ประกาศแต่งตั้ง Marco Pieters เป็นประธานเจ้าหน้าที่ฝ่ายเทคโนโลยี (CTO) คนใหม่ โดยมีผลทันทีในเดือนตุลาคม 2025 พร้อมเตรียมเสนอชื่อเขาเข้าสู่คณะกรรมการบริหารในเดือนเมษายน 2026 Pieters เป็นบุคลากรที่อยู่กับ ASML มานานกว่า 25 ปี โดยก่อนหน้านี้ดำรงตำแหน่งรองประธานบริหารฝ่ายผลิตภัณฑ์ Applications และมีบทบาทสำคัญในการพัฒนาเทคโนโลยีลิเธียกราฟีแบบ Holistic Lithography ซึ่งเป็นหัวใจของการผลิตชิปความละเอียดสูงในยุคปัจจุบัน การแต่งตั้งครั้งนี้เป็นส่วนหนึ่งของแผนสืบทอดตำแหน่งที่วางไว้อย่างรอบคอบ โดย CEO Christophe Fouquet กล่าวว่า “Marco คือผู้นำที่มีความเข้าใจลึกซึ้งในเทคโนโลยีของเรา และจะเป็นกำลังสำคัญในการขับเคลื่อนแผนงานด้านเทคโนโลยีในอนาคต” นอกจากนี้ ASML ยังเตรียมเสนอการแต่งตั้ง Pieters เข้าสู่คณะกรรมการบริหารในการประชุม AGM วันที่ 22 เมษายน 2026 ซึ่งจะทำให้จำนวนสมาชิกเพิ่มจาก 5 เป็น 6 คน พร้อมกับการต่อวาระของ CFO Roger Dassen และ COO Frédéric Schneider-Maunoury เพื่อรักษาความต่อเนื่องของทีมบริหาร ASML มีบทบาทสำคัญในการผลักดันเทคโนโลยีการผลิตชิปทั่วโลก โดยเครื่อง EUV ของบริษัทมีราคาสูงถึง 400 ล้านดอลลาร์ต่อเครื่อง และถูกใช้โดยผู้ผลิตชิปรายใหญ่ เช่น TSMC, Intel และ Samsung ✅ ข้อมูลสำคัญจากข่าว ➡️ ASML แต่งตั้ง Marco Pieters เป็น CTO คนใหม่ มีผลทันทีในเดือนตุลาคม 2025 ➡️ Pieters มีประสบการณ์กว่า 25 ปีใน ASML และเคยเป็น EVP ฝ่าย Applications ➡️ เคยดูแลโครงการ Holistic Lithography ซึ่งเป็นเทคโนโลยีสำคัญของ ASML ➡️ CEO Christophe Fouquet สนับสนุนการแต่งตั้งอย่างเต็มที่ ➡️ Pieters จะถูกเสนอชื่อเข้าสู่คณะกรรมการบริหารในการประชุม AGM วันที่ 22 เมษายน 2026 ➡️ คณะกรรมการจะขยายจาก 5 เป็น 6 คน ➡️ CFO Roger Dassen จะต่อวาระอีก 4 ปี และ COO Frédéric Schneider-Maunoury อีก 2 ปี ➡️ ASML เป็นผู้นำด้านเครื่องจักรลิเธียกราฟีสำหรับการผลิตชิประดับโลก ✅ ข้อมูลเสริมจากภายนอก ➡️ Holistic Lithography คือการรวมการออกแบบ การตรวจสอบ และการผลิตชิปเข้าด้วยกันแบบครบวงจร ➡️ เครื่อง EUV ของ ASML ใช้เลเซอร์พลังสูงในการสร้างลวดลายบนเวเฟอร์ซิลิคอน ➡️ ASML มีสำนักงานทั่วโลก และมีพนักงานมากกว่า 44,000 คน ➡️ บริษัทมีรายได้รวมกว่า €28.3 พันล้านยูโรในปี 2024 ➡️ การแต่งตั้ง CTO จากภายในองค์กรช่วยรักษาความต่อเนื่องและวัฒนธรรมองค์กร https://www.techpowerup.com/341731/asml-appoints-marco-pieters-as-next-chief-technology-officer
    WWW.TECHPOWERUP.COM
    ASML Appoints Marco Pieters as Next Chief Technology Officer
    ASML Holding NV (ASML) today announced the appointment of Marco Pieters as Executive Vice President and Chief Technology Officer, reporting to President and Chief Executive Officer, Christophe Fouquet. With over 25 years of experience at ASML, most recently as Executive Vice President for the produc...
    0 Comments 0 Shares 256 Views 0 Reviews
  • “จากเด็กอายุ 12 สู่ผู้ร่วมพัฒนาเคอร์เนล: Lifebook S2110 จุดประกายการแก้ไขไดรเวอร์ Linux ครั้งแรก”

    Valtteri Koskivuori นักพัฒนาสาย Linux ได้แชร์ประสบการณ์การส่ง patch แรกเข้าสู่เคอร์เนล Linux อย่างเป็นทางการ โดยเริ่มต้นจากความหลงใหลในโน้ตบุ๊กเก่ารุ่น Fujitsu Lifebook S2110 ที่เขาใช้มาตั้งแต่ปี 2005 แม้เครื่องจะมี RAM เพียง 2GB และใช้ฮาร์ดดิสก์แบบจานหมุน แต่ยังสามารถรัน Arch Linux รุ่นล่าสุดได้อย่างลื่นไหล

    แรงบันดาลใจของเขาเริ่มจากการสังเกตว่า “ปุ่ม hotkey” บนเครื่องทำงานได้เพียงครึ่งเดียว — โหมด Application ใช้งานได้ แต่โหมด Player กลับไม่มีการตอบสนองใด ๆ และมีข้อความแปลก ๆ ปรากฏใน kernel log ซึ่งนำไปสู่การสืบค้นโค้ดของไดรเวอร์ fujitsu-laptop.c ในเคอร์เนล

    หลังจากวิเคราะห์โค้ดอย่างละเอียด เขาพบว่าเครื่องของเขาไม่ได้อยู่ใน DMI table ที่ใช้เลือก keymap เฉพาะรุ่น จึงตัดสินใจสร้าง keymap ใหม่สำหรับ S2110 โดยเพิ่ม scancode ที่หายไป และแมปปุ่มให้ตรงกับฟังก์ชัน เช่น เล่นเพลง หยุดเพลง ย้อนเพลง และข้ามเพลง

    เมื่อทดสอบกับ xev และ playerctl พบว่าปุ่มทั้งหมดทำงานได้สมบูรณ์ เขาจึงส่ง patch นี้ไปยัง maintainer ของเคอร์เนลผ่านระบบ mailing list และในเวลาเพียงไม่กี่สัปดาห์ patch ก็ถูก merge เข้าสู่ Linux 6.15 และถูก backport ไปยังเวอร์ชัน LTS หลายรุ่น

    ข้อมูลสำคัญจากข่าว
    Valtteri Koskivuori ส่ง patch แรกเข้าสู่เคอร์เนล Linux เพื่อแก้ไข hotkey บน Lifebook S2110
    ปุ่ม hotkey ทำงานได้ในโหมด Application แต่ไม่ตอบสนองในโหมด Player
    พบข้อความ “Unknown GIRB result” ใน kernel log เมื่อกดปุ่มในโหมด Player
    วิเคราะห์โค้ดใน fujitsu-laptop.c และพบว่าเครื่องไม่ได้อยู่ใน DMI table
    สร้าง keymap ใหม่ keymap_s2110 และเพิ่ม scancode สำหรับปุ่มที่หายไป
    ทดสอบด้วย xev และ playerctl พบว่าปุ่มทำงานได้ครบทุกฟังก์ชัน
    ส่ง patch ผ่าน git send-email ไปยัง maintainer และ mailing list
    Patch ถูก merge เข้าสู่ Linux 6.15 และ backport ไปยัง LTS หลายรุ่น

    ข้อมูลเสริมจากภายนอก
    DMI table ใช้ระบุรุ่นของเครื่องเพื่อเลือก keymap ที่เหมาะสม
    sparse_keymap_setup() เป็นฟังก์ชันที่ใช้แมป scancode กับ keycode
    ACPI notify ใช้รับเหตุการณ์จาก firmware และส่งไปยัง input subsystem
    playerctl ใช้ควบคุม media player ผ่าน D-Bus ด้วยโปรโตคอล MPRIS
    การส่ง patch ผ่าน mailing list เป็นวิธีดั้งเดิมที่ยังใช้ในเคอร์เนล Linux

    https://vkoskiv.com/first-linux-patch/
    🧑‍💻 “จากเด็กอายุ 12 สู่ผู้ร่วมพัฒนาเคอร์เนล: Lifebook S2110 จุดประกายการแก้ไขไดรเวอร์ Linux ครั้งแรก” Valtteri Koskivuori นักพัฒนาสาย Linux ได้แชร์ประสบการณ์การส่ง patch แรกเข้าสู่เคอร์เนล Linux อย่างเป็นทางการ โดยเริ่มต้นจากความหลงใหลในโน้ตบุ๊กเก่ารุ่น Fujitsu Lifebook S2110 ที่เขาใช้มาตั้งแต่ปี 2005 แม้เครื่องจะมี RAM เพียง 2GB และใช้ฮาร์ดดิสก์แบบจานหมุน แต่ยังสามารถรัน Arch Linux รุ่นล่าสุดได้อย่างลื่นไหล แรงบันดาลใจของเขาเริ่มจากการสังเกตว่า “ปุ่ม hotkey” บนเครื่องทำงานได้เพียงครึ่งเดียว — โหมด Application ใช้งานได้ แต่โหมด Player กลับไม่มีการตอบสนองใด ๆ และมีข้อความแปลก ๆ ปรากฏใน kernel log ซึ่งนำไปสู่การสืบค้นโค้ดของไดรเวอร์ fujitsu-laptop.c ในเคอร์เนล หลังจากวิเคราะห์โค้ดอย่างละเอียด เขาพบว่าเครื่องของเขาไม่ได้อยู่ใน DMI table ที่ใช้เลือก keymap เฉพาะรุ่น จึงตัดสินใจสร้าง keymap ใหม่สำหรับ S2110 โดยเพิ่ม scancode ที่หายไป และแมปปุ่มให้ตรงกับฟังก์ชัน เช่น เล่นเพลง หยุดเพลง ย้อนเพลง และข้ามเพลง เมื่อทดสอบกับ xev และ playerctl พบว่าปุ่มทั้งหมดทำงานได้สมบูรณ์ เขาจึงส่ง patch นี้ไปยัง maintainer ของเคอร์เนลผ่านระบบ mailing list และในเวลาเพียงไม่กี่สัปดาห์ patch ก็ถูก merge เข้าสู่ Linux 6.15 และถูก backport ไปยังเวอร์ชัน LTS หลายรุ่น ✅ ข้อมูลสำคัญจากข่าว ➡️ Valtteri Koskivuori ส่ง patch แรกเข้าสู่เคอร์เนล Linux เพื่อแก้ไข hotkey บน Lifebook S2110 ➡️ ปุ่ม hotkey ทำงานได้ในโหมด Application แต่ไม่ตอบสนองในโหมด Player ➡️ พบข้อความ “Unknown GIRB result” ใน kernel log เมื่อกดปุ่มในโหมด Player ➡️ วิเคราะห์โค้ดใน fujitsu-laptop.c และพบว่าเครื่องไม่ได้อยู่ใน DMI table ➡️ สร้าง keymap ใหม่ keymap_s2110 และเพิ่ม scancode สำหรับปุ่มที่หายไป ➡️ ทดสอบด้วย xev และ playerctl พบว่าปุ่มทำงานได้ครบทุกฟังก์ชัน ➡️ ส่ง patch ผ่าน git send-email ไปยัง maintainer และ mailing list ➡️ Patch ถูก merge เข้าสู่ Linux 6.15 และ backport ไปยัง LTS หลายรุ่น ✅ ข้อมูลเสริมจากภายนอก ➡️ DMI table ใช้ระบุรุ่นของเครื่องเพื่อเลือก keymap ที่เหมาะสม ➡️ sparse_keymap_setup() เป็นฟังก์ชันที่ใช้แมป scancode กับ keycode ➡️ ACPI notify ใช้รับเหตุการณ์จาก firmware และส่งไปยัง input subsystem ➡️ playerctl ใช้ควบคุม media player ผ่าน D-Bus ด้วยโปรโตคอล MPRIS ➡️ การส่ง patch ผ่าน mailing list เป็นวิธีดั้งเดิมที่ยังใช้ในเคอร์เนล Linux https://vkoskiv.com/first-linux-patch/
    VKOSKIV.COM
    My First Contribution to Linux
    I upstreamed my first kernel patch, and it was easier than I thought it would be.
    0 Comments 0 Shares 172 Views 0 Reviews
  • “Miggo Security คว้าตำแหน่ง Gartner Cool Vendor — พลิกเกมป้องกันภัยไซเบอร์ในยุค AI ด้วยการตรวจจับแบบเรียลไทม์”

    ในวันที่ AI กลายเป็นทั้งเครื่องมือสร้างสรรค์และช่องทางโจมตีใหม่สำหรับภัยไซเบอร์ บริษัท Miggo Security จาก Tel Aviv ได้รับการยกย่องจาก Gartner ให้เป็นหนึ่งใน “Cool Vendor” ด้าน AI Security ประจำปี 2025 จากความสามารถในการตรวจจับและตอบสนองภัยคุกคามในแอปพลิเคชันแบบเรียลไทม์ ผ่านแพลตฟอร์ม Application Detection & Response (ADR)

    Miggo มุ่งเน้นการแก้ปัญหา “ช่องว่างระหว่างการตรวจจับและการตอบสนอง” ซึ่งเป็นจุดอ่อนของระบบรักษาความปลอดภัยแบบเดิม โดยใช้เทคโนโลยี DeepTracing ที่สามารถตรวจจับภัยคุกคามใหม่ ๆ เช่น zero-day และรูปแบบการโจมตีที่เกิดขึ้นเฉพาะในแอปพลิเคชันที่มี AI ฝังอยู่

    แพลตฟอร์มของ Miggo ยังมีฐานข้อมูล AppDNA และ Predictive Vulnerability Database ที่ช่วยลด backlog ของช่องโหว่ได้ถึง 99% โดยใช้ AI วิเคราะห์บริบทของแอปพลิเคชันและจัดลำดับความสำคัญของช่องโหว่ที่ควรแก้ก่อน

    นอกจากนี้ยังมีฟีเจอร์ WAF Copilot ที่สามารถสร้างกฎป้องกันเว็บแอปพลิเคชันแบบ custom ได้ภายในไม่กี่นาที และระบบ Agentless Integration ที่สามารถติดตั้งร่วมกับ Kubernetes และระบบ CI/CD ได้โดยไม่ต้องเปลี่ยนโครงสร้างเดิม

    Gartner เตือนว่า “ภายในปี 2029 กว่า 50% ของการโจมตีไซเบอร์ที่สำเร็จต่อ AI agents จะเกิดจากการเจาะระบบควบคุมสิทธิ์ เช่น prompt injection” ซึ่งทำให้การป้องกันแบบ runtime และการวิเคราะห์พฤติกรรมของแอปพลิเคชันกลายเป็นสิ่งจำเป็น

    CEO ของ Miggo, Daniel Shechter กล่าวว่า “การได้รับการยอมรับจาก Gartner คือการยืนยันว่า ADR คืออนาคตของการรักษาความปลอดภัยในยุค AI” โดยเน้นว่าองค์กรต้องสามารถ “รู้ พิสูจน์ และป้องกัน” ภัยคุกคามที่เกิดขึ้นในแอปพลิเคชันได้ทันที

    ข้อมูลสำคัญจากข่าว
    Miggo Security ได้รับการยกย่องเป็น Gartner Cool Vendor ด้าน AI Security ปี 2025
    ใช้แพลตฟอร์ม Application Detection & Response (ADR) สำหรับการตรวจจับแบบ runtime
    เทคโนโลยี DeepTracing ตรวจจับ AI-native threats และ zero-day ได้แบบเรียลไทม์
    ฐานข้อมูล AppDNA และ Predictive Vulnerability Database ลด backlog ช่องโหว่ได้ 99%
    WAF Copilot สร้างกฎป้องกันเว็บแอปแบบ custom ได้ภายในไม่กี่นาที
    Agentless Integration รองรับ Kubernetes และระบบ CI/CD โดยไม่ต้องติดตั้ง agent
    Gartner เตือนภัย prompt injection จะเป็นช่องโหว่หลักของ AI agents ภายในปี 2029
    CEO Daniel Shechter ยืนยันว่า ADR คืออนาคตของการรักษาความปลอดภัยในยุค AI

    ข้อมูลเสริมจากภายนอก
    Prompt injection คือการแทรกคำสั่งใน input เพื่อควบคุมพฤติกรรมของ AI
    Zero-day คือช่องโหว่ที่ยังไม่มีแพตช์แก้ไข และมักถูกใช้ในการโจมตีขั้นสูง
    Runtime security คือการตรวจสอบพฤติกรรมของแอปพลิเคชันขณะทำงานจริง
    Gartner Cool Vendor เป็นการยกย่องบริษัทที่มีนวัตกรรมโดดเด่นในอุตสาหกรรม
    การใช้ AI ในระบบรักษาความปลอดภัยช่วยลดเวลาในการตอบสนองและเพิ่มความแม่นยำ

    https://hackread.com/miggo-security-named-a-gartner-cool-vendor-in-ai-security/
    🛡️ “Miggo Security คว้าตำแหน่ง Gartner Cool Vendor — พลิกเกมป้องกันภัยไซเบอร์ในยุค AI ด้วยการตรวจจับแบบเรียลไทม์” ในวันที่ AI กลายเป็นทั้งเครื่องมือสร้างสรรค์และช่องทางโจมตีใหม่สำหรับภัยไซเบอร์ บริษัท Miggo Security จาก Tel Aviv ได้รับการยกย่องจาก Gartner ให้เป็นหนึ่งใน “Cool Vendor” ด้าน AI Security ประจำปี 2025 จากความสามารถในการตรวจจับและตอบสนองภัยคุกคามในแอปพลิเคชันแบบเรียลไทม์ ผ่านแพลตฟอร์ม Application Detection & Response (ADR) Miggo มุ่งเน้นการแก้ปัญหา “ช่องว่างระหว่างการตรวจจับและการตอบสนอง” ซึ่งเป็นจุดอ่อนของระบบรักษาความปลอดภัยแบบเดิม โดยใช้เทคโนโลยี DeepTracing ที่สามารถตรวจจับภัยคุกคามใหม่ ๆ เช่น zero-day และรูปแบบการโจมตีที่เกิดขึ้นเฉพาะในแอปพลิเคชันที่มี AI ฝังอยู่ แพลตฟอร์มของ Miggo ยังมีฐานข้อมูล AppDNA และ Predictive Vulnerability Database ที่ช่วยลด backlog ของช่องโหว่ได้ถึง 99% โดยใช้ AI วิเคราะห์บริบทของแอปพลิเคชันและจัดลำดับความสำคัญของช่องโหว่ที่ควรแก้ก่อน นอกจากนี้ยังมีฟีเจอร์ WAF Copilot ที่สามารถสร้างกฎป้องกันเว็บแอปพลิเคชันแบบ custom ได้ภายในไม่กี่นาที และระบบ Agentless Integration ที่สามารถติดตั้งร่วมกับ Kubernetes และระบบ CI/CD ได้โดยไม่ต้องเปลี่ยนโครงสร้างเดิม Gartner เตือนว่า “ภายในปี 2029 กว่า 50% ของการโจมตีไซเบอร์ที่สำเร็จต่อ AI agents จะเกิดจากการเจาะระบบควบคุมสิทธิ์ เช่น prompt injection” ซึ่งทำให้การป้องกันแบบ runtime และการวิเคราะห์พฤติกรรมของแอปพลิเคชันกลายเป็นสิ่งจำเป็น CEO ของ Miggo, Daniel Shechter กล่าวว่า “การได้รับการยอมรับจาก Gartner คือการยืนยันว่า ADR คืออนาคตของการรักษาความปลอดภัยในยุค AI” โดยเน้นว่าองค์กรต้องสามารถ “รู้ พิสูจน์ และป้องกัน” ภัยคุกคามที่เกิดขึ้นในแอปพลิเคชันได้ทันที ✅ ข้อมูลสำคัญจากข่าว ➡️ Miggo Security ได้รับการยกย่องเป็น Gartner Cool Vendor ด้าน AI Security ปี 2025 ➡️ ใช้แพลตฟอร์ม Application Detection & Response (ADR) สำหรับการตรวจจับแบบ runtime ➡️ เทคโนโลยี DeepTracing ตรวจจับ AI-native threats และ zero-day ได้แบบเรียลไทม์ ➡️ ฐานข้อมูล AppDNA และ Predictive Vulnerability Database ลด backlog ช่องโหว่ได้ 99% ➡️ WAF Copilot สร้างกฎป้องกันเว็บแอปแบบ custom ได้ภายในไม่กี่นาที ➡️ Agentless Integration รองรับ Kubernetes และระบบ CI/CD โดยไม่ต้องติดตั้ง agent ➡️ Gartner เตือนภัย prompt injection จะเป็นช่องโหว่หลักของ AI agents ภายในปี 2029 ➡️ CEO Daniel Shechter ยืนยันว่า ADR คืออนาคตของการรักษาความปลอดภัยในยุค AI ✅ ข้อมูลเสริมจากภายนอก ➡️ Prompt injection คือการแทรกคำสั่งใน input เพื่อควบคุมพฤติกรรมของ AI ➡️ Zero-day คือช่องโหว่ที่ยังไม่มีแพตช์แก้ไข และมักถูกใช้ในการโจมตีขั้นสูง ➡️ Runtime security คือการตรวจสอบพฤติกรรมของแอปพลิเคชันขณะทำงานจริง ➡️ Gartner Cool Vendor เป็นการยกย่องบริษัทที่มีนวัตกรรมโดดเด่นในอุตสาหกรรม ➡️ การใช้ AI ในระบบรักษาความปลอดภัยช่วยลดเวลาในการตอบสนองและเพิ่มความแม่นยำ https://hackread.com/miggo-security-named-a-gartner-cool-vendor-in-ai-security/
    HACKREAD.COM
    Miggo Security Named a Gartner® Cool Vendor in AI Security
    Tel Aviv, Israel, 8th October 2025, CyberNewsWire
    0 Comments 0 Shares 221 Views 0 Reviews
  • “ช่องโหว่ CVE-2025-10035 ใน GoAnywhere MFT ถูกใช้โจมตีจริง — Medusa Ransomware ลุยองค์กรทั่วโลก”

    Microsoft และนักวิจัยด้านความปลอดภัยออกคำเตือนด่วนหลังพบการโจมตีจริงจากช่องโหว่ร้ายแรง CVE-2025-10035 ในซอฟต์แวร์ GoAnywhere Managed File Transfer (MFT) ของบริษัท Fortra โดยช่องโหว่นี้มีคะแนน CVSS เต็ม 10.0 และเปิดทางให้แฮกเกอร์สามารถรันโค้ดจากระยะไกลได้ทันที โดยไม่ต้องยืนยันตัวตน หากสามารถปลอมลายเซ็นตอบกลับของ license ได้สำเร็จ

    ช่องโหว่นี้เกิดจากการจัดการข้อมูลแบบ deserialization ที่ไม่ปลอดภัยใน License Servlet ของ GoAnywhere MFT ซึ่งเปิดให้ผู้โจมตีส่งข้อมูลที่ควบคุมเองเข้าไปในระบบ และนำไปสู่การรันคำสั่งอันตรายบนเซิร์ฟเวอร์ที่ยังไม่ได้อัปเดต

    กลุ่มแฮกเกอร์ Storm-1175 ซึ่งเป็นพันธมิตรของ Medusa ransomware ได้เริ่มใช้ช่องโหว่นี้ตั้งแต่วันที่ 11 กันยายน 2025 ก่อนที่ Fortra จะออกประกาศอย่างเป็นทางการในวันที่ 18 กันยายน โดยการโจมตีมีลักษณะเป็นขั้นตอน ได้แก่:

    Initial Access: เจาะระบบผ่านช่องโหว่ CVE-2025-10035
    Persistence: ติดตั้งเครื่องมือ RMM เช่น SimpleHelp และ MeshAgent
    Post-Exploitation: สร้าง web shell (.jsp), สแกนระบบด้วย netscan
    Lateral Movement: ใช้ mstsc.exe เพื่อเคลื่อนย้ายภายในเครือข่าย
    Command & Control: ตั้งค่า Cloudflare tunnel เพื่อสื่อสารแบบเข้ารหัส
    Exfiltration & Impact: ใช้ Rclone ขโมยข้อมูล และปล่อย Medusa ransomware

    Microsoft ระบุว่าการโจมตีเกิดขึ้นในหลายองค์กร และแนะนำให้ผู้ดูแลระบบอัปเดต GoAnywhere MFT เป็นเวอร์ชันล่าสุดทันที พร้อมตรวจสอบ log ว่ามีการเรียกใช้ SignedObject.getObject หรือไม่ ซึ่งอาจเป็นสัญญาณของการเจาะระบบ

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ CVE-2025-10035 เป็นช่องโหว่ deserialization ใน GoAnywhere MFT
    คะแนน CVSS เต็ม 10.0 ถือเป็นระดับวิกฤต
    เปิดทางให้รันโค้ดจากระยะไกลโดยไม่ต้องยืนยันตัวตน
    เกิดจากการปลอม license response signature เพื่อหลอกระบบ
    ส่งผลกระทบต่อเวอร์ชัน Admin Console สูงสุดถึง 7.8.3
    กลุ่ม Storm-1175 ใช้ช่องโหว่นี้ในการโจมตีจริง
    ขั้นตอนการโจมตีมีทั้งการติดตั้ง RMM, สร้าง web shell, และขโมยข้อมูล
    Microsoft แนะนำให้อัปเดตและตรวจสอบ log สำหรับ SignedObject.getObject
    Fortra ออกแพตช์แก้ไขแล้ว และแนะนำให้ล็อกการเข้าถึง Admin Console จากอินเทอร์เน็ต

    ข้อมูลเสริมจากภายนอก
    Medusa ransomware เคยโจมตีองค์กรโครงสร้างพื้นฐานกว่า 300 แห่งในสหรัฐฯ
    Deserialization flaws เป็นช่องโหว่ที่พบได้บ่อยใน Java-based applications
    RMM tools เช่น MeshAgent มักถูกใช้ในเทคนิค “living off the land” เพื่อหลบการตรวจจับ
    Rclone เป็นเครื่องมือยอดนิยมในการขโมยข้อมูลจากระบบที่ถูกเจาะ
    การใช้ Cloudflare tunnel ทำให้การสื่อสารของแฮกเกอร์ไม่สามารถตรวจสอบได้ง่าย

    https://securityonline.info/critical-rce-cve-2025-10035-in-goanywhere-mft-used-by-medusa-ransomware-group/
    🚨 “ช่องโหว่ CVE-2025-10035 ใน GoAnywhere MFT ถูกใช้โจมตีจริง — Medusa Ransomware ลุยองค์กรทั่วโลก” Microsoft และนักวิจัยด้านความปลอดภัยออกคำเตือนด่วนหลังพบการโจมตีจริงจากช่องโหว่ร้ายแรง CVE-2025-10035 ในซอฟต์แวร์ GoAnywhere Managed File Transfer (MFT) ของบริษัท Fortra โดยช่องโหว่นี้มีคะแนน CVSS เต็ม 10.0 และเปิดทางให้แฮกเกอร์สามารถรันโค้ดจากระยะไกลได้ทันที โดยไม่ต้องยืนยันตัวตน หากสามารถปลอมลายเซ็นตอบกลับของ license ได้สำเร็จ ช่องโหว่นี้เกิดจากการจัดการข้อมูลแบบ deserialization ที่ไม่ปลอดภัยใน License Servlet ของ GoAnywhere MFT ซึ่งเปิดให้ผู้โจมตีส่งข้อมูลที่ควบคุมเองเข้าไปในระบบ และนำไปสู่การรันคำสั่งอันตรายบนเซิร์ฟเวอร์ที่ยังไม่ได้อัปเดต กลุ่มแฮกเกอร์ Storm-1175 ซึ่งเป็นพันธมิตรของ Medusa ransomware ได้เริ่มใช้ช่องโหว่นี้ตั้งแต่วันที่ 11 กันยายน 2025 ก่อนที่ Fortra จะออกประกาศอย่างเป็นทางการในวันที่ 18 กันยายน โดยการโจมตีมีลักษณะเป็นขั้นตอน ได้แก่: 🔰 Initial Access: เจาะระบบผ่านช่องโหว่ CVE-2025-10035 🔰 Persistence: ติดตั้งเครื่องมือ RMM เช่น SimpleHelp และ MeshAgent 🔰 Post-Exploitation: สร้าง web shell (.jsp), สแกนระบบด้วย netscan 🔰 Lateral Movement: ใช้ mstsc.exe เพื่อเคลื่อนย้ายภายในเครือข่าย 🔰 Command & Control: ตั้งค่า Cloudflare tunnel เพื่อสื่อสารแบบเข้ารหัส 🔰 Exfiltration & Impact: ใช้ Rclone ขโมยข้อมูล และปล่อย Medusa ransomware Microsoft ระบุว่าการโจมตีเกิดขึ้นในหลายองค์กร และแนะนำให้ผู้ดูแลระบบอัปเดต GoAnywhere MFT เป็นเวอร์ชันล่าสุดทันที พร้อมตรวจสอบ log ว่ามีการเรียกใช้ SignedObject.getObject หรือไม่ ซึ่งอาจเป็นสัญญาณของการเจาะระบบ ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ CVE-2025-10035 เป็นช่องโหว่ deserialization ใน GoAnywhere MFT ➡️ คะแนน CVSS เต็ม 10.0 ถือเป็นระดับวิกฤต ➡️ เปิดทางให้รันโค้ดจากระยะไกลโดยไม่ต้องยืนยันตัวตน ➡️ เกิดจากการปลอม license response signature เพื่อหลอกระบบ ➡️ ส่งผลกระทบต่อเวอร์ชัน Admin Console สูงสุดถึง 7.8.3 ➡️ กลุ่ม Storm-1175 ใช้ช่องโหว่นี้ในการโจมตีจริง ➡️ ขั้นตอนการโจมตีมีทั้งการติดตั้ง RMM, สร้าง web shell, และขโมยข้อมูล ➡️ Microsoft แนะนำให้อัปเดตและตรวจสอบ log สำหรับ SignedObject.getObject ➡️ Fortra ออกแพตช์แก้ไขแล้ว และแนะนำให้ล็อกการเข้าถึง Admin Console จากอินเทอร์เน็ต ✅ ข้อมูลเสริมจากภายนอก ➡️ Medusa ransomware เคยโจมตีองค์กรโครงสร้างพื้นฐานกว่า 300 แห่งในสหรัฐฯ ➡️ Deserialization flaws เป็นช่องโหว่ที่พบได้บ่อยใน Java-based applications ➡️ RMM tools เช่น MeshAgent มักถูกใช้ในเทคนิค “living off the land” เพื่อหลบการตรวจจับ ➡️ Rclone เป็นเครื่องมือยอดนิยมในการขโมยข้อมูลจากระบบที่ถูกเจาะ ➡️ การใช้ Cloudflare tunnel ทำให้การสื่อสารของแฮกเกอร์ไม่สามารถตรวจสอบได้ง่าย https://securityonline.info/critical-rce-cve-2025-10035-in-goanywhere-mft-used-by-medusa-ransomware-group/
    SECURITYONLINE.INFO
    Critical RCE (CVE-2025-10035) in GoAnywhere MFT Used by Medusa Ransomware Group
    A Critical (CVSS 10.0) zero-day RCE flaw (CVE-2025-10035) in GoAnywhere MFT is being actively exploited by the Medusa ransomware group, Storm-1175. Patch immediately.
    0 Comments 0 Shares 218 Views 0 Reviews
  • “SiPearl เปิดตัว Athena1 — โปรเซสเซอร์อธิปไตยยุโรป 80 คอร์ สำหรับงานพลเรือนและกลาโหม พร้อมวางจำหน่ายปี 2027”

    ในยุคที่ความมั่นคงทางไซเบอร์และอธิปไตยด้านเทคโนโลยีกลายเป็นประเด็นระดับชาติ SiPearl บริษัทออกแบบโปรเซสเซอร์จากฝรั่งเศสที่ได้รับทุนสนับสนุนจากสหภาพยุโรป ได้เปิดตัว Athena1 โปรเซสเซอร์รุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานทั้งพลเรือนและกลาโหม โดยมีเป้าหมายเพื่อเสริมสร้างความเป็นอิสระด้านเทคโนโลยีของยุโรป

    Athena1 พัฒนาต่อยอดจาก Rhea1 ซึ่งเป็นโปรเซสเซอร์รุ่นแรกของบริษัทที่ใช้ในซูเปอร์คอมพิวเตอร์ระดับ exascale โดย Athena1 จะมีจำนวนคอร์ตั้งแต่ 16 ถึง 80 คอร์ บนสถาปัตยกรรม Arm Neoverse V1 และมาพร้อมฟีเจอร์ด้านความปลอดภัยและการเข้ารหัสขั้นสูง รองรับงานที่ต้องการความมั่นคง เช่น การสื่อสารลับ, การวิเคราะห์ข่าวกรอง, การประมวลผลในยานพาหนะทางทหาร และเครือข่ายยุทธวิธี

    แม้จะไม่มีหน่วยความจำ HBM2E เหมือน Rhea1 เนื่องจาก Athena1 ไม่เน้นงาน AI หรือ HPC แต่ยังคงใช้เทคโนโลยี DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์ที่สูงพอสำหรับงานด้านกลาโหมและการประมวลผลภาคสนาม โดยมีจำนวนทรานซิสเตอร์มากถึง 61 พันล้านตัว

    การผลิตชิปจะดำเนินโดย TSMC ในไต้หวัน และมีแผนย้ายขั้นตอนการบรรจุชิปกลับมายังยุโรปในอนาคต เพื่อสร้างระบบอุตสาหกรรมภายในภูมิภาคให้แข็งแรงยิ่งขึ้น โดย Athena1 มีกำหนดวางจำหน่ายเชิงพาณิชย์ในช่วงครึ่งหลังของปี 2027

    ข้อมูลสำคัญจากข่าว
    SiPearl เปิดตัว Athena1 โปรเซสเซอร์อธิปไตยยุโรปสำหรับงานพลเรือนและกลาโหม
    ใช้สถาปัตยกรรม Arm Neoverse V1 พร้อมตัวเลือกคอร์ตั้งแต่ 16 ถึง 80 คอร์
    พัฒนาต่อยอดจาก Rhea1 ที่ใช้ในซูเปอร์คอมพิวเตอร์ JUPITER
    รองรับงานด้านความมั่นคง เช่น การเข้ารหัส, ข่าวกรอง, การประมวลผลในยานพาหนะ
    ไม่มี HBM2E แต่ใช้ DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์สูง
    มีจำนวนทรานซิสเตอร์ 61 พันล้านตัว ผลิตโดย TSMC
    ขั้นตอนการบรรจุชิปจะย้ายกลับมาในยุโรปเพื่อเสริมอุตสาหกรรมภายใน
    วางจำหน่ายเชิงพาณิชย์ในครึ่งหลังของปี 2027
    เป็นส่วนหนึ่งของแผนยุโรปในการสร้างอธิปไตยด้านเทคโนโลยี

    ข้อมูลเสริมจากภายนอก
    Arm Neoverse V1 เปิดตัวในปี 2020 และใช้ในงานเซิร์ฟเวอร์และ edge computing
    Rhea1 ใช้ใน JUPITER ซูเปอร์คอมพิวเตอร์ exascale แห่งแรกของยุโรป
    HBM2E เหมาะกับงาน HPC และ AI แต่ไม่จำเป็นสำหรับงานด้านกลาโหม
    การใช้ PCIe 5.0 ช่วยให้สามารถเชื่อมต่ออุปกรณ์ภายนอกได้รวดเร็วและมีประสิทธิภาพ
    การผลิตโดย TSMC ช่วยให้มั่นใจในคุณภาพ แต่ยังต้องพึ่งพา supply chain ต่างประเทศ

    https://www.tomshardware.com/tech-industry/sipearl-unveils-europes-first-dual-use-sovereign-processor-with-80-cores-expected-in-2027-for-government-aerospace-and-defense-applications
    🛡️ “SiPearl เปิดตัว Athena1 — โปรเซสเซอร์อธิปไตยยุโรป 80 คอร์ สำหรับงานพลเรือนและกลาโหม พร้อมวางจำหน่ายปี 2027” ในยุคที่ความมั่นคงทางไซเบอร์และอธิปไตยด้านเทคโนโลยีกลายเป็นประเด็นระดับชาติ SiPearl บริษัทออกแบบโปรเซสเซอร์จากฝรั่งเศสที่ได้รับทุนสนับสนุนจากสหภาพยุโรป ได้เปิดตัว Athena1 โปรเซสเซอร์รุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานทั้งพลเรือนและกลาโหม โดยมีเป้าหมายเพื่อเสริมสร้างความเป็นอิสระด้านเทคโนโลยีของยุโรป Athena1 พัฒนาต่อยอดจาก Rhea1 ซึ่งเป็นโปรเซสเซอร์รุ่นแรกของบริษัทที่ใช้ในซูเปอร์คอมพิวเตอร์ระดับ exascale โดย Athena1 จะมีจำนวนคอร์ตั้งแต่ 16 ถึง 80 คอร์ บนสถาปัตยกรรม Arm Neoverse V1 และมาพร้อมฟีเจอร์ด้านความปลอดภัยและการเข้ารหัสขั้นสูง รองรับงานที่ต้องการความมั่นคง เช่น การสื่อสารลับ, การวิเคราะห์ข่าวกรอง, การประมวลผลในยานพาหนะทางทหาร และเครือข่ายยุทธวิธี แม้จะไม่มีหน่วยความจำ HBM2E เหมือน Rhea1 เนื่องจาก Athena1 ไม่เน้นงาน AI หรือ HPC แต่ยังคงใช้เทคโนโลยี DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์ที่สูงพอสำหรับงานด้านกลาโหมและการประมวลผลภาคสนาม โดยมีจำนวนทรานซิสเตอร์มากถึง 61 พันล้านตัว การผลิตชิปจะดำเนินโดย TSMC ในไต้หวัน และมีแผนย้ายขั้นตอนการบรรจุชิปกลับมายังยุโรปในอนาคต เพื่อสร้างระบบอุตสาหกรรมภายในภูมิภาคให้แข็งแรงยิ่งขึ้น โดย Athena1 มีกำหนดวางจำหน่ายเชิงพาณิชย์ในช่วงครึ่งหลังของปี 2027 ✅ ข้อมูลสำคัญจากข่าว ➡️ SiPearl เปิดตัว Athena1 โปรเซสเซอร์อธิปไตยยุโรปสำหรับงานพลเรือนและกลาโหม ➡️ ใช้สถาปัตยกรรม Arm Neoverse V1 พร้อมตัวเลือกคอร์ตั้งแต่ 16 ถึง 80 คอร์ ➡️ พัฒนาต่อยอดจาก Rhea1 ที่ใช้ในซูเปอร์คอมพิวเตอร์ JUPITER ➡️ รองรับงานด้านความมั่นคง เช่น การเข้ารหัส, ข่าวกรอง, การประมวลผลในยานพาหนะ ➡️ ไม่มี HBM2E แต่ใช้ DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์สูง ➡️ มีจำนวนทรานซิสเตอร์ 61 พันล้านตัว ผลิตโดย TSMC ➡️ ขั้นตอนการบรรจุชิปจะย้ายกลับมาในยุโรปเพื่อเสริมอุตสาหกรรมภายใน ➡️ วางจำหน่ายเชิงพาณิชย์ในครึ่งหลังของปี 2027 ➡️ เป็นส่วนหนึ่งของแผนยุโรปในการสร้างอธิปไตยด้านเทคโนโลยี ✅ ข้อมูลเสริมจากภายนอก ➡️ Arm Neoverse V1 เปิดตัวในปี 2020 และใช้ในงานเซิร์ฟเวอร์และ edge computing ➡️ Rhea1 ใช้ใน JUPITER ซูเปอร์คอมพิวเตอร์ exascale แห่งแรกของยุโรป ➡️ HBM2E เหมาะกับงาน HPC และ AI แต่ไม่จำเป็นสำหรับงานด้านกลาโหม ➡️ การใช้ PCIe 5.0 ช่วยให้สามารถเชื่อมต่ออุปกรณ์ภายนอกได้รวดเร็วและมีประสิทธิภาพ ➡️ การผลิตโดย TSMC ช่วยให้มั่นใจในคุณภาพ แต่ยังต้องพึ่งพา supply chain ต่างประเทศ https://www.tomshardware.com/tech-industry/sipearl-unveils-europes-first-dual-use-sovereign-processor-with-80-cores-expected-in-2027-for-government-aerospace-and-defense-applications
    0 Comments 0 Shares 258 Views 0 Reviews
  • “Excel ครบรอบ 40 ปี — จากเครื่องมือบัญชีสู่เวทีแข่งขันระดับโลก แต่ Google Sheets กำลังเบียดขึ้นแท่น”

    Microsoft Excel เพิ่งครบรอบ 40 ปีอย่างเงียบ ๆ แม้จะเป็นหนึ่งในซอฟต์แวร์ที่เปลี่ยนโลกการทำงานอย่างมหาศาล ตั้งแต่การจัดการบัญชีไปจนถึงการวิเคราะห์ข้อมูลระดับองค์กร Excel เริ่มต้นในปี 1985 บน Macintosh ด้วยอินเทอร์เฟซแบบกราฟิก ซึ่งถือว่าแหวกแนวจากคู่แข่งที่ยังใช้แบบข้อความอยู่ในยุคนั้น ก่อนจะถูกพอร์ตมาสู่ Windows และกลายเป็นผู้นำตลาดอย่างรวดเร็วในยุค 90 โดยเฉพาะหลังจากแซงหน้า Lotus 1-2-3 และ Quattro Pro

    ตลอดหลายทศวรรษที่ผ่านมา Excel ได้เพิ่มฟีเจอร์มากมาย เช่น VBA สำหรับเขียนฟังก์ชันเอง, Pivot Table, แผนภูมิ 3D และ Ribbon Interface ที่เปลี่ยนวิธีการใช้งานไปโดยสิ้นเชิง ล่าสุด Excel ยังได้เสริมพลังด้วย AI ผ่าน Copilot และ Agent Mode ที่ช่วยให้ผู้ใช้สามารถสร้างตารางหรือวิเคราะห์ข้อมูลผ่านคำสั่งธรรมดาได้ทันที

    แต่ในยุคที่การทำงานย้ายเข้าสู่ระบบคลาวด์ Google Sheets กลายเป็นคู่แข่งที่น่ากลัวที่สุด ด้วยความสามารถในการทำงานร่วมกันแบบเรียลไทม์, ใช้งานฟรี, และเข้าถึงได้จากทุกอุปกรณ์โดยไม่ต้องติดตั้งโปรแกรมใด ๆ ทำให้กลุ่มผู้ใช้รุ่นใหม่ โดยเฉพาะในโรงเรียนและธุรกิจขนาดเล็ก หันมาใช้ Google Sheets เป็นหลัก

    แม้ Excel จะยังครองใจองค์กรขนาดใหญ่และงานที่ต้องการความซับซ้อนสูง แต่การเปลี่ยนผ่านสู่ยุคออนไลน์และการทำงานร่วมกันแบบเรียลไทม์กำลังท้าทายตำแหน่งผู้นำของ Excel อย่างจริงจัง

    ข้อมูลสำคัญจากข่าว
    Excel ครบรอบ 40 ปี โดยเริ่มต้นบน Macintosh ในปี 1985
    แซงหน้า Lotus 1-2-3 และ Quattro Pro จนกลายเป็นผู้นำตลาดในยุค 90
    เพิ่มฟีเจอร์สำคัญ เช่น VBA, Pivot Table, Ribbon Interface
    ล่าสุดมี AI Copilot และ Agent Mode ที่ช่วยสร้างตารางผ่านคำสั่งธรรมดา
    Excel ถูกใช้ในงานหลากหลาย ตั้งแต่บัญชีไปจนถึงงานศิลปะและเกม
    มีการแข่งขัน Excel World Championship ที่จัดในลาสเวกัส
    Google Sheets กลายเป็นคู่แข่งสำคัญ ด้วยระบบคลาวด์และการทำงานร่วมกัน
    Excel บนเว็บพยายามตอบโต้ด้วยฟีเจอร์คล้าย Google Sheets

    ข้อมูลเสริมจากภายนอก
    VisiCalc คือโปรแกรม spreadsheet ตัวแรกในปี 1979 บน Apple II
    VBA (Visual Basic for Applications) เป็นภาษาสคริปต์ที่ใช้ใน Excel ตั้งแต่ยุค 90
    Google Sheets ใช้ Google Apps Script ซึ่งคล้ายกับ VBA สำหรับงานอัตโนมัติ
    Excel มีความสามารถในการจัดการข้อมูลขนาดใหญ่ได้ดีกว่า Sheets
    Google Sheets เหมาะกับงานที่ต้องการความร่วมมือและการเข้าถึงจากหลายอุปกรณ์

    https://www.techradar.com/pro/microsoft-excel-turned-40-and-almost-nobody-noticed-worlds-most-popular-spreadsheet-now-faces-tough-competition-from-google-sheets-after-crushing-lotus-1-2-3-and-borland-quattro-pro
    📊 “Excel ครบรอบ 40 ปี — จากเครื่องมือบัญชีสู่เวทีแข่งขันระดับโลก แต่ Google Sheets กำลังเบียดขึ้นแท่น” Microsoft Excel เพิ่งครบรอบ 40 ปีอย่างเงียบ ๆ แม้จะเป็นหนึ่งในซอฟต์แวร์ที่เปลี่ยนโลกการทำงานอย่างมหาศาล ตั้งแต่การจัดการบัญชีไปจนถึงการวิเคราะห์ข้อมูลระดับองค์กร Excel เริ่มต้นในปี 1985 บน Macintosh ด้วยอินเทอร์เฟซแบบกราฟิก ซึ่งถือว่าแหวกแนวจากคู่แข่งที่ยังใช้แบบข้อความอยู่ในยุคนั้น ก่อนจะถูกพอร์ตมาสู่ Windows และกลายเป็นผู้นำตลาดอย่างรวดเร็วในยุค 90 โดยเฉพาะหลังจากแซงหน้า Lotus 1-2-3 และ Quattro Pro ตลอดหลายทศวรรษที่ผ่านมา Excel ได้เพิ่มฟีเจอร์มากมาย เช่น VBA สำหรับเขียนฟังก์ชันเอง, Pivot Table, แผนภูมิ 3D และ Ribbon Interface ที่เปลี่ยนวิธีการใช้งานไปโดยสิ้นเชิง ล่าสุด Excel ยังได้เสริมพลังด้วย AI ผ่าน Copilot และ Agent Mode ที่ช่วยให้ผู้ใช้สามารถสร้างตารางหรือวิเคราะห์ข้อมูลผ่านคำสั่งธรรมดาได้ทันที แต่ในยุคที่การทำงานย้ายเข้าสู่ระบบคลาวด์ Google Sheets กลายเป็นคู่แข่งที่น่ากลัวที่สุด ด้วยความสามารถในการทำงานร่วมกันแบบเรียลไทม์, ใช้งานฟรี, และเข้าถึงได้จากทุกอุปกรณ์โดยไม่ต้องติดตั้งโปรแกรมใด ๆ ทำให้กลุ่มผู้ใช้รุ่นใหม่ โดยเฉพาะในโรงเรียนและธุรกิจขนาดเล็ก หันมาใช้ Google Sheets เป็นหลัก แม้ Excel จะยังครองใจองค์กรขนาดใหญ่และงานที่ต้องการความซับซ้อนสูง แต่การเปลี่ยนผ่านสู่ยุคออนไลน์และการทำงานร่วมกันแบบเรียลไทม์กำลังท้าทายตำแหน่งผู้นำของ Excel อย่างจริงจัง ✅ ข้อมูลสำคัญจากข่าว ➡️ Excel ครบรอบ 40 ปี โดยเริ่มต้นบน Macintosh ในปี 1985 ➡️ แซงหน้า Lotus 1-2-3 และ Quattro Pro จนกลายเป็นผู้นำตลาดในยุค 90 ➡️ เพิ่มฟีเจอร์สำคัญ เช่น VBA, Pivot Table, Ribbon Interface ➡️ ล่าสุดมี AI Copilot และ Agent Mode ที่ช่วยสร้างตารางผ่านคำสั่งธรรมดา ➡️ Excel ถูกใช้ในงานหลากหลาย ตั้งแต่บัญชีไปจนถึงงานศิลปะและเกม ➡️ มีการแข่งขัน Excel World Championship ที่จัดในลาสเวกัส ➡️ Google Sheets กลายเป็นคู่แข่งสำคัญ ด้วยระบบคลาวด์และการทำงานร่วมกัน ➡️ Excel บนเว็บพยายามตอบโต้ด้วยฟีเจอร์คล้าย Google Sheets ✅ ข้อมูลเสริมจากภายนอก ➡️ VisiCalc คือโปรแกรม spreadsheet ตัวแรกในปี 1979 บน Apple II ➡️ VBA (Visual Basic for Applications) เป็นภาษาสคริปต์ที่ใช้ใน Excel ตั้งแต่ยุค 90 ➡️ Google Sheets ใช้ Google Apps Script ซึ่งคล้ายกับ VBA สำหรับงานอัตโนมัติ ➡️ Excel มีความสามารถในการจัดการข้อมูลขนาดใหญ่ได้ดีกว่า Sheets ➡️ Google Sheets เหมาะกับงานที่ต้องการความร่วมมือและการเข้าถึงจากหลายอุปกรณ์ https://www.techradar.com/pro/microsoft-excel-turned-40-and-almost-nobody-noticed-worlds-most-popular-spreadsheet-now-faces-tough-competition-from-google-sheets-after-crushing-lotus-1-2-3-and-borland-quattro-pro
    0 Comments 0 Shares 307 Views 0 Reviews
  • “Google เตรียมบังคับลงทะเบียนนักพัฒนา Android — F-Droid เตือนอาจเป็นจุดจบของแอปโอเพ่นซอร์ส”

    ในเดือนกันยายน 2025 Google ได้ประกาศนโยบายใหม่ที่สร้างแรงสั่นสะเทือนให้กับวงการนักพัฒนา Android ทั่วโลก โดยจะบังคับให้นักพัฒนาแอปทุกคนต้องลงทะเบียนกับ Google เพื่อแจกจ่ายแอปบนอุปกรณ์ Android ที่ได้รับการรับรอง แม้จะเป็นการติดตั้งแบบ sideload ก็ตาม ซึ่งหมายความว่าแม้คุณจะไม่ใช้ Google Play ก็ยังต้องผ่านการตรวจสอบจาก Google อยู่ดี

    การลงทะเบียนนี้ไม่ใช่แค่กรอกชื่อและอีเมล แต่ต้องส่งเอกสารยืนยันตัวตน เช่น บัตรประชาชนหรือหนังสือเดินทาง, จ่ายค่าธรรมเนียม และระบุ “application identifiers” ของทุกแอปที่ต้องการแจกจ่าย ซึ่งสร้างภาระให้กับนักพัฒนาอิสระและโครงการโอเพ่นซอร์สอย่างมาก

    F-Droid ซึ่งเป็นแพลตฟอร์มแจกจ่ายแอปโอเพ่นซอร์สที่ไม่ใช้โฆษณา ไม่ติดตามผู้ใช้ และไม่บังคับให้มีบัญชีผู้ใช้ ออกมาเตือนว่า หากนโยบายนี้ถูกบังคับใช้จริง จะทำให้โครงการ F-Droid ไม่สามารถดำเนินต่อได้ เพราะไม่สามารถ “ยึดสิทธิ์” ของนักพัฒนาในการลงทะเบียนแทนได้ และไม่สามารถบังคับให้นักพัฒนาโอเพ่นซอร์สต้องเปิดเผยตัวตนหรือจ่ายเงินเพื่อแจกจ่ายแอปฟรี

    Google อ้างว่านโยบายนี้มีเป้าหมายเพื่อป้องกันมัลแวร์และสร้างความรับผิดชอบ แต่ F-Droid โต้แย้งว่า Google Play เองก็เคยมีมัลแวร์ที่ถูกดาวน์โหลดไปกว่า 19 ล้านครั้ง และระบบ Play Protect ก็สามารถลบแอปที่เป็นอันตรายได้อยู่แล้วโดยไม่ต้องบังคับลงทะเบียน

    F-Droid จึงเรียกร้องให้หน่วยงานกำกับดูแลในสหรัฐฯ และยุโรปเข้ามาตรวจสอบนโยบายนี้ เพราะอาจเป็นการรวมศูนย์อำนาจและทำลายเสรีภาพของผู้ใช้ในการเลือกซอฟต์แวร์ที่ต้องการใช้งานบนอุปกรณ์ของตนเอง

    ข้อมูลสำคัญจากข่าว
    Google ประกาศนโยบายบังคับให้นักพัฒนา Android ต้องลงทะเบียนเพื่อแจกจ่ายแอป
    รวมถึงการติดตั้งแบบ sideload บนอุปกรณ์ Android ที่ได้รับการรับรอง
    ต้องส่งเอกสารยืนยันตัวตน, จ่ายค่าธรรมเนียม และระบุ application identifiers
    F-Droid เตือนว่าโครงการอาจต้องยุติ หากนโยบายนี้ถูกบังคับใช้
    F-Droid ไม่สามารถลงทะเบียนแทนนักพัฒนา หรือยึดสิทธิ์การแจกจ่ายแอปได้
    Google อ้างว่าเป็นมาตรการป้องกันมัลแวร์และสร้างความรับผิดชอบ
    F-Droid โต้แย้งว่า Google Play เองก็เคยมีมัลแวร์จำนวนมาก
    ระบบ Play Protect สามารถลบแอปอันตรายได้โดยไม่ต้องบังคับลงทะเบียน
    F-Droid เรียกร้องให้หน่วยงานกำกับดูแลเข้ามาตรวจสอบนโยบายนี้

    ข้อมูลเสริมจากภายนอก
    F-Droid เป็นแพลตฟอร์มโอเพ่นซอร์สที่ก่อตั้งในปี 2010 โดยไม่มีโฆษณาและไม่ติดตามผู้ใช้
    แอปใน F-Droid ถูกตรวจสอบโค้ด, คอมไพล์ใหม่ และเซ็นด้วยคีย์ที่ปลอดภัย
    การบังคับลงทะเบียนอาจทำให้ Android กลายเป็นระบบปิดคล้าย iOS
    นักพัฒนาอิสระจำนวนมากไม่สามารถจ่ายค่าธรรมเนียมหรือเปิดเผยตัวตนได้
    การรวมศูนย์การแจกจ่ายแอปอาจลดความหลากหลายและนวัตกรรมในระบบ Android

    https://f-droid.org/2025/09/29/google-developer-registration-decree.html
    📱 “Google เตรียมบังคับลงทะเบียนนักพัฒนา Android — F-Droid เตือนอาจเป็นจุดจบของแอปโอเพ่นซอร์ส” ในเดือนกันยายน 2025 Google ได้ประกาศนโยบายใหม่ที่สร้างแรงสั่นสะเทือนให้กับวงการนักพัฒนา Android ทั่วโลก โดยจะบังคับให้นักพัฒนาแอปทุกคนต้องลงทะเบียนกับ Google เพื่อแจกจ่ายแอปบนอุปกรณ์ Android ที่ได้รับการรับรอง แม้จะเป็นการติดตั้งแบบ sideload ก็ตาม ซึ่งหมายความว่าแม้คุณจะไม่ใช้ Google Play ก็ยังต้องผ่านการตรวจสอบจาก Google อยู่ดี การลงทะเบียนนี้ไม่ใช่แค่กรอกชื่อและอีเมล แต่ต้องส่งเอกสารยืนยันตัวตน เช่น บัตรประชาชนหรือหนังสือเดินทาง, จ่ายค่าธรรมเนียม และระบุ “application identifiers” ของทุกแอปที่ต้องการแจกจ่าย ซึ่งสร้างภาระให้กับนักพัฒนาอิสระและโครงการโอเพ่นซอร์สอย่างมาก F-Droid ซึ่งเป็นแพลตฟอร์มแจกจ่ายแอปโอเพ่นซอร์สที่ไม่ใช้โฆษณา ไม่ติดตามผู้ใช้ และไม่บังคับให้มีบัญชีผู้ใช้ ออกมาเตือนว่า หากนโยบายนี้ถูกบังคับใช้จริง จะทำให้โครงการ F-Droid ไม่สามารถดำเนินต่อได้ เพราะไม่สามารถ “ยึดสิทธิ์” ของนักพัฒนาในการลงทะเบียนแทนได้ และไม่สามารถบังคับให้นักพัฒนาโอเพ่นซอร์สต้องเปิดเผยตัวตนหรือจ่ายเงินเพื่อแจกจ่ายแอปฟรี Google อ้างว่านโยบายนี้มีเป้าหมายเพื่อป้องกันมัลแวร์และสร้างความรับผิดชอบ แต่ F-Droid โต้แย้งว่า Google Play เองก็เคยมีมัลแวร์ที่ถูกดาวน์โหลดไปกว่า 19 ล้านครั้ง และระบบ Play Protect ก็สามารถลบแอปที่เป็นอันตรายได้อยู่แล้วโดยไม่ต้องบังคับลงทะเบียน F-Droid จึงเรียกร้องให้หน่วยงานกำกับดูแลในสหรัฐฯ และยุโรปเข้ามาตรวจสอบนโยบายนี้ เพราะอาจเป็นการรวมศูนย์อำนาจและทำลายเสรีภาพของผู้ใช้ในการเลือกซอฟต์แวร์ที่ต้องการใช้งานบนอุปกรณ์ของตนเอง ✅ ข้อมูลสำคัญจากข่าว ➡️ Google ประกาศนโยบายบังคับให้นักพัฒนา Android ต้องลงทะเบียนเพื่อแจกจ่ายแอป ➡️ รวมถึงการติดตั้งแบบ sideload บนอุปกรณ์ Android ที่ได้รับการรับรอง ➡️ ต้องส่งเอกสารยืนยันตัวตน, จ่ายค่าธรรมเนียม และระบุ application identifiers ➡️ F-Droid เตือนว่าโครงการอาจต้องยุติ หากนโยบายนี้ถูกบังคับใช้ ➡️ F-Droid ไม่สามารถลงทะเบียนแทนนักพัฒนา หรือยึดสิทธิ์การแจกจ่ายแอปได้ ➡️ Google อ้างว่าเป็นมาตรการป้องกันมัลแวร์และสร้างความรับผิดชอบ ➡️ F-Droid โต้แย้งว่า Google Play เองก็เคยมีมัลแวร์จำนวนมาก ➡️ ระบบ Play Protect สามารถลบแอปอันตรายได้โดยไม่ต้องบังคับลงทะเบียน ➡️ F-Droid เรียกร้องให้หน่วยงานกำกับดูแลเข้ามาตรวจสอบนโยบายนี้ ✅ ข้อมูลเสริมจากภายนอก ➡️ F-Droid เป็นแพลตฟอร์มโอเพ่นซอร์สที่ก่อตั้งในปี 2010 โดยไม่มีโฆษณาและไม่ติดตามผู้ใช้ ➡️ แอปใน F-Droid ถูกตรวจสอบโค้ด, คอมไพล์ใหม่ และเซ็นด้วยคีย์ที่ปลอดภัย ➡️ การบังคับลงทะเบียนอาจทำให้ Android กลายเป็นระบบปิดคล้าย iOS ➡️ นักพัฒนาอิสระจำนวนมากไม่สามารถจ่ายค่าธรรมเนียมหรือเปิดเผยตัวตนได้ ➡️ การรวมศูนย์การแจกจ่ายแอปอาจลดความหลากหลายและนวัตกรรมในระบบ Android https://f-droid.org/2025/09/29/google-developer-registration-decree.html
    F-DROID.ORG
    F-Droid and Google's Developer Registration Decree | F-Droid - Free and Open Source Android App Repository
    For the past 15 years, F-Droidhas provided a safe and secure haven for Android users around the world tofind and install free and open source apps. When cont...
    0 Comments 0 Shares 173 Views 0 Reviews
  • “พบช่องโหว่ DLL Hijacking ใน Notepad++ v8.8.3 — เปิดทางรันโค้ดอันตรายแบบแนบเนียน พร้อม PoC บน GitHub”

    ช่องโหว่ใหม่ที่ถูกเปิดเผยใน Notepad++ เวอร์ชัน 8.8.3 ได้รับรหัส CVE-2025-56383 โดยเป็นช่องโหว่แบบ DLL Hijacking ซึ่งเปิดโอกาสให้ผู้โจมตีสามารถแทรกโค้ดอันตรายเข้าไปในโปรแกรมได้อย่างแนบเนียน โดยการแทนที่ไฟล์ DLL ที่โปรแกรมโหลดอัตโนมัติ เช่น NppExport.dll ด้วยไฟล์ DLL ปลอมที่มีโค้ดอันตรายแฝงอยู่

    เมื่อผู้ใช้เปิด Notepad++ โปรแกรมจะโหลด DLL ปลอมแทนของจริง และรันโค้ดอันตรายทันที โดยยังคงฟังก์ชันเดิมไว้ผ่านการ forward ไปยัง DLL ต้นฉบับ ทำให้ผู้ใช้ไม่รู้ตัวว่าเกิดการโจมตีขึ้น

    ช่องโหว่นี้ต้องอาศัยการเข้าถึงเครื่องในระดับ local หรือสามารถวางไฟล์ DLL ในโฟลเดอร์ติดตั้งของ Notepad++ ได้ ซึ่งอาจเกิดจากการโจมตีแบบ supply chain, installer ที่ถูกฝังมัลแวร์ หรือแม้แต่ภัยจากคนในองค์กรเอง

    มีการเผยแพร่ Proof-of-Concept (PoC) บน GitHub พร้อมภาพแสดงขั้นตอนการโจมตี ทำให้ช่องโหว่นี้มีความเสี่ยงสูงต่อการถูกนำไปใช้จริง โดยเฉพาะเมื่อ Notepad++ เป็นเครื่องมือยอดนิยมในหมู่นักพัฒนาและผู้ดูแลระบบ

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ CVE-2025-56383 เป็น DLL Hijacking ใน Notepad++ v8.8.3
    ผู้โจมตีสามารถแทนที่ DLL เช่น NppExport.dll ด้วย DLL ปลอมที่มีโค้ดอันตราย
    เมื่อเปิดโปรแกรม Notepad++ โค้ดอันตรายจะถูกรันทันที
    DLL ปลอมยังคงฟังก์ชันเดิมไว้ผ่านการ forward ไปยัง DLL จริง
    ช่องโหว่นี้ต้องอาศัยการเข้าถึงเครื่องหรือวางไฟล์ในโฟลเดอร์ติดตั้ง
    มีการเผยแพร่ PoC บน GitHub พร้อมภาพแสดงการโจมตี
    ช่องโหว่นี้เพิ่มความเสี่ยงต่อการโจมตีแบบ persistence และ privilege escalation
    อาจถูกใช้ในแคมเปญ supply chain, installer ปลอม หรือภัยจากคนในองค์กร
    Notepad++ เป็นเครื่องมือที่มีผู้ใช้งานจำนวนมากในสายงานเทคนิค

    ข้อมูลเสริมจากภายนอก
    DLL Hijacking เป็นเทคนิคที่ใช้กันมานานในการโจมตี Windows application
    โปรแกรมที่โหลด DLL โดยไม่ระบุ path แบบปลอดภัยมีความเสี่ยงสูง
    การ forward ฟังก์ชันไปยัง DLL จริงช่วยให้ผู้ใช้ไม่รู้ตัวว่าเกิดการโจมตี
    ช่องโหว่ลักษณะนี้มักถูกใช้ร่วมกับมัลแวร์เพื่อสร้าง persistence
    การตรวจสอบ integrity ของ DLL และการจำกัดสิทธิ์การเขียนไฟล์ในโฟลเดอร์ติดตั้งเป็นแนวทางป้องกัน

    https://securityonline.info/dll-hijacking-flaw-cve-2025-56383-found-in-notepad-allowing-arbitrary-code-execution-poc-available/
    🛠️ “พบช่องโหว่ DLL Hijacking ใน Notepad++ v8.8.3 — เปิดทางรันโค้ดอันตรายแบบแนบเนียน พร้อม PoC บน GitHub” ช่องโหว่ใหม่ที่ถูกเปิดเผยใน Notepad++ เวอร์ชัน 8.8.3 ได้รับรหัส CVE-2025-56383 โดยเป็นช่องโหว่แบบ DLL Hijacking ซึ่งเปิดโอกาสให้ผู้โจมตีสามารถแทรกโค้ดอันตรายเข้าไปในโปรแกรมได้อย่างแนบเนียน โดยการแทนที่ไฟล์ DLL ที่โปรแกรมโหลดอัตโนมัติ เช่น NppExport.dll ด้วยไฟล์ DLL ปลอมที่มีโค้ดอันตรายแฝงอยู่ เมื่อผู้ใช้เปิด Notepad++ โปรแกรมจะโหลด DLL ปลอมแทนของจริง และรันโค้ดอันตรายทันที โดยยังคงฟังก์ชันเดิมไว้ผ่านการ forward ไปยัง DLL ต้นฉบับ ทำให้ผู้ใช้ไม่รู้ตัวว่าเกิดการโจมตีขึ้น ช่องโหว่นี้ต้องอาศัยการเข้าถึงเครื่องในระดับ local หรือสามารถวางไฟล์ DLL ในโฟลเดอร์ติดตั้งของ Notepad++ ได้ ซึ่งอาจเกิดจากการโจมตีแบบ supply chain, installer ที่ถูกฝังมัลแวร์ หรือแม้แต่ภัยจากคนในองค์กรเอง มีการเผยแพร่ Proof-of-Concept (PoC) บน GitHub พร้อมภาพแสดงขั้นตอนการโจมตี ทำให้ช่องโหว่นี้มีความเสี่ยงสูงต่อการถูกนำไปใช้จริง โดยเฉพาะเมื่อ Notepad++ เป็นเครื่องมือยอดนิยมในหมู่นักพัฒนาและผู้ดูแลระบบ ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ CVE-2025-56383 เป็น DLL Hijacking ใน Notepad++ v8.8.3 ➡️ ผู้โจมตีสามารถแทนที่ DLL เช่น NppExport.dll ด้วย DLL ปลอมที่มีโค้ดอันตราย ➡️ เมื่อเปิดโปรแกรม Notepad++ โค้ดอันตรายจะถูกรันทันที ➡️ DLL ปลอมยังคงฟังก์ชันเดิมไว้ผ่านการ forward ไปยัง DLL จริง ➡️ ช่องโหว่นี้ต้องอาศัยการเข้าถึงเครื่องหรือวางไฟล์ในโฟลเดอร์ติดตั้ง ➡️ มีการเผยแพร่ PoC บน GitHub พร้อมภาพแสดงการโจมตี ➡️ ช่องโหว่นี้เพิ่มความเสี่ยงต่อการโจมตีแบบ persistence และ privilege escalation ➡️ อาจถูกใช้ในแคมเปญ supply chain, installer ปลอม หรือภัยจากคนในองค์กร ➡️ Notepad++ เป็นเครื่องมือที่มีผู้ใช้งานจำนวนมากในสายงานเทคนิค ✅ ข้อมูลเสริมจากภายนอก ➡️ DLL Hijacking เป็นเทคนิคที่ใช้กันมานานในการโจมตี Windows application ➡️ โปรแกรมที่โหลด DLL โดยไม่ระบุ path แบบปลอดภัยมีความเสี่ยงสูง ➡️ การ forward ฟังก์ชันไปยัง DLL จริงช่วยให้ผู้ใช้ไม่รู้ตัวว่าเกิดการโจมตี ➡️ ช่องโหว่ลักษณะนี้มักถูกใช้ร่วมกับมัลแวร์เพื่อสร้าง persistence ➡️ การตรวจสอบ integrity ของ DLL และการจำกัดสิทธิ์การเขียนไฟล์ในโฟลเดอร์ติดตั้งเป็นแนวทางป้องกัน https://securityonline.info/dll-hijacking-flaw-cve-2025-56383-found-in-notepad-allowing-arbitrary-code-execution-poc-available/
    SECURITYONLINE.INFO
    DLL Hijacking Flaw (CVE-2025-56383) Found in Notepad++, Allowing Arbitrary Code Execution, PoC Available
    A DLL hijacking flaw (CVE-2025-56383) in Notepad++ v8.8.3 allows attackers to replace a trusted DLL with a malicious one to execute arbitrary code.
    0 Comments 0 Shares 145 Views 0 Reviews
  • CV vs. Resume: What Are The Differences?

    When applying for jobs, you’ll need to prove to prospective employers that you have plenty of experience and accomplishments. In order to do this, you’ll need to show them either a CV or a resume. For American workers, these two terms are often used interchangeably to refer to a document that lists a person’s past work and major accomplishments. However, there are several differences between the two and confusing one for the other could majorly hurt your chances of landing that coveted position. To avoid disaster, let’s learn more about the difference between a CV and a resume.

    What is a CV?
    CV is short for curriculum vitae. A CV is a document that lists in detail a person’s education, certifications, professional background, professional expertise, publications (books, research papers, etc.), teaching experience, presentations, awards, grants, and research projects. A CV is compiled by a person applying for a job, fellowship, grant, or international career position.

    Typically, a CV is tailored to fit whatever position a person is applying for, with more relevant or valuable skills and experiences prioritized over others. A CV usually begins with a person’s educational qualifications, such as university degrees, fellowships, grants, and teaching experience. Most CVs are quite long and detailed, often listing many years worth of a person’s accomplishments and published works. Depending on the person, a CV that lists all of a person’s published books, lectures, and research papers could potentially be many pages in length.

    CV vs. resume
    In general, CVs and resumes often contain similar information, are often both used to apply for jobs, and are both used to list a person’s experiences, skills, and accomplishments. The main differences between the two often have to do with length, what information is specifically listed, and what type of position a person is applying for. The purpose and specifics of CVs and resumes also vary depending on whether a person lives/works in the US/Canada versus another country.

    When to use a CV
    While it depends on the specific occasion, CVs are typically used in the United States and Canada when a person is applying for a fellowship, grant, or a job specifically in academia, medicine, or a research field. All of these are typically more concerned with a person’s credentials and expertise and thus require a detailed account of a person’s educational and research background.

    Outside of the US and Canada, CVs are typically used as the standard document that a person submits when applying to a job in any field. If an American or Canadian citizen is applying for an international position, they will typically need to submit a CV rather than a resume.

    When to use a resume
    In general, a resume is the document that most American and Canadian companies expect from an applicant looking for a job. Besides the particular fields mentioned above, most businesses in America and Canada will ask an applicant to submit a resume rather than a CV. Generally speaking, businesses are more interested in an applicant’s career experiences, prior jobs, training, skills, and career accomplishments than academic accomplishments.

    When applying for a job, most Americans and Canadians will be required to submit a resume (and possibly a cover letter). This shorter, more concise document is often preferred if a company uses automated review software or receives a large number of applications.

    Most of the time, an organization will make it clear whether they require a CV, resume, or even both. If you live in Canada or the US, you should expect to need a resume most of the time. If you live anywhere else, you should expect to write a CV. If you are unsure which is needed, it is best to ask for clarification.

    What is a resume?
    A resume is a summary of a person’s past work experience, career accomplishments, personal accomplishments, skills, and qualifications. A resume is the document that Americans and Canadians need to have when applying for most jobs.

    Like a CV, a resume is typically adjusted to fit the specific job that a person is applying for, with more important or relevant experiences and accomplishments given priority. Typically, resumes are relatively short, usually only being one or two pages in length. In general, resumes lead with job histories and career accomplishments. While CVs tend to emphasize a person’s academic credentials, a resume tends to focus much more on what a person has done in their past work and how they can use that to succeed at a new job.

    In our comprehensive resume guide, we’ve provided three sample resumes you can use to follow along in this series and create your own format.

    CV vs. resume
    In general, CVs and resumes often contain similar information, are often both used to apply for jobs, and are both used to list a person’s experiences, skills, and accomplishments. The main differences between the two often have to do with length, what information is specifically listed, and what type of position a person is applying for. The purpose and specifics of CVs and resumes also vary depending on whether a person lives/works in the US/Canada versus another country.

    When to use a CV
    While it depends on the specific occasion, CVs are typically used in the United States and Canada when a person is applying for a fellowship, grant, or a job specifically in academia, medicine, or a research field. All of these are typically more concerned with a person’s credentials and expertise and thus require a detailed account of a person’s educational and research background.

    Outside of the US and Canada, CVs are typically used as the standard document that a person submits when applying to a job in any field. If an American or Canadian citizen is applying for an international position, they will typically need to submit a CV rather than a resume.

    When to use a resume
    In general, a resume is the document that most American and Canadian companies expect from an applicant looking for a job. Besides the particular fields mentioned above, most businesses in America and Canada will ask an applicant to submit a resume rather than a CV. Generally speaking, businesses are more interested in an applicant’s career experiences, prior jobs, training, skills, and career accomplishments than academic accomplishments.

    When applying for a job, most Americans and Canadians will be required to submit a resume (and possibly a cover letter). This shorter, more concise document is often preferred if a company uses automated review software or receives a large number of applications.

    Most of the time, an organization will make it clear whether they require a CV, resume, or even both. If you live in Canada or the US, you should expect to need a resume most of the time. If you live anywhere else, you should expect to write a CV. If you are unsure which is needed, it is best to ask for clarification.

    © 2025, Aakkhra, All rights reserved.
    CV vs. Resume: What Are The Differences? When applying for jobs, you’ll need to prove to prospective employers that you have plenty of experience and accomplishments. In order to do this, you’ll need to show them either a CV or a resume. For American workers, these two terms are often used interchangeably to refer to a document that lists a person’s past work and major accomplishments. However, there are several differences between the two and confusing one for the other could majorly hurt your chances of landing that coveted position. To avoid disaster, let’s learn more about the difference between a CV and a resume. What is a CV? CV is short for curriculum vitae. A CV is a document that lists in detail a person’s education, certifications, professional background, professional expertise, publications (books, research papers, etc.), teaching experience, presentations, awards, grants, and research projects. A CV is compiled by a person applying for a job, fellowship, grant, or international career position. Typically, a CV is tailored to fit whatever position a person is applying for, with more relevant or valuable skills and experiences prioritized over others. A CV usually begins with a person’s educational qualifications, such as university degrees, fellowships, grants, and teaching experience. Most CVs are quite long and detailed, often listing many years worth of a person’s accomplishments and published works. Depending on the person, a CV that lists all of a person’s published books, lectures, and research papers could potentially be many pages in length. CV vs. resume In general, CVs and resumes often contain similar information, are often both used to apply for jobs, and are both used to list a person’s experiences, skills, and accomplishments. The main differences between the two often have to do with length, what information is specifically listed, and what type of position a person is applying for. The purpose and specifics of CVs and resumes also vary depending on whether a person lives/works in the US/Canada versus another country. When to use a CV While it depends on the specific occasion, CVs are typically used in the United States and Canada when a person is applying for a fellowship, grant, or a job specifically in academia, medicine, or a research field. All of these are typically more concerned with a person’s credentials and expertise and thus require a detailed account of a person’s educational and research background. Outside of the US and Canada, CVs are typically used as the standard document that a person submits when applying to a job in any field. If an American or Canadian citizen is applying for an international position, they will typically need to submit a CV rather than a resume. When to use a resume In general, a resume is the document that most American and Canadian companies expect from an applicant looking for a job. Besides the particular fields mentioned above, most businesses in America and Canada will ask an applicant to submit a resume rather than a CV. Generally speaking, businesses are more interested in an applicant’s career experiences, prior jobs, training, skills, and career accomplishments than academic accomplishments. When applying for a job, most Americans and Canadians will be required to submit a resume (and possibly a cover letter). This shorter, more concise document is often preferred if a company uses automated review software or receives a large number of applications. Most of the time, an organization will make it clear whether they require a CV, resume, or even both. If you live in Canada or the US, you should expect to need a resume most of the time. If you live anywhere else, you should expect to write a CV. If you are unsure which is needed, it is best to ask for clarification. What is a resume? A resume is a summary of a person’s past work experience, career accomplishments, personal accomplishments, skills, and qualifications. A resume is the document that Americans and Canadians need to have when applying for most jobs. Like a CV, a resume is typically adjusted to fit the specific job that a person is applying for, with more important or relevant experiences and accomplishments given priority. Typically, resumes are relatively short, usually only being one or two pages in length. In general, resumes lead with job histories and career accomplishments. While CVs tend to emphasize a person’s academic credentials, a resume tends to focus much more on what a person has done in their past work and how they can use that to succeed at a new job. In our comprehensive resume guide, we’ve provided three sample resumes you can use to follow along in this series and create your own format. CV vs. resume In general, CVs and resumes often contain similar information, are often both used to apply for jobs, and are both used to list a person’s experiences, skills, and accomplishments. The main differences between the two often have to do with length, what information is specifically listed, and what type of position a person is applying for. The purpose and specifics of CVs and resumes also vary depending on whether a person lives/works in the US/Canada versus another country. When to use a CV While it depends on the specific occasion, CVs are typically used in the United States and Canada when a person is applying for a fellowship, grant, or a job specifically in academia, medicine, or a research field. All of these are typically more concerned with a person’s credentials and expertise and thus require a detailed account of a person’s educational and research background. Outside of the US and Canada, CVs are typically used as the standard document that a person submits when applying to a job in any field. If an American or Canadian citizen is applying for an international position, they will typically need to submit a CV rather than a resume. When to use a resume In general, a resume is the document that most American and Canadian companies expect from an applicant looking for a job. Besides the particular fields mentioned above, most businesses in America and Canada will ask an applicant to submit a resume rather than a CV. Generally speaking, businesses are more interested in an applicant’s career experiences, prior jobs, training, skills, and career accomplishments than academic accomplishments. When applying for a job, most Americans and Canadians will be required to submit a resume (and possibly a cover letter). This shorter, more concise document is often preferred if a company uses automated review software or receives a large number of applications. Most of the time, an organization will make it clear whether they require a CV, resume, or even both. If you live in Canada or the US, you should expect to need a resume most of the time. If you live anywhere else, you should expect to write a CV. If you are unsure which is needed, it is best to ask for clarification. © 2025, Aakkhra, All rights reserved.
    0 Comments 0 Shares 440 Views 0 Reviews
  • “AMD EPYC Embedded 4005: ซีพียูขอบระบบที่ไม่ธรรมดา — Zen 5 บน AM5 เพื่อโลกที่ต้องการความเร็วและความเสถียร”

    AMD เปิดตัวซีพียูตระกูล EPYC Embedded 4005 อย่างเป็นทางการในเดือนกันยายน 2025 โดยมุ่งเป้าไปที่ตลาด edge computing, ระบบรักษาความปลอดภัยเครือข่าย และเซิร์ฟเวอร์อุตสาหกรรมระดับเริ่มต้น จุดเด่นของซีรีส์นี้คือการนำสถาปัตยกรรม Zen 5 มาใช้บนแพลตฟอร์ม AM5 ซึ่งเป็นซ็อกเก็ตเดียวกับ Ryzen รุ่นทั่วไป แต่ปรับแต่งให้เหมาะกับงานฝังตัวที่ต้องการความเสถียรและอายุการใช้งานยาวนาน

    EPYC Embedded 4005 ใช้เทคโนโลยีการผลิตแบบ chiplet ขนาด 4 นาโนเมตร รองรับสูงสุด 16 คอร์ 32 เธรด พร้อม L3 cache สูงสุด 128MB และ TDP ที่ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อให้เหมาะกับงานที่หลากหลาย ตั้งแต่ไฟร์วอลล์รุ่นใหม่ไปจนถึงระบบควบคุมแบบเรียลไทม์ในโรงงาน

    ซีพียูรุ่นนี้รองรับ DDR5-5600 แบบ ECC, PCIe Gen 5 จำนวน 28 เลน และชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต ซึ่งช่วยเพิ่มประสิทธิภาพในการประมวลผล AI inference และงานที่ต้องการ vector computing เช่น การวิเคราะห์ภาพ, การประมวลผล JSON หรือฐานข้อมูล PostgreSQL

    จุดแข็งอีกด้านคือการรับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS (Reliability, Availability, Serviceability) เช่น ECC บน DRAM และ PCIe, parity บนชิป และการตรวจจับข้อผิดพลาดแบบ built-in ซึ่งเหมาะกับระบบที่ต้องการ uptime สูงและการบำรุงรักษาต่ำ

    AMD ยังออกแบบให้ EPYC Embedded 4005 ใช้ซ็อกเก็ต AM5 ร่วมกับซีพียู Ryzen ทำให้สามารถใช้เมนบอร์ดเดิมได้ ลดต้นทุนการออกแบบ และเพิ่มความยืดหยุ่นในการอัปเกรดระบบในอนาคต โดยเฉพาะในกลุ่ม SMB และผู้ให้บริการ hosting ที่ต้องการระบบที่คุ้มค่าแต่มีความสามารถระดับองค์กร

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว EPYC Embedded 4005 สำหรับงาน edge และระบบฝังตัว
    ใช้ Zen 5 บนแพลตฟอร์ม AM5 พร้อมเทคโนโลยี chiplet ขนาด 4 นาโนเมตร
    รองรับสูงสุด 16 คอร์ 32 เธรด, L3 cache สูงสุด 128MB
    TDP ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อรองรับงานหลากหลาย

    จุดเด่นด้านเทคโนโลยี
    รองรับ DDR5-5600 ECC และ PCIe Gen 5 จำนวน 28 เลน
    มีชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต สำหรับงาน AI และ HPC
    รับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS ครบถ้วน
    ใช้ซ็อกเก็ต AM5 ร่วมกับ Ryzen ทำให้ลดต้นทุนและเพิ่มความยืดหยุ่น

    ข้อมูลเสริมจากภายนอก
    EPYC 4005 เป็นรุ่นต่อยอดจาก EPYC 4004 โดยเพิ่มความเร็วแรมและชุดคำสั่ง
    มีรุ่น 16 คอร์ TDP 65W สำหรับงานที่ต้องการประสิทธิภาพแต่ประหยัดพลังงาน
    เหมาะกับงานไฟร์วอลล์, NAS, เซิร์ฟเวอร์ SMB และระบบควบคุมอุตสาหกรรม
    แข่งกับ Intel Xeon E และ Xeon 6300P ซึ่งยังจำกัดที่ 8 คอร์และ DDR5-4800

    คำเตือนและข้อจำกัด
    แม้จะใช้ AM5 แต่ EPYC Embedded 4005 ต้องใช้ BIOS ที่รองรับ ECC และฟีเจอร์ RAS
    ชุดคำสั่ง AVX-512 อาจไม่ถูกใช้งานเต็มประสิทธิภาพในซอฟต์แวร์ทั่วไป
    การใช้งานในระบบฝังตัวต้องพิจารณาเรื่องความร้อนและการระบายอากาศอย่างรอบคอบ
    แม้จะรับประกันการผลิต 7 ปี แต่การสนับสนุนด้านซอฟต์แวร์อาจขึ้นอยู่กับผู้ผลิตเมนบอร์ด
    ราคาของรุ่นสูงสุดอาจใกล้เคียงกับ Xeon ระดับกลาง ทำให้ต้องเปรียบเทียบอย่างละเอียดก่อนเลือกใช้งาน

    https://www.techpowerup.com/341063/amd-introduces-epyc-embedded-4005-processors-for-low-latency-applications-at-the-edge
    🧩 “AMD EPYC Embedded 4005: ซีพียูขอบระบบที่ไม่ธรรมดา — Zen 5 บน AM5 เพื่อโลกที่ต้องการความเร็วและความเสถียร” AMD เปิดตัวซีพียูตระกูล EPYC Embedded 4005 อย่างเป็นทางการในเดือนกันยายน 2025 โดยมุ่งเป้าไปที่ตลาด edge computing, ระบบรักษาความปลอดภัยเครือข่าย และเซิร์ฟเวอร์อุตสาหกรรมระดับเริ่มต้น จุดเด่นของซีรีส์นี้คือการนำสถาปัตยกรรม Zen 5 มาใช้บนแพลตฟอร์ม AM5 ซึ่งเป็นซ็อกเก็ตเดียวกับ Ryzen รุ่นทั่วไป แต่ปรับแต่งให้เหมาะกับงานฝังตัวที่ต้องการความเสถียรและอายุการใช้งานยาวนาน EPYC Embedded 4005 ใช้เทคโนโลยีการผลิตแบบ chiplet ขนาด 4 นาโนเมตร รองรับสูงสุด 16 คอร์ 32 เธรด พร้อม L3 cache สูงสุด 128MB และ TDP ที่ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อให้เหมาะกับงานที่หลากหลาย ตั้งแต่ไฟร์วอลล์รุ่นใหม่ไปจนถึงระบบควบคุมแบบเรียลไทม์ในโรงงาน ซีพียูรุ่นนี้รองรับ DDR5-5600 แบบ ECC, PCIe Gen 5 จำนวน 28 เลน และชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต ซึ่งช่วยเพิ่มประสิทธิภาพในการประมวลผล AI inference และงานที่ต้องการ vector computing เช่น การวิเคราะห์ภาพ, การประมวลผล JSON หรือฐานข้อมูล PostgreSQL จุดแข็งอีกด้านคือการรับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS (Reliability, Availability, Serviceability) เช่น ECC บน DRAM และ PCIe, parity บนชิป และการตรวจจับข้อผิดพลาดแบบ built-in ซึ่งเหมาะกับระบบที่ต้องการ uptime สูงและการบำรุงรักษาต่ำ AMD ยังออกแบบให้ EPYC Embedded 4005 ใช้ซ็อกเก็ต AM5 ร่วมกับซีพียู Ryzen ทำให้สามารถใช้เมนบอร์ดเดิมได้ ลดต้นทุนการออกแบบ และเพิ่มความยืดหยุ่นในการอัปเกรดระบบในอนาคต โดยเฉพาะในกลุ่ม SMB และผู้ให้บริการ hosting ที่ต้องการระบบที่คุ้มค่าแต่มีความสามารถระดับองค์กร ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว EPYC Embedded 4005 สำหรับงาน edge และระบบฝังตัว ➡️ ใช้ Zen 5 บนแพลตฟอร์ม AM5 พร้อมเทคโนโลยี chiplet ขนาด 4 นาโนเมตร ➡️ รองรับสูงสุด 16 คอร์ 32 เธรด, L3 cache สูงสุด 128MB ➡️ TDP ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อรองรับงานหลากหลาย ✅ จุดเด่นด้านเทคโนโลยี ➡️ รองรับ DDR5-5600 ECC และ PCIe Gen 5 จำนวน 28 เลน ➡️ มีชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต สำหรับงาน AI และ HPC ➡️ รับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS ครบถ้วน ➡️ ใช้ซ็อกเก็ต AM5 ร่วมกับ Ryzen ทำให้ลดต้นทุนและเพิ่มความยืดหยุ่น ✅ ข้อมูลเสริมจากภายนอก ➡️ EPYC 4005 เป็นรุ่นต่อยอดจาก EPYC 4004 โดยเพิ่มความเร็วแรมและชุดคำสั่ง ➡️ มีรุ่น 16 คอร์ TDP 65W สำหรับงานที่ต้องการประสิทธิภาพแต่ประหยัดพลังงาน ➡️ เหมาะกับงานไฟร์วอลล์, NAS, เซิร์ฟเวอร์ SMB และระบบควบคุมอุตสาหกรรม ➡️ แข่งกับ Intel Xeon E และ Xeon 6300P ซึ่งยังจำกัดที่ 8 คอร์และ DDR5-4800 ‼️ คำเตือนและข้อจำกัด ⛔ แม้จะใช้ AM5 แต่ EPYC Embedded 4005 ต้องใช้ BIOS ที่รองรับ ECC และฟีเจอร์ RAS ⛔ ชุดคำสั่ง AVX-512 อาจไม่ถูกใช้งานเต็มประสิทธิภาพในซอฟต์แวร์ทั่วไป ⛔ การใช้งานในระบบฝังตัวต้องพิจารณาเรื่องความร้อนและการระบายอากาศอย่างรอบคอบ ⛔ แม้จะรับประกันการผลิต 7 ปี แต่การสนับสนุนด้านซอฟต์แวร์อาจขึ้นอยู่กับผู้ผลิตเมนบอร์ด ⛔ ราคาของรุ่นสูงสุดอาจใกล้เคียงกับ Xeon ระดับกลาง ทำให้ต้องเปรียบเทียบอย่างละเอียดก่อนเลือกใช้งาน https://www.techpowerup.com/341063/amd-introduces-epyc-embedded-4005-processors-for-low-latency-applications-at-the-edge
    WWW.TECHPOWERUP.COM
    AMD Introduces EPYC Embedded 4005 Processors for Low-Latency Applications at the Edge
    AMD today announced the EPYC Embedded 4005 Series processors, purpose-built to address rising demand for real-time compute performance, optimized system costs and extended deployment lifecycles in network security appliances and entry-level industrial edge servers. Built on proven AMD server technol...
    0 Comments 0 Shares 232 Views 0 Reviews
  • เรื่องเล่าจาก Arrow Lake ถึง Metro Exodus: เมื่อการปรับแต่งระดับซอฟต์แวร์กลายเป็นตัวเร่งเกมที่ทรงพลัง

    Intel ได้ปล่อยอัปเดตใหม่สำหรับฟีเจอร์ Application Optimization (APO) ซึ่งเป็นระบบที่ช่วยปรับแต่งการทำงานของ CPU ให้เหมาะกับเกมแต่ละเกมโดยเฉพาะ โดยอัปเดตล่าสุดในเดือนกันยายน 2025 นี้ได้เพิ่มเกมใหม่เข้าไปอีก 15 เกม รวมถึง Metro Exodus Enhanced Edition, God of War, Dyson Sphere Program และ EA Sports FC 24

    ฟีเจอร์ APO นี้รองรับเฉพาะ CPU รุ่นใหม่ ได้แก่ Core Ultra 200 series และ Arrow Lake (14th Gen) โดยเฉพาะรุ่นที่มีรหัส “K” และ HX ซึ่งเป็นรุ่นที่เน้นประสิทธิภาพสูง ทั้งในเดสก์ท็อปและโน้ตบุ๊ก

    Intel ระบุว่าการเปิดใช้งาน APO จะช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 14% ในบางเกม และยังช่วยให้ค่า 1% lows (เฟรมเรตต่ำสุดที่เกิดขึ้นระหว่างเล่น) ดีขึ้นอย่างเห็นได้ชัด ซึ่งหมายถึงประสบการณ์เล่นเกมที่ลื่นไหลมากขึ้น แม้ในฉากที่มีการประมวลผลหนัก

    เพื่อเปิดใช้งาน APO ผู้ใช้ต้องติดตั้ง Intel Dynamic Tuning Technology (DTT) จากเว็บไซต์ของผู้ผลิตเมนบอร์ด และสามารถจัดการการตั้งค่า APO รายเกมได้ผ่านแอป Intel APO UI ที่ดาวน์โหลดจาก Microsoft Store

    นอกจากนี้ Intel ยังระบุว่า APO จะได้รับการอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามาในฐานข้อมูล ซึ่งหมายความว่าผู้ใช้ไม่ต้องติดตั้งใหม่ทุกครั้ง

    รายละเอียดของ APO Update ล่าสุด
    เพิ่มเกมใหม่ 15 เกม เช่น Metro Exodus, God of War, FC 24
    รองรับ CPU Arrow Lake และ Core Ultra 200 เฉพาะรุ่น K และ HX
    เพิ่มประสิทธิภาพได้สูงสุด 14% และปรับปรุงค่า 1% lows

    วิธีเปิดใช้งาน APO
    ติดตั้ง Intel DTT จากเว็บไซต์ผู้ผลิตเมนบอร์ด
    ดาวน์โหลด Intel APO UI จาก Microsoft Store เพื่อจัดการรายเกม
    ได้รับอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามา

    ผลกระทบต่อประสบการณ์เล่นเกม
    เฟรมเรตลื่นขึ้นในฉากที่มีการประมวลผลหนัก
    ลดอาการกระตุกหรือ drop frame ในเกมที่ซับซ้อน
    ไม่ต้องเปลี่ยนฮาร์ดแวร์เพื่อให้เกมทำงานดีขึ้น

    https://wccftech.com/intel-releases-apo-update-for-core-ultra-200-and-14th-gen-processors-claims-up-to-14-higher-performance/
    🎙️ เรื่องเล่าจาก Arrow Lake ถึง Metro Exodus: เมื่อการปรับแต่งระดับซอฟต์แวร์กลายเป็นตัวเร่งเกมที่ทรงพลัง Intel ได้ปล่อยอัปเดตใหม่สำหรับฟีเจอร์ Application Optimization (APO) ซึ่งเป็นระบบที่ช่วยปรับแต่งการทำงานของ CPU ให้เหมาะกับเกมแต่ละเกมโดยเฉพาะ โดยอัปเดตล่าสุดในเดือนกันยายน 2025 นี้ได้เพิ่มเกมใหม่เข้าไปอีก 15 เกม รวมถึง Metro Exodus Enhanced Edition, God of War, Dyson Sphere Program และ EA Sports FC 24 ฟีเจอร์ APO นี้รองรับเฉพาะ CPU รุ่นใหม่ ได้แก่ Core Ultra 200 series และ Arrow Lake (14th Gen) โดยเฉพาะรุ่นที่มีรหัส “K” และ HX ซึ่งเป็นรุ่นที่เน้นประสิทธิภาพสูง ทั้งในเดสก์ท็อปและโน้ตบุ๊ก Intel ระบุว่าการเปิดใช้งาน APO จะช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 14% ในบางเกม และยังช่วยให้ค่า 1% lows (เฟรมเรตต่ำสุดที่เกิดขึ้นระหว่างเล่น) ดีขึ้นอย่างเห็นได้ชัด ซึ่งหมายถึงประสบการณ์เล่นเกมที่ลื่นไหลมากขึ้น แม้ในฉากที่มีการประมวลผลหนัก เพื่อเปิดใช้งาน APO ผู้ใช้ต้องติดตั้ง Intel Dynamic Tuning Technology (DTT) จากเว็บไซต์ของผู้ผลิตเมนบอร์ด และสามารถจัดการการตั้งค่า APO รายเกมได้ผ่านแอป Intel APO UI ที่ดาวน์โหลดจาก Microsoft Store นอกจากนี้ Intel ยังระบุว่า APO จะได้รับการอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามาในฐานข้อมูล ซึ่งหมายความว่าผู้ใช้ไม่ต้องติดตั้งใหม่ทุกครั้ง ✅ รายละเอียดของ APO Update ล่าสุด ➡️ เพิ่มเกมใหม่ 15 เกม เช่น Metro Exodus, God of War, FC 24 ➡️ รองรับ CPU Arrow Lake และ Core Ultra 200 เฉพาะรุ่น K และ HX ➡️ เพิ่มประสิทธิภาพได้สูงสุด 14% และปรับปรุงค่า 1% lows ✅ วิธีเปิดใช้งาน APO ➡️ ติดตั้ง Intel DTT จากเว็บไซต์ผู้ผลิตเมนบอร์ด ➡️ ดาวน์โหลด Intel APO UI จาก Microsoft Store เพื่อจัดการรายเกม ➡️ ได้รับอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามา ✅ ผลกระทบต่อประสบการณ์เล่นเกม ➡️ เฟรมเรตลื่นขึ้นในฉากที่มีการประมวลผลหนัก ➡️ ลดอาการกระตุกหรือ drop frame ในเกมที่ซับซ้อน ➡️ ไม่ต้องเปลี่ยนฮาร์ดแวร์เพื่อให้เกมทำงานดีขึ้น https://wccftech.com/intel-releases-apo-update-for-core-ultra-200-and-14th-gen-processors-claims-up-to-14-higher-performance/
    WCCFTECH.COM
    Intel Releases APO Update For Core Ultra 200 And 14th Gen Processors; Claims Up To 14% Higher Performance
    Intel has rolled out the latest update for the APO aka Application Optimization for several titles for the 14th gen and Arrow lake CPUs.
    0 Comments 0 Shares 251 Views 0 Reviews
  • เล่าให้ฟังใหม่: Intel APO — ซอฟต์แวร์ลับที่ช่วยเร่งเฟรมเกม แต่ยังไม่ใช่คำตอบสำหรับทุกคน

    ในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรและลดจำนวนพนักงาน หลายโครงการถูกยกเลิกหรือชะลอ แต่หนึ่งในเทคโนโลยีที่ยังคงอยู่คือ Application Optimization หรือ APO ซึ่งเป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกมบนซีพียู Intel รุ่นใหม่

    APO ไม่ใช่แค่การปิด E-core แล้วใช้ P-core อย่างเดียว แต่เป็นระบบที่ใช้การจัดสรรงานแบบไดนามิก เพื่อให้เกมใช้ทรัพยากรของซีพียูได้อย่างเหมาะสมที่สุด โดยเฉพาะในซีพียูแบบ hybrid ที่มีทั้ง P-core และ E-core เช่น Raptor Lake และ Arrow Lake

    จากการทดสอบจริงในเกม Metro Exodus พบว่า APO สามารถเพิ่มเฟรมเรตได้ถึง 26% เมื่อใช้กราฟิกระดับต่ำที่เน้นการทำงานของซีพียู แต่เมื่อปรับกราฟิกสูงขึ้น APO ให้ผลน้อยลง และในบางเกมอาจไม่มีผลเลย

    Intel ยืนยันว่าจะยังคงอัปเดต APO ทุกไตรมาส โดยเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไปเท่านั้น เช่น Core Ultra 200 และ Nova Lake ที่จะเปิดตัวในปี 2026 ส่วนซีพียูรุ่นเก่าอย่าง Alder Lake และ Raptor Lake จะได้รับการสนับสนุนแบบจำกัด

    Intel ยืนยันว่าจะยังคงพัฒนา APO แม้มีการปรับโครงสร้างองค์กร
    แต่จะเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไป

    APO เป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกม
    โดยจัดสรรงานระหว่าง P-core และ E-core แบบเรียลไทม์

    APO เปิดตัวพร้อม Raptor Lake Refresh ในปี 2023
    และขยายไปยัง Alder Lake, Raptor Lake และ Core Ultra 200

    APO ไม่ใช่ระบบที่ใช้ได้กับทุกเกมหรือทุกซีพียู
    ต้องปรับแต่งเฉพาะรุ่นและเกมที่รองรับ

    Intel ใช้ระบบทดสอบแบบ stock configuration
    หากผู้ใช้โอเวอร์คล็อกหรือปรับพลังงาน อาจไม่เห็นผล

    รายชื่อเกมที่รองรับมีน้อยกว่า 50 เกม
    แต่รวมถึงเกมดังอย่าง Cyberpunk 2077 และ Counter-Strike 2

    มีข่าวลือว่า Nova Lake อาจมี bLLC คล้าย AMD 3D V-Cache
    เพื่อแข่งกับ Ryzen X3D ในด้านเกม

    https://www.tomshardware.com/pc-components/cpus/intel-promises-to-keep-updating-its-game-boosting-software-despite-recent-delays-apo-will-only-focus-on-current-and-upcoming-intel-cpus
    🎮⚙️ เล่าให้ฟังใหม่: Intel APO — ซอฟต์แวร์ลับที่ช่วยเร่งเฟรมเกม แต่ยังไม่ใช่คำตอบสำหรับทุกคน ในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรและลดจำนวนพนักงาน หลายโครงการถูกยกเลิกหรือชะลอ แต่หนึ่งในเทคโนโลยีที่ยังคงอยู่คือ Application Optimization หรือ APO ซึ่งเป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกมบนซีพียู Intel รุ่นใหม่ APO ไม่ใช่แค่การปิด E-core แล้วใช้ P-core อย่างเดียว แต่เป็นระบบที่ใช้การจัดสรรงานแบบไดนามิก เพื่อให้เกมใช้ทรัพยากรของซีพียูได้อย่างเหมาะสมที่สุด โดยเฉพาะในซีพียูแบบ hybrid ที่มีทั้ง P-core และ E-core เช่น Raptor Lake และ Arrow Lake จากการทดสอบจริงในเกม Metro Exodus พบว่า APO สามารถเพิ่มเฟรมเรตได้ถึง 26% เมื่อใช้กราฟิกระดับต่ำที่เน้นการทำงานของซีพียู แต่เมื่อปรับกราฟิกสูงขึ้น APO ให้ผลน้อยลง และในบางเกมอาจไม่มีผลเลย Intel ยืนยันว่าจะยังคงอัปเดต APO ทุกไตรมาส โดยเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไปเท่านั้น เช่น Core Ultra 200 และ Nova Lake ที่จะเปิดตัวในปี 2026 ส่วนซีพียูรุ่นเก่าอย่าง Alder Lake และ Raptor Lake จะได้รับการสนับสนุนแบบจำกัด ✅ Intel ยืนยันว่าจะยังคงพัฒนา APO แม้มีการปรับโครงสร้างองค์กร ➡️ แต่จะเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไป ✅ APO เป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกม ➡️ โดยจัดสรรงานระหว่าง P-core และ E-core แบบเรียลไทม์ ✅ APO เปิดตัวพร้อม Raptor Lake Refresh ในปี 2023 ➡️ และขยายไปยัง Alder Lake, Raptor Lake และ Core Ultra 200 ✅ APO ไม่ใช่ระบบที่ใช้ได้กับทุกเกมหรือทุกซีพียู ➡️ ต้องปรับแต่งเฉพาะรุ่นและเกมที่รองรับ ✅ Intel ใช้ระบบทดสอบแบบ stock configuration ➡️ หากผู้ใช้โอเวอร์คล็อกหรือปรับพลังงาน อาจไม่เห็นผล ✅ รายชื่อเกมที่รองรับมีน้อยกว่า 50 เกม ➡️ แต่รวมถึงเกมดังอย่าง Cyberpunk 2077 และ Counter-Strike 2 ✅ มีข่าวลือว่า Nova Lake อาจมี bLLC คล้าย AMD 3D V-Cache ➡️ เพื่อแข่งกับ Ryzen X3D ในด้านเกม https://www.tomshardware.com/pc-components/cpus/intel-promises-to-keep-updating-its-game-boosting-software-despite-recent-delays-apo-will-only-focus-on-current-and-upcoming-intel-cpus
    0 Comments 0 Shares 325 Views 0 Reviews
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อเกมแห่งโชคต้องพึ่งพาความปลอดภัยระดับ Zero Trust

    ในยุคที่แม้แต่ลอตเตอรี่แห่งชาติยังต้องปรับตัวเข้าสู่โลกดิจิทัล LONACI หรือสำนักงานลอตเตอรี่แห่งชาติของโกตดิวัวร์ ได้จับมือกับสองยักษ์ใหญ่ด้านความปลอดภัยไซเบอร์—AccuKnox และ SecuVerse.ai—เพื่อยกระดับความปลอดภัยของระบบเกมและข้อมูลผู้ใช้อย่างเต็มรูปแบบ

    AccuKnox ซึ่งเป็นผู้นำด้าน Zero Trust CNAPP (Cloud Native Application Protection Platform) ได้ร่วมกับ SecuVerse.ai จากโมร็อกโก เพื่อส่งมอบโซลูชัน ASPM (Application Security Posture Management) ที่ผสานเทคโนโลยี SAST, DAST และ SCA เข้าด้วยกัน พร้อมระบบ AI ที่ช่วยแนะนำวิธีแก้ไขช่องโหว่แบบเจาะจงตามบริบทของแต่ละระบบ

    เป้าหมายของ LONACI คือการรวมเครื่องมือที่กระจัดกระจายให้เป็นแพลตฟอร์มเดียวที่ปลอดภัย โปร่งใส และสอดคล้องกับมาตรฐานสากล เช่น PCI-DSS, ISO 27001 และ GDPR เพื่อรองรับยุทธศาสตร์ดิจิทัลระยะยาวถึงปี 2030

    CNAPP คือแพลตฟอร์มรักษาความปลอดภัยแบบครบวงจรสำหรับแอปพลิเคชันบนคลาวด์
    ครอบคลุมตั้งแต่การพัฒนาไปจนถึงการใช้งานจริง

    Zero Trust คือแนวคิดที่ไม่เชื่อถือใครโดยอัตโนมัติ
    ทุกการเข้าถึงต้องได้รับการตรวจสอบและอนุญาตอย่างเข้มงวด

    AccuKnox เป็นผู้ร่วมพัฒนา KubeArmor ซึ่งมีการดาวน์โหลดมากกว่า 2 ล้านครั้ง
    เป็นระบบรักษาความปลอดภัย runtime สำหรับ Kubernetes

    การใช้ AI ในระบบความปลอดภัยช่วยลดภาระของทีมงาน
    ทำให้สามารถโฟกัสกับภัยคุกคามที่สำคัญได้มากขึ้น

    LONACI จับมือ AccuKnox และ SecuVerse.ai เพื่อเสริมความปลอดภัยของระบบลอตเตอรี่แห่งชาติ
    เป็นส่วนหนึ่งของยุทธศาสตร์ดิจิทัล 2025–2030

    โซลูชันที่ใช้คือ ASPM ที่รวม SAST, DAST และ SCA
    ช่วยตรวจสอบความปลอดภัยของโค้ดทั้งแบบสถิตและแบบไดนามิก

    ใช้ AI เพื่อช่วยแนะนำวิธีแก้ไขช่องโหว่แบบอัตโนมัติ
    ลดเวลาในการวิเคราะห์และแก้ไขปัญหา

    มีระบบ SOAR สำหรับจัดการแจ้งเตือนอย่างมีประสิทธิภาพ
    ช่วยให้ทีมรักษาความปลอดภัยตอบสนองได้เร็วขึ้น

    LONACI ต้องการรวมเครื่องมือหลายตัวให้เป็นแพลตฟอร์มเดียว
    เพื่อเพิ่ม ROI และลดความซับซ้อนในการบริหารจัดการ

    AccuKnox มีความสามารถในการปกป้องทั้ง public cloud และ private cloud
    รองรับ Kubernetes, AI/LLM, Edge/IoT และ VM แบบดั้งเดิม

    SecuVerse.ai มีเครือข่ายในแอฟริกาเหนือ ตะวันตก และกลาง
    ให้บริการด้าน AppSec, CloudSec, DataSec และโครงสร้างพื้นฐาน

    https://hackread.com/accuknox-partners-with-secuverse-ai-to-deliver-zero-trust-cnapp-security-for-national-gaming-infrastructure/
    🎰🔐 เรื่องเล่าจากโลกไซเบอร์: เมื่อเกมแห่งโชคต้องพึ่งพาความปลอดภัยระดับ Zero Trust ในยุคที่แม้แต่ลอตเตอรี่แห่งชาติยังต้องปรับตัวเข้าสู่โลกดิจิทัล LONACI หรือสำนักงานลอตเตอรี่แห่งชาติของโกตดิวัวร์ ได้จับมือกับสองยักษ์ใหญ่ด้านความปลอดภัยไซเบอร์—AccuKnox และ SecuVerse.ai—เพื่อยกระดับความปลอดภัยของระบบเกมและข้อมูลผู้ใช้อย่างเต็มรูปแบบ AccuKnox ซึ่งเป็นผู้นำด้าน Zero Trust CNAPP (Cloud Native Application Protection Platform) ได้ร่วมกับ SecuVerse.ai จากโมร็อกโก เพื่อส่งมอบโซลูชัน ASPM (Application Security Posture Management) ที่ผสานเทคโนโลยี SAST, DAST และ SCA เข้าด้วยกัน พร้อมระบบ AI ที่ช่วยแนะนำวิธีแก้ไขช่องโหว่แบบเจาะจงตามบริบทของแต่ละระบบ เป้าหมายของ LONACI คือการรวมเครื่องมือที่กระจัดกระจายให้เป็นแพลตฟอร์มเดียวที่ปลอดภัย โปร่งใส และสอดคล้องกับมาตรฐานสากล เช่น PCI-DSS, ISO 27001 และ GDPR เพื่อรองรับยุทธศาสตร์ดิจิทัลระยะยาวถึงปี 2030 ✅ CNAPP คือแพลตฟอร์มรักษาความปลอดภัยแบบครบวงจรสำหรับแอปพลิเคชันบนคลาวด์ ➡️ ครอบคลุมตั้งแต่การพัฒนาไปจนถึงการใช้งานจริง ✅ Zero Trust คือแนวคิดที่ไม่เชื่อถือใครโดยอัตโนมัติ ➡️ ทุกการเข้าถึงต้องได้รับการตรวจสอบและอนุญาตอย่างเข้มงวด ✅ AccuKnox เป็นผู้ร่วมพัฒนา KubeArmor ซึ่งมีการดาวน์โหลดมากกว่า 2 ล้านครั้ง ➡️ เป็นระบบรักษาความปลอดภัย runtime สำหรับ Kubernetes ✅ การใช้ AI ในระบบความปลอดภัยช่วยลดภาระของทีมงาน ➡️ ทำให้สามารถโฟกัสกับภัยคุกคามที่สำคัญได้มากขึ้น ✅ LONACI จับมือ AccuKnox และ SecuVerse.ai เพื่อเสริมความปลอดภัยของระบบลอตเตอรี่แห่งชาติ ➡️ เป็นส่วนหนึ่งของยุทธศาสตร์ดิจิทัล 2025–2030 ✅ โซลูชันที่ใช้คือ ASPM ที่รวม SAST, DAST และ SCA ➡️ ช่วยตรวจสอบความปลอดภัยของโค้ดทั้งแบบสถิตและแบบไดนามิก ✅ ใช้ AI เพื่อช่วยแนะนำวิธีแก้ไขช่องโหว่แบบอัตโนมัติ ➡️ ลดเวลาในการวิเคราะห์และแก้ไขปัญหา ✅ มีระบบ SOAR สำหรับจัดการแจ้งเตือนอย่างมีประสิทธิภาพ ➡️ ช่วยให้ทีมรักษาความปลอดภัยตอบสนองได้เร็วขึ้น ✅ LONACI ต้องการรวมเครื่องมือหลายตัวให้เป็นแพลตฟอร์มเดียว ➡️ เพื่อเพิ่ม ROI และลดความซับซ้อนในการบริหารจัดการ ✅ AccuKnox มีความสามารถในการปกป้องทั้ง public cloud และ private cloud ➡️ รองรับ Kubernetes, AI/LLM, Edge/IoT และ VM แบบดั้งเดิม ✅ SecuVerse.ai มีเครือข่ายในแอฟริกาเหนือ ตะวันตก และกลาง ➡️ ให้บริการด้าน AppSec, CloudSec, DataSec และโครงสร้างพื้นฐาน https://hackread.com/accuknox-partners-with-secuverse-ai-to-deliver-zero-trust-cnapp-security-for-national-gaming-infrastructure/
    0 Comments 0 Shares 419 Views 0 Reviews
  • เรื่องเล่าจากวงการชิป: Oxmiq Labs กับภารกิจพลิกโฉม GPU ด้วย RISC-V และซอฟต์แวร์ที่ไม่ผูกกับฮาร์ดแวร์

    Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ Intel, AMD และ Apple ได้เปิดตัวสตาร์ทอัพใหม่ชื่อ Oxmiq Labs ที่ Silicon Valley โดยมีเป้าหมายชัดเจน: สร้าง GPU ที่ไม่จำเป็นต้องผลิตฮาร์ดแวร์เอง แต่เน้นการพัฒนา IP และซอฟต์แวร์ที่สามารถนำไปใช้กับฮาร์ดแวร์ใดก็ได้

    Oxmiq ใช้สถาปัตยกรรม RISC-V เป็นแกนหลักของ GPU IP ที่ชื่อว่า OxCore ซึ่งรวม scalar, vector และ tensor compute engines เข้าไว้ในระบบ modular ที่สามารถปรับแต่งได้ตาม workload ตั้งแต่ edge device ไปจนถึง data center

    นอกจากฮาร์ดแวร์ IP แล้ว Oxmiq ยังมีซอฟต์แวร์ที่ทรงพลัง เช่น OXCapsule ที่ช่วยจัดการ workload และทำให้แอปพลิเคชันสามารถรันบน CPU, GPU หรือ accelerator โดยไม่ต้องแก้โค้ด และ OXPython ที่สามารถรันโค้ด Python CUDA บนฮาร์ดแวร์ที่ไม่ใช่ Nvidia ได้ทันที

    Oxmiq ยังร่วมมือกับ Tenstorrent เพื่อเปิดตัว OXPython บนแพลตฟอร์ม Wormhole และ Blackhole และได้รับเงินลงทุนเบื้องต้น $20 ล้านจาก MediaTek และนักลงทุนรายอื่น โดยไม่ต้องพึ่งการผลิตชิปจริงหรือใช้เครื่องมือ EDA ที่มีต้นทุนสูง

    Oxmiq Labs ก่อตั้งโดย Raja Koduri เพื่อพลิกโฉม GPU ด้วย RISC-V
    เน้นการพัฒนา IP และซอฟต์แวร์ ไม่ผลิตฮาร์ดแวร์เอง

    OxCore เป็น GPU IP ที่รวม scalar, vector และ tensor engines
    รองรับงาน AI, graphics และ multimodal workloads

    OxQuilt เป็นระบบประกอบ SoC แบบ chiplet
    ลูกค้าสามารถเลือกโมดูล compute, memory และ interconnect ได้ตามต้องการ

    OXCapsule เป็น runtime ที่จัดการ workload และ abstraction
    ทำให้แอปสามารถรันบนฮาร์ดแวร์ต่าง ๆ โดยไม่ต้องแก้โค้ด

    OXPython แปลงโค้ด Python CUDA ให้รันบน non-Nvidia hardware
    เปิดทางให้ใช้โค้ดเดิมกับฮาร์ดแวร์ใหม่ได้ทันที

    ได้รับเงินลงทุน $20 ล้านจาก MediaTek และนักลงทุนอื่น
    สะท้อนความเชื่อมั่นในโมเดลธุรกิจแบบ IP licensing

    Oxmiq ไม่พัฒนา GPU สำหรับผู้บริโภคโดยตรง
    ไม่รวมฟีเจอร์เช่น texture units, ray tracing หรือ HDMI output

    โมเดล IP-as-a-Service ช่วยลดต้นทุนการพัฒนาชิปได้ถึง 90%
    ไม่ต้องลงทุนในโรงงานหรือกระบวนการ tape-out

    RISC-V เป็นสถาปัตยกรรมเปิดที่กำลังเติบโตในงาน AI และ embedded
    มีความยืดหยุ่นสูงและไม่ผูกกับ vendor รายใด

    Tenstorrent เป็นผู้ผลิต accelerator ที่เน้นงาน AI โดยเฉพาะ
    การร่วมมือกับ Oxmiq ช่วยขยาย ecosystem ให้รองรับ CUDA workloads

    Capsule เป็นระบบ container ที่ช่วยจัดการ GPU cluster
    ใช้เทคโนโลยีจาก Endgame ของ Intel มาปรับให้เหมาะกับ compute workload

    https://www.tomshardware.com/tech-industry/artificial-intelligence/legendary-gpu-architect-raja-koduris-new-startup-leverages-risc-v-and-targets-cuda-workloads-oxmiq-labs-supports-running-python-based-cuda-applications-unmodified-on-non-nvidia-hardware
    🧠⚙️ เรื่องเล่าจากวงการชิป: Oxmiq Labs กับภารกิจพลิกโฉม GPU ด้วย RISC-V และซอฟต์แวร์ที่ไม่ผูกกับฮาร์ดแวร์ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ Intel, AMD และ Apple ได้เปิดตัวสตาร์ทอัพใหม่ชื่อ Oxmiq Labs ที่ Silicon Valley โดยมีเป้าหมายชัดเจน: สร้าง GPU ที่ไม่จำเป็นต้องผลิตฮาร์ดแวร์เอง แต่เน้นการพัฒนา IP และซอฟต์แวร์ที่สามารถนำไปใช้กับฮาร์ดแวร์ใดก็ได้ Oxmiq ใช้สถาปัตยกรรม RISC-V เป็นแกนหลักของ GPU IP ที่ชื่อว่า OxCore ซึ่งรวม scalar, vector และ tensor compute engines เข้าไว้ในระบบ modular ที่สามารถปรับแต่งได้ตาม workload ตั้งแต่ edge device ไปจนถึง data center นอกจากฮาร์ดแวร์ IP แล้ว Oxmiq ยังมีซอฟต์แวร์ที่ทรงพลัง เช่น OXCapsule ที่ช่วยจัดการ workload และทำให้แอปพลิเคชันสามารถรันบน CPU, GPU หรือ accelerator โดยไม่ต้องแก้โค้ด และ OXPython ที่สามารถรันโค้ด Python CUDA บนฮาร์ดแวร์ที่ไม่ใช่ Nvidia ได้ทันที Oxmiq ยังร่วมมือกับ Tenstorrent เพื่อเปิดตัว OXPython บนแพลตฟอร์ม Wormhole และ Blackhole และได้รับเงินลงทุนเบื้องต้น $20 ล้านจาก MediaTek และนักลงทุนรายอื่น โดยไม่ต้องพึ่งการผลิตชิปจริงหรือใช้เครื่องมือ EDA ที่มีต้นทุนสูง ✅ Oxmiq Labs ก่อตั้งโดย Raja Koduri เพื่อพลิกโฉม GPU ด้วย RISC-V ➡️ เน้นการพัฒนา IP และซอฟต์แวร์ ไม่ผลิตฮาร์ดแวร์เอง ✅ OxCore เป็น GPU IP ที่รวม scalar, vector และ tensor engines ➡️ รองรับงาน AI, graphics และ multimodal workloads ✅ OxQuilt เป็นระบบประกอบ SoC แบบ chiplet ➡️ ลูกค้าสามารถเลือกโมดูล compute, memory และ interconnect ได้ตามต้องการ ✅ OXCapsule เป็น runtime ที่จัดการ workload และ abstraction ➡️ ทำให้แอปสามารถรันบนฮาร์ดแวร์ต่าง ๆ โดยไม่ต้องแก้โค้ด ✅ OXPython แปลงโค้ด Python CUDA ให้รันบน non-Nvidia hardware ➡️ เปิดทางให้ใช้โค้ดเดิมกับฮาร์ดแวร์ใหม่ได้ทันที ✅ ได้รับเงินลงทุน $20 ล้านจาก MediaTek และนักลงทุนอื่น ➡️ สะท้อนความเชื่อมั่นในโมเดลธุรกิจแบบ IP licensing ✅ Oxmiq ไม่พัฒนา GPU สำหรับผู้บริโภคโดยตรง ➡️ ไม่รวมฟีเจอร์เช่น texture units, ray tracing หรือ HDMI output ✅ โมเดล IP-as-a-Service ช่วยลดต้นทุนการพัฒนาชิปได้ถึง 90% ➡️ ไม่ต้องลงทุนในโรงงานหรือกระบวนการ tape-out ✅ RISC-V เป็นสถาปัตยกรรมเปิดที่กำลังเติบโตในงาน AI และ embedded ➡️ มีความยืดหยุ่นสูงและไม่ผูกกับ vendor รายใด ✅ Tenstorrent เป็นผู้ผลิต accelerator ที่เน้นงาน AI โดยเฉพาะ ➡️ การร่วมมือกับ Oxmiq ช่วยขยาย ecosystem ให้รองรับ CUDA workloads ✅ Capsule เป็นระบบ container ที่ช่วยจัดการ GPU cluster ➡️ ใช้เทคโนโลยีจาก Endgame ของ Intel มาปรับให้เหมาะกับ compute workload https://www.tomshardware.com/tech-industry/artificial-intelligence/legendary-gpu-architect-raja-koduris-new-startup-leverages-risc-v-and-targets-cuda-workloads-oxmiq-labs-supports-running-python-based-cuda-applications-unmodified-on-non-nvidia-hardware
    0 Comments 0 Shares 380 Views 0 Reviews
  • เรื่องเล่าจากโลกโอเพ่นซอร์ส: ช่องโหว่ libxslt ที่ทำให้ GNOME ต้องตั้งรับเอง

    Google Project Zero ซึ่งเป็นทีมค้นหาช่องโหว่ด้านความปลอดภัยระดับโลก ได้เปิดเผยช่องโหว่ใน libxslt ซึ่งเป็นไลบรารีสำคัญของ GNOME ที่ใช้ในการแปลงเอกสาร XML ด้วยภาษา XSLT ไลบรารีนี้ถูกใช้งานอย่างแพร่หลายในแอปพลิเคชันต่าง ๆ เช่น GNOME Help, Gnumeric, Doxygen รวมถึงในเว็บที่ใช้ PHP และ Python

    ช่องโหว่นี้เป็นแบบ “use-after-free” (UAF) ซึ่งเกิดจากการจัดการหน่วยความจำของ Result Value Tree (RVT) ที่ไม่ถูกต้อง ทำให้เกิดการเข้าถึงหน่วยความจำที่ถูกปล่อยไปแล้ว ส่งผลให้แอปพลิเคชัน crash หรืออาจถูกใช้เป็นช่องทางรันโค้ดอันตรายได้

    Google ได้แจ้ง GNOME ตั้งแต่วันที่ 6 พฤษภาคม 2025 และให้เวลา 90 วันในการแก้ไข แต่เมื่อครบกำหนดแล้ว GNOME ยังไม่สามารถออกแพตช์ได้ เพราะการแก้ไขทำให้ส่วนอื่นของระบบเสียหาย และที่สำคัญคือ libxslt ไม่มีผู้ดูแลหลักมานานแล้ว ทำให้การแก้ไขต้องพึ่งชุมชนโอเพ่นซอร์สที่ยังคงพยายามกันอยู่

    ช่องโหว่นี้ถูกจัดระดับความรุนแรงเป็น P2/S2 ซึ่งหมายถึงระดับกลางแต่มีผลกระทบสูง และตอนนี้มีโค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว ทำให้ผู้ไม่หวังดีสามารถนำไปใช้โจมตีได้ทันที

    Google Project Zero พบช่องโหว่ใน libxslt ไลบรารีของ GNOME
    ใช้ในการแปลง XML ด้วย XSLT และถูกใช้งานในหลายแอปพลิเคชัน

    ช่องโหว่เป็นแบบ use-after-free จากการจัดการ RVT ที่ผิดพลาด
    ทำให้เกิด crash หรือเปิดช่องให้รันโค้ดอันตราย

    แจ้ง GNOME ตั้งแต่ 6 พฤษภาคม 2025 พร้อมเวลา 90 วันในการแก้ไข
    แต่ยังไม่มีแพตช์เพราะการแก้ไขทำให้ระบบอื่นเสียหาย

    GNOME เปิดเผยช่องโหว่ต่อสาธารณะหลังครบกำหนด
    มีโค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว

    libxslt ไม่มีผู้ดูแลหลักมานาน
    ชุมชนต้องช่วยกันแก้ไข downstream กันเอง

    libxslt พัฒนาบนพื้นฐานของ libxml2
    รองรับฟังก์ชัน EXSLT และบางส่วนของ Saxon

    ช่องโหว่ CVE-2025-7425 เกิดจากการจัดการ atype flags ที่ผิดพลาด
    ทำให้เกิด heap corruption และอาจนำไปสู่ arbitrary code execution

    ระบบที่ได้รับผลกระทบ ได้แก่ Red Hat, Debian, SUSE
    มีแพตช์ออกแล้วใน libxslt เวอร์ชัน 1.1.43 ขึ้นไป

    แนวทางป้องกันชั่วคราวคือปิดการใช้งาน XSLT หรือใช้ input validation
    ลดความเสี่ยงจากการประมวลผล XML ที่ไม่ปลอดภัย

    ช่องโหว่เปิดทางให้ผู้โจมตีรันโค้ดอันตรายผ่าน XML หรือ XSLT
    อาจถูกใช้ร่วมกับช่องโหว่อื่น เช่น XXE เพื่อโจมตีแบบ chain

    ไม่มีผู้ดูแลหลักของ libxslt ทำให้การแก้ไขล่าช้า
    ผู้ใช้ต้องพึ่งแพตช์จากระบบปฏิบัติการหรือแก้ไขเอง

    โค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว
    เพิ่มความเสี่ยงที่ช่องโหว่จะถูกนำไปใช้โจมตีจริง

    ระบบที่ยังใช้ libxslt เวอร์ชันเก่าเสี่ยงต่อการถูกโจมตี
    ควรอัปเดตทันทีหรือปิดการใช้งาน XSLT หากไม่จำเป็น

    https://www.neowin.net/news/google-project-zero-exposes-security-flaw-in-libxslt-library-used-in-gnome-applications/
    🧨🧬 เรื่องเล่าจากโลกโอเพ่นซอร์ส: ช่องโหว่ libxslt ที่ทำให้ GNOME ต้องตั้งรับเอง Google Project Zero ซึ่งเป็นทีมค้นหาช่องโหว่ด้านความปลอดภัยระดับโลก ได้เปิดเผยช่องโหว่ใน libxslt ซึ่งเป็นไลบรารีสำคัญของ GNOME ที่ใช้ในการแปลงเอกสาร XML ด้วยภาษา XSLT ไลบรารีนี้ถูกใช้งานอย่างแพร่หลายในแอปพลิเคชันต่าง ๆ เช่น GNOME Help, Gnumeric, Doxygen รวมถึงในเว็บที่ใช้ PHP และ Python ช่องโหว่นี้เป็นแบบ “use-after-free” (UAF) ซึ่งเกิดจากการจัดการหน่วยความจำของ Result Value Tree (RVT) ที่ไม่ถูกต้อง ทำให้เกิดการเข้าถึงหน่วยความจำที่ถูกปล่อยไปแล้ว ส่งผลให้แอปพลิเคชัน crash หรืออาจถูกใช้เป็นช่องทางรันโค้ดอันตรายได้ Google ได้แจ้ง GNOME ตั้งแต่วันที่ 6 พฤษภาคม 2025 และให้เวลา 90 วันในการแก้ไข แต่เมื่อครบกำหนดแล้ว GNOME ยังไม่สามารถออกแพตช์ได้ เพราะการแก้ไขทำให้ส่วนอื่นของระบบเสียหาย และที่สำคัญคือ libxslt ไม่มีผู้ดูแลหลักมานานแล้ว ทำให้การแก้ไขต้องพึ่งชุมชนโอเพ่นซอร์สที่ยังคงพยายามกันอยู่ ช่องโหว่นี้ถูกจัดระดับความรุนแรงเป็น P2/S2 ซึ่งหมายถึงระดับกลางแต่มีผลกระทบสูง และตอนนี้มีโค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว ทำให้ผู้ไม่หวังดีสามารถนำไปใช้โจมตีได้ทันที ✅ Google Project Zero พบช่องโหว่ใน libxslt ไลบรารีของ GNOME ➡️ ใช้ในการแปลง XML ด้วย XSLT และถูกใช้งานในหลายแอปพลิเคชัน ✅ ช่องโหว่เป็นแบบ use-after-free จากการจัดการ RVT ที่ผิดพลาด ➡️ ทำให้เกิด crash หรือเปิดช่องให้รันโค้ดอันตราย ✅ แจ้ง GNOME ตั้งแต่ 6 พฤษภาคม 2025 พร้อมเวลา 90 วันในการแก้ไข ➡️ แต่ยังไม่มีแพตช์เพราะการแก้ไขทำให้ระบบอื่นเสียหาย ✅ GNOME เปิดเผยช่องโหว่ต่อสาธารณะหลังครบกำหนด ➡️ มีโค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว ✅ libxslt ไม่มีผู้ดูแลหลักมานาน ➡️ ชุมชนต้องช่วยกันแก้ไข downstream กันเอง ✅ libxslt พัฒนาบนพื้นฐานของ libxml2 ➡️ รองรับฟังก์ชัน EXSLT และบางส่วนของ Saxon ✅ ช่องโหว่ CVE-2025-7425 เกิดจากการจัดการ atype flags ที่ผิดพลาด ➡️ ทำให้เกิด heap corruption และอาจนำไปสู่ arbitrary code execution ✅ ระบบที่ได้รับผลกระทบ ได้แก่ Red Hat, Debian, SUSE ➡️ มีแพตช์ออกแล้วใน libxslt เวอร์ชัน 1.1.43 ขึ้นไป ✅ แนวทางป้องกันชั่วคราวคือปิดการใช้งาน XSLT หรือใช้ input validation ➡️ ลดความเสี่ยงจากการประมวลผล XML ที่ไม่ปลอดภัย ‼️ ช่องโหว่เปิดทางให้ผู้โจมตีรันโค้ดอันตรายผ่าน XML หรือ XSLT ⛔ อาจถูกใช้ร่วมกับช่องโหว่อื่น เช่น XXE เพื่อโจมตีแบบ chain ‼️ ไม่มีผู้ดูแลหลักของ libxslt ทำให้การแก้ไขล่าช้า ⛔ ผู้ใช้ต้องพึ่งแพตช์จากระบบปฏิบัติการหรือแก้ไขเอง ‼️ โค้ดตัวอย่าง (PoC) ถูกเผยแพร่แล้ว ⛔ เพิ่มความเสี่ยงที่ช่องโหว่จะถูกนำไปใช้โจมตีจริง ‼️ ระบบที่ยังใช้ libxslt เวอร์ชันเก่าเสี่ยงต่อการถูกโจมตี ⛔ ควรอัปเดตทันทีหรือปิดการใช้งาน XSLT หากไม่จำเป็น https://www.neowin.net/news/google-project-zero-exposes-security-flaw-in-libxslt-library-used-in-gnome-applications/
    WWW.NEOWIN.NET
    Google Project Zero exposes security flaw in libxslt library used in GNOME applications
    Google's Project Zero team has publicly disclosed a UAF flaw in the popular libxslt library following GNOME's inability to fix it within 90 days of private reporting.
    0 Comments 0 Shares 350 Views 0 Reviews
  • เรื่องเล่าจากอวกาศ: เมื่อต้นแบบมะเร็งถูกส่งขึ้นไปโคจรเพื่อช่วยรักษาคนบนโลก

    ในห้องทดลองที่ลอยอยู่เหนือโลกกว่า 400 กิโลเมตร นักวิทยาศาสตร์กำลังทำสิ่งที่ฟังดูเหมือนนิยายวิทยาศาสตร์—พวกเขากำลังปลูกเนื้อมะเร็งจริงจากผู้ป่วยในสภาวะไร้น้ำหนัก เพื่อศึกษาว่ามะเร็งตอบสนองต่อยาอย่างไรในสภาพแวดล้อมที่ต่างจากโลก

    บริษัท Encapsulate ได้พัฒนาเทคโนโลยี “tumor-on-a-chip” ที่สามารถปลูกเนื้อมะเร็งขนาดเล็กจากตัวอย่างชีวภาพของผู้ป่วยให้เติบโตเป็นสามมิติในอวกาศ ซึ่งช่วยให้เห็นพฤติกรรมของเซลล์มะเร็งได้ชัดเจนขึ้นกว่าการทดลองบนโลก เพราะในอวกาศ เซลล์ไม่ถูกแรงโน้มถ่วงดึงลง ทำให้สามารถรวมตัวกันได้เหมือนในร่างกายมนุษย์จริงๆ

    การทดลองนี้ไม่ใช่แค่เรื่องเทคโนโลยีล้ำยุค แต่เป็นก้าวสำคัญของ “การรักษาแบบเฉพาะบุคคล” หรือ personalized medicine ที่จะช่วยให้แพทย์เลือกยาที่เหมาะสมกับผู้ป่วยแต่ละคนได้แม่นยำขึ้น โดยไม่ต้องลองผิดลองถูก

    และไม่ใช่แค่ในอวกาศ—บนโลกก็มีความก้าวหน้าเช่นกัน เช่น รัสเซียกำลังทดลองวัคซีนมะเร็งแบบ mRNA ที่ออกแบบเฉพาะสำหรับผู้ป่วยแต่ละคนโดยใช้ AI หรือในเดนมาร์กที่ใช้ AI สร้างโปรตีนขนาดเล็กเพื่อฝึกระบบภูมิคุ้มกันให้จำแนกและทำลายเซลล์มะเร็งได้อย่างแม่นยำ

    นักวิทยาศาสตร์ปลูกเนื้อมะเร็งในอวกาศเพื่อศึกษาการตอบสนองต่อยา
    ใช้เทคโนโลยี tumor-on-a-chip จากบริษัท Encapsulate
    เติบโตในสภาพไร้น้ำหนักเพื่อเลียนแบบพฤติกรรมในร่างกายมนุษย์

    การทดลองอยู่ภายใต้โครงการ In Space Production Applications ของ NASA
    ได้รับเงินสนับสนุนกว่า 4.88 ล้านดอลลาร์จาก NASA และ NSF

    มีการทดลองร่วมกับศูนย์มะเร็งชั้นนำในสหรัฐฯ
    ศึกษาผู้ป่วยมะเร็งลำไส้ใหญ่และตับอ่อนกว่า 200 ราย

    ระบบทดลองในอวกาศเป็นแบบอัตโนมัติ
    นักบินอวกาศเพียงแค่เสียบอุปกรณ์เหมือนเครื่องชงกาแฟ

    ผลการทดลองพบว่าเนื้อมะเร็งตอบสนองต่อยาแตกต่างจากบนโลก
    อาจช่วยระบุตัวบ่งชี้ใหม่ในการแพร่กระจายหรือดื้อยา

    https://www.techspot.com/news/108922-scientists-growing-tumors-space-study-how-personalize-cancer.html
    👨‍🚀 เรื่องเล่าจากอวกาศ: เมื่อต้นแบบมะเร็งถูกส่งขึ้นไปโคจรเพื่อช่วยรักษาคนบนโลก ในห้องทดลองที่ลอยอยู่เหนือโลกกว่า 400 กิโลเมตร นักวิทยาศาสตร์กำลังทำสิ่งที่ฟังดูเหมือนนิยายวิทยาศาสตร์—พวกเขากำลังปลูกเนื้อมะเร็งจริงจากผู้ป่วยในสภาวะไร้น้ำหนัก เพื่อศึกษาว่ามะเร็งตอบสนองต่อยาอย่างไรในสภาพแวดล้อมที่ต่างจากโลก บริษัท Encapsulate ได้พัฒนาเทคโนโลยี “tumor-on-a-chip” ที่สามารถปลูกเนื้อมะเร็งขนาดเล็กจากตัวอย่างชีวภาพของผู้ป่วยให้เติบโตเป็นสามมิติในอวกาศ ซึ่งช่วยให้เห็นพฤติกรรมของเซลล์มะเร็งได้ชัดเจนขึ้นกว่าการทดลองบนโลก เพราะในอวกาศ เซลล์ไม่ถูกแรงโน้มถ่วงดึงลง ทำให้สามารถรวมตัวกันได้เหมือนในร่างกายมนุษย์จริงๆ การทดลองนี้ไม่ใช่แค่เรื่องเทคโนโลยีล้ำยุค แต่เป็นก้าวสำคัญของ “การรักษาแบบเฉพาะบุคคล” หรือ personalized medicine ที่จะช่วยให้แพทย์เลือกยาที่เหมาะสมกับผู้ป่วยแต่ละคนได้แม่นยำขึ้น โดยไม่ต้องลองผิดลองถูก และไม่ใช่แค่ในอวกาศ—บนโลกก็มีความก้าวหน้าเช่นกัน เช่น รัสเซียกำลังทดลองวัคซีนมะเร็งแบบ mRNA ที่ออกแบบเฉพาะสำหรับผู้ป่วยแต่ละคนโดยใช้ AI หรือในเดนมาร์กที่ใช้ AI สร้างโปรตีนขนาดเล็กเพื่อฝึกระบบภูมิคุ้มกันให้จำแนกและทำลายเซลล์มะเร็งได้อย่างแม่นยำ ✅ นักวิทยาศาสตร์ปลูกเนื้อมะเร็งในอวกาศเพื่อศึกษาการตอบสนองต่อยา ➡️ ใช้เทคโนโลยี tumor-on-a-chip จากบริษัท Encapsulate ➡️ เติบโตในสภาพไร้น้ำหนักเพื่อเลียนแบบพฤติกรรมในร่างกายมนุษย์ ✅ การทดลองอยู่ภายใต้โครงการ In Space Production Applications ของ NASA ➡️ ได้รับเงินสนับสนุนกว่า 4.88 ล้านดอลลาร์จาก NASA และ NSF ✅ มีการทดลองร่วมกับศูนย์มะเร็งชั้นนำในสหรัฐฯ ➡️ ศึกษาผู้ป่วยมะเร็งลำไส้ใหญ่และตับอ่อนกว่า 200 ราย ✅ ระบบทดลองในอวกาศเป็นแบบอัตโนมัติ ➡️ นักบินอวกาศเพียงแค่เสียบอุปกรณ์เหมือนเครื่องชงกาแฟ ✅ ผลการทดลองพบว่าเนื้อมะเร็งตอบสนองต่อยาแตกต่างจากบนโลก ➡️ อาจช่วยระบุตัวบ่งชี้ใหม่ในการแพร่กระจายหรือดื้อยา https://www.techspot.com/news/108922-scientists-growing-tumors-space-study-how-personalize-cancer.html
    WWW.TECHSPOT.COM
    Scientists are growing tumors in space to study how to personalize cancer treatment
    In a laboratory more than 249 miles above Earth, a new generation of cancer research is unfolding. A biotech startup is harnessing the microgravity environment of the...
    0 Comments 0 Shares 413 Views 0 Reviews
  • เรื่องเล่าจากข่าว: “SS7 encoding attack” เมื่อการสื่อสารกลายเป็นช่องทางลับของการสอดแนม

    SS7 หรือ Signaling System 7 คือโปรโตคอลเก่าแก่ที่ใช้เชื่อมต่อสายโทรศัพท์, ส่งข้อความ, และจัดการการโรมมิ่งระหว่างเครือข่ายมือถือทั่วโลก แม้จะเป็นหัวใจของการสื่อสารยุคใหม่ แต่ SS7 ไม่เคยถูกออกแบบมาให้ปลอดภัยในระดับที่ทันสมัย

    ล่าสุดนักวิจัยจาก Enea พบว่า บริษัทสอดแนมแห่งหนึ่งใช้เทคนิคใหม่ในการ “ปรับรูปแบบการเข้ารหัส” ของข้อความ SS7 เพื่อหลบเลี่ยงระบบตรวจจับ เช่น firewall และระบบเฝ้าระวัง ทำให้สามารถขอข้อมูลตำแหน่งของผู้ใช้มือถือจากผู้ให้บริการได้โดยไม่ถูกบล็อก

    เทคนิคนี้อาศัยการปรับโครงสร้างของข้อความ TCAP (Transaction Capabilities Application Part) ซึ่งเป็นชั้นใน SS7 ที่ใช้ส่งข้อมูลระหว่างเครือข่าย โดยใช้การเข้ารหัสแบบ ASN.1 BER ที่มีความยืดหยุ่นสูง ทำให้สามารถสร้างข้อความที่ “ถูกต้องตามหลักการ แต่ผิดจากที่ระบบคาดไว้” จนระบบไม่สามารถตรวจจับได้

    การโจมตีนี้ถูกใช้จริงตั้งแต่ปลายปี 2024 และสามารถระบุตำแหน่งผู้ใช้ได้ใกล้ถึงระดับเสาสัญญาณ ซึ่งในเมืองใหญ่หมายถึงระยะเพียงไม่กี่ร้อยเมตร

    SS7 encoding attack คือการปรับรูปแบบการเข้ารหัสของข้อความ SS7 เพื่อหลบเลี่ยงระบบตรวจจับ
    ใช้เทคนิคการเข้ารหัสแบบ ASN.1 BER ในชั้น TCAP ของ SS7
    สร้างข้อความที่ดูถูกต้องแต่ระบบไม่สามารถถอดรหัสได้

    บริษัทสอดแนมใช้เทคนิคนี้เพื่อขอข้อมูลตำแหน่งผู้ใช้มือถือจากผู้ให้บริการ
    ส่งคำสั่ง PSI (ProvideSubscriberInfo) ที่ถูกปรับแต่ง
    ระบบไม่สามารถตรวจสอบ IMSI ได้ จึงไม่บล็อกคำขอ

    การโจมตีนี้ถูกใช้จริงตั้งแต่ปลายปี 2024 และยังคงมีผลในปี 2025
    พบหลักฐานการใช้งานในเครือข่ายจริง
    บริษัทสอดแนมสามารถระบุตำแหน่งผู้ใช้ได้ใกล้ระดับเสาสัญญาณ

    SS7 ยังคงถูกใช้งานอย่างแพร่หลาย แม้จะมีเทคโนโลยีใหม่อย่าง Diameter และ 5G signaling
    การเลิกใช้ SS7 ไม่ใช่ทางเลือกสำหรับผู้ให้บริการส่วนใหญ่
    ต้องใช้วิธีป้องกันเชิงพฤติกรรมและการวิเคราะห์ภัยคุกคาม

    Enea แนะนำให้ผู้ให้บริการตรวจสอบรูปแบบการเข้ารหัสที่ผิดปกติและเสริม firewall ให้แข็งแรงขึ้น
    ใช้การวิเคราะห์พฤติกรรมร่วมกับ threat intelligence
    ป้องกันการหลบเลี่ยงระบบตรวจจับในระดับโครงสร้างข้อความ

    ผู้ใช้มือถือไม่สามารถป้องกันการโจมตีนี้ได้ด้วยตัวเอง
    การโจมตีเกิดในระดับเครือข่ายมือถือ ไม่ใช่ที่อุปกรณ์ของผู้ใช้
    ต้องพึ่งผู้ให้บริการในการป้องกัน

    ระบบ SS7 firewall แบบเดิมไม่สามารถตรวจจับการเข้ารหัสที่ผิดปกติได้
    ข้อความที่ใช้ encoding แบบใหม่จะผ่าน firewall โดยไม่ถูกบล็อก
    IMSI ที่ถูกซ่อนไว้จะไม่ถูกตรวจสอบว่าเป็นเครือข่ายภายในหรือภายนอก

    บริษัทสอดแนมสามารถใช้ช่องโหว่นี้เพื่อสอดแนมผู้ใช้โดยไม่ต้องได้รับอนุญาตจากรัฐ
    แม้จะอ้างว่าใช้เพื่อจับอาชญากร แต่มีการใช้กับนักข่าวและนักเคลื่อนไหว
    เป็นการละเมิดสิทธิส่วนบุคคลอย่างร้ายแรง

    ระบบ SS7 มีความซับซ้อนและไม่ถูกออกแบบมาให้รองรับการป้องกันภัยสมัยใหม่
    ASN.1 BER มีความยืดหยุ่นสูงจนกลายเป็นช่องโหว่
    การปรับโครงสร้างข้อความสามารถหลบเลี่ยงระบบตรวจจับได้ง่าย

    https://hackread.com/researchers-ss7-encoding-attack-surveillance-vendor/
    🧠 เรื่องเล่าจากข่าว: “SS7 encoding attack” เมื่อการสื่อสารกลายเป็นช่องทางลับของการสอดแนม SS7 หรือ Signaling System 7 คือโปรโตคอลเก่าแก่ที่ใช้เชื่อมต่อสายโทรศัพท์, ส่งข้อความ, และจัดการการโรมมิ่งระหว่างเครือข่ายมือถือทั่วโลก แม้จะเป็นหัวใจของการสื่อสารยุคใหม่ แต่ SS7 ไม่เคยถูกออกแบบมาให้ปลอดภัยในระดับที่ทันสมัย ล่าสุดนักวิจัยจาก Enea พบว่า บริษัทสอดแนมแห่งหนึ่งใช้เทคนิคใหม่ในการ “ปรับรูปแบบการเข้ารหัส” ของข้อความ SS7 เพื่อหลบเลี่ยงระบบตรวจจับ เช่น firewall และระบบเฝ้าระวัง ทำให้สามารถขอข้อมูลตำแหน่งของผู้ใช้มือถือจากผู้ให้บริการได้โดยไม่ถูกบล็อก เทคนิคนี้อาศัยการปรับโครงสร้างของข้อความ TCAP (Transaction Capabilities Application Part) ซึ่งเป็นชั้นใน SS7 ที่ใช้ส่งข้อมูลระหว่างเครือข่าย โดยใช้การเข้ารหัสแบบ ASN.1 BER ที่มีความยืดหยุ่นสูง ทำให้สามารถสร้างข้อความที่ “ถูกต้องตามหลักการ แต่ผิดจากที่ระบบคาดไว้” จนระบบไม่สามารถตรวจจับได้ การโจมตีนี้ถูกใช้จริงตั้งแต่ปลายปี 2024 และสามารถระบุตำแหน่งผู้ใช้ได้ใกล้ถึงระดับเสาสัญญาณ ซึ่งในเมืองใหญ่หมายถึงระยะเพียงไม่กี่ร้อยเมตร ✅ SS7 encoding attack คือการปรับรูปแบบการเข้ารหัสของข้อความ SS7 เพื่อหลบเลี่ยงระบบตรวจจับ ➡️ ใช้เทคนิคการเข้ารหัสแบบ ASN.1 BER ในชั้น TCAP ของ SS7 ➡️ สร้างข้อความที่ดูถูกต้องแต่ระบบไม่สามารถถอดรหัสได้ ✅ บริษัทสอดแนมใช้เทคนิคนี้เพื่อขอข้อมูลตำแหน่งผู้ใช้มือถือจากผู้ให้บริการ ➡️ ส่งคำสั่ง PSI (ProvideSubscriberInfo) ที่ถูกปรับแต่ง ➡️ ระบบไม่สามารถตรวจสอบ IMSI ได้ จึงไม่บล็อกคำขอ ✅ การโจมตีนี้ถูกใช้จริงตั้งแต่ปลายปี 2024 และยังคงมีผลในปี 2025 ➡️ พบหลักฐานการใช้งานในเครือข่ายจริง ➡️ บริษัทสอดแนมสามารถระบุตำแหน่งผู้ใช้ได้ใกล้ระดับเสาสัญญาณ ✅ SS7 ยังคงถูกใช้งานอย่างแพร่หลาย แม้จะมีเทคโนโลยีใหม่อย่าง Diameter และ 5G signaling ➡️ การเลิกใช้ SS7 ไม่ใช่ทางเลือกสำหรับผู้ให้บริการส่วนใหญ่ ➡️ ต้องใช้วิธีป้องกันเชิงพฤติกรรมและการวิเคราะห์ภัยคุกคาม ✅ Enea แนะนำให้ผู้ให้บริการตรวจสอบรูปแบบการเข้ารหัสที่ผิดปกติและเสริม firewall ให้แข็งแรงขึ้น ➡️ ใช้การวิเคราะห์พฤติกรรมร่วมกับ threat intelligence ➡️ ป้องกันการหลบเลี่ยงระบบตรวจจับในระดับโครงสร้างข้อความ ‼️ ผู้ใช้มือถือไม่สามารถป้องกันการโจมตีนี้ได้ด้วยตัวเอง ⛔ การโจมตีเกิดในระดับเครือข่ายมือถือ ไม่ใช่ที่อุปกรณ์ของผู้ใช้ ⛔ ต้องพึ่งผู้ให้บริการในการป้องกัน ‼️ ระบบ SS7 firewall แบบเดิมไม่สามารถตรวจจับการเข้ารหัสที่ผิดปกติได้ ⛔ ข้อความที่ใช้ encoding แบบใหม่จะผ่าน firewall โดยไม่ถูกบล็อก ⛔ IMSI ที่ถูกซ่อนไว้จะไม่ถูกตรวจสอบว่าเป็นเครือข่ายภายในหรือภายนอก ‼️ บริษัทสอดแนมสามารถใช้ช่องโหว่นี้เพื่อสอดแนมผู้ใช้โดยไม่ต้องได้รับอนุญาตจากรัฐ ⛔ แม้จะอ้างว่าใช้เพื่อจับอาชญากร แต่มีการใช้กับนักข่าวและนักเคลื่อนไหว ⛔ เป็นการละเมิดสิทธิส่วนบุคคลอย่างร้ายแรง ‼️ ระบบ SS7 มีความซับซ้อนและไม่ถูกออกแบบมาให้รองรับการป้องกันภัยสมัยใหม่ ⛔ ASN.1 BER มีความยืดหยุ่นสูงจนกลายเป็นช่องโหว่ ⛔ การปรับโครงสร้างข้อความสามารถหลบเลี่ยงระบบตรวจจับได้ง่าย https://hackread.com/researchers-ss7-encoding-attack-surveillance-vendor/
    HACKREAD.COM
    Researchers Link New SS7 Encoding Attack to Surveillance Vendor Activity
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 322 Views 0 Reviews
More Results