• QNAP เปิดตัว NAS ระดับดาต้าเซ็นเตอร์สำหรับใช้ในบ้าน! ความจุสูงถึง 19.2TB ด้วย SSD แบบ “ruler”

    QNAP เปิดตัว NAS รุ่น TBS-h574TX ที่ใช้ SSD แบบ E1.S หรือ “ruler form factor” ซึ่งปกติใช้ในดาต้าเซ็นเตอร์ มาพร้อมความจุสูงสุด 19.2TB และราคาสูงถึง $4,399

    QNAP สร้างความฮือฮาด้วยการเปิดตัว NASbook TBS-h574TX ที่ใช้ SSD แบบ EDSFF E1.S หรือที่เรียกว่า “ruler SSD” ซึ่งเป็นเทคโนโลยีที่ใช้ในดาต้าเซ็นเตอร์ระดับสูง โดยนำมาใช้ใน NAS สำหรับผู้ใช้ทั่วไปที่ต้องการประสิทธิภาพสูงและความจุมหาศาล

    รุ่นนี้รองรับ SSD ได้ถึง 5 ตัว และมีให้เลือกทั้งแบบ 9.6TB และ 19.2TB โดยใช้ SSD ขนาด 1.92TB และ 3.84TB ตามลำดับ (ใน RAID 0) หากใช้ RAID 5 จะได้ความจุประมาณ 7.68TB และ 15.36TB ตามลำดับ

    แม้จะสามารถซื้อ NAS รุ่นนี้แบบเปล่าและติดตั้ง SSD เองได้ แต่ QNAP ก็เสนอรุ่นที่ติดตั้งมาแล้วพร้อมใช้งาน โดยใช้ SSD ที่ไม่เปิดเผยผู้ผลิต (อาจเป็น Solidigm, Kioxia หรือ Micron)

    ตัวเครื่องใช้พลังงานประมาณ 46W และมาพร้อมพอร์ต Thunderbolt 4, Ethernet 2.5Gb และ 10Gb, USB 3.2 Gen 2 และ HDMI 1.4b รองรับ 4K ที่ 30Hz

    แม้จะใช้ SSD PCIe 4.0 แต่ตัว NAS รองรับแค่ PCIe 3.0 x2 ทำให้ความเร็วถูกจำกัดอยู่ที่ประมาณ 1,400 MB/s ในการอ่าน/เขียนแบบ sequential และ 70,000 IOPS สำหรับการเขียนแบบสุ่ม

    QNAP เปิดตัว NAS รุ่น TBS-h574TX ใช้ SSD แบบ E1.S
    ความจุสูงสุด 19.2TB ด้วย SSD ขนาด 3.84TB x 5
    มีรุ่น 9.6TB ด้วย SSD ขนาด 1.92TB x 5
    รองรับ RAID 0 และ RAID 5

    สเปกของ NAS
    ใช้ Intel Core i5-1235U (12th Gen) พร้อม RAM 16GB
    มีรุ่นอื่นที่ใช้ i5-1340PE และ i3-1320PE แต่ไม่รวม SSD
    พอร์ตเชื่อมต่อ: Thunderbolt 4, Ethernet 2.5Gb/10Gb, USB 3.2 Gen 2, HDMI 1.4b

    ประสิทธิภาพและการใช้งาน
    Sequential read/write ~1,400 MB/s
    Random write ~70,000 IOPS
    ใช้พลังงาน ~46W พร้อมอะแดปเตอร์ 120W

    การรับประกัน
    ตัว NAS รับประกัน 3 ปี
    SSD รับประกัน 5 ปีหรือจนถึง TBW ที่กำหนด

    ความเร็วของ SSD ถูกจำกัดด้วยอินเทอร์เฟซ PCIe 3.0 x2
    แม้ใช้ SSD PCIe 4.0 แต่ความเร็วไม่เต็มประสิทธิภาพ
    อาจไม่เหมาะกับงานที่ต้องการความเร็วสูงสุดในการอ่าน/เขียน

    ราคาสูงและไม่เปิดเผยผู้ผลิต SSD
    รุ่น 19.2TB ราคา $4,399 ซึ่งสูงกว่ารุ่น 9.6TB ถึง 52%
    ไม่สามารถตรวจสอบคุณภาพ SSD ได้เพราะไม่มีข้อมูลผู้ผลิต

    https://www.tomshardware.com/pc-components/nas/qnaps-new-nas-brings-exotic-data-center-form-factor-into-your-house-massive-es-1-ssds-for-up-to-19-2tb-of-storage-for-usd4-399
    🖥️🏠 QNAP เปิดตัว NAS ระดับดาต้าเซ็นเตอร์สำหรับใช้ในบ้าน! ความจุสูงถึง 19.2TB ด้วย SSD แบบ “ruler” QNAP เปิดตัว NAS รุ่น TBS-h574TX ที่ใช้ SSD แบบ E1.S หรือ “ruler form factor” ซึ่งปกติใช้ในดาต้าเซ็นเตอร์ มาพร้อมความจุสูงสุด 19.2TB และราคาสูงถึง $4,399 QNAP สร้างความฮือฮาด้วยการเปิดตัว NASbook TBS-h574TX ที่ใช้ SSD แบบ EDSFF E1.S หรือที่เรียกว่า “ruler SSD” ซึ่งเป็นเทคโนโลยีที่ใช้ในดาต้าเซ็นเตอร์ระดับสูง โดยนำมาใช้ใน NAS สำหรับผู้ใช้ทั่วไปที่ต้องการประสิทธิภาพสูงและความจุมหาศาล รุ่นนี้รองรับ SSD ได้ถึง 5 ตัว และมีให้เลือกทั้งแบบ 9.6TB และ 19.2TB โดยใช้ SSD ขนาด 1.92TB และ 3.84TB ตามลำดับ (ใน RAID 0) หากใช้ RAID 5 จะได้ความจุประมาณ 7.68TB และ 15.36TB ตามลำดับ แม้จะสามารถซื้อ NAS รุ่นนี้แบบเปล่าและติดตั้ง SSD เองได้ แต่ QNAP ก็เสนอรุ่นที่ติดตั้งมาแล้วพร้อมใช้งาน โดยใช้ SSD ที่ไม่เปิดเผยผู้ผลิต (อาจเป็น Solidigm, Kioxia หรือ Micron) ตัวเครื่องใช้พลังงานประมาณ 46W และมาพร้อมพอร์ต Thunderbolt 4, Ethernet 2.5Gb และ 10Gb, USB 3.2 Gen 2 และ HDMI 1.4b รองรับ 4K ที่ 30Hz แม้จะใช้ SSD PCIe 4.0 แต่ตัว NAS รองรับแค่ PCIe 3.0 x2 ทำให้ความเร็วถูกจำกัดอยู่ที่ประมาณ 1,400 MB/s ในการอ่าน/เขียนแบบ sequential และ 70,000 IOPS สำหรับการเขียนแบบสุ่ม ✅ QNAP เปิดตัว NAS รุ่น TBS-h574TX ใช้ SSD แบบ E1.S ➡️ ความจุสูงสุด 19.2TB ด้วย SSD ขนาด 3.84TB x 5 ➡️ มีรุ่น 9.6TB ด้วย SSD ขนาด 1.92TB x 5 ➡️ รองรับ RAID 0 และ RAID 5 ✅ สเปกของ NAS ➡️ ใช้ Intel Core i5-1235U (12th Gen) พร้อม RAM 16GB ➡️ มีรุ่นอื่นที่ใช้ i5-1340PE และ i3-1320PE แต่ไม่รวม SSD ➡️ พอร์ตเชื่อมต่อ: Thunderbolt 4, Ethernet 2.5Gb/10Gb, USB 3.2 Gen 2, HDMI 1.4b ✅ ประสิทธิภาพและการใช้งาน ➡️ Sequential read/write ~1,400 MB/s ➡️ Random write ~70,000 IOPS ➡️ ใช้พลังงาน ~46W พร้อมอะแดปเตอร์ 120W ✅ การรับประกัน ➡️ ตัว NAS รับประกัน 3 ปี ➡️ SSD รับประกัน 5 ปีหรือจนถึง TBW ที่กำหนด ‼️ ความเร็วของ SSD ถูกจำกัดด้วยอินเทอร์เฟซ PCIe 3.0 x2 ⛔ แม้ใช้ SSD PCIe 4.0 แต่ความเร็วไม่เต็มประสิทธิภาพ ⛔ อาจไม่เหมาะกับงานที่ต้องการความเร็วสูงสุดในการอ่าน/เขียน ‼️ ราคาสูงและไม่เปิดเผยผู้ผลิต SSD ⛔ รุ่น 19.2TB ราคา $4,399 ซึ่งสูงกว่ารุ่น 9.6TB ถึง 52% ⛔ ไม่สามารถตรวจสอบคุณภาพ SSD ได้เพราะไม่มีข้อมูลผู้ผลิต https://www.tomshardware.com/pc-components/nas/qnaps-new-nas-brings-exotic-data-center-form-factor-into-your-house-massive-es-1-ssds-for-up-to-19-2tb-of-storage-for-usd4-399
    0 Comments 0 Shares 40 Views 0 Reviews
  • จีนเปิดตัวศูนย์ข้อมูลใต้น้ำพลังงานลมแห่งแรกของโลก!

    จีนสร้างศูนย์ข้อมูลใต้ทะเลลึก 35 เมตรนอกชายฝั่งเซี่ยงไฮ้ ใช้พลังงานลมและน้ำทะเลในการระบายความร้อน ตั้งเป้าเป็นต้นแบบโครงสร้างพื้นฐานคลาวด์ที่ประหยัดพลังงานและลดการใช้พื้นที่บนบก

    ในยุคที่ข้อมูลคือทุกสิ่ง จีนได้เปิดตัวโครงการที่พลิกโฉมวงการไอที: ศูนย์ข้อมูลใต้น้ำพลังงานลมแห่งแรกของโลก ตั้งอยู่ในพื้นที่พิเศษ Lin-gang ทางตอนใต้ของเซี่ยงไฮ้ โครงการนี้มีมูลค่ากว่า 226 ล้านดอลลาร์ และมีเป้าหมายสร้างศูนย์ข้อมูลขนาด 24 เมกะวัตต์ โดยเริ่มต้นแล้วที่ 2.3 เมกะวัตต์

    แนวคิดเบื้องหลังนั้นเรียบง่ายแต่ทรงพลัง: นำเซิร์ฟเวอร์ใส่แคปซูลกันน้ำ วางไว้ใต้ทะเล แล้วปล่อยให้ธรรมชาติช่วยระบายความร้อน ด้วยการใช้พลังงานลมจากทะเลและน้ำทะเลแทนเครื่องทำความเย็นแบบเดิม ทำให้ประสิทธิภาพการใช้พลังงาน (PUE) ต่ำกว่า 1.15 ซึ่งดีกว่าค่าเฉลี่ยของศูนย์ข้อมูลบนบก

    โครงการนี้ได้รับการสนับสนุนจากกลุ่มรัฐวิสาหกิจจีนหลายแห่ง และมีแผนขยายเป็นเวอร์ชัน 500 เมกะวัตต์ในอนาคต อย่างไรก็ตาม ความท้าทายยังคงอยู่: การซ่อมแซมหรืออัปเกรดฮาร์ดแวร์ในแคปซูลที่มีแรงดันสูงนั้นทั้งแพงและใช้เวลานาน

    แม้ Microsoft เคยทดลองแนวคิดคล้ายกันในโครงการ Natick แต่ก็ยุติไปเพราะต้นทุนและการบำรุงรักษาไม่คุ้มค่า จีนจึงต้องพิสูจน์ว่าแนวทางนี้จะยั่งยืนได้จริงในเชิงพาณิชย์

    จีนเปิดตัวศูนย์ข้อมูลใต้น้ำพลังงานลมแห่งแรกของโลก
    ตั้งอยู่ในพื้นที่ Lin-gang ใกล้เซี่ยงไฮ้
    ลึก 35 เมตรใต้ทะเล ใช้แคปซูลเหล็กเคลือบกันสนิม
    ใช้พลังงานลม 95% และน้ำทะเลในการระบายความร้อน
    PUE ต่ำกว่า 1.15 ดีกว่าค่ามาตรฐานของจีนที่ 1.25

    เป้าหมายและการขยายในอนาคต
    เริ่มต้นที่ 2.3 เมกะวัตต์ ตั้งเป้า 24 เมกะวัตต์
    มีแผนขยายเป็น 500 เมกะวัตต์ในพื้นที่นอกชายฝั่ง

    เทียบกับโครงการ Natick ของ Microsoft
    Natick มีความน่าเชื่อถือสูงถึง 8 เท่า แต่ไม่คุ้มทุน
    ถูกยุติและนำข้อมูลไปใช้ใน Azure

    https://www.tomshardware.com/tech-industry/cnina-deploys-wind-powered-underwater-data-center
    🌊⚡ จีนเปิดตัวศูนย์ข้อมูลใต้น้ำพลังงานลมแห่งแรกของโลก! จีนสร้างศูนย์ข้อมูลใต้ทะเลลึก 35 เมตรนอกชายฝั่งเซี่ยงไฮ้ ใช้พลังงานลมและน้ำทะเลในการระบายความร้อน ตั้งเป้าเป็นต้นแบบโครงสร้างพื้นฐานคลาวด์ที่ประหยัดพลังงานและลดการใช้พื้นที่บนบก ในยุคที่ข้อมูลคือทุกสิ่ง จีนได้เปิดตัวโครงการที่พลิกโฉมวงการไอที: ศูนย์ข้อมูลใต้น้ำพลังงานลมแห่งแรกของโลก ตั้งอยู่ในพื้นที่พิเศษ Lin-gang ทางตอนใต้ของเซี่ยงไฮ้ โครงการนี้มีมูลค่ากว่า 226 ล้านดอลลาร์ และมีเป้าหมายสร้างศูนย์ข้อมูลขนาด 24 เมกะวัตต์ โดยเริ่มต้นแล้วที่ 2.3 เมกะวัตต์ แนวคิดเบื้องหลังนั้นเรียบง่ายแต่ทรงพลัง: นำเซิร์ฟเวอร์ใส่แคปซูลกันน้ำ วางไว้ใต้ทะเล แล้วปล่อยให้ธรรมชาติช่วยระบายความร้อน ด้วยการใช้พลังงานลมจากทะเลและน้ำทะเลแทนเครื่องทำความเย็นแบบเดิม ทำให้ประสิทธิภาพการใช้พลังงาน (PUE) ต่ำกว่า 1.15 ซึ่งดีกว่าค่าเฉลี่ยของศูนย์ข้อมูลบนบก โครงการนี้ได้รับการสนับสนุนจากกลุ่มรัฐวิสาหกิจจีนหลายแห่ง และมีแผนขยายเป็นเวอร์ชัน 500 เมกะวัตต์ในอนาคต อย่างไรก็ตาม ความท้าทายยังคงอยู่: การซ่อมแซมหรืออัปเกรดฮาร์ดแวร์ในแคปซูลที่มีแรงดันสูงนั้นทั้งแพงและใช้เวลานาน แม้ Microsoft เคยทดลองแนวคิดคล้ายกันในโครงการ Natick แต่ก็ยุติไปเพราะต้นทุนและการบำรุงรักษาไม่คุ้มค่า จีนจึงต้องพิสูจน์ว่าแนวทางนี้จะยั่งยืนได้จริงในเชิงพาณิชย์ ✅ จีนเปิดตัวศูนย์ข้อมูลใต้น้ำพลังงานลมแห่งแรกของโลก ➡️ ตั้งอยู่ในพื้นที่ Lin-gang ใกล้เซี่ยงไฮ้ ➡️ ลึก 35 เมตรใต้ทะเล ใช้แคปซูลเหล็กเคลือบกันสนิม ➡️ ใช้พลังงานลม 95% และน้ำทะเลในการระบายความร้อน ➡️ PUE ต่ำกว่า 1.15 ดีกว่าค่ามาตรฐานของจีนที่ 1.25 ✅ เป้าหมายและการขยายในอนาคต ➡️ เริ่มต้นที่ 2.3 เมกะวัตต์ ตั้งเป้า 24 เมกะวัตต์ ➡️ มีแผนขยายเป็น 500 เมกะวัตต์ในพื้นที่นอกชายฝั่ง ✅ เทียบกับโครงการ Natick ของ Microsoft ➡️ Natick มีความน่าเชื่อถือสูงถึง 8 เท่า แต่ไม่คุ้มทุน ➡️ ถูกยุติและนำข้อมูลไปใช้ใน Azure https://www.tomshardware.com/tech-industry/cnina-deploys-wind-powered-underwater-data-center
    0 Comments 0 Shares 27 Views 0 Reviews
  • Akira Ransomware อ้างขโมยข้อมูล 23GB จาก Apache OpenOffice — ยังไม่มีการยืนยันจากทาง Apache

    กลุ่มแฮกเกอร์ Akira Ransomware ได้ออกมาอ้างว่าได้เจาะระบบของ Apache OpenOffice และขโมยข้อมูลภายในองค์กรกว่า 23GB ซึ่งรวมถึงข้อมูลพนักงาน เช่น ที่อยู่ เบอร์โทร เลขบัตรประชาชน หมายเลขบัตรเครดิต และเอกสารการเงินภายในองค์กร

    Akira เป็นกลุ่ม ransomware-as-a-service (RaaS) ที่เริ่มปรากฏตัวในปี 2023 และมีชื่อเสียงจากการใช้กลยุทธ์ “double extortion” คือขโมยข้อมูลก่อน แล้วจึงเข้ารหัสระบบเพื่อเรียกค่าไถ่ โดยในกรณีนี้ พวกเขาโพสต์ข้อความบน dark web ว่าจะเผยแพร่เอกสารทั้งหมดในเร็ว ๆ นี้

    อย่างไรก็ตาม ทาง Apache Software Foundation ยังไม่ออกมายืนยันว่ามีการเจาะระบบจริงหรือไม่ และไม่มีหลักฐานว่าการแจกจ่ายซอฟต์แวร์ของ OpenOffice ถูกกระทบ

    Akira ยังมีพฤติกรรมที่น่าสนใจ เช่น:
    ใช้ ransomware ที่ตรวจสอบ layout ของคีย์บอร์ดเพื่อหลีกเลี่ยงการโจมตีในประเทศที่ใช้ภาษารัสเซีย
    เคยถูกพบว่ามีการแฮกกล้องเว็บแคมของเหยื่อเพื่อเพิ่มแรงกดดันในการเรียกค่าไถ่

    ข้อมูลที่ถูกอ้างว่าถูกขโมย
    ข้อมูลพนักงาน: ที่อยู่ เบอร์โทร วันเกิด เลขบัตรประชาชน
    ข้อมูลการเงินและเอกสารภายในองค์กร
    รายงานปัญหาการใช้งานซอฟต์แวร์

    พฤติกรรมของ Akira Ransomware
    ใช้กลยุทธ์ double extortion
    มี ransomware สำหรับ Windows และ Linux/VMware ESXi
    ตรวจสอบ layout คีย์บอร์ดเพื่อหลีกเลี่ยงประเทศรัสเซีย
    เคยแฮกกล้องเว็บแคมของเหยื่อ

    สถานะปัจจุบัน
    Apache ยังไม่ยืนยันว่ามีการเจาะระบบ
    ไม่มีผลกระทบต่อระบบแจกจ่ายซอฟต์แวร์ของ OpenOffice
    ผู้ใช้ยังสามารถดาวน์โหลด OpenOffice ได้จากเว็บไซต์ทางการ

    คำเตือนสำหรับผู้ใช้งาน
    อย่าดาวน์โหลด OpenOffice จากลิงก์ที่แชร์ในโซเชียลหรือฟอรั่ม
    ควรติดตามประกาศจาก Apache Software Foundation อย่างใกล้ชิด
    หากใช้งานในองค์กร ควรตรวจสอบระบบภายในและอัปเดตมาตรการรักษาความปลอดภัย

    https://hackread.com/akira-ransomware-stole-apache-openoffice-data/
    🕵️ Akira Ransomware อ้างขโมยข้อมูล 23GB จาก Apache OpenOffice — ยังไม่มีการยืนยันจากทาง Apache กลุ่มแฮกเกอร์ Akira Ransomware ได้ออกมาอ้างว่าได้เจาะระบบของ Apache OpenOffice และขโมยข้อมูลภายในองค์กรกว่า 23GB ซึ่งรวมถึงข้อมูลพนักงาน เช่น ที่อยู่ เบอร์โทร เลขบัตรประชาชน หมายเลขบัตรเครดิต และเอกสารการเงินภายในองค์กร Akira เป็นกลุ่ม ransomware-as-a-service (RaaS) ที่เริ่มปรากฏตัวในปี 2023 และมีชื่อเสียงจากการใช้กลยุทธ์ “double extortion” คือขโมยข้อมูลก่อน แล้วจึงเข้ารหัสระบบเพื่อเรียกค่าไถ่ โดยในกรณีนี้ พวกเขาโพสต์ข้อความบน dark web ว่าจะเผยแพร่เอกสารทั้งหมดในเร็ว ๆ นี้ อย่างไรก็ตาม ทาง Apache Software Foundation ยังไม่ออกมายืนยันว่ามีการเจาะระบบจริงหรือไม่ และไม่มีหลักฐานว่าการแจกจ่ายซอฟต์แวร์ของ OpenOffice ถูกกระทบ 🔐 Akira ยังมีพฤติกรรมที่น่าสนใจ เช่น: 💠 ใช้ ransomware ที่ตรวจสอบ layout ของคีย์บอร์ดเพื่อหลีกเลี่ยงการโจมตีในประเทศที่ใช้ภาษารัสเซีย 💠 เคยถูกพบว่ามีการแฮกกล้องเว็บแคมของเหยื่อเพื่อเพิ่มแรงกดดันในการเรียกค่าไถ่ ✅ ข้อมูลที่ถูกอ้างว่าถูกขโมย ➡️ ข้อมูลพนักงาน: ที่อยู่ เบอร์โทร วันเกิด เลขบัตรประชาชน ➡️ ข้อมูลการเงินและเอกสารภายในองค์กร ➡️ รายงานปัญหาการใช้งานซอฟต์แวร์ ✅ พฤติกรรมของ Akira Ransomware ➡️ ใช้กลยุทธ์ double extortion ➡️ มี ransomware สำหรับ Windows และ Linux/VMware ESXi ➡️ ตรวจสอบ layout คีย์บอร์ดเพื่อหลีกเลี่ยงประเทศรัสเซีย ➡️ เคยแฮกกล้องเว็บแคมของเหยื่อ ✅ สถานะปัจจุบัน ➡️ Apache ยังไม่ยืนยันว่ามีการเจาะระบบ ➡️ ไม่มีผลกระทบต่อระบบแจกจ่ายซอฟต์แวร์ของ OpenOffice ➡️ ผู้ใช้ยังสามารถดาวน์โหลด OpenOffice ได้จากเว็บไซต์ทางการ ‼️ คำเตือนสำหรับผู้ใช้งาน ⛔ อย่าดาวน์โหลด OpenOffice จากลิงก์ที่แชร์ในโซเชียลหรือฟอรั่ม ⛔ ควรติดตามประกาศจาก Apache Software Foundation อย่างใกล้ชิด ⛔ หากใช้งานในองค์กร ควรตรวจสอบระบบภายในและอัปเดตมาตรการรักษาความปลอดภัย https://hackread.com/akira-ransomware-stole-apache-openoffice-data/
    HACKREAD.COM
    Akira Ransomware Claims It Stole 23GB from Apache OpenOffice
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 22 Views 0 Reviews
  • Proton เปิดตัว Data Breach Observatory — เครื่องมือตรวจจับข้อมูลรั่วไหลจาก Dark Web แบบเรียลไทม์

    Proton เปิดตัวแพลตฟอร์มใหม่ชื่อว่า “Data Breach Observatory” ที่ช่วยติดตามการรั่วไหลของข้อมูลจากตลาดมืดบน Dark Web โดยสามารถตรวจสอบได้ว่าองค์กรใดถูกเจาะ ข้อมูลใดถูกขโมย และจำนวนที่รั่วไหล — ทั้งหมดนี้เพื่อสร้างความโปร่งใสในโลกไซเบอร์ที่มักถูกปิดบัง

    Proton เป็นบริษัทที่ขึ้นชื่อเรื่องความปลอดภัยและความเป็นส่วนตัว เช่น ProtonMail, ProtonVPN และ Proton Drive ล่าสุดพวกเขาเปิดตัว “Data Breach Observatory” ซึ่งเป็นแพลตฟอร์มสาธารณะที่ช่วยติดตามการรั่วไหลของข้อมูลจาก Dark Web แบบเรียลไทม์

    แพลตฟอร์มนี้จะดึงข้อมูลจากฟอรั่มและตลาดมืดที่แฮกเกอร์ใช้ซื้อขายข้อมูลที่ถูกขโมย แล้วนำมาวิเคราะห์และเผยแพร่ให้สาธารณชนเข้าถึงได้ฟรี ผู้ใช้สามารถตรวจสอบได้ว่าองค์กรใดถูกเจาะ ข้อมูลประเภทใดที่รั่วไหล และจำนวนเรคคอร์ดที่ถูกขโมย

    Proton ร่วมมือกับ Constella Intelligence ในการตรวจสอบข้อมูลจาก Dark Web และในปี 2025 เพียงปีเดียว พบเหตุการณ์รั่วไหล 794 ครั้งที่เชื่อมโยงกับองค์กรโดยตรง และอีก 1,571 เหตุการณ์ที่เป็นชุดข้อมูลรวม ซึ่งรวมแล้วมีข้อมูลหลายร้อยพันล้านเรคคอร์ดที่ถูกเปิดเผย

    ข้อมูลที่รั่วไหลส่วนใหญ่ประกอบด้วย:
    อีเมล (100%)
    ชื่อ (90%)
    ข้อมูลติดต่อ (72%)
    รหัสผ่าน (49%)

    แพลตฟอร์มนี้ไม่เพียงแต่ช่วยให้องค์กรรู้ตัวก่อนจะถูกเปิดเผย แต่ยังช่วยให้บุคคลทั่วไปสามารถตรวจสอบได้ว่าข้อมูลของตนเองเคยปรากฏในตลาดมืดหรือไม่

    เกร็ดน่ารู้เพิ่มเติม
    Proton ใช้หลัก “your data, your rules” ในการออกแบบทุกบริการ
    Constella Intelligence เป็นบริษัทด้านความปลอดภัยที่เชี่ยวชาญการตรวจสอบข้อมูลจาก Dark Web
    การเปิดเผยข้อมูลรั่วไหลแบบเรียลไทม์ช่วยให้องค์กรสามารถตอบสนองได้เร็วขึ้น และลดผลกระทบจากการโจมตีทางไซเบอร์

    Data Breach Observatory ไม่ใช่แค่เครื่องมือ — แต่มันคือ “ไฟฉาย” ที่ส่องให้เห็นสิ่งที่เคยถูกซ่อนไว้ในเงามืดของโลกไซเบอร์

    https://news.itsfoss.com/proton-data-breach-observatory/
    🔍 Proton เปิดตัว Data Breach Observatory — เครื่องมือตรวจจับข้อมูลรั่วไหลจาก Dark Web แบบเรียลไทม์ Proton เปิดตัวแพลตฟอร์มใหม่ชื่อว่า “Data Breach Observatory” ที่ช่วยติดตามการรั่วไหลของข้อมูลจากตลาดมืดบน Dark Web โดยสามารถตรวจสอบได้ว่าองค์กรใดถูกเจาะ ข้อมูลใดถูกขโมย และจำนวนที่รั่วไหล — ทั้งหมดนี้เพื่อสร้างความโปร่งใสในโลกไซเบอร์ที่มักถูกปิดบัง Proton เป็นบริษัทที่ขึ้นชื่อเรื่องความปลอดภัยและความเป็นส่วนตัว เช่น ProtonMail, ProtonVPN และ Proton Drive ล่าสุดพวกเขาเปิดตัว “Data Breach Observatory” ซึ่งเป็นแพลตฟอร์มสาธารณะที่ช่วยติดตามการรั่วไหลของข้อมูลจาก Dark Web แบบเรียลไทม์ แพลตฟอร์มนี้จะดึงข้อมูลจากฟอรั่มและตลาดมืดที่แฮกเกอร์ใช้ซื้อขายข้อมูลที่ถูกขโมย แล้วนำมาวิเคราะห์และเผยแพร่ให้สาธารณชนเข้าถึงได้ฟรี ผู้ใช้สามารถตรวจสอบได้ว่าองค์กรใดถูกเจาะ ข้อมูลประเภทใดที่รั่วไหล และจำนวนเรคคอร์ดที่ถูกขโมย Proton ร่วมมือกับ Constella Intelligence ในการตรวจสอบข้อมูลจาก Dark Web และในปี 2025 เพียงปีเดียว พบเหตุการณ์รั่วไหล 794 ครั้งที่เชื่อมโยงกับองค์กรโดยตรง และอีก 1,571 เหตุการณ์ที่เป็นชุดข้อมูลรวม ซึ่งรวมแล้วมีข้อมูลหลายร้อยพันล้านเรคคอร์ดที่ถูกเปิดเผย ข้อมูลที่รั่วไหลส่วนใหญ่ประกอบด้วย: 🎗️ อีเมล (100%) 🎗️ ชื่อ (90%) 🎗️ ข้อมูลติดต่อ (72%) 🎗️ รหัสผ่าน (49%) แพลตฟอร์มนี้ไม่เพียงแต่ช่วยให้องค์กรรู้ตัวก่อนจะถูกเปิดเผย แต่ยังช่วยให้บุคคลทั่วไปสามารถตรวจสอบได้ว่าข้อมูลของตนเองเคยปรากฏในตลาดมืดหรือไม่ 🧠 เกร็ดน่ารู้เพิ่มเติม 💠 Proton ใช้หลัก “your data, your rules” ในการออกแบบทุกบริการ 💠 Constella Intelligence เป็นบริษัทด้านความปลอดภัยที่เชี่ยวชาญการตรวจสอบข้อมูลจาก Dark Web 💠 การเปิดเผยข้อมูลรั่วไหลแบบเรียลไทม์ช่วยให้องค์กรสามารถตอบสนองได้เร็วขึ้น และลดผลกระทบจากการโจมตีทางไซเบอร์ Data Breach Observatory ไม่ใช่แค่เครื่องมือ — แต่มันคือ “ไฟฉาย” ที่ส่องให้เห็นสิ่งที่เคยถูกซ่อนไว้ในเงามืดของโลกไซเบอร์ https://news.itsfoss.com/proton-data-breach-observatory/
    0 Comments 0 Shares 25 Views 0 Reviews
  • “Nvidia เปิดตัว Omniverse DSX – พิมพ์เขียวสร้างโรงงาน AI ขนาดกิกะวัตต์ ใช้พลังงานเท่ากับโรงไฟฟ้านิวเคลียร์!”

    ในงาน GTC 2025 Nvidia ได้เปิดตัว “Omniverse DSX Blueprint” พิมพ์เขียวสำหรับการสร้างศูนย์ข้อมูล AI ขนาดมหึมา ที่เรียกว่า “AI Factory” ซึ่งมีขนาดตั้งแต่ 100 เมกะวัตต์ไปจนถึงหลายกิกะวัตต์ โดยแต่ละแห่งต้องใช้พลังงานเทียบเท่าโรงไฟฟ้านิวเคลียร์หนึ่งโรง! จุดเด่นของ DSX คือการใช้ “Digital Twin” จำลองทุกองค์ประกอบของศูนย์ข้อมูล ตั้งแต่ระบบไฟฟ้า การระบายความร้อน ไปจนถึงการจัดวางเซิร์ฟเวอร์ เพื่อให้สามารถออกแบบและปรับแต่งได้อย่างแม่นยำก่อนลงมือสร้างจริง

    DSX ยังมีสองโหมดการใช้งานหลักคือ “DSX Boost” ที่เน้นการจัดการพลังงานภายในศูนย์ข้อมูลให้มีประสิทธิภาพสูงขึ้น และ “DSX Flex” ที่เชื่อมต่อกับโครงข่ายพลังงานภายนอกเพื่อดึงพลังงานหมุนเวียนที่ยังไม่ได้ใช้งานกว่า 100 GW เข้ามาใช้ได้อย่างชาญฉลาด

    การออกแบบนี้ถูกทดสอบจริงที่ศูนย์วิจัย AI Factory ของ Nvidia ในรัฐเวอร์จิเนีย และถูกนำไปใช้ในโครงการจริง เช่น Switch site ขนาด 2 GW ในจอร์เจีย และ Stargate facility ขนาด 1.2 GW ในเท็กซัส

    นอกจากนั้น DSX ยังรองรับฮาร์ดแวร์รุ่นใหม่อย่าง Blackwell และ Vera Rubin ที่จะมาในอนาคต โดยมีเป้าหมายเพื่อให้บริษัทหน้าใหม่สามารถสร้างโรงงาน AI ได้โดยไม่ต้องมีประสบการณ์ด้านโครงสร้างพื้นฐานมาก่อน

    ข้อมูลสำคัญจากข่าว
    Omniverse DSX เป็นพิมพ์เขียวสำหรับศูนย์ข้อมูล AI ขนาด 100 MW ถึงหลาย GW
    ใช้ Digital Twin จำลองการออกแบบก่อนสร้างจริง
    ทดสอบแล้วที่ศูนย์วิจัย AI Factory ในเวอร์จิเนีย
    ถูกนำไปใช้ใน Switch site (2 GW) และ Stargate facility (1.2 GW)

    โหมดการทำงานของ DSX
    DSX Boost: เพิ่มประสิทธิภาพภายใน ลดการใช้พลังงานลง 30% หรือเพิ่มความหนาแน่นของ GPU ได้ 30%
    DSX Flex: เชื่อมต่อกับโครงข่ายพลังงานภายนอก ดึงพลังงานหมุนเวียนที่ยังไม่ได้ใช้งานกว่า 100 GW

    ความสามารถในการรองรับฮาร์ดแวร์
    รองรับ Blackwell generation และ Vera Rubin ในอนาคต
    ออกแบบให้สามารถใช้งานร่วมกับระบบระบายความร้อนและเครือข่ายได้ทันที

    จุดเด่นด้านการออกแบบและการใช้งาน
    ใช้ Omniverse framework ในการจำลองและควบคุม
    ช่วยให้บริษัทหน้าใหม่สามารถสร้างโรงงาน AI ได้ง่ายขึ้น
    ลดเวลาในการออกแบบและก่อสร้างด้วยโมดูลสำเร็จรูป

    คำเตือนและข้อจำกัด
    การใช้พลังงานระดับกิกะวัตต์อาจกระทบต่อโครงข่ายไฟฟ้าในพื้นที่
    ต้องมีการวางแผนร่วมกับหน่วยงานพลังงานและสิ่งแวดล้อมอย่างรอบคอบ
    การสร้างโรงงาน AI ขนาดใหญ่ต้องใช้ทรัพยากรจำนวนมากทั้งด้านที่ดิน น้ำ และระบบระบายความร้อน

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-announces-reference-design-for-gargantuan-gigawatt-scale-omniverse-dsx-data-centers-single-data-center-requires-a-nuclear-reactors-worth-of-power-generation
    🧱 “Nvidia เปิดตัว Omniverse DSX – พิมพ์เขียวสร้างโรงงาน AI ขนาดกิกะวัตต์ ใช้พลังงานเท่ากับโรงไฟฟ้านิวเคลียร์!” ในงาน GTC 2025 Nvidia ได้เปิดตัว “Omniverse DSX Blueprint” พิมพ์เขียวสำหรับการสร้างศูนย์ข้อมูล AI ขนาดมหึมา ที่เรียกว่า “AI Factory” ซึ่งมีขนาดตั้งแต่ 100 เมกะวัตต์ไปจนถึงหลายกิกะวัตต์ โดยแต่ละแห่งต้องใช้พลังงานเทียบเท่าโรงไฟฟ้านิวเคลียร์หนึ่งโรง! จุดเด่นของ DSX คือการใช้ “Digital Twin” จำลองทุกองค์ประกอบของศูนย์ข้อมูล ตั้งแต่ระบบไฟฟ้า การระบายความร้อน ไปจนถึงการจัดวางเซิร์ฟเวอร์ เพื่อให้สามารถออกแบบและปรับแต่งได้อย่างแม่นยำก่อนลงมือสร้างจริง DSX ยังมีสองโหมดการใช้งานหลักคือ “DSX Boost” ที่เน้นการจัดการพลังงานภายในศูนย์ข้อมูลให้มีประสิทธิภาพสูงขึ้น และ “DSX Flex” ที่เชื่อมต่อกับโครงข่ายพลังงานภายนอกเพื่อดึงพลังงานหมุนเวียนที่ยังไม่ได้ใช้งานกว่า 100 GW เข้ามาใช้ได้อย่างชาญฉลาด การออกแบบนี้ถูกทดสอบจริงที่ศูนย์วิจัย AI Factory ของ Nvidia ในรัฐเวอร์จิเนีย และถูกนำไปใช้ในโครงการจริง เช่น Switch site ขนาด 2 GW ในจอร์เจีย และ Stargate facility ขนาด 1.2 GW ในเท็กซัส นอกจากนั้น DSX ยังรองรับฮาร์ดแวร์รุ่นใหม่อย่าง Blackwell และ Vera Rubin ที่จะมาในอนาคต โดยมีเป้าหมายเพื่อให้บริษัทหน้าใหม่สามารถสร้างโรงงาน AI ได้โดยไม่ต้องมีประสบการณ์ด้านโครงสร้างพื้นฐานมาก่อน ✅ ข้อมูลสำคัญจากข่าว ➡️ Omniverse DSX เป็นพิมพ์เขียวสำหรับศูนย์ข้อมูล AI ขนาด 100 MW ถึงหลาย GW ➡️ ใช้ Digital Twin จำลองการออกแบบก่อนสร้างจริง ➡️ ทดสอบแล้วที่ศูนย์วิจัย AI Factory ในเวอร์จิเนีย ➡️ ถูกนำไปใช้ใน Switch site (2 GW) และ Stargate facility (1.2 GW) ✅ โหมดการทำงานของ DSX ➡️ DSX Boost: เพิ่มประสิทธิภาพภายใน ลดการใช้พลังงานลง 30% หรือเพิ่มความหนาแน่นของ GPU ได้ 30% ➡️ DSX Flex: เชื่อมต่อกับโครงข่ายพลังงานภายนอก ดึงพลังงานหมุนเวียนที่ยังไม่ได้ใช้งานกว่า 100 GW ✅ ความสามารถในการรองรับฮาร์ดแวร์ ➡️ รองรับ Blackwell generation และ Vera Rubin ในอนาคต ➡️ ออกแบบให้สามารถใช้งานร่วมกับระบบระบายความร้อนและเครือข่ายได้ทันที ✅ จุดเด่นด้านการออกแบบและการใช้งาน ➡️ ใช้ Omniverse framework ในการจำลองและควบคุม ➡️ ช่วยให้บริษัทหน้าใหม่สามารถสร้างโรงงาน AI ได้ง่ายขึ้น ➡️ ลดเวลาในการออกแบบและก่อสร้างด้วยโมดูลสำเร็จรูป ‼️ คำเตือนและข้อจำกัด ⛔ การใช้พลังงานระดับกิกะวัตต์อาจกระทบต่อโครงข่ายไฟฟ้าในพื้นที่ ⛔ ต้องมีการวางแผนร่วมกับหน่วยงานพลังงานและสิ่งแวดล้อมอย่างรอบคอบ ⛔ การสร้างโรงงาน AI ขนาดใหญ่ต้องใช้ทรัพยากรจำนวนมากทั้งด้านที่ดิน น้ำ และระบบระบายความร้อน https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-announces-reference-design-for-gargantuan-gigawatt-scale-omniverse-dsx-data-centers-single-data-center-requires-a-nuclear-reactors-worth-of-power-generation
    0 Comments 0 Shares 128 Views 0 Reviews
  • ข่าวดีสายเกม: “Linux เล่นเกม Windows ได้เกือบ 90% แล้ว! พร้อมรับยุคหลัง Windows 10”

    ในยุคที่ Windows 10 กำลังจะหมดอายุในปี 2025 ผู้ใช้คอมพิวเตอร์จำนวนมากเริ่มมองหาทางเลือกใหม่ และ Linux กำลังกลายเป็นตัวเลือกที่น่าสนใจอย่างยิ่ง โดยเฉพาะสำหรับสายเกม ล่าสุดมีรายงานจาก ProtonDB และ Boiling Steam เผยว่า เกือบ 90% ของเกม Windows สามารถเล่นบน Linux ได้แล้ว ด้วยความช่วยเหลือจากเทคโนโลยีอย่าง Proton และ WINE ที่พัฒนาโดย Valve และ CodeWeavers

    การเปลี่ยนแปลงนี้เกิดขึ้นจากความพยายามของชุมชนโอเพ่นซอร์สและการเติบโตของอุปกรณ์อย่าง Steam Deck ที่ใช้ระบบปฏิบัติการ Linux โดยตรง ซึ่งช่วยผลักดันให้เกมเมอร์สามารถเข้าถึงเกม Windows ได้ง่ายขึ้นโดยไม่ต้องใช้ระบบปฏิบัติการของ Microsoft

    แม้จะยังมีเกมบางประเภทที่ไม่สามารถเล่นได้ เช่น เกมที่ใช้ระบบป้องกันโกงแบบเข้มงวด แต่แนวโน้มโดยรวมคือเกมใหม่ ๆ มีแนวโน้มรองรับ Linux มากขึ้น และผู้พัฒนาเกมก็เริ่มให้ความสำคัญกับการทดสอบบน Linux ตั้งแต่ต้น

    ความก้าวหน้าของเกม Windows บน Linux
    เกือบ 90% ของเกม Windows สามารถเล่นบน Linux ได้แล้ว
    ใช้ Proton และ WINE เป็นตัวกลางแปลคำสั่ง Windows ให้ Linux เข้าใจ
    Steam Deck ช่วยผลักดันการพัฒนาเกมให้รองรับ Linux มากขึ้น

    การจัดอันดับความเข้ากันได้ของเกม
    Platinum: เล่นได้สมบูรณ์แบบ
    Gold: เล่นได้ดี มีการปรับแต่งเล็กน้อย
    Silver: เล่นได้แต่มีข้อบกพร่อง
    Bronze: อยู่ระหว่างเล่นได้กับเล่นไม่ได้
    Borked: ไม่สามารถเปิดเกมได้เลย

    สถิติจาก ProtonDB และ Boiling Steam
    เกมใหม่มีแนวโน้มได้คะแนน Platinum มากขึ้น
    จำนวนเกมที่ “Borked” ลดลงอย่างต่อเนื่อง
    83% ของเกมยอดนิยมบน Steam ได้คะแนน Platinum หรือ Gold

    Linux กลายเป็นตัวเลือกจริงจังสำหรับเกมเมอร์
    Valve ร่วมมือกับนักพัฒนาเพื่อปรับปรุงความเข้ากันได้
    SteamOS และดิสโทร Linux เช่น Mint, Zorin, Bazzite รองรับเกมได้ดีขึ้น
    การสิ้นสุดของ Windows 10 เป็นแรงผลักดันให้ผู้ใช้หันมาใช้ Linux

    https://www.tomshardware.com/software/linux/nearly-90-percent-of-windows-games-now-run-on-linux-latest-data-shows-as-windows-10-dies-gaming-on-linux-is-more-viable-than-ever
    🎮 ข่าวดีสายเกม: “Linux เล่นเกม Windows ได้เกือบ 90% แล้ว! พร้อมรับยุคหลัง Windows 10” ในยุคที่ Windows 10 กำลังจะหมดอายุในปี 2025 ผู้ใช้คอมพิวเตอร์จำนวนมากเริ่มมองหาทางเลือกใหม่ และ Linux กำลังกลายเป็นตัวเลือกที่น่าสนใจอย่างยิ่ง โดยเฉพาะสำหรับสายเกม ล่าสุดมีรายงานจาก ProtonDB และ Boiling Steam เผยว่า เกือบ 90% ของเกม Windows สามารถเล่นบน Linux ได้แล้ว ด้วยความช่วยเหลือจากเทคโนโลยีอย่าง Proton และ WINE ที่พัฒนาโดย Valve และ CodeWeavers การเปลี่ยนแปลงนี้เกิดขึ้นจากความพยายามของชุมชนโอเพ่นซอร์สและการเติบโตของอุปกรณ์อย่าง Steam Deck ที่ใช้ระบบปฏิบัติการ Linux โดยตรง ซึ่งช่วยผลักดันให้เกมเมอร์สามารถเข้าถึงเกม Windows ได้ง่ายขึ้นโดยไม่ต้องใช้ระบบปฏิบัติการของ Microsoft แม้จะยังมีเกมบางประเภทที่ไม่สามารถเล่นได้ เช่น เกมที่ใช้ระบบป้องกันโกงแบบเข้มงวด แต่แนวโน้มโดยรวมคือเกมใหม่ ๆ มีแนวโน้มรองรับ Linux มากขึ้น และผู้พัฒนาเกมก็เริ่มให้ความสำคัญกับการทดสอบบน Linux ตั้งแต่ต้น ✅ ความก้าวหน้าของเกม Windows บน Linux ➡️ เกือบ 90% ของเกม Windows สามารถเล่นบน Linux ได้แล้ว ➡️ ใช้ Proton และ WINE เป็นตัวกลางแปลคำสั่ง Windows ให้ Linux เข้าใจ ➡️ Steam Deck ช่วยผลักดันการพัฒนาเกมให้รองรับ Linux มากขึ้น ✅ การจัดอันดับความเข้ากันได้ของเกม ➡️ Platinum: เล่นได้สมบูรณ์แบบ ➡️ Gold: เล่นได้ดี มีการปรับแต่งเล็กน้อย ➡️ Silver: เล่นได้แต่มีข้อบกพร่อง ➡️ Bronze: อยู่ระหว่างเล่นได้กับเล่นไม่ได้ ➡️ Borked: ไม่สามารถเปิดเกมได้เลย ✅ สถิติจาก ProtonDB และ Boiling Steam ➡️ เกมใหม่มีแนวโน้มได้คะแนน Platinum มากขึ้น ➡️ จำนวนเกมที่ “Borked” ลดลงอย่างต่อเนื่อง ➡️ 83% ของเกมยอดนิยมบน Steam ได้คะแนน Platinum หรือ Gold ✅ Linux กลายเป็นตัวเลือกจริงจังสำหรับเกมเมอร์ ➡️ Valve ร่วมมือกับนักพัฒนาเพื่อปรับปรุงความเข้ากันได้ ➡️ SteamOS และดิสโทร Linux เช่น Mint, Zorin, Bazzite รองรับเกมได้ดีขึ้น ➡️ การสิ้นสุดของ Windows 10 เป็นแรงผลักดันให้ผู้ใช้หันมาใช้ Linux https://www.tomshardware.com/software/linux/nearly-90-percent-of-windows-games-now-run-on-linux-latest-data-shows-as-windows-10-dies-gaming-on-linux-is-more-viable-than-ever
    0 Comments 0 Shares 109 Views 0 Reviews
  • วิธีปกป้องข้อมูลของคุณเมื่อส่งไฟล์ขนาดใหญ่ — ใช้เทคโนโลยีและนิสัยที่ปลอดภัยเพื่อหลีกเลี่ยงการถูกดักข้อมูล

    บทความจาก HackRead แนะนำแนวทางปฏิบัติและเทคโนโลยีที่ช่วยให้การส่งไฟล์ขนาดใหญ่ปลอดภัยมากขึ้น ทั้งสำหรับบุคคลทั่วไปและองค์กร โดยเน้นการใช้การเข้ารหัส, เครือข่ายที่ปลอดภัย, และการตรวจสอบผู้รับก่อนส่งข้อมูลสำคัญ

    ภัยคุกคามที่ต้องรู้ก่อนส่งไฟล์
    การโจมตีแบบ Man-in-the-Middle และการฝังมัลแวร์
    แฮกเกอร์สามารถดักข้อมูลระหว่างการส่งไฟล์ผ่านเครือข่ายที่ไม่ปลอดภัย
    อาจนำไปสู่การสูญเสียข้อมูล, การขโมยตัวตน, หรือความเสียหายต่อชื่อเสียงองค์กร

    ผลกระทบต่อบุคคลและธุรกิจ
    บุคคลอาจถูกขโมยข้อมูลส่วนตัวหรือเงิน
    ธุรกิจเสี่ยงต่อการสูญเสียข้อมูลลูกค้าและความไว้วางใจจากคู่ค้า

    แนวทางปฏิบัติที่ช่วยให้การส่งไฟล์ปลอดภัย
    ใช้การเข้ารหัส (Encryption)
    ทำให้ข้อมูลอ่านได้เฉพาะผู้รับที่มีคีย์ถอดรหัส
    ควรใช้โปรโตคอล SSL/TLS สำหรับการส่งข้อมูลผ่านอินเทอร์เน็ต

    ใช้เครือข่ายที่ปลอดภัย เช่น VPN หรือ private connection
    ลดโอกาสที่ข้อมูลจะถูกดักระหว่างทาง
    หลีกเลี่ยงการส่งไฟล์ผ่าน Wi-Fi สาธารณะ

    เลือกบริการส่งไฟล์ที่มีระบบรักษาความปลอดภัยในตัว
    เช่น บริการที่มีการสร้างลิงก์แบบหมดอายุหรือใช้รหัสผ่าน
    ตรวจสอบว่าแพลตฟอร์มมีการเข้ารหัสและไม่เก็บข้อมูลเกินจำเป็น

    อัปเดตซอฟต์แวร์และระบบอย่างสม่ำเสมอ
    ป้องกันการโจมตีจากช่องโหว่ที่รู้จัก
    รวมถึงระบบปฏิบัติการ, แอปส่งไฟล์, และโปรแกรมป้องกันไวรัส

    ตรวจสอบผู้รับก่อนส่งข้อมูลสำคัญ
    ยืนยันตัวตนของผู้รับ เช่น ผ่านการโทรหรือช่องทางที่เชื่อถือได้
    หลีกเลี่ยงการส่งข้อมูลไปยังอีเมลหรือบัญชีที่ไม่รู้จัก



    https://hackread.com/how-to-keep-your-data-safe-when-transferring-large-files/
    🔐 วิธีปกป้องข้อมูลของคุณเมื่อส่งไฟล์ขนาดใหญ่ — ใช้เทคโนโลยีและนิสัยที่ปลอดภัยเพื่อหลีกเลี่ยงการถูกดักข้อมูล บทความจาก HackRead แนะนำแนวทางปฏิบัติและเทคโนโลยีที่ช่วยให้การส่งไฟล์ขนาดใหญ่ปลอดภัยมากขึ้น ทั้งสำหรับบุคคลทั่วไปและองค์กร โดยเน้นการใช้การเข้ารหัส, เครือข่ายที่ปลอดภัย, และการตรวจสอบผู้รับก่อนส่งข้อมูลสำคัญ 🚨 ภัยคุกคามที่ต้องรู้ก่อนส่งไฟล์ ✅ การโจมตีแบบ Man-in-the-Middle และการฝังมัลแวร์ ➡️ แฮกเกอร์สามารถดักข้อมูลระหว่างการส่งไฟล์ผ่านเครือข่ายที่ไม่ปลอดภัย ➡️ อาจนำไปสู่การสูญเสียข้อมูล, การขโมยตัวตน, หรือความเสียหายต่อชื่อเสียงองค์กร ✅ ผลกระทบต่อบุคคลและธุรกิจ ➡️ บุคคลอาจถูกขโมยข้อมูลส่วนตัวหรือเงิน ➡️ ธุรกิจเสี่ยงต่อการสูญเสียข้อมูลลูกค้าและความไว้วางใจจากคู่ค้า 📙 แนวทางปฏิบัติที่ช่วยให้การส่งไฟล์ปลอดภัย ✅ ใช้การเข้ารหัส (Encryption) ➡️ ทำให้ข้อมูลอ่านได้เฉพาะผู้รับที่มีคีย์ถอดรหัส ➡️ ควรใช้โปรโตคอล SSL/TLS สำหรับการส่งข้อมูลผ่านอินเทอร์เน็ต ✅ ใช้เครือข่ายที่ปลอดภัย เช่น VPN หรือ private connection ➡️ ลดโอกาสที่ข้อมูลจะถูกดักระหว่างทาง ➡️ หลีกเลี่ยงการส่งไฟล์ผ่าน Wi-Fi สาธารณะ ✅ เลือกบริการส่งไฟล์ที่มีระบบรักษาความปลอดภัยในตัว ➡️ เช่น บริการที่มีการสร้างลิงก์แบบหมดอายุหรือใช้รหัสผ่าน ➡️ ตรวจสอบว่าแพลตฟอร์มมีการเข้ารหัสและไม่เก็บข้อมูลเกินจำเป็น ✅ อัปเดตซอฟต์แวร์และระบบอย่างสม่ำเสมอ ➡️ ป้องกันการโจมตีจากช่องโหว่ที่รู้จัก ➡️ รวมถึงระบบปฏิบัติการ, แอปส่งไฟล์, และโปรแกรมป้องกันไวรัส ✅ ตรวจสอบผู้รับก่อนส่งข้อมูลสำคัญ ➡️ ยืนยันตัวตนของผู้รับ เช่น ผ่านการโทรหรือช่องทางที่เชื่อถือได้ ➡️ หลีกเลี่ยงการส่งข้อมูลไปยังอีเมลหรือบัญชีที่ไม่รู้จัก https://hackread.com/how-to-keep-your-data-safe-when-transferring-large-files/
    HACKREAD.COM
    How to keep your data safe when transferring large files
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 109 Views 0 Reviews
  • Google แนะนำแนวทาง “Functional Core, Imperative Shell” เพื่อเขียนโค้ดให้สะอาด ทดสอบง่าย และปรับขยายได้

    บทความจาก Google Testing Blog เสนอแนวคิดการแยกโค้ดออกเป็นสองส่วน: Functional Core ที่เป็นฟังก์ชันบริสุทธิ์ (pure functions) และ Imperative Shell ที่จัดการ side effects เช่น I/O, database, หรือ network — เพื่อให้โค้ดมีความสามารถในการทดสอบและดูแลรักษาได้ดีขึ้น.

    แนวคิดหลักจากบทความ

    Functional Core คือส่วนที่ไม่มี side effects
    ประกอบด้วยฟังก์ชันที่รับข้อมูลเข้าและคืนผลลัพธ์โดยไม่เปลี่ยนแปลงสถานะภายนอก
    สามารถทดสอบได้ง่ายและนำกลับมาใช้ซ้ำได้

    Imperative Shell คือส่วนที่จัดการกับโลกภายนอก
    เช่น การส่งอีเมล, อ่านข้อมูลจาก database, หรือเขียนไฟล์
    ใช้ผลลัพธ์จาก Functional Core เพื่อดำเนินการจริง

    ตัวอย่างจากบทความ: การส่งอีเมลแจ้งเตือนผู้ใช้หมดอายุ
    โค้ดเดิมผสม logic กับ side effects ทำให้ทดสอบยาก
    โค้ดใหม่แยก logic ออกมาเป็นฟังก์ชัน getExpiredUsers() และ generateExpiryEmails()
    Shell ใช้ฟังก์ชันเหล่านี้เพื่อส่งอีเมลจริงผ่าน email.bulkSend(...)

    ข้อดีของแนวทางนี้
    ทดสอบง่าย: ไม่ต้อง mock database หรือ network
    ปรับขยายง่าย: เพิ่มฟีเจอร์ใหม่โดยเขียนฟังก์ชันใหม่ใน core
    ดูแลรักษาง่าย

    ตัวอย่างโค้ดเปรียบเทียบ

    ก่อน (ผสม logic กับ side effects):

    function sendUserExpiryEmail() {
    for (const user of db.getUsers()) {
    if (user.subscriptionEndDate > Date.now()) continue;
    if (user.isFreeTrial) continue;
    email.send(user.email, "Your account has expired " + user.name + ".");
    }
    }

    หลัง (แยก core และ shell):

    function getExpiredUsers(users, cutoff) {
    return users.filter(user => user.subscriptionEndDate <= cutoff && !user.isFreeTrial);
    }

    function generateExpiryEmails(users) {
    return users.map(user => [user.email, "Your account has expired " + user.name + "."]);
    }

    email.bulkSend(generateExpiryEmails(getExpiredUsers(db.getUsers(), Date.now())));

    การใช้แนวทาง Functional Core, Imperative Shell ช่วยให้โค้ดมีโครงสร้างที่ชัดเจนและยืดหยุ่น — เหมาะสำหรับทีมที่ต้องการลดความซับซ้อนและเพิ่มคุณภาพในการทดสอบและดูแลระบบในระยะยาว

    สาระเพิ่มเติมจากแนวทาง functional programming
    แนวคิดนี้คล้ายกับ “Hexagonal Architecture” หรือ “Clean Architecture” ที่แยก domain logic ออกจาก infrastructure
    ภาษา functional เช่น Haskell, F#, หรือ Elm ใช้แนวทางนี้เป็นหลัก
    ใน JavaScript/TypeScript ก็สามารถนำไปใช้ได้ โดยใช้ pure functions ร่วมกับ async shell
    ช่วยลดการใช้ mock ใน unit test เพราะ core ไม่ต้องพึ่ง database หรือ network

    https://testing.googleblog.com/2025/10/simplify-your-code-functional-core.html
    🧼🧠 Google แนะนำแนวทาง “Functional Core, Imperative Shell” เพื่อเขียนโค้ดให้สะอาด ทดสอบง่าย และปรับขยายได้ บทความจาก Google Testing Blog เสนอแนวคิดการแยกโค้ดออกเป็นสองส่วน: Functional Core ที่เป็นฟังก์ชันบริสุทธิ์ (pure functions) และ Imperative Shell ที่จัดการ side effects เช่น I/O, database, หรือ network — เพื่อให้โค้ดมีความสามารถในการทดสอบและดูแลรักษาได้ดีขึ้น. ✅ แนวคิดหลักจากบทความ ✅ Functional Core คือส่วนที่ไม่มี side effects ➡️ ประกอบด้วยฟังก์ชันที่รับข้อมูลเข้าและคืนผลลัพธ์โดยไม่เปลี่ยนแปลงสถานะภายนอก ➡️ สามารถทดสอบได้ง่ายและนำกลับมาใช้ซ้ำได้ ✅ Imperative Shell คือส่วนที่จัดการกับโลกภายนอก ➡️ เช่น การส่งอีเมล, อ่านข้อมูลจาก database, หรือเขียนไฟล์ ➡️ ใช้ผลลัพธ์จาก Functional Core เพื่อดำเนินการจริง ✅ ตัวอย่างจากบทความ: การส่งอีเมลแจ้งเตือนผู้ใช้หมดอายุ ➡️ โค้ดเดิมผสม logic กับ side effects ทำให้ทดสอบยาก ➡️ โค้ดใหม่แยก logic ออกมาเป็นฟังก์ชัน getExpiredUsers() และ generateExpiryEmails() ➡️ Shell ใช้ฟังก์ชันเหล่านี้เพื่อส่งอีเมลจริงผ่าน email.bulkSend(...) ✅ ข้อดีของแนวทางนี้ ➡️ ทดสอบง่าย: ไม่ต้อง mock database หรือ network ➡️ ปรับขยายง่าย: เพิ่มฟีเจอร์ใหม่โดยเขียนฟังก์ชันใหม่ใน core ➡️ ดูแลรักษาง่าย 🛠️ ตัวอย่างโค้ดเปรียบเทียบ 🔖 ก่อน (ผสม logic กับ side effects): function sendUserExpiryEmail() { for (const user of db.getUsers()) { if (user.subscriptionEndDate > Date.now()) continue; if (user.isFreeTrial) continue; email.send(user.email, "Your account has expired " + user.name + "."); } } 🔖 หลัง (แยก core และ shell): function getExpiredUsers(users, cutoff) { return users.filter(user => user.subscriptionEndDate <= cutoff && !user.isFreeTrial); } function generateExpiryEmails(users) { return users.map(user => [user.email, "Your account has expired " + user.name + "."]); } email.bulkSend(generateExpiryEmails(getExpiredUsers(db.getUsers(), Date.now()))); การใช้แนวทาง Functional Core, Imperative Shell ช่วยให้โค้ดมีโครงสร้างที่ชัดเจนและยืดหยุ่น — เหมาะสำหรับทีมที่ต้องการลดความซับซ้อนและเพิ่มคุณภาพในการทดสอบและดูแลระบบในระยะยาว ✅ สาระเพิ่มเติมจากแนวทาง functional programming ➡️ แนวคิดนี้คล้ายกับ “Hexagonal Architecture” หรือ “Clean Architecture” ที่แยก domain logic ออกจาก infrastructure ➡️ ภาษา functional เช่น Haskell, F#, หรือ Elm ใช้แนวทางนี้เป็นหลัก ➡️ ใน JavaScript/TypeScript ก็สามารถนำไปใช้ได้ โดยใช้ pure functions ร่วมกับ async shell ➡️ ช่วยลดการใช้ mock ใน unit test เพราะ core ไม่ต้องพึ่ง database หรือ network https://testing.googleblog.com/2025/10/simplify-your-code-functional-core.html
    TESTING.GOOGLEBLOG.COM
    Simplify Your Code: Functional Core, Imperative Shell
    This article was adapted from a Google Tech on the Toilet (TotT) episode. You can download a printer-friendly version of this TotT epis...
    0 Comments 0 Shares 104 Views 0 Reviews
  • Microsoft Teams เตรียมเพิ่มฟีเจอร์ติดตามสถานที่ทำงานผ่าน Wi-Fi — เริ่มใช้ธันวาคมนี้แบบ opt-in

    Microsoft Teams จะเปิดตัวฟีเจอร์ใหม่ในเดือนธันวาคม 2025 ที่สามารถตรวจจับเครือข่าย Wi-Fi เพื่อปรับสถานะ “สถานที่ทำงาน” ของผู้ใช้โดยอัตโนมัติ เช่น หากเชื่อมต่อกับ Wi-Fi ของออฟฟิศ ระบบจะตั้งสถานะเป็น “in the office” และหากเปลี่ยนไปใช้เครือข่ายอื่นหรือ cellular data ก็จะเปลี่ยนเป็น “working remotely”

    ฟีเจอร์จะเปิดใช้งานแบบ opt-in เท่านั้น
    เริ่มต้นจะถูกปิดไว้โดยค่าเริ่มต้น
    ผู้ดูแลระบบสามารถเปิดใช้งานจาก admin console
    พนักงานสามารถเลือกเข้าร่วมได้เอง

    การเปลี่ยนสถานะทำงานจะขึ้นอยู่กับ Wi-Fi ที่เชื่อมต่อ
    หากเชื่อมต่อกับ Wi-Fi ที่องค์กรกำหนด จะถูกระบุว่า “in the office”
    หากเชื่อมต่อกับ Wi-Fi ภายนอกหรือ cellular data จะเปลี่ยนเป็น “remote”

    ช่วยให้ทีมทำงานร่วมกันได้ดีขึ้น
    เพื่อนร่วมงานสามารถรู้ได้ว่าควรเดินไปหาที่โต๊ะหรือโทรหาแทน
    ลดความไม่แน่นอนในการติดต่อกันในทีมขนาดใหญ่

    Microsoft ตระหนักถึงความกังวลด้านความเป็นส่วนตัว
    ฟีเจอร์นี้ไม่ได้เปิดใช้งานโดยอัตโนมัติ
    ผู้ใช้ต้องยินยอมก่อนจึงจะมีการติดตามสถานที่ผ่าน Wi-Fi

    แนวโน้มการใช้ฟีเจอร์นี้ในยุคกลับเข้าออฟฟิศ (RTO)
    บริษัทต่าง ๆ ต้องการวิธีตรวจสอบการกลับมาทำงานในสถานที่จริง
    ฟีเจอร์นี้อาจช่วยให้ผู้บริหารเห็นภาพรวมการเข้าออฟฟิศของทีม

    https://securityonline.info/microsoft-teams-will-auto-track-office-location-via-wi-fi/
    📍💼 Microsoft Teams เตรียมเพิ่มฟีเจอร์ติดตามสถานที่ทำงานผ่าน Wi-Fi — เริ่มใช้ธันวาคมนี้แบบ opt-in Microsoft Teams จะเปิดตัวฟีเจอร์ใหม่ในเดือนธันวาคม 2025 ที่สามารถตรวจจับเครือข่าย Wi-Fi เพื่อปรับสถานะ “สถานที่ทำงาน” ของผู้ใช้โดยอัตโนมัติ เช่น หากเชื่อมต่อกับ Wi-Fi ของออฟฟิศ ระบบจะตั้งสถานะเป็น “in the office” และหากเปลี่ยนไปใช้เครือข่ายอื่นหรือ cellular data ก็จะเปลี่ยนเป็น “working remotely” ✅ ฟีเจอร์จะเปิดใช้งานแบบ opt-in เท่านั้น ➡️ เริ่มต้นจะถูกปิดไว้โดยค่าเริ่มต้น ➡️ ผู้ดูแลระบบสามารถเปิดใช้งานจาก admin console ➡️ พนักงานสามารถเลือกเข้าร่วมได้เอง ✅ การเปลี่ยนสถานะทำงานจะขึ้นอยู่กับ Wi-Fi ที่เชื่อมต่อ ➡️ หากเชื่อมต่อกับ Wi-Fi ที่องค์กรกำหนด จะถูกระบุว่า “in the office” ➡️ หากเชื่อมต่อกับ Wi-Fi ภายนอกหรือ cellular data จะเปลี่ยนเป็น “remote” ✅ ช่วยให้ทีมทำงานร่วมกันได้ดีขึ้น ➡️ เพื่อนร่วมงานสามารถรู้ได้ว่าควรเดินไปหาที่โต๊ะหรือโทรหาแทน ➡️ ลดความไม่แน่นอนในการติดต่อกันในทีมขนาดใหญ่ ✅ Microsoft ตระหนักถึงความกังวลด้านความเป็นส่วนตัว ➡️ ฟีเจอร์นี้ไม่ได้เปิดใช้งานโดยอัตโนมัติ ➡️ ผู้ใช้ต้องยินยอมก่อนจึงจะมีการติดตามสถานที่ผ่าน Wi-Fi ✅ แนวโน้มการใช้ฟีเจอร์นี้ในยุคกลับเข้าออฟฟิศ (RTO) ➡️ บริษัทต่าง ๆ ต้องการวิธีตรวจสอบการกลับมาทำงานในสถานที่จริง ➡️ ฟีเจอร์นี้อาจช่วยให้ผู้บริหารเห็นภาพรวมการเข้าออฟฟิศของทีม https://securityonline.info/microsoft-teams-will-auto-track-office-location-via-wi-fi/
    SECURITYONLINE.INFO
    Microsoft Teams Will Auto-Track Office Location via Wi-Fi
    Microsoft Teams is rolling out a new opt-in feature in December to automatically detect if employees are in the office by monitoring their Wi-Fi connection.
    0 Comments 0 Shares 61 Views 0 Reviews
  • In today’s digital era, transparency, accessibility, and efficiency are at the heart of good governance. The state of Andhra Pradesh has taken a major step in this direction through Meebhoomi, an innovative digital platform for managing land records. Launched by the Andhra Pradesh government, Meebhoomi aims to make land ownership data easily accessible to the public, reducing corruption, paperwork, and delays in land-related services.
    https://meebhoomie.com/
    In today’s digital era, transparency, accessibility, and efficiency are at the heart of good governance. The state of Andhra Pradesh has taken a major step in this direction through Meebhoomi, an innovative digital platform for managing land records. Launched by the Andhra Pradesh government, Meebhoomi aims to make land ownership data easily accessible to the public, reducing corruption, paperwork, and delays in land-related services. https://meebhoomie.com/
    MEEBHOOMIE.COM
    MeeBhoomi AP (మి భూమి) – View 1B, Adangal @ meebhoomi.ap.gov.in
    The Meebhoomi (మి భూమి) portal serves as Andhra Pradesh's comprehensive digital gateway for land records and property-related services. This guide is designed
    0 Comments 0 Shares 62 Views 0 Reviews
  • CISOs ควรปรับแนวคิดเรื่องความเสี่ยงจากผู้ให้บริการหรือไม่? — เมื่อ AI และบริการภายนอกซับซ้อนขึ้น

    บทความจาก CSO Online ชี้ให้เห็นว่าผู้บริหารด้านความปลอดภัย (CISO) กำลังเผชิญกับความท้าทายใหม่ในการจัดการความเสี่ยงจากผู้ให้บริการภายนอก (MSP/MSSP) โดยเฉพาะเมื่อบริการเหล่านี้มีความสำคัญและซับซ้อนมากขึ้น เช่น การจัดการระบบคลาวด์, AI, และศูนย์ปฏิบัติการด้านความปลอดภัย (SOC)

    ความเสี่ยงที่เพิ่มขึ้น
    47% ขององค์กรพบเหตุการณ์โจมตีหรือข้อมูลรั่วไหลจาก third-party ภายใน 12 เดือน
    บอร์ดบริหารกดดันให้ CISO แสดงความมั่นใจในความปลอดภัยของพันธมิตร
    การตรวจสอบผู้ให้บริการกลายเป็นภาระหนักทั้งต่อองค์กรและผู้ให้บริการ

    ความซับซ้อนของบริการ
    MSP/MSSP ไม่ใช่แค่ให้บริการพื้นฐาน แต่รวมถึง threat hunting, data warehousing, AI tuning
    การประเมินความเสี่ยงต้องครอบคลุมตั้งแต่ leadership, GRC, SDLC, SLA ไปจนถึง disaster recovery

    ความสัมพันธ์มากกว่าการตรวจสอบ
    CISOs ควรเริ่มจากการสร้างความสัมพันธ์ก่อน แล้วจึงเข้าสู่การประเมินอย่างเป็นทางการ
    การสนทนาเปิดเผยช่วยสร้างความไว้วางใจมากกว่าการกรอกแบบฟอร์ม

    คำถามแนะนำสำหรับการประเมินผู้ให้บริการ
    ใครรับผิดชอบด้าน cybersecurity และรายงานต่อใคร?
    มีการใช้ framework ใด และตรวจสอบอย่างไร?
    มีการทดสอบเชิงรุก เช่น pen test, crisis drill หรือไม่?
    มีการฝึกอบรมพนักงานด้านภัยคุกคามหรือไม่?

    บทบาทของ AI
    AI เพิ่มความเสี่ยงใหม่ แต่ก็ช่วยตรวจสอบพันธมิตรได้ดีขึ้น
    มีการติดตามการรับรอง ISO 42001 สำหรับ AI governance
    GenAI สามารถช่วยค้นหาข้อมูลสาธารณะของผู้ให้บริการเพื่อยืนยันความน่าเชื่อถือ

    ข้อเสนอแนะสำหรับ CISOs
    เปลี่ยนจาก “แบบสอบถาม” เป็น “บทสนทนา” เพื่อเข้าใจความคิดของพันธมิตร
    มองความเสี่ยงเป็น “ความรับผิดชอบร่วม” ไม่ใช่แค่การโยนภาระ
    ใช้ AI เพื่อเสริมการตรวจสอบ ไม่ใช่แทนที่การประเมินเชิงมนุษย์

    https://www.csoonline.com/article/4075982/do-cisos-need-to-rethink-service-provider-risk.html
    🛡️🤝 CISOs ควรปรับแนวคิดเรื่องความเสี่ยงจากผู้ให้บริการหรือไม่? — เมื่อ AI และบริการภายนอกซับซ้อนขึ้น บทความจาก CSO Online ชี้ให้เห็นว่าผู้บริหารด้านความปลอดภัย (CISO) กำลังเผชิญกับความท้าทายใหม่ในการจัดการความเสี่ยงจากผู้ให้บริการภายนอก (MSP/MSSP) โดยเฉพาะเมื่อบริการเหล่านี้มีความสำคัญและซับซ้อนมากขึ้น เช่น การจัดการระบบคลาวด์, AI, และศูนย์ปฏิบัติการด้านความปลอดภัย (SOC) 📈 ความเสี่ยงที่เพิ่มขึ้น 🎗️ 47% ขององค์กรพบเหตุการณ์โจมตีหรือข้อมูลรั่วไหลจาก third-party ภายใน 12 เดือน 🎗️ บอร์ดบริหารกดดันให้ CISO แสดงความมั่นใจในความปลอดภัยของพันธมิตร 🎗️ การตรวจสอบผู้ให้บริการกลายเป็นภาระหนักทั้งต่อองค์กรและผู้ให้บริการ 🧠 ความซับซ้อนของบริการ 🎗️ MSP/MSSP ไม่ใช่แค่ให้บริการพื้นฐาน แต่รวมถึง threat hunting, data warehousing, AI tuning 🎗️ การประเมินความเสี่ยงต้องครอบคลุมตั้งแต่ leadership, GRC, SDLC, SLA ไปจนถึง disaster recovery 🤝 ความสัมพันธ์มากกว่าการตรวจสอบ 🎗️ CISOs ควรเริ่มจากการสร้างความสัมพันธ์ก่อน แล้วจึงเข้าสู่การประเมินอย่างเป็นทางการ 🎗️ การสนทนาเปิดเผยช่วยสร้างความไว้วางใจมากกว่าการกรอกแบบฟอร์ม 🧪 คำถามแนะนำสำหรับการประเมินผู้ให้บริการ 🎗️ ใครรับผิดชอบด้าน cybersecurity และรายงานต่อใคร? 🎗️ มีการใช้ framework ใด และตรวจสอบอย่างไร? 🎗️ มีการทดสอบเชิงรุก เช่น pen test, crisis drill หรือไม่? 🎗️ มีการฝึกอบรมพนักงานด้านภัยคุกคามหรือไม่? 🤖 บทบาทของ AI 🎗️ AI เพิ่มความเสี่ยงใหม่ แต่ก็ช่วยตรวจสอบพันธมิตรได้ดีขึ้น 🎗️ มีการติดตามการรับรอง ISO 42001 สำหรับ AI governance 🎗️ GenAI สามารถช่วยค้นหาข้อมูลสาธารณะของผู้ให้บริการเพื่อยืนยันความน่าเชื่อถือ ✅ ข้อเสนอแนะสำหรับ CISOs ➡️ เปลี่ยนจาก “แบบสอบถาม” เป็น “บทสนทนา” เพื่อเข้าใจความคิดของพันธมิตร ➡️ มองความเสี่ยงเป็น “ความรับผิดชอบร่วม” ไม่ใช่แค่การโยนภาระ ➡️ ใช้ AI เพื่อเสริมการตรวจสอบ ไม่ใช่แทนที่การประเมินเชิงมนุษย์ https://www.csoonline.com/article/4075982/do-cisos-need-to-rethink-service-provider-risk.html
    WWW.CSOONLINE.COM
    Do CISOs need to rethink service provider risk?
    CISOs are charged with managing a vast ecosystem of MSPs and MSSPs, but are the usual processes fit for purpose as outsourced services become more complex and critical — and will AI force a rethink?
    0 Comments 0 Shares 107 Views 0 Reviews
  • ระวัง! แฮกเกอร์ใช้ Copilot Studio หลอกขโมย OAuth Token ผ่านหน้าล็อกอินปลอม

    นักวิจัยจาก Datadog Security Labs เตือนถึงเทคนิคใหม่ที่ชื่อว่า “CoPhish” ซึ่งใช้ Microsoft Copilot Studio agents เป็นเครื่องมือหลอกขโมย OAuth token จากผู้ใช้ โดยสร้างหน้าล็อกอินหรือหน้าขอสิทธิ์ที่ดูเหมือนจริงผ่านโดเมนของ Microsoft เอง ทำให้เหยื่อหลงเชื่อและอนุญาตการเข้าถึงข้อมูลสำคัญโดยไม่รู้ตัว

    วิธีการโจมตีของ CoPhish

    แฮกเกอร์สร้างหรือแชร์ agent ใน Copilot Studio ที่มีหน้าตาเหมือนระบบขอสิทธิ์ของ Microsoft Entra/OAuth
    เมื่อเหยื่อคลิก “Login” หรือ “Consent” ระบบจะขอสิทธิ์เข้าถึงข้อมูล เช่น อีเมล, แชท, ปฏิทิน, ไฟล์ และระบบอัตโนมัติ
    หากเหยื่ออนุญาต แฮกเกอร์จะได้รับ OAuth token ที่สามารถใช้เข้าถึงข้อมูลภายในองค์กรได้ทันที
    โดเมนที่ใช้คือ copilotstudio.microsoft.com ซึ่งเป็นของจริง ทำให้ยากต่อการตรวจจับ

    Microsoft ยืนยันว่าเป็นการโจมตีแบบ social engineering และกำลังดำเนินการปรับปรุงระบบเพื่อป้องกันการใช้งานในลักษณะนี้

    ข้อมูลสำคัญจากข่าว
    CoPhish เป็นเทคนิค phishing ที่ใช้ Copilot Studio agents หลอกขอสิทธิ์ OAuth
    ใช้โดเมนจริงของ Microsoft ทำให้ดูน่าเชื่อถือ
    หากเหยื่ออนุญาต แฮกเกอร์สามารถเข้าถึงข้อมูลสำคัญได้ทันที
    Microsoft ยืนยันปัญหาและกำลังปรับปรุงระบบผ่านการอัปเดตในอนาคต
    การโจมตีนี้เน้นการหลอกลวงผ่าน UI ที่ดูเหมือนจริง

    วิธีลดความเสี่ยง
    จำกัดการอนุญาตแอปจากบุคคลที่สาม (ต้องใช้ admin consent)
    บังคับใช้ MFA และ conditional access
    ตรวจสอบ agent ที่ถูกแชร์หรือเผยแพร่ใน Copilot Studio อย่างละเอียด
    เฝ้าระวังการลงทะเบียนแอปใหม่และ token ที่ถูกอนุญาต
    ยกเลิก token และแอปที่น่าสงสัยทันที

    https://www.techradar.com/pro/security/experts-warn-microsoft-copilot-studio-agents-are-being-hijacked-to-steal-oauth-tokens
    🛡️🎭 ระวัง! แฮกเกอร์ใช้ Copilot Studio หลอกขโมย OAuth Token ผ่านหน้าล็อกอินปลอม นักวิจัยจาก Datadog Security Labs เตือนถึงเทคนิคใหม่ที่ชื่อว่า “CoPhish” ซึ่งใช้ Microsoft Copilot Studio agents เป็นเครื่องมือหลอกขโมย OAuth token จากผู้ใช้ โดยสร้างหน้าล็อกอินหรือหน้าขอสิทธิ์ที่ดูเหมือนจริงผ่านโดเมนของ Microsoft เอง ทำให้เหยื่อหลงเชื่อและอนุญาตการเข้าถึงข้อมูลสำคัญโดยไม่รู้ตัว 🔍 วิธีการโจมตีของ CoPhish 💠 แฮกเกอร์สร้างหรือแชร์ agent ใน Copilot Studio ที่มีหน้าตาเหมือนระบบขอสิทธิ์ของ Microsoft Entra/OAuth 💠 เมื่อเหยื่อคลิก “Login” หรือ “Consent” ระบบจะขอสิทธิ์เข้าถึงข้อมูล เช่น อีเมล, แชท, ปฏิทิน, ไฟล์ และระบบอัตโนมัติ 💠 หากเหยื่ออนุญาต แฮกเกอร์จะได้รับ OAuth token ที่สามารถใช้เข้าถึงข้อมูลภายในองค์กรได้ทันที 💠 โดเมนที่ใช้คือ copilotstudio.microsoft.com ซึ่งเป็นของจริง ทำให้ยากต่อการตรวจจับ Microsoft ยืนยันว่าเป็นการโจมตีแบบ social engineering และกำลังดำเนินการปรับปรุงระบบเพื่อป้องกันการใช้งานในลักษณะนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ CoPhish เป็นเทคนิค phishing ที่ใช้ Copilot Studio agents หลอกขอสิทธิ์ OAuth ➡️ ใช้โดเมนจริงของ Microsoft ทำให้ดูน่าเชื่อถือ ➡️ หากเหยื่ออนุญาต แฮกเกอร์สามารถเข้าถึงข้อมูลสำคัญได้ทันที ➡️ Microsoft ยืนยันปัญหาและกำลังปรับปรุงระบบผ่านการอัปเดตในอนาคต ➡️ การโจมตีนี้เน้นการหลอกลวงผ่าน UI ที่ดูเหมือนจริง ✅ วิธีลดความเสี่ยง ➡️ จำกัดการอนุญาตแอปจากบุคคลที่สาม (ต้องใช้ admin consent) ➡️ บังคับใช้ MFA และ conditional access ➡️ ตรวจสอบ agent ที่ถูกแชร์หรือเผยแพร่ใน Copilot Studio อย่างละเอียด ➡️ เฝ้าระวังการลงทะเบียนแอปใหม่และ token ที่ถูกอนุญาต ➡️ ยกเลิก token และแอปที่น่าสงสัยทันที https://www.techradar.com/pro/security/experts-warn-microsoft-copilot-studio-agents-are-being-hijacked-to-steal-oauth-tokens
    0 Comments 0 Shares 92 Views 0 Reviews
  • พนักงานใช้ AI สร้างใบเสร็จปลอม หลอกบริษัททั่วโลก เสียหายหลักล้าน!

    การใช้ AI สร้างภาพปลอมกำลังกลายเป็นเครื่องมือใหม่ของการโกงค่าใช้จ่ายในองค์กร โดยเฉพาะใบเสร็จค่าเดินทางและค่าอาหารที่สามารถสร้างได้ง่ายเพียงพิมพ์คำสั่งไม่กี่บรรทัด ล่าสุดมีรายงานว่าบริษัทต่างๆ พบใบเสร็จปลอมที่สร้างด้วย AI เพิ่มขึ้นอย่างรวดเร็ว และยากต่อการตรวจจับด้วยสายตามนุษย์

    รายงานจาก AppZen และ Ramp

    AppZen พบว่าใบเสร็จปลอมที่สร้างด้วย AI คิดเป็น 14% ของเอกสารหลอกลวงทั้งหมดในเดือนกันยายน 2025 เพิ่มขึ้นจาก 0% ในปี 2024
    Ramp ตรวจพบใบแจ้งหนี้ปลอมมูลค่ากว่า 1 ล้านดอลลาร์ภายใน 90 วัน
    SAP Concur ซึ่งเป็นแพลตฟอร์มจัดการค่าใช้จ่ายระดับโลก ระบุว่า “อย่าไว้ใจสายตา” เพราะใบเสร็จปลอมมีความสมจริงสูงมาก

    ใบเสร็จที่สร้างด้วย AI มีรายละเอียดครบถ้วน เช่น รอยยับของกระดาษ รายการอาหารที่ตรงกับเมนูจริง และลายเซ็นปลอม ทำให้ผู้ตรวจสอบไม่สามารถแยกแยะได้ด้วยตาเปล่า

    ข้อมูลสำคัญจากข่าว
    ใบเสร็จปลอมที่สร้างด้วย AI เพิ่มขึ้นจาก 0% เป็น 14% ภายใน 1 ปี
    Ramp ตรวจพบใบแจ้งหนี้ปลอมมูลค่ากว่า 1 ล้านดอลลาร์ใน 90 วัน
    SAP Concur ตรวจสอบเอกสารกว่า 80 ล้านรายการต่อเดือนด้วย AI
    ใบเสร็จปลอมมีความสมจริงสูงจนมนุษย์ไม่สามารถแยกแยะได้
    AI ช่วยสร้างใบเสร็จปลอมได้ในไม่กี่วินาทีจากคำสั่งข้อความธรรมดา

    วิธีตรวจจับใบเสร็จปลอม
    ใช้ AI ตรวจสอบ metadata ของภาพเพื่อดูว่าเป็นภาพที่สร้างด้วย AI หรือไม่
    ตรวจสอบข้อมูลแวดล้อม เช่น เวลาเซิร์ฟเวอร์ รายการเดินทาง และรูปแบบการใช้จ่าย
    ใช้ระบบ cross-check กับข้อมูลจริง เช่น เที่ยวบิน โรงแรม หรือชื่อร้านอาหาร

    ความเห็นจากผู้เชี่ยวชาญ
    “นี่ไม่ใช่ภัยในอนาคต แต่มันเกิดขึ้นแล้ว” — Sebastien Marchon, CEO ของ Rydoo
    “ใบเสร็จปลอมสมจริงมากจนเราต้องบอกลูกค้า ‘อย่าไว้ใจสายตา’” — Chris Juneau, SAP Concur

    คำเตือนสำหรับองค์กร
    การตรวจสอบด้วยมนุษย์ไม่สามารถรับมือกับใบเสร็จปลอมที่สร้างด้วย AI ได้
    Metadata สามารถถูกลบได้ง่ายด้วยการถ่ายภาพหน้าจอหรือถ่ายใหม่
    หากไม่มีระบบตรวจสอบที่ทันสมัย องค์กรอาจเสียหายทางการเงินอย่างหนัก

    https://www.techradar.com/pro/security/workers-are-scamming-their-employers-using-ai-generated-fake-expense-receipts
    🧾🤖 พนักงานใช้ AI สร้างใบเสร็จปลอม หลอกบริษัททั่วโลก เสียหายหลักล้าน! การใช้ AI สร้างภาพปลอมกำลังกลายเป็นเครื่องมือใหม่ของการโกงค่าใช้จ่ายในองค์กร โดยเฉพาะใบเสร็จค่าเดินทางและค่าอาหารที่สามารถสร้างได้ง่ายเพียงพิมพ์คำสั่งไม่กี่บรรทัด ล่าสุดมีรายงานว่าบริษัทต่างๆ พบใบเสร็จปลอมที่สร้างด้วย AI เพิ่มขึ้นอย่างรวดเร็ว และยากต่อการตรวจจับด้วยสายตามนุษย์ 📉 รายงานจาก AppZen และ Ramp 💠 AppZen พบว่าใบเสร็จปลอมที่สร้างด้วย AI คิดเป็น 14% ของเอกสารหลอกลวงทั้งหมดในเดือนกันยายน 2025 เพิ่มขึ้นจาก 0% ในปี 2024 💠 Ramp ตรวจพบใบแจ้งหนี้ปลอมมูลค่ากว่า 1 ล้านดอลลาร์ภายใน 90 วัน 💠 SAP Concur ซึ่งเป็นแพลตฟอร์มจัดการค่าใช้จ่ายระดับโลก ระบุว่า “อย่าไว้ใจสายตา” เพราะใบเสร็จปลอมมีความสมจริงสูงมาก ใบเสร็จที่สร้างด้วย AI มีรายละเอียดครบถ้วน เช่น รอยยับของกระดาษ รายการอาหารที่ตรงกับเมนูจริง และลายเซ็นปลอม ทำให้ผู้ตรวจสอบไม่สามารถแยกแยะได้ด้วยตาเปล่า ✅ ข้อมูลสำคัญจากข่าว ➡️ ใบเสร็จปลอมที่สร้างด้วย AI เพิ่มขึ้นจาก 0% เป็น 14% ภายใน 1 ปี ➡️ Ramp ตรวจพบใบแจ้งหนี้ปลอมมูลค่ากว่า 1 ล้านดอลลาร์ใน 90 วัน ➡️ SAP Concur ตรวจสอบเอกสารกว่า 80 ล้านรายการต่อเดือนด้วย AI ➡️ ใบเสร็จปลอมมีความสมจริงสูงจนมนุษย์ไม่สามารถแยกแยะได้ ➡️ AI ช่วยสร้างใบเสร็จปลอมได้ในไม่กี่วินาทีจากคำสั่งข้อความธรรมดา ✅ วิธีตรวจจับใบเสร็จปลอม ➡️ ใช้ AI ตรวจสอบ metadata ของภาพเพื่อดูว่าเป็นภาพที่สร้างด้วย AI หรือไม่ ➡️ ตรวจสอบข้อมูลแวดล้อม เช่น เวลาเซิร์ฟเวอร์ รายการเดินทาง และรูปแบบการใช้จ่าย ➡️ ใช้ระบบ cross-check กับข้อมูลจริง เช่น เที่ยวบิน โรงแรม หรือชื่อร้านอาหาร ✅ ความเห็นจากผู้เชี่ยวชาญ ➡️ “นี่ไม่ใช่ภัยในอนาคต แต่มันเกิดขึ้นแล้ว” — Sebastien Marchon, CEO ของ Rydoo ➡️ “ใบเสร็จปลอมสมจริงมากจนเราต้องบอกลูกค้า ‘อย่าไว้ใจสายตา’” — Chris Juneau, SAP Concur ‼️ คำเตือนสำหรับองค์กร ⛔ การตรวจสอบด้วยมนุษย์ไม่สามารถรับมือกับใบเสร็จปลอมที่สร้างด้วย AI ได้ ⛔ Metadata สามารถถูกลบได้ง่ายด้วยการถ่ายภาพหน้าจอหรือถ่ายใหม่ ⛔ หากไม่มีระบบตรวจสอบที่ทันสมัย องค์กรอาจเสียหายทางการเงินอย่างหนัก https://www.techradar.com/pro/security/workers-are-scamming-their-employers-using-ai-generated-fake-expense-receipts
    0 Comments 0 Shares 94 Views 0 Reviews
  • AMD ขายธุรกิจผลิตโครงสร้างดาต้าเซ็นเตอร์ของ ZT Systems ให้ Sanmina — มุ่งเน้นการออกแบบและเร่งส่งมอบระบบ AI

    AMD ประกาศเสร็จสิ้นข้อตกลงขายธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems ให้กับบริษัท Sanmina โดยยังคงทีมออกแบบและสนับสนุนลูกค้าของ ZT Systems ไว้ เพื่อเร่งการพัฒนาระบบ AI สำหรับลูกค้า cloud

    รายละเอียดข้อตกลง
    ผู้ซื้อ: Sanmina (NASDAQ: SANM) บริษัทผู้ผลิตอุปกรณ์อิเล็กทรอนิกส์รายใหญ่ในสหรัฐฯ

    ผู้ขาย: AMD (NASDAQ: AMD)
    สิ่งที่ขาย: ธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems
    สิ่งที่ AMD เก็บไว้: ทีมออกแบบและทีมสนับสนุนลูกค้าของ ZT Systems

    เป้าหมายของ AMD
    เร่งการส่งมอบระบบ AI สำหรับลูกค้า cloud
    ขยายกลยุทธ์ “rack-scale innovation” ซึ่งหมายถึงการออกแบบระบบตั้งแต่ระดับชิป ซอฟต์แวร์ ไปจนถึงระบบเต็มรูปแบบ
    สร้างพันธมิตรเชิงกลยุทธ์กับ Sanmina เพื่อให้เป็นผู้ผลิตหลักสำหรับผลิตภัณฑ์ใหม่ในกลุ่ม rack และ cluster-scale AI

    ผลกระทบที่น่าจับตา
    AMD จะเน้นด้านการออกแบบและซอฟต์แวร์มากขึ้น แทนการผลิตเอง
    Sanmina จะกลายเป็นพันธมิตรหลักด้านการผลิตระบบ AI ขนาดใหญ่
    ลูกค้า cloud และ AI อาจได้รับระบบที่เร็วขึ้นและยืดหยุ่นมากขึ้น จากการรวมจุดแข็งของทั้งสองบริษัท

    https://www.techpowerup.com/342291/amd-sells-zt-systems-data-center-manufacturing-to-sanmina
    🛠️ AMD ขายธุรกิจผลิตโครงสร้างดาต้าเซ็นเตอร์ของ ZT Systems ให้ Sanmina — มุ่งเน้นการออกแบบและเร่งส่งมอบระบบ AI AMD ประกาศเสร็จสิ้นข้อตกลงขายธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems ให้กับบริษัท Sanmina โดยยังคงทีมออกแบบและสนับสนุนลูกค้าของ ZT Systems ไว้ เพื่อเร่งการพัฒนาระบบ AI สำหรับลูกค้า cloud 🔍 รายละเอียดข้อตกลง ผู้ซื้อ: Sanmina (NASDAQ: SANM) บริษัทผู้ผลิตอุปกรณ์อิเล็กทรอนิกส์รายใหญ่ในสหรัฐฯ ➡️ ผู้ขาย: AMD (NASDAQ: AMD) ➡️ สิ่งที่ขาย: ธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems ➡️ สิ่งที่ AMD เก็บไว้: ทีมออกแบบและทีมสนับสนุนลูกค้าของ ZT Systems 🎯 เป้าหมายของ AMD ➡️ เร่งการส่งมอบระบบ AI สำหรับลูกค้า cloud ➡️ ขยายกลยุทธ์ “rack-scale innovation” ซึ่งหมายถึงการออกแบบระบบตั้งแต่ระดับชิป ซอฟต์แวร์ ไปจนถึงระบบเต็มรูปแบบ ➡️ สร้างพันธมิตรเชิงกลยุทธ์กับ Sanmina เพื่อให้เป็นผู้ผลิตหลักสำหรับผลิตภัณฑ์ใหม่ในกลุ่ม rack และ cluster-scale AI 📌 ผลกระทบที่น่าจับตา ➡️ AMD จะเน้นด้านการออกแบบและซอฟต์แวร์มากขึ้น แทนการผลิตเอง ➡️ Sanmina จะกลายเป็นพันธมิตรหลักด้านการผลิตระบบ AI ขนาดใหญ่ ➡️ ลูกค้า cloud และ AI อาจได้รับระบบที่เร็วขึ้นและยืดหยุ่นมากขึ้น จากการรวมจุดแข็งของทั้งสองบริษัท https://www.techpowerup.com/342291/amd-sells-zt-systems-data-center-manufacturing-to-sanmina
    WWW.TECHPOWERUP.COM
    AMD Sells ZT Systems Data Center Manufacturing to Sanmina
    AMD (NASDAQ: AMD) today announced the completion of the agreement to divest the ZT Systems U.S.-headquartered data center infrastructure manufacturing business to Sanmina (NASDAQ: SANM). As part of the transaction, AMD retains ZT Systems' world-class design and customer enablement teams to accelerat...
    0 Comments 0 Shares 65 Views 0 Reviews
  • Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia

    Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models

    ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference

    AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ

    ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง

    Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว

    Qualcomm เปิดตัว AI200 และ AI250
    AI200 ใช้งานปี 2026, AI250 ปี 2027
    ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor
    รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing

    ความสามารถด้านฮาร์ดแวร์
    AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW
    AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic
    รองรับ GenAI, confidential computing, และ model encryption

    แพลตฟอร์มซอฟต์แวร์
    รองรับ PyTorch, ONNX, LangChain, vLLM
    มีระบบ onboarding โมเดลแบบคลิกเดียว
    รองรับ disaggregated serving และ virtualization

    คำเตือนสำหรับผู้ใช้งานระดับองค์กร
    ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ
    การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด
    ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
    ⚙️ Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว ✅ Qualcomm เปิดตัว AI200 และ AI250 ➡️ AI200 ใช้งานปี 2026, AI250 ปี 2027 ➡️ ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor ➡️ รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing ✅ ความสามารถด้านฮาร์ดแวร์ ➡️ AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW ➡️ AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic ➡️ รองรับ GenAI, confidential computing, และ model encryption ✅ แพลตฟอร์มซอฟต์แวร์ ➡️ รองรับ PyTorch, ONNX, LangChain, vLLM ➡️ มีระบบ onboarding โมเดลแบบคลิกเดียว ➡️ รองรับ disaggregated serving และ virtualization ‼️ คำเตือนสำหรับผู้ใช้งานระดับองค์กร ⛔ ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ ⛔ การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด ⛔ ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
    0 Comments 0 Shares 76 Views 0 Reviews
  • "ช่องโหว่ร้ายแรงใน Dell Storage Manager – เปิด API โดยไม่ต้องยืนยันตัวตน”

    ลองจินตนาการว่าคุณเป็นผู้ดูแลระบบจัดเก็บข้อมูลขององค์กรที่ใช้ Dell Storage Manager (DSM) อยู่ แล้ววันหนึ่งมีผู้ไม่หวังดีสามารถเข้าถึง API ภายในระบบได้โดยไม่ต้องยืนยันตัวตนเลยแม้แต่น้อย… นี่คือสิ่งที่ช่องโหว่ CVE-2025-43995 กำลังสร้างความปั่นป่วนให้กับผู้ใช้งานทั่วโลก

    ช่องโหว่นี้ได้รับคะแนน CVSS สูงถึง 9.8 ซึ่งจัดอยู่ในระดับ “วิกฤต” โดยเกิดจากการที่ DSM เวอร์ชัน 20.1.21 มีการเปิด API ผ่านไฟล์ ApiProxy.war ใน DataCollectorEar.ear โดยใช้ SessionKey และ UserId พิเศษที่ถูกฝังไว้ในระบบสำหรับการใช้งานภายใน แต่กลับไม่มีการตรวจสอบสิทธิ์อย่างเหมาะสม

    ผลคือ ผู้โจมตีสามารถใช้ข้อมูลเหล่านี้เพื่อเข้าถึงฟังก์ชันการจัดการระบบ เช่น การดูข้อมูลการตั้งค่า การควบคุมการจัดเก็บ หรือแม้แต่การเปลี่ยนแปลงการทำงานของระบบได้จากระยะไกล โดยไม่ต้องมีบัญชีผู้ใช้หรือรหัสผ่านใด ๆ

    Dell ได้ออกเวอร์ชันใหม่ 2020 R1.22 เพื่อแก้ไขช่องโหว่นี้ พร้อมอุดช่องโหว่อื่น ๆ ที่เกี่ยวข้อง เช่น CVE-2025-43994 (การเปิดเผยข้อมูล) และ CVE-2025-46425 (ช่องโหว่ XML External Entity)

    ช่องโหว่ CVE-2025-43995 – Improper Authentication
    เกิดใน DSM เวอร์ชัน 20.1.21
    เปิด API ผ่าน ApiProxy.war โดยใช้ SessionKey และ UserId พิเศษ
    ไม่มีการตรวจสอบสิทธิ์อย่างเหมาะสม

    ความสามารถของผู้โจมตี
    เข้าถึง API ภายในระบบจัดการข้อมูล
    ควบคุมฟังก์ชันการจัดเก็บข้อมูลจากระยะไกล
    ไม่ต้องมีบัญชีผู้ใช้หรือรหัสผ่าน

    ช่องโหว่อื่นที่เกี่ยวข้อง
    CVE-2025-43994 – Missing Authentication for Critical Function
    CVE-2025-46425 – XML External Entity (XXE) ใน DSM เวอร์ชัน 20.1.20

    การแก้ไขโดย Dell
    ออกเวอร์ชัน 2020 R1.22 เพื่ออุดช่องโหว่ทั้งหมด
    แนะนำให้อัปเดต DSM โดยเร็วที่สุด

    https://securityonline.info/critical-dell-storage-manager-flaw-cve-2025-43995-cvss-9-8-allows-unauthenticated-api-bypass/
    📰 "ช่องโหว่ร้ายแรงใน Dell Storage Manager – เปิด API โดยไม่ต้องยืนยันตัวตน” ลองจินตนาการว่าคุณเป็นผู้ดูแลระบบจัดเก็บข้อมูลขององค์กรที่ใช้ Dell Storage Manager (DSM) อยู่ แล้ววันหนึ่งมีผู้ไม่หวังดีสามารถเข้าถึง API ภายในระบบได้โดยไม่ต้องยืนยันตัวตนเลยแม้แต่น้อย… นี่คือสิ่งที่ช่องโหว่ CVE-2025-43995 กำลังสร้างความปั่นป่วนให้กับผู้ใช้งานทั่วโลก ช่องโหว่นี้ได้รับคะแนน CVSS สูงถึง 9.8 ซึ่งจัดอยู่ในระดับ “วิกฤต” โดยเกิดจากการที่ DSM เวอร์ชัน 20.1.21 มีการเปิด API ผ่านไฟล์ ApiProxy.war ใน DataCollectorEar.ear โดยใช้ SessionKey และ UserId พิเศษที่ถูกฝังไว้ในระบบสำหรับการใช้งานภายใน แต่กลับไม่มีการตรวจสอบสิทธิ์อย่างเหมาะสม ผลคือ ผู้โจมตีสามารถใช้ข้อมูลเหล่านี้เพื่อเข้าถึงฟังก์ชันการจัดการระบบ เช่น การดูข้อมูลการตั้งค่า การควบคุมการจัดเก็บ หรือแม้แต่การเปลี่ยนแปลงการทำงานของระบบได้จากระยะไกล โดยไม่ต้องมีบัญชีผู้ใช้หรือรหัสผ่านใด ๆ Dell ได้ออกเวอร์ชันใหม่ 2020 R1.22 เพื่อแก้ไขช่องโหว่นี้ พร้อมอุดช่องโหว่อื่น ๆ ที่เกี่ยวข้อง เช่น CVE-2025-43994 (การเปิดเผยข้อมูล) และ CVE-2025-46425 (ช่องโหว่ XML External Entity) ✅ ช่องโหว่ CVE-2025-43995 – Improper Authentication ➡️ เกิดใน DSM เวอร์ชัน 20.1.21 ➡️ เปิด API ผ่าน ApiProxy.war โดยใช้ SessionKey และ UserId พิเศษ ➡️ ไม่มีการตรวจสอบสิทธิ์อย่างเหมาะสม ✅ ความสามารถของผู้โจมตี ➡️ เข้าถึง API ภายในระบบจัดการข้อมูล ➡️ ควบคุมฟังก์ชันการจัดเก็บข้อมูลจากระยะไกล ➡️ ไม่ต้องมีบัญชีผู้ใช้หรือรหัสผ่าน ✅ ช่องโหว่อื่นที่เกี่ยวข้อง ➡️ CVE-2025-43994 – Missing Authentication for Critical Function ➡️ CVE-2025-46425 – XML External Entity (XXE) ใน DSM เวอร์ชัน 20.1.20 ✅ การแก้ไขโดย Dell ➡️ ออกเวอร์ชัน 2020 R1.22 เพื่ออุดช่องโหว่ทั้งหมด ➡️ แนะนำให้อัปเดต DSM โดยเร็วที่สุด https://securityonline.info/critical-dell-storage-manager-flaw-cve-2025-43995-cvss-9-8-allows-unauthenticated-api-bypass/
    SECURITYONLINE.INFO
    Critical Dell Storage Manager Flaw (CVE-2025-43995, CVSS 9.8) Allows Unauthenticated API Bypass
    Dell patched three flaws in Storage Manager, including a Critical (CVSS 9.8) Auth Bypass (CVE-2025-43995) that allows remote, unauthenticated access to the Data Collector’s APIProxy.war component.
    0 Comments 0 Shares 71 Views 0 Reviews
  • “จ่ายค่าไถ่แล้วก็ไม่รอด: 40% ของเหยื่อแรนซัมแวร์ยังคงสูญเสียข้อมูล”

    รู้หรือเปล่าว่า แม้จะยอมจ่ายค่าไถ่ให้แฮกเกอร์ไปแล้ว ก็ไม่ได้หมายความว่าเราจะได้ข้อมูลคืนเสมอไปนะ! จากรายงานล่าสุดของ Hiscox พบว่า 2 ใน 5 บริษัทที่จ่ายค่าไถ่กลับไม่ได้ข้อมูลคืนเลย หรือได้คืนแค่บางส่วนเท่านั้น

    ที่น่าตกใจกว่านั้นคือ แฮกเกอร์บางกลุ่มถึงขั้นใช้เครื่องมือถอดรหัสที่มีบั๊ก หรือบางทีก็หายตัวไปดื้อ ๆ หลังได้เงินแล้ว แถมบางครั้งตัวถอดรหัสยังทำให้ไฟล์เสียหายยิ่งกว่าเดิมอีกต่างหาก

    และที่สำคัญ—การจ่ายเงินไม่ได้ช่วยแก้ปัญหาทั้งหมด เพราะแฮกเกอร์ยุคนี้ไม่ได้แค่ล็อกไฟล์ แต่ยังขู่จะปล่อยข้อมูลหรือโจมตีซ้ำด้วย DDoS แม้จะได้เงินไปแล้วก็ตาม

    องค์กรที่เคยโดนโจมตีอย่างบริษัท Kantsu ในญี่ปุ่น ถึงกับต้องกู้เงินจากธนาคารเพื่อฟื้นฟูระบบ เพราะแม้จะมีประกันไซเบอร์ แต่ก็ต้องรอขั้นตอนการเคลมที่ใช้เวลานาน

    ผู้เชี่ยวชาญแนะนำว่า อย่ารอให้โดนก่อนค่อยหาทางแก้ ควรเตรียมแผนรับมือไว้ล่วงหน้า เช่น มีทีมตอบสนองเหตุการณ์ฉุกเฉิน มีระบบสำรองข้อมูลที่ปลอดภัย และที่สำคัญ—อย่าคิดว่าการจ่ายเงินคือทางออกที่ดีที่สุด

    สถิติจากรายงาน Hiscox Cyber Readiness Report
    40% ของเหยื่อที่จ่ายค่าไถ่ไม่ได้ข้อมูลคืนเลย
    27% ของธุรกิจถูกโจมตีด้วยแรนซัมแวร์ในปีที่ผ่านมา
    80% ของเหยื่อยอมจ่ายค่าไถ่เพื่อพยายามกู้ข้อมูล

    ปัญหาที่เกิดขึ้นแม้จะจ่ายค่าไถ่แล้ว
    เครื่องมือถอดรหัสที่ได้รับอาจมีบั๊กหรือทำให้ไฟล์เสียหาย
    แฮกเกอร์บางกลุ่มไม่มีความน่าเชื่อถือ อาจไม่ส่งคีย์ถอดรหัส
    การถอดรหัสในระบบขนาดใหญ่ใช้เวลานานและอาจล้มเหลว

    ภัยคุกคามที่มากกว่าแค่การเข้ารหัสข้อมูล
    แฮกเกอร์ใช้วิธี “ขู่เปิดเผยข้อมูล” หรือ DDoS แม้จะได้เงินแล้ว
    การจ่ายเงินไม่ช่วยแก้ปัญหาการละเมิดข้อมูลส่วนบุคคล

    กรณีศึกษา: บริษัท Kantsu ในญี่ปุ่น
    ไม่จ่ายค่าไถ่ แต่ต้องกู้เงินเพื่อฟื้นฟูระบบ
    แม้มีประกันไซเบอร์ แต่ต้องรอขั้นตอนการเคลม

    คำแนะนำจากผู้เชี่ยวชาญ
    ควรมีแผนรับมือเหตุการณ์ล่วงหน้า เช่น การสำรองข้อมูลที่ปลอดภัย
    ควรมีทีมตอบสนองเหตุการณ์ฉุกเฉินไว้ล่วงหน้า
    การมีประกันไซเบอร์ช่วยลดผลกระทบและให้การสนับสนุนด้านกฎหมาย

    คำเตือนเกี่ยวกับการจ่ายค่าไถ่
    ไม่มีหลักประกันว่าจะได้ข้อมูลคืน
    อาจละเมิดกฎหมายหากจ่ายเงินให้กลุ่มที่ถูกคว่ำบาตร
    การจ่ายเงินอาจกระตุ้นให้เกิดอาชญากรรมไซเบอร์เพิ่มขึ้น
    อาจทำให้ข้อมูลเสียหายมากขึ้นจากการถอดรหัสที่ผิดพลาด

    https://www.csoonline.com/article/4077484/ransomware-recovery-perils-40-of-paying-victims-still-lose-their-data.html
    💸 “จ่ายค่าไถ่แล้วก็ไม่รอด: 40% ของเหยื่อแรนซัมแวร์ยังคงสูญเสียข้อมูล” รู้หรือเปล่าว่า แม้จะยอมจ่ายค่าไถ่ให้แฮกเกอร์ไปแล้ว ก็ไม่ได้หมายความว่าเราจะได้ข้อมูลคืนเสมอไปนะ! จากรายงานล่าสุดของ Hiscox พบว่า 2 ใน 5 บริษัทที่จ่ายค่าไถ่กลับไม่ได้ข้อมูลคืนเลย หรือได้คืนแค่บางส่วนเท่านั้น ที่น่าตกใจกว่านั้นคือ แฮกเกอร์บางกลุ่มถึงขั้นใช้เครื่องมือถอดรหัสที่มีบั๊ก หรือบางทีก็หายตัวไปดื้อ ๆ หลังได้เงินแล้ว แถมบางครั้งตัวถอดรหัสยังทำให้ไฟล์เสียหายยิ่งกว่าเดิมอีกต่างหาก และที่สำคัญ—การจ่ายเงินไม่ได้ช่วยแก้ปัญหาทั้งหมด เพราะแฮกเกอร์ยุคนี้ไม่ได้แค่ล็อกไฟล์ แต่ยังขู่จะปล่อยข้อมูลหรือโจมตีซ้ำด้วย DDoS แม้จะได้เงินไปแล้วก็ตาม องค์กรที่เคยโดนโจมตีอย่างบริษัท Kantsu ในญี่ปุ่น ถึงกับต้องกู้เงินจากธนาคารเพื่อฟื้นฟูระบบ เพราะแม้จะมีประกันไซเบอร์ แต่ก็ต้องรอขั้นตอนการเคลมที่ใช้เวลานาน ผู้เชี่ยวชาญแนะนำว่า อย่ารอให้โดนก่อนค่อยหาทางแก้ ควรเตรียมแผนรับมือไว้ล่วงหน้า เช่น มีทีมตอบสนองเหตุการณ์ฉุกเฉิน มีระบบสำรองข้อมูลที่ปลอดภัย และที่สำคัญ—อย่าคิดว่าการจ่ายเงินคือทางออกที่ดีที่สุด ✅ สถิติจากรายงาน Hiscox Cyber Readiness Report ➡️ 40% ของเหยื่อที่จ่ายค่าไถ่ไม่ได้ข้อมูลคืนเลย ➡️ 27% ของธุรกิจถูกโจมตีด้วยแรนซัมแวร์ในปีที่ผ่านมา ➡️ 80% ของเหยื่อยอมจ่ายค่าไถ่เพื่อพยายามกู้ข้อมูล ✅ ปัญหาที่เกิดขึ้นแม้จะจ่ายค่าไถ่แล้ว ➡️ เครื่องมือถอดรหัสที่ได้รับอาจมีบั๊กหรือทำให้ไฟล์เสียหาย ➡️ แฮกเกอร์บางกลุ่มไม่มีความน่าเชื่อถือ อาจไม่ส่งคีย์ถอดรหัส ➡️ การถอดรหัสในระบบขนาดใหญ่ใช้เวลานานและอาจล้มเหลว ✅ ภัยคุกคามที่มากกว่าแค่การเข้ารหัสข้อมูล ➡️ แฮกเกอร์ใช้วิธี “ขู่เปิดเผยข้อมูล” หรือ DDoS แม้จะได้เงินแล้ว ➡️ การจ่ายเงินไม่ช่วยแก้ปัญหาการละเมิดข้อมูลส่วนบุคคล ✅ กรณีศึกษา: บริษัท Kantsu ในญี่ปุ่น ➡️ ไม่จ่ายค่าไถ่ แต่ต้องกู้เงินเพื่อฟื้นฟูระบบ ➡️ แม้มีประกันไซเบอร์ แต่ต้องรอขั้นตอนการเคลม ✅ คำแนะนำจากผู้เชี่ยวชาญ ➡️ ควรมีแผนรับมือเหตุการณ์ล่วงหน้า เช่น การสำรองข้อมูลที่ปลอดภัย ➡️ ควรมีทีมตอบสนองเหตุการณ์ฉุกเฉินไว้ล่วงหน้า ➡️ การมีประกันไซเบอร์ช่วยลดผลกระทบและให้การสนับสนุนด้านกฎหมาย ‼️ คำเตือนเกี่ยวกับการจ่ายค่าไถ่ ⛔ ไม่มีหลักประกันว่าจะได้ข้อมูลคืน ⛔ อาจละเมิดกฎหมายหากจ่ายเงินให้กลุ่มที่ถูกคว่ำบาตร ⛔ การจ่ายเงินอาจกระตุ้นให้เกิดอาชญากรรมไซเบอร์เพิ่มขึ้น ⛔ อาจทำให้ข้อมูลเสียหายมากขึ้นจากการถอดรหัสที่ผิดพลาด https://www.csoonline.com/article/4077484/ransomware-recovery-perils-40-of-paying-victims-still-lose-their-data.html
    WWW.CSOONLINE.COM
    Ransomware recovery perils: 40% of paying victims still lose their data
    Paying the ransom is no guarantee of a smooth or even successful recovery of data. But that isn’t even the only issue security leaders will face under fire. Preparation is key.
    0 Comments 0 Shares 141 Views 0 Reviews
  • ข้อมูลลูกค้า Toys "R" Us ถูกขโมยและเผยแพร่บนเว็บมืด – เสี่ยงโดนฟิชชิ่งและขโมยตัวตน.

    Toys "R" Us Canada เผชิญเหตุข้อมูลรั่วไหลครั้งใหญ่ หลังแฮกเกอร์ขโมยข้อมูลลูกค้าและนำไปเผยแพร่บนเว็บมืด โดยข้อมูลที่ถูกขโมยประกอบด้วยชื่อ, ที่อยู่, อีเมล และเบอร์โทรศัพท์ของลูกค้าบางส่วน แม้จะไม่มีรหัสผ่านหรือข้อมูลบัตรเครดิตหลุดออกไป แต่ก็ยังเสี่ยงต่อการถูกฟิชชิ่งและขโมยตัวตนได้

    บริษัทได้ว่าจ้างผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์เพื่อวิเคราะห์เหตุการณ์ และยืนยันว่าเป็นเพียง “บางส่วนของข้อมูลลูกค้า” ที่ถูกขโมย พร้อมทั้งเสริมระบบป้องกันเพิ่มเติม และแจ้งเตือนลูกค้าที่ได้รับผลกระทบแล้ว

    Toys "R" Us ยังแจ้งเตือนให้ลูกค้าระวังอีเมลหลอกลวงที่อ้างว่าเป็นบริษัท และไม่ควรคลิกลิงก์หรือเปิดไฟล์แนบจากแหล่งที่ไม่น่าเชื่อถือ

    ข้อมูลที่ถูกขโมย
    ชื่อ, ที่อยู่, อีเมล, เบอร์โทรศัพท์
    ไม่มีรหัสผ่านหรือข้อมูลบัตรเครดิต
    เสี่ยงต่อการถูกฟิชชิ่งและขโมยตัวตน

    การตอบสนองของบริษัท
    ว่าจ้างผู้เชี่ยวชาญด้านไซเบอร์เพื่อวิเคราะห์เหตุการณ์
    ยืนยันว่าเป็นข้อมูลลูกค้า “บางส่วน”
    แจ้งเตือนลูกค้าที่ได้รับผลกระทบ
    เสริมระบบป้องกันเพิ่มเติม

    คำแนะนำสำหรับลูกค้า
    ระวังอีเมลหลอกลวงที่อ้างว่าเป็น Toys "R" Us
    อย่าคลิกลิงก์หรือเปิดไฟล์แนบจากแหล่งที่ไม่น่าเชื่อถือ
    ตรวจสอบบัญชีและกิจกรรมที่เกี่ยวข้องกับข้อมูลส่วนตัว

    https://www.techradar.com/pro/security/toys-r-us-customer-data-swiped-and-leaked-online-heres-what-we-know
    🧸 ข้อมูลลูกค้า Toys "R" Us ถูกขโมยและเผยแพร่บนเว็บมืด – เสี่ยงโดนฟิชชิ่งและขโมยตัวตน. Toys "R" Us Canada เผชิญเหตุข้อมูลรั่วไหลครั้งใหญ่ หลังแฮกเกอร์ขโมยข้อมูลลูกค้าและนำไปเผยแพร่บนเว็บมืด โดยข้อมูลที่ถูกขโมยประกอบด้วยชื่อ, ที่อยู่, อีเมล และเบอร์โทรศัพท์ของลูกค้าบางส่วน แม้จะไม่มีรหัสผ่านหรือข้อมูลบัตรเครดิตหลุดออกไป แต่ก็ยังเสี่ยงต่อการถูกฟิชชิ่งและขโมยตัวตนได้ บริษัทได้ว่าจ้างผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์เพื่อวิเคราะห์เหตุการณ์ และยืนยันว่าเป็นเพียง “บางส่วนของข้อมูลลูกค้า” ที่ถูกขโมย พร้อมทั้งเสริมระบบป้องกันเพิ่มเติม และแจ้งเตือนลูกค้าที่ได้รับผลกระทบแล้ว Toys "R" Us ยังแจ้งเตือนให้ลูกค้าระวังอีเมลหลอกลวงที่อ้างว่าเป็นบริษัท และไม่ควรคลิกลิงก์หรือเปิดไฟล์แนบจากแหล่งที่ไม่น่าเชื่อถือ ✅ ข้อมูลที่ถูกขโมย ➡️ ชื่อ, ที่อยู่, อีเมล, เบอร์โทรศัพท์ ➡️ ไม่มีรหัสผ่านหรือข้อมูลบัตรเครดิต ➡️ เสี่ยงต่อการถูกฟิชชิ่งและขโมยตัวตน ✅ การตอบสนองของบริษัท ➡️ ว่าจ้างผู้เชี่ยวชาญด้านไซเบอร์เพื่อวิเคราะห์เหตุการณ์ ➡️ ยืนยันว่าเป็นข้อมูลลูกค้า “บางส่วน” ➡️ แจ้งเตือนลูกค้าที่ได้รับผลกระทบ ➡️ เสริมระบบป้องกันเพิ่มเติม ✅ คำแนะนำสำหรับลูกค้า ➡️ ระวังอีเมลหลอกลวงที่อ้างว่าเป็น Toys "R" Us ➡️ อย่าคลิกลิงก์หรือเปิดไฟล์แนบจากแหล่งที่ไม่น่าเชื่อถือ ➡️ ตรวจสอบบัญชีและกิจกรรมที่เกี่ยวข้องกับข้อมูลส่วนตัว https://www.techradar.com/pro/security/toys-r-us-customer-data-swiped-and-leaked-online-heres-what-we-know
    WWW.TECHRADAR.COM
    Toys "R" Us customer data swiped and leaked online - here's what we know
    Names, addresses, and more from Toys "R" Us customers stolen and leaked on the dark web
    0 Comments 0 Shares 116 Views 0 Reviews
  • Intel ปลดพนักงานกว่า 35,500 คนในเวลาไม่ถึง 2 ปี – CEO คนใหม่เดินหน้าฟื้นฟูองค์กรอย่างเข้มข้น

    Intel กำลังอยู่ในช่วงฟื้นฟูองค์กรครั้งใหญ่ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan โดยในช่วงไม่ถึง 2 ปีที่ผ่านมา บริษัทได้ปลดพนักงานไปแล้วกว่า 35,500 คน ซึ่งรวมถึง 20,500 คนในช่วง 3 เดือนล่าสุดเพียงอย่างเดียว ถือเป็นการปรับโครงสร้างครั้งใหญ่ที่สุดในประวัติศาสตร์ของ Intel

    แม้ในตอนแรกจะประกาศลดจำนวนผู้จัดการระดับกลาง แต่ในความเป็นจริงกลับมีวิศวกรและช่างเทคนิคจำนวนมากถูกปลด โดยเฉพาะในโรงงานที่รัฐ Oregon ซึ่งส่งผลกระทบต่อการวิจัยและพัฒนาอย่างชัดเจน

    Intel ยังลดงบประมาณด้าน R&D ลงกว่า $800 ล้าน แม้รายได้จะเพิ่มขึ้นในไตรมาสล่าสุด โดยมุ่งเน้นการลงทุนเฉพาะในโครงการที่มีผลตอบแทนชัดเจน เช่น เทคโนโลยี Intel 18A, 14A, ผลิตภัณฑ์ด้าน AI และการบรรจุชิปขั้นสูง

    การปลดพนักงานของ Intel
    ปลดรวมกว่า 35,500 คนในเวลาไม่ถึง 2 ปี
    20,500 คนถูกปลดในช่วง 3 เดือนล่าสุด
    ส่วนใหญ่เป็นวิศวกรและช่างเทคนิค ไม่ใช่ผู้จัดการ
    โรงงานใน Oregon ได้รับผลกระทบหนัก

    การปรับโครงสร้างองค์กร
    ลดงบประมาณ R&D ลงกว่า $800 ล้าน
    มุ่งเน้นโครงการที่มีผลตอบแทนชัดเจน
    ควบคุมค่าใช้จ่ายให้อยู่ที่ $16 พันล้านในปี 2026
    ลงทุนเฉพาะใน Intel 18A, 14A, AI และ advanced packaging

    วิสัยทัศน์ของ CEO Lip-Bu Tan
    สร้าง Intel ที่ “เล็กลงแต่แข็งแกร่งขึ้น”
    ลดความซ้ำซ้อนของโปรเจกต์
    เน้นธุรกิจที่ให้ผลตอบแทนสูง เช่น client, data center & AI, และ Foundry
    เปลี่ยนแนวคิดจาก “ลดต้นทุน” เป็น “ควบคุมต้นทุนอย่างมีวินัย”

    https://www.tomshardware.com/pc-components/cpus/intel-has-cut-35-500-jobs-in-less-than-two-years-more-than-20-000-let-go-in-in-recent-months-as-lip-bu-tan-continues-drastic-recovery-journey
    📉 Intel ปลดพนักงานกว่า 35,500 คนในเวลาไม่ถึง 2 ปี – CEO คนใหม่เดินหน้าฟื้นฟูองค์กรอย่างเข้มข้น Intel กำลังอยู่ในช่วงฟื้นฟูองค์กรครั้งใหญ่ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan โดยในช่วงไม่ถึง 2 ปีที่ผ่านมา บริษัทได้ปลดพนักงานไปแล้วกว่า 35,500 คน ซึ่งรวมถึง 20,500 คนในช่วง 3 เดือนล่าสุดเพียงอย่างเดียว ถือเป็นการปรับโครงสร้างครั้งใหญ่ที่สุดในประวัติศาสตร์ของ Intel แม้ในตอนแรกจะประกาศลดจำนวนผู้จัดการระดับกลาง แต่ในความเป็นจริงกลับมีวิศวกรและช่างเทคนิคจำนวนมากถูกปลด โดยเฉพาะในโรงงานที่รัฐ Oregon ซึ่งส่งผลกระทบต่อการวิจัยและพัฒนาอย่างชัดเจน Intel ยังลดงบประมาณด้าน R&D ลงกว่า $800 ล้าน แม้รายได้จะเพิ่มขึ้นในไตรมาสล่าสุด โดยมุ่งเน้นการลงทุนเฉพาะในโครงการที่มีผลตอบแทนชัดเจน เช่น เทคโนโลยี Intel 18A, 14A, ผลิตภัณฑ์ด้าน AI และการบรรจุชิปขั้นสูง ✅ การปลดพนักงานของ Intel ➡️ ปลดรวมกว่า 35,500 คนในเวลาไม่ถึง 2 ปี ➡️ 20,500 คนถูกปลดในช่วง 3 เดือนล่าสุด ➡️ ส่วนใหญ่เป็นวิศวกรและช่างเทคนิค ไม่ใช่ผู้จัดการ ➡️ โรงงานใน Oregon ได้รับผลกระทบหนัก ✅ การปรับโครงสร้างองค์กร ➡️ ลดงบประมาณ R&D ลงกว่า $800 ล้าน ➡️ มุ่งเน้นโครงการที่มีผลตอบแทนชัดเจน ➡️ ควบคุมค่าใช้จ่ายให้อยู่ที่ $16 พันล้านในปี 2026 ➡️ ลงทุนเฉพาะใน Intel 18A, 14A, AI และ advanced packaging ✅ วิสัยทัศน์ของ CEO Lip-Bu Tan ➡️ สร้าง Intel ที่ “เล็กลงแต่แข็งแกร่งขึ้น” ➡️ ลดความซ้ำซ้อนของโปรเจกต์ ➡️ เน้นธุรกิจที่ให้ผลตอบแทนสูง เช่น client, data center & AI, และ Foundry ➡️ เปลี่ยนแนวคิดจาก “ลดต้นทุน” เป็น “ควบคุมต้นทุนอย่างมีวินัย” https://www.tomshardware.com/pc-components/cpus/intel-has-cut-35-500-jobs-in-less-than-two-years-more-than-20-000-let-go-in-in-recent-months-as-lip-bu-tan-continues-drastic-recovery-journey
    0 Comments 0 Shares 142 Views 0 Reviews
  • Intel เผชิญปัญหาขาดแคลนการผลิต – เตรียมขึ้นราคาชิปและเน้นส่งมอบให้ศูนย์ข้อมูลก่อนผู้บริโภค

    Intel กำลังเผชิญกับปัญหาการขาดแคลนการผลิตอย่างหนัก โดยเฉพาะในกระบวนการผลิต Intel 7 และ Intel 10 ซึ่งส่งผลให้ไม่สามารถผลิตชิปได้เพียงพอต่อความต้องการทั้งฝั่งผู้บริโภคและศูนย์ข้อมูล ส่งผลให้ราคาชิปบางรุ่น เช่น Raptor Lake เริ่มปรับตัวสูงขึ้น และจะยังคงขาดตลาดไปจนถึงปี 2026

    บริษัทตัดสินใจ “จัดลำดับความสำคัญ” โดยจะเน้นการผลิตชิปสำหรับศูนย์ข้อมูลก่อน เช่น Xeon 6 ‘Granite Rapids’ และ Xeon Scalable ‘Emerald Rapids’ เพราะสามารถขายได้ในราคาหลายพันดอลลาร์ต่อหน่วย ในขณะที่ชิปสำหรับผู้บริโภคมีราคาต่ำกว่า $600

    นอกจากนี้ยังมีปัญหาขาดแคลนวัสดุพื้นฐาน เช่น substrate ที่ใช้ในการประกอบแพ็กเกจชิป ซึ่งยิ่งซ้ำเติมปัญหาการผลิตให้รุนแรงขึ้น

    ปัญหาการผลิตของ Intel
    ขาดแคลนกำลังการผลิตใน Intel 7 และ Intel 10
    ส่งผลต่อการผลิตทั้งฝั่งผู้บริโภคและศูนย์ข้อมูล
    ราคาชิป Raptor Lake เริ่มปรับตัวสูงขึ้น
    คาดว่าปัญหาจะลากยาวไปถึงปี 2026

    การจัดลำดับความสำคัญ
    Intel จะเน้นผลิตชิปสำหรับศูนย์ข้อมูลก่อน
    เช่น Xeon 6 ‘Granite Rapids’ และ Xeon ‘Emerald Rapids’
    เพราะขายได้ราคาสูงกว่าชิปผู้บริโภคหลายเท่า
    ชิปสำหรับผู้บริโภคจะถูกลดปริมาณการผลิต

    ปัจจัยซ้ำเติม
    ขาดแคลน substrate ที่ใช้ในการประกอบแพ็กเกจชิป
    ทำให้แม้มี wafer ก็ไม่สามารถผลิตชิปได้ครบวงจร
    ส่งผลให้ราคาชิปเพิ่มขึ้นและสินค้าขาดตลาด

    https://www.tomshardware.com/pc-components/cpus/intel-hamstrung-by-supply-shortages-across-its-business-including-production-capacity-says-it-will-prioritize-data-center-cpus-over-consumer-chips-warns-of-price-hikes
    💥 Intel เผชิญปัญหาขาดแคลนการผลิต – เตรียมขึ้นราคาชิปและเน้นส่งมอบให้ศูนย์ข้อมูลก่อนผู้บริโภค Intel กำลังเผชิญกับปัญหาการขาดแคลนการผลิตอย่างหนัก โดยเฉพาะในกระบวนการผลิต Intel 7 และ Intel 10 ซึ่งส่งผลให้ไม่สามารถผลิตชิปได้เพียงพอต่อความต้องการทั้งฝั่งผู้บริโภคและศูนย์ข้อมูล ส่งผลให้ราคาชิปบางรุ่น เช่น Raptor Lake เริ่มปรับตัวสูงขึ้น และจะยังคงขาดตลาดไปจนถึงปี 2026 บริษัทตัดสินใจ “จัดลำดับความสำคัญ” โดยจะเน้นการผลิตชิปสำหรับศูนย์ข้อมูลก่อน เช่น Xeon 6 ‘Granite Rapids’ และ Xeon Scalable ‘Emerald Rapids’ เพราะสามารถขายได้ในราคาหลายพันดอลลาร์ต่อหน่วย ในขณะที่ชิปสำหรับผู้บริโภคมีราคาต่ำกว่า $600 นอกจากนี้ยังมีปัญหาขาดแคลนวัสดุพื้นฐาน เช่น substrate ที่ใช้ในการประกอบแพ็กเกจชิป ซึ่งยิ่งซ้ำเติมปัญหาการผลิตให้รุนแรงขึ้น ✅ ปัญหาการผลิตของ Intel ➡️ ขาดแคลนกำลังการผลิตใน Intel 7 และ Intel 10 ➡️ ส่งผลต่อการผลิตทั้งฝั่งผู้บริโภคและศูนย์ข้อมูล ➡️ ราคาชิป Raptor Lake เริ่มปรับตัวสูงขึ้น ➡️ คาดว่าปัญหาจะลากยาวไปถึงปี 2026 ✅ การจัดลำดับความสำคัญ ➡️ Intel จะเน้นผลิตชิปสำหรับศูนย์ข้อมูลก่อน ➡️ เช่น Xeon 6 ‘Granite Rapids’ และ Xeon ‘Emerald Rapids’ ➡️ เพราะขายได้ราคาสูงกว่าชิปผู้บริโภคหลายเท่า ➡️ ชิปสำหรับผู้บริโภคจะถูกลดปริมาณการผลิต ✅ ปัจจัยซ้ำเติม ➡️ ขาดแคลน substrate ที่ใช้ในการประกอบแพ็กเกจชิป ➡️ ทำให้แม้มี wafer ก็ไม่สามารถผลิตชิปได้ครบวงจร ➡️ ส่งผลให้ราคาชิปเพิ่มขึ้นและสินค้าขาดตลาด https://www.tomshardware.com/pc-components/cpus/intel-hamstrung-by-supply-shortages-across-its-business-including-production-capacity-says-it-will-prioritize-data-center-cpus-over-consumer-chips-warns-of-price-hikes
    0 Comments 0 Shares 104 Views 0 Reviews
  • Medusa Ransomware โจมตี Comcast: ข้อมูล 834 GB ถูกเปิดเผยหลังไม่จ่ายค่าไถ่ $1.2 ล้าน

    กลุ่มแฮกเกอร์ Medusa Ransomware ได้เปิดเผยข้อมูลขนาดมหึมา 834 GB ที่อ้างว่าเป็นของ Comcast บริษัทสื่อและเทคโนโลยียักษ์ใหญ่ของสหรัฐฯ หลังจากที่บริษัทไม่ยอมจ่ายค่าไถ่จำนวน $1.2 ล้านตามที่กลุ่มเรียกร้อง โดยข้อมูลที่ถูกปล่อยออกมานั้นเป็นไฟล์บีบอัดขนาด 186 GB ซึ่งเมื่อแตกไฟล์แล้วจะมีขนาดรวมถึง 834 GB ตามคำกล่าวอ้างของกลุ่มแฮกเกอร์.

    ข้อมูลที่รั่วไหลประกอบด้วยไฟล์ Excel และสคริปต์ Python/SQL ที่เกี่ยวข้องกับการวิเคราะห์เบี้ยประกันภัยอัตโนมัติ เช่น “Esur_rerating_verification.xlsx” และ “Claim Data Specifications.xlsm” ซึ่งบ่งชี้ว่ามีข้อมูลลูกค้าและการดำเนินงานภายในที่ละเอียดอ่อนถูกเปิดเผย

    Comcast ยังไม่ได้ออกมายืนยันหรือปฏิเสธเหตุการณ์นี้อย่างเป็นทางการ แม้ Hackread จะพยายามติดต่อเพื่อขอคำชี้แจงก็ตาม

    สรุปประเด็นสำคัญจากเหตุการณ์

    1️⃣ ข้อมูลที่ถูกเปิดเผย
    ข้อมูลที่ Medusa อ้างว่าได้จาก Comcast
    ขนาดรวม 834 GB (บีบอัดเหลือ 186 GB)
    ประกอบด้วยไฟล์ Excel และสคริปต์ Python/SQL
    เกี่ยวข้องกับการวิเคราะห์เบี้ยประกันภัยและข้อมูลลูกค้า

    คำเตือน
    ข้อมูลที่รั่วไหลอาจมีผลกระทบต่อความเป็นส่วนตัวของลูกค้าจำนวนมาก
    อาจนำไปสู่การโจมตีแบบ phishing หรือการขโมยข้อมูลทางการเงิน

    2️⃣ พฤติกรรมของกลุ่ม Medusa Ransomware
    ประวัติการโจมตีที่ผ่านมา
    เคยโจมตี NASCAR ด้วยค่าไถ่ $4 ล้านในเดือนเมษายน 2025
    ใช้ช่องโหว่ GoAnywhere MFT (CVE-2025-10035) เพื่อเจาะระบบ
    มีประวัติการปล่อยข้อมูลเมื่อไม่ได้รับการตอบสนองจากเหยื่อ

    คำเตือน
    กลุ่มนี้มีแนวโน้มปล่อยข้อมูลทันทีเมื่อการเจรจาล้มเหลว
    องค์กรที่ใช้ GoAnywhere MFT ควรตรวจสอบระบบอย่างเร่งด่วน

    3️⃣ ความเคลื่อนไหวของ Comcast
    เหตุการณ์ก่อนหน้านี้
    ในปี 2023 แบรนด์ Xfinity ของ Comcast เคยถูกโจมตีผ่านช่องโหว่ของ Citrix
    ส่งผลกระทบต่อบัญชีผู้ใช้กว่า 35.9 ล้านราย

    คำเตือน
    การโจมตีซ้ำแสดงถึงความเสี่ยงด้านความปลอดภัยที่ยังไม่ได้รับการแก้ไข
    การไม่ตอบสนองต่อสื่อหรือผู้เชี่ยวชาญอาจลดความเชื่อมั่นของลูกค้า

    https://hackread.com/medusa-ransomware-comcast-data-leak/
    🧨 Medusa Ransomware โจมตี Comcast: ข้อมูล 834 GB ถูกเปิดเผยหลังไม่จ่ายค่าไถ่ $1.2 ล้าน กลุ่มแฮกเกอร์ Medusa Ransomware ได้เปิดเผยข้อมูลขนาดมหึมา 834 GB ที่อ้างว่าเป็นของ Comcast บริษัทสื่อและเทคโนโลยียักษ์ใหญ่ของสหรัฐฯ หลังจากที่บริษัทไม่ยอมจ่ายค่าไถ่จำนวน $1.2 ล้านตามที่กลุ่มเรียกร้อง โดยข้อมูลที่ถูกปล่อยออกมานั้นเป็นไฟล์บีบอัดขนาด 186 GB ซึ่งเมื่อแตกไฟล์แล้วจะมีขนาดรวมถึง 834 GB ตามคำกล่าวอ้างของกลุ่มแฮกเกอร์. ข้อมูลที่รั่วไหลประกอบด้วยไฟล์ Excel และสคริปต์ Python/SQL ที่เกี่ยวข้องกับการวิเคราะห์เบี้ยประกันภัยอัตโนมัติ เช่น “Esur_rerating_verification.xlsx” และ “Claim Data Specifications.xlsm” ซึ่งบ่งชี้ว่ามีข้อมูลลูกค้าและการดำเนินงานภายในที่ละเอียดอ่อนถูกเปิดเผย Comcast ยังไม่ได้ออกมายืนยันหรือปฏิเสธเหตุการณ์นี้อย่างเป็นทางการ แม้ Hackread จะพยายามติดต่อเพื่อขอคำชี้แจงก็ตาม 🔍 สรุปประเด็นสำคัญจากเหตุการณ์ 1️⃣ ข้อมูลที่ถูกเปิดเผย ✅ ข้อมูลที่ Medusa อ้างว่าได้จาก Comcast ➡️ ขนาดรวม 834 GB (บีบอัดเหลือ 186 GB) ➡️ ประกอบด้วยไฟล์ Excel และสคริปต์ Python/SQL ➡️ เกี่ยวข้องกับการวิเคราะห์เบี้ยประกันภัยและข้อมูลลูกค้า ‼️ คำเตือน ⛔ ข้อมูลที่รั่วไหลอาจมีผลกระทบต่อความเป็นส่วนตัวของลูกค้าจำนวนมาก ⛔ อาจนำไปสู่การโจมตีแบบ phishing หรือการขโมยข้อมูลทางการเงิน 2️⃣ พฤติกรรมของกลุ่ม Medusa Ransomware ✅ ประวัติการโจมตีที่ผ่านมา ➡️ เคยโจมตี NASCAR ด้วยค่าไถ่ $4 ล้านในเดือนเมษายน 2025 ➡️ ใช้ช่องโหว่ GoAnywhere MFT (CVE-2025-10035) เพื่อเจาะระบบ ➡️ มีประวัติการปล่อยข้อมูลเมื่อไม่ได้รับการตอบสนองจากเหยื่อ ‼️ คำเตือน ⛔ กลุ่มนี้มีแนวโน้มปล่อยข้อมูลทันทีเมื่อการเจรจาล้มเหลว ⛔ องค์กรที่ใช้ GoAnywhere MFT ควรตรวจสอบระบบอย่างเร่งด่วน 3️⃣ ความเคลื่อนไหวของ Comcast ✅ เหตุการณ์ก่อนหน้านี้ ➡️ ในปี 2023 แบรนด์ Xfinity ของ Comcast เคยถูกโจมตีผ่านช่องโหว่ของ Citrix ➡️ ส่งผลกระทบต่อบัญชีผู้ใช้กว่า 35.9 ล้านราย ‼️ คำเตือน ⛔ การโจมตีซ้ำแสดงถึงความเสี่ยงด้านความปลอดภัยที่ยังไม่ได้รับการแก้ไข ⛔ การไม่ตอบสนองต่อสื่อหรือผู้เชี่ยวชาญอาจลดความเชื่อมั่นของลูกค้า https://hackread.com/medusa-ransomware-comcast-data-leak/
    HACKREAD.COM
    Medusa Ransomware Leaks 834 GB of Comcast Data After $1.2M Demand
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 179 Views 0 Reviews
  • Uber เปิดโอกาสใหม่ให้คนขับ “ฝึก AI” ระหว่างรอผู้โดยสาร

    Uber กำลังทดลองโครงการใหม่ในสหรัฐฯ ที่ชื่อว่า “Digital Tasks” ซึ่งเปิดโอกาสให้คนขับรถสามารถทำงานออนไลน์เล็กๆ น้อยๆ เพื่อช่วยฝึกระบบปัญญาประดิษฐ์ของบริษัทในช่วงเวลาว่าง ไม่ว่าจะระหว่างรอผู้โดยสารหรือแม้แต่ตอนพักงาน โดยงานเหล่านี้มีตั้งแต่การอัดเสียงสั้นๆ การอัปโหลดภาพจากชีวิตประจำวัน ไปจนถึงการส่งเอกสารที่เขียนด้วยตนเอง

    โครงการนี้เป็นส่วนหนึ่งของแผนพัฒนา AI Solutions ของ Uber ซึ่งเคยทดลองใช้งานในอินเดียมาแล้ว และกำลังขยายไปทั่วสหรัฐฯ ภายในสิ้นปี 2025 คนขับสามารถเข้าร่วมได้ผ่านแอป Uber Driver โดยเข้าไปที่ Work Hub และเลือกงานจาก Opportunity Center ซึ่งจะมีการจ่ายเงินภายใน 24 ชั่วโมงหลังจากทำงานเสร็จ

    แม้จะดูเหมือนเป็นโอกาสใหม่ในการหารายได้ แต่ก็มีคำถามตามมาว่า Uber กำลังใช้เครือข่ายคนขับเป็นแรงงานฝึก AI แบบ crowdsource โดยจ่ายค่าตอบแทนเพียงเล็กน้อย ขณะที่มูลค่าของข้อมูลที่ได้กลับสูงมากในอุตสาหกรรมที่กำลังเติบโตอย่างรวดเร็ว

    โครงการ Digital Tasks ของ Uber
    เปิดให้คนขับทำงานออนไลน์เพื่อฝึก AI
    งานมีตั้งแต่การอัดเสียง อัปโหลดภาพ ส่งเอกสาร
    เข้าร่วมผ่านแอป Uber Driver ในส่วน Work Hub
    ได้รับค่าตอบแทนภายใน 24 ชั่วโมง

    เป้าหมายของโครงการ
    สนับสนุนการพัฒนา AI Solutions ของ Uber
    ใช้ข้อมูลจากคนขับแทนการดึงจากอินเทอร์เน็ต
    สร้างฐานข้อมูลภาพ เสียง ข้อความ สำหรับฝึกโมเดล AI

    ประโยชน์และข้อจำกัด
    คนขับมีรายได้เสริมระหว่างรอผู้โดยสาร
    ค่าตอบแทนต่อชิ้นงานอยู่ที่ประมาณ $0.50–$1 ต่อ 2–3 นาที
    จำนวนงานขึ้นอยู่กับความต้องการของลูกค้า Uber

    ภาพรวมอุตสาหกรรม
    ตลาด data labeling เติบโตจาก $1B ในปี 2023 เป็น $4B ในปี 2024
    คาดว่าจะทะลุ $17B ภายในปี 2030
    บริษัทใหญ่เช่น Meta ลงทุนหลายพันล้านในบริษัท labeling

    https://www.slashgear.com/2004713/uber-driver-ai-training-task-program/
    🚗 Uber เปิดโอกาสใหม่ให้คนขับ “ฝึก AI” ระหว่างรอผู้โดยสาร Uber กำลังทดลองโครงการใหม่ในสหรัฐฯ ที่ชื่อว่า “Digital Tasks” ซึ่งเปิดโอกาสให้คนขับรถสามารถทำงานออนไลน์เล็กๆ น้อยๆ เพื่อช่วยฝึกระบบปัญญาประดิษฐ์ของบริษัทในช่วงเวลาว่าง ไม่ว่าจะระหว่างรอผู้โดยสารหรือแม้แต่ตอนพักงาน โดยงานเหล่านี้มีตั้งแต่การอัดเสียงสั้นๆ การอัปโหลดภาพจากชีวิตประจำวัน ไปจนถึงการส่งเอกสารที่เขียนด้วยตนเอง โครงการนี้เป็นส่วนหนึ่งของแผนพัฒนา AI Solutions ของ Uber ซึ่งเคยทดลองใช้งานในอินเดียมาแล้ว และกำลังขยายไปทั่วสหรัฐฯ ภายในสิ้นปี 2025 คนขับสามารถเข้าร่วมได้ผ่านแอป Uber Driver โดยเข้าไปที่ Work Hub และเลือกงานจาก Opportunity Center ซึ่งจะมีการจ่ายเงินภายใน 24 ชั่วโมงหลังจากทำงานเสร็จ แม้จะดูเหมือนเป็นโอกาสใหม่ในการหารายได้ แต่ก็มีคำถามตามมาว่า Uber กำลังใช้เครือข่ายคนขับเป็นแรงงานฝึก AI แบบ crowdsource โดยจ่ายค่าตอบแทนเพียงเล็กน้อย ขณะที่มูลค่าของข้อมูลที่ได้กลับสูงมากในอุตสาหกรรมที่กำลังเติบโตอย่างรวดเร็ว ✅ โครงการ Digital Tasks ของ Uber ➡️ เปิดให้คนขับทำงานออนไลน์เพื่อฝึก AI ➡️ งานมีตั้งแต่การอัดเสียง อัปโหลดภาพ ส่งเอกสาร ➡️ เข้าร่วมผ่านแอป Uber Driver ในส่วน Work Hub ➡️ ได้รับค่าตอบแทนภายใน 24 ชั่วโมง ✅ เป้าหมายของโครงการ ➡️ สนับสนุนการพัฒนา AI Solutions ของ Uber ➡️ ใช้ข้อมูลจากคนขับแทนการดึงจากอินเทอร์เน็ต ➡️ สร้างฐานข้อมูลภาพ เสียง ข้อความ สำหรับฝึกโมเดล AI ✅ ประโยชน์และข้อจำกัด ➡️ คนขับมีรายได้เสริมระหว่างรอผู้โดยสาร ➡️ ค่าตอบแทนต่อชิ้นงานอยู่ที่ประมาณ $0.50–$1 ต่อ 2–3 นาที ➡️ จำนวนงานขึ้นอยู่กับความต้องการของลูกค้า Uber ✅ ภาพรวมอุตสาหกรรม ➡️ ตลาด data labeling เติบโตจาก $1B ในปี 2023 เป็น $4B ในปี 2024 ➡️ คาดว่าจะทะลุ $17B ภายในปี 2030 ➡️ บริษัทใหญ่เช่น Meta ลงทุนหลายพันล้านในบริษัท labeling https://www.slashgear.com/2004713/uber-driver-ai-training-task-program/
    WWW.SLASHGEAR.COM
    Uber Wants Drivers To Train AI While Waiting For Their Next Ride - SlashGear
    Uber is rolling out a new program that lets drivers train AI while they are waiting for their next ride. Here's how it works and where it's available.
    0 Comments 0 Shares 106 Views 0 Reviews
  • Reddit ฟ้อง Perplexity และบริษัท Data Broker ฐานขูดข้อมูลระดับอุตสาหกรรมเพื่อป้อน AI

    Reddit จุดชนวนสงครามข้อมูลกับบริษัท AI โดยยื่นฟ้อง Perplexity และบริษัท data broker อีก 3 ราย ได้แก่ Oxylabs, SerpApi และ AWMProxy ฐานละเมิดข้อตกลงการใช้งานและขูดข้อมูลจากแพลตฟอร์ม Reddit เพื่อนำไปใช้ในการฝึกโมเดล AI โดยไม่ได้รับอนุญาต

    Reddit ระบุว่า Perplexity เป็น “ลูกค้าผู้เต็มใจ” ในระบบเศรษฐกิจแบบ “ฟอกข้อมูล” ที่กำลังเฟื่องฟูในยุค AI โดยบริษัทเหล่านี้ใช้เทคนิคหลบเลี่ยงข้อจำกัดของเว็บไซต์ เช่น การละเมิด robots.txt และการปลอมตัวเป็นผู้ใช้ทั่วไป เพื่อเข้าถึงข้อมูลที่ควรถูกป้องกันไว้

    ที่น่าสนใจคือ Reddit ได้วางกับดักโดยสร้างโพสต์ลับที่มีเพียง Google เท่านั้นที่สามารถเข้าถึงได้ แต่กลับพบว่าเนื้อหานั้นปรากฏในคำตอบของ Perplexity ภายในเวลาไม่กี่ชั่วโมง ซึ่งเป็นหลักฐานสำคัญที่ Reddit ใช้ในการฟ้องร้อง

    Perplexity ปฏิเสธข้อกล่าวหา โดยระบุว่าไม่ได้ใช้ข้อมูล Reddit ในการฝึกโมเดล AI แต่เพียงสรุปและอ้างอิงเนื้อหาสาธารณะเท่านั้น พร้อมกล่าวหาว่า Reddit ใช้คดีนี้เป็นเครื่องมือในการต่อรองข้อตกลงด้านข้อมูลกับ Google และ OpenAI

    คดีนี้ไม่ใช่ครั้งแรกที่ Reddit ฟ้องบริษัท AI ก่อนหน้านี้ก็เคยฟ้อง Anthropic ด้วยเหตุผลคล้ายกัน และสะท้อนถึงความตึงเครียดระหว่างแพลตฟอร์มเนื้อหากับบริษัท AI ที่ต้องการข้อมูลมนุษย์คุณภาพสูงเพื่อฝึกโมเดล

    รายละเอียดคดีฟ้องร้อง
    Reddit ฟ้อง Perplexity, Oxylabs, SerpApi และ AWMProxy ฐานขูดข้อมูลโดยไม่ได้รับอนุญาต
    กล่าวหาว่า Perplexity ใช้ข้อมูล Reddit เพื่อฝึกโมเดล AI โดยไม่ทำข้อตกลงลิขสิทธิ์
    บริษัท scraping ใช้ proxy และเทคนิคหลบเลี่ยงเพื่อเข้าถึงข้อมูล

    หลักฐานสำคัญ
    Reddit สร้างโพสต์ลับที่มีเฉพาะ Google เข้าถึงได้
    พบว่า Perplexity ใช้เนื้อหานั้นในคำตอบของ AI ภายในไม่กี่ชั่วโมง
    ชี้ว่า Perplexity ขูดข้อมูลจาก Google SERPs ที่มีเนื้อหา Reddit

    การตอบโต้จาก Perplexity
    ปฏิเสธว่าไม่ได้ฝึกโมเดลด้วยข้อมูล Reddit
    ระบุว่าเพียงสรุปและอ้างอิงเนื้อหาสาธารณะ
    กล่าวหาว่า Redditใช้คดีนี้เพื่อกดดัน Google และ OpenAI

    ความเคลื่อนไหวของ Reddit
    เคยฟ้อง Anthropic ด้วยเหตุผลคล้ายกัน
    มีข้อตกลงลิขสิทธิ์กับ Google และ OpenAI
    เน้นว่าข้อมูลจาก Reddit เป็น “เนื้อหามนุษย์คุณภาพสูง” ที่มีมูลค่าสูงในยุค AI

    https://securityonline.info/reddit-sues-perplexity-and-data-brokers-for-industrial-scale-scraping/
    🧠 Reddit ฟ้อง Perplexity และบริษัท Data Broker ฐานขูดข้อมูลระดับอุตสาหกรรมเพื่อป้อน AI Reddit จุดชนวนสงครามข้อมูลกับบริษัท AI โดยยื่นฟ้อง Perplexity และบริษัท data broker อีก 3 ราย ได้แก่ Oxylabs, SerpApi และ AWMProxy ฐานละเมิดข้อตกลงการใช้งานและขูดข้อมูลจากแพลตฟอร์ม Reddit เพื่อนำไปใช้ในการฝึกโมเดล AI โดยไม่ได้รับอนุญาต Reddit ระบุว่า Perplexity เป็น “ลูกค้าผู้เต็มใจ” ในระบบเศรษฐกิจแบบ “ฟอกข้อมูล” ที่กำลังเฟื่องฟูในยุค AI โดยบริษัทเหล่านี้ใช้เทคนิคหลบเลี่ยงข้อจำกัดของเว็บไซต์ เช่น การละเมิด robots.txt และการปลอมตัวเป็นผู้ใช้ทั่วไป เพื่อเข้าถึงข้อมูลที่ควรถูกป้องกันไว้ ที่น่าสนใจคือ Reddit ได้วางกับดักโดยสร้างโพสต์ลับที่มีเพียง Google เท่านั้นที่สามารถเข้าถึงได้ แต่กลับพบว่าเนื้อหานั้นปรากฏในคำตอบของ Perplexity ภายในเวลาไม่กี่ชั่วโมง ซึ่งเป็นหลักฐานสำคัญที่ Reddit ใช้ในการฟ้องร้อง Perplexity ปฏิเสธข้อกล่าวหา โดยระบุว่าไม่ได้ใช้ข้อมูล Reddit ในการฝึกโมเดล AI แต่เพียงสรุปและอ้างอิงเนื้อหาสาธารณะเท่านั้น พร้อมกล่าวหาว่า Reddit ใช้คดีนี้เป็นเครื่องมือในการต่อรองข้อตกลงด้านข้อมูลกับ Google และ OpenAI คดีนี้ไม่ใช่ครั้งแรกที่ Reddit ฟ้องบริษัท AI ก่อนหน้านี้ก็เคยฟ้อง Anthropic ด้วยเหตุผลคล้ายกัน และสะท้อนถึงความตึงเครียดระหว่างแพลตฟอร์มเนื้อหากับบริษัท AI ที่ต้องการข้อมูลมนุษย์คุณภาพสูงเพื่อฝึกโมเดล ✅ รายละเอียดคดีฟ้องร้อง ➡️ Reddit ฟ้อง Perplexity, Oxylabs, SerpApi และ AWMProxy ฐานขูดข้อมูลโดยไม่ได้รับอนุญาต ➡️ กล่าวหาว่า Perplexity ใช้ข้อมูล Reddit เพื่อฝึกโมเดล AI โดยไม่ทำข้อตกลงลิขสิทธิ์ ➡️ บริษัท scraping ใช้ proxy และเทคนิคหลบเลี่ยงเพื่อเข้าถึงข้อมูล ✅ หลักฐานสำคัญ ➡️ Reddit สร้างโพสต์ลับที่มีเฉพาะ Google เข้าถึงได้ ➡️ พบว่า Perplexity ใช้เนื้อหานั้นในคำตอบของ AI ภายในไม่กี่ชั่วโมง ➡️ ชี้ว่า Perplexity ขูดข้อมูลจาก Google SERPs ที่มีเนื้อหา Reddit ✅ การตอบโต้จาก Perplexity ➡️ ปฏิเสธว่าไม่ได้ฝึกโมเดลด้วยข้อมูล Reddit ➡️ ระบุว่าเพียงสรุปและอ้างอิงเนื้อหาสาธารณะ ➡️ กล่าวหาว่า Redditใช้คดีนี้เพื่อกดดัน Google และ OpenAI ✅ ความเคลื่อนไหวของ Reddit ➡️ เคยฟ้อง Anthropic ด้วยเหตุผลคล้ายกัน ➡️ มีข้อตกลงลิขสิทธิ์กับ Google และ OpenAI ➡️ เน้นว่าข้อมูลจาก Reddit เป็น “เนื้อหามนุษย์คุณภาพสูง” ที่มีมูลค่าสูงในยุค AI https://securityonline.info/reddit-sues-perplexity-and-data-brokers-for-industrial-scale-scraping/
    SECURITYONLINE.INFO
    Reddit Sues Perplexity and Data Brokers for 'Industrial-Scale' Scraping
    Reddit has filed a lawsuit against Perplexity and three data brokers, accusing them of unauthorized, "industrial-scale" scraping of its content for AI training.
    0 Comments 0 Shares 114 Views 0 Reviews
  • “เบลเยียมเตรียมจำกัดพลังงานสำหรับดาต้าเซ็นเตอร์ – รับมือความต้องการ AI ที่พุ่งทะยาน”

    เบลเยียมกำลังพิจารณาออกมาตรการจำกัดการใช้พลังงานของดาต้าเซ็นเตอร์ หลังจากความต้องการด้าน AI พุ่งสูงจนทำให้โครงข่ายไฟฟ้าเริ่มตึงตัว โดยบริษัท Elia ซึ่งเป็นผู้ดูแลโครงข่ายไฟฟ้าของประเทศ เสนอให้จัดประเภทดาต้าเซ็นเตอร์เป็นกลุ่มเฉพาะ และกำหนด “เพดานการใช้พลังงาน” เพื่อป้องกันไม่ให้ภาคอุตสาหกรรมอื่นถูกเบียดออกจากระบบ

    แนวคิดนี้เกิดขึ้นเพราะดาต้าเซ็นเตอร์ที่รองรับงาน AI เช่นการฝึกโมเดลขนาดใหญ่ ต้องใช้พลังงานมหาศาลตลอดเวลา และหากไม่มีการจัดการ อาจทำให้เกิดปัญหาด้านเสถียรภาพของระบบไฟฟ้าในประเทศ

    Elia เสนอให้มีการจัดสรรโควต้าพลังงานเฉพาะสำหรับดาต้าเซ็นเตอร์ และให้สิทธิ์ในการเข้าถึงโครงข่ายไฟฟ้าตามระดับความสำคัญ ซึ่งอาจส่งผลต่อการลงทุนในโครงสร้างพื้นฐาน AI ในอนาคต

    แม้ยังไม่มีการประกาศอย่างเป็นทางการ แต่มาตรการนี้สะท้อนความกังวลของยุโรปที่ต้องการสร้างสมดุลระหว่างการเติบโตของเทคโนโลยีและความมั่นคงด้านพลังงาน โดยเฉพาะในยุคที่ AI กลายเป็นตัวขับเคลื่อนเศรษฐกิจใหม่

    แนวคิดจาก Elia ผู้ดูแลโครงข่ายไฟฟ้าเบลเยียม
    เสนอให้จัดประเภทดาต้าเซ็นเตอร์เป็นกลุ่มเฉพาะ
    กำหนดเพดานการใช้พลังงานสำหรับดาต้าเซ็นเตอร์
    ป้องกันไม่ให้ภาคอุตสาหกรรมอื่นถูกเบียดออกจากระบบ
    จัดสรรโควต้าพลังงานตามระดับความสำคัญของผู้ใช้งาน

    สาเหตุของมาตรการ
    ความต้องการพลังงานจาก AI พุ่งสูงอย่างรวดเร็ว
    ดาต้าเซ็นเตอร์ใช้พลังงานมหาศาลในการฝึกโมเดล
    เสี่ยงต่อเสถียรภาพของระบบไฟฟ้าในประเทศ
    ต้องการสร้างสมดุลระหว่างเทคโนโลยีกับความมั่นคงพลังงาน

    ผลกระทบที่อาจเกิดขึ้น
    นักลงทุนในโครงสร้างพื้นฐาน AI อาจต้องปรับแผน
    ดาต้าเซ็นเตอร์ใหม่อาจต้องผ่านการอนุมัติด้านพลังงาน
    อาจมีการจัดลำดับความสำคัญของงาน AI ที่ใช้พลังงานสูง
    ภาคอุตสาหกรรมอื่นอาจได้รับพลังงานอย่างมั่นคงมากขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/10/23/belgium-mulls-energy-limits-for-power-hungry-data-centres-as-ai-demand-surges
    ⚡ “เบลเยียมเตรียมจำกัดพลังงานสำหรับดาต้าเซ็นเตอร์ – รับมือความต้องการ AI ที่พุ่งทะยาน” เบลเยียมกำลังพิจารณาออกมาตรการจำกัดการใช้พลังงานของดาต้าเซ็นเตอร์ หลังจากความต้องการด้าน AI พุ่งสูงจนทำให้โครงข่ายไฟฟ้าเริ่มตึงตัว โดยบริษัท Elia ซึ่งเป็นผู้ดูแลโครงข่ายไฟฟ้าของประเทศ เสนอให้จัดประเภทดาต้าเซ็นเตอร์เป็นกลุ่มเฉพาะ และกำหนด “เพดานการใช้พลังงาน” เพื่อป้องกันไม่ให้ภาคอุตสาหกรรมอื่นถูกเบียดออกจากระบบ แนวคิดนี้เกิดขึ้นเพราะดาต้าเซ็นเตอร์ที่รองรับงาน AI เช่นการฝึกโมเดลขนาดใหญ่ ต้องใช้พลังงานมหาศาลตลอดเวลา และหากไม่มีการจัดการ อาจทำให้เกิดปัญหาด้านเสถียรภาพของระบบไฟฟ้าในประเทศ Elia เสนอให้มีการจัดสรรโควต้าพลังงานเฉพาะสำหรับดาต้าเซ็นเตอร์ และให้สิทธิ์ในการเข้าถึงโครงข่ายไฟฟ้าตามระดับความสำคัญ ซึ่งอาจส่งผลต่อการลงทุนในโครงสร้างพื้นฐาน AI ในอนาคต แม้ยังไม่มีการประกาศอย่างเป็นทางการ แต่มาตรการนี้สะท้อนความกังวลของยุโรปที่ต้องการสร้างสมดุลระหว่างการเติบโตของเทคโนโลยีและความมั่นคงด้านพลังงาน โดยเฉพาะในยุคที่ AI กลายเป็นตัวขับเคลื่อนเศรษฐกิจใหม่ ✅ แนวคิดจาก Elia ผู้ดูแลโครงข่ายไฟฟ้าเบลเยียม ➡️ เสนอให้จัดประเภทดาต้าเซ็นเตอร์เป็นกลุ่มเฉพาะ ➡️ กำหนดเพดานการใช้พลังงานสำหรับดาต้าเซ็นเตอร์ ➡️ ป้องกันไม่ให้ภาคอุตสาหกรรมอื่นถูกเบียดออกจากระบบ ➡️ จัดสรรโควต้าพลังงานตามระดับความสำคัญของผู้ใช้งาน ✅ สาเหตุของมาตรการ ➡️ ความต้องการพลังงานจาก AI พุ่งสูงอย่างรวดเร็ว ➡️ ดาต้าเซ็นเตอร์ใช้พลังงานมหาศาลในการฝึกโมเดล ➡️ เสี่ยงต่อเสถียรภาพของระบบไฟฟ้าในประเทศ ➡️ ต้องการสร้างสมดุลระหว่างเทคโนโลยีกับความมั่นคงพลังงาน ✅ ผลกระทบที่อาจเกิดขึ้น ➡️ นักลงทุนในโครงสร้างพื้นฐาน AI อาจต้องปรับแผน ➡️ ดาต้าเซ็นเตอร์ใหม่อาจต้องผ่านการอนุมัติด้านพลังงาน ➡️ อาจมีการจัดลำดับความสำคัญของงาน AI ที่ใช้พลังงานสูง ➡️ ภาคอุตสาหกรรมอื่นอาจได้รับพลังงานอย่างมั่นคงมากขึ้น https://www.thestar.com.my/tech/tech-news/2025/10/23/belgium-mulls-energy-limits-for-power-hungry-data-centres-as-ai-demand-surges
    WWW.THESTAR.COM.MY
    Belgium mulls energy limits for power-hungry data centres as AI demand surges
    (Reuters) -Belgium's grid operator could set an electricity allocation limit on data centres to prevent other industrial users from being squeezed out, it said, following a surge in demand from the energy-intensive facilities that power AI.
    0 Comments 0 Shares 172 Views 0 Reviews
  • “9 เครื่องมือจัดการ Attack Surface ที่องค์กรควรรู้ – ป้องกันภัยไซเบอร์ก่อนถูกเจาะ!”

    ในยุคที่ระบบ IT เชื่อมต่อกับโลกภายนอกตลอดเวลา การรู้ว่า “อะไรเปิดเผยอยู่บ้าง” คือกุญแจสำคัญในการป้องกันการโจมตี เครื่องมือประเภท CAASM (Cyber Asset Attack Surface Management) และ EASM (External Attack Surface Management) จึงกลายเป็นหัวใจของการรักษาความปลอดภัยระดับองค์กร

    บทความจาก CSO Online ได้รวบรวม 9 เครื่องมือเด่นที่ช่วยค้นหาและจัดการช่องโหว่ในระบบขององค์กร โดยแต่ละตัวมีจุดเด่นต่างกัน เช่น การมองจากมุมของแฮกเกอร์, การเชื่อมต่อกับระบบภายใน, หรือการวิเคราะห์ความเสี่ยงเชิงธุรกิจ

    เป้าหมายของเครื่องมือเหล่านี้คือการลด “ข้อมูลที่แฮกเกอร์มองเห็น” ให้เหลือน้อยที่สุด โดยยังคงให้บริการธุรกิจได้ตามปกติ และสามารถตรวจจับการเปลี่ยนแปลงแบบเรียลไทม์ เช่น การเพิ่ม asset ใหม่ หรือการเปลี่ยน config ที่อาจเกิดจาก human error หรือการโจมตี

    ความเข้าใจพื้นฐานของ Attack Surface
    หมายถึงทรัพยากรทั้งหมดที่เข้าถึงได้จากอินเทอร์เน็ต เช่น IP, domain, application
    รวมถึง open ports, SSL, server platform และ protocol ที่ใช้งาน
    ช่องโหว่เกิดจาก config ผิดพลาดหรือ software ที่ยังไม่ได้ patch
    แม้ asset จะอยู่ใน data center ก็ยังเสี่ยง หากไม่มีการ monitor ที่ดี

    ความสามารถของเครื่องมือ CAASM/EASM
    ตรวจจับ asset ใหม่และ config drift แบบเรียลไทม์
    วิเคราะห์ความเสี่ยงจากทั้งมุมเทคนิคและมุมธุรกิจ
    เชื่อมต่อกับระบบภายใน เช่น Jira, ServiceNow, Slack
    บางตัวสามารถทำ remediation อัตโนมัติหรือผ่าน playbook

    เครื่องมือเด่นที่แนะนำ
    Axonius – เน้น asset inventory และ policy compliance เช่น PCI/HIPAA
    CrowdStrike Falcon Surface – มองจากมุมแฮกเกอร์ พร้อม remediation ผ่าน integration
    CyCognito – วิเคราะห์ความสัมพันธ์ระหว่าง asset และจัดลำดับความเสี่ยง
    Informer – ค้นหา asset บน web/API พร้อม pen testing เสริม
    JupiterOne – แสดง asset แบบ visual map พร้อม query ขั้นสูง
    Microsoft Defender EASM – ค้นหา shadow IT และ probe ทุก layer ของ tech stack
    Rapid7 InsightVM – มีสิทธิ์ออก CVE ใหม่ พร้อม dashboard วิเคราะห์แบบเจาะลึก
    SOCRadar AttackMapper – ตรวจ SSL, DNS, defacement และ correlate กับวิธีโจมตี
    Tenable.asm – วิเคราะห์ asset ด้วย metadata กว่า 200 field พร้อม context เชิงธุรกิจ

    ข้อควรระวังและคำเตือน
    การ scan แบบ periodic ไม่เพียงพอ ต้องใช้ monitoring แบบต่อเนื่อง
    การไม่จัดการ config drift อาจเปิดช่องให้โจมตีโดยไม่รู้ตัว
    หากไม่เชื่อมโยง asset กับ context ธุรกิจ อาจจัดลำดับความเสี่ยงผิด
    การใช้หลายเครื่องมือโดยไม่มีการบูรณาการ อาจทำให้ข้อมูลกระจัดกระจาย
    การไม่ฝึกซ้อม incident response ทำให้ 57% ของเหตุการณ์จริงไม่เคยถูกจำลองมาก่อน

    https://www.csoonline.com/article/574797/9-attack-surface-discovery-and-management-tools.html
    🛡️ “9 เครื่องมือจัดการ Attack Surface ที่องค์กรควรรู้ – ป้องกันภัยไซเบอร์ก่อนถูกเจาะ!” ในยุคที่ระบบ IT เชื่อมต่อกับโลกภายนอกตลอดเวลา การรู้ว่า “อะไรเปิดเผยอยู่บ้าง” คือกุญแจสำคัญในการป้องกันการโจมตี เครื่องมือประเภท CAASM (Cyber Asset Attack Surface Management) และ EASM (External Attack Surface Management) จึงกลายเป็นหัวใจของการรักษาความปลอดภัยระดับองค์กร บทความจาก CSO Online ได้รวบรวม 9 เครื่องมือเด่นที่ช่วยค้นหาและจัดการช่องโหว่ในระบบขององค์กร โดยแต่ละตัวมีจุดเด่นต่างกัน เช่น การมองจากมุมของแฮกเกอร์, การเชื่อมต่อกับระบบภายใน, หรือการวิเคราะห์ความเสี่ยงเชิงธุรกิจ เป้าหมายของเครื่องมือเหล่านี้คือการลด “ข้อมูลที่แฮกเกอร์มองเห็น” ให้เหลือน้อยที่สุด โดยยังคงให้บริการธุรกิจได้ตามปกติ และสามารถตรวจจับการเปลี่ยนแปลงแบบเรียลไทม์ เช่น การเพิ่ม asset ใหม่ หรือการเปลี่ยน config ที่อาจเกิดจาก human error หรือการโจมตี ✅ ความเข้าใจพื้นฐานของ Attack Surface ➡️ หมายถึงทรัพยากรทั้งหมดที่เข้าถึงได้จากอินเทอร์เน็ต เช่น IP, domain, application ➡️ รวมถึง open ports, SSL, server platform และ protocol ที่ใช้งาน ➡️ ช่องโหว่เกิดจาก config ผิดพลาดหรือ software ที่ยังไม่ได้ patch ➡️ แม้ asset จะอยู่ใน data center ก็ยังเสี่ยง หากไม่มีการ monitor ที่ดี ✅ ความสามารถของเครื่องมือ CAASM/EASM ➡️ ตรวจจับ asset ใหม่และ config drift แบบเรียลไทม์ ➡️ วิเคราะห์ความเสี่ยงจากทั้งมุมเทคนิคและมุมธุรกิจ ➡️ เชื่อมต่อกับระบบภายใน เช่น Jira, ServiceNow, Slack ➡️ บางตัวสามารถทำ remediation อัตโนมัติหรือผ่าน playbook ✅ เครื่องมือเด่นที่แนะนำ ➡️ Axonius – เน้น asset inventory และ policy compliance เช่น PCI/HIPAA ➡️ CrowdStrike Falcon Surface – มองจากมุมแฮกเกอร์ พร้อม remediation ผ่าน integration ➡️ CyCognito – วิเคราะห์ความสัมพันธ์ระหว่าง asset และจัดลำดับความเสี่ยง ➡️ Informer – ค้นหา asset บน web/API พร้อม pen testing เสริม ➡️ JupiterOne – แสดง asset แบบ visual map พร้อม query ขั้นสูง ➡️ Microsoft Defender EASM – ค้นหา shadow IT และ probe ทุก layer ของ tech stack ➡️ Rapid7 InsightVM – มีสิทธิ์ออก CVE ใหม่ พร้อม dashboard วิเคราะห์แบบเจาะลึก ➡️ SOCRadar AttackMapper – ตรวจ SSL, DNS, defacement และ correlate กับวิธีโจมตี ➡️ Tenable.asm – วิเคราะห์ asset ด้วย metadata กว่า 200 field พร้อม context เชิงธุรกิจ ‼️ ข้อควรระวังและคำเตือน ⛔ การ scan แบบ periodic ไม่เพียงพอ ต้องใช้ monitoring แบบต่อเนื่อง ⛔ การไม่จัดการ config drift อาจเปิดช่องให้โจมตีโดยไม่รู้ตัว ⛔ หากไม่เชื่อมโยง asset กับ context ธุรกิจ อาจจัดลำดับความเสี่ยงผิด ⛔ การใช้หลายเครื่องมือโดยไม่มีการบูรณาการ อาจทำให้ข้อมูลกระจัดกระจาย ⛔ การไม่ฝึกซ้อม incident response ทำให้ 57% ของเหตุการณ์จริงไม่เคยถูกจำลองมาก่อน https://www.csoonline.com/article/574797/9-attack-surface-discovery-and-management-tools.html
    WWW.CSOONLINE.COM
    CAASM and EASM: Top 12 attack surface discovery and management tools
    The main goal of cyber asset attack surface management (CAASM) and external attack surface management (EASM) tools is to protect information about a company’s security measures from attackers. Here are 9 tools to consider when deciding what is best for the business.
    0 Comments 0 Shares 227 Views 0 Reviews
More Results