รายงานล่าสุดจาก CSO Online ระบุว่า Shadow AI หรือการใช้ AI โดยไม่ได้รับอนุญาตในองค์กร กำลังเพิ่มความเสี่ยงด้านความปลอดภัยข้อมูลอย่างมาก โดยมีการเปิดเผยว่า ปริมาณข้อมูลที่ถูกส่งไปยังแอปพลิเคชัน AI เพิ่มขึ้นถึง 30 เท่าในปีที่ผ่านมา ซึ่งนำไปสู่การรั่วไหลของข้อมูลที่สำคัญ เช่น ซอร์สโค้ด, ข้อมูลทางกฎหมาย และข้อมูลลูกค้า
✅ Shadow AI กำลังเพิ่มความเสี่ยงด้านความปลอดภัยข้อมูลในองค์กร
- พนักงานใช้ บัญชี AI ส่วนตัว เพื่อประมวลผลข้อมูลที่ละเอียดอ่อน
- ข้อมูลที่ถูกส่งไปยังแอป AI เช่น ChatGPT, Gemini และ Claude เพิ่มขึ้นจาก 250MB เป็น 7.7GB ต่อเดือน
✅ 8.5% ของคำสั่งที่ส่งไปยัง AI มีข้อมูลที่ละเอียดอ่อน
- ข้อมูลที่รั่วไหลรวมถึง ข้อมูลลูกค้า, ข้อมูลทางกฎหมาย และข้อมูลด้านความปลอดภัย
- ข้อมูลลูกค้าคิดเป็น เกือบครึ่งหนึ่งของข้อมูลที่รั่วไหล
✅ องค์กรส่วนใหญ่ไม่มีนโยบายควบคุมการใช้ AI อย่างชัดเจน
- 90% ขององค์กรมี แอปพลิเคชัน AI ที่ได้รับอนุญาต แต่ยังคงมีการใช้ AI ที่ไม่ได้รับการควบคุม
- 72% ของการใช้ AI ในองค์กรเป็น Shadow IT ซึ่งไม่ได้รับการตรวจสอบจากฝ่ายความปลอดภัย
✅ ผู้เชี่ยวชาญเตือนว่าการใช้ AI โดยไม่มีการควบคุมอาจนำไปสู่การละเมิดกฎระเบียบ
- ข้อมูลที่รั่วไหลอาจถูกนำไปใช้ในการฝึกโมเดล AI หรือถูกโจมตีโดยแฮกเกอร์
- การใช้ AI โดยไม่มีการตรวจสอบอาจทำให้เกิด ข้อผิดพลาดด้านข้อมูลและลดความน่าเชื่อถือขององค์กร
https://www.csoonline.com/article/3964282/cisos-no-closer-to-containing-shadow-ais-skyrocketing-data-risks.html
✅ Shadow AI กำลังเพิ่มความเสี่ยงด้านความปลอดภัยข้อมูลในองค์กร
- พนักงานใช้ บัญชี AI ส่วนตัว เพื่อประมวลผลข้อมูลที่ละเอียดอ่อน
- ข้อมูลที่ถูกส่งไปยังแอป AI เช่น ChatGPT, Gemini และ Claude เพิ่มขึ้นจาก 250MB เป็น 7.7GB ต่อเดือน
✅ 8.5% ของคำสั่งที่ส่งไปยัง AI มีข้อมูลที่ละเอียดอ่อน
- ข้อมูลที่รั่วไหลรวมถึง ข้อมูลลูกค้า, ข้อมูลทางกฎหมาย และข้อมูลด้านความปลอดภัย
- ข้อมูลลูกค้าคิดเป็น เกือบครึ่งหนึ่งของข้อมูลที่รั่วไหล
✅ องค์กรส่วนใหญ่ไม่มีนโยบายควบคุมการใช้ AI อย่างชัดเจน
- 90% ขององค์กรมี แอปพลิเคชัน AI ที่ได้รับอนุญาต แต่ยังคงมีการใช้ AI ที่ไม่ได้รับการควบคุม
- 72% ของการใช้ AI ในองค์กรเป็น Shadow IT ซึ่งไม่ได้รับการตรวจสอบจากฝ่ายความปลอดภัย
✅ ผู้เชี่ยวชาญเตือนว่าการใช้ AI โดยไม่มีการควบคุมอาจนำไปสู่การละเมิดกฎระเบียบ
- ข้อมูลที่รั่วไหลอาจถูกนำไปใช้ในการฝึกโมเดล AI หรือถูกโจมตีโดยแฮกเกอร์
- การใช้ AI โดยไม่มีการตรวจสอบอาจทำให้เกิด ข้อผิดพลาดด้านข้อมูลและลดความน่าเชื่อถือขององค์กร
https://www.csoonline.com/article/3964282/cisos-no-closer-to-containing-shadow-ais-skyrocketing-data-risks.html
รายงานล่าสุดจาก CSO Online ระบุว่า Shadow AI หรือการใช้ AI โดยไม่ได้รับอนุญาตในองค์กร กำลังเพิ่มความเสี่ยงด้านความปลอดภัยข้อมูลอย่างมาก โดยมีการเปิดเผยว่า ปริมาณข้อมูลที่ถูกส่งไปยังแอปพลิเคชัน AI เพิ่มขึ้นถึง 30 เท่าในปีที่ผ่านมา ซึ่งนำไปสู่การรั่วไหลของข้อมูลที่สำคัญ เช่น ซอร์สโค้ด, ข้อมูลทางกฎหมาย และข้อมูลลูกค้า
✅ Shadow AI กำลังเพิ่มความเสี่ยงด้านความปลอดภัยข้อมูลในองค์กร
- พนักงานใช้ บัญชี AI ส่วนตัว เพื่อประมวลผลข้อมูลที่ละเอียดอ่อน
- ข้อมูลที่ถูกส่งไปยังแอป AI เช่น ChatGPT, Gemini และ Claude เพิ่มขึ้นจาก 250MB เป็น 7.7GB ต่อเดือน
✅ 8.5% ของคำสั่งที่ส่งไปยัง AI มีข้อมูลที่ละเอียดอ่อน
- ข้อมูลที่รั่วไหลรวมถึง ข้อมูลลูกค้า, ข้อมูลทางกฎหมาย และข้อมูลด้านความปลอดภัย
- ข้อมูลลูกค้าคิดเป็น เกือบครึ่งหนึ่งของข้อมูลที่รั่วไหล
✅ องค์กรส่วนใหญ่ไม่มีนโยบายควบคุมการใช้ AI อย่างชัดเจน
- 90% ขององค์กรมี แอปพลิเคชัน AI ที่ได้รับอนุญาต แต่ยังคงมีการใช้ AI ที่ไม่ได้รับการควบคุม
- 72% ของการใช้ AI ในองค์กรเป็น Shadow IT ซึ่งไม่ได้รับการตรวจสอบจากฝ่ายความปลอดภัย
✅ ผู้เชี่ยวชาญเตือนว่าการใช้ AI โดยไม่มีการควบคุมอาจนำไปสู่การละเมิดกฎระเบียบ
- ข้อมูลที่รั่วไหลอาจถูกนำไปใช้ในการฝึกโมเดล AI หรือถูกโจมตีโดยแฮกเกอร์
- การใช้ AI โดยไม่มีการตรวจสอบอาจทำให้เกิด ข้อผิดพลาดด้านข้อมูลและลดความน่าเชื่อถือขององค์กร
https://www.csoonline.com/article/3964282/cisos-no-closer-to-containing-shadow-ais-skyrocketing-data-risks.html
0 Comments
0 Shares
43 Views
0 Reviews