จากรายงานของ GitGuardian พบว่าการใช้ AI เช่น Copilot ในการช่วยเขียนโค้ดในโปรเจ็กต์นั้น แม้ว่าจะเพิ่มความรวดเร็วและประสิทธิภาพในการทำงาน แต่กลับมีแนวโน้มที่ทำให้เกิดความเสี่ยงด้านความปลอดภัยมากขึ้น อัตราการรั่วไหลของข้อมูลลับ (API Keys, Passwords, และ Tokens) ใน repository ที่ใช้งาน Copilot สูงกว่าปกติถึง 40%

✅ ความเสี่ยงในการรั่วไหลของ Secrets เพิ่มขึ้นอย่างต่อเนื่อง
- GitGuardian พบว่าใน repository ที่ใช้งาน Copilot 6.4% มีความเสี่ยงด้าน API Keys หรือข้อมูลลับ เมื่อเทียบกับ 4.6% ในโปรเจ็กต์ทั่วไป
- การใช้ Copilot อาจดึงดูดนักพัฒนาให้เลือก ความรวดเร็ว มากกว่าการทำให้โค้ดปลอดภัย

✅ ปัญหาจาก LLM และโมเดลการเรียนรู้ AI
- David Benas จาก Black Duck กล่าวว่าโมเดล AI เช่น LLM มัก มีข้อบกพร่องที่สะท้อนจากฐานข้อมูลที่ใช้ในการฝึก
- ข้อผิดพลาด เช่น การเขียนโค้ดที่ไม่สอดคล้องกับมาตรฐานการรักษาความปลอดภัยหรือการใส่ข้อมูลลับในรูปแบบที่เข้าถึงง่าย

✅ การจัดการและการฝึกอบรมเพื่อป้องกันความเสี่ยง
- ผู้เชี่ยวชาญเน้นย้ำว่าการฝึกอบรมให้กับนักพัฒนา เช่น การใช้ Secrets Manager และการ Inject Credentials อย่างปลอดภัย จะช่วยลดความเสี่ยงได้
- Chris Wood เสนอให้องค์กร สร้างมาตรการความปลอดภัยเชิงรุก เช่น การใช้เครื่องมือตรวจจับ Secrets และการทำ Code Review อย่างละเอียด

✅ ผลกระทบของการจัดการที่ล่าช้า
- พบว่า 70% ของ Secrets ที่หลุดรั่วจะยังคงใช้งานได้ถึง 2 ปีหลังการรั่วไหล
- ปัญหานี้เกิดจากความยากลำบากในการแก้ไขและหมุนเวียน Credentials

https://www.csoonline.com/article/3953927/ai-programming-copilots-are-worsening-code-security-and-leaking-more-secrets.html
จากรายงานของ GitGuardian พบว่าการใช้ AI เช่น Copilot ในการช่วยเขียนโค้ดในโปรเจ็กต์นั้น แม้ว่าจะเพิ่มความรวดเร็วและประสิทธิภาพในการทำงาน แต่กลับมีแนวโน้มที่ทำให้เกิดความเสี่ยงด้านความปลอดภัยมากขึ้น อัตราการรั่วไหลของข้อมูลลับ (API Keys, Passwords, และ Tokens) ใน repository ที่ใช้งาน Copilot สูงกว่าปกติถึง 40% ✅ ความเสี่ยงในการรั่วไหลของ Secrets เพิ่มขึ้นอย่างต่อเนื่อง - GitGuardian พบว่าใน repository ที่ใช้งาน Copilot 6.4% มีความเสี่ยงด้าน API Keys หรือข้อมูลลับ เมื่อเทียบกับ 4.6% ในโปรเจ็กต์ทั่วไป - การใช้ Copilot อาจดึงดูดนักพัฒนาให้เลือก ความรวดเร็ว มากกว่าการทำให้โค้ดปลอดภัย ✅ ปัญหาจาก LLM และโมเดลการเรียนรู้ AI - David Benas จาก Black Duck กล่าวว่าโมเดล AI เช่น LLM มัก มีข้อบกพร่องที่สะท้อนจากฐานข้อมูลที่ใช้ในการฝึก - ข้อผิดพลาด เช่น การเขียนโค้ดที่ไม่สอดคล้องกับมาตรฐานการรักษาความปลอดภัยหรือการใส่ข้อมูลลับในรูปแบบที่เข้าถึงง่าย ✅ การจัดการและการฝึกอบรมเพื่อป้องกันความเสี่ยง - ผู้เชี่ยวชาญเน้นย้ำว่าการฝึกอบรมให้กับนักพัฒนา เช่น การใช้ Secrets Manager และการ Inject Credentials อย่างปลอดภัย จะช่วยลดความเสี่ยงได้ - Chris Wood เสนอให้องค์กร สร้างมาตรการความปลอดภัยเชิงรุก เช่น การใช้เครื่องมือตรวจจับ Secrets และการทำ Code Review อย่างละเอียด ✅ ผลกระทบของการจัดการที่ล่าช้า - พบว่า 70% ของ Secrets ที่หลุดรั่วจะยังคงใช้งานได้ถึง 2 ปีหลังการรั่วไหล - ปัญหานี้เกิดจากความยากลำบากในการแก้ไขและหมุนเวียน Credentials https://www.csoonline.com/article/3953927/ai-programming-copilots-are-worsening-code-security-and-leaking-more-secrets.html
WWW.CSOONLINE.COM
AI programming copilots are worsening code security and leaking more secrets
Copilot-enabled repos are 40% more likely to contain API keys, passwords, or tokens — just one of several issues security leaders must address as AI-generated code proliferates.
0 ความคิดเห็น 0 การแบ่งปัน 38 มุมมอง 0 รีวิว