“Shadow AI ระบาดในองค์กร — ผู้บริหารใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตมากที่สุด พร้อมแชร์ข้อมูลลับโดยไม่รู้ตัว”

ผลสำรวจล่าสุดจาก Cybernews เผยให้เห็นภาพที่น่ากังวลของการใช้ AI ในที่ทำงาน โดยเฉพาะการใช้เครื่องมือที่ไม่ได้รับอนุญาตจากองค์กร หรือที่เรียกว่า “Shadow AI” ซึ่งกำลังกลายเป็นปัญหาใหญ่ในหลายบริษัททั่วโลก

กว่า 59% ของพนักงานยอมรับว่าใช้เครื่องมือ AI ที่องค์กรไม่ได้อนุมัติ และที่น่าตกใจคือ 75% ของคนกลุ่มนี้เคยแชร์ข้อมูลที่เป็นความลับ เช่น ข้อมูลลูกค้า เอกสารภายใน รหัสโปรแกรม หรือแม้แต่ข้อมูลด้านกฎหมายและการเงิน โดยไม่รู้ว่าข้อมูลเหล่านั้นอาจถูกเก็บไว้โดยระบบ AI ที่ไม่มีการควบคุม

ที่น่าประหลาดใจคือ ผู้บริหารระดับสูงกลับเป็นกลุ่มที่ใช้ Shadow AI มากที่สุดถึง 93% ตามมาด้วยผู้จัดการ 73% และพนักงานทั่วไป 62% ซึ่งสะท้อนว่าปัญหานี้ไม่ได้เกิดจากการขาดความรู้เท่านั้น แต่ยังเกิดจากการขาดเครื่องมือที่ตอบโจทย์จริง ๆ เพราะแม้จะมีองค์กรถึง 52% ที่จัดหาเครื่องมือ AI ที่ได้รับอนุญาตให้ใช้ แต่มีเพียง 1 ใน 3 ของพนักงานที่รู้สึกว่าเครื่องมือเหล่านั้นตอบโจทย์การทำงาน

ข้อมูลที่ถูกแชร์ผ่าน Shadow AI มีตั้งแต่ข้อมูลพนักงาน (35%) ข้อมูลลูกค้า (32%) เอกสารภายใน (27%) ไปจนถึงโค้ดและอัลกอริธึมเฉพาะของบริษัท (20%) ทั้งที่ 89% ของพนักงานรู้ว่า AI มีความเสี่ยง และ 64% ยอมรับว่าการใช้ Shadow AI อาจนำไปสู่การรั่วไหลของข้อมูล

แม้หลายคนจะบอกว่าจะหยุดใช้ทันทีหากเกิดเหตุรั่วไหล แต่ในความเป็นจริง มีเพียงไม่กี่องค์กรที่มีนโยบายควบคุมการใช้ AI อย่างจริงจัง โดย 23% ยังไม่มีนโยบาย AI เลย และอีกหลายแห่งยังไม่สามารถให้เครื่องมือที่ปลอดภัยและมีประสิทธิภาพเพียงพอ

ข้อมูลสำคัญจากข่าว
59% ของพนักงานใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตจากองค์กร
75% ของผู้ใช้ Shadow AI เคยแชร์ข้อมูลที่เป็นความลับ
ผู้บริหารระดับสูงใช้ Shadow AI มากที่สุดถึง 93%
ข้อมูลที่ถูกแชร์มีทั้งข้อมูลพนักงาน ลูกค้า เอกสารภายใน และโค้ดเฉพาะ
89% ของพนักงานรู้ว่า AI มีความเสี่ยง และ 64% ยอมรับว่าอาจเกิดการรั่วไหล
57% บอกว่าจะหยุดใช้หากเกิดเหตุรั่วไหล แต่ยังไม่มีมาตรการป้องกัน
23% ขององค์กรยังไม่มีนโยบาย AI อย่างเป็นทางการ
มีเพียง 1 ใน 3 ของพนักงานที่รู้สึกว่าเครื่องมือ AI ที่องค์กรจัดให้ตอบโจทย์การทำงาน

ข้อมูลเสริมจากภายนอก
Shadow AI คือการใช้เครื่องมือ AI โดยไม่ได้รับอนุญาตจากฝ่าย IT หรือฝ่ายความปลอดภัย
เครื่องมือที่นิยมใช้ ได้แก่ ChatGPT, Claude, Grammarly, Jasper และ Perplexity
การใช้ AI ในงานเขียน วิเคราะห์ข้อมูล และการวิจัยเป็นที่นิยมมากที่สุด
ความไม่เท่าเทียมในการเข้าถึงเครื่องมือ AI ทำให้พนักงานบางกลุ่มต้องหาทางใช้เอง
การใช้ AI โดยไม่มีการควบคุมอาจนำไปสู่การละเมิดลิขสิทธิ์และความเสี่ยงด้านความมั่นคง

https://www.techradar.com/pro/many-workers-are-using-unapproved-ai-tools-at-work-and-sharing-a-lot-of-private-data-they-really-shouldnt
🕵️‍♀️ “Shadow AI ระบาดในองค์กร — ผู้บริหารใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตมากที่สุด พร้อมแชร์ข้อมูลลับโดยไม่รู้ตัว” ผลสำรวจล่าสุดจาก Cybernews เผยให้เห็นภาพที่น่ากังวลของการใช้ AI ในที่ทำงาน โดยเฉพาะการใช้เครื่องมือที่ไม่ได้รับอนุญาตจากองค์กร หรือที่เรียกว่า “Shadow AI” ซึ่งกำลังกลายเป็นปัญหาใหญ่ในหลายบริษัททั่วโลก กว่า 59% ของพนักงานยอมรับว่าใช้เครื่องมือ AI ที่องค์กรไม่ได้อนุมัติ และที่น่าตกใจคือ 75% ของคนกลุ่มนี้เคยแชร์ข้อมูลที่เป็นความลับ เช่น ข้อมูลลูกค้า เอกสารภายใน รหัสโปรแกรม หรือแม้แต่ข้อมูลด้านกฎหมายและการเงิน โดยไม่รู้ว่าข้อมูลเหล่านั้นอาจถูกเก็บไว้โดยระบบ AI ที่ไม่มีการควบคุม ที่น่าประหลาดใจคือ ผู้บริหารระดับสูงกลับเป็นกลุ่มที่ใช้ Shadow AI มากที่สุดถึง 93% ตามมาด้วยผู้จัดการ 73% และพนักงานทั่วไป 62% ซึ่งสะท้อนว่าปัญหานี้ไม่ได้เกิดจากการขาดความรู้เท่านั้น แต่ยังเกิดจากการขาดเครื่องมือที่ตอบโจทย์จริง ๆ เพราะแม้จะมีองค์กรถึง 52% ที่จัดหาเครื่องมือ AI ที่ได้รับอนุญาตให้ใช้ แต่มีเพียง 1 ใน 3 ของพนักงานที่รู้สึกว่าเครื่องมือเหล่านั้นตอบโจทย์การทำงาน ข้อมูลที่ถูกแชร์ผ่าน Shadow AI มีตั้งแต่ข้อมูลพนักงาน (35%) ข้อมูลลูกค้า (32%) เอกสารภายใน (27%) ไปจนถึงโค้ดและอัลกอริธึมเฉพาะของบริษัท (20%) ทั้งที่ 89% ของพนักงานรู้ว่า AI มีความเสี่ยง และ 64% ยอมรับว่าการใช้ Shadow AI อาจนำไปสู่การรั่วไหลของข้อมูล แม้หลายคนจะบอกว่าจะหยุดใช้ทันทีหากเกิดเหตุรั่วไหล แต่ในความเป็นจริง มีเพียงไม่กี่องค์กรที่มีนโยบายควบคุมการใช้ AI อย่างจริงจัง โดย 23% ยังไม่มีนโยบาย AI เลย และอีกหลายแห่งยังไม่สามารถให้เครื่องมือที่ปลอดภัยและมีประสิทธิภาพเพียงพอ ✅ ข้อมูลสำคัญจากข่าว ➡️ 59% ของพนักงานใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตจากองค์กร ➡️ 75% ของผู้ใช้ Shadow AI เคยแชร์ข้อมูลที่เป็นความลับ ➡️ ผู้บริหารระดับสูงใช้ Shadow AI มากที่สุดถึง 93% ➡️ ข้อมูลที่ถูกแชร์มีทั้งข้อมูลพนักงาน ลูกค้า เอกสารภายใน และโค้ดเฉพาะ ➡️ 89% ของพนักงานรู้ว่า AI มีความเสี่ยง และ 64% ยอมรับว่าอาจเกิดการรั่วไหล ➡️ 57% บอกว่าจะหยุดใช้หากเกิดเหตุรั่วไหล แต่ยังไม่มีมาตรการป้องกัน ➡️ 23% ขององค์กรยังไม่มีนโยบาย AI อย่างเป็นทางการ ➡️ มีเพียง 1 ใน 3 ของพนักงานที่รู้สึกว่าเครื่องมือ AI ที่องค์กรจัดให้ตอบโจทย์การทำงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ Shadow AI คือการใช้เครื่องมือ AI โดยไม่ได้รับอนุญาตจากฝ่าย IT หรือฝ่ายความปลอดภัย ➡️ เครื่องมือที่นิยมใช้ ได้แก่ ChatGPT, Claude, Grammarly, Jasper และ Perplexity ➡️ การใช้ AI ในงานเขียน วิเคราะห์ข้อมูล และการวิจัยเป็นที่นิยมมากที่สุด ➡️ ความไม่เท่าเทียมในการเข้าถึงเครื่องมือ AI ทำให้พนักงานบางกลุ่มต้องหาทางใช้เอง ➡️ การใช้ AI โดยไม่มีการควบคุมอาจนำไปสู่การละเมิดลิขสิทธิ์และความเสี่ยงด้านความมั่นคง https://www.techradar.com/pro/many-workers-are-using-unapproved-ai-tools-at-work-and-sharing-a-lot-of-private-data-they-really-shouldnt
0 ความคิดเห็น 0 การแบ่งปัน 70 มุมมอง 0 รีวิว