“Shadow AI ระบาดในองค์กร — ผู้บริหารใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตมากที่สุด พร้อมแชร์ข้อมูลลับโดยไม่รู้ตัว”
ผลสำรวจล่าสุดจาก Cybernews เผยให้เห็นภาพที่น่ากังวลของการใช้ AI ในที่ทำงาน โดยเฉพาะการใช้เครื่องมือที่ไม่ได้รับอนุญาตจากองค์กร หรือที่เรียกว่า “Shadow AI” ซึ่งกำลังกลายเป็นปัญหาใหญ่ในหลายบริษัททั่วโลก
กว่า 59% ของพนักงานยอมรับว่าใช้เครื่องมือ AI ที่องค์กรไม่ได้อนุมัติ และที่น่าตกใจคือ 75% ของคนกลุ่มนี้เคยแชร์ข้อมูลที่เป็นความลับ เช่น ข้อมูลลูกค้า เอกสารภายใน รหัสโปรแกรม หรือแม้แต่ข้อมูลด้านกฎหมายและการเงิน โดยไม่รู้ว่าข้อมูลเหล่านั้นอาจถูกเก็บไว้โดยระบบ AI ที่ไม่มีการควบคุม
ที่น่าประหลาดใจคือ ผู้บริหารระดับสูงกลับเป็นกลุ่มที่ใช้ Shadow AI มากที่สุดถึง 93% ตามมาด้วยผู้จัดการ 73% และพนักงานทั่วไป 62% ซึ่งสะท้อนว่าปัญหานี้ไม่ได้เกิดจากการขาดความรู้เท่านั้น แต่ยังเกิดจากการขาดเครื่องมือที่ตอบโจทย์จริง ๆ เพราะแม้จะมีองค์กรถึง 52% ที่จัดหาเครื่องมือ AI ที่ได้รับอนุญาตให้ใช้ แต่มีเพียง 1 ใน 3 ของพนักงานที่รู้สึกว่าเครื่องมือเหล่านั้นตอบโจทย์การทำงาน
ข้อมูลที่ถูกแชร์ผ่าน Shadow AI มีตั้งแต่ข้อมูลพนักงาน (35%) ข้อมูลลูกค้า (32%) เอกสารภายใน (27%) ไปจนถึงโค้ดและอัลกอริธึมเฉพาะของบริษัท (20%) ทั้งที่ 89% ของพนักงานรู้ว่า AI มีความเสี่ยง และ 64% ยอมรับว่าการใช้ Shadow AI อาจนำไปสู่การรั่วไหลของข้อมูล
แม้หลายคนจะบอกว่าจะหยุดใช้ทันทีหากเกิดเหตุรั่วไหล แต่ในความเป็นจริง มีเพียงไม่กี่องค์กรที่มีนโยบายควบคุมการใช้ AI อย่างจริงจัง โดย 23% ยังไม่มีนโยบาย AI เลย และอีกหลายแห่งยังไม่สามารถให้เครื่องมือที่ปลอดภัยและมีประสิทธิภาพเพียงพอ
ข้อมูลสำคัญจากข่าว
59% ของพนักงานใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตจากองค์กร
75% ของผู้ใช้ Shadow AI เคยแชร์ข้อมูลที่เป็นความลับ
ผู้บริหารระดับสูงใช้ Shadow AI มากที่สุดถึง 93%
ข้อมูลที่ถูกแชร์มีทั้งข้อมูลพนักงาน ลูกค้า เอกสารภายใน และโค้ดเฉพาะ
89% ของพนักงานรู้ว่า AI มีความเสี่ยง และ 64% ยอมรับว่าอาจเกิดการรั่วไหล
57% บอกว่าจะหยุดใช้หากเกิดเหตุรั่วไหล แต่ยังไม่มีมาตรการป้องกัน
23% ขององค์กรยังไม่มีนโยบาย AI อย่างเป็นทางการ
มีเพียง 1 ใน 3 ของพนักงานที่รู้สึกว่าเครื่องมือ AI ที่องค์กรจัดให้ตอบโจทย์การทำงาน
ข้อมูลเสริมจากภายนอก
Shadow AI คือการใช้เครื่องมือ AI โดยไม่ได้รับอนุญาตจากฝ่าย IT หรือฝ่ายความปลอดภัย
เครื่องมือที่นิยมใช้ ได้แก่ ChatGPT, Claude, Grammarly, Jasper และ Perplexity
การใช้ AI ในงานเขียน วิเคราะห์ข้อมูล และการวิจัยเป็นที่นิยมมากที่สุด
ความไม่เท่าเทียมในการเข้าถึงเครื่องมือ AI ทำให้พนักงานบางกลุ่มต้องหาทางใช้เอง
การใช้ AI โดยไม่มีการควบคุมอาจนำไปสู่การละเมิดลิขสิทธิ์และความเสี่ยงด้านความมั่นคง
https://www.techradar.com/pro/many-workers-are-using-unapproved-ai-tools-at-work-and-sharing-a-lot-of-private-data-they-really-shouldnt
ผลสำรวจล่าสุดจาก Cybernews เผยให้เห็นภาพที่น่ากังวลของการใช้ AI ในที่ทำงาน โดยเฉพาะการใช้เครื่องมือที่ไม่ได้รับอนุญาตจากองค์กร หรือที่เรียกว่า “Shadow AI” ซึ่งกำลังกลายเป็นปัญหาใหญ่ในหลายบริษัททั่วโลก
กว่า 59% ของพนักงานยอมรับว่าใช้เครื่องมือ AI ที่องค์กรไม่ได้อนุมัติ และที่น่าตกใจคือ 75% ของคนกลุ่มนี้เคยแชร์ข้อมูลที่เป็นความลับ เช่น ข้อมูลลูกค้า เอกสารภายใน รหัสโปรแกรม หรือแม้แต่ข้อมูลด้านกฎหมายและการเงิน โดยไม่รู้ว่าข้อมูลเหล่านั้นอาจถูกเก็บไว้โดยระบบ AI ที่ไม่มีการควบคุม
ที่น่าประหลาดใจคือ ผู้บริหารระดับสูงกลับเป็นกลุ่มที่ใช้ Shadow AI มากที่สุดถึง 93% ตามมาด้วยผู้จัดการ 73% และพนักงานทั่วไป 62% ซึ่งสะท้อนว่าปัญหานี้ไม่ได้เกิดจากการขาดความรู้เท่านั้น แต่ยังเกิดจากการขาดเครื่องมือที่ตอบโจทย์จริง ๆ เพราะแม้จะมีองค์กรถึง 52% ที่จัดหาเครื่องมือ AI ที่ได้รับอนุญาตให้ใช้ แต่มีเพียง 1 ใน 3 ของพนักงานที่รู้สึกว่าเครื่องมือเหล่านั้นตอบโจทย์การทำงาน
ข้อมูลที่ถูกแชร์ผ่าน Shadow AI มีตั้งแต่ข้อมูลพนักงาน (35%) ข้อมูลลูกค้า (32%) เอกสารภายใน (27%) ไปจนถึงโค้ดและอัลกอริธึมเฉพาะของบริษัท (20%) ทั้งที่ 89% ของพนักงานรู้ว่า AI มีความเสี่ยง และ 64% ยอมรับว่าการใช้ Shadow AI อาจนำไปสู่การรั่วไหลของข้อมูล
แม้หลายคนจะบอกว่าจะหยุดใช้ทันทีหากเกิดเหตุรั่วไหล แต่ในความเป็นจริง มีเพียงไม่กี่องค์กรที่มีนโยบายควบคุมการใช้ AI อย่างจริงจัง โดย 23% ยังไม่มีนโยบาย AI เลย และอีกหลายแห่งยังไม่สามารถให้เครื่องมือที่ปลอดภัยและมีประสิทธิภาพเพียงพอ
ข้อมูลสำคัญจากข่าว
59% ของพนักงานใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตจากองค์กร
75% ของผู้ใช้ Shadow AI เคยแชร์ข้อมูลที่เป็นความลับ
ผู้บริหารระดับสูงใช้ Shadow AI มากที่สุดถึง 93%
ข้อมูลที่ถูกแชร์มีทั้งข้อมูลพนักงาน ลูกค้า เอกสารภายใน และโค้ดเฉพาะ
89% ของพนักงานรู้ว่า AI มีความเสี่ยง และ 64% ยอมรับว่าอาจเกิดการรั่วไหล
57% บอกว่าจะหยุดใช้หากเกิดเหตุรั่วไหล แต่ยังไม่มีมาตรการป้องกัน
23% ขององค์กรยังไม่มีนโยบาย AI อย่างเป็นทางการ
มีเพียง 1 ใน 3 ของพนักงานที่รู้สึกว่าเครื่องมือ AI ที่องค์กรจัดให้ตอบโจทย์การทำงาน
ข้อมูลเสริมจากภายนอก
Shadow AI คือการใช้เครื่องมือ AI โดยไม่ได้รับอนุญาตจากฝ่าย IT หรือฝ่ายความปลอดภัย
เครื่องมือที่นิยมใช้ ได้แก่ ChatGPT, Claude, Grammarly, Jasper และ Perplexity
การใช้ AI ในงานเขียน วิเคราะห์ข้อมูล และการวิจัยเป็นที่นิยมมากที่สุด
ความไม่เท่าเทียมในการเข้าถึงเครื่องมือ AI ทำให้พนักงานบางกลุ่มต้องหาทางใช้เอง
การใช้ AI โดยไม่มีการควบคุมอาจนำไปสู่การละเมิดลิขสิทธิ์และความเสี่ยงด้านความมั่นคง
https://www.techradar.com/pro/many-workers-are-using-unapproved-ai-tools-at-work-and-sharing-a-lot-of-private-data-they-really-shouldnt
🕵️♀️ “Shadow AI ระบาดในองค์กร — ผู้บริหารใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตมากที่สุด พร้อมแชร์ข้อมูลลับโดยไม่รู้ตัว”
ผลสำรวจล่าสุดจาก Cybernews เผยให้เห็นภาพที่น่ากังวลของการใช้ AI ในที่ทำงาน โดยเฉพาะการใช้เครื่องมือที่ไม่ได้รับอนุญาตจากองค์กร หรือที่เรียกว่า “Shadow AI” ซึ่งกำลังกลายเป็นปัญหาใหญ่ในหลายบริษัททั่วโลก
กว่า 59% ของพนักงานยอมรับว่าใช้เครื่องมือ AI ที่องค์กรไม่ได้อนุมัติ และที่น่าตกใจคือ 75% ของคนกลุ่มนี้เคยแชร์ข้อมูลที่เป็นความลับ เช่น ข้อมูลลูกค้า เอกสารภายใน รหัสโปรแกรม หรือแม้แต่ข้อมูลด้านกฎหมายและการเงิน โดยไม่รู้ว่าข้อมูลเหล่านั้นอาจถูกเก็บไว้โดยระบบ AI ที่ไม่มีการควบคุม
ที่น่าประหลาดใจคือ ผู้บริหารระดับสูงกลับเป็นกลุ่มที่ใช้ Shadow AI มากที่สุดถึง 93% ตามมาด้วยผู้จัดการ 73% และพนักงานทั่วไป 62% ซึ่งสะท้อนว่าปัญหานี้ไม่ได้เกิดจากการขาดความรู้เท่านั้น แต่ยังเกิดจากการขาดเครื่องมือที่ตอบโจทย์จริง ๆ เพราะแม้จะมีองค์กรถึง 52% ที่จัดหาเครื่องมือ AI ที่ได้รับอนุญาตให้ใช้ แต่มีเพียง 1 ใน 3 ของพนักงานที่รู้สึกว่าเครื่องมือเหล่านั้นตอบโจทย์การทำงาน
ข้อมูลที่ถูกแชร์ผ่าน Shadow AI มีตั้งแต่ข้อมูลพนักงาน (35%) ข้อมูลลูกค้า (32%) เอกสารภายใน (27%) ไปจนถึงโค้ดและอัลกอริธึมเฉพาะของบริษัท (20%) ทั้งที่ 89% ของพนักงานรู้ว่า AI มีความเสี่ยง และ 64% ยอมรับว่าการใช้ Shadow AI อาจนำไปสู่การรั่วไหลของข้อมูล
แม้หลายคนจะบอกว่าจะหยุดใช้ทันทีหากเกิดเหตุรั่วไหล แต่ในความเป็นจริง มีเพียงไม่กี่องค์กรที่มีนโยบายควบคุมการใช้ AI อย่างจริงจัง โดย 23% ยังไม่มีนโยบาย AI เลย และอีกหลายแห่งยังไม่สามารถให้เครื่องมือที่ปลอดภัยและมีประสิทธิภาพเพียงพอ
✅ ข้อมูลสำคัญจากข่าว
➡️ 59% ของพนักงานใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตจากองค์กร
➡️ 75% ของผู้ใช้ Shadow AI เคยแชร์ข้อมูลที่เป็นความลับ
➡️ ผู้บริหารระดับสูงใช้ Shadow AI มากที่สุดถึง 93%
➡️ ข้อมูลที่ถูกแชร์มีทั้งข้อมูลพนักงาน ลูกค้า เอกสารภายใน และโค้ดเฉพาะ
➡️ 89% ของพนักงานรู้ว่า AI มีความเสี่ยง และ 64% ยอมรับว่าอาจเกิดการรั่วไหล
➡️ 57% บอกว่าจะหยุดใช้หากเกิดเหตุรั่วไหล แต่ยังไม่มีมาตรการป้องกัน
➡️ 23% ขององค์กรยังไม่มีนโยบาย AI อย่างเป็นทางการ
➡️ มีเพียง 1 ใน 3 ของพนักงานที่รู้สึกว่าเครื่องมือ AI ที่องค์กรจัดให้ตอบโจทย์การทำงาน
✅ ข้อมูลเสริมจากภายนอก
➡️ Shadow AI คือการใช้เครื่องมือ AI โดยไม่ได้รับอนุญาตจากฝ่าย IT หรือฝ่ายความปลอดภัย
➡️ เครื่องมือที่นิยมใช้ ได้แก่ ChatGPT, Claude, Grammarly, Jasper และ Perplexity
➡️ การใช้ AI ในงานเขียน วิเคราะห์ข้อมูล และการวิจัยเป็นที่นิยมมากที่สุด
➡️ ความไม่เท่าเทียมในการเข้าถึงเครื่องมือ AI ทำให้พนักงานบางกลุ่มต้องหาทางใช้เอง
➡️ การใช้ AI โดยไม่มีการควบคุมอาจนำไปสู่การละเมิดลิขสิทธิ์และความเสี่ยงด้านความมั่นคง
https://www.techradar.com/pro/many-workers-are-using-unapproved-ai-tools-at-work-and-sharing-a-lot-of-private-data-they-really-shouldnt
0 ความคิดเห็น
0 การแบ่งปัน
70 มุมมอง
0 รีวิว