เรื่องเล่าจาก WeTransfer ถึง ChatGPT: เมื่อ AI ไม่ได้แค่ฉลาด แต่เริ่ม “รู้มากเกินไป”

กลางปี 2025 WeTransfer จุดชนวนความกังวลทั่วโลก เมื่อมีการเปลี่ยนเงื่อนไขการใช้งานให้สามารถนำไฟล์ของผู้ใช้ไปใช้ในการ “พัฒนาเทคโนโลยีใหม่ รวมถึงการปรับปรุงโมเดล AI” แม้ภายหลังจะออกมาชี้แจงว่าเป็นการใช้ AI เพื่อจัดการเนื้อหา ไม่ใช่การฝึกโมเดล แต่ความไม่ชัดเจนนี้ก็สะท้อนถึงแนวโน้มที่น่ากังวล: ข้อมูลของผู้ใช้กำลังกลายเป็นเชื้อเพลิงของ AI โดยที่ผู้ใช้ไม่รู้ตัว

Slack ก็เป็นอีกตัวอย่างที่ใช้ข้อมูลของลูกค้าในการฝึกโมเดล machine learning โดยค่าเริ่มต้น ซึ่งหมายความว่แม้จะเป็นบริการที่ใช้ในองค์กร ก็ยังมีความเสี่ยงด้านข้อมูลหากไม่มีการตั้งค่าความปลอดภัยอย่างรัดกุม

นอกจากนี้ยังมีกรณีที่ผู้ใช้ ChatGPT เปิดใช้งาน “make this chat discoverable” โดยไม่รู้ว่าเนื้อหาจะถูกจัดทำดัชนีโดย Google และปรากฏในผลการค้นหา ซึ่งอาจมีข้อมูลส่วนตัวหรือกลยุทธ์ทางธุรกิจที่ไม่ควรเปิดเผย

สิ่งที่น่ากังวลที่สุดคือการใช้ AI ในองค์กรโดยไม่มีการควบคุม เช่น พนักงานนำข้อมูลภายในไปใส่ใน ChatGPT เพื่อแปลเอกสารหรือเขียนอีเมล โดยไม่รู้ว่าข้อมูลนั้นอาจถูกนำไปใช้ในการฝึกโมเดลในอนาคต

CISOs (Chief Information Security Officers) ทั่วโลกกำลังเผชิญกับภาระสองด้าน: ต้องใช้ AI เพื่อเพิ่มประสิทธิภาพด้านความปลอดภัย แต่ก็ต้องป้องกันไม่ให้ AI กลายเป็นช่องโหว่ใหม่ขององค์กร ซึ่งเป็นความท้าทายที่ซับซ้อนและกำลังสร้างความเหนื่อยล้าให้กับผู้บริหารด้านความปลอดภัยทั่วโลก

การเปลี่ยนแปลงนโยบายของบริการออนไลน์
WeTransfer เพิ่มเงื่อนไขให้สามารถใช้ไฟล์ผู้ใช้ในการพัฒนา AI
Slack ใช้ข้อมูลลูกค้าในการฝึกโมเดล machine learning โดยค่าเริ่มต้น
Meta และบริการอื่น ๆ เริ่มปรับนโยบายเพื่อใช้ข้อมูลผู้ใช้ในการฝึกโมเดล

ความเสี่ยงจากการใช้งาน AI โดยผู้ใช้ทั่วไป
พนักงานอาจนำข้อมูลภายในองค์กรไปใส่ใน ChatGPT โดยไม่รู้ผลกระทบ
การเปิดใช้งาน “make this chat discoverable” ทำให้ข้อมูลปรากฏใน Google
ข้อมูลส่วนตัวหรือกลยุทธ์ทางธุรกิจอาจถูกเปิดเผยโดยไม่ตั้งใจ

ความท้าทายของผู้บริหารด้านความปลอดภัย
CISOs ต้องใช้ AI เพื่อเพิ่มความปลอดภัย แต่ก็ต้องควบคุมความเสี่ยงจาก AI
64% ของผู้บริหารด้านความปลอดภัยมองว่า AI เป็นเป้าหมายเชิงกลยุทธ์
48% ระบุว่าการใช้งาน AI อย่างปลอดภัยเป็นเรื่องเร่งด่วน

แนวโน้มของการเปลี่ยนแปลงในองค์กร
บริษัทต่าง ๆ เริ่มปรับนโยบายเพื่อให้สามารถใช้ข้อมูลในการฝึก AI ได้
ต้องมีการปรับปรุงเงื่อนไขการใช้งานให้โปร่งใสและสอดคล้องกับกฎหมาย
การใช้ AI ต้องมีการกำกับดูแลร่วมกัน ไม่ใช่แค่หน้าที่ของ CISO

https://www.csoonline.com/article/4049373/how-the-generative-ai-boom-opens-up-new-privacy-and-cybersecurity-risks.html
🎙️ เรื่องเล่าจาก WeTransfer ถึง ChatGPT: เมื่อ AI ไม่ได้แค่ฉลาด แต่เริ่ม “รู้มากเกินไป” กลางปี 2025 WeTransfer จุดชนวนความกังวลทั่วโลก เมื่อมีการเปลี่ยนเงื่อนไขการใช้งานให้สามารถนำไฟล์ของผู้ใช้ไปใช้ในการ “พัฒนาเทคโนโลยีใหม่ รวมถึงการปรับปรุงโมเดล AI” แม้ภายหลังจะออกมาชี้แจงว่าเป็นการใช้ AI เพื่อจัดการเนื้อหา ไม่ใช่การฝึกโมเดล แต่ความไม่ชัดเจนนี้ก็สะท้อนถึงแนวโน้มที่น่ากังวล: ข้อมูลของผู้ใช้กำลังกลายเป็นเชื้อเพลิงของ AI โดยที่ผู้ใช้ไม่รู้ตัว Slack ก็เป็นอีกตัวอย่างที่ใช้ข้อมูลของลูกค้าในการฝึกโมเดล machine learning โดยค่าเริ่มต้น ซึ่งหมายความว่แม้จะเป็นบริการที่ใช้ในองค์กร ก็ยังมีความเสี่ยงด้านข้อมูลหากไม่มีการตั้งค่าความปลอดภัยอย่างรัดกุม นอกจากนี้ยังมีกรณีที่ผู้ใช้ ChatGPT เปิดใช้งาน “make this chat discoverable” โดยไม่รู้ว่าเนื้อหาจะถูกจัดทำดัชนีโดย Google และปรากฏในผลการค้นหา ซึ่งอาจมีข้อมูลส่วนตัวหรือกลยุทธ์ทางธุรกิจที่ไม่ควรเปิดเผย สิ่งที่น่ากังวลที่สุดคือการใช้ AI ในองค์กรโดยไม่มีการควบคุม เช่น พนักงานนำข้อมูลภายในไปใส่ใน ChatGPT เพื่อแปลเอกสารหรือเขียนอีเมล โดยไม่รู้ว่าข้อมูลนั้นอาจถูกนำไปใช้ในการฝึกโมเดลในอนาคต CISOs (Chief Information Security Officers) ทั่วโลกกำลังเผชิญกับภาระสองด้าน: ต้องใช้ AI เพื่อเพิ่มประสิทธิภาพด้านความปลอดภัย แต่ก็ต้องป้องกันไม่ให้ AI กลายเป็นช่องโหว่ใหม่ขององค์กร ซึ่งเป็นความท้าทายที่ซับซ้อนและกำลังสร้างความเหนื่อยล้าให้กับผู้บริหารด้านความปลอดภัยทั่วโลก ✅ การเปลี่ยนแปลงนโยบายของบริการออนไลน์ ➡️ WeTransfer เพิ่มเงื่อนไขให้สามารถใช้ไฟล์ผู้ใช้ในการพัฒนา AI ➡️ Slack ใช้ข้อมูลลูกค้าในการฝึกโมเดล machine learning โดยค่าเริ่มต้น ➡️ Meta และบริการอื่น ๆ เริ่มปรับนโยบายเพื่อใช้ข้อมูลผู้ใช้ในการฝึกโมเดล ✅ ความเสี่ยงจากการใช้งาน AI โดยผู้ใช้ทั่วไป ➡️ พนักงานอาจนำข้อมูลภายในองค์กรไปใส่ใน ChatGPT โดยไม่รู้ผลกระทบ ➡️ การเปิดใช้งาน “make this chat discoverable” ทำให้ข้อมูลปรากฏใน Google ➡️ ข้อมูลส่วนตัวหรือกลยุทธ์ทางธุรกิจอาจถูกเปิดเผยโดยไม่ตั้งใจ ✅ ความท้าทายของผู้บริหารด้านความปลอดภัย ➡️ CISOs ต้องใช้ AI เพื่อเพิ่มความปลอดภัย แต่ก็ต้องควบคุมความเสี่ยงจาก AI ➡️ 64% ของผู้บริหารด้านความปลอดภัยมองว่า AI เป็นเป้าหมายเชิงกลยุทธ์ ➡️ 48% ระบุว่าการใช้งาน AI อย่างปลอดภัยเป็นเรื่องเร่งด่วน ✅ แนวโน้มของการเปลี่ยนแปลงในองค์กร ➡️ บริษัทต่าง ๆ เริ่มปรับนโยบายเพื่อให้สามารถใช้ข้อมูลในการฝึก AI ได้ ➡️ ต้องมีการปรับปรุงเงื่อนไขการใช้งานให้โปร่งใสและสอดคล้องกับกฎหมาย ➡️ การใช้ AI ต้องมีการกำกับดูแลร่วมกัน ไม่ใช่แค่หน้าที่ของ CISO https://www.csoonline.com/article/4049373/how-the-generative-ai-boom-opens-up-new-privacy-and-cybersecurity-risks.html
WWW.CSOONLINE.COM
How the generative AI boom opens up new privacy and cybersecurity risks
Corporate strategy will need to take these potential issues into account, both by shielding who owns the data and by preventing AI from becoming a security breach.
0 Comments 0 Shares 61 Views 0 Reviews