เรื่องเล่าจาก WeTransfer ถึง ChatGPT: เมื่อ AI ไม่ได้แค่ฉลาด แต่เริ่ม “รู้มากเกินไป”
กลางปี 2025 WeTransfer จุดชนวนความกังวลทั่วโลก เมื่อมีการเปลี่ยนเงื่อนไขการใช้งานให้สามารถนำไฟล์ของผู้ใช้ไปใช้ในการ “พัฒนาเทคโนโลยีใหม่ รวมถึงการปรับปรุงโมเดล AI” แม้ภายหลังจะออกมาชี้แจงว่าเป็นการใช้ AI เพื่อจัดการเนื้อหา ไม่ใช่การฝึกโมเดล แต่ความไม่ชัดเจนนี้ก็สะท้อนถึงแนวโน้มที่น่ากังวล: ข้อมูลของผู้ใช้กำลังกลายเป็นเชื้อเพลิงของ AI โดยที่ผู้ใช้ไม่รู้ตัว
Slack ก็เป็นอีกตัวอย่างที่ใช้ข้อมูลของลูกค้าในการฝึกโมเดล machine learning โดยค่าเริ่มต้น ซึ่งหมายความว่แม้จะเป็นบริการที่ใช้ในองค์กร ก็ยังมีความเสี่ยงด้านข้อมูลหากไม่มีการตั้งค่าความปลอดภัยอย่างรัดกุม
นอกจากนี้ยังมีกรณีที่ผู้ใช้ ChatGPT เปิดใช้งาน “make this chat discoverable” โดยไม่รู้ว่าเนื้อหาจะถูกจัดทำดัชนีโดย Google และปรากฏในผลการค้นหา ซึ่งอาจมีข้อมูลส่วนตัวหรือกลยุทธ์ทางธุรกิจที่ไม่ควรเปิดเผย
สิ่งที่น่ากังวลที่สุดคือการใช้ AI ในองค์กรโดยไม่มีการควบคุม เช่น พนักงานนำข้อมูลภายในไปใส่ใน ChatGPT เพื่อแปลเอกสารหรือเขียนอีเมล โดยไม่รู้ว่าข้อมูลนั้นอาจถูกนำไปใช้ในการฝึกโมเดลในอนาคต
CISOs (Chief Information Security Officers) ทั่วโลกกำลังเผชิญกับภาระสองด้าน: ต้องใช้ AI เพื่อเพิ่มประสิทธิภาพด้านความปลอดภัย แต่ก็ต้องป้องกันไม่ให้ AI กลายเป็นช่องโหว่ใหม่ขององค์กร ซึ่งเป็นความท้าทายที่ซับซ้อนและกำลังสร้างความเหนื่อยล้าให้กับผู้บริหารด้านความปลอดภัยทั่วโลก
การเปลี่ยนแปลงนโยบายของบริการออนไลน์
WeTransfer เพิ่มเงื่อนไขให้สามารถใช้ไฟล์ผู้ใช้ในการพัฒนา AI
Slack ใช้ข้อมูลลูกค้าในการฝึกโมเดล machine learning โดยค่าเริ่มต้น
Meta และบริการอื่น ๆ เริ่มปรับนโยบายเพื่อใช้ข้อมูลผู้ใช้ในการฝึกโมเดล
ความเสี่ยงจากการใช้งาน AI โดยผู้ใช้ทั่วไป
พนักงานอาจนำข้อมูลภายในองค์กรไปใส่ใน ChatGPT โดยไม่รู้ผลกระทบ
การเปิดใช้งาน “make this chat discoverable” ทำให้ข้อมูลปรากฏใน Google
ข้อมูลส่วนตัวหรือกลยุทธ์ทางธุรกิจอาจถูกเปิดเผยโดยไม่ตั้งใจ
ความท้าทายของผู้บริหารด้านความปลอดภัย
CISOs ต้องใช้ AI เพื่อเพิ่มความปลอดภัย แต่ก็ต้องควบคุมความเสี่ยงจาก AI
64% ของผู้บริหารด้านความปลอดภัยมองว่า AI เป็นเป้าหมายเชิงกลยุทธ์
48% ระบุว่าการใช้งาน AI อย่างปลอดภัยเป็นเรื่องเร่งด่วน
แนวโน้มของการเปลี่ยนแปลงในองค์กร
บริษัทต่าง ๆ เริ่มปรับนโยบายเพื่อให้สามารถใช้ข้อมูลในการฝึก AI ได้
ต้องมีการปรับปรุงเงื่อนไขการใช้งานให้โปร่งใสและสอดคล้องกับกฎหมาย
การใช้ AI ต้องมีการกำกับดูแลร่วมกัน ไม่ใช่แค่หน้าที่ของ CISO
https://www.csoonline.com/article/4049373/how-the-generative-ai-boom-opens-up-new-privacy-and-cybersecurity-risks.html
กลางปี 2025 WeTransfer จุดชนวนความกังวลทั่วโลก เมื่อมีการเปลี่ยนเงื่อนไขการใช้งานให้สามารถนำไฟล์ของผู้ใช้ไปใช้ในการ “พัฒนาเทคโนโลยีใหม่ รวมถึงการปรับปรุงโมเดล AI” แม้ภายหลังจะออกมาชี้แจงว่าเป็นการใช้ AI เพื่อจัดการเนื้อหา ไม่ใช่การฝึกโมเดล แต่ความไม่ชัดเจนนี้ก็สะท้อนถึงแนวโน้มที่น่ากังวล: ข้อมูลของผู้ใช้กำลังกลายเป็นเชื้อเพลิงของ AI โดยที่ผู้ใช้ไม่รู้ตัว
Slack ก็เป็นอีกตัวอย่างที่ใช้ข้อมูลของลูกค้าในการฝึกโมเดล machine learning โดยค่าเริ่มต้น ซึ่งหมายความว่แม้จะเป็นบริการที่ใช้ในองค์กร ก็ยังมีความเสี่ยงด้านข้อมูลหากไม่มีการตั้งค่าความปลอดภัยอย่างรัดกุม
นอกจากนี้ยังมีกรณีที่ผู้ใช้ ChatGPT เปิดใช้งาน “make this chat discoverable” โดยไม่รู้ว่าเนื้อหาจะถูกจัดทำดัชนีโดย Google และปรากฏในผลการค้นหา ซึ่งอาจมีข้อมูลส่วนตัวหรือกลยุทธ์ทางธุรกิจที่ไม่ควรเปิดเผย
สิ่งที่น่ากังวลที่สุดคือการใช้ AI ในองค์กรโดยไม่มีการควบคุม เช่น พนักงานนำข้อมูลภายในไปใส่ใน ChatGPT เพื่อแปลเอกสารหรือเขียนอีเมล โดยไม่รู้ว่าข้อมูลนั้นอาจถูกนำไปใช้ในการฝึกโมเดลในอนาคต
CISOs (Chief Information Security Officers) ทั่วโลกกำลังเผชิญกับภาระสองด้าน: ต้องใช้ AI เพื่อเพิ่มประสิทธิภาพด้านความปลอดภัย แต่ก็ต้องป้องกันไม่ให้ AI กลายเป็นช่องโหว่ใหม่ขององค์กร ซึ่งเป็นความท้าทายที่ซับซ้อนและกำลังสร้างความเหนื่อยล้าให้กับผู้บริหารด้านความปลอดภัยทั่วโลก
การเปลี่ยนแปลงนโยบายของบริการออนไลน์
WeTransfer เพิ่มเงื่อนไขให้สามารถใช้ไฟล์ผู้ใช้ในการพัฒนา AI
Slack ใช้ข้อมูลลูกค้าในการฝึกโมเดล machine learning โดยค่าเริ่มต้น
Meta และบริการอื่น ๆ เริ่มปรับนโยบายเพื่อใช้ข้อมูลผู้ใช้ในการฝึกโมเดล
ความเสี่ยงจากการใช้งาน AI โดยผู้ใช้ทั่วไป
พนักงานอาจนำข้อมูลภายในองค์กรไปใส่ใน ChatGPT โดยไม่รู้ผลกระทบ
การเปิดใช้งาน “make this chat discoverable” ทำให้ข้อมูลปรากฏใน Google
ข้อมูลส่วนตัวหรือกลยุทธ์ทางธุรกิจอาจถูกเปิดเผยโดยไม่ตั้งใจ
ความท้าทายของผู้บริหารด้านความปลอดภัย
CISOs ต้องใช้ AI เพื่อเพิ่มความปลอดภัย แต่ก็ต้องควบคุมความเสี่ยงจาก AI
64% ของผู้บริหารด้านความปลอดภัยมองว่า AI เป็นเป้าหมายเชิงกลยุทธ์
48% ระบุว่าการใช้งาน AI อย่างปลอดภัยเป็นเรื่องเร่งด่วน
แนวโน้มของการเปลี่ยนแปลงในองค์กร
บริษัทต่าง ๆ เริ่มปรับนโยบายเพื่อให้สามารถใช้ข้อมูลในการฝึก AI ได้
ต้องมีการปรับปรุงเงื่อนไขการใช้งานให้โปร่งใสและสอดคล้องกับกฎหมาย
การใช้ AI ต้องมีการกำกับดูแลร่วมกัน ไม่ใช่แค่หน้าที่ของ CISO
https://www.csoonline.com/article/4049373/how-the-generative-ai-boom-opens-up-new-privacy-and-cybersecurity-risks.html
🎙️ เรื่องเล่าจาก WeTransfer ถึง ChatGPT: เมื่อ AI ไม่ได้แค่ฉลาด แต่เริ่ม “รู้มากเกินไป”
กลางปี 2025 WeTransfer จุดชนวนความกังวลทั่วโลก เมื่อมีการเปลี่ยนเงื่อนไขการใช้งานให้สามารถนำไฟล์ของผู้ใช้ไปใช้ในการ “พัฒนาเทคโนโลยีใหม่ รวมถึงการปรับปรุงโมเดล AI” แม้ภายหลังจะออกมาชี้แจงว่าเป็นการใช้ AI เพื่อจัดการเนื้อหา ไม่ใช่การฝึกโมเดล แต่ความไม่ชัดเจนนี้ก็สะท้อนถึงแนวโน้มที่น่ากังวล: ข้อมูลของผู้ใช้กำลังกลายเป็นเชื้อเพลิงของ AI โดยที่ผู้ใช้ไม่รู้ตัว
Slack ก็เป็นอีกตัวอย่างที่ใช้ข้อมูลของลูกค้าในการฝึกโมเดล machine learning โดยค่าเริ่มต้น ซึ่งหมายความว่แม้จะเป็นบริการที่ใช้ในองค์กร ก็ยังมีความเสี่ยงด้านข้อมูลหากไม่มีการตั้งค่าความปลอดภัยอย่างรัดกุม
นอกจากนี้ยังมีกรณีที่ผู้ใช้ ChatGPT เปิดใช้งาน “make this chat discoverable” โดยไม่รู้ว่าเนื้อหาจะถูกจัดทำดัชนีโดย Google และปรากฏในผลการค้นหา ซึ่งอาจมีข้อมูลส่วนตัวหรือกลยุทธ์ทางธุรกิจที่ไม่ควรเปิดเผย
สิ่งที่น่ากังวลที่สุดคือการใช้ AI ในองค์กรโดยไม่มีการควบคุม เช่น พนักงานนำข้อมูลภายในไปใส่ใน ChatGPT เพื่อแปลเอกสารหรือเขียนอีเมล โดยไม่รู้ว่าข้อมูลนั้นอาจถูกนำไปใช้ในการฝึกโมเดลในอนาคต
CISOs (Chief Information Security Officers) ทั่วโลกกำลังเผชิญกับภาระสองด้าน: ต้องใช้ AI เพื่อเพิ่มประสิทธิภาพด้านความปลอดภัย แต่ก็ต้องป้องกันไม่ให้ AI กลายเป็นช่องโหว่ใหม่ขององค์กร ซึ่งเป็นความท้าทายที่ซับซ้อนและกำลังสร้างความเหนื่อยล้าให้กับผู้บริหารด้านความปลอดภัยทั่วโลก
✅ การเปลี่ยนแปลงนโยบายของบริการออนไลน์
➡️ WeTransfer เพิ่มเงื่อนไขให้สามารถใช้ไฟล์ผู้ใช้ในการพัฒนา AI
➡️ Slack ใช้ข้อมูลลูกค้าในการฝึกโมเดล machine learning โดยค่าเริ่มต้น
➡️ Meta และบริการอื่น ๆ เริ่มปรับนโยบายเพื่อใช้ข้อมูลผู้ใช้ในการฝึกโมเดล
✅ ความเสี่ยงจากการใช้งาน AI โดยผู้ใช้ทั่วไป
➡️ พนักงานอาจนำข้อมูลภายในองค์กรไปใส่ใน ChatGPT โดยไม่รู้ผลกระทบ
➡️ การเปิดใช้งาน “make this chat discoverable” ทำให้ข้อมูลปรากฏใน Google
➡️ ข้อมูลส่วนตัวหรือกลยุทธ์ทางธุรกิจอาจถูกเปิดเผยโดยไม่ตั้งใจ
✅ ความท้าทายของผู้บริหารด้านความปลอดภัย
➡️ CISOs ต้องใช้ AI เพื่อเพิ่มความปลอดภัย แต่ก็ต้องควบคุมความเสี่ยงจาก AI
➡️ 64% ของผู้บริหารด้านความปลอดภัยมองว่า AI เป็นเป้าหมายเชิงกลยุทธ์
➡️ 48% ระบุว่าการใช้งาน AI อย่างปลอดภัยเป็นเรื่องเร่งด่วน
✅ แนวโน้มของการเปลี่ยนแปลงในองค์กร
➡️ บริษัทต่าง ๆ เริ่มปรับนโยบายเพื่อให้สามารถใช้ข้อมูลในการฝึก AI ได้
➡️ ต้องมีการปรับปรุงเงื่อนไขการใช้งานให้โปร่งใสและสอดคล้องกับกฎหมาย
➡️ การใช้ AI ต้องมีการกำกับดูแลร่วมกัน ไม่ใช่แค่หน้าที่ของ CISO
https://www.csoonline.com/article/4049373/how-the-generative-ai-boom-opens-up-new-privacy-and-cybersecurity-risks.html
0 Comments
0 Shares
61 Views
0 Reviews