เรื่องเล่าจากห้องทดลอง Claude: เมื่อข้อมูลของคุณกลายเป็นเชื้อเพลิงให้ AI
Anthropic ผู้พัฒนา Claude ได้ประกาศอัปเดตเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวครั้งใหญ่ในเดือนสิงหาคม 2025 โดยเปิดทางให้ผู้ใช้เลือกว่าจะ “อนุญาต” หรือ “ปฏิเสธ” การใช้ข้อมูลของตนเพื่อฝึกโมเดล AI รุ่นใหม่
ก่อนหน้านี้ Claude ไม่ใช้ข้อมูลจากผู้ใช้ทั่วไปในการฝึกโมเดลเลย ยกเว้นกรณีที่มีการส่ง feedback โดยตรง แต่ตอนนี้ Anthropic ต้องการข้อมูลจริงจากการสนทนาและการเขียนโค้ด เพื่อพัฒนาโมเดลให้แม่นยำขึ้น ปลอดภัยขึ้น และเข้าใจมนุษย์มากขึ้น
ผู้ใช้ที่เลือก “อนุญาต” จะมีการเก็บข้อมูลได้นานถึง 5 ปี และข้อมูลเหล่านั้นจะถูกนำไปใช้ในการฝึก Claude รุ่นใหม่ ๆ โดยจะมีการกรองข้อมูลที่อ่อนไหวและไม่ขายให้บุคคลที่สาม ส่วนผู้ใช้ที่ “ปฏิเสธ” จะยังคงอยู่ภายใต้การเก็บข้อมูลแบบเดิมคือ 30 วัน
สิ่งที่น่าสนใจคือ การตัดสินใจนี้จะมีผลต่อการใช้งาน Claude หลังวันที่ 28 กันยายน 2025 หากไม่เลือกใด ๆ จะไม่สามารถใช้งาน Claude ได้ต่อ และแม้จะเปลี่ยนใจในภายหลัง ข้อมูลที่เคยใช้ฝึกไปแล้วจะไม่สามารถเรียกคืนได้
การเปลี่ยนแปลงนโยบายของ Anthropic
เปิดให้ผู้ใช้เลือกว่าจะให้ใช้ข้อมูลเพื่อฝึก Claude หรือไม่
มีผลกับผู้ใช้ Claude Free, Pro และ Max รวมถึง Claude Code
ไม่ครอบคลุมบริการเชิงพาณิชย์ เช่น Claude for Work, Gov, Education หรือ API
การเก็บข้อมูลและการฝึกโมเดล
หากอนุญาต ข้อมูลจะถูกเก็บได้นานถึง 5 ปี
หากไม่อนุญาต จะเก็บข้อมูลเพียง 30 วันตามนโยบายเดิม
ข้อมูลที่ถูกลบจะไม่ถูกใช้ในการฝึกโมเดล
การฝึกจะใช้เฉพาะแชตใหม่หรือแชตที่กลับมาใช้งานอีกครั้ง
วิธีการเลือกและเปลี่ยนการตั้งค่า
ผู้ใช้ใหม่สามารถเลือกได้ตอนสมัครใช้งาน
ผู้ใช้เดิมจะเห็น popup ให้เลือกก่อนวันที่ 28 กันยายน 2025
สามารถเปลี่ยนการตั้งค่าได้ตลอดเวลาใน Privacy Settings
จุดประสงค์ของการเปลี่ยนแปลง
เพื่อปรับปรุงความแม่นยำในการเขียนโค้ด การวิเคราะห์ และการให้เหตุผล
เพื่อพัฒนาระบบตรวจจับเนื้อหาที่เป็นอันตราย เช่น spam หรือการละเมิด
เพื่อให้โมเดลตอบสนองได้ดีขึ้นในบริบทจริงของผู้ใช้
https://www.anthropic.com/news/updates-to-our-consumer-terms
Anthropic ผู้พัฒนา Claude ได้ประกาศอัปเดตเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวครั้งใหญ่ในเดือนสิงหาคม 2025 โดยเปิดทางให้ผู้ใช้เลือกว่าจะ “อนุญาต” หรือ “ปฏิเสธ” การใช้ข้อมูลของตนเพื่อฝึกโมเดล AI รุ่นใหม่
ก่อนหน้านี้ Claude ไม่ใช้ข้อมูลจากผู้ใช้ทั่วไปในการฝึกโมเดลเลย ยกเว้นกรณีที่มีการส่ง feedback โดยตรง แต่ตอนนี้ Anthropic ต้องการข้อมูลจริงจากการสนทนาและการเขียนโค้ด เพื่อพัฒนาโมเดลให้แม่นยำขึ้น ปลอดภัยขึ้น และเข้าใจมนุษย์มากขึ้น
ผู้ใช้ที่เลือก “อนุญาต” จะมีการเก็บข้อมูลได้นานถึง 5 ปี และข้อมูลเหล่านั้นจะถูกนำไปใช้ในการฝึก Claude รุ่นใหม่ ๆ โดยจะมีการกรองข้อมูลที่อ่อนไหวและไม่ขายให้บุคคลที่สาม ส่วนผู้ใช้ที่ “ปฏิเสธ” จะยังคงอยู่ภายใต้การเก็บข้อมูลแบบเดิมคือ 30 วัน
สิ่งที่น่าสนใจคือ การตัดสินใจนี้จะมีผลต่อการใช้งาน Claude หลังวันที่ 28 กันยายน 2025 หากไม่เลือกใด ๆ จะไม่สามารถใช้งาน Claude ได้ต่อ และแม้จะเปลี่ยนใจในภายหลัง ข้อมูลที่เคยใช้ฝึกไปแล้วจะไม่สามารถเรียกคืนได้
การเปลี่ยนแปลงนโยบายของ Anthropic
เปิดให้ผู้ใช้เลือกว่าจะให้ใช้ข้อมูลเพื่อฝึก Claude หรือไม่
มีผลกับผู้ใช้ Claude Free, Pro และ Max รวมถึง Claude Code
ไม่ครอบคลุมบริการเชิงพาณิชย์ เช่น Claude for Work, Gov, Education หรือ API
การเก็บข้อมูลและการฝึกโมเดล
หากอนุญาต ข้อมูลจะถูกเก็บได้นานถึง 5 ปี
หากไม่อนุญาต จะเก็บข้อมูลเพียง 30 วันตามนโยบายเดิม
ข้อมูลที่ถูกลบจะไม่ถูกใช้ในการฝึกโมเดล
การฝึกจะใช้เฉพาะแชตใหม่หรือแชตที่กลับมาใช้งานอีกครั้ง
วิธีการเลือกและเปลี่ยนการตั้งค่า
ผู้ใช้ใหม่สามารถเลือกได้ตอนสมัครใช้งาน
ผู้ใช้เดิมจะเห็น popup ให้เลือกก่อนวันที่ 28 กันยายน 2025
สามารถเปลี่ยนการตั้งค่าได้ตลอดเวลาใน Privacy Settings
จุดประสงค์ของการเปลี่ยนแปลง
เพื่อปรับปรุงความแม่นยำในการเขียนโค้ด การวิเคราะห์ และการให้เหตุผล
เพื่อพัฒนาระบบตรวจจับเนื้อหาที่เป็นอันตราย เช่น spam หรือการละเมิด
เพื่อให้โมเดลตอบสนองได้ดีขึ้นในบริบทจริงของผู้ใช้
https://www.anthropic.com/news/updates-to-our-consumer-terms
🎙️ เรื่องเล่าจากห้องทดลอง Claude: เมื่อข้อมูลของคุณกลายเป็นเชื้อเพลิงให้ AI
Anthropic ผู้พัฒนา Claude ได้ประกาศอัปเดตเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวครั้งใหญ่ในเดือนสิงหาคม 2025 โดยเปิดทางให้ผู้ใช้เลือกว่าจะ “อนุญาต” หรือ “ปฏิเสธ” การใช้ข้อมูลของตนเพื่อฝึกโมเดล AI รุ่นใหม่
ก่อนหน้านี้ Claude ไม่ใช้ข้อมูลจากผู้ใช้ทั่วไปในการฝึกโมเดลเลย ยกเว้นกรณีที่มีการส่ง feedback โดยตรง แต่ตอนนี้ Anthropic ต้องการข้อมูลจริงจากการสนทนาและการเขียนโค้ด เพื่อพัฒนาโมเดลให้แม่นยำขึ้น ปลอดภัยขึ้น และเข้าใจมนุษย์มากขึ้น
ผู้ใช้ที่เลือก “อนุญาต” จะมีการเก็บข้อมูลได้นานถึง 5 ปี และข้อมูลเหล่านั้นจะถูกนำไปใช้ในการฝึก Claude รุ่นใหม่ ๆ โดยจะมีการกรองข้อมูลที่อ่อนไหวและไม่ขายให้บุคคลที่สาม ส่วนผู้ใช้ที่ “ปฏิเสธ” จะยังคงอยู่ภายใต้การเก็บข้อมูลแบบเดิมคือ 30 วัน
สิ่งที่น่าสนใจคือ การตัดสินใจนี้จะมีผลต่อการใช้งาน Claude หลังวันที่ 28 กันยายน 2025 หากไม่เลือกใด ๆ จะไม่สามารถใช้งาน Claude ได้ต่อ และแม้จะเปลี่ยนใจในภายหลัง ข้อมูลที่เคยใช้ฝึกไปแล้วจะไม่สามารถเรียกคืนได้
✅ การเปลี่ยนแปลงนโยบายของ Anthropic
➡️ เปิดให้ผู้ใช้เลือกว่าจะให้ใช้ข้อมูลเพื่อฝึก Claude หรือไม่
➡️ มีผลกับผู้ใช้ Claude Free, Pro และ Max รวมถึง Claude Code
➡️ ไม่ครอบคลุมบริการเชิงพาณิชย์ เช่น Claude for Work, Gov, Education หรือ API
✅ การเก็บข้อมูลและการฝึกโมเดล
➡️ หากอนุญาต ข้อมูลจะถูกเก็บได้นานถึง 5 ปี
➡️ หากไม่อนุญาต จะเก็บข้อมูลเพียง 30 วันตามนโยบายเดิม
➡️ ข้อมูลที่ถูกลบจะไม่ถูกใช้ในการฝึกโมเดล
➡️ การฝึกจะใช้เฉพาะแชตใหม่หรือแชตที่กลับมาใช้งานอีกครั้ง
✅ วิธีการเลือกและเปลี่ยนการตั้งค่า
➡️ ผู้ใช้ใหม่สามารถเลือกได้ตอนสมัครใช้งาน
➡️ ผู้ใช้เดิมจะเห็น popup ให้เลือกก่อนวันที่ 28 กันยายน 2025
➡️ สามารถเปลี่ยนการตั้งค่าได้ตลอดเวลาใน Privacy Settings
✅ จุดประสงค์ของการเปลี่ยนแปลง
➡️ เพื่อปรับปรุงความแม่นยำในการเขียนโค้ด การวิเคราะห์ และการให้เหตุผล
➡️ เพื่อพัฒนาระบบตรวจจับเนื้อหาที่เป็นอันตราย เช่น spam หรือการละเมิด
➡️ เพื่อให้โมเดลตอบสนองได้ดีขึ้นในบริบทจริงของผู้ใช้
https://www.anthropic.com/news/updates-to-our-consumer-terms
0 ความคิดเห็น
0 การแบ่งปัน
25 มุมมอง
0 รีวิว