เรื่องเล่าจากภาพลวงตา: เมื่อภาพถ่ายกลายเป็นสนามรบของความจริง
Microsoft ได้เปิดตัวเว็บไซต์เกม “Real or Not” ที่ให้ผู้ใช้ทดสอบความสามารถในการแยกแยะภาพจริงกับภาพที่สร้างโดย AI โดยใช้ภาพจากคลังภาพถ่ายและโมเดล AI หลายตัว เช่น Flux Pro และ GAN deepfakes
จากการศึกษาภาพกว่า 287,000 ภาพ โดยผู้เข้าร่วม 12,500 คนทั่วโลก พบว่า:
- คนทั่วไปสามารถแยกแยะภาพจริงจากภาพปลอมได้ถูกต้องเพียง 63%
- ภาพที่สร้างโดย GAN ซึ่งเน้นเฉพาะใบหน้าหรือใช้เทคนิค inpainting หลอกผู้ชมได้ถึง 55%
- ภาพจริงบางภาพกลับถูกเข้าใจผิดว่าเป็นภาพปลอม โดยเฉพาะภาพที่มีแสง สี หรือมุมกล้องแปลกตา เช่น ภาพทหารในสถานการณ์พิเศษ
Microsoft ยังเผยว่าเครื่องมือตรวจจับภาพปลอมที่กำลังพัฒนาอยู่สามารถแยกแยะได้แม่นยำถึง 95% ซึ่งเหนือกว่าความสามารถของมนุษย์อย่างชัดเจน
Microsoft เปิดตัวเว็บไซต์ “Real or Not” เพื่อทดสอบการแยกแยะภาพจริงกับภาพที่สร้างโดย AI
ใช้ภาพจากคลังภาพถ่ายและโมเดล AI เช่น Flux Pro และ GAN deepfakes
ผู้ใช้ต้องเลือกว่าภาพที่เห็นเป็นของจริงหรือของปลอม
ผลการศึกษาจากภาพ 287,000 ภาพ โดยผู้เข้าร่วม 12,500 คนทั่วโลก
ผู้ใช้สามารถแยกแยะภาพได้ถูกต้องเฉลี่ย 63%
ภาพใบหน้าที่สร้างโดย GAN หลอกผู้ชมได้ถึง 55%
ภาพจริงบางภาพกลับถูกเข้าใจผิดว่าเป็นภาพปลอม
เช่น ภาพทหารในสถานการณ์แสงและสีแปลกตา
แสดงให้เห็นว่าความแปลกของภาพจริงอาจทำให้คนสงสัยว่าเป็นภาพปลอม
AI ที่ Microsoft กำลังพัฒนาสามารถตรวจจับภาพปลอมได้แม่นยำถึง 95%
ใช้เทคนิคการวิเคราะห์ระดับพิกเซลและความถี่ของภาพ
มีความแม่นยำสูงกว่าการตัดสินใจของมนุษย์
Flux Pro AI สามารถสร้างภาพที่ดูเหมือนถ่ายจากมือถือทั่วไปได้
ลดความเรียบเนียนเกินจริงของภาพ AI แบบเดิม
ทำให้ภาพปลอมดูเหมือนภาพจริงในชีวิตประจำวันมากขึ้น
ภาพที่สร้างโดย AI มีความสมจริงมากขึ้นจนยากต่อการตรวจจับด้วยสายตา
ผู้ใช้ทั่วไปอาจถูกหลอกโดยภาพที่ดูเหมือนภาพถ่ายจริง
ส่งผลต่อความน่าเชื่อถือของข้อมูลภาพในสื่อสังคมและข่าวสาร
ภาพจริงที่มีองค์ประกอบแปลกตาอาจถูกเข้าใจผิดว่าเป็นภาพปลอม
เช่น ภาพที่มีแสงผิดธรรมชาติหรือมุมกล้องไม่คุ้นเคย
อาจทำให้เกิดการปฏิเสธข้อมูลที่เป็นความจริง
การใช้ภาพปลอมเพื่อสร้างความเข้าใจผิดอาจนำไปสู่การเผยแพร่ข้อมูลเท็จ
โดยเฉพาะในบริบททางการเมืองหรือข่าวปลอม
เสี่ยงต่อการบิดเบือนความคิดเห็นสาธารณะ
การพัฒนา AI ที่ตรวจจับภาพปลอมยังต้องการการปรับปรุงเพื่อรองรับโมเดลใหม่ๆ
โมเดล GAN ใหม่ๆ อาจหลบเลี่ยงการตรวจจับได้
ต้องมีการอัปเดตระบบตรวจจับเป็นประจำ
https://www.techspot.com/news/108862-think-you-can-tell-fake-image-real-one.html
Microsoft ได้เปิดตัวเว็บไซต์เกม “Real or Not” ที่ให้ผู้ใช้ทดสอบความสามารถในการแยกแยะภาพจริงกับภาพที่สร้างโดย AI โดยใช้ภาพจากคลังภาพถ่ายและโมเดล AI หลายตัว เช่น Flux Pro และ GAN deepfakes
จากการศึกษาภาพกว่า 287,000 ภาพ โดยผู้เข้าร่วม 12,500 คนทั่วโลก พบว่า:
- คนทั่วไปสามารถแยกแยะภาพจริงจากภาพปลอมได้ถูกต้องเพียง 63%
- ภาพที่สร้างโดย GAN ซึ่งเน้นเฉพาะใบหน้าหรือใช้เทคนิค inpainting หลอกผู้ชมได้ถึง 55%
- ภาพจริงบางภาพกลับถูกเข้าใจผิดว่าเป็นภาพปลอม โดยเฉพาะภาพที่มีแสง สี หรือมุมกล้องแปลกตา เช่น ภาพทหารในสถานการณ์พิเศษ
Microsoft ยังเผยว่าเครื่องมือตรวจจับภาพปลอมที่กำลังพัฒนาอยู่สามารถแยกแยะได้แม่นยำถึง 95% ซึ่งเหนือกว่าความสามารถของมนุษย์อย่างชัดเจน
Microsoft เปิดตัวเว็บไซต์ “Real or Not” เพื่อทดสอบการแยกแยะภาพจริงกับภาพที่สร้างโดย AI
ใช้ภาพจากคลังภาพถ่ายและโมเดล AI เช่น Flux Pro และ GAN deepfakes
ผู้ใช้ต้องเลือกว่าภาพที่เห็นเป็นของจริงหรือของปลอม
ผลการศึกษาจากภาพ 287,000 ภาพ โดยผู้เข้าร่วม 12,500 คนทั่วโลก
ผู้ใช้สามารถแยกแยะภาพได้ถูกต้องเฉลี่ย 63%
ภาพใบหน้าที่สร้างโดย GAN หลอกผู้ชมได้ถึง 55%
ภาพจริงบางภาพกลับถูกเข้าใจผิดว่าเป็นภาพปลอม
เช่น ภาพทหารในสถานการณ์แสงและสีแปลกตา
แสดงให้เห็นว่าความแปลกของภาพจริงอาจทำให้คนสงสัยว่าเป็นภาพปลอม
AI ที่ Microsoft กำลังพัฒนาสามารถตรวจจับภาพปลอมได้แม่นยำถึง 95%
ใช้เทคนิคการวิเคราะห์ระดับพิกเซลและความถี่ของภาพ
มีความแม่นยำสูงกว่าการตัดสินใจของมนุษย์
Flux Pro AI สามารถสร้างภาพที่ดูเหมือนถ่ายจากมือถือทั่วไปได้
ลดความเรียบเนียนเกินจริงของภาพ AI แบบเดิม
ทำให้ภาพปลอมดูเหมือนภาพจริงในชีวิตประจำวันมากขึ้น
ภาพที่สร้างโดย AI มีความสมจริงมากขึ้นจนยากต่อการตรวจจับด้วยสายตา
ผู้ใช้ทั่วไปอาจถูกหลอกโดยภาพที่ดูเหมือนภาพถ่ายจริง
ส่งผลต่อความน่าเชื่อถือของข้อมูลภาพในสื่อสังคมและข่าวสาร
ภาพจริงที่มีองค์ประกอบแปลกตาอาจถูกเข้าใจผิดว่าเป็นภาพปลอม
เช่น ภาพที่มีแสงผิดธรรมชาติหรือมุมกล้องไม่คุ้นเคย
อาจทำให้เกิดการปฏิเสธข้อมูลที่เป็นความจริง
การใช้ภาพปลอมเพื่อสร้างความเข้าใจผิดอาจนำไปสู่การเผยแพร่ข้อมูลเท็จ
โดยเฉพาะในบริบททางการเมืองหรือข่าวปลอม
เสี่ยงต่อการบิดเบือนความคิดเห็นสาธารณะ
การพัฒนา AI ที่ตรวจจับภาพปลอมยังต้องการการปรับปรุงเพื่อรองรับโมเดลใหม่ๆ
โมเดล GAN ใหม่ๆ อาจหลบเลี่ยงการตรวจจับได้
ต้องมีการอัปเดตระบบตรวจจับเป็นประจำ
https://www.techspot.com/news/108862-think-you-can-tell-fake-image-real-one.html
🧠 เรื่องเล่าจากภาพลวงตา: เมื่อภาพถ่ายกลายเป็นสนามรบของความจริง
Microsoft ได้เปิดตัวเว็บไซต์เกม “Real or Not” ที่ให้ผู้ใช้ทดสอบความสามารถในการแยกแยะภาพจริงกับภาพที่สร้างโดย AI โดยใช้ภาพจากคลังภาพถ่ายและโมเดล AI หลายตัว เช่น Flux Pro และ GAN deepfakes
จากการศึกษาภาพกว่า 287,000 ภาพ โดยผู้เข้าร่วม 12,500 คนทั่วโลก พบว่า:
- คนทั่วไปสามารถแยกแยะภาพจริงจากภาพปลอมได้ถูกต้องเพียง 63%
- ภาพที่สร้างโดย GAN ซึ่งเน้นเฉพาะใบหน้าหรือใช้เทคนิค inpainting หลอกผู้ชมได้ถึง 55%
- ภาพจริงบางภาพกลับถูกเข้าใจผิดว่าเป็นภาพปลอม โดยเฉพาะภาพที่มีแสง สี หรือมุมกล้องแปลกตา เช่น ภาพทหารในสถานการณ์พิเศษ
Microsoft ยังเผยว่าเครื่องมือตรวจจับภาพปลอมที่กำลังพัฒนาอยู่สามารถแยกแยะได้แม่นยำถึง 95% ซึ่งเหนือกว่าความสามารถของมนุษย์อย่างชัดเจน
✅ Microsoft เปิดตัวเว็บไซต์ “Real or Not” เพื่อทดสอบการแยกแยะภาพจริงกับภาพที่สร้างโดย AI
➡️ ใช้ภาพจากคลังภาพถ่ายและโมเดล AI เช่น Flux Pro และ GAN deepfakes
➡️ ผู้ใช้ต้องเลือกว่าภาพที่เห็นเป็นของจริงหรือของปลอม
✅ ผลการศึกษาจากภาพ 287,000 ภาพ โดยผู้เข้าร่วม 12,500 คนทั่วโลก
➡️ ผู้ใช้สามารถแยกแยะภาพได้ถูกต้องเฉลี่ย 63%
➡️ ภาพใบหน้าที่สร้างโดย GAN หลอกผู้ชมได้ถึง 55%
✅ ภาพจริงบางภาพกลับถูกเข้าใจผิดว่าเป็นภาพปลอม
➡️ เช่น ภาพทหารในสถานการณ์แสงและสีแปลกตา
➡️ แสดงให้เห็นว่าความแปลกของภาพจริงอาจทำให้คนสงสัยว่าเป็นภาพปลอม
✅ AI ที่ Microsoft กำลังพัฒนาสามารถตรวจจับภาพปลอมได้แม่นยำถึง 95%
➡️ ใช้เทคนิคการวิเคราะห์ระดับพิกเซลและความถี่ของภาพ
➡️ มีความแม่นยำสูงกว่าการตัดสินใจของมนุษย์
✅ Flux Pro AI สามารถสร้างภาพที่ดูเหมือนถ่ายจากมือถือทั่วไปได้
➡️ ลดความเรียบเนียนเกินจริงของภาพ AI แบบเดิม
➡️ ทำให้ภาพปลอมดูเหมือนภาพจริงในชีวิตประจำวันมากขึ้น
‼️ ภาพที่สร้างโดย AI มีความสมจริงมากขึ้นจนยากต่อการตรวจจับด้วยสายตา
⛔ ผู้ใช้ทั่วไปอาจถูกหลอกโดยภาพที่ดูเหมือนภาพถ่ายจริง
⛔ ส่งผลต่อความน่าเชื่อถือของข้อมูลภาพในสื่อสังคมและข่าวสาร
‼️ ภาพจริงที่มีองค์ประกอบแปลกตาอาจถูกเข้าใจผิดว่าเป็นภาพปลอม
⛔ เช่น ภาพที่มีแสงผิดธรรมชาติหรือมุมกล้องไม่คุ้นเคย
⛔ อาจทำให้เกิดการปฏิเสธข้อมูลที่เป็นความจริง
‼️ การใช้ภาพปลอมเพื่อสร้างความเข้าใจผิดอาจนำไปสู่การเผยแพร่ข้อมูลเท็จ
⛔ โดยเฉพาะในบริบททางการเมืองหรือข่าวปลอม
⛔ เสี่ยงต่อการบิดเบือนความคิดเห็นสาธารณะ
‼️ การพัฒนา AI ที่ตรวจจับภาพปลอมยังต้องการการปรับปรุงเพื่อรองรับโมเดลใหม่ๆ
⛔ โมเดล GAN ใหม่ๆ อาจหลบเลี่ยงการตรวจจับได้
⛔ ต้องมีการอัปเดตระบบตรวจจับเป็นประจำ
https://www.techspot.com/news/108862-think-you-can-tell-fake-image-real-one.html
0 ความคิดเห็น
0 การแบ่งปัน
48 มุมมอง
0 รีวิว