“Sora และยุคใหม่ของวิดีโอปลอม” — เมื่อ AI ทำให้ภาพเคลื่อนไหวไม่ใช่หลักฐานอีกต่อไป
บทความจาก The Star เปิดเผยว่าเทคโนโลยี AI video generators อย่าง Sora จาก OpenAI ได้พัฒนาไปถึงจุดที่สามารถสร้างวิดีโอสมจริงจากข้อความสั้น ๆ ได้ภายในไม่กี่วินาที เช่น “ภาพจากกล้องตำรวจจับสุนัขขโมยเนื้อที่ Costco” หรือ “แรคคูนบนเครื่องบิน” ซึ่งดูเหมือนจะเป็นคลิปจริงแต่ทั้งหมดถูกสร้างขึ้นด้วย AI
แม้จะมีคลิปที่สร้างเพื่อความบันเทิง แต่ก็มีผู้ใช้บางกลุ่มนำไปใช้ในทางที่ผิด เช่น สร้างภาพเหตุการณ์อาชญากรรมปลอม หรือข่าวปลอมที่ดูเหมือนออกจากสถานีโทรทัศน์จริง ๆ ซึ่งสร้างความกังวลในวงกว้าง
ผู้เชี่ยวชาญจาก UC Berkeley เตือนว่า “สมองของเราถูกฝึกให้เชื่อสิ่งที่เห็น แต่เราต้องเริ่มตั้งคำถามกับทุกวิดีโอ” เพราะวิดีโอเคยเป็นหลักฐานที่เชื่อถือได้เมื่อภาพนิ่งถูกปลอมได้ง่าย แต่ตอนนี้ AI ทำให้วิดีโอปลอมได้ไม่แพ้กัน
Sora ยังถูกวิจารณ์จากวงการภาพยนตร์ว่าอาจละเมิดลิขสิทธิ์ของตัวละครและเนื้อหาที่มีอยู่ โดย OpenAI ระบุว่าจะเปิดให้เจ้าของลิขสิทธิ์ควบคุมการใช้งานและหารายได้จากระบบนี้ในอนาคต
ข้อมูลในข่าว
Sora เป็นแอปจาก OpenAI ที่สร้างวิดีโอสมจริงจากข้อความ
ตัวอย่าง prompt เช่น “กล้องตำรวจจับสุนัขขโมยเนื้อ” หรือ “แรคคูนบนเครื่องบิน”
ผู้ใช้บางคนสร้างคลิปปลอม เช่น dashcam อุบัติเหตุ หรือข่าวปลอม
ผู้เชี่ยวชาญเตือนให้ตั้งคำถามกับวิดีโอทุกคลิป
วิดีโอเคยเป็นหลักฐานที่เชื่อถือได้ แต่ AI ทำให้ปลอมได้ง่าย
Sora ถูกวิจารณ์ว่าอาจละเมิดลิขสิทธิ์ภาพยนตร์และตัวละคร
OpenAI ระบุว่าจะให้เจ้าของลิขสิทธิ์ควบคุมการใช้งานในอนาคต
Sora มี watermark และ metadata ฝังในไฟล์เพื่อระบุว่าเป็นวิดีโอ AI
แอป Sora เป็นแบบเชิญเท่านั้น แต่มีการแจก invite code บน Reddit และ Discord
ผู้ใช้สามารถอัปโหลดภาพจริงเพื่อสร้างวิดีโอจากภาพนั้นได้
วิดีโอจาก Sora มีความยาวประมาณ 10 วินาที และมีคุณภาพใกล้ระดับ Hollywood
https://www.thestar.com.my/tech/tech-news/2025/10/17/ai-video-generators-are-now-so-good-you-can-no-longer-trust-your-eyes
บทความจาก The Star เปิดเผยว่าเทคโนโลยี AI video generators อย่าง Sora จาก OpenAI ได้พัฒนาไปถึงจุดที่สามารถสร้างวิดีโอสมจริงจากข้อความสั้น ๆ ได้ภายในไม่กี่วินาที เช่น “ภาพจากกล้องตำรวจจับสุนัขขโมยเนื้อที่ Costco” หรือ “แรคคูนบนเครื่องบิน” ซึ่งดูเหมือนจะเป็นคลิปจริงแต่ทั้งหมดถูกสร้างขึ้นด้วย AI
แม้จะมีคลิปที่สร้างเพื่อความบันเทิง แต่ก็มีผู้ใช้บางกลุ่มนำไปใช้ในทางที่ผิด เช่น สร้างภาพเหตุการณ์อาชญากรรมปลอม หรือข่าวปลอมที่ดูเหมือนออกจากสถานีโทรทัศน์จริง ๆ ซึ่งสร้างความกังวลในวงกว้าง
ผู้เชี่ยวชาญจาก UC Berkeley เตือนว่า “สมองของเราถูกฝึกให้เชื่อสิ่งที่เห็น แต่เราต้องเริ่มตั้งคำถามกับทุกวิดีโอ” เพราะวิดีโอเคยเป็นหลักฐานที่เชื่อถือได้เมื่อภาพนิ่งถูกปลอมได้ง่าย แต่ตอนนี้ AI ทำให้วิดีโอปลอมได้ไม่แพ้กัน
Sora ยังถูกวิจารณ์จากวงการภาพยนตร์ว่าอาจละเมิดลิขสิทธิ์ของตัวละครและเนื้อหาที่มีอยู่ โดย OpenAI ระบุว่าจะเปิดให้เจ้าของลิขสิทธิ์ควบคุมการใช้งานและหารายได้จากระบบนี้ในอนาคต
ข้อมูลในข่าว
Sora เป็นแอปจาก OpenAI ที่สร้างวิดีโอสมจริงจากข้อความ
ตัวอย่าง prompt เช่น “กล้องตำรวจจับสุนัขขโมยเนื้อ” หรือ “แรคคูนบนเครื่องบิน”
ผู้ใช้บางคนสร้างคลิปปลอม เช่น dashcam อุบัติเหตุ หรือข่าวปลอม
ผู้เชี่ยวชาญเตือนให้ตั้งคำถามกับวิดีโอทุกคลิป
วิดีโอเคยเป็นหลักฐานที่เชื่อถือได้ แต่ AI ทำให้ปลอมได้ง่าย
Sora ถูกวิจารณ์ว่าอาจละเมิดลิขสิทธิ์ภาพยนตร์และตัวละคร
OpenAI ระบุว่าจะให้เจ้าของลิขสิทธิ์ควบคุมการใช้งานในอนาคต
Sora มี watermark และ metadata ฝังในไฟล์เพื่อระบุว่าเป็นวิดีโอ AI
แอป Sora เป็นแบบเชิญเท่านั้น แต่มีการแจก invite code บน Reddit และ Discord
ผู้ใช้สามารถอัปโหลดภาพจริงเพื่อสร้างวิดีโอจากภาพนั้นได้
วิดีโอจาก Sora มีความยาวประมาณ 10 วินาที และมีคุณภาพใกล้ระดับ Hollywood
https://www.thestar.com.my/tech/tech-news/2025/10/17/ai-video-generators-are-now-so-good-you-can-no-longer-trust-your-eyes
🎥 “Sora และยุคใหม่ของวิดีโอปลอม” — เมื่อ AI ทำให้ภาพเคลื่อนไหวไม่ใช่หลักฐานอีกต่อไป
บทความจาก The Star เปิดเผยว่าเทคโนโลยี AI video generators อย่าง Sora จาก OpenAI ได้พัฒนาไปถึงจุดที่สามารถสร้างวิดีโอสมจริงจากข้อความสั้น ๆ ได้ภายในไม่กี่วินาที เช่น “ภาพจากกล้องตำรวจจับสุนัขขโมยเนื้อที่ Costco” หรือ “แรคคูนบนเครื่องบิน” ซึ่งดูเหมือนจะเป็นคลิปจริงแต่ทั้งหมดถูกสร้างขึ้นด้วย AI
แม้จะมีคลิปที่สร้างเพื่อความบันเทิง แต่ก็มีผู้ใช้บางกลุ่มนำไปใช้ในทางที่ผิด เช่น สร้างภาพเหตุการณ์อาชญากรรมปลอม หรือข่าวปลอมที่ดูเหมือนออกจากสถานีโทรทัศน์จริง ๆ ซึ่งสร้างความกังวลในวงกว้าง
ผู้เชี่ยวชาญจาก UC Berkeley เตือนว่า “สมองของเราถูกฝึกให้เชื่อสิ่งที่เห็น แต่เราต้องเริ่มตั้งคำถามกับทุกวิดีโอ” เพราะวิดีโอเคยเป็นหลักฐานที่เชื่อถือได้เมื่อภาพนิ่งถูกปลอมได้ง่าย แต่ตอนนี้ AI ทำให้วิดีโอปลอมได้ไม่แพ้กัน
Sora ยังถูกวิจารณ์จากวงการภาพยนตร์ว่าอาจละเมิดลิขสิทธิ์ของตัวละครและเนื้อหาที่มีอยู่ โดย OpenAI ระบุว่าจะเปิดให้เจ้าของลิขสิทธิ์ควบคุมการใช้งานและหารายได้จากระบบนี้ในอนาคต
✅ ข้อมูลในข่าว
➡️ Sora เป็นแอปจาก OpenAI ที่สร้างวิดีโอสมจริงจากข้อความ
➡️ ตัวอย่าง prompt เช่น “กล้องตำรวจจับสุนัขขโมยเนื้อ” หรือ “แรคคูนบนเครื่องบิน”
➡️ ผู้ใช้บางคนสร้างคลิปปลอม เช่น dashcam อุบัติเหตุ หรือข่าวปลอม
➡️ ผู้เชี่ยวชาญเตือนให้ตั้งคำถามกับวิดีโอทุกคลิป
➡️ วิดีโอเคยเป็นหลักฐานที่เชื่อถือได้ แต่ AI ทำให้ปลอมได้ง่าย
➡️ Sora ถูกวิจารณ์ว่าอาจละเมิดลิขสิทธิ์ภาพยนตร์และตัวละคร
➡️ OpenAI ระบุว่าจะให้เจ้าของลิขสิทธิ์ควบคุมการใช้งานในอนาคต
➡️ Sora มี watermark และ metadata ฝังในไฟล์เพื่อระบุว่าเป็นวิดีโอ AI
➡️ แอป Sora เป็นแบบเชิญเท่านั้น แต่มีการแจก invite code บน Reddit และ Discord
➡️ ผู้ใช้สามารถอัปโหลดภาพจริงเพื่อสร้างวิดีโอจากภาพนั้นได้
➡️ วิดีโอจาก Sora มีความยาวประมาณ 10 วินาที และมีคุณภาพใกล้ระดับ Hollywood
https://www.thestar.com.my/tech/tech-news/2025/10/17/ai-video-generators-are-now-so-good-you-can-no-longer-trust-your-eyes
0 ความคิดเห็น
0 การแบ่งปัน
0 มุมมอง
0 รีวิว