A todos nos han aconsejado que no creamos todo lo que vemos en Internet, y eso nunca ha sido más cierto en la era de la IA generativa.

Vídeos generados por IA están en todas partes, desde deepfakes de celebridades y transmisiones falsas de desastres hasta Vídeos virales de conejitos en un trampolín.. Sora, el generador de vídeo de IA de la empresa matriz de ChatGPT, OpenAI, sólo ha hecho que sea más difícil separar la verdad de la ficción. Y el modelo Sora 2, un nueva aplicación de redes socialeses cada día más sofisticado.

En los últimos meses, la aplicación similar a TikTok se ha vuelto viralcon entusiastas de la IA decididos a buscar códigos de invitación. Pero Sora no es como cualquier otra plataforma de redes sociales. Todo lo que ves en Sora es falso y todos los videos están generados por IA. Lo describí como un Sueño de fiebre deepfake con IAinocuo a primera vista, con riesgos peligrosos acechando justo debajo de la superficie.


No se pierda ninguno de nuestro contenido tecnológico imparcial y reseñas de laboratorio. Añadir CNET como fuente preferida de Google.


Desde un punto de vista técnico, los vídeos de Sora son impresionantes en comparación con competidores como V1 de mitad de viaje y Google’s Veo 3. Tienen alta resolución, audio sincronizado y una creatividad sorprendente. La característica más popular de Sora, denominada “cameo”, te permite usar imágenes de otras personas e insertarlas en casi cualquier escena generada por IA. Es una herramienta impresionante que da como resultado vídeos aterradoramente realistas.

Por eso tantos expertos están preocupados por Sora. La aplicación hace que sea más fácil para cualquiera crear deepfakes peligrosos, difundir información errónea y desdibujar la línea entre lo que es real y lo que no lo es. Las figuras públicas y las celebridades son especialmente vulnerables a estos deepfakes, y sindicatos como SAG-AFTRA ha presionado a OpenAI para fortalecer sus barreras de seguridad.

Identificar contenido de IA es un desafío continuo para las empresas de tecnología, las plataformas de redes sociales y todos los demás. Pero no es totalmente inútil. Aquí hay algunas cosas a tener en cuenta para determinar si un video se realizó con Sora.

Busque la marca de agua de Sora.

Cada vídeo realizado en la aplicación Sora para iOS incluye una marca de agua cuando lo descargas. Es el logo blanco de Sora, un ícono de nube, que rebota en los bordes del video. Es similar a la forma en que los videos de TikTok tienen marcas de agua.

El contenido con marcas de agua es una de las formas más importantes en que las empresas de inteligencia artificial pueden ayudarnos visualmente a detectar contenido generado por inteligencia artificial. El modelo Gemini “nano banana” de Google, por ejemplo, pone marcas de agua automáticamente en sus imágenes. Las marcas de agua son excelentes porque sirven como una señal clara de que el contenido se creó con la ayuda de IA.

Atlas de IA

Pero las marcas de agua no son perfectas. Por un lado, si la marca de agua es estática (no se mueve), se puede recortar fácilmente. Incluso para marcas de agua en movimiento como las de Sora, existen aplicaciones diseñadas específicamente para eliminarlas, por lo que no se puede confiar plenamente en las marcas de agua por sí solas. Cuando se le preguntó al CEO de OpenAI, Sam Altman, sobre esto, respondió dicho La sociedad tendrá que adaptarse a un mundo donde cualquiera puede crear vídeos falsos de cualquier persona. Por supuesto, antes de Sora de OpenAI, no existía una forma popular, de fácil acceso y que no requiriera habilidades para hacer esos videos. Pero su argumento plantea un punto válido sobre la necesidad de confiar en otros métodos para verificar la autenticidad.

Comprueba los metadatos

Lo sé, probablemente estés pensando que no hay forma de verificar los metadatos de un video para determinar si es real. Entiendo de dónde vienes; es un paso adicional y es posible que no sepa por dónde empezar. Pero es una excelente manera de determinar si un video se hizo con Sora y es más fácil de hacer de lo que cree.

Los metadatos son una colección de información que se adjunta automáticamente a un contenido cuando se crea. Le brinda más información sobre cómo se creó una imagen o un video. Puede incluir el tipo de cámara utilizada para tomar una foto, la ubicación, la fecha y hora en que se capturó el video y el nombre del archivo. Cada foto y video tiene metadatos, sin importar si fueron creados por humanos o por IA. Y una gran cantidad de contenido creado por IA tendrá credenciales de contenido que también denotan sus orígenes de IA.

OpenAI es parte de la Coalición para la procedencia y autenticidad del contenido, lo que, para usted, significa que los videos de Sora incluir Metadatos C2PA. Puedes usar el Herramienta de verificación de Content Authenticity Initiative para comprobar los metadatos de un vídeo, imagen o documento. Así es como. (La Iniciativa de Autenticidad de Contenido es parte de C2PA).

Cómo comprobar los metadatos de una foto, vídeo o documento:

1. Navegue a esta URL: https://verify.contentauthenticity.org/
2. Sube el archivo que deseas verificar.
3. Haga clic en Abrir.
4. Consulta la información en el panel del lado derecho. Si está generado por IA, debe incluirlo en la sección de resumen de contenido.

Cuando ejecuta un video de Sora a través de esta herramienta, dirá que el video fue “emitido por OpenAI” e incluirá el hecho de que está generado por IA. Todos los videos de Sora deben contener estas credenciales que le permitan confirmar que fueron creados con Sora.

Esta herramienta, como todos los detectores de IA, no es perfecta. Hay muchas formas en que los vídeos de IA pueden evitar la detección. Si tiene otros videos que no son de Sora, es posible que no contengan las señales necesarias en los metadatos para que la herramienta determine si fueron creados por IA o no. Los videos de IA hechos con Midjourney, por ejemplo, no se marcan, como confirmé en mis pruebas. Incluso si el video fue creado por Sora, pero luego se ejecuta a través de una aplicación de terceros (como una de eliminación de marcas de agua) y se vuelve a descargar, eso hace que sea menos probable que la herramienta lo marque como IA.

Captura de pantalla de un vídeo de Sora ejecutado a través de la herramienta de la Iniciativa de Autenticidad de Contenido

La herramienta de verificación de la Iniciativa de Autenticidad de Contenido marcó correctamente que un video que hice con Sora fue generado por IA, junto con la fecha y hora en que lo creé.

Captura de pantalla de Katelyn Chedraoui/CNET

Busque otras etiquetas de IA e incluya la suya propia

Si estás en una de las plataformas de redes sociales de Meta, como Instagram o Facebook, es posible que recibas un poco de ayuda para determinar si algo es IA. meta tiene sistemas internos en su lugar para ayudar a marcar el contenido de IA y etiquetarlo como tal. Estos sistemas no son perfectos, pero puedes ver claramente la etiqueta de las publicaciones que han sido marcadas. tiktok y YouTube tienen políticas similares para etiquetar el contenido de IA.

La única forma verdaderamente confiable de saber si algo es generado por IA es si el creador lo revela. Muchas plataformas de redes sociales ahora ofrecen configuraciones que permiten a los usuarios etiquetar sus publicaciones como generadas por IA. Incluso un simple crédito o divulgación en el título puede ser de gran ayuda para ayudar a todos a comprender cómo se creó algo.

Mientras navegas por Sora, sabes que nada es real. Pero una vez que sales de la aplicación y compartes videos generados por IA, es nuestra responsabilidad colectiva revelar cómo se creó un video. A medida que los modelos de IA como Sora continúan desdibujando la línea entre la realidad y la IA, nos corresponde a todos dejar lo más claro posible cuándo algo es real o IA.

Lo más importante es permanecer alerta

No existe un método infalible para saber con precisión de un solo vistazo si un vídeo es real o IA. Lo mejor que puede hacer para evitar ser engañado es no creer de forma automática e incuestionable todo lo que ve en línea. Sigue tu instinto: si algo te parece irreal, probablemente lo sea. En estos tiempos sin precedentes y llenos de IA, su mejor defensa es inspeccionar los videos que está viendo más de cerca. No mires y te desplaces rápidamente sin pensar. Compruebe si hay texto distorsionado, objetos que desaparecen y movimientos que desafían la física. Y no te castigues si te engañan de vez en cuando; Incluso los expertos se equivocan.

(Divulgación: Ziff Davis, la empresa matriz de CNET, presentó en abril una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA).



Fuente