¿Recuerdas cuando “falso” en Internet significaba una imagen mal retocada con Photoshop? Ah, tiempos más simples. Ahora todos estamos nadando en un mar de Vídeos generados por IA y deepfakes, desde videos falsos de celebridades hasta transmisiones falsas de desastres, y cada vez es casi imposible saber qué es real.
Y está a punto de empeorar. Sora, la herramienta de vídeo de IA de OpenAI, ya está enturbiando las aguas. Pero ahora su nueva y viral “aplicación de redes sociales”, Sora 2, es lo más popular en Internet. Aquí está el truco: es un feed estilo TikTok solo por invitación donde todo es 100% falso.
El autor ya lo llamó “sueño de fiebre deepfake“, y eso es exactamente lo que es. Es una plataforma que mejora día a día en hacer que la ficción parezca un hecho, y los riesgos son enormes. Si estás luchando por separar lo real de la IA, no estás solo.
A continuación se ofrecen algunos consejos útiles que le ayudarán a eliminar el ruido para llegar a la verdad de cada situación inspirada en la IA.
No se pierda ninguno de nuestro contenido tecnológico imparcial y reseñas de laboratorio. Añadir CNET como fuente preferida de Google.
Desde un punto de vista técnico, los vídeos de Sora son impresionantes en comparación con competidores como V1 de mitad de viaje y Google’s Veo 3. Tienen alta resolución, audio sincronizado y una creatividad sorprendente. La característica más popular de Sora, denominada “cameo”, te permite usar imágenes de otras personas e insertarlas en casi cualquier escena generada por IA. Es una herramienta impresionante que da como resultado vídeos aterradoramente realistas.
Por eso tantos expertos están preocupados por Sora. La aplicación hace que sea más fácil para cualquiera crear deepfakes peligrosos, difundir información errónea y desdibujar la línea entre lo que es real y lo que no lo es. Las figuras públicas y las celebridades son especialmente vulnerables a estos deepfakes, y sindicatos como SAG-AFTRA ha presionado a OpenAI para fortalecer sus barreras de seguridad.
Identificar contenido de IA es un desafío continuo para las empresas de tecnología, las plataformas de redes sociales y todos los demás. Pero no es totalmente inútil. Aquí hay algunas cosas a tener en cuenta para determinar si un video se realizó con Sora.
Busque la marca de agua de Sora.
Cada vídeo realizado en la aplicación Sora para iOS incluye una marca de agua cuando lo descargas. Es el logo blanco de Sora, un ícono de nube, que rebota en los bordes del video. Es similar a la forma en que los videos de TikTok tienen marcas de agua.
El contenido con marcas de agua es una de las formas más importantes en que las empresas de inteligencia artificial pueden ayudarnos visualmente a detectar contenido generado por inteligencia artificial. El modelo Gemini “nano banana” de Google, por ejemplo, pone marcas de agua automáticamente en sus imágenes. Las marcas de agua son excelentes porque sirven como una señal clara de que el contenido se creó con la ayuda de IA.
Pero las marcas de agua no son perfectas. Por un lado, si la marca de agua es estática (no se mueve), se puede recortar fácilmente. Incluso para marcas de agua en movimiento como las de Sora, existen aplicaciones diseñadas específicamente para eliminarlas, por lo que no se puede confiar plenamente en las marcas de agua por sí solas. Cuando se le preguntó al CEO de OpenAI, Sam Altman, sobre esto, respondió dicho La sociedad tendrá que adaptarse a un mundo donde cualquiera puede crear vídeos falsos de cualquier persona. Por supuesto, antes de Sora de OpenAI, no existía una forma popular, de fácil acceso y que no requiriera habilidades para hacer esos videos. Pero su argumento plantea un punto válido sobre la necesidad de confiar en otros métodos para verificar la autenticidad.
Comprueba los metadatos
Lo sé, probablemente estés pensando que no hay forma de verificar los metadatos de un video para determinar si es real. Entiendo de dónde vienes; es un paso adicional y es posible que no sepa por dónde empezar. Pero es una excelente manera de determinar si un video se hizo con Sora y es más fácil de hacer de lo que cree.
Los metadatos son una colección de información que se adjunta automáticamente a un contenido cuando se crea. Le brinda más información sobre cómo se creó una imagen o un video. Puede incluir el tipo de cámara utilizada para tomar una foto, la ubicación, la fecha y hora en que se capturó el video y el nombre del archivo. Cada foto y video tiene metadatos, sin importar si fueron creados por humanos o por IA. Y una gran cantidad de contenido creado por IA tendrá credenciales de contenido que también denotan sus orígenes de IA.
OpenAI es parte de la Coalición para la procedencia y autenticidad del contenido, lo que, para usted, significa que los videos de Sora incluir Metadatos C2PA. Puedes usar el Herramienta de verificación de Content Authenticity Initiative para comprobar los metadatos de un vídeo, imagen o documento. Así es como. (La Iniciativa de Autenticidad de Contenido es parte de C2PA).
Cómo comprobar los metadatos de una foto, vídeo o documento:
1. Navegue a esta URL: https://verify.contentauthenticity.org/
2. Sube el archivo que deseas verificar.
3. Haga clic en Abrir.
4. Consulta la información en el panel del lado derecho. Si está generado por IA, debe incluirlo en la sección de resumen de contenido.
Cuando ejecuta un video de Sora a través de esta herramienta, dirá que el video fue “emitido por OpenAI” e incluirá el hecho de que está generado por IA. Todos los videos de Sora deben contener estas credenciales que le permitan confirmar que fueron creados con Sora.
Esta herramienta, como todos los detectores de IA, no es perfecta. Hay muchas formas en que los vídeos de IA pueden evitar la detección. Si tiene otros videos que no son de Sora, es posible que no contengan las señales necesarias en los metadatos para que la herramienta determine si fueron creados por IA o no. Los videos de IA hechos con Midjourney, por ejemplo, no se marcan, como confirmé en mis pruebas. Incluso si el video fue creado por Sora, pero luego se ejecuta a través de una aplicación de terceros (como una de eliminación de marcas de agua) y se vuelve a descargar, eso hace que sea menos probable que la herramienta lo marque como IA.
La herramienta de verificación de la Iniciativa de Autenticidad de Contenido marcó correctamente que un video que hice con Sora fue generado por IA, junto con la fecha y hora en que lo creé.
Busque otras etiquetas de IA e incluya la suya propia
Si estás en una de las plataformas de redes sociales de Meta, como Instagram o Facebook, es posible que recibas un poco de ayuda para determinar si algo es IA. meta tiene sistemas internos en su lugar para ayudar a marcar el contenido de IA y etiquetarlo como tal. Estos sistemas no son perfectos, pero puedes ver claramente la etiqueta de las publicaciones que han sido marcadas. tiktok y YouTube tienen políticas similares para etiquetar el contenido de IA.
La única forma verdaderamente confiable de saber si algo es generado por IA es si el creador lo revela. Muchas plataformas de redes sociales ahora ofrecen configuraciones que permiten a los usuarios etiquetar sus publicaciones como generadas por IA. Incluso un simple crédito o divulgación en el título puede ser de gran ayuda para ayudar a todos a comprender cómo se creó algo.
Mientras navegas por Sora, sabes que nada es real. Pero una vez que sales de la aplicación y compartes videos generados por IA, es nuestra responsabilidad colectiva revelar cómo se creó un video. A medida que los modelos de IA como Sora continúan desdibujando la línea entre la realidad y la IA, nos corresponde a todos dejar lo más claro posible cuándo algo es real o IA.
Lo más importante es permanecer alerta
No existe un método infalible para saber con precisión de un solo vistazo si un vídeo es real o IA. Lo mejor que puede hacer para evitar ser engañado es no creer de forma automática e incuestionable todo lo que ve en línea. Sigue tu instinto: si algo te parece irreal, probablemente lo sea. En estos tiempos sin precedentes y llenos de IA, su mejor defensa es inspeccionar los videos que está viendo más de cerca. No mires y te desplaces rápidamente sin pensar. Compruebe si hay texto distorsionado, objetos que desaparecen y movimientos que desafían la física. Y no te castigues si te engañan de vez en cuando; Incluso los expertos se equivocan.
(Divulgación: Ziff Davis, la empresa matriz de CNET, presentó en abril una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA).





