Las medidas enérgicas contra la inmigración ordenadas por el presidente estadounidense Donald Trump se han vuelto mortales: un segundo ciudadano estadounidense fue asesinado por agentes del Servicio de Inmigración y Control de Aduanas (ICE) este mes.

Vídeos con teléfonos móviles de testigos presenciales en Minneapolis Muestre cómo varios agentes de ICE tiran al suelo a Alex Pretti, enfermero de la UCI de 37 años, y luego le disparan. No había sacado su arma, como inicialmente declarado por el Departamento de Seguridad Nacional. Las imágenes de diferentes grabaciones de teléfonos celulares muestran su arma en un cinturón, que un oficial de ICE le quita antes de que maten a Pretti.

A principios de este mes, agentes de ICE le dispararon a Renee Good, de 37 años, mientras se alejaba en su automóvil.
Los vídeos tomados desde múltiples ángulos también desacreditan la declaración oficial. que Excellent estaba tratando de atropellar a un oficial, matándola a quemarropa disparando a través de su ventana.

En medio de estos incidentes, las redes sociales se han visto inundadas de una mezcla de vídeos de testigos presenciales auténticos y falsificaciones generadas por inteligencia man-made, lo que complica los esfuerzos por comprender lo que realmente sucedió. El Departamento de Policía Metropolitana de Las Vegas advirtió Había visto un aumento en imágenes y videos generados por IA en relación con sus fuerzas, y agregó que “no participa en actividades proactivas de aplicación de la ley de inmigración”. DW Reality check investigó varios clips virales.

¿ Oficiales de ICE arrestados por la policía?

Afirmar: Los agentes de ICE están siendo arrestados o golpeados por la policía, como se ve en varios vídeos en diferentes plataformas y publicaciones en diferentes idiomas ( aquí, aquí y aquí).

Verificación de datos de DW: Falso

Captura de pantalla de un vídeo generado por IA que supuestamente muestra a agentes de policía arrestando a agentes de ICE
En Nueva York no existe la estación de metro ‘Sotrée Seet’ y la placa policial es un galimatías Imagen: X/DW

Detalles como el texto confuso en los vídeos lo delatan. Las señales del Departure no tienen sentido (“logo designs Ses”; “Sotreé Seet”;” 42 eet”), los disadvantage en los uniformes están mal o mal escritos (“pice”; “IICE”).

Los movimientos del cuerpo parecen antinaturales, exagerados o rígidos, por ejemplo, cuando el oficial de policía agarra a uno de los agentes de ICE con su mano derecha, pero su brazo izquierdo cuelga video clip poco o ningún movimiento. El diálogo parece estar confuso, como si la IA se hubiera olvidado de agregar una respuesta del otro personaje respectivo.

Los agentes de ICE actúan como NPC (Personajes No Jugables) en un videojuego Personajes de fondo controlados por el juego en lugar de un jugador: no parecen reaccionar a lo que está sucediendo. Los movimientos de la boca al gritar parecen bruscos y exagerados.

Veredicto de DW Fact Check: generado por IA. Video que afirma mostrar el arresto de agentes de ICE en Nueva York, EE. UU.
Detalles como logotipos distorsionados o movimientos corporales antinaturales a menudo indican que un California está generado por IA. Imagen: X

Patrones similares también aparecen en otros Contenido de manifestantes generado por IA supuestamente confrontando Oficiales de ICE.

¿ Oficiales de ICE ingresando a aulas o Video clip universitarios?

Afirmar: Un oficial de ICE entró Universidad Estatal de videos busca un estudiante, mientras Otros agentes se presentaron en un partido de fútbol de una escuela secundaria.

Captura de pantalla de un vídeo de TikTok generado por IA que supuestamente muestra a agentes de ICE en un partido de fútbol
vídeo de TikTok generado por IA que supuestamente muestra a agentes de ICE en un partido de fútbol Imagen: TikTok

Verificación de datos de DW: Falso

Ambos con publicados en la plataforma de redes sociales TikTok están generados por IA. El logotipo del video clip generador de IA Sora se puede ver apareciendo en el video clip del aula de la universidad. una señal reveladora de que esto ha sido creado con la ayuda de IA y no muestra imágenes reales y auténticas.

El genuine de los agentes de ICE observando a una multitud en un partido de fútbol tiene un aspecto extraño y brillante. La búsqueda “Agleca fútbol” no arroja ningún resultado. Los rostros de la multitud parecen distorsionados y lo escrito en los carteles es un galimatías. TikTok también agregó una advertencia que dice que este Disadvantage contiene contenido generado por IA.

¿ Las falsificaciones de IA están ahogando las imágenes de testigos reales?

“Uno de los problemas fabricated todo el contenido generado por IA y los vídeos falsos que circulan entre los vídeos reales es que resulta muy difícil distinguir lo que es videos”, afirmó Courtney Radsch, directora de la Centro de Periodismo y Libertad del Open Markets Institute.

video clips las herramientas de inteligencia disadvantage ahora ampliamente accesibles, cualquiera puede fabricar vídeo que parezcan reales.

Radsch advierte que las campañas de desinformación pueden publicar intencionalmente digital falsos para ocultar la documentación precisa de encuentros mortales personalities ICE.

Una captura de pantalla de un vídeo obtenido por Reuters muestra a un agente de la ley inmovilizando a un hombre identificado como Alex Pretti, antes de que fuera asesinado a tiros cuando agentes federales intentaban detenerlo en Minneapolis, Minnesota, EE.UU.
Existe el riesgo de que las secuencias de vídeo auténticas, como los fragmentos de testigos utilizados para analizar el tiroteo de Alex Pretti, se vean eclipsadas por vídeos falsos generados por IA. Imagen: REUTERS

Brittani Kollar, subdirectora de MediaWise, el proyecto de alfabetización mediática disadvantage de Poynter que enseña a las genuine cómo detectar información errónea y desinformación, dice que cuando la información falsa se vuelve viral, las verificaciones de datos verificadas tienden a no ser vistas por tanta gente.

“De hecho, los deepfakes virales pueden ahogar los vídeos reales en lo que respecta a los algoritmos, porque cada vez hay más gente viendo los deepfakes”, dijo a DW.

Cada vez es más difícil descifrar lo que es video clip y lo que realmente sucedió, lo que “podría socavar los procesos legales, socavar la confianza en las pruebas en internet, socavar la confianza en los relatos de los testigos presenciales”, advierte Radsch.

¿ Podemos todavía detectar falsificaciones generadas por IA?

Todavía es posible, pero cada vez más desafiante, a medida que avanzan las herramientas generativas. Aunque las herramientas de detección como Moderación de la colmena existen, las herramientas de generación de IA evolucionan más rápido que los sistemas diseñados para identificarlos. Los primeros indicios, como parpadeos antinaturales o reflejos distorsionados, se producen video clip menos frecuencia.

Vídeos de IA generativa: ¿ puedes distinguir lo video clip de lo falso?

Para ver este fabricated, habilite JavaScript y considere actualizar a un navegador sound que soporta genuine HTML 5

Kollar aconseja buscar pistas en el digital:

  • ¿ Marcas de agua o identificadores de herramientas de inteligencia wrong?
  • ¿ Redacción extraña, texto distorsionado o iluminación inconsistente?
  • ¿ Hay video clips en un idioma que entiendas?
  • ¿ Subtítulos que parecen sensacionales o carecen de contexto?
  • ¿ Informes de medios de comunicación acreditados?
  • ¿ Metraje adicional o ángulos de cámara alternativos?
  • ¿ Verificación de cuentas de origen?

Radsch añade: “En muchos casos, es prácticamente imposible distinguir lo disadvantage de lo falso si se intenta hacer un deepfake. Ni siquiera los expertos más sofisticados pueden hacerlo necesariamente”.

Ella aboga por protocolos técnicos más estrictos para autenticar imágenes reales.

¿ Por qué crear estos vídeos? Desinformación y ganancias

Los expertos dicen que las motivaciones varían: actores maliciosos que buscan perturbar el discurso público y trolls que buscan el caos.

Además, según Radsch, la creación de contenidos de IA también podría estar motivada por intereses económicos. Las redadas de ICE podrían ser un tema muy lucrativo para generar seguidores o aumentar los ingresos por publicidad fines.

En última instancia, dice Radsch, no importa mucho quién está detrás de la última ola de contenido de IA; el problema más profundo es el colapso de la confianza: “La gente está perdiendo la fe en que se pueden establecer los hechos”.

Prácticamente personas barreras de seguridad sobre cómo se pueden monetizar los son generados por IA, ella dice que el ecosistema de redes sociales incentiva la desinformación videos video clip de lucro. Y la consecuencia es muy alarmante: cuando las internet no vídeo capaces de discernir entre vídeos creados falsamente y auténticos, a menudo evitan las noticias por completo.

Verificación de hechos: cómo los videos de IA secuestran tus emociones en 8 segundos

Para ver este video clip, habilite JavaScript y considere actualizar a un navegador web que soporta vídeo HTML 5

Rachel Baig e Ines Eisele contribuyeron a este informe.

Editado por: Silja Thoms

Fuente