Jessica Guistolise, Megan Hurley y Molly Kelley hablan con CNBC en Minneapolis, Minnesota, el 11 de julio de 2025, sobre imágenes pornográficas falsas y videos que representan sus rostros hechos por su amigo mutuo Ben usando el sitio de IA Deepswap.
Jordan Wyatt | CNBC
En el verano de 2024, un grupo de mujeres en el área de Minneapolis aprendió que un amigo masculino usaba sus fotos de Facebook mezcladas con inteligencia artificial para crear imágenes y videos sexualizados.
Utilizando un sitio de IA llamado DeepSwap, el hombre creó en secreto los profundos de los amigos y más de 80 mujeres en la región de las Ciudades Gemelas. El descubrimiento creó un trauma emocional y llevó al grupo a buscar la ayuda de un senador estatal comprensivo.
Como muestra una investigación de CNBC, el aumento de las aplicaciones y sitios “Nudify” ha hecho que sea más fácil que nunca para las personas crear profundos profundos no consensuales y explícitos. Los expertos dijeron que estos servicios están en todo Internet, y muchos se promocionan a través de anuncios de Facebook, disponibles para descargar en las tiendas de aplicaciones Apple y Google y se acceden fácilmente utilizando búsquedas web simples.
“Esa es la realidad de dónde está la tecnología en este momento, y eso significa que cualquier persona realmente puede ser víctima”, dijo Haley McNamara, vicepresidenta senior de iniciativas estratégicas y programas en el Centro Nacional de Explotación Sexual.
Los informes de CNBC brindan una luz sobre el atolladero legal que rodea la IA, y cómo un grupo de amigos se convirtió en figuras clave en la lucha contra el porno no consensual generado por IA.
Aquí hay cinco conclusiones de la investigación.
Las mujeres carecen de recurso legal
Debido a que las mujeres no eran menores de edad y el hombre que creó los profundos nunca distribuyó el contenido, no hubo crimen aparente.
“No infringió ninguna ley que conozcamos”, dijo Molly Kelley, una de las víctimas de Minnesota y un estudiante de derecho. “Y eso es problemático”.
Ahora, Kelley y las mujeres abogan por un proyecto de ley local en su estado, propuesto por el senador estatal demócrata Erin Maye Quade, destinado a bloquear los servicios de Nudify en Minnesota. Si el proyecto de ley se convirtió en ley, imponería multas a las entidades que permiten la creación de los defectos.
Maye Quade dijo que el proyecto de ley recuerda a las leyes que prohíben que los asuntos en Windows tomen fotos explícitas sin consentimiento.
“Simplemente no hemos lidiado con el surgimiento de la tecnología de IA de la misma manera”, dijo Maye Quade en una entrevista con CNBC, refiriéndose a la velocidad del desarrollo de la IA.
El daño es real
Jessica Guistolise, una de las víctimas de Minnesota, dijo que continúa sufriendo de pánico y ansiedad derivados del incidente el año pasado.
A veces, dijo, un simple clic de un obturador de la cámara puede hacer que pierda el aliento y comience a temblarse, sus ojos se hinchan con lágrimas. Eso es lo que sucedió en una conferencia a la que asistió un mes después de aprender primero sobre las imágenes.
“Escuché esa cámara hacer clic, y estaba literalmente en los rincones más oscuros de Internet”, dijo Guistolise. “Porque me he visto haciendo cosas que no son yo haciendo cosas”.
Mary Anne Franks, profesora de la Facultad de Derecho de la Universidad de George Washington, comparó la experiencia con los sentimientos que las víctimas describen cuando hablan sobre el llamado porno de venganza, o la publicación de las fotos y videos sexuales de una persona en línea, a menudo por una antigua pareja romántica.
“Te hace sentir que no eres dueño de tu propio cuerpo, que nunca podrás recuperar tu propia identidad”, dijo Franks, quien también es presidente de la Iniciativa de Derechos Civiles Cibernéticos, una organización sin fines de lucro dedicada a combatir el abuso y la discriminación en línea.
Los defectos profundos son más fáciles de crear que nunca
Hace menos de una década, una persona necesitaría ser un experto en IA para hacer profundos explícitos. Gracias a los servicios de nudifier, todo lo que se requiere es una conexión a Internet y una foto de Facebook.
Los investigadores dijeron que los nuevos modelos de IA han ayudado a marcar una ola de servicios de Nudify. Los modelos a menudo se incluyen en aplicaciones fáciles de usar, para que las personas que carecen de habilidades técnicas puedan crear el contenido.
Y aunque los servicios de Nudify pueden contener renuncias de responsabilidad para obtener el consentimiento, no está claro si existe algún mecanismo de aplicación. Además, muchos sitios de Nudify se comercializan simplemente como las llamadas herramientas de intercambio de caras.
“Hay aplicaciones que se presentan como juguetones y en realidad se entienden principalmente como pornográfico en un propósito”, dijo Alexios Mantzarlis, un experto en seguridad de IA en Cornell Tech. “Esa es otra arruga en este espacio”.
Nudify Service DeepSwap es difícil de encontrar
El sitio que se utilizó para crear el contenido se llama DeepSwap, y no hay mucha información al respecto en línea.
En presione soltar Publicado en julio, DeepSwap utilizó una Dateline de Hong Kong e incluyó una cita de Penyne Wu, quien fue identificada en el comunicado como CEO y cofundador. El contacto de los medios en el comunicado fue Shawn Banks, quien figuraba como gerente de marketing.
CNBC no pudo encontrar información en línea sobre WU y envió múltiples correos electrónicos a la dirección proporcionada para los bancos, pero no recibió respuesta.
El sitio web de DeepSwap actualmente enumera “Mindspark Ai Limited” como nombre de su empresa, proporciona una dirección en Dublín y afirma que sus Términos de servicio “se rigen e interpretan de acuerdo con las leyes de Irlanda”.
Sin embargo, en julio, la misma página de DeepSwap no mencionó a Mindspark, y las referencias a Irlanda, en su lugar, dijeron Hong Kong.
Daño colateral de AI
El proyecto de ley de Maye Quade, que todavía se está considerando, sería una excelente tecnología que ofrece servicios Nudify $ 500,000 por cada defake profundo explícito y no consensuado que generan en el estado de Minnesota.
Sin embargo, a algunos expertos les preocupa que los planes de la administración Trump para reforzar el sector de la IA socavarán los esfuerzos de los estados.
A fines de julio, Trump firmó órdenes ejecutivas como parte de la Casa Blanca Plan de acción de AIsubrayando el desarrollo de la IA como un “imperativo de seguridad nacional”.
Kelley espera que cualquier impulso federal de IA no ponga en peligro los esfuerzos de las mujeres de Minnesota.
“Me preocupa que continuaremos siendo dejados atrás y sacrificados en el altar de tratar de tener una carrera geopolítica por la poderosa IA”, dijo Kelley.
MIRAR: El aumento alarmante de las aplicaciones AI ‘Nudify’ que crean imágenes explícitas de personas reales.