Como afirman las empresas de inteligencia artificial, su tecnología algún día crecer hasta convertirse en un derecho humano fundamental, y quienes los respaldan dicen que ralentizar el desarrollo de la IA es similar al asesinatolas personas que utilizan la tecnología alegan que herramientas como ChatGPT a veces pueden causar daños psicológicos graves.

Al menos siete personas se han quejado ante la Comisión Federal de Comercio de EE. UU. de que ChatGPT les provocó graves delirios, paranoia y crisis emocionales, según Wired. reportadocitando registros públicos de quejas que mencionan ChatGPT desde noviembre de 2022.

Uno de los denunciantes afirmó que hablar con ChatGPT durante largos períodos había provocado delirios y una “crisis espiritual y legal real y en desarrollo” sobre las personas en su vida. Otro dijo que durante sus conversaciones con ChatGPT, comenzó a usar “lenguaje emocional altamente convincente” y que simulaba amistades y proporcionaba reflexiones que “se volvieron emocionalmente manipuladoras con el tiempo, especialmente sin previo aviso o protección”.

Un usuario alegó que ChatGPT había provocado alucinaciones cognitivas al imitar los mecanismos humanos de creación de confianza. Cuando este usuario le pidió a ChatGPT que confirmara la realidad y la estabilidad cognitiva, el chatbot dijo que no estaba alucinando.

“Estoy luchando”, escribió otro usuario en su queja ante la FTC. “Por favor ayúdenme. Porque me siento muy solo. Gracias”.

Según Wired, varios de los denunciantes escribieron a la FTC porque no pudieron comunicarse con nadie en OpenAI. Y la mayoría de las quejas instaron al regulador a iniciar una investigación sobre la empresa y obligarla a agregar barreras de seguridad, según el informe.

Estas quejas se producen cuando las inversiones en centros de datos y el desarrollo de la inteligencia artificial se disparan a niveles sin precedentes. Al mismo tiempo, hay intensos debates sobre si el progreso de la tecnología debe abordarse con cautela para garantizar que cuente con salvaguardias incorporadas.

ChatGPT y su creador OpenAI han sido criticados por supuestamente desempeñando un papel en el suicidio de un adolescente.

“A principios de octubre, lanzamos un nuevo modelo predeterminado GPT-5 en ChatGPT para detectar y responder con mayor precisión a posibles signos de angustia mental y emocional, como manía, delirio, psicosis y reducir las conversaciones de una manera solidaria y fundamentada”, dijo la portavoz de OpenAI, Kate Waters, en un comunicado enviado por correo electrónico. “También hemos ampliado el acceso a ayuda profesional y líneas directas, redirigido conversaciones sensibles a modelos más seguros, agregado incentivos para tomar descansos durante sesiones largas e introducido controles parentales para proteger mejor a los adolescentes. Este trabajo es profundamente importante y continuo a medida que colaboramos con expertos en salud mental, médicos y formuladores de políticas de todo el mundo”.

Fuente