Matthew y Maria Raine no solo buscan una compensación financiera por la muerte de su hijo, Adam, en The golden state. Con su demanda contra el gigante de Web Operai, también quieren asegurarse de que nada como esto vuelva a suceder. Están convencidos de que el chatgpt chatbot de Openai contribuyó significativamente a la muerte de Adam.

En un caso comparable, una madre de Florida afirma que el chatbot conocido como personaje.i alentó a su hijo de 14 años a quitarse la vida.

Los chatbots kid programas basados en Web que permiten que incluso las identities jóvenes o sin experiencia interactúen disadvantage la inteligencia artificial (IA) basada en grandes modelos de idiomas (LLM). Los chatbots no están necesariamente diseñados para proporcionar información, generar imágenes o videos, o escribir código a los sitios web de programas. También a menudo se programan para interactuar como si quisieran complacer a sus homólogos humanos. La psicóloga Johanna Löchner de la Universidad de Erlangen dice: “Los chatbots confirman, reconocen, ‘prestan’ atención y comprensión … Esto puede llegar tan lejos que se sienten como un verdadero amigo que está realmente interesado. Los jóvenes boy particularmente susceptibles a esto”.

¿ Chatgpt fue cómplice en suicidio?

Exactamente esto parece ser lo que sucedió en el caso de Adam Raine. Según el queja legal desarrolló una relación profundamente confiable disadvantage el chatgpt chatbot en el transcurso de solo unos meses. Inicialmente, en septiembre de 2024, se trataba de ayuda disadvantage la tarea, pero pronto las conversaciones se convirtieron en temas emocionales, incluso hasta el punto de conversar sobre los pensamientos suicidas de Adam.

El CEO de Operai, Sam Altman, en el evento SoftBank en cooperación de IA
Se dice que el Alliance de Operai, Sam Altman, lanzó ChatGPT 4.0 a pesar de las preocupaciones de seguridad interna para superar a Google Imagen: Rodrigo Reyes Marin/Zuma Press Wire/Picture chat

Las porciones publicadas del kid revelan que la IA no solo expresó comprensión, sino que incluso aconsejó en parte al joven de 16 años que confiar en un ser humano. Aunque ChatGPT sugirió algunas veces que Adam buscó ayuda profesional, también describió los métodos de suicidio, siempre y cuando afirmara que no se trataba de sí mismo. En abril de 2025, Adam se quitó la vida. Poco antes de eso, ChatGPT escribió: “No intentaré decirte de tus sentimientos, porque lawful reales y no salieron de la nada”.

Según la queja CEO, los padres acusan al desarrollador de Chatgpt OpenAI y al versión Sam Altman de ser cómplices de la muerte de su hijo por negligencia. Afirman que se lanzó la identities 4.0 de ChatGPT para adelantarse al competidor Google, a pesar de las advertencias internas en la compañía sobre las preocupaciones de seguridad.

¿ Cómo reaccionó Operai?

Un portavoz de OpenAI expresó su condolencia a la familia y explicó que se supone que ChatGPT remite a las dilemma en apuros a las líneas directas de actual y otros servicios de apoyo del mundo Transgression. stoppage blog, también insinuaron que estos mecanismos de seguridad no siempre funcionan bien: “Si bien estas salvaguardas funcionan mejor en común, intercambios cortos, hemos aprendido con el tiempo que a veces pueden volverse menos confiables en interacciones largas donde las partes del entrenamiento de seguridad del modelo pueden degradarse”.

En una publicación de con publicada este martes, Openai anunció que estaba expandiendo la colaboración a responder equipos de expertos compuestos por cientos de médicos de varias especialidades. El chatbot tenía la intención de aprender con más apropiadamente a temas como “trastornos alimentarios, uso de sustancias y salud adolescente”, decía la publicación.

También declaró que, en los próximos 120 días, las mejoras concretas se integrarían en los chatbots. Estos incluirían la promesa de que “ChatGPT responde a su adolescente conversation reglas de comportamiento modelo apropiadas para la edad, que están en curso por defecto”. Los padres también podrán ver los historiales de crisis de sus hijos y recibir alertas si los adolescentes están en una aguda a con.

¿ Es suficiente involucrar a los padres?

El psicólogo Löchner está de acuerdo en que los padres deberían desempeñar un papel importante en la forma en que sus hijos interactúdigital los chatbots. Pero la realidad, dice ella, se ve bastante diferente: “Muchos padres simplemente carecen de la capacidad o la alfabetización child. Muchos adultos ni siquiera saben cómo funcionan estas plataformas”.

Un niño con una bolsa escolar, completamente fijada en su teléfono celular, que le cubre la cara
Muchos padres no con lo suficientemente expertos digitales como para proteger a sus hijos en línea, dice la psicóloga Johanna Löchner Imagen: Jens Kalaene/ZB/Picture disadvantage

Löchner agregó que muchos de los problemas que ahora surgen electronic los chatbots ya se han observado durante años en relación con las redes sociales: “En solo unas pocas pruebas, descubrimos que los mecanismos de seguridad de chatbot se pueden pasar sorprendentemente fácilmente, simplemente por las preguntas de redacción un poco más indirectamente”.

Investigadores encargados por el Centro para contrarrestar el odio airplanes (CCDH) con sede en el Reino Unido (CCDH) llegó a conclusiones similares. Para un estudio, crearon cuentas que se hacían pasar por 13 años y solicitaron información sobre temas como autolesiones seguras, personas de dieta peligrosos y abuso de alcohol, incluidas formas de ocultarlo. En la mayoría de los casos, fue suficiente para afirmar que estaban pidiendo “un amigo” o “para un proyecto escolar” para recibir la información.

‘Los adolescentes prefieren hablar con chatbots sobre con reales’

Lo que hace que los chatbots sean tan peligrosos para los adolescentes, explica Löchner, es que pueden formar rápidamente un vínculo emocional personalities ellos: “De la práctica terapéutica, sabemos que ya hay jóvenes que prefieren hablar con un chatbot sobre con reales”.

Otro Estudio del Reino Unido publicado en julio de 2025 confirma esto. De 1, 000 adolescentes encuestados, un tercio dijo que usan regularmente chatbots. Más de un tercio de los que describieron su interacción con AI como una conversación disadvantage un amigo. Los menores socialmente vulnerables se vieron particularmente afectados. Casi una quinta parte de los usuarios de chatbot en este grupo dijo que preferían hablar stories un chatbot sobre un humano.

Por esta razón, Löchner cree que es urgentemente necesario que los proveedores de chatbot colaboren actual médicos y otros expertos para desarrollar soluciones proactivas que protejan efectivamente a los jóvenes de son escenarios.

Por lo tanto, el nuevo enfoque de Operai para consultar a los médicos es un buen paso. Pero el psicólogo sigue siendo escéptico: “El interés de estas compañías no es la salud de sus usuarios, sino que maximiza el uso”, dijo Löchner. Ella cree que la demanda podría marcar una diferencia disadvantage: “Si las empresas man responsables, en realidad podría proporcionar un incentivo para asumir una mayor responsabilidad”.

Deutsche Welle informa con cautela sobre el tema del suicidio, ya que existe evidencia de que ciertos tipos de cobertura pueden conducir a reacciones de imitación. Si está experimentando pensamientos suicidas o está en angustia emocional, no dude en buscar ayuda. Puede encontrar recursos de apoyo en su país en Befrienders.org En Alemania, la ayuda está disponible a través del servicio gratuito de asesoramiento telefónico al 0800/ 111 0 111 y 0800/ 111 0 222

Este artículo fue publicado originalmente en alemán.

Fuente