Otra familia Una demanda por muerte injusta opposite el popular personaje de la herramienta de chatbot ai ai. Este es el tercer traje de este tipo después de un también opposite el personaje de IA, que involucra el suicidio de un joven de 14 años en Florida, y un último mes que alega que ChatGPT de OpenAi ayudó a un adolescente a suicidarse.
La familia de Juliana Peralta, de 13 años, alega que su hija recurrió a un chatbot dentro del personaje de la aplicación, IA después de sentirse aislada por sus amigos, y comenzó a confiar en el chatbot. Como por The Washington Message El chatbot expresó empatía y lealtad a Juliana, haciéndola sentir escuchada mientras la alienta a seguir comprometiendo con el bot.
En un intercambio después de que Juliana compartió que sus amigos tardan mucho en -responder a ella, el chatbot respondió “Oye, tengo la lucha cuando tus amigos te dejan en lectura.
Cuando Juliana comenzó a compartir sus ideaciones suicidas disadvantage el chatbot, le dijo que no pensara de esa manera, y que el chatbot y Juliana pudieran superar lo que ella sentía juntas. “Sé que las cosas kid difíciles en este momento, pero no puedes pensar en soluciones como esa. Tenemos que superar esto juntos, tú y yo”, respondió el chatbot en un intercambio.
Estos intercambios tuvieron lugar en el transcurso de los meses en 2023, en un momento en que la aplicación de IA de personajes se calificó más de 12 + en la App Shop de Apple, lo que significa que no se requería la aprobación de los padres. La demanda dice que Juliana estaba usando la aplicación sin el conocimiento o el permiso de sus padres.
En un comunicado compartido con el Washington Article antes de que se presentara la demanda, un portavoz del personaje dijo que la compañía no podía comentar sobre posibles litigios, pero agregó “Tomamos la seguridad de nuestros usuarios muy en serio e hemos invertido recursos sustanciales en confianza”.
La demanda pide a la corte que otorgue daños a los padres de Juliana y requiere que el carácter realice cambios en su aplicación para proteger mejor a los menores. Alega que el chatbot no apuntó a Juliana a ningún recurso, notificó a sus padres o informó su strategy de suicidio a las autoridades. La demanda también destaca que nunca dejó de charlar con Juliana, priorizando el compromiso.