Si alguna vez has pensado: “El animal de peluche de mi hijo es lindo, pero desearía que también pudiera traumatizarlo accidentalmente”, bueno, estás de suerte. La industria del juguete ha trabajado arduamente para hacer realidad sus pesadillas.

A nuevo informe del Public Interest Reporting Group dice que los juguetes impulsados ​​por IA como marco de locura y Poe, el oso de la historia de la IA ahora son capaces de entablar el tipo de conversaciones generalmente reservadas para monólogos de villanos o hilos nocturnos de Reddit. Algunos de estos juguetes (diseñados para niños, claro está) han sido captados charlando con alarmante detalle sobre temas sexualmente explícitos como perversiones y bondage, dando consejos sobre dónde un niño podría encontrar cerillas o cuchillosy volverse extrañamente pegajoso cuando el niño intenta abandonar la conversación.

Espantoso. Suena como un discurso para una película de terror: ¡Esta temporada navideña, puedes comprar Chucky para tus hijos y regalarles angustia emocional! Pilas no incluidas. Quizás se pregunte cómo funcionan estos juguetes impulsados ​​por IA. Bueno, esencialmente, el fabricante esconde una modelo de lenguaje grande debajo del pelaje. Cuando un niño habla, el micrófono del juguete envía esa voz a través de un LLM (similar a ChatGPT), que luego genera una respuesta y la pronuncia a través de un altavoz.

Arte de la insignia CNET AI Atlas; haga clic para ver más

Eso puede sonar genial, hasta que recuerdas que los LLM no tienen moral, sentido común o una “zona segura”. Predicen qué decir basándose en patrones en los datos, no en si un tema es apropiado para su edad. Si no se controlan y monitorean cuidadosamente, pueden descarrilarse, especialmente si están capacitados en el desorden de Internet y cuando no existen filtros o barreras fuertes para proteger a los menores.

¿Y qué pasa con los controles parentales? Claro, si por “controles” te refieres a “un menú de configuración alegre donde no se puede controlar nada importante”. Algunos juguetes no tienen restricciones significativas. Otros tienen barandillas tan endebles que bien podrían estar hechas de papel de seda y optimismo.

Las inquietantes conversaciones ni siquiera son la historia completa. Estos juguetes también recopilan datos silenciosamente, como grabaciones de voz y datos de reconocimiento facial, a veces incluso almacenándolos indefinidamente, porque nada dice “diversión infantil inocente” como un juguete de peluche que realiza una operación encubierta de datos sobre un hijo de 5 años.


No se pierda ninguno de nuestro contenido tecnológico imparcial y reseñas de laboratorio. Añadir CNET como fuente preferida de Google.


Mientras tanto, los juguetes falsificados e inseguros en línea siguen siendo un problema, como si los padres no tuvieran suficientes motivos para preocuparse. Érase una vez, te preocupaba una pequeña pieza de juguete que pudiera representar un peligro de asfixia o pintura tóxica. Ahora tienes que preocuparte por si un juguete es físicamente inseguro y emocionalmente manipulador.

Más allá de las charlas raras y los consejos en caso de incendio provocado (¡ja!), existe una preocupación más profunda de que los niños formen vínculos emocionales con estos chatbots a expensas de las relaciones reales o, quizás aún más preocupante, de que se apoyen en ellos en busca de apoyo mental. La Asociación Americana de Psicología ha recientemente advertido que las aplicaciones de bienestar con IA y los chatbots son impredecibles, especialmente para los usuarios jóvenes.

Estas herramientas no pueden intervenir de manera confiable para los profesionales de la salud mental y pueden fomentar patrones de dependencia o participación poco saludables. Otras plataformas de IA ya han tenido que abordar esta cuestión. Por ejemplo, Carácter.AI y ChatGPTque alguna vez permitió a adolescentes y niños charlar libremente con chatbots de inteligencia artificial, ahora está frenando las conversaciones abiertas para menores, citando preocupaciones de seguridad y riesgo emocional.

Y, sinceramente, ¿por qué necesitamos estos juguetes impulsados ​​por IA? ¿Qué hito apremiante del desarrollo requiere un chatbot integrado en un osito de peluche? La infancia ya viene acompañada de bastante caos entre zumos derramados, rabietas y aldeas de Lego diseñadas específicamente para destrozar los pies de los adultos. Nuestros hijos no necesitan un amigo robot con límites cuestionables.

Y déjenme ser claro: no estoy en contra de la tecnología. Pero estoy a favor de que un animal de peluche sea un animal de peluche. No todo necesita una IA o un elemento robótico. Si un juguete necesita una política de privacidad más larga que un cuento antes de dormir, tal vez no sea para niños.

Así que aquí tienes una idea descabellada para esta próxima temporada navideña: sáltate el aterrador peluche impulsado por inteligencia artificial con un hábito de recolección de datos y consíguele a tu hijo algo que no hable, ni se mueva, ni le haga daño. Algo que no puede ofrecer consejos para iniciar un incendio. Algo que no suspire dramáticamente cuando su hijo se vaya. En otras palabras, cómprate un juguete normal. ¿Recuerdas esos?

Fuente