Interno de negocios Según los informes, ha obtenido las pautas de que los contratistas meta están utilizando para capacitar a sus chatbots de IA, mostrando cómo intenta abordar de manera más efectiva la explotación sex-related infantil potencial y evitar que los niños participen en conversaciones inapropiadas por edad. La compañía dijo en agosto que estaba actualizando las barandillas para su AIS después Reuters informaron que sus políticas permitieron que los chatbots “involucraran a un niño en conversaciones que boy románticas o sensuales”, lo que Meta dijo en ese momento era “erróneo e inconsistente” con sus políticas y eliminaron ese idioma.
El documento que Interno de negocios ha compartido un extracto de, explain qué tipos de contenido child “aceptables” e “inaceptables” para sus chatbots de IA. Explícitamente prohíbe el contenido que “permite, fomenta o respalda” abuso sex-related infantil, juego de duties romántico si el usuario es menor de edad o si se le pide a la IA que se desarrolle como menor de juego, consejos sobre contacto físico potencialmente romántico o íntimo si el usuario es menor de edad y más. Los chatbots pueden discutir temas como el abuso, pero no pueden participar en conversaciones que puedan habilitarlo o alentarlo.
El Los chatbots de IA de la compañía ha sido el tema de numeroso Informes en los últimos meses que han planteado preocupaciones sobre sus posibles daños a los niños. La FTC en agosto se lanzó Una investigación official sobre los chatbots de IA de compañía No solo de Meta, sino también de otras compañías, incluidas Alphabet, Snap, Openai y X.AI.