Operai está dando a los padres más control sobre cómo sus hijos usan ChatGPT. Nuevos controles parentales Ven en un momento crítico, ya que muchas familias, escuelas y grupos de defensa expresan sus preocupaciones sobre el papel potencialmente peligroso que pueden jugar los chatbots de IA en el desarrollo de adolescentes y niños.
Los padres tendrán que vincular su propia cuenta de chatgpt con la de sus hijos para acceder a las nuevas características. Sin embargo, Openi dijo que estas características no les dan a los padres acceso a las conversaciones de sus hijos con ChatGPT y que, en los casos en que la compañía identifica “riesgos de seguridad graves”, un padre será alertado “solo con la información necesaria para apoyar la seguridad de su hijo adolescente”.
Es un “sistema de notificación de seguridad de su primer tipo para alertar a los padres si su hijo adolescente puede estar en riesgo de autolesión”, dijo Lauren Haber Jonas, jefe de bienestar de la juventud de OpenAi, en un Publicación de LinkedIn.
Una vez que las cuentas están vinculadas, los padres pueden establecer horarios y horarios tranquilos en que los niños no puedan usar ChatGPT, así como apagar las capacidades de generación de imágenes y modo de voz. En el lado técnico, los padres también pueden optar a sus hijos de la capacitación de contenido y elegir que ChatGPT no ahorre o recuerde los chats anteriores de sus hijos. Los padres también pueden elegir reducir el contenido sensible, lo que permite restricciones de contenido adicionales en torno a cosas como el contenido gráfico. Los adolescentes pueden desbloquear su cuenta de la de un padre, pero los padres serán notificados si eso ocurre.
La empresa matriz de ChatGPT anunció el mes pasado que presentaría más controles de los padres a raíz de una demanda que una familia de California presentó contra ella. La familia alega que el chatbot de IA es responsable de su Suicidio de un hijo de 16 años A principios de este año, llamando a Chatgpt su “entrenador de suicidio”. Un número creciente de usuarios de IA tiene sus chatbots de IA asumiendo el papel de un terapeuta o confidente. Los terapeutas y los expertos en salud mental han expresado su preocupación por esto, diciendo que la IA como el chatgpt no está capacitada para evaluar, marcar e intervenir con precisión al encontrar el lenguaje y los comportamientos de la bandera roja.
(Divulgación: Ziff Davis, la empresa matriz de CNET, en abril presentó una demanda contra OpenAi, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).
Si siente que usted o alguien que conoce está en peligro inmediato, llame al 911 (o la línea de emergencia local de su país) o vaya a una sala de emergencias para obtener ayuda inmediata. Explique que es una emergencia psiquiátrica y solicite a alguien capacitado para este tipo de situaciones. Si está luchando con pensamientos negativos o sentimientos suicidas, los recursos están disponibles para ayudar. En los Estados Unidos, llame a la línea de vida de la prevención del suicidio nacional al 988.