Operai anunció nuevo Características de seguridad para adolescentes para ChatGPT el martes como parte de un esfuerzo continuo para responder a las preocupaciones sobre cómo los menores se involucran con los chatbots. La compañía está construyendo un sistema de predicción de edad que identifica si un usuario tiene menos de 18 años y los enruta a un “apropiado para la edad“Sistema que bloquea el contenido sexual gráfico. Si el sistema detecta que el usuario está considerando el suicidio o la autolesión, se contactará con los padres del usuario. En casos de peligro inminente, si los padres de un usuario no se pueden poner en cuenta, el sistema puede contactar a las autoridades.

En blog Sobre el anuncio, el CEO Sam Altman escribió que la compañía está intentando equilibrar la libertad, la privacidad y la seguridad para adolescentes.

“Nos damos cuenta de que estos principios están en conflicto, y no todos estarán de acuerdo con cómo estamos resolviendo ese conflicto”, escribió Altman. “Estas son decisiones difíciles, pero después de hablar con expertos, esto es lo que creemos que es mejor y queremos ser transparentes en nuestras intenciones”.

Si bien OpenAi tiende a priorizar la privacidad y la libertad para los usuarios adultos, para los adolescentes, la compañía dice que pone la seguridad primero. A finales de septiembre, la compañía lanzará los controles parentales para que los padres puedan vincular la cuenta de sus hijos con la suya, lo que les permite administrar las conversaciones y deshabilitar las características. Los padres también pueden recibir notificaciones cuando “el sistema detecta a su adolescente está en un momento de angustia aguda”, según la publicación de blog de la compañía, y establece límites en las horas del día que sus hijos pueden usar ChatGPT.

Los movimientos son tan profundamente preocupantes titulares Continúe surgiendo sobre las personas que mueren por suicidio o cometiendo violencia contra los miembros de la familia después de conversar largas conversaciones con chatbots de IA. Los legisladores se han dado cuenta, y tanto Meta como Openai están bajo escrutinio. A principios de este mes, la Comisión Federal de Comercio solicitó a Meta, OpenAi, Google y otras empresas de IA que entreguen información sobre cómo sus tecnologías impactan a los niños, Según Bloomberg.

Al mismo tiempo, Operai todavía está bajo una orden judicial que exige que preserve los chats de los consumidores indefinidamente, un hecho por el que la compañía está extremadamente descontenta, según las fuentes con las que he hablado. La noticia de hoy es un paso importante hacia la protección de los menores y un movimiento inteligente de relaciones públicas para reforzar la idea de que las conversaciones con chatbots son tan personales que la privacidad del consumidor solo debe violarse en las circunstancias más extremas.

“Un avatar de sexbot en chatgpt”

De las fuentes con las que he hablado en OpenAI, la carga de proteger a los usuarios pesa mucho en muchos investigadores. Quieren crear una experiencia de usuario que sea divertida y atractiva, pero puede desviarse rápidamente a convertirse en desastrosamente sycofántico. Es positivo que compañías como OpenAI tomen medidas para proteger a los menores. Al mismo tiempo, en ausencia de regulación federal, todavía no hay nada obligado a estas empresas a hacer lo correcto.

En reciente Entrevista, Tucker Carlson empujó a Altman a responder exactamente OMS está tomando estas decisiones que afectan al resto de nosotros. El jefe de OpenAI señaló al equipo de comportamiento del modelo, que es responsable de ajustar el modelo para ciertos atributos. “La persona que creo que debe responsabilizar a esas llamadas soy yo”, agregó Altman. “Como, soy una cara pública. Eventualmente, como, soy yo quien puede anular una de esas decisiones o nuestra junta”.

Fuente