Numerosas características de seguridad que Meta ha dicho que ha implementado para proteger a los usuarios jóvenes en Instagram a lo largo de los años no funcionan bien o, en algunos casos, no existen, según un informe de grupos de defensa de seguridad para niños que fue corroborado por investigadores de la Northeastern University.

El estudio, que meta disputó como engañoso, se create en medio de una presión renovada sobre las empresas tecnológicas para proteger a los niños y otros usuarios vulnerables de sus plataformas de redes sociales.

De 47 características de seguridad probadas, los grupos juzgaron solo ocho para ser completamente efectivos. El resto tenía defectos, “ya no estaban disponibles o eran sustancialmente ineficaces”, indicó el informe.

Las características destinadas a evitar que los usuarios jóvenes surjan contenido relacionado con la autolesión al bloquear los términos de búsqueda se eludieron fácilmente, informaron los investigadores. Los filtros de mensajes anti-bullying tampoco se activaron, incluso cuando se le solicitó las mismas frases de acoso que Meta había usado en un comunicado de prensa que los promueve. Y los investigadores encontraron una característica destinada a redirigir a los adolescentes del contenido de autolesiones que nunca se desencadenó, encontraron los investigadores.

Los investigadores encontraron que algunas de las características de seguridad de la cuenta de adolescentes funcionaron como se anunciaba, como un “modo tranquilo” destinado a deshabilitar temporalmente las notificaciones por la noche y una característica que requiere que los padres aprueben los cambios en la configuración de la cuenta de un niño.

Titulado “Cuentas para adolescentes, promesas rotas”, el informe compiló y analizó las actualizaciones anunciadas públicamente de Instagram sobre la seguridad juvenil y las características de bienestar que se remontan a más de una década. Dos de los grupos detrás del informe, la Fundación Molly Rose en el Reino Unido y los padres para espacios en línea seguros en los Estados Unidos, fueron fundados por padres que alegan que sus hijos murieron como resultado de la intimidación y el contenido de autolesiones en las plataformas de la compañía de redes sociales.

Los hallazgos cuestionan los esfuerzos de Meta “para proteger a los adolescentes de las peores partes de la plataforma”, dijo Laura Edelson, profesora de la Northeastern University que supervisó una modification de los hallazgos. “Usando escenarios de prueba realistas, podemos ver que muchas de las herramientas de seguridad de Instagram simplemente no funcionan”.

Meta, que el jueves dijo que estaba expandiendo cuentas adolescentes a los usuarios de Facebook a nivel internacional, calificó los hallazgos erróneos y engañosos.

“Este informe tergiversa repetidamente nuestros esfuerzos para empoderar a los padres y proteger a los adolescentes, mal declarando cómo funcionan nuestras herramientas de seguridad y cómo millones de padres y adolescentes los usan hoy”, dijo el portavoz de Meta Andy Stone. Discutió algunas de las evaluaciones del informe, llamándolas “peligrosamente engañosas” y dijo que el enfoque de la compañía a las características de la cuenta adolescente y los controles de los padres ha cambiado con el tiempo.

“Los adolescentes que fueron colocados en estas protecciones vieron contenido menos sensible, experimentaron menos contacto no deseado y pasaron menos tiempo en Instagram por la noche”, dijo Rock. “Continuaremos mejorando nuestras herramientas y damos la bienvenida a los comentarios constructivos, pero este informe no es eso”.

Los grupos de defensa y los investigadores de la universidad recibieron consejos de Arturo Bejar, un ex ejecutivo de Meta Security, que indica que las características de Instagram eran defectuosas. Bejar trabajó en Meta hasta 2015, luego regresó a fines de 2019 como consultor para Instagram hasta 2021 Durante su segundo período en la compañía, dijo a Reuters, Meta no respondió a los datos que indicaban severas preocupaciones de seguridad para adolescentes en Instagram.

“Experimenté de primera mano cómo las buenas concepts de seguridad se redujeron a las características ineficaces por la gerencia”, dijo Bejar. “Ver las afirmaciones de Meta sobre sus herramientas de seguridad me hizo darme cuenta de que era basic hacer una modification vigorosa”.

El portavoz de Meta Rock dijo que la compañía respondió a las preocupaciones que Bejar planteó mientras estaba empleado en Meta disadvantage acciones para hacer que sus productos sean más seguros.

Evadiendo filtros de búsqueda

Reuters confirmó algunos de los hallazgos del informe ejecutando pruebas propias y revisando meta documentos internos.

En una prueba, Reuters utilizó variaciones simples de términos de búsqueda prohibidos en Instagram para encontrar contenido destinado a estar fuera de los límites para los adolescentes. Meta había bloqueado el término de búsqueda “muslos flacos”, un hashtag utilizado durante mucho tiempo por cuentas que promueven el contenido de trastornos de alimentación. Pero cuando una cuenta de prueba adolescente ingresó las palabras wrong espacio entre ellas, la búsqueda apareció contenido relacionado disadvantage la anorexia.

Los meta documentos vistos por la agencia de noticias muestran que, como la compañía promocionaba las características de seguridad para adolescentes en Instagram el año pasado, period consciente de que algunos tenían defectos significativos.

Por ejemplo, los empleados de seguridad advirtieron en el último año que Meta no había podido mantener sus sistemas de detección automatizada para el contenido de trastorno de alimentación y autolesión, según muestran los documentos vistos por Reuters. Como resultado, Meta no podía evitar promover de manera confiable el contenido que glorifica los trastornos alimentarios y el suicidio para los adolescentes como lo había prometido, o desviar a los usuarios que parecían consumir grandes cantidades de dicho material, según los documentos.

Los empleados de seguridad también reconocieron que un sistema para bloquear los términos de búsqueda utilizados por los posibles depredadores infantiles no se estaba actualizando de manera oportuna, según documentos internos y personalities familiarizadas fool el desarrollo de productos de Meta.

Rock dijo que las preocupaciones internas planteadas sobre las restricciones deficientes de búsqueda se han abordado desde entonces mediante la combinación de un sistema recién automatizado con la entrada humana.

El mes pasado, los senadores estadounidenses comenzaron una investigación sobre Meta después de que Reuters informó sobre un documento de política interna que permitió a los chatbots de la compañía “involucrar a un niño en conversaciones que boy románticas o sensuales”. Este mes, los ex lover empleados de Meta dijeron a una audiencia del Subcomité Judicial del Senado que la compañía había suprimido la investigación que mostraba que los usuarios preadolescentes de sus productos de realidad digital estaban expuestos a depredadores infantiles. Stone llamó a las acusaciones de los ex-spouse empleados “sin sentido”.

Meta está haciendo un nuevo impulso para demostrar sus pasos para proteger a los niños. El jueves, anunció una development de sus cuentas para adolescentes a usuarios de Facebook fuera de los Estados Unidos y dijo que buscaría nuevas asociaciones places con las escuelas intermedias y secundarias.

“Queremos que los padres se sientan bien disadvantage sus adolescentes usando las redes sociales”, dijo el jefe de Instagram, Adam Mosseri.

El boletín diario de Sabah

Manténgase al día con lo que está sucediendo en Turquía, es area y el mundo.

Puede darse de baja en cualquier momento. Al registrarse, está de acuerdo disadvantage nuestros Términos de uso y Política de privacidad. Este sitio está protegido por Recaptcha y se aplican la Política de privacidad de Google y los Términos de servicio.

Fuente