Redes sociales

Redes sociales

Meta recopiló datos de menores de edad en Instagram sin el consentimiento de sus padres

(CNN) -- Desde al menos 2019, Meta se negó a cerrar la mayoría de las cuentas pertenecientes a niños menores de 13 años de manera intencional mientras recopilaba su información personal sin el consentimiento de sus padres, según alega un documento judicial recientemente desvelado de una demanda federal en curso contra el gigante de las redes sociales.

Fiscales generales de 33 estados en Estados Unidos acusaron a Meta de recibir más de un millón de informes de usuarios menores de 13 años en Instagram de padres, amigos y miembros de la comunidad en línea entre principios de 2019 y mediados de 2023. Sin embargo, "Meta desactivó solo una fracción de esas cuentas", señala la denuncia.

La demanda federal pide órdenes judiciales que prohíban a Meta las prácticas que los fiscales generales alegan que violan la ley. Las sanciones civiles podrían ascender a cientos de millones de dólares, ya que Meta aloja supuestamente a millones de usuarios adolescentes y niños. La mayoría de los estados piden entre US$ 1.000 y US$ 50.000 de multa por infracción.

En esta foto ilustración el Logo de Instagram se ilumina en un smartphone el 6 de octubre de 2023 en Berlín, Alemania. (Ilustración fotográfica de Thomas Trutschel/Photothek vía Getty Images).

Violación de la intimidad

Según la demanda de 54 cargos, Meta infringió una serie de leyes estatales de protección del consumidor, así como la Norma de Protección de la Privacidad Infantil en Internet (COPPA), que prohíbe a las empresas recopilar información personal de menores de 13 años sin el consentimiento de sus padres. Meta supuestamente no cumplió con la COPPA con respecto a Facebook e Instagram, a pesar de que "los propios registros de Meta revelan que la composición de la audiencia de Instagram incluye a millones de niños menores de 13 años", y que "cientos de miles de usuarios adolescentes pasan más de cinco horas al día en Instagram", afirma el documento judicial.

Un diseñador de productos de Meta escribió en un correo electrónico interno que "los jóvenes son los mejores", y añadió que "quieres atraer a la gente a tu servicio, jóvenes y pronto", según la demanda.

"Las condiciones de uso de Instagram prohíben los usuarios menores de 13 años (o más en determinados países) y tenemos medidas para eliminar estas cuentas cuando las identificamos. Sin embargo, verificar la edad de las personas en línea es un desafío complejo para la industria", dijo Meta a CNN en un comunicado este domingo. "Muchas personas —en particular los menores de 13 años— no tienen un documento de identidad, por ejemplo. Por eso Meta apoya la legislación federal que obliga a las tiendas de aplicaciones a obtener la aprobación de los padres siempre que sus hijos menores de 16 años descarguen aplicaciones. Con este planteamiento, los padres y los adolescentes no tendrán que proporcionar a cientos de apps individuales información sensible, como el DNI, para verificar su edad".

Contenidos nocivos para la mente

La denuncia desclasificada también alega que Meta sabía que su algoritmo podía dirigir a los niños hacia contenidos nocivos, perjudicando así su bienestar. Según las comunicaciones internas de la empresa citadas en el documento, los empleados escribieron que estaban preocupados por "el contenido en IG que desencadena emociones negativas entre los preadolescentes y afecta a su bienestar mental (y) nuestros algoritmos de clasificación que los llevan a espirales negativas y bucles de retroalimentación de los que es difícil salir".

Por ejemplo, los investigadores de Meta realizaron un estudio en julio de 2021 que concluyó que el algoritmo de Instagram puede estar amplificando la comparación social negativa y "el contenido con tendencia a hacer que los usuarios se sientan peor sobre su cuerpo o apariencia", según la denuncia. En correos electrónicos internos de febrero de 2021 citados en la demanda, los empleados de Meta supuestamente reconocieron que la comparación social estaba "asociada con un mayor tiempo dedicado" a las plataformas de medios sociales de Meta y discutieron cómo este fenómeno es "valioso para el modelo de negocio de Instagram mientras que simultáneamente causa daño a las adolescentes".

En una investigación interna de marzo de 2021 en la que se analizaron contenidos sobre trastornos alimentarios, el equipo de Meta siguió a usuarios cuyos nombres de cuenta hacían referencia a la inanición, la delgadez y los desórdenes alimentarios. El algoritmo de Instagram comenzó entonces a generar una lista de cuentas recomendadas "que incluía cuentas relacionadas con la anorexia", señala la demanda.

Sin embargo, Antigone Davis, responsable mundial de seguridad de Meta, declaró ante el Congreso en septiembre de 2021 que Meta no "dirige a la gente hacia contenidos que promueven los trastornos alimentarios. En realidad, eso viola nuestras políticas y eliminamos ese contenido cuando nos damos cuenta de ello. De hecho usamos IA para encontrar contenido como ese y eliminarlo".

"Queremos que los adolescentes tengan experiencias en línea seguras y apropiadas para su edad, y tenemos más de 30 herramientas para apoyarlos a ellos y a sus padres", dijo Meta a CNN en un comunicado. "Hemos pasado una década trabajando en estos temas y contratando a personas que han dedicado sus carreras a mantener a los jóvenes seguros y apoyados en línea. La queja caracteriza erróneamente nuestro trabajo usando citas selectivas y documentos elegidos cuidadosamente".

Los altos cargos de Instagram también sabían que los contenidos problemáticos eran una cuestión crítica para la plataforma, afirma la demanda. Adam Mosseri, el jefe de Instagram, supuestamente escribió en un correo electrónico interno que "la comparación social es a Instagram [lo que] la interferencia electoral es a Facebook." La demanda no especifica cuándo se envió ese correo electrónico.

CNN contactó con Meta en relación con los comentarios de Davis y Mosseri y no obtuvo respuesta inmediata.

Sin embargo, a pesar de la investigación interna de la empresa que confirma la preocupación por la comparación social en sus plataformas, la demanda alega que Meta se negó a cambiar su algoritmo. Un empleado señaló en comunicaciones internas citadas en la demanda que el contenido que incita a comparaciones negativas de apariencia "es parte del contenido más atractivo (en la página Explorar), por lo que esta idea va activamente en contra de muchas otras medidas de línea superior de los equipos". Mientras tanto, "las comunicaciones externas de Meta negaban u ocultaban el hecho de que sus Algoritmos de Recomendación promueven contenidos de Comparación de Apariencia Altamente Negativa entre los usuarios jóvenes", afirma la demanda.

Meta también era consciente de que sus algoritmos de recomendaciones "desencadenan liberaciones intermitentes de dopamina en los usuarios jóvenes" que pueden conducir a ciclos adictivos de consumo en sus plataformas, según documentos internos citados en la demanda.

"Meta se ha lucrado del dolor de los niños diseñando intencionadamente sus plataformas con características manipuladoras que convierten a los niños en adictos a sus plataformas al tiempo que disminuyen su autoestima", dijo Letitia James, fiscal general de Nueva York, en un comunicado el mes pasado. Nueva York es uno de los estados implicados en la demanda federal. "Las empresas de redes sociales, incluida Meta, han contribuido a una crisis nacional de salud mental juvenil y deben rendir cuentas", afirmó James.

Otros ocho fiscales generales demandaron a Meta el mes pasado en diversos tribunales estatales, formulando reclamaciones similares a la enorme demanda federal multiestatal. Florida demandó a Meta en su propio juicio federal, alegando que la empresa engañó a los usuarios sobre los riesgos potenciales para la salud de sus productos.

La oleada de demandas es el resultado de una investigación bipartidista y multiestatal que se remonta a 2021, después de que la denunciante de Facebook Frances Haugen presentara decenas de miles de documentos internos de la empresa que, según ella, mostraban cómo la empresa sabía que sus productos podían tener efectos negativos en la salud mental de los jóvenes.

 

 

-- Brian Fung de CNN contribuyó a este reportaje.