Washington (CNN Business) – La semana de Facebook tuvo un comienzo tumultuoso. El lunes, Facebook, WhatsApp e Instagram cayeron durante unas seis horas. El martes, Frances Haugen, la denunciante de Facebook, testificó ante una subcomisión del Senado, luego de la publicación de miles de páginas de investigaciones y documentos internos.
Haugen, la exgerente de producto de Facebook (FB) de 37 años que trabajaba en temas de integridad cívica en la empresa, reveló su identidad durante un segmento del programa “60 minutes” que se transmitió el domingo por la noche.
Según los informes, ha presentado al menos ocho denuncias ante la Comisión de Bolsa y Valores, alegando que la empresa está ocultando la investigación sobre sus deficiencias a los inversores y al público.
También compartió los documentos con los reguladores y el diario The Wall Street Journal, que publicó una investigación de varias partes que muestra que Facebook estaba al tanto de los problemas con sus aplicaciones.
“60 Minutes” publicó ocho de las denuncias de Haugen el lunes. Aquí hay cuatro conclusiones:
La mecánica de Facebook promueve la difusión de información errónea
Los documentos internos citados en las quejas muestran que Facebook sabe que tanto el discurso de odio como la información errónea en sus plataformas están teniendo un impacto social y que sus “mecánicas de productos centrales, como las recomendaciones de viralidad y la optimización para la participación son una parte importante de por qué estos tipos de discurso prosperan”.
En un estudio sobre los riesgos de desinformación y polarización encontrados a través de las recomendaciones, el algoritmo de Facebook tardó solo unos días en recomendar páginas de conspiración a una cuenta que sigue páginas oficiales y verificadas de figuras conservadoras como Fox News y Donald Trump. La misma cuenta tardó menos de una semana en obtener una recomendación de QAnon. Y según los documentos titulados “Solían publicar selfies ahora están tratando de revertir la elección” y “¿Recompensa Facebook la indignación?” citados en las quejas, los algoritmos de Facebook no solo recompensan las publicaciones sobre temas como conspiraciones de fraude electoral con me gusta y acciones, sino que también “‘cuantos más comentarios negativos genere una parte del contenido, mayor será la probabilidad de que el enlace obtenga más tráfico’”.
Un documento titulado “¿Qué es el daño colateral?” incluso llega a señalar que “el resultado neto es que Facebook, en su conjunto, promoverá activamente (si no necesariamente conscientemente) este tipo de actividades. La mecánica de nuestra plataforma no es neutral”.
Facebook ha tomado medidas limitadas para abordar la desinformación existente
De acuerdo con un documento interno sobre narrativas problemáticas que no violan las referencias en al menos dos de las quejas, Facebook elimina tan solo del 3% al 5% del discurso de odio y menos del 1% de contenido que se considere violento o que incite a la violencia. Esto se debe a que el volumen es demasiado para los revisores humanos y es un desafío para sus algoritmos clasificar con precisión el contenido cuando se debe considerar el contexto.
Los documentos internos sobre el papel de Facebook en las elecciones de 2020 y la insurrección del 6 de enero también sugieren que quienes difunden información errónea rara vez son detenidos por los mecanismos de intervención de la empresa. Un documento señala que “hacer cumplir las páginas moderadas por administradores de páginas que publican más de 2 piezas de información errónea en los últimos 67 días afectaría a 277.000 páginas. De estas páginas, 11.000 de ellas son páginas actuales de infractores reincidentes”.
A pesar de las afirmaciones de Facebook de que “eliminan contenido de Facebook sin importar quién lo publique, cuando viola nuestros estándares”, según Haugen, “en la práctica, el sistema ‘XCheck’ o ‘Cross-Check’ efectivamente ‘incluye en listas blancas’ usuarios privilegiados y/o de alto perfil”. Un documento interno sobre prevención de errores citado en una queja sostiene que “‘a lo largo de los años, muchas páginas, perfiles y entidades de XChecked han sido eximidos de la ejecución’”.
Documentos internos sobre “cuantificación de la concentración de compartidos y sus VPV entre usuarios” y un “plan de interrupción automática para todas las superficies de recomendación de grupo” indica que Facebook también revirtió algunos cambios que han demostrado reducir la desinformación porque esos cambios redujeron el crecimiento de la plataforma.
Además, Haugen afirma que la empresa les dijo falsamente a los anunciantes que habían hecho todo lo posible para evitar la insurrección. De acuerdo con un documento citado en la presentación titulada “Los disturbios del Capitolio rompen el cristal”, los parámetros más seguros que Facebook implementó para las elecciones de 2020, como degradar contenido como el discurso de odio que probablemente infrinja sus estándares comunitarios, en realidad se revertieron después y se restablecieron solo “después de que estallara la insurrección”.
En un documento, un funcionario de Facebook afirma que “estábamos dispuestos a actuar solo *después* de que las cosas hubieran caído en una espiral terrible”.
Facebook ha engañado al público sobre los efectos negativos de sus plataformas en los niños y adolescentes, especialmente en las niñas
Cuando se le preguntó durante una audiencia en el Congreso en marzo si las plataformas de Facebook “dañan a los niños”, el director ejecutivo de Facebook, Mark Zuckerberg, dijo: “No lo creo”.
Sin embargo, según la propia investigación interna de Facebook citada en una de las quejas de Haugen, “el 13,5% de las adolescentes en Instagram dice que la plataforma hace que los pensamientos sobre ‘Suicidio y autolesión’ sean peores” y el 17% dice que la plataforma, propiedad de Facebook, hace que los “problemas de alimentación” como la anorexia y bulimia empeoran. Su investigación también afirma que las plataformas de Facebook “empeoran los problemas de imagen corporal de 1 de cada 3 adolescentes”.
Facebook sabe que sus plataformas permiten la explotación humana
Aunque los estándares de la comunidad de Facebook establecen que “eliminan el contenido que facilita o coordina la explotación de humanos”, los documentos internos de la empresa citados en una de las quejas de Haugen sugieren que la empresa sabía que “el contenido de servidumbre doméstica permanecía en la plataforma” antes de una investigación de BBC News en 2019 sobre un mercado negro de trabajadoras del hogar en Instagram.
“Estamos aplicando poco cumplimiento de la actividad abusiva confirmada con un nexo con la plataforma”, decía un documento titulado “Servidumbre doméstica y seguimiento en el Medio Oriente”.
“Nuestro hallazgo de investigación demuestra que … nuestra plataforma permite las tres etapas del ciclo de vida de la explotación humana (reclutamiento, facilitación, explotación) a través de redes del mundo real… Los traficantes, reclutadores y facilitadores de estas ‘agencias’ utilizaron perfiles de FB , perfiles de IG, Pages, Messenger y WhatsApp”.