Nueva York (CNN Business) – La identidad de la denunciante de Facebook que publicó decenas de miles de páginas de investigaciones y documentos internos, lo que provocó una tormenta de fuego para la empresa de redes sociales en las últimas semanas, fue revelada en el programa “60 Minutes” el domingo por la noche. Su nombre: Frances Haugen.
La exgerente de producto de Facebook de 37 años que trabajó en temas de integridad cívica en la empresa dice que los documentos muestran que esta sabe que sus plataformas se utilizan para difundir odio, violencia y desinformación, y que ha tratado de ocultar esa evidencia.
“Lo que vi en Facebook una y otra vez fue que había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook, y Facebook una y otra vez optó por optimizar para sus propios intereses, como ganar más dinero”, dijo Haugen a “60 Minutes”.
El corresponsal de “60 Minutes” Scott Pelly citó un documento interno de Facebook (FB) que decía: “Tenemos pruebas de una variedad de fuentes de que el discurso de odio, el discurso político divisivo y la información errónea en Facebook y la familia de aplicaciones están afectando a sociedades de todo el mundo”.
Hace aproximadamente un mes, Haugen presentó al menos ocho quejas ante la Comisión de Bolsa y Valores, alegando que la empresa oculta la investigación sobre sus deficiencias a los inversores y al público. También compartió los documentos con The Wall Street Journal, que publicó una investigación de varias partes que muestra que Facebook estaba al tanto de los problemas con sus aplicaciones, incluidos los efectos negativos de la desinformación y el daño causado, especialmente a las niñas, por Instagram.
Haugen, quien comenzó en Facebook en 2019 después de trabajar anteriormente para otros gigantes tecnológicos como Google (GOOGL GOOGLE) y Pinterest (PINS), testificará el martes ante la subcomisión de Protección al Consumidor, Seguridad de Productos y Seguridad de Datos del Senado.
“He visto un montón de redes sociales, y Facebook fue sustancialmente peor que cualquier otra cosa que haya visto antes”, dijo Haugen. “En algún momento de 2021, me di cuenta de que iba a tener que hacer esto de manera sistémica, que iba a tener que sacar suficientes [documentos] para que nadie pudiera cuestionar que esto es real”.
Facebook ha rechazado agresivamente los informes, calificando muchas de las afirmaciones como “engañosas” y argumentando que sus aplicaciones hacen más bien que mal.
“Todos los días, nuestros equipos deben equilibrar la protección de la capacidad de miles de millones de personas para expresarse abiertamente con la necesidad de mantener nuestra plataforma en un lugar seguro y positivo”, dijo la portavoz de Facebook, Lena Pietsch, en un comunicado a CNN Business inmediatamente después de la entrevista en “60 Minutes”.
“Continuamos realizando mejoras significativas para abordar la propagación de información errónea y contenido dañino. Sugerir que fomentamos el contenido inadecuado y no hacemos nada simplemente no es cierto”.
Varias horas después de la emisión de la entrevista, Pietsch publicó una declaración de más de 700 palabras en la que describía lo que denominó “hechos faltantes” del segmento y dijo que la entrevista “utilizó materiales selectos de la empresa para contar una historia engañosa sobre la investigación que hacemos para mejorar nuestros productos”.
Un portavoz de “60 Minutes” no respondió de inmediato a una solicitud de comentarios de CNN Business sobre las afirmaciones de Facebook.
El domingo por la mañana antes de la entrevista de “60 Minutes”, el vicepresidente de Asuntos Globales de Facebook, Nick Clegg, le dijo a Brian Stelter de CNN que “no hay perfección en las redes sociales tanto como en cualquier otro ámbito de la vida”.
“Realizamos una gran cantidad de investigaciones, las compartimos con investigadores externos tanto como podemos, pero recuerde que hay … un mundo de diferencia entre hacer un ejercicio revisado por pares en cooperación con otros académicos y preparar artículos internamente para provocar e informar la conversación interna”, dijo Clegg.
Haugen dijo que cree que el fundador y director ejecutivo de Facebook, Mark Zuckerberg, “nunca se propuso crear una plataforma de odio, pero ha permitido que se tomen decisiones en las que los efectos secundarios de esas decisiones son que el contenido de odio y polarizador obtiene más distribución y más alcance”.
Las revelaciones de la denunciante
Haugen dijo que Facebook la reclutó en 2019 y aceptó el trabajo para abordar la desinformación. Pero después de que la compañía decidió disolver su equipo de integridad cívica poco después de las elecciones presidenciales de 2020, sus sentimientos sobre la compañía comenzaron a cambiar.
Ella sugirió que esta decisión, y las acciones de la compañía para desactivar otras medidas de protección electoral, como las herramientas de prevención de información errónea, permitieron que la plataforma se usara para ayudar a organizar el motín del 6 de enero en el Capitolio de Estados Unidos.
“Básicamente dijeron: ‘Oh, bien, pasamos las elecciones, no hubo disturbios, podemos deshacernos de la integridad cívica ahora’”, dijo. “Avancemos un par de meses y tuvimos la Insurrección. Cuando se deshicieron de la integridad cívica, fue el momento en el que pensé: ‘No confío en que estén dispuestos a invertir realmente lo que hay que invertir para evitar que Facebook sea peligroso’”.
Facebook dice que el trabajo del equipo de integridad cívica se distribuyó a otras unidades cuando se disolvió. El vicepresidente de integridad de Facebook, Guy Rosen, dijo en Twitter el domingo por la noche que el grupo se integró en otros equipos para que “el trabajo pionero en las elecciones se pudiera aplicar aún más”.
El algoritmo de la compañía de redes sociales que está diseñado para mostrar a los usuarios contenido con el que es más probable que interactúen es responsable de muchos de sus problemas, dijo Haugen.
“Una de las consecuencias de cómo Facebook está seleccionando ese contenido hoy en día es que lo está optimizando para contenido que genera participación, una reacción, pero su propia investigación muestra que el contenido que es de odio, que es divisivo, que es polarizador, es más fácil que inspire a la gente a la ira que a otras emociones”, dijo. Agregó que la compañía reconoce que “si cambian el algoritmo para que sea más seguro, la gente pasará menos tiempo en el sitio, harán clic en menos anuncios y ganarán menos dinero”.
Pietsch de Facebook dijo en su declaración del domingo por la noche que la plataforma depende de “ser utilizada de manera que acerque a las personas” para atraer anunciantes, y agregó que “proteger nuestra comunidad es más importante que maximizar nuestras ganancias”.
En un memorando interno obtenido por The New York Times el domingo temprano, Clegg disputó las afirmaciones de que Facebook contribuyó a los disturbios del 6 de enero.
“Las redes sociales han tenido un gran impacto en la sociedad en los últimos años, y Facebook es a menudo un lugar donde se desarrolla gran parte de este debate”, dijo Clegg en el memo. “Así que es natural que la gente se pregunte si es parte del problema. Pero la idea de que Facebook es la causa principal de la polarización no está respaldada por los hechos”.
Haugen dijo que si bien “nadie en Facebook es malévolo … los incentivos están desalineados”.
“Facebook gana más dinero cuando consume más contenido. La gente disfruta interactuando con cosas que provocan una reacción emocional”, dijo. “Y cuanto más ira a la que se exponen, más interactúan y más consumen”.