(CNN) – Horas después de que la denunciante de Facebook Frances Haugen testificara ante el Congreso sobre el peligro que supone la red social para los niños y la democracia, Mark Zuckerberg acudió a la plataforma que él mismo construyó y publicó una diatriba de 1.300 palabras para tratar de socavar su posición.
Su principal argumento era que Haugen estaba sacando de contexto las investigaciones de Facebook sobre su impacto en los niños, entre las decenas de miles de páginas de documentos internos e investigaciones que realizó antes de dejar la empresa. En esencia, argumentó que no se puede confiar en ella para retratar adecuadamente los hallazgos de la compañía, afirmando que pintó una “imagen falsa de la compañía”.
Pero aunque Facebook emplea a muchos investigadores con talento y diligencia, su máximo responsable no es de fiar cuando se trata de compartir el trabajo de esos investigadores con el público.
En agosto, Facebook publicó un informe sobre las publicaciones más vistas en su plataforma en Estados Unidos. Guy Rosen, vicepresidente de integridad de Facebook (sí, ese es un puesto real en Facebook) dijo en ese momento que la compañía se había convertido “por mucho en la plataforma más transparente de Internet”.
El informe abarcaba los datos de Facebook correspondientes al segundo trimestre de este año, y Facebook sugirió que pintaba un panorama bastante halagüeño. “Muchas de las páginas más vistas se centraban en compartir contenidos sobre mascotas, cocina y familia”, dijo Facebook.
Había una trampa. El informe de investigación se centraba en el segundo trimestre de 2021, pero ¿qué pasa con el primer trimestre? ¿No había recopilado Facebook datos y elaborado un informe para los tres primeros meses de 2021?
Lo había hecho, pero los ejecutivos de Facebook decidieron no compartirlo con el público “por temor a que se viera mal para la compañía”, informó el diario The New York Times. El informe archivado mostraba que el enlace más visto en Facebook en el primer trimestre de este año era un artículo de noticias que decía que un médico había muerto tras recibir la vacuna contra el coronavirus, informó The New York Times.
El hecho de que un artículo de noticias con un claro potencial para ser compartido de nuevo de forma que socava la seguridad de la vacunación fuera una de las piezas de contenido más populares en Facebook en medio de una pandemia no encajaba con la imagen que los ejecutivos de la compañía están tratando de proyectar: que el sentimiento antivacunas no está corriendo de forma desenfrenada en la plataforma y que la compañía no está contribuyendo al problema de indecisión sobre las vacunas en Estados Unidos.
Cuando la investigación se filtró finalmente al diario, Facebook se sinceró: “Somos culpables de limpiar un poco nuestra casa antes de dejar pasar a los invitados”, dijo Andy Stone, un portavoz de Facebook.
Al mes siguiente, la empresa fue criticada después de que investigadores de la Universidad de Nueva York que estaban estudiando la desinformación en Facebook dijeran que habían sido expulsados de la plataforma. (La empresa dijo que su decisión de eliminar de la plataforma a los investigadores estaba relacionada con otro estudio sobre anuncios políticos que implicaba el uso de una extensión del navegador que permitía a los usuarios compartir de forma anónima los anuncios que veían en Facebook con los investigadores).
Facebook publica periódicamente informes sobre el cumplimiento de sus normas y la cantidad de contenidos que capta que van en contra de ellas, como la incitación al odio. A principios de este año, la empresa anunció que había contratado a EY para auditar la investigación más allá de esos informes.
La contratación de un auditor podría ser una medida positiva, pero en lo que respecta a la gestión de la empresa de sus informes de compromiso a principios de este año, la selección muy descarada de qué investigación se hace pública y qué se oculta plantea la pregunta: ¿qué más sabe Facebook que no nos está diciendo? ¿Y quién está creando realmente una “imagen falsa” de la empresa y su impacto en la sociedad?
Una empleada de bajo nivel
El otro intento de Facebook para socavar a la denunciante fue presentar a Haugen como una empleada de bajo nivel que no sabe de qué está hablando. Pero esa estrategia también parece ser contraproducente.
Samidh Chakrabarti era jefe de “compromiso cívico” en Facebook. Chakrabarti había sido propuesto regularmente por la compañía para hablar públicamente sobre el buen trabajo que Facebook estaba haciendo, incluso formó parte de la gira de prensa de la “sala de guerra” de Facebook para las elecciones intermedias de Estados Unidos de 2018. (La sala de guerra fue considerada ampliamente como un truco publicitario).
Después de su testimonio el martes, Facebook describió a Haugen como “una exgerente de producto en Facebook que trabajó para la compañía durante menos de dos años, no tenía informes directos, nunca asistió a una reunión de toma de decisiones con altos ejecutivos”.
Eso provocó que Chakrabati respondiera en Twitter: “Bueno, yo estuve allí durante más de 6 años, tuve numerosos informes directos y dirigí muchas reuniones de toma de decisiones con altos ejecutivos, y encuentro que las perspectivas compartidas sobre la necesidad de regulación algorítmica, la transparencia de la investigación y la supervisión independiente son totalmente válidas para el debate”.
Por desgracia para Facebook, Haugen tiene razón.