Nota del editor: Ramesh Srinivasan es profesor asociado de la Universidad de California en Los Ángeles (UCLA), director del Laboratorio de Cultura Digital y autor del nuevo libro “¿De quién es la aldea global: repensando la forma en que las tecnologías moldean nuestro mundo”. Puedes seguirlo en @rameshmedia. Las opiniones aquí expresadas son solo del autor.
(CNN) – ¿Por qué Donald Trump hace afirmaciones falsas de manera sistemática y constante, pero mantiene su base de apoyo? De muchas formas, es porque Facebook se ha transformado en una fuente periodística fundamental para el público estadounidense.
Más del 65% de los usuarios de Facebook —44% de todos los usuarios adultos en Estados Unidos— acceden a las noticias a través de la plataforma de este gigante tecnológico. Esa cifra sobrepasa enormemente a la de los lectores que frecuentan las páginas de grandes medios tradicionales como The New York Times o The Washington Post.
También hay evidencia que muestran que esa plataforma fue y sigue siendo explotada por grupos y consultores políticos que son conservadores para dirigirse a algunos usuarios según los perfiles psicológicos que se construyen con la información de la red social. Como resultado, muchos usuarios reciben contenidos específicos en lugar de tener acceso a varios puntos de vista alternativos.
El equipo de Trump, en particular, ha sacado provecho del posicionamiento de Facebook como la plataforma que primero usan los estadounidenses para informarse. Al reunir una enorme cantidad de información de votantes inscritos de EE.UU., dirigirse a ellos con publicidad y aprovechar los algoritmos de Facebook, la máquina de Trump ha logrado influenciar significativamente la manera en que la información es diseminada a través de la red social.
En otras palabras, los usuarios de Facebook reciben contenidos patrocinados, creados por información reunida tanto por la red social como por intermediarios de datos que rastrean y venden nuestra información personal.
LEE: El plan de Mark Zuckerberg para salvar el mundo con Facebook
Cambridge Analytica, una compañía de análisis de datos que tiene en su junta directiva al consejero de Trump, Steve Bannon, se ha jactado con orgullo de su habilidad para predecir el comportamiento de los votantes al correlacionar la información de Facebook con otros datos que compra a los agentes de información, dadas las leyes de privacidad relativamente laxas que hay en Estados Unidos.
En una declaración a Motherboard, un vocero de Cambridge Analytica negó cualquier influencia en el resultado electoral. “Cambridge Analytica no participó en ningún esfuerzo por disuadir a ningún estadounidense de emitir su voto en la elección presidencial”, dijo la compañía. “Los esfuerzos solamente estuvieron dirigidos a aumentar el número de votantes en la elección”.
Las técnicas han sido perfeccionadas por los expertos en mercadeo respecto a campañas publicitarias, pero su aplicación en el campo de la política nacional marca un cambio importante y preocupante.
Por ejemplo, según Bloomberg, en la Pequeña Haití, uno de los barrios de Miami, la campaña de Trump utilizó “contenidos oscuros” dirigidos por Facebook para influenciar a los votantes afroamericanos. Esas publicaciones -avisos que parecen listas de noticias- les recordaron a los votantes de los fracasos de la Fundación Clinton en Haití y de cuando, en 1996, Hillary Clinton se refirió a algunos jóvenes negros como “superpredadores”.
La clave con esas publicaciones selectivas no fue solo el perfil demográfico del usuario de Facebook, sino la posibilidad de escoger qué publicación puede influenciarlos más, con base en el perfil psicológico del mismo.
En una entrevista con Motherboard, el presidente ejecutivo de Cambridge Analytica, Alexander Nix, dijo que tienen una gran cantidad de información de perfiles de usuarios. “Hemos perfilado la personalidad de cada adulto en Estados Unidos, unos 220 millones de personas”, dice Nix.
Una revolución en la forma de recibir noticias
Por lo tanto, nuestra experiencia con las noticias ha sido alterada. Las redes sociales -y los algoritmos invisibles que las moldean- determinan el contenido que es curado y presentado a todos nosotros. La selección de nuevas historias, su estructuración y las opiniones que producen son determinadas por nuestros “amigos” en Facebook, que suelen compartir nuestra inclinación política.
Mucho menos transparentes son los problemas con la curaduría algorítmica, en la que Facebook decide qué publicaciones vemos y cuáles quedan invisibles. Como argumenté en mi último libro, “¿De quién es la aldea global: repensando la forma en que las tecnologías moldean nuestro mundo”, cuando un algoritmo refuerza ciertas perspectivas políticas o culturales y esconde otras, resulta difícil respetar o aprender de otra forma de pensar.
Los desafíos planteados por Facebook han aumentado a medida que la primera fuente de noticias ha sido magnificada por la agresiva actividad política de las primeras semanas de gobierno de Trump. Varios decretos sobre la frontera entre México y Estados Unidos, las prohibiciones de viajes y los oleoductos Keystone y Dakota pusieron en primer plano cuestiones que ya de por sí eran divisorias.
Cuando las acciones de Trump son refractadas a través de Facebook, aumenta la euforia o la rabia que pueden sentir los usuarios. El público queda más dividido que nunca, encendido por la forma en que esas cuestiones políticas son descritas y retratadas en su muro de Facebook.
Cuando los medios tradicionales tratan de desacreditar algunos ejemplos, como la afirmación de Trump de que Obama lo había espiado o su argumento de que perdió el voto popular por fraude, son rápidamente rechazados por el Gobierno como sesgados o, incluso peor, en palabras de Trump, como un “enemigo de la gente de Estados Unidos”.
LEE: Sin precedentes: Casa Blanca bloquea a CNN y a otros medios
En semejante ambiente político, se vuelve mucho más difícil comprender una posición distinta de la nuestra, o encontrar una salida tranquila y racional para la histeria que produce. Esto envalentona a Trump al punto de que puede decir “el público ya no les cree (a los medios)… y tal vez tengo algo que ver con eso”.
Presionando a Facebook para que mejore
Debemos hacer algo más que contraatacar. El 25 de enero pasado, Facebook anunció que modificaría su algoritmo de temas que son tendencia para promover otras historias noticiosas, en contraposición a solamente promover artículos que son populares en la red social.
MIRA: Facebook disminuirá el número de noticias falsas
Aunque es un gran avance, el público estadounidense puede presionar más a Facebook para lograr otros cambios importantes, así como fomentar estrategias que permitan superar la actual crisis.
Primero, podemos pedirles a las compañías de redes sociales que hagan más transparentes y comprensibles los filtros y opciones que se usan en los algoritmos que determinan la interactividad. No me refiero a que publiquen su código de software patentado, sino a que les den a los usuarios una explicación de cómo se selecciona el contenido que ven en Facebook.
Más específicamente, Facebook puede explicar que el contenido es elegido por su ubicación, número de amigos en común o similitud en las publicaciones. Podría permitir que los usuarios echen un vistazo a la forma en que su algoritmo puede elegir entre diferentes opciones en el momento de decidir qué información será visible en nuestras listas de noticias.
Segundo, debemos darles a los usuarios la oportunidad de escoger entre diferentes tipos de información, tanto con noticias compartidas por personas que están fuera de sus redes sociales como por opciones para filtrar la información que aparece en sus muros de Facebook. Esos filtros permitirían que los usuarios determinen de qué parte del mundo quieren recibir información y el rango de opiniones políticas que quieren ver.
Tercero, podemos retomar la práctica que durante mucho tiempo caracterizó a la web: navegación abierta. Las compañías de redes sociales pueden desarrollar herramientas que permitan ver la credibilidad de una noticia, capacitando a los usuarios para que naveguen en contenido que está dentro y afuera de su red social inmediata.
Por ejemplo, Facebook podría hacer que las publicaciones estén disponibles para personas que no están en su red de amigos, o darle herramientas al usuario para que navegue en las redes de otros, asumiendo que tienen permiso. Podría incluso desarrollar interfaces que permitan que un usuario vea publicaciones sobre un mismo tema desde múltiples perspectivas, lugares y culturas.
Al mismo tiempo, tenemos que seguir pensando en cómo desarrollar estudios políticos en nuestros sistemas educativos y sociales. Eso incluye el aprendizaje de cómo analizar, evaluar y reconocer la diferencia de credibilidad entre las distintas fuentes de información. Requiere dejar de pensar que cualquier pieza de información, aunque esté presentada en Facebook o en un medio tradicional, es infalible, y más bien inspeccionar la manera en que esa historia fue estructurada y a qué intereses responde.
MIRA: Estrategias de comunicación: ¿medios tradicionales o redes sociales?
Abrir las cajas negras
Aunque la mayoría de los grandes medios de comunicación del mundo son corporaciones privadas, deben ser responsables con el público. Tenemos el derecho de exigir que reporten de manera justa y honesta. Y en el panorama mediático actual, debemos presionar a las cadenas de noticias para que cuenten historias que respeten las perspectivas de las diversas comunidades sobre las que reportan.
Ahora que Facebook, con sus casi 1.800 millones de usuarios en todo el mundo, se ha consolidado como la principal puerta de acceso que tenemos a las noticias, también debe ser responsable con el público, y no solo con sus accionistas.
El presidente ejecutivo de Facebook, Mark Zuckerberg, ha mostrado su preocupación por los decretos de Trump, de manera justificada. Pero debe entender que la compañía que dirige no solo es una entidad privada, sino una fuente fundamental de información noticiosa para todo el público y que, por eso, debería considerar el papel que tuvo en la llegada de Trump a la presidencia.
No tenemos otra opción sino controlar nuestra confianza ciega en las redes sociales que cada vez más definen a internet. Para lograrlo, debemos no solo presionar a las compañías para que abran las cajas negras con las que nos unen y nos dividen, sino reconocer que Facebook, tal y como existe hoy, nos divide más que unirnos, tanto política como culturalmente hablando.