CNNEarrow-downclosecomment-02commentglobeplaylistsearchsocial-facebooksocial-googleplussocial-instagramsocial-linkedinsocial-mailsocial-moresocial-twittersocial-whatsapp-01social-whatsapptimestamptype-audiotype-gallery
Redes sociales

Plataformas tecnológicas: Dejen de dar lugar a quienes se oponen a las vacunas

Por Megan García

Nota del editor: Megan García es una investigadora sénior de New America y directora de crecimiento para la Red Nacional de New America, especializada en inteligencia artificial y ética, ciberseguridad e innovación. Las opiniones expresadas en este artículo son propias de la autora.

(CNN) — Los grupos contra las vacunas con nombres sutiles como Centro Nacional de Información sobre Vacunas y menos sutiles como Ira Contra las Vacunas, han usado por décadas investigaciones desmentidas para alimentar los miedos de los padres sobre la vacuna contra el sarampión, paperas y rubeola, y generado el aumento de los niños no vacunados en Estados Unidos.

En consecuencia, los estados de Washington, Texas y Nueva York han sufrido brotes de sarampión y allí deben luchar para mantener a raya la enfermedad.

Jay Inslee, el gobernador de Washington, donde el 7,9% de los niños de edad preescolar no están vacunados, declaró el estado de emergencia en enero y se refirió a la debacle como a un “riesgo extremo de salud pública”.

El debate continuo y cada vez más contencioso sobre si las empresas tecnológicas tienen la responsabilidad de moderar el contenido dañino toma una nueva dimensión al enfrentarse a una emergencia urgente de salud pública nacional e internacional.

La pregunta que deberíamos plantearnos en este caso es si las empresas tecnológicas son responsables de moderar su contenido cuando existe un riesgo para la salud pública.

Este mes, varias empresas tecnológicas grandes han implícita y correctamente respondido que sí. Todas las empresas en cuestión deberían sumarse a esta respuesta afirmativa y explorar dos métodos posibles de ocuparse de la información errónea en sus plataformas.

The Guardian desató una vehemente actividad en torno a las vacunas con una investigación sobre cómo es calificado y difundido en línea el contenido antivacunación.

The Guardian halló que una búsqueda neutral de la palabra “vaccine” (“vacuna”, en inglés) por un nuevo usuario sin amigos ni clics en “me gusta”, arrojó un abrumador contenido contra las vacunas, no respaldado por la ciencia, tanto en Facebook como en YouTube.

Los algoritmos de ambas empresas orientan a los usuarios hacia páginas y videos contra la vacunación, incluso cuando los usuarios inicialmente consumen recursos médicos reconocidos, como un video subido por la Mayo Clinic sobre la vacuna triple viral SRP (MMR, en inglés).

Después del frenesí inicial de la prensa sobre la información en The Guardian, Facebook, YouTube -propiedad de Google- y otras plataformas emitieron respuestas que se ubican en el espectro que va desde una prohibición total del contenido (Pinterest) hasta modestas medidas para tratar la información no científica sobre las vacunas (YouTube) a mantenerse a flote mientras examinan el tema (Facebook).

Adam Schiff, representante demócrata por California, le envió una carta a principios de febrero a Facebook y Google expresando su preocupación de que las empresas estén “resaltando y recomendando” contenido contra las vacunas.

Cuando Amazon debió responder a CNN sobre la prevalencia del contenido contra las vacunas, refirió a los reporteros a su página de pautas, donde dice que les brinda a los clientes una “variedad de puntos de vista” pero se reserva el derecho a “no vender cierto contenido, como pornografía y otro contenido inapropiado”.

Una búsqueda reciente en Amazon de “vaccine” arrojó resultados dominados por el contenido antivacunación.

Parte de lo que ha provocado esta reacción de la prensa, de las empresas tecnológicas y de legisladores es el rápido aumento reciente de múltiples brotes de enfermedades prevenibles como el ocurrido en el estado de Washington.

Después de un aumento mundial del 30% de los casos de sarampión, la Organización Mundial de la Salud tomó una medida extraordinaria al incluir “la indecisión vacunatoria” en su lista de las 10 máximas amenazas a la salud mundial en el 2019.

Washington es uno de los muchos estados en los que hay brotes, donde los padres tienen permitido no vacunar a sus hijos por una objeción personal o filosófica. Ha habido brotes similares en varios estados por la difusión en línea de contenido que vincula las vacunas al autismo, si bien los Centros de Control y Prevención de Enfermedades de EE.UU. e incontables autoridades médicas lo refutaron por completo.

Las grandes empresas tecnológicas históricamente han dicho no ser responsables por el impacto de la información en línea, ya sea por la existencia de las leyes de libertad de expresión, porque correctamente se preocupan del callejón sin salida de moderar cierto contenido peligroso podría conllevar la responsabilidad de moderar mucho más, o porque han sido duramente criticadas por prohibir contenido considerado político. Pero en años recientes, comenzaron a trabajar para combatir la diseminación de contenido considerado nocivo, como la propaganda terrorista y la pornografía infantil.

Hay dos métodos que podrían usar las grandes empresas tecnológicas —algunas ya aplicadas a otros temas— para responder a las crisis de salud pública.

La primera está tomada de Tech Against Terrorism, una colaboración entre las Naciones Unidas y las empresas tecnológicas que optan participar en el proyecto. Este esfuerzo lanzado en 2017 es una forma de que tanto las grandes empresas como las más pequeñas puedan compartir las mejores prácticas y operar con cierto grado de información compartida sobre los esfuerzos internos por remover el contenido que apoya los ideales terroristas.

En el caso de la salud pública, la OMS podría liderar un esfuerzo internacional similar para compartir prácticas que las empresas usan para extirpar información desmentida de salud de las plataformas en línea.

La segunda opción es que cada empresa modere su propio contenido y cree mecanismos claros para advertir a los usuarios cuando hallan contenido no científico que potencialmente podría ser dañino.

Facebook y otras empresas ya usan una versión más extrema de este método para encontrar y remover propaganda terrorista de sus sitios. Los impresionantes esfuerzos combinan el uso de la inteligencia artificial con verificadores humanos para hallar publicaciones que apoyan el terrorismo y removerlas, en promedio, 18 horas después de que son posteadas.

Un programa similar, aunque mucho más pequeño, sobre información errónea de salud no requeriría necesariamente sacar el contenido, la práctica usada para el contenido terrorista y la pornografía infantil, ni la tan temida clasificación más baja.

Una opción intermedia sería usar prácticas similares de inteligencia artificial y personal verificador, pero etiquetar el contenido sospechoso no científico de un modo similar a lo que se hace con los programas dañinos. Cuando los usuarios buscaran información sobre las vacunas y surgieran sitios sospechosos, verían una gran etiqueta de advertencia.

Las agencias de inteligencia trabajaron mucho para convencer a las grandes empresas tecnológicas, en particular a Facebook y a YouTube, de que el contenido en sus sitios era un elemento clave de reclutamiento de ISIS y de otros grupos terroristas, y las empresas respondieron adecuadamente.

En este caso, la información no científica está causando una crisis de salud pública que daña principalmente a los niños. Las empresas tecnológicas tienen una que asumir su responsabilidad. La única cuestión es cómo hacerlo.