(CNN) – El 24 de marzo, semanas antes de que ofreciera comprar Twitter, Elon Musk publicó una encuesta en la plataforma: “El algoritmo de Twitter debería ser de código abierto”, escribió, con opciones para que los usuarios votaran “sí” o “no”.
Parte de la tecnología de Twitter ya es de código abierto, lo que significa que está disponible públicamente para que cualquiera pueda verla, reelaborarla y utilizarla para otros fines. Pero lo que Musk estaba preguntando, esencialmente, era si las reglas que sigue la tecnología para determinar lo que ves en tu feed de Twitter deberían ser públicas también. Se contaron más de un millón de votos al cerrar la encuesta, con una abrumadora mayoría a favor (82,7%).
Lo que implican la sugerencia de Musk y su encuesta adquirió adquirió un nuevo peso la semana pasada, después de que el CEO de Tesla y SpaceX anunciara que se ofrecía a comprar todas las acciones de Twitter que aún no poseía en una operación que valoraría la empresa en unos US$ 41.000 millones. El viernes, el consejo de administración de Twitter anunció una medida denominada “píldora venenosa”, que podría dificultar que Musk adquiera la compañía.
Si el acuerdo se lleva a cabo, Musk ha dicho que su objetivo es “liberar” el “extraordinario potencial” de Twitter, pero sus sugerencias de cambios específicos para hacerlo han sido vagas. Uno de sus objetivos principales ha sido reforzar la libertad de expresión en la plataforma, y su sugerencia sobre los algoritmos es fundamental para ese esfuerzo.
Horas después de que Musk hiciera su oferta para comprar Twitter, repitió la idea de hacer públicos los algoritmos de Twitter desde el escenario de una conferencia TED en Vancouver. También dijo que debería quedar más claro para los usuarios cuando Twitter toma alguna acción que impacta en lo que tuiteas, como las decisiones de amplificar o restar importancia a los tuits.
De este modo, explicó en la charla TED, “no hay ningún tipo de manipulación tras bambalinas, ni algorítmica ni manual”. La audiencia aplaudió fuerte en respuesta. (Twitter sí añade etiquetas a los tuits por una serie de razones, como si una publicación contiene información engañosa o si una publicación viola las normas de la red social, pero se mantiene disponible tras haberse determinado que es “de interés público”).
Musk no es el único que pide que las plataformas tecnológicas sean más transparentes con sus algoritmos. Tras la publicación en 2021 de los llamados “Facebook Papers”, que mostraron cómo los algoritmos pueden avivar la polarización y llevar a los usuarios a madrigueras peligrosas, se ha renovado el escrutinio sobre los algoritmos que dominan cada vez más nuestras vidas. Además, el cofundador y exCEO de Twitter, Jack Dorsey, ha pedido que se haga más para dar a los usuarios el control en la red social, incluso respondiendo a la encuesta de Musk citándola en Twitter con un comentario propio: “La elección de qué algoritmo usar (o no) debería estar abierta a todo el mundo”.
Musk también acierta al señalar que los algoritmos que sustentan la empresa son una parte clave de lo que hace que Twitter, bueno, sea Twitter. Al fin y al cabo, los algoritmos, que en su forma más simple son un conjunto de instrucciones, son la base de innumerables productos y servicios que dependen de la informática. Se utilizan para averiguar qué tuits ves de las personas que sigues en la plataforma y para mostrarte tuits de otras personas que Twitter cree que te gustaría ver, basándose en una serie de factores como las cuentas con las que interactúas, la popularidad de un tuit y cómo interactúan otras personas que conoces con un tuit. También se utilizan para recortar las imágenes que la gente publica y para eliminar el contenido de odio. Y si uno elige ver los tweets en el orden que se han ido publicando en Twitter, eso también usa un algoritmo.
Pero hacer públicos los algoritmos que dan forma a lo que se ve en Twitter no bastará para hacer de Twitter una empresa más transparente, según los expertos en inteligencia artificial y software de código abierto. Incluso si, en última instancia, ayuda a abordar cierta desconfianza que los críticos tienen en las acciones de control de contenido de Twitter, avanzar en esta dirección también podría crear un nuevo conjunto de riesgos para Twitter.
Musk no respondió a una solicitud de comentarios de CNN Business. Twitter declinó hacer comentarios.
Las limitaciones del plan de Musk
Incluso aquellos que pueden entender el código que va adentro de un algoritmo, no entienden necesariamente cómo funciona. Por ejemplo, las empresas tecnológicas no suelen dar más que una explicación básica de cómo funcionan sus sistemas algorítmicos y para qué se usan. Las personas que construyen estos sistemas no siempre saben por qué llegan a sus conclusiones, por lo que se les suele llamar “cajas negras”.
Permitir que cualquiera vea el código del sitio es “un poco absurdo”, dijo Vladimir Filkov, profesor de ciencias de la computación en la Universidad de California, Davis, porque muy pocas personas pueden entender cómo lo hace el código base de Twitter para producir lo que uno ve en la pantalla.
“Por definición, el código abierto significa que se puede ver, pero no significa que se puedan entender las políticas o influir en las políticas que conducen a ese código”, dijo Filkov, que desarrolla herramientas para ayudar a los desarrolladores a ejecutar proyectos de software de código abierto más eficaces.
Quienes logren entenderlo serían capaces de averiguar cómo Twitter decide qué tuit mostrar a los usuarios, dijo Ariel Procaccia, un profesor de ciencias de la computación de la Universidad de Harvard que ha llevado a cabo estudios de inteligencia artificial y economía.
“En esas circunstancias, más vale que la empresa se asegure de que sus algoritmos sean justos, ya que seguramente tendrá que rendir cuentas si no lo son”, dijo Procaccia. “Creo que esto sería un positivo neto para los usuarios”.
Filkov cree que sería muy útil seguir el ejemplo de lo que suelen hacer otros proyectos de código abierto junto a su código: enumerar públicamente las políticas que conducen a ese código.
“Entender esas políticas sería más fácil que entender el código”, dijo.
Una nueva serie de riesgos para Twitter
Además de la eficacia de hacer de código abierto los algoritmos de Twitter, también está la cuestión de qué, exactamente, es lo que se liberaría al público junto con el código.
Si Twitter publica solo el algoritmo de aprendizaje autónomo que utiliza para decidir qué está permitido y qué no en la plataforma, por ejemplo, pero no los datos de entrenamiento que se utilizaron para informar a ese algoritmo, sería “bastante insignificante”, dijo Allison Randal, miembro de la junta de Software Freedom Conservancy y de la Open Infrastructure Foundation. Sin embargo, la cosa se complica si se tienen en cuenta los datos de entrenamiento. Si esos datos de entrenamiento incluyen tuits privados, su publicación tendría “enormes implicaciones negativas para la privacidad”, dijo.
Sin embargo, hacer públicos los algoritmos de Twitter no supondría necesariamente ningún cambio en la plataforma. Los usuarios no podrían hacer ningún cambio en el código que hace funcionar la red social a menos que Twitter permitiera tales acciones (por ejemplo, desplegando una modificación a todos los usuarios, o permitiendo a los usuarios individuales hacer pruebas con el código que controla sus cuentas personales).
“Por supuesto, los usuarios podrían copiar el código y modificarlo, pero esos cambios no afectarían a los algoritmos desplegados en Twitter”, dijo Procaccia. “Es muy poco probable que Twitter se plantee siquiera desplegar cambios realizados por personas que no son empleados”.
Aunque hacer públicos sus algoritmos podría aumentar la confianza de los usuarios, también podría dar ventaja a los competidores de Twitter. Como señaló Procaccia, los rivales podrían copiar y desplegar los algoritmos de Twitter.
También debe hacerse con cuidado para evitar fallos de seguridad, dijo Filkov. Él considera que la publicación del código debería ir acompañada de un esfuerzo para garantizar que la base de código sea más segura.
“Comprender el código significa también comprender los fallos del código”, dijo. “Así que un mal actor puede ciertamente aprovecharse de conocer el código y exponer la plataforma a riesgos, que pueden incluir la toma de cuentas o la exposición de la plataforma a la desinformación”.