CNNEarrow-downclosecomment-02commentglobeplaylistsearchsocial-facebooksocial-googleplussocial-instagramsocial-linkedinsocial-mailsocial-moresocial-twittersocial-whatsapp-01social-whatsapptimestamptype-audiotype-gallery
Inteligencia artificial

15 años de ‘Minority Report’: una película que nos advirtió lo que venía pero que ignoramos

Por Matt McFarland

(CNNMoney) — El futuro está llegando incluso más rápido de lo que predijo Minority Report, una película de ciencia ficción aplaudida durante mucho tiempo por ser profética.

El filme distópico de Steven Spielberg cumplió 15 años de haber sido lanzado esta semana.

Minority Report, ambientada en 2054, incluye carros que no necesitan conductor, avisos publicitarios personalizados, automatización de la voz en el hogar, insectos robóticos y computadoras controlados por gestos. Toda esta tecnología está entrando a nuestras vidas en 2017.

Pero muchos expertos advierten que una de las tecnologías destacadas en la película, la de la vigilancia policial predictiva, es usada de manera temeraria e imprudente hoy en día.

LEE: Google usará etiquetas de advertencia e inteligencia artificial para luchar contra los videos extremistas

Aunque los departamentos de policía no entran en los barrios en propulsores para distorsionar asesinatos, como sucede en la película, la información y la inteligencia artificial ya se están usando para predecir la ubicación de potenciales crímenes y enviar agentes a esas áreas. Un estudio del 2016 de la organización UpTurn encontró que 20 de las 50 fuerzas policiales más grandes de Estados Unidos han utilizado la vigilancia predictiva.

La película sirvió como historia de advertencia sobre los peligros de la tecnología, pero ese no es su legado.

Minority Report se ha vuelto menos que un ejemplo admonitorio y más un prototipo, sobre todo en lo que tiene que ver con la vigilancia policial predictiva”, dice Suresh Venkatasubramanian, profesor de informática de la Universidad de Utah.

Según Andrew G. Ferguson, profesor de la escuela de leyes de la Universidad del Distrito de Columbia y autor del libro The Rise of Big Data Policing (El aumento de la vigilancia policial con grandes bases de datos), que está próximo a publicarse, los departamentos de policía se sienten atraídos por el potencial de la tecnología como una solución rápida, objetiva y confiable.

“Los organismos policiales están adoptando esa tecnología por el gran atractivo de la caja negra de la vigilancia policial”, dice Ferguson. “Cada jefe tiene que responder una pregunta irrefutable: ¿qué está haciendo usted para disminuir la tasa de criminalidad?”.

En Minority Report, el departamento de cíborgs psíquicos de la policía local concluye que el protagonista, interpretado por Tom Cruise, cometerá un asesinato. Mientras trata de probar su inocencia, Cruise se da cuenta de que los cíborgs no tienen un juicio coherente.

Pero esa lección no ha sido ampliamente entendida con los sistemas de predicción de crímenes de la actualidad, dice Venkatasubramanian.

MIRA: La entrada triunfal de la inteligencia artificial

“Trabajamos con algoritmos como si fueran infalibles y los verdaderos árbitros de cómo se tiene que comportar la gente, cuando por supuesto no son nada de eso”, agrega.

Un programa del Departamento de Policía de Chicago ha usado la inteligencia artificial para identificar a gente que tiene altas probabilidades de ser violenta con armas de fuego, pero un estudio del 2016 de la Corporación Rand halló que la táctica no era efectiva.

“Cuando tienes máquinas de aprendizaje de algoritmos tomando decisiones, cometen errores frecuentemente”, asegura Venkatasubramanian. “En lugar de esconder el hecho de que se equivoquen, quieres que sean abiertos y se anticipen a eso”.

Venkatasubramanian hace parte del grupo de investigadores preocupados por las imprecisiones de las predicciones algorítimicas. Señala que el problema es cómo aprenden los algoritmos de la retroalimentación. Por ejemplo, si los agentes de policía pasan más tiempo observando un barrio específico, sus estadísticas de arrestos pueden incrementarse aunque los crímenes subyacentes permanezcan constantes.

Si las máquinas son entrenadas con información sesgada, también sus resultados también serán parciales. Comunidades con un largo historial de ser vigiladas fuertemente se verán afectadas de manera desproporcionada por la vigilancia predictiva, advierte un estudio.

Según Kristen Thomasen, profesora de derecho en la Universidad de Windsor, quien estudia la ética de la inteligencia artificial, los miedos distópicos planteados en la película se sienten hoy en día.

Thomasen subraya la forma en que han sido usados los sistemas de inteligencia artificial para ayudarles a los jueces a establecer condenas penales. En esos casos, los sistemas de inteligencia artificial valoran la probabilidad de que se cometa un crimen en el futuro. (Después de que ProPublica publicó su histórica pieza de calificación de las evaluaciones de riesgo en mayo del 2016, se desató un debate entre expertos informáticos sobre el papel de la inteligencia artificial en la vigilancia policial).

Por ahora, los algoritmos no están ampliamente disponibles para que personas externas analicen de manera efectiva si los sistemas están sesgados. Algunos de los creadores de algoritmos argumentan que su tecnología es un secreto comercial y revelarlo podría perjudicar su negocio.

“Eso hace que sea mucho más desafiante probar tu inocencia o explicar porqué esa predicción es errónea”, dice Thomasen. “Hay una pérdida en el acceso a la justicia. Es un principio fundamental del sistema de justicia que tengas la posibilidad de defenderte a ti mismo”.

Aunque Minority Report nos advirtió de esos problemas, 15 años no han sido suficientes para que la sociedad los absorba. Y los entienda.

“¿Es Minority Report un himno de nuestro tiempo, sobre el uso de algoritmos en nuestras vidas? No, todavía no”, afirma Venkatasubramanian. “Tal vez haya gente en 20 años que diga: ‘Oigan, prácticamente dio en el clavo’”.