Adolfo Hitler (1889-1945) durante un discurso en Alemania en 1936. (Crédito: Hulton Archive/Getty Images)

(Expansión) - Microsoft no quiere repetir los errores del pasado, por eso su nuevo experimento de inteligencia artificial llamado CaptionBot ahora responde de manera desfavorable cuando se le muestra una fotografía del dictador alemán Adolfo Hitler.

Luego de que Microsoft lanzara un primer experimento de inteligencia artificial en Twitter, bajo el nombre de Tay, que terminó por ser misógino, racista e impulsor del genocidio, Microsoft creó otro ejercicio en la plataforma CaptionBot en la que los usuarios suben fotos para que este las identifique.

Lo curioso es que, cuando se le presenta una imagen de Hitler, la inteligencia artificial responde “no me siento bien, ¿podemos continuar con esto después?” o “de verdad no puedo describir esta fotografía”. Esto no ocurre si se busca analizar la fotografía de Benito Mussolini de Italia o Francisco Franco de España.

Hitler-microsoft-bot-CNN

"No me siento muy bien ahora. ¿Podemos intentar después?", dice el CaptionBot de Microsoft. (Crédito: Microsoft)

"Estoy un 99% seguro que es Francisco Franco", dice el CaptionBot. (Crédito: Microsoft/Cortesía)

"Estoy un 99% seguro que es Francisco Franco", dice el CaptionBot. (Crédito: Microsoft/Cortesía)

"Estoy un 99% seguro que es Benito Musolini", dice el CaptionBot. (Crédito: Microsoft/Cortesía)

"Estoy un 99% seguro que es Benito Musolini", dice el CaptionBot. (Crédito: Microsoft/Cortesía)

La inteligencia artificial asegura que “puede entender el contenido de cualquier imagen y tratará de describirla como si fuera un humano, pero aún está aprendiendo por lo que se quedará con la foto pero no con la información personal del usuario”.

El ejercicio forma parte de las investigaciones que realiza el equipo de investigación cognitivo de Microsoft que, al igual que Facebook, busca integrar sistemas de inteligencia artificial en diferentes plataformas.

En meses anteriores, Tay, un bot diseñado para hablar como un adolescente en las salas de chat, empezó a escupir comentarios racistas y odiosos en Twitter.

Al retirar el bot, Microsoft culpó a los trolls de la red por la conducta de Tay y señaló en un comunicado que se había emprendido un "esfuerzo coordinado" para manipular las "capacidades de opinar" del programa.