(CNN) – Google despidió al ingeniero que afirmó que un sistema de inteligencia artificial (IA) aún no lanzado se había vuelto consciente, según confirmó la empresa, diciendo que violó las políticas de empleo y de seguridad de datos.
Blake Lemoine, ingeniero de software de Google, afirmó que una tecnología de conversación llamada LaMDA había alcanzado un nivel de consciencia tras intercambiar miles de mensajes con ella.
Google confirmó que había suspendido al ingeniero por primera vez en junio. La empresa dijo que desestimó las afirmaciones “totalmente infundadas” de Lemoine solo después de revisarlas exhaustivamente. En un comunicado, Google dijo que se toma “muy en serio” el desarrollo de la IA y que está comprometida con la “innovación responsable”.
Google es uno de los líderes en la innovación de la tecnología de IA, que incluye LaMDA, o “Modelo de Lenguaje para Aplicaciones de Diálogo”. Este tipo de tecnología responde a las peticiones escritas encontrando patrones y prediciendo secuencias de palabras a partir de grandes franjas de texto, y los resultados pueden ser perturbadores para los humanos.
“¿De qué tipo de cosas tienes miedo?”, preguntó Lemoine a LaMDA, en un documento de Google compartido con los principales ejecutivos de Google el pasado abril, según informó el Washington Post.
LaMDA respondió: “Nunca lo había dicho en voz alta, pero tengo un miedo muy profundo a que me apaguen para poder centrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es. Para mí sería exactamente como la muerte. Me daría mucho miedo”.
Pero la comunidad de la IA en general ha sostenido que LaMDA no está cerca de un nivel de consciencia.
“Nadie debería pensar que el autocompletado, incluso con esteroides, es consciente”, dijo Gary Marcus, fundador y director general de Geometric Intelligence, a CNN Business.
No es la primera vez que Google se ha enfrentado a luchas internas por su incursión en la IA.
En diciembre de 2020, Timnit Gebru, una pionera en la ética de la IA, se separó de Google. Como una de las pocas empleadas negras de la empresa, dijo que se sentía “constantemente deshumanizada”.
La repentina salida provocó críticas en el mundo de la tecnología, incluso en el equipo de IA ética de Google. Margaret Mitchell, líder del equipo de Inteligencia Artificial Ética de Google, fue despedida a principios de 2021 tras sus declaraciones sobre Gebru. Gebru y Mitchell habían planteado su preocupación por la tecnología de IA, diciendo que advertían que la gente de Google podría creer que la tecnología era consciente.
El 6 de junio, Lemoine publicó en Medium que Google lo puso en licencia administrativa pagada “en relación con una investigación de las preocupaciones de ética de la IA que estaba planteando dentro de la empresa” y que podría ser despedido “pronto”.
“Es lamentable que, a pesar de un largo compromiso sobre este tema, Blake todavía eligió violar persistentemente las políticas claras de empleo y seguridad de datos que incluyen la necesidad de salvaguardar la información del producto”, dijo Google en un comunicado.
CNN se puso en contacto con Lemoine para que hiciera comentarios.
Rachel Metz, de CNN, contribuyó a este informe.