CNNE 1392407 - candidato gpt- el posible apocalipsis presidencial segun el partido republicano
¿Cómo sería un candidato creado en IA? Estos serían los riesgos de un ‘candidato GPT’ en las elecciones
03:07 - Fuente: CNN

(CNN) – El CEO de OpenAI, Sam Altman, instó este martes a los legisladores a regular la inteligencia artificial durante una audiencia en el Senado, en la que describió el actual auge de esta tecnología como un potencial “momento histórico”, pero que requiere garantías.

“Creemos que la intervención reguladora de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes”, dijo Altman en su intervención inicial ante una subcomisión judicial del Senado.

La comparecencia de Altman se produce después de que el éxito viral de ChatGPT, la herramienta de chatbot de su empresa, renovara una carrera en torno a la inteligencia artificial (IA) y despertara la preocupación de algunos legisladores por los riesgos que plantea la tecnología.

El senador Richard Blumenthal abrió la audiencia de este martes con una grabación falsa de su propia voz, ilustrando los riesgos potenciales de la tecnología. La grabación, que incluía comentarios escritos por ChatGPT y audio de la voz de Blumenthal producido a partir de grabaciones de sus intervenciones reales en el pleno, argumentaba que no se puede permitir que la IA se desarrolle en un entorno no regulado.

Blumenthal explicó que, aunque ChatGPT reflejaba fielmente las opiniones del legislador real, podría haber producido con la misma facilidad “un respaldo a la rendición de Ucrania o al liderazgo de Vladimir Putin”. Eso, dijo, “habría sido realmente aterrador”.

Una lista cada vez mayor de empresas tecnológicas ha desplegado nuevas herramientas de IA en los últimos meses, con el potencial de cambiar la forma en que trabajamos, compramos e interactuamos entre nosotros. Pero estas mismas herramientas también han suscitado críticas de algunos de los nombres más importantes de la tecnología por su potencial para perturbar millones de empleos, difundir información errónea y perpetuar los prejuicios.

En sus declaraciones de este martes, Altman dijo que la posibilidad de que la IA se utilice para manipular a los votantes y desinformar están entre “mis áreas de mayor preocupación”, especialmente porque “vamos a enfrentarnos a unas elecciones el año que viene y estos modelos son cada vez mejores”.

Una forma en que el Gobierno de Estados Unidos podría regular la industria es creando un régimen de licencias para las empresas que trabajan en los sistemas de IA más potentes, dijo Altman este martes. Esta “combinación de requisitos de licencias y pruebas”, dijo Altman, podría aplicarse al “desarrollo y lanzamiento de modelos de IA por encima de un umbral de capacidades”.

También testificarán este martes Christina Montgomery, vicepresidenta y directora de privacidad y confianza de IBM, y Gary Marcus, exprofesor de la Universidad de Nueva York y autodenominado crítico de la “exageración” de la IA.

Montgomery advirtió contra la creación de una nueva era de “moverse rápido y romper cosas”, el mantra de siempre de gigantes de Silicon Valley como Facebook. “La era de la IA no puede ser otra era de ‘moverse rápido y romper cosas’”, dijo Montgomery a los legisladores. Aun así, dijo, “tampoco tenemos que frenar la innovación”.

Tanto Altman como Montgomery también dijeron que la IA puede eliminar algunos puestos de trabajo, pero crear otros nuevos.

“Habrá un impacto en el empleo”, dijo Altman a Blumenthal. “Intentamos ser muy claros al respecto, y creo que será necesaria la colaboración entre la industria y el gobierno, pero sobre todo la acción del gobierno, para averiguar cómo queremos mitigarlo. Pero soy muy optimista sobre lo grandes que serán los empleos del futuro”.

El CEO de OpenAI, Sam Altman, testifica ante una audiencia de la subcomisión de Privacidad, Tecnología y Derecho del Senado titulada 'Supervisión de la Inteligencia Artificial: Reglas para la Inteligencia Artificial' en el Capitolio en Washington, Estados Unidos, el 16 de mayo de 2023. Crédito: Elizabeth Frantz/Reuters

Como CEO de OpenAI, Altman, quizá más que ninguna otra figura, se ha convertido en el rostro de una nueva generación de productos de IA capaces de generar imágenes y textos en respuesta a las indicaciones de los usuarios.

Las declaraciones de Altman se producen un día después de reunirse con más de 60 legisladores de la Cámara de Representantes durante una cena. En la reunión bipartidista, en la que hubo un reparto más o menos equitativo de republicanos y demócratas, Altman hizo una demostración de varios usos de ChatGPT “para gran diversión”, según una persona de la sala que describió a los legisladores como “fascinados” por el evento.

La mayoría de los asistentes reconocieron que será necesaria una regulación de la inteligencia artificial.

Ro Khanna, representante demócrata por California y cuyo distrito incluye Silicon Valley, dijo que Altman subrayó durante la cena que la IA es una herramienta, no una “criatura”, y que la IA “puede ayudar con tareas, no con empleos”.

“La contribución más útil de Altman fue rebajar la exageración”, dijo Khanna a CNN.

En un reflejo de cómo la IA ha irrumpido con fuerza en el Congreso, incluso mientras la subcomisión judicial interrogaba a OpenAI e IBM, la Comisión de Seguridad Nacional y Asuntos Gubernamentales del Senado celebraba una audiencia separada y simultánea sobre el uso de la inteligencia artificial en el gobierno.

A principios de este mes, Altman fue uno de los varios CEO de tecnología que se reunieron con la vicepresidenta Kamala Harris y, brevemente, con el presidente Joe Biden, como parte de los esfuerzos de la Casa Blanca por subrayar la importancia del desarrollo ético y responsable de la IA.

En las entrevistas que ha concedido este año, Altman se ha presentado como alguien consciente de los riesgos que plantea la IA e incluso “un poco asustado” por la tecnología. Él y su empresa se han comprometido a avanzar de forma responsable.

Otros quieren que Altman y OpenAI actúen con más cautela. Elon Musk, que ayudó a fundar OpenAI antes de separarse del grupo, se unió a docenas de líderes tecnológicos, profesores e investigadores para firmar una carta en la que se pide a los laboratorios de inteligencia artificial como OpenAI que detengan el entrenamiento de los sistemas de IA más potentes durante al menos seis meses, citando “profundos riesgos para la sociedad y la humanidad”.

Altman reconoció estar de acuerdo con partes de la carta. “Creo que moverse con cautela y un rigor cada vez mayor para las cuestiones de seguridad es realmente importante”, dijo Altman en un evento el mes pasado. “La carta no creo que fuera la forma óptima de abordarlo”.

– Jennifer Korn de CNN contribuyó con este reportaje.