A specialist holds up an iPhone 16 Pro Max following Apple's "It's Glowtime" event in Cupertino, California, September 9, 2024. (Photo by Nic COURY / AFP) (Photo by NIC COURY/AFP via Getty Images)
¿Te convencerá Apple Intelligence de actualizar tu iPhone? Mira cómo funciona
01:25 - Fuente: CNN
Nueva York CNN  — 

El grupo de libertad de prensa Reporteros Sin Fronteras (RSF) instó a Apple a eliminar su nueva función de inteligencia artificial que resume noticias después de que publicara un titular falso atribuido a la BBC.

La reacción se produce después de que una notificación push creada por Apple Intelligence y enviada a los usuarios la semana pasada resumiera incorrectamente un reporte de la BBC que decía que Luigi Mangione, el sospechoso detrás de la muerte del CEO de UnitedHealthcare, se había disparado a sí mismo.

La BBC informó que se había comunicado con Apple sobre la función “para plantear esta preocupación y solucionar el problema”, pero no pudo confirmar si el fabricante del iPhone había respondido a su queja.

El miércoles, Vincent Berthier, responsable de la sección de tecnología y periodismo de Reporteros sin Fronteras, pidió a Apple “que actúe de manera responsable y elimine esta función”.

“Las IA son máquinas de probabilidad y los hechos no se pueden decidir con una tirada de dados”, dijo Berthier en un comunicado. “La producción automatizada de información falsa atribuida a un medio de comunicación es un golpe a la credibilidad del medio y un peligro para el derecho del público a una información fiable sobre los asuntos de actualidad”.

En términos más generales, el organismo de periodistas dijo que está “muy preocupado por los riesgos que plantean las nuevas herramientas de inteligencia artificial a los medios de comunicación, y señaló que el incidente enfatiza cómo la inteligencia artificial sigue siendo “demasiado inmadura para producir información confiable para el público y no se le debería permitir estar en el mercado para tales usos”.

“La forma probabilística en que operan los sistemas de IA los descalifica automáticamente como una tecnología confiable para los medios de comunicación que pueda usarse en soluciones dirigidas al público en general”, dijo RSF en un comunicado.

En respuesta a las preocupaciones, la BBC dijo en un comunicado: “es esencial para nosotros que nuestras audiencias puedan confiar en cualquier información o periodismo publicado en nuestro nombre y eso incluye las notificaciones”.

Apple no respondió a una solicitud de comentarios.

Apple presentó su herramienta de inteligencia artificial generativa en Estados Unidos en junio, cuando promocionaron la capacidad de la función para resumir contenido específico “en forma de un párrafo digerible, puntos clave con viñetas, una tabla o una lista”. Para agilizar la ingesta de noticias, Apple permite a los usuarios de sus dispositivos iPhone, iPad y Mac agrupar las notificaciones, produciendo una lista de noticias en una sola alerta push.

Desde que la función de inteligencia artificial se lanzó al público a fines de octubre, los usuarios denunciaron que también resumió erróneamente una noticia del New York Times, que afirmaba que el primer ministro de Israel, Benjamin Netanyahu, había sido arrestado. En realidad, la Corte Penal Internacional había publicado una orden de arresto contra Netanyahu, pero los lectores que se desplazaban por sus pantallas de inicio solo veían dos palabras: “Netanyahu arrestado”.

El problema con el incidente de Apple Intelligence surge de la limitación de los medios de comunicación para tomar acciones. Si bien algunos medios de comunicación y agencias de noticias optan por el uso de inteligencia artificial en la redacción de piezas periodísticas, la decisión queda en ellos. Pero los resúmenes de Apple Intelligence, que son opcionales para el usuario, atribuyen las sinopsis a los medios. Esto significa que, demás de difundir información errónea potencialmente peligrosa, también se corre el riesgo de dañar la credibilidad de los medios.

Estos problemas de inteligencia artificial de Apple son los más recientes, ya que los medios de comunicación y agencias de noticias luchan por navegar por los cambios sísmicos provocados por la tecnología en desarrollo. Desde el lanzamiento de ChatGPT hace poco más de dos años, varios gigantes tecnológicos lanzaron sus propios modelos de IA, muchos de los cuales fueron acusados ​​de entrenar a sus chatbots utilizando contenido con derechos de autor, incluidos informes de noticias. Si bien algunos medios, incluido The New York Times, han presentado demandas por la supuesta sustracción de contenido por parte de la tecnología, otros, como Axel Springer, cuyas marcas de noticias incluyen Politico, Business Insider, Bild y Welt, firmaron acuerdos de licencia con los desarrolladores.