Aritz Intxusta
Redactor de actualidad
Entrevue
Ujué Agudo
Psicóloga e investigadora en inteligencia artificial

«Lo que de veras me atemoriza no es la Inteligencia Artificial, sino la intención de su dueño»

Doctora en Psicología por Deusto con la tesis ‘La influencia de los algoritmos en las decisiones y juicios humanos’, Ujué Agudo es investigadora de Jakala y Bikolabs, además de profesora colaboradora de la Universidad Oberta de Catalunya y profesora asociada de la Universidad de Navarra.

Ujué Agudo, ponente en el curso de verano de la UPNA en Uxue.
Ujué Agudo, ponente en el curso de verano de la UPNA en Uxue. (Aitor KARASATORRE | FOKU)

La UPNA y Jakiunde celebran en Uxue su curso de verano de 2025. Lo que hoy es la basílica de Uxue fue el primer proyecto de Universidad para Nafarroa, cuyas obras comenzaron en 1376 por orden del rey Carlos II, pero que no llegó a ponerse en marcha. Siete siglos después, se han expuesto investigaciones punteras sobre el miedo: miedo al vecino, miedo al cáncer, miedo a la muerte, miedo a la guerra, el miedo que queda en las víctimas. Ujué Agudo expuso sus conocimientos sobre el último de los miedos en atenazar a la humanidad: el miedo a la Inteligencia Artificial. 

Investigadora por la Universidad de Deusto, Agudo trabaja en la actualidad en un proyecto para conocer la opinión de personas de todas las edades y profesiones sobre el desempeño de la IA en sus diferentes tareas.

¿Por qué la inteligencia artificial nos genera tanto miedo?

La IA despierta dos miedos diferentes. Hay un miedo grande, global. La gente lo expresa, por ejemplo, cuando comenta que cierta imagen la ha hecho la IA y le sorprende su verosimilitud. Decimos: «¡Esto qué miedo da!». El segundo miedo llega cuando la gente opina que la IA es más que una herramienta, que es una suerte de ente terminará destruyéndonos o quitándonos los trabajos o manipulándonos. Es un miedo casi apocalíptico. La IA nos despierta también la sensación contraria. Hay quien cree que nos salvará, que descubrirá un nuevo modo para que las células madre acaben con el cáncer o yo qué sé. Lo interesante es que tanto la perspectiva amedrentadora como la que se siente esperanzada comparten narrativa.

¿En qué sentido?

Ambas visiones nos vienen a decir que la Inteligencia artificial es superior en muchos aspectos a los humanos y que por eso nos puede manipular, destruir, salvar o resolver todo lo que no hemos podido resolver. Creemos que la IA es superior a nosotros y, además, imparable. Esta narrativa provoca que adoptemos unas actitudes que no son adecuadas. Más que centrarnos en saber cómo utilizarla y sacar provecho de ella, asumimos que es imparable. Esto afecta a las discusiones sobre si deberíamos regularla o no y cuánto debemos legislar. Nos inmoviliza.

Le concedo que, a fin de cuentas, la Inteligencia Artificial no deja de ser una herramienta pensada para ayudarnos en ciertas tareas.

Mira, hay un ejemplo que he usado en mi charla en Uxue. Un compositor de música, David Cope, creó una IA para que le ayudase en su proceso creativo en 1981, pues se sentía bloqueado. Como sucedió hace bastante tiempo, Cope ya pasó por estos miedos que ahora nos afectan a todos. Que si el ordenador sustituiría a los compositores, que si la música que crea un ordenador carece de alma, que si generaría dependencia y luego seremos incapaces de crear música sin este tipo de ayuda... Lo significativo del caso es que, Cope creó una primera IA, que llamó EMI (Experiments in Musical Intelligence) con la que sus composiciones tuvieron escaso éxito, pues se parecían demasiado a Bach, Mozart y a los referentes que el había prefijado. Entonces Cope diseñó otro programa, que bautizó como Emily Howell, que le permitía interactuar con él y crear música nueva. Con este segundo programa colaborativo sí que sus composiciones tuvieron éxito.

«En realidad, todos estos referentes del cine parten de inteligencias artificiales que en modo alguno son las que hoy tenemos a nuestro alrededor».

Le confieso que el miedo que me despierta la IA está muy vinculado al cine. Me evoca al timón de la nave especial de ‘Wall-E’, de Pixar, que mantiene a toda la tripulación gorda y mirando pantallas. También a ‘Terminator’. Llevamos desde los 80 fantaseando reiteradamente con inteligencias artificiales que van a acabar con nosotros.

El término IA, hasta hace poco, solo lo usaban técnicos y desarrolladores. Cuando se generaliza, para entender el concepto, lo lógico es tomar como referencia lo que ya conocemos, y los ejemplos en ficción no nos dicen cosas demasiado positivas de esta tecnología. Y más, si lo unimos a lo que he comentado al principio, que partimos de inicio con que la IA es algo superior a los humanos. En realidad, todas estas ficciones parten de inteligencias artificiales que en modo alguno son las que hoy tenemos a nuestro alrededor.

También suscita miedo que las IA más potentes estén en muy pocas manos. En manos interesadas, además. Y prácticamente todas, a la espera de lo que haga China, comparten una cosmovisión muy concreta, occidental, cuando no puramente estadounidense.

Muchas veces se obvia esa parte. Ese es un miedo que no teme tanto a la inteligencia artificial como si fuera un agente autónomo. Lo que asusta son las intenciones de esos monopolios, porque tienen en su poder una herramienta muy poderosa capaz de guiar a muchísimas personas según sus intenciones. Los últimos días hemos tenido noticias de que Grok, la IA de Elon Musk y X, está creando deepfakes (falsos desnudos generados digitalmente) sin que se lo pidan. Lo que de veras me atemoriza no es la IA, sino la intención de sus dueños. Son ellos los que dirigieron la herramienta hacia ese tipo de desarrollo. Llama la atención que creamos que es la máquina la que nos va a hacer daño, cuando lo esencial es conocer y determinar qué objetivos persiguen los dueños de esas herramientas de IA.

Agudo participó en una charla coloquio con Humberto Bustince tras su ponencia. (Aitor KARASATORRE | FOKU)

Cuantos más datos maneja una IA, más potente es. La UE es la región del mundo que más defiende la privacidad de sus ciudadanos. En EEUU se protegen muy poco y en China prácticamente no hay intimidad. Esto ha hecho a pensadores ultraliberales defender una desregulación, pues de otro modo las IA desarrolladas en EEUU o en China, necesariamente serán mejores que las europeas.

Es curioso que esta discusión se esté dando en tecnología, como si en tecnología pudiéramos saltarnos todas las leyes y toda la protección en pos de un supuesto futuro. En otros campos jamás nos plantearíamos esto. Nadie se plantea desregular el ámbito de la medicina para que la UE sea más competitiva. No tiene sentido acogernos a que como unos se están saltando todas las barreras, aquí también debemos hacerlo. Tenemos que mantener el control, marcar cómo y para qué se usa la IA.

En internet se libra una batalla política y una batalla por la desinformación. El otro día, Marcelino Madrigal denunciaba que hay bots que están volcando contenido en internet con el único objetivo de confundir a las IA para hacer que las respuestas que dan a sus usuarios sean lo más ajustadas a la ideología de quien genera esa información falsa. Me concederá que eso también da miedo.

Creo que ese va a ser uno de los grandes retos. La Inteligencia artificial se tiene que alimentar de datos. Prácticamente, se ha alimentado de todos los datos posibles que existían en la red. En este momento empieza a alimentarse de datos sintéticos, generados por ella misma. Y si no son adecuados, no son correctos o están creados con una intencionalidad concreta, corremos el riesgo de que con esa retroalimentación el nivel de desinformación siga acrecentándose. Se están reportando casos de búsquedas en Google donde el buscador devuelve datos que no son reales, desde cuadros que no existen a animales inventados o creados artificialmente. Sucede que cada vez las máquinas parten de más datos que no son fuentes primarias. Hay que entender, también, que las IA interactúan y aprenden constantemente. Modelos que emitían respuestas no sesgadas cuando se entrenaron, tras la interacción, pueden cambiar.

«La IA se ha alimentado de todos los datos posibles que existían en la red. En este momento empieza a alimentarse de datos sintéticos, generados por ella misma». 

Hay un asunto que se me ha quedado pendiente en una de sus respuestas anteriores. Al hablar de que la IA está en muy pocas manos, usted ha dicho que son herramientas que nos pueden «guiar». ¿De qué modo nos guían? ¿Hasta qué punto somos libres al usar una inteligencia artificial?

La IA ya tiene mucho impacto en la toma de decisiones a todos los niveles. Está presente en muchísimas aplicaciones de uso diario. Netflix no te enseña todo su catálogo de series, sino únicamente las que considera que a ti te van a gustar. Su IA genera una ilusión de libertad, de que elegimos lo que queremos, pero esa libertad no es completa. No ofrecen el menú completo.

Es una forma muy sutil de modificar nuestras decisiones, pero a su vez profunda, aunque sea para un tema baladí, como el elegir qué película me pongo.

El problema es que muchas veces no sabemos cuáles han sido los criterios para esa selección de opciones. No los vemos, no nos dicen. Esto es para ti, porque he decidido que tú solo vas a optar sobre estas características. Y no solo lo hace Netflix, también Youtube, Google e incluso Tinder.

Pues ahí ya cambia la cosa. Una cosa es con qué película me entretengo esta tarde y otra la IA que emplea Tinder, una app de escoger pareja. La IA está condicionando a la pareja que podemos tener, incluso de por vida.

Hay una periodista francesa que se llama Judith Duportail que escribió un libro sobre el tema, que se titula ‘El algoritmo del amor’. Allí explica cómo se dio cuenta de que Tinder le ofrecía unos candidatos diferentes que a su compañera de piso, a pesar de que vivían en el mismo domicilio y tenían una edad similar. No pocas veces, las IA parecen magos que logran acertar nuestra carta, pero gracias a que el truco era que solo nos dejaron escoger esa carta de la baraja.