Aritz Intxusta
Redactor de actualidad

Los bots de IA ahogan el acceso humano al conocimiento libre

Wikipedia da la voz de alarma ante el abuso por parte de una nueva generación de bots buscadores y más sofisticados del acceso a sus contenidos. Más de un tercio de las visitas a la gran enciclopedia libre no son humanas. Otras fuentes científicas y repositorios de libros se ven afectadas también.

Un tercio de las visitas de Wikipedia ya son realizadas por robots que dependen de programas de inteligencia artificial.
Un tercio de las visitas de Wikipedia ya son realizadas por robots que dependen de programas de inteligencia artificial. (AFP)

Los bots de inteligencia artificial, como ChatGPT, Gemini (Google) o el modelo chino Deepseek, a diferencia de los humanos, no tienen memoria. Razonan, con limitaciones en ciertos ámbitos y ventajas en otros, pero no saben. Además, necesitan entrenarse continuamente para ser rápidos y dar respuestas adecuadas y veraces a la persona que les está consultando.

Los desarrolladores han tenido problemas muy serios por modelos que se les han desviado hacia respuestas inadecuadas, por xenófobas, erradas o llenas de odio... por reflejar la realidad del internet de hoy. Por eso los programadores han enfocado sus modelos inteligentes a buscar información en fuentes fidedignas. “El País” ha desarrollado un asistente que solo busca en noticias que ha publicado ese medio y “The Washington Post” ha hecho lo propio, pero por lo general, como la mayoría de personas, acuden a Wikipedia.

Según alertó Maciej Artur Nadzikiewicz, miembro de la Junta Directiva de Wikipedia en Europa, los costes de la infraestructura de Wikipedia han crecido un 50% desde enero de 2024 por las continuas consultas que estos robots realizan a la macroenciclopedia virtual (que no tiene ánimo de lucro) y que ya suponen un tercio de sus visitas.

Hay que tener en cuenta que que para un portal web soportar más visitas requiere de mayor infraestructura y que esto tiene un coste. Si hay un exceso de consultas al mismo tiempo, la web se bloquea. Es lo que ocurre de forma relativamente habitual con las entradas de conciertos que, en el momento preciso en que salen a la venta, la web colapsa de forma temporal

«La infraestructura de la Fundación Wikimedia está diseñada para soportar picos repentinos de tráfico humano durante eventos de gran interés. Sin embargo, la cantidad de tráfico generado por los bots scrapers no tiene precedentes y presenta crecientes costes de alojamiento y riesgos para Wikipedia y nuestro modelo, incluyendo la disponibilidad de Wikipeda para nuestros lectores», avisó Maciej Artur Nadzikiewicz.

El problema es «muy serio», corrobora Humberto Bustince, Catedrático de Ciencia de la Computación e IA de la UPNA. «Los chatbots de inteligencia artificial generativa no distinguen lo verdadero de lo falso, tan solo están programados para crear una respuesta a tiempo real y, por eso, acuden a lugares de conocimiento abierto», asegura. De ahí que se apoyen en bases de datos como la de Wikipedia.

Bustince subraya que la tendencia irá a más. Según explica, la IA está evolucionando desde un procesador de textos que responde o ejecuta en función de las peticiones (prompts) en un chat específico hacia los asistentes virtuales inteligentes que se ejecutan por voz. Están transmutando hacia una nueva generación de Alexas de Amazon o Siris de Apple.

Cada vez que se interactúa con comandos de voz con estos asistentes, se pone en marcha un mecanismo que satura las fuentes de conocimiento libre de los humanos y, además, se genera un enorme coste energético y de agua (para refrigerar los macroordenadores donde se procesan las peticiones).

Bustince está tan preocupado por esto último que considera que, cada vez que se realiza una petición de este tipo, se debería informar al usuario del coste energético.

Aunque Wikipedia es la más emblemática de las fuentes de conocimiento libre, no es la única afectada por los bots rastreadores de información. El 17 de marzo los bots colapsaron temporalmente la Oapen (Open Access Publishing in European Network), una fundación que promueve el acceso libre a textos académicos. También el proyecto Gutenberg de libros electrónicos ha dado avisos de disfuncionamiento a causa de estos programas.

No es que antes no hubiera bots y tampoco es una mera cuestión de cantidad, es que se han vuelto más voraces. Google usa bots cuando empleamos su buscador, pero estos se limitan a encontrar referencias válidas. Los bots que usa la IA (scrapers) actuales no se conforman con leer, sino que tienen que inferir y elaborar, por lo que la forma en la que, de alguna manera, exprimen la información es más exigente y es más fácil que colapsen las páginas que visitan . Al final, lo que los robots crean es un cuello de botella que entorpece que los humanos accedan a ese conocimiento. Y esto resulta aterrador.