Bazofia sintética disfrazada de noticia para hacer política facha
La extrema derecha está a la vanguardia del uso de la tecnología de Inteligencia Artificial generativa como arma. Según la organización AI Forensics, cientos de cuentas en TikTok acumulan miles de millones de interacciones publicando contenido antiinmigrante que se expande sin control.
Da miedo, seguimos avanzando como zombis hacia un mundo en el que nadie quiere realmente vivir. La Inteligencia Artificial generativa está reconfigurando -y amenazando- la política. Y el periodismo, y tantos otros oficios y dimensiones de la vida. Nos prometieron una revolución creativa. Pero lo que no prometieron y sí cumplieron fue una plaga de bazofia digital, una avalancha de contenido basura, reciclado, impactante y falso. Como advierte Jason Koebler en un artículo publicado en “404 Media”, «un ataque de fuerza bruta a los algoritmos que controlan internet y que gobiernan cómo el público interpreta la realidad».
Ataques potenciados por IA, miles de vídeos e imágenes falsas al día, deepfakes, campañas de intimidación. Se propagan errores, se imponen sesgos, se recicla basura que hacen desaparecer la ética y el criterio humano. Se trata de repetir y amplificar lo que dice una máquina, sin contrastar ni conectar puntos. Sin tener ni ejercer criterio propio. No importa si el contenido es absurdo, grotesco o incoherente, no pasa nada. Si capta atención, si engancha al algoritmo, funciona. El objetivo no es informar o emocionar, sino ser clasificado como relevante y viralizarlo a través de una máquina. Y los resultados son muy inquietantes, especialmente para la política. De dar miedo, sí.
Gabriel García Márquez siempre consideró la ética como una dimensión fundamental del oficio periodístico. Decía que la ética y la técnica debían ir de la mano, suya es la frase ya convertida en lema: «en periodismo, la ética es a la técnica como el zumbido al moscardón». La idea es perfectamente válida, y totalmente insoslayable, para la política.
¿Cómo se va a ejercer la política en tiempos de IA? ¿Reproduciendo respuestas automáticas? ¿Renunciando al criterio propio? ¿Qué pensaría García Márquez si volviera a este mundo y viera el panorama? Este ecosistema diseñado no para informar, ni siquiera para defender la verdad. Nuestras sociedades donde tan peligrosas como las mentiras son las tonterías dichas con seguridad, donde meten en una licuadora mensajes e imágenes sacadas de contexto y se publican en forma de papilla que, si llena espacio, acumula clics e indexa palabras, es una estrategia de negocios válida y un chollo político.
OPORTUNISMO
La extrema derecha, desde sus partidos polííticos más marginales, ha mostrado una actitud de oportunismo pragmático y está utilizando el contenido generado por IA como arma en toda Europa. Van formando olas de contenido en redes sociales con publicaciones de que han abarcado desde el uso de imágenes hiperrrealistas de mujeres y niños comiendo insectos por parte de la extrema derecha italiana para reforzar una teoría conspirativa sobre las intenciones de una élite global, hasta memes islamófobos después de los apuñalamientos mortales en Gran Bretaña. Coinciden en el uso de los mismos modelos y temas, con el mismo enfoque, incluso con una estética común transfronteriza. En prácticamente todos los casos, los partidos y movimientos de extrema derecha han evitado el uso de cualquier tipo de identificador en las imágenes de IA.
Esto demuestra que, guste más o guste menos, la IA reduce las barreras de entrada para la creación de contenido. No se necesitan grandes conocimientos ni recursos. Pero también es un síntoma de por qué las opiniones de la extrema derecha se están expandiendo. Entre otras razones, porque tiene menos preocupaciones éticas sobre la eficacia, autenticidad y fiabilidad de estos modelos que la izquierda.
Por ejemplo, Amnistía Internacional utilizó este recurso para representar la represión en Colombia y la campaña se volvió en su contra.
Los ejemplos siempre ilustran, y los más claros corresponden a la ultraderecha. En Alemania, el partido de extrema derecha AfD y sus partidarios han sido ávidos usuarios de la IA. Basta con ver las imágenes: una mujer rubia de ojos azules levantando la mano en señal de stop, con una señal de stop y una bandera alemana de fondo, y el texto sobre la imagen dice que la gente debería dejar de venir a Alemania porque el país no necesita más «especialistas en violaciones en grupo». O anuncios de campaña que contrastan una Alemania idealizada con personas rubias de ojos azules con escenas de mujeres con velo caminando por las calles y una persona ondeando una bandera LGBTQ+. También la imagen de un cerdo gigante (animal cuyo consumo de carne está prohibido en el islam) persiguiendo a un grupo de musulmanes, con el eslogan sobre la imagen «versión cinematográfica árabe de Godzilla».
En Gran Bretaña, Tommy Robinson, el influencer ultra que agita las calles, una especie de Vito Quiles pero a lo bestia, desplegó la IA para promover protestas y publicar contenido islamófobo, basándose en suposiciones falsas sobre la identidad del presunto atacante que apuñaló mortalmente a tres adolescentes. La imagen mostraba a hombres con barba y vestimenta islámica tradicional frente al parlamento, uno de ellos blandiendo un cuchillo, detrás de un niño llorando con una camiseta de la Union Jack. El texto decía así: «¡Debemos proteger a nuestros hijos!». Una imagen generada por IA, otra más, que representaba eventos fotorrealistas que nunca ocurrieron, convertido en elemento distintivo y estratégico de una campaña de extrema derecha.
ANTIINMIGRANTE Y SEXUALIZANTE
Esta misma semana el diario británico “The Guardian” publicaba los resultados del último estudio de la organización europea AI Forensics, que en otras labores se dedica a investigar algoritmos influyentes y opacos, e informaba que el contenido antiinmigrante generado por IA obtiene miles de millones de visualizaciones en TikTok. El dato impresiona: 354 cuentas centradas en IA que acumularon 4.500 millones de visualizaciones en un mes. Imágenes falsas que anunciaban una «invasión», campañas de demonización dirigidas a líderes de izquierda y destacadas feministas, creación de señales de amenaza latente…
Según AI Forensics, algunas de estas cuentas intentan manipular el algoritmo de TikTok (que decide qué contenido ven los usuarios), publicando grandes cantidades de contenido con la esperanza de que se viralice. Una de ellas publicó hasta 70 veces al día o a la misma hora, lo que indica que se trata de una cuenta automatizada. Conviene señalar que el mes pasado, TikTok reveló que había al menos 1300 millones de publicaciones generadas por IA en la plataforma.
Parte del contenido consistía en segmentos de noticias falsas con narrativas antiinmigrantes y material que sexualizaba cuerpos femeninos. La categoría de cuerpo femenino representaba la mitad de las diez cuentas más activas, según AI Forensics. En agosto, “The Guardian” reveló que casi uno de cada diez canales de YouTube de más rápido crecimiento a nivel mundial mostraba solo contenido generado por IA. Las cuentas más populares de Tik-Tok identificadas por AI Forensics en términos de visualizaciones publicaron contenido basura o IA slop, término que se usa para describir contenido creado por IA que es absurdo, extraño y está diseñado para saturar las redes sociales, como bebés parlantes. Los investigadores reconocieron que parte de este contenido basura era «entretenido» y «adorable».
Además informaron que «esta investigación de (cuentas automatizadas) muestra cómo el contenido de IA se integra ahora en las plataformas y en un ecosistema de viralidad más amplio». Y añadieron que TikTok debería considerar la creación de una función exclusiva para separar el contenido creado por IA de las publicaciones creadas por humanos, «más allá de las etiquetas débiles u opcionales de ‘contenido de IA’ y considerar la búsqueda de un sistema justo que imponga un etiquetado sistemático y visible del contenido de IA».
IA PROBLEMA, IA SOLUCIÓN
Imagínese recibir una llamada automática, pero en lugar de una persona real, es la voz del líder del partido al que vota pidiéndole que no lo haga. Lo comparte con sus amigos y su familia, solo para descubrir que era un clon de voz de IA hiperrealista. Esto no es hipotético. En enero de 2024, una llamada automática falsa de Joe Biden llegó a los demócratas de New Hampshire instándolos a «quedarse en casa». La voz fue sintética, pero el pánico fue muy real. Y es un anticipo de las amenazas que enfrenta la política de todo el mundo a medida que las elecciones se convierten en los objetivos de la desinformación impulsada por IA.
Estas falsedades impactan en la política, y si no se controlan, los daños y la amenaza al ideal de liberación son enormes: desestabilización, erosión de confianzas, espantar la participación... No está tan claro qué podemos hacer al respecto. Ninguna solución por sí sola es la panacea, pero se pueden tomar medidas: etiquetado de contenidos, herramientas de detección, invertir en la investigación y el desarrollo para la detección, alfabetización en IA, protección electoral, rendición de cuentas de las plataformas... Pero, eso sí, ironías de la vida, la misma IA que plantea esas enormes amenazas también será parte de la solución.