Ibai Azparren
Aktualitateko erredaktorea / Redactor de actualidad

Anthropic, OpenAI y el fin de la ética en la IA militar

Anthropic se negó a que el Pentágono usara su IA sin restricciones éticas. Trump se echó en brazos de OpenAI, que firmó sin condiciones. Lo que parecía una disputa corporativa es, en realidad, el primer pulso sobre los límites de la IA en la guerra y una pista de qué ocurre cuando nadie los impone.

Sam Altman, CEO de OpenAI, durante la gala de los Óscar.
Sam Altman, CEO de OpenAI, durante la gala de los Óscar. (AFP)

En algún momento de la madrugada de la entrega de los Óscar, entre copas de “Don Julio” y un desfile de estrellas nominadas como Michael B. Jordan o Timothée Chalamet, el dramaturgo Jeremy O. Harris se acercó a Sam Altman y lo llamó nazi. Altman, jefe de OpenAI (ChatGPT), judío del año en 2023, según ‘Jerusalem Post’, y uno de los nombres más influyentes de Silicon Valley, no pertenece obviamente al Partido Nazi, pero su figura ha empezado a circular en debates que ya no tienen nada de triviales. Días antes había firmado un acuerdo con el Pentágono para integrar su IA en sistemas clasificados, justo después de que su principal competidor, Anthropic, ya sea por cálculo estratégico o no, se enfrentase al aparato militar estadounidense negándose a eliminar los límites éticos de su tecnología.

Tras la gala, Harris explicó a ‘Vanity Fair’ que era tarde y había tomado demasiados martinis. «Así que me equivoqué al decir a Altman que era como Goebbels... Debería haber dicho Friedrich Flick», matizó en referencia a un industrial alemán cuyas empresas mantenían una relación simbiótica con el Partido Nazi. La escena, más propia de la prensa rosa que de la geopolítica, condensaba, sin embargo, un debate que lleva meses fraguándose en Washington. ¿Quién tiene el poder de decidir cómo se usa la IA? ¿Alguien tiene intención de ponerle límites?

Desde luego, el manifiesto que publicó Palantir el domingo, en el que la empresa de Peter Thiel y Alex Karp dibujó un mundo dominado por las grandes tecnológicas occidentales, parece revelador sobre el papel de la IA y la ética en las operaciones militares. Pero el debate es más profundo y, pese a que la actualidad sobre la IA devora sus propias noticias antes de que dé tiempo a digerirlas, para seguir este hilo es necesario resistir la corriente y nadar hacia atrás. Hasta Venezuela.

Una llamada tras un secuestro

En la madrugada del 3 de enero, aviones y helicópteros del Ejército de EEUU irrumpieron en el espacio aéreo de Venezuela y secuestraron al presidente, Nicolás Maduro, y a su esposa, Cilia Flores. Durante la operación, la herramienta de IA de Anthropic, Claude, procesó datos y ayudó en la toma de decisiones de los mandos militares. ¿Cómo llegó Claude a tener acceso a los sistemas clasificados de EEUU? A través de Palantir, ya que la polémica empresa de software es el conducto entre los laboratorios de Silicon Valley y el Pentágono.

Con Maduro en la prisión de Brooklyn, el CEO de Anthropic, Dario Amodei, llamó a Palantir para preguntar si el software de Claude había sido utilizado en aquella operación. Emil Michael, subsecretario de Defensa y jefe tecnológico del Pentágono, interpretó esa llamada como una señal de alarma: ¿podría Amodei poner en riesgo operaciones futuras del Ejército de EEUU debido a sus límites éticos?

Dario Amodei, CEO de Anthropic, en la cumbre global sobre IA en la que se negó a saludar a su rival y su excompañero Altman. (Ludovic MARIN | AFP)

Viendo las acciones que se avecinaban en el golfo Pérsico, el Departamento de Guerra, al frente del cual está Pete Hegseth, convocó de inmediato a Amodei al Pentágono y le dio un ultimátum: o firmaba una cláusula mediante la cual el Ejército tendría acceso ilimitado a su IA para cualquier fin que Washington considerase lícito, o Anthropic sería catalogado como riesgo para la seguridad nacional.

Amodei, que ha explotado los límites éticos de la compañía para vender sus productos, aceptó, siempre y cuando la Administración de Donald Trump no utilizara su IA para llevar a cabo una vigilancia masiva de los ciudadanos estadounidenses -nada dijo sobre otras poblaciones- ni en armas autónomas sin supervisión humana.

Horas después, la decisión del Pentágono quedó clara tras una publicación en mayúsculas de Trump: «EEUU jamás permitirá que una empresa radical de izquierda y woke dicte cómo lucha y gana guerras nuestro gran Ejército». Acto seguido, la Administración estadounidense ordenó cancelar todos los contratos del Pentágono con Anthropic y calificó a la compañía como una amenaza para la cadena de suministro, una medida que solo se había empleado para casos como los de Huawei o ZTE, con supuestos lazos con China, o el de la empresa Kaspersky, en este caso ligada a Rusia. Ahora, el Departamento de Guerra se encuentra inmerso en un periodo de transición de seis meses para dejar de usar la tecnología de Anthropic. La compañía terminó llevando el caso a la Justicia, donde sigue la disputa.

Horas después de romper con Anthropic, Trump cerraba un acuerdo con Altman, y su empresa, OpenAI, se comprometía a ceder todas las capacidades de su tecnología para cualquier uso. La directora de la división de Robótica de OpenAI, Caitlin Kalinowski, anunció su dimisión al instante debido a profundas preocupaciones éticas sobre ese acuerdo, porque «la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación».

Amodei, que se presenta a sí mismo como una especie de gurú tecnológico con tendencias mesiánicas e incluso apocalípticas, fue más explícito con el ejemplo que puso en su ensayo ‘La Adolescencia de la Tecnología’: «Un enjambre de millones o miles de millones de drones armados totalmente automatizados, controlados localmente por una IA potente y coordinados estratégicamente en todo el mundo por una IA aún más poderosa, podría constituir un ejército imbatible, capaz tanto de derrotar a cualquier ejército del mundo como de reprimir la disidencia interna siguiendo a cada ciudadano».

Viejos conocidos

La rivalidad entre OpenAI y Anthropic va, por tanto, más allá de una disputa contractual. Altman ha apoyado a Trump y es íntimo de Elon Musk, mientras que Amodei ha integrado en su equipo a varios altos cargos de la Administración de Joe Biden. Ambos, sin embargo, comparten pasado.

Amodei es un biofísico criado en San Francisco y dirige Anthropic junto a su hermana, Daniela. Ambos crearon Anthropic en 2021, cuando abandonaron OpenAI junto a otros cinco investigadores, convencidos de que Altman aceleraba el desarrollo de sus productos sin dedicar tiempo suficiente a pensar en las consecuencias de los mismos.

Anthropic fue creada sobre la premisa de que la IA representa uno de los mayores riesgos existenciales para la humanidad y, precisamente por eso, es mejor que quienes la desarrollen sean personas comprometidas con hacerlo de manera segura. Así, le dieron a su modelo una «constitución» de valores, crearon equipos internos dedicados a imaginar los peores escenarios posibles y retrasaron lanzamientos cuando las pruebas de seguridad no les convencían.

Hace dos semanas, Anthropic anunció el desarrollo de Claude Mythos Preview, un modelo de computación con capacidades de programación y ciberseguridad tan avanzadas que la empresa ha decidido vetar su lanzamiento por considerarlo un riesgo para la seguridad global. Durante las pruebas internas, Mythos demostró una capacidad autónoma para hallar fallos de seguridad en los principales sistemas operativos y navegadores web actuales, lo que ha asustado al presidente de la Reserva Federal, Jerome Powell, y el secretario del Tesoro, Scott Bessent. Ambos reunieron a los directores ejecutivos de los principales bancos de EEUU para alertarles de que el nuevo modelo podría suponer una amenaza para los cimientos del sistema financiero estadounidense.

Contra la regulación

Muchos de sus detractores han tratado a Amodei de ingenuo. El CEO de Anthropic ha alertado sobre la seguridad después de haber introducido nuevas capacidades de vigilancia y combate en el corazón del Gobierno de la ultraderecha global, y Claude se ha visto sustituida por su competidor en el momento en que ha intentado poner límites. No obstante, Claude ha superado incluso a ChatGPT como la app de IA más descargada, y cada lanzamiento de un nuevo producto provoca fuertes vibraciones en la bolsa. Además, expertos militares reconocen que Claude es mejor que sus competidores y admiten que eliminar las herramientas de Anthropic de sus operaciones será una tarea complicada. El sistema Maven, de Palantir, sigue usando Claude, y el Ejército continúa haciendo uso de su tecnología en la guerra contra Irán.

Y las cosas cambian rápido. En medio del conflicto con el Pentágono, Anthropic ha reescrito en silencio su política de desarrollo y abandonado su principal promesa ética, es decir, el compromiso de pausar el avance de su tecnología si no podían garantizar la seguridad. Esta misma semana, Trump ha sugerido que estaría abierto a mejores relaciones con Anthropic después de que Amodei visitara la Casa Blanca.

Sea como fuere, Amodei no necesita ser Altman para entender que quien construye la máquina no elige cómo se usa. Su giro evidencia que es muy difícil que las grandes tecnológicas se pongan límites a sí mismas si eso compromete su posición estratégica en un mercado voraz y si no existe una regulación en todos los ámbitos por parte de los Estados u organizaciones transnacionales. La Unión Europea lo intentó con la AI Act, pero Trump forzó su suavización en cuanto llegó al poder.