09 MAR. 2026 JOPUNTUA Inteligencia militar Anjel ORDOÑEZ Periodista {{^data.noClicksRemaining}} Para leer este artículo regístrate gratis o suscríbete ¿Ya estás registrado o suscrito? Iniciar sesión REGÍSTRARME PARA LEER {{/data.noClicksRemaining}} {{#data.noClicksRemaining}} Se te han agotado los clicks Suscríbete {{/data.noClicksRemaining}} Hace tiempo que la inteligencia artificial forma parte esencial de los arsenales militares de los que disponen las principales potencias mundiales. De hecho, la participación de los modelos de IA generativa ha sido decisiva en las recientes intervenciones de EEUU en Venezuela e Irán, no solo en labores de vigilancia y control de infraestructuras e individuos, sino también en la elección de los objetivos, la coordinación de los ataques y en la toma de decisiones a través del análisis masivo de imágenes satelitales, vídeos de drones, información de radares y comunicaciones interceptadas ilegalmente. No es el único nivel en el que EEUU aplica la IA en su estrategia bélica. Su intervención es fundamental en el análisis y diseño de contextos geopolíticos y, a partir de ahí, en el cultivo de escenarios nacionales e internacionales favorables a sus intereses a través de sofisticadas estrategias que crean, amplifican o distorsionan información para domesticar a la opinión pública. En este contexto, llama la atención la reciente ruptura pública de relaciones entre el Pentágono y Anthropic, una de las principales empresas de desarrollo de inteligencia artificial en el mundo, junto a Open AI, Google y Microsoft. La creadora de Claude nació como escisión de Open AI (ChatGPT) precisamente para tratar de preservar valores éticos esenciales en el marco de la desbocada carrera en el desarrollo de la IA. Anthropic se niega a eliminar dos restricciones esenciales en el empleo de Claude en el ámbito militar: uso para vigilancia doméstica masiva y aplicación en armas letales sin intervención humana. Es decir, rechazan vigilar a la población violando sus derechos fundamentales y también que la IA tenga la capacidad de apretar el gatillo de forma autónoma. Y claro, la Casa Blanca ha decidido cancelar los contratos con la compañía (miles de millones de dólares) y ha prohibido el uso de Claude en todas las agencias federales. Lo curioso es que la postura de Anthropic es la que establece el derecho internacional. El mismo que pisotea, a diario y de forma hasta ahora impune, Donald Trump. Anthropic se niega a eliminar dos restricciones esenciales en el empleo de Claude en el ámbito militar: uso para vigilancia doméstica masiva y aplicación en armas letales sin intervención humana