El Pentágono firma acuerdos de IA con OpenAI, Google y Microsoft — y Anthropic dice no
El Departamento de Defensa de EE.UU. ha firmado acuerdos con siete empresas tecnológicas para integrar IA en sus sistemas militares más sensibles. Anthropic fue la única en rechazarlo.
Publicado por BREIA — Categoría: IA y Tecnología
El 1 de mayo de 2026, el Departamento de Defensa de Estados Unidos formalizó acuerdos con siete de las empresas tecnológicas más influyentes del mundo para integrar inteligencia artificial en sus sistemas militares más sensibles. OpenAI, Google, Microsoft, Amazon Web Services, Nvidia, SpaceX y Reflection AI firmaron contratos que afectarán la planificación de misiones, la orientación de armas y el análisis de inteligencia. Una empresa, sin embargo, decidió no estar en esa lista: Anthropic. La declaración del Departamento de Defensa fue clara y directa: "El liderazgo en IA es indispensable para la seguridad nacional." Con esta afirmación, el Pentágono dejó patente que la carrera por la IA no es solo un fenómeno tecnológico o económico, sino también una cuestión estratégica de primer orden. La integración de modelos de inteligencia artificial en sistemas clasificados representa un salto cualitativo en cómo se concibe el poder militar en el siglo XXI. Las aplicaciones previstas abarcan desde la automatización del análisis de inteligencia hasta la toma de decisiones en tiempo real sobre el campo de batalla. Esto incluye sistemas de orientación de armas y planificación táctica asistida por IA, ámbitos donde la velocidad de procesamiento y la capacidad de síntesis de los modelos de lenguaje ofrecen ventajas difíciles de igualar por medios humanos convencionales. Para las empresas firmantes, el acuerdo supone un hito notable —y polémico. Las mismas plataformas que millones de empresas en todo el mundo utilizan a diario para automatizar correos, generar contenido o analizar datos —GPT de OpenAI, Gemini de Google, los servicios de AWS— tienen ahora contratos activos con el aparato militar de EE.UU. Esto plantea preguntas legítimas sobre la doble naturaleza de estas herramientas comerciales y su uso en contextos de alto riesgo. Anthropic tomó una decisión diferente. La empresa rechazó el contrato alegando que las condiciones incluían aplicaciones en vigilancia masiva y armas