Qué se firmó
El Departamento de Defensa norteamericano (DoD) aprobó que AWS, Google, Microsoft, NVIDIA, OpenAI, SpaceX, Reflection y Oracle desplieguen sus modelos en redes clasificadas Impact Level 6 (datos secretos) e Impact Level 7 (el nivel de clasificación más alto).
El alcance es amplio: análisis de inteligencia, planificación operacional, asistencia a operadores en sistemas de comando y control, procesamiento de grandes volúmenes de datos clasificados. El contrato más visible: $500M a Scale AI (backed by Meta) para "tamizar datos y asistir en toma de decisiones".
Por qué Anthropic se baja
Anthropic tuvo una caída fuerte con el Pentágono tras negarse a otorgar acceso ilimitado a Claude para "todos los usos legales". La empresa mantiene una Política de Uso Aceptable que prohíbe explícitamente ciertos casos militares: desarrollo de armas, ataques cibernéticos ofensivos, vigilancia masiva sin marco legal.
El Pentágono pidió waivers de esas restricciones. Anthropic los rechazó. El resultado: ningún contrato. Es, hasta donde sabemos, la primera vez que una empresa de IA frontier rechaza explícitamente ingresar al mercado de defensa por razones de alineamiento.
La directiva de uso de IA del DoD del 12 de enero de 2026 "buscaba subir agresivamente la barra para el dominio militar IA". Eso requería proveedores dispuestos a flexibilizar restricciones. Anthropic no estaba dispuesta.
La doctrina multi-vendor
Un funcionario del DoD declaró: "nunca más vamos a depender de un solo proveedor de IA". La declaración es respuesta directa a la lección de la era Microsoft-Azure: cuando un único proveedor concentra la infraestructura de gobierno, los costos suben y la innovación se ralentiza.
El nuevo enfoque distribuye carga entre 8 proveedores, permite competencia interna y mantiene a la Chief Digital and AI Office (CDAO) como árbitro técnico. La CDAO ahora reporta directamente al Secretario de Defensa.
Aplicaciones específicas
Tres líneas de trabajo ya están en marcha: aided target recognition (reconocimiento de objetivos asistido por IA, especialmente para defensa anti-drones), análisis de inteligencia (procesamiento masivo de comunicaciones interceptadas, imágenes satelitales) y planning operacional (simulación de escenarios, optimización logística).
El proyecto C-UAS Close-In Kinetic Defeat Enhancement es el primero con presupuesto público específico para reconocimiento de objetivos en derribo de drones.
Presupuesto histórico
El presupuesto de Defensa de $1.5 trillones para fiscal 2027 es el más alto en la historia moderna. Las prioridades del presidente: el escudo Golden Dome, drones, IA, infraestructura de datos y la base industrial de defensa.
La discusión ética
El debate divide a la industria. OpenAI levantó su prohibición de uso militar en enero de 2024 y participa activamente. Google rescindió sus principios de IA de 2018 (que prohibían armas) y volvió al mercado de defensa. Anthropic mantiene la línea.
Para empresas que construyen sobre estos modelos (incluyendo VuraOS), la elección del proveedor implica una postura ética implícita. No es trivial: el modelo que sirve un chatbot de e-commerce también sirve, potencialmente, análisis de targets militares.
Conclusión
El acuerdo del 1 de mayo cambió las reglas: la IA militar es ahora mercado abierto y competitivo. La postura de Anthropic — costosa en términos de revenue — es la primera demostración de que el alineamiento como diferenciador comercial puede sostenerse. Si funciona en el mediano plazo, puede empujar a otros frontier labs a tomar postura.