El Departamento de Defensa (DOD) ha designado a Anthropic, una empresa líder en inteligencia artificial, como un “riesgo para la cadena de suministro”, lo que provocó una eliminación gradual de su modelo avanzado de inteligencia artificial, Claude, de las redes militares clasificadas durante los próximos seis meses. Esta medida intensifica las tensiones entre la demanda del Pentágono de acceso sin restricciones y el compromiso de Anthropic con el despliegue responsable de la IA. Si bien intercambiar modelos de IA parece sencillo, el verdadero desafío radica en el complejo proceso de recableado del sistema y reaprobaciones de seguridad.
La complejidad de la integración y la eliminación
Cambiar de modelo de IA no es simplemente una tarea técnica; es una revisión operativa. Actualmente, Claude funciona como una herramienta de resumen de inteligencia de alto nivel para el Departamento de Defensa, procesando grandes flujos de datos para convertirlos en información procesable, pero carece de la capacidad de ejecutar directamente comandos como el despliegue de armas. A pesar de esta función limitada, está profundamente integrada en el software de defensa existente. Eliminarlo requiere un proceso meticuloso de eliminación de cada punto de integración, una tarea que los expertos describen como “insoportable”, y que incluso las actualizaciones de software básicas tardan meses en implementarse.
La insistencia del DOD en un control total sobre los sistemas de IA pone de relieve una creciente fricción entre la ética de la IA comercial y las necesidades operativas militares. Esta situación también subraya la importancia de comprender cuán profundamente arraigada está la IA en la infraestructura de defensa, lo que hace que las transiciones sean mucho más complejas que el simple intercambio de algoritmos.
El sesgo de automatización y el factor humano
La transición conlleva riesgos que van más allá de los obstáculos técnicos. Los expertos advierten sobre un mayor “sesgo de automatización”, donde los usuarios dependen demasiado de los nuevos sistemas de inteligencia artificial antes de comprender completamente sus peculiaridades. El personal acostumbrado a los errores específicos de Claude ahora encontrará modos de falla desconocidos en su reemplazo, lo que potencialmente aumentará los errores durante el período de ajuste inicial. Los más vulnerables son los usuarios avanzados que han optimizado los flujos de trabajo en torno a las fortalezas y debilidades de Claude.
OpenAI interviene mientras Anthropic contraataca
En medio del enfrentamiento, OpenAI ya obtuvo un contrato para implementar sus modelos de IA dentro de las redes clasificadas del DOD, reemplazando efectivamente a Anthropic. El director ejecutivo de Anthropic, Dario Amodei, ha prometido impugnar legalmente la designación de “riesgo de la cadena de suministro”, argumentando que normalmente está reservada para adversarios extranjeros. Mientras tanto, las negociaciones internas se han estancado y los funcionarios del Pentágono las han declarado “muertas”.
El rápido cambio del DOD hacia OpenAI demuestra lo mucho que está en juego el dominio de la IA en la seguridad nacional. Esta transición no se trata sólo de tecnología; se trata de influencia y control en un dominio crítico.
La decisión del Pentágono de seguir adelante a pesar de la resistencia de Anthropic subraya la urgencia de asegurar las capacidades de IA, incluso a costa de relaciones tensas con los principales desarrolladores de IA. El proceso de sustitución de Claude probablemente será lento y deliberado, pero el DOD claramente está priorizando la continuidad operativa sobre la negociación prolongada.
Las consecuencias a largo plazo de este cambio siguen siendo inciertas, pero está claro que el Pentágono está decidido a mantener el control sobre las herramientas de inteligencia artificial utilizadas en sus entornos clasificados. El incidente sirve como recordatorio de que el despliegue de la IA en defensa no es sólo una cuestión técnica, sino estratégica con importantes implicaciones políticas y operativas.



















