La tecnología de la startup Anthropic continúa participando en operaciones militares de Estados Unidos contra Irán, pero grandes contratistas del sector defensa ya comenzaron a reemplazar sus modelos tras tensiones con el gobierno estadounidense.
La empresa de inteligencia artificial Anthropic atraviesa uno de los momentos más complejos desde su creación. Mientras su modelo de IA Claude continúa siendo utilizado por el Departamento de Defensa de Estados Unidos en operaciones militares vinculadas al conflicto con Irán, varias compañías del sector defensa ya comenzaron a abandonar su tecnología.
La situación surge tras una disputa entre la empresa y el gobierno estadounidense que dejó a la compañía en una posición incómoda: sus sistemas siguen activos en operaciones militares mientras, al mismo tiempo, muchos clientes del sector defensa están reemplazándolos por otras alternativas.
Un conflicto político que impacta en la tecnología
El origen de la controversia está en una decisión del presidente Donald Trump, quien ordenó a las agencias civiles del gobierno de Estados Unidos discontinuar el uso de los productos de Anthropic.
Sin embargo, el caso del Departamento de Defensa es diferente. Según las disposiciones oficiales, la empresa recibió un plazo de seis meses para finalizar gradualmente sus operaciones con el Pentágono, lo que significa que sus sistemas continúan activos durante ese período de transición.
La situación se volvió aún más compleja cuando, un día después de la directiva presidencial, Estados Unidos y Israel lanzaron un ataque sorpresa contra Teherán, iniciando una escalada militar contra Irán antes de que la orden pudiera implementarse completamente.
Como resultado, los modelos de Anthropic siguen siendo utilizados en operaciones vinculadas a ese conflicto.
IA aplicada a decisiones militares
Un informe publicado por The Washington Post reveló nuevos detalles sobre el uso de estas herramientas de inteligencia artificial en el ámbito militar.
Según el medio estadounidense, los sistemas de Anthropic funcionan en combinación con Maven, la plataforma de análisis militar desarrollada por la empresa Palantir.
Durante la planificación de los ataques, estos sistemas “sugirieron cientos de objetivos, emitieron coordenadas de ubicación precisas y priorizaron esos objetivos según su importancia”, de acuerdo con el reporte del periódico.
El artículo describió el rol de estas plataformas como un sistema de “identificación de objetivos en tiempo real y priorización de blancos”, una función clave dentro de las operaciones militares modernas que dependen cada vez más del análisis automatizado de datos.
La advertencia del Pentágono
Mientras tanto, el Secretario de Defensa de Estados Unidos, Pete Hegseth, prometió designar a Anthropic como un riesgo para la cadena de suministro del sector defensa.
Una clasificación de ese tipo podría tener consecuencias significativas para la empresa, ya que limitaría su capacidad de trabajar con agencias gubernamentales o contratistas militares.
Sin embargo, hasta el momento no se tomaron medidas oficiales para formalizar esa designación, lo que significa que actualmente no existe ninguna barrera legal que impida seguir utilizando sus sistemas.
Las empresas de defensa buscan alternativas
A pesar de la falta de una prohibición formal, varias compañías del complejo militar-industrial estadounidense comenzaron a actuar de forma preventiva.
Según un reporte de Reuters, el gigante aeroespacial y de defensa Lockheed Martin, junto con otros contratistas del sector, inició esta semana un proceso para reemplazar los modelos de Anthropic por soluciones de otros proveedores de inteligencia artificial.
El impacto también alcanza a startups y empresas tecnológicas vinculadas al ecosistema de defensa.
Un socio gerente de la firma de capital de riesgo J2 Ventures, especializada en inversiones en defensa y seguridad, declaró a CNBC que 10 empresas de su portafolio ya dejaron de utilizar Claude en aplicaciones militares.
Según explicó el inversor, esas compañías “han retrocedido en el uso de Claude para casos de uso en defensa y están en procesos activos para reemplazar el servicio por otro”.
El futuro incierto de Anthropic en defensa
El escenario deja a Anthropic en una posición singular dentro de la industria global de inteligencia artificial.
Por un lado, sus sistemas continúan participando en operaciones militares activas —incluyendo tareas críticas de análisis y priorización de objetivos—. Por otro, la compañía enfrenta una rápida pérdida de clientes en el sector defensa, uno de los mercados más lucrativos para la tecnología avanzada.
La gran incógnita ahora es si el Secretario de Defensa Pete Hegseth finalmente formalizará la designación de riesgo para la cadena de suministro, una medida que probablemente desencadenaría un intenso conflicto legal entre el gobierno y la empresa.
Mientras tanto, uno de los laboratorios de inteligencia artificial más influyentes del mundo comienza a quedar gradualmente excluido del ecosistema tecnológico militar estadounidense, incluso cuando su tecnología sigue siendo utilizada en un escenario de guerra real.

