Anthropic queda fuera del Pentágono: el conflicto político que redefine la relación entre la inteligencia artificial y la defensa estadounidense

La administración Trump ordenó suspender el uso de tecnología de Anthropic en el gobierno federal tras un choque por vigilancia masiva y armas autónomas. El episodio abre una nueva etapa geopolítica para la inteligencia artificial y beneficia rápidamente a OpenAI.


La relación entre las grandes compañías de inteligencia artificial y los gobiernos acaba de entrar en una fase inédita. La administración del presidente Donald Trump decidió cortar vínculos con Anthropic, una de las empresas líderes del sector, tras un enfrentamiento directo con el Departamento de Defensa de Estados Unidos sobre los límites éticos del uso militar de la IA.

El episodio no solo expone tensiones políticas y estratégicas, sino que también marca un precedente global: por primera vez, una compañía de IA queda formalmente señalada como riesgo para la cadena de suministro de seguridad nacional.

El origen del conflicto

Todo comenzó con una publicación del presidente Trump en Truth Social, donde ordenó a las agencias federales dejar de utilizar productos de Anthropic.

“No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos.”

El mandatario autorizó un período de transición de seis meses para que los organismos públicos abandonen la tecnología de la compañía, pero dejó claro que Anthropic ya no será considerado un contratista federal.

Aunque inicialmente no se mencionó una sanción más amplia, pocas horas después el secretario de Defensa, Pete Hegseth, profundizó la medida.

“En conjunto con la directiva presidencial, ordeno designar a Anthropic como un riesgo para la cadena de suministro de seguridad nacional.”

La decisión implica que ningún proveedor, contratista o socio del ejército estadounidense podrá mantener actividades comerciales con Anthropic.

La línea roja de Anthropic

El conflicto tiene un trasfondo técnico y ético claro. Según el Pentágono, la disputa surgió porque Anthropic se negó a permitir que sus modelos de inteligencia artificial fueran utilizados para:

  • vigilancia masiva doméstica
  • armas completamente autónomas

El CEO de la compañía, Dario Amodei, ratificó públicamente esa posición.

“Nuestra fuerte preferencia es continuar sirviendo al Departamento y a los combatientes, con las dos salvaguardas que solicitamos.”

Amodei agregó que, si el gobierno decide reemplazar a Anthropic, la empresa colaborará para garantizar una transición sin interrupciones en operaciones militares críticas.

La compañía afirmó además que todavía no recibió una comunicación oficial directa y anticipó que impugnará en tribunales cualquier designación como riesgo de cadena de suministro.

OpenAI respalda… y ocupa el espacio

El episodio tomó un giro estratégico inmediato cuando OpenAI salió públicamente en apoyo de la postura ética de Anthropic.

Según informó la BBC, el CEO Sam Altman envió un memo interno señalando que comparte las mismas “líneas rojas”, rechazando usos considerados:

  • ilegales
  • incompatibles con infraestructura cloud
  • vigilancia doméstica
  • armas ofensivas autónomas

El respaldo también llegó desde Ilya Sutskever, cofundador de OpenAI y hoy líder de su propia compañía de IA, quien escribió en X:

“Es extremadamente positivo que Anthropic no haya retrocedido, y es significativo que OpenAI haya adoptado una postura similar.”

Sin embargo, el equilibrio político duró poco.

Horas después de que el gobierno federal ordenara cortar relaciones con Anthropic, OpenAI anunció un nuevo acuerdo con el Pentágono. Según Altman, el convenio mantiene las mismas restricciones éticas defendidas por Anthropic, incluyendo la prohibición de vigilancia doméstica y armas autónomas.

De acuerdo con The New York Times, las conversaciones entre OpenAI y el gobierno estadounidense comenzaron esa misma semana.

Una batalla que redefine la IA geopolítica

El episodio ocurre en un contexto donde la inteligencia artificial se convirtió en infraestructura estratégica nacional. En julio del año anterior, Anthropic, OpenAI y Google habían recibido contratos del Departamento de Defensa estadounidense, consolidando la entrada definitiva del sector tecnológico en la seguridad nacional.

Hasta ahora, Google y su empresa matriz no realizaron comentarios oficiales, aunque algunos empleados expresaron apoyo público a la postura adoptada por Anthropic.

Más allá del conflicto puntual, el caso deja tres señales clave para la industria:

  1. La IA ya es un asunto de seguridad nacional, no solo tecnológico.
  2. Los límites éticos comienzan a tener consecuencias comerciales reales.
  3. Las alianzas entre empresas y Estados serán cada vez más volátiles.

El enfrentamiento entre Washington y Anthropic podría convertirse en el primer gran precedente de la próxima década: gobiernos presionando para ampliar capacidades militares de la inteligencia artificial y empresas intentando imponer restricciones técnicas y morales.

Y mientras esa tensión se redefine, una cosa quedó clara: en la carrera global por la IA, las decisiones éticas ya tienen impacto directo en contratos multimillonarios, poder geopolítico y liderazgo tecnológico.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com