Anthropic demanda al Pentágono: la batalla legal por el control de la inteligencia artificial militar

La empresa creadora del chatbot Claude inició acciones judiciales contra el Departamento de Defensa de EE.UU. tras ser catalogada como “riesgo para la cadena de suministro”. El conflicto expone la creciente tensión entre seguridad nacional, regulación y ética en el desarrollo de IA.

La empresa de inteligencia artificial Anthropic, creadora del modelo Claude, decidió llevar su conflicto con el Departamento de Defensa de Estados Unidos (DOD) a los tribunales, luego de que el organismo la calificara oficialmente como un riesgo para la cadena de suministro del gobierno federal.

La compañía presentó dos demandas el lunes, una en California y otra en Washington D.C., en respuesta a una escalada de tensiones que se desarrolló durante varias semanas entre la empresa y el Pentágono sobre el acceso militar a sus sistemas de inteligencia artificial.

El punto central del conflicto gira en torno a dos límites que Anthropic se negó a cruzar. La empresa sostuvo que no quiere que su tecnología sea utilizada para vigilancia masiva de ciudadanos estadounidenses ni considera que sus sistemas estén listos para operar armas completamente autónomas sin intervención humana en decisiones de disparo o selección de objetivos.

El Pentágono exige acceso total a la IA

Desde el gobierno estadounidense, la postura fue clara. El Secretario de Defensa Pete Hegseth argumentó que el Pentágono debería poder utilizar sistemas de inteligencia artificial “para cualquier propósito legal” y que ese uso no debería estar limitado por un contratista privado.

Tras el desacuerdo, el Departamento de Defensa decidió etiquetar a Anthropic como riesgo para la cadena de suministro, una designación que normalmente se aplica a empresas vinculadas a países adversarios.

El impacto de esta decisión es significativo: cualquier compañía o agencia que trabaje con el Pentágono debe certificar que no utiliza los modelos de Anthropic.

Aunque algunas empresas privadas continúan utilizando su tecnología, la compañía enfrenta el riesgo de perder una parte importante de su negocio con el gobierno federal.

Anthropic acusa al gobierno de represalias

En su demanda presentada ante un tribunal federal en San Francisco, Anthropic calificó la decisión del gobierno como “sin precedentes e ilegal”.

El documento judicial sostiene que la administración estadounidense tomó represalias contra la empresa por sus posiciones públicas sobre seguridad en inteligencia artificial.

La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por su discurso protegido”, señala la demanda.

Ese “discurso protegido”, según la empresa, se refiere a su postura pública sobre “las limitaciones de sus propios servicios de inteligencia artificial y las cuestiones importantes de seguridad en IA”.

La administración estadounidense —incluyendo al presidente Donald Trump y al secretario de Defensa Pete Hegseth— criticó duramente a la empresa y a su CEO Dario Amodei, calificando a Anthropic como “woke” y “radical” por defender regulaciones más estrictas y mayor transparencia en el desarrollo de inteligencia artificial.

En la demanda, la empresa sostiene que el gobierno puede decidir no usar sus productos, pero no puede utilizar el poder del Estado para castigar o silenciar su posición pública.

Acusaciones de irregularidades legales

Anthropic también argumenta que no existe ninguna ley federal que autorice la acción tomada por el Departamento de Defensa.

Según la empresa, el proceso utilizado para declarar a la compañía como riesgo para la cadena de suministro no cumplió con los procedimientos establecidos por el Congreso.

La legislación federal exige que, antes de excluir a una empresa de las cadenas de suministro gubernamentales, las agencias realicen:

  • una evaluación formal de riesgos,
  • una notificación oficial a la empresa afectada,
  • la oportunidad de que la empresa responda a las acusaciones,
  • una determinación escrita de seguridad nacional,
  • y una notificación al Congreso.

Anthropic sostiene que ninguno de esos pasos se cumplió adecuadamente.

Cancelación de contratos federales

El conflicto también tuvo consecuencias económicas inmediatas.

Tras las declaraciones públicas del CEO Dario Amodei, quien reafirmó que la empresa no flexibilizaría sus límites sobre vigilancia masiva y armas autónomas, el gobierno estadounidense ordenó a todas las agencias federales dejar de utilizar su tecnología.

La General Services Administration (GSA) —la agencia encargada de gestionar compras y contratos del gobierno— canceló el contrato “OneGov” de Anthropic.

Ese acuerdo permitía que los tres poderes del gobierno federal accedieran a los servicios de inteligencia artificial de la empresa.

En su demanda, Anthropic sostiene que estas acciones buscan destruir el valor económico de una de las empresas privadas de inteligencia artificial de mayor crecimiento en el mundo.

Los acusados buscan destruir el valor económico creado por una de las compañías privadas de más rápido crecimiento del mundo”, afirma el documento judicial.

El texto agrega que las decisiones del gobierno provocan “daños inmediatos e irreparables para Anthropic, para quienes dependen del valor económico que genera y para el debate global sobre el papel de la inteligencia artificial en la guerra y la vigilancia”.

La batalla judicial recién comienza

Como parte de su estrategia legal, Anthropic pidió a la justicia que suspenda inmediatamente la designación de riesgo para la cadena de suministro mientras se desarrolla el proceso judicial.

Además, solicitó que los tribunales declaren inválida la decisión del Departamento de Defensa y bloqueen permanentemente su aplicación.

Solicitar revisión judicial no cambia nuestro compromiso histórico de utilizar la inteligencia artificial para proteger la seguridad nacional”, explicó un portavoz de Anthropic en un comunicado.

Pero este es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios. Continuaremos explorando todos los caminos para resolver esta situación, incluido el diálogo con el gobierno”, agregó.

En paralelo, la empresa presentó una segunda demanda ante la Corte de Apelaciones del Circuito de Washington D.C., utilizando los mecanismos previstos por la ley federal de contratación pública para impugnar la designación.

El caso promete convertirse en uno de los conflictos más importantes entre el gobierno de Estados Unidos y la industria de inteligencia artificial, en un momento en que las decisiones sobre el uso militar de estas tecnologías están redefiniendo la relación entre empresas tecnológicas, regulación y poder estatal.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com