Más de 30 investigadores de OpenAI y Google DeepMind respaldaron públicamente la demanda de Anthropic contra el Departamento de Defensa de EE.UU., tras ser catalogada como “riesgo para la cadena de suministro” por negarse a permitir vigilancia masiva o armas autónomas con su tecnología.
Un nuevo conflicto entre el gobierno de Estados Unidos y la industria de inteligencia artificial está sacudiendo al sector tecnológico global. Más de 30 empleados de OpenAI y Google DeepMind presentaron un documento judicial en apoyo a Anthropic, luego de que el Departamento de Defensa de Estados Unidos (DOD) calificara a la compañía como un “riesgo para la cadena de suministro”.
La designación generó un fuerte rechazo dentro del ecosistema de inteligencia artificial, ya que ese tipo de etiqueta suele aplicarse a empresas vinculadas con adversarios extranjeros, no a compañías tecnológicas estadounidenses.
El documento judicial —conocido como amicus brief— sostiene que la decisión del gobierno fue arbitraria y peligrosa para la industria.
“La designación del gobierno que considera a Anthropic como un riesgo para la cadena de suministro fue un uso indebido y arbitrario del poder que tiene consecuencias graves para nuestra industria”, señala el texto presentado ante la corte.
Entre los firmantes se encuentra Jeff Dean, científico jefe de Google DeepMind y una de las figuras más influyentes del desarrollo global de inteligencia artificial.
El origen del conflicto
La disputa comenzó la semana pasada, cuando el Pentágono decidió catalogar a Anthropic como un riesgo dentro de su cadena de suministro tecnológico.
La medida se tomó después de que la empresa se negara a permitir que su tecnología fuera utilizada para vigilancia masiva de ciudadanos estadounidenses o para sistemas de armas que disparen de forma autónoma.
Desde el punto de vista del Departamento de Defensa, la posición de la empresa representaba una limitación inaceptable para el uso de tecnología adquirida por el gobierno.
La agencia argumentó que debía tener libertad para utilizar sistemas de inteligencia artificial para cualquier propósito “legal”, sin restricciones impuestas por el proveedor tecnológico.
Anthropic, en cambio, sostuvo que ese tipo de usos cruzaba líneas rojas éticas y de seguridad.
La respuesta judicial de Anthropic
Ante la designación, Anthropic decidió iniciar dos demandas judiciales contra el Departamento de Defensa y otras agencias federales.
La empresa —creadora del modelo de inteligencia artificial Claude— sostiene que la decisión del gobierno constituye una represalia por su negativa a permitir ciertos usos militares de la tecnología.
La presentación de los investigadores de OpenAI y Google DeepMind apareció en el expediente judicial apenas horas después de que Anthropic iniciara las demandas.
El mensaje de los científicos es claro: si el gobierno no estaba de acuerdo con las condiciones contractuales, tenía alternativas.
“Si el Pentágono ya no estaba satisfecho con los términos acordados en su contrato con Anthropic, la agencia podría simplemente haber cancelado el contrato y contratar los servicios de otra empresa líder en inteligencia artificial”, afirma el documento.
Un giro polémico: el acuerdo con OpenAI
El conflicto se volvió aún más controvertido cuando se supo que el Departamento de Defensa firmó un acuerdo con OpenAI casi inmediatamente después de catalogar a Anthropic como riesgo de suministro.
La decisión generó críticas incluso dentro de OpenAI.
Varios empleados de la compañía —conocida por desarrollar ChatGPT— firmaron cartas abiertas en las últimas semanas en las que instaron al gobierno a retirar la etiqueta contra Anthropic y pidieron a sus propias empresas que no permitan el uso unilateral de sistemas de inteligencia artificial para fines controvertidos.
Riesgos para la industria de inteligencia artificial
Los investigadores que respaldan a Anthropic advierten que el precedente podría tener consecuencias profundas para la industria tecnológica estadounidense.
“Si se permite que este intento de castigar a una de las principales empresas de IA de Estados Unidos avance, tendrá consecuencias para la competitividad industrial y científica del país en el campo de la inteligencia artificial y más allá”, sostiene el documento judicial.
Además, el texto advierte que este tipo de medidas puede desalentar el debate abierto dentro de la comunidad científica sobre los riesgos y beneficios de la inteligencia artificial.
El debate sobre los límites de la IA
El caso también expone un problema estructural del desarrollo de inteligencia artificial: la falta de legislación clara que regule su uso.
Según los firmantes del documento, mientras no exista un marco legal sólido, las restricciones técnicas y contractuales que las empresas incorporan en sus sistemas se convierten en un mecanismo clave para prevenir usos catastróficos de la tecnología.
El respaldo de investigadores de compañías rivales refleja hasta qué punto el debate sobre el uso militar de la inteligencia artificial está generando tensiones dentro del sector.
Para muchos científicos, la decisión de Anthropic de establecer límites explícitos sobre vigilancia masiva y armas autónomas representa un intento de definir estándares éticos para una tecnología que avanza a una velocidad sin precedentes.
El resultado de esta disputa judicial podría convertirse en uno de los precedentes más importantes para definir quién decide cómo se utiliza la inteligencia artificial: los gobiernos, las empresas tecnológicas o la comunidad científica que desarrolla estas herramientas.

