EE.UU. endurece reglas para la IA y profundiza su conflicto con Anthropic

La administración de Donald Trump prepara nuevas normas para contratar servicios de inteligencia artificial que obligarían a las empresas a permitir “cualquier uso legal” de sus modelos. La medida llega tras la ruptura de un contrato de U$S 200 millones con Anthropic.


El gobierno de Estados Unidos está avanzando en nuevas reglas para la contratación de servicios de inteligencia artificial que podrían cambiar la relación entre el Estado y las empresas tecnológicas. La iniciativa, impulsada por la administración de Donald Trump, surge en medio de un conflicto con la startup de IA Anthropic, que se negó a conceder acceso irrestricto a su tecnología al Pentágono.

Según un borrador de directrices al que accedió el Financial Times, la U.S. General Services Administration (GSA) —el organismo encargado de gestionar compras tecnológicas para el gobierno federal— planea exigir que las empresas que quieran vender modelos de inteligencia artificial al Estado otorguen una licencia irrevocable que permita su uso para “cualquier propósito legal”.

Estas reglas se aplicarían a contratos civiles del gobierno estadounidense, pero forman parte de un esfuerzo más amplio para reforzar la adquisición de tecnologías de IA en todo el aparato estatal.

De acuerdo con fuentes cercanas al proceso, los principios de estas normas son similares a los que el Department of Defense está evaluando para contratos militares.

El conflicto con Anthropic

Las nuevas reglas llegan pocos días después de un fuerte enfrentamiento entre el Pentágono y Anthropic.

El Departamento de Defensa anunció que cancelaría un contrato por U$S 200 millones con la compañía luego de que esta se negara a permitir el uso sin restricciones de sus modelos de inteligencia artificial.

Anthropic había exigido incluir cláusulas que impidieran el uso de su tecnología para vigilancia masiva dentro de Estados Unidos o para armas autónomas letales.

La empresa, valuada en U$S 380.000 millones, argumentó que permitir el uso del modelo para “cualquier propósito legal” podría facilitar escenarios de vigilancia doméstica a gran escala.

La respuesta del gobierno fue dura. El secretario de Defensa Pete Hegseth afirmó que la postura de la empresa escondía otra intención.

Según Hegseth, “el verdadero objetivo de la compañía era obtener poder de veto sobre las decisiones operativas del ejército de Estados Unidos”.

En paralelo, la Casa Blanca tomó una medida aún más inusual: designó a Anthropic como un riesgo para la cadena de suministro, una categoría que históricamente se ha utilizado principalmente para empresas vinculadas a China o Rusia.

Reglas sobre neutralidad ideológica

Las nuevas directrices también incluyen disposiciones sobre el funcionamiento de los modelos de inteligencia artificial.

El borrador exige que las empresas entreguen al gobierno “una herramienta neutral y no partidista que no manipule las respuestas a favor de dogmas ideológicos como diversidad, equidad e inclusión”.

Además, el documento establece que “el contratista no debe codificar intencionalmente juicios partidistas o ideológicos en los resultados generados por el sistema de IA”.

Estas disposiciones se alinean con una orden ejecutiva firmada por el presidente Trump para limitar lo que su administración denomina modelos de IA “woke”.

El impacto en la industria tecnológica

La GSA, dirigida por Ed Forst, desempeña un papel central en el suministro de tecnología al gobierno federal estadounidense.

A través de su división Federal Acquisition Service, liderada por Josh Gruenbaum, el organismo firmó en el último año acuerdos con varias empresas líderes en inteligencia artificial.

Entre ellas se encuentran OpenAI, Meta, xAI y Google, cuyos modelos comenzaron a ofrecerse a agencias federales a costos reducidos.

Sin embargo, tras el conflicto con el Pentágono, la GSA también decidió cancelar su propio acuerdo con Anthropic.

Las nuevas normas también incluyen una cláusula que podría generar fricciones internacionales. En particular, se exige que las empresas revelen si sus modelos fueron modificados para cumplir con regulaciones extranjeras, como el Digital Services Act de la Unión Europea.

Según fuentes cercanas al proceso, el objetivo es evitar que estándares regulatorios externos influyan en el funcionamiento de los sistemas utilizados por el gobierno estadounidense.

Próximos pasos

El borrador de las directrices todavía no es definitivo. La GSA planea solicitar comentarios de la industria tecnológica antes de cerrar la versión final de las reglas.

Sin embargo, el conflicto con Anthropic deja en claro que la relación entre los desarrolladores de inteligencia artificial y los gobiernos está entrando en una nueva fase.

A medida que estas tecnologías se vuelven más poderosas y estratégicas, los debates sobre seguridad, control estatal y límites éticos comienzan a ocupar el centro de la agenda política y tecnológica global.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com