El Pentágono amenaza con rescindir un contrato con Anthropic por querer limitar el uso de la IA

La administración estadounidense evalúa recortar o incluso terminar su relación con la empresa de Dario Amodei por negarse a habilitar el uso irrestricto de sus modelos en operaciones militares sensibles. El conflicto expone la tensión entre seguridad nacional y salvaguardas éticas en la carrera por la IA avanzada.

La relación entre el Pentágono y Anthropic, una de las principales compañías de inteligencia artificial del mundo, atraviesa su momento más delicado. Según reveló un alto funcionario de la administración a Axios, el Departamento de Defensa está considerando reducir o incluso cancelar su vínculo con la firma liderada por Dario Amodei, debido a su negativa a permitir que sus modelos sean utilizados para “todos los fines legales” en el ámbito militar.

El Pentágono está presionando a cuatro laboratorios líderes de IA para que autoricen el uso de sus herramientas en áreas extremadamente sensibles, incluyendo desarrollo de armamento, recolección de inteligencia y operaciones en el campo de batalla. Mientras que OpenAI con ChatGPT, Google con Gemini y xAI con Grok han aceptado flexibilizar las restricciones que aplican a usuarios comunes en su trabajo con Defensa, Anthropic mantiene límites explícitos.

La empresa insiste en que hay dos áreas que deben permanecer fuera de alcance: la vigilancia masiva de ciudadanos estadounidenses y el uso de armamento completamente autónomo. El funcionario citado sostuvo que existe “una considerable zona gris” en torno a qué aplicaciones entrarían en esas categorías, y calificó de “inviable” que el Pentágono tenga que negociar caso por caso con Anthropic o enfrentarse a bloqueos inesperados del modelo Claude.

“Todo está sobre la mesa”, afirmó el funcionario, incluyendo la posibilidad de reducir la asociación o terminarla por completo. “Pero tendrá que haber un reemplazo ordenado para ellos, si creemos que esa es la respuesta correcta”.

Un portavoz de Anthropic respondió que la compañía sigue “comprometida con el uso de IA de frontera en apoyo de la seguridad nacional de Estados Unidos”.

El episodio Maduro y la tensión con Palantir

Las fricciones escalaron recientemente en el marco de una operación militar destinada a capturar a Nicolás Maduro, en la que el modelo Claude habría sido utilizado a través de la asociación de Anthropic con la firma de software de IA Palantir.

Según el funcionario, un ejecutivo de Anthropic contactó a un ejecutivo de Palantir para preguntar si Claude había sido utilizado en la incursión. “Se planteó de una manera que implicaba que podrían desaprobar el uso de su software, porque obviamente hubo fuego cinético durante esa redada, se disparó contra personas”, señaló.

Anthropic negó categóricamente esa versión. El portavoz declaró que la empresa no “ha discutido el uso de Claude para operaciones específicas con el Departamento de Guerra. Tampoco hemos discutido esto con ningún socio de la industria fuera de conversaciones rutinarias sobre asuntos estrictamente técnicos”.

El vocero agregó: “Claude se utiliza para una amplia variedad de casos relacionados con inteligencia en todo el gobierno, incluyendo el Departamento de Guerra, en línea con nuestra Política de Uso”. Y subrayó que las conversaciones con el Pentágono “se han centrado en un conjunto específico de preguntas sobre la Política de Uso —concretamente, nuestros límites estrictos en torno a armas completamente autónomas y vigilancia masiva doméstica—, ninguno de los cuales está relacionado con operaciones actuales”.

Un contrato estratégico y difícil de reemplazar

Anthropic firmó el verano pasado un contrato con el Pentágono valuado en hasta U$S 200 millones. Claude fue, además, el primer modelo de IA incorporado por el Departamento de Defensa en sus redes clasificadas.

La eventual ruptura no sería sencilla. El propio funcionario reconoció que sería difícil reemplazar rápidamente a Claude porque “las otras compañías de modelos están apenas detrás” en aplicaciones gubernamentales especializadas.

Mientras el Pentágono negocia con OpenAI, Google y xAI para expandir el uso de sus modelos también en entornos clasificados bajo el estándar de “todos los fines legales”, el funcionario afirmó que una de las tres ya habría aceptado esos términos y que las otras dos muestran mayor flexibilidad que Anthropic.

Choque cultural y debate interno

Más allá del episodio puntual, el funcionario describió un “choque cultural” con lo que consideró el laboratorio más “ideológico” respecto a los peligros potenciales de la IA. Las preocupaciones públicas de Dario Amodei sobre los riesgos existenciales de la tecnología son ampliamente conocidas.

Además, según una fuente familiarizada con la situación interna, Anthropic enfrenta inquietudes dentro de su propio equipo de ingenieros sobre la colaboración con el Pentágono.

Aun así, la compañía insiste en su compromiso con el sector de seguridad nacional. “Por eso fuimos la primera empresa de IA de frontera en colocar nuestros modelos en redes clasificadas y la primera en proporcionar modelos personalizados para clientes de seguridad nacional”, afirmó el portavoz.

El conflicto deja al descubierto una tensión estructural en la industria de la IA avanzada: hasta dónde deben llegar las salvaguardas éticas cuando la tecnología se integra en operaciones militares críticas. En juego no solo hay un contrato de hasta U$S 200 millones, sino también el precedente que definirá la relación entre los desarrolladores de IA y el aparato de defensa estadounidense en los próximos años.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com