Defensa: OpenAI, Anthropic y Meta ingresan al campo de batalla

La compañía de Sam Altman firmó su primer contrato militar con el Departamento de Defensa de EE.UU. por U$S 200 millones, mientras crece el debate global sobre los riesgos éticos del uso de IA en conflictos bélicos.

La inteligencia artificial generativa, nacida para asistir usuarios con tareas cotidianas como escribir correos o programar líneas de código, empieza a asumir un nuevo y delicado rol: colaborar con estrategias militares. En las últimas semanas, OpenAI —la firma detrás de ChatGPT— cerró su primer contrato con el Pentágono, un acuerdo piloto de U$S 200 millones destinado a “desarrollar prototipos de capacidades de frontera para afrontar desafíos críticos de seguridad nacional”, según informó el propio Departamento de Defensa.

La noticia marca un punto de inflexión para Silicon Valley, que desde hace años mantiene vínculos con el sector de defensa, pero ahora lo hace con menos pudor y más capital que nunca. Mientras que en 2018 empleados de Google se manifestaban contra el Proyecto Maven —un programa secreto con el Pentágono— y forzaban a la empresa a abandonar el contrato, hoy gigantes como Amazon, Microsoft, Meta y Anthropic se suman abiertamente al negocio bélico.

De ChatGPT al campo de guerra

La decisión de OpenAI de avanzar en este terreno no fue repentina. En 2023, la compañía eliminó discretamente de sus políticas una cláusula que prohibía el uso de sus modelos en armas o contextos de guerra. Al mismo tiempo, comenzó a formar un equipo de seguridad nacional con exfuncionarios del gobierno de Joe Biden y consolidó alianzas con compañías del sector defensa como Anduril, liderada por el controvertido Palmer Luckey.

En paralelo, Anthropic, otro actor clave del ecosistema de IA, cerró un acuerdo con Palantir para integrar a Claude en aplicaciones militares estadounidenses, mientras que Google Cloud trabaja con Lockheed Martin y Meta abrió su modelo Llama para uso militar.

Para justificar este giro estratégico, las tecnológicas apelan a un nuevo tipo de patriotismo. Promueven la narrativa de que sus algoritmos han sido claves en los conflictos en Ucrania e Israel, posicionándose como “superpoderes algorítmicos” dispuestos a defender la democracia. Pero el debate público sobre los riesgos y límites de esta colaboración brilla por su ausencia.

La ética, el talón de Aquiles

Los expertos en seguridad advierten que estas tecnologías aún no son lo suficientemente seguras para operar en contextos militares. “La IA a veces alucina o toma decisiones no deseadas”, advierten analistas citados por Bloomberg. Incluso el Pentágono reconoció que los sistemas actuales no son fiables para operar sin intervención humana.

Un estudio reciente realizado en EE.UU., Reino Unido, Francia y Alemania reveló que la mayoría de los ciudadanos exige regulaciones más estrictas sobre el uso militar de la IA. En el caso británico, apenas el 43% cree que la IA ayudará a mejorar la eficiencia de las fuerzas armadas, mientras que un abrumador 80% considera que estas tecnologías necesitan mayor regulación para proteger los derechos y libertades civiles.

La preocupación no es abstracta. En Medio Oriente, la revista +972 Magazine reveló que Israel utilizó inteligencia artificial para seleccionar objetivos de bombardeo en Gaza, resultando en la muerte de miles de civiles, en su mayoría mujeres y niños. “La IA decidió”, apuntan en su investigación, en alusión a los sistemas utilizados para identificar blancos supuestamente vinculados a Hamas.

¿Y la transparencia?

El exinvestigador de OpenAI Miles Brundage fue claro: “Las empresas de IA deberían ser más transparentes respecto a qué usos nacionales, militares o migratorios permiten y con qué países o agencias colaboran”. Hoy, esa información no está disponible.

En un contexto global marcado por guerras, inestabilidad y elecciones manipuladas con tecnología, la sociedad demanda respuestas claras sobre el rol de las big tech en el nuevo tablero geopolítico. “Usar IA en guerras podría significar confiar decisiones de vida o muerte a algoritmos imperfectos”, advierten los especialistas.

Por ahora, OpenAI se limita a hablar de “capacidades prototipo” y se guarda los detalles. Pero su desembarco en el sector militar, con un cheque inicial de U$S 200 millones, sugiere que la frontera entre la innovación civil y la tecnología bélica ya está más difusa que nunca.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com