La ejecutiva que lideraba el equipo de hardware de OpenAI renunció tras el polémico acuerdo de la compañía con el Departamento de Defensa de Estados Unidos. La decisión reaviva el debate sobre el uso militar de la inteligencia artificial y su gobernanza.
La tensión entre innovación tecnológica y uso militar de la inteligencia artificial volvió a quedar en el centro de la escena. Caitlin Kalinowski, la ejecutiva que lideraba el equipo de hardware de OpenAI, anunció su renuncia tras el controvertido acuerdo de la compañía con el Departamento de Defensa de Estados Unidos, también conocido como el Pentágono.
La ejecutiva hizo pública su decisión a través de redes sociales, en un mensaje en el que dejó claro que su salida responde a cuestiones de principios vinculadas al uso de la inteligencia artificial en seguridad nacional.
“No fue una decisión fácil”, explicó Kalinowski. “La inteligencia artificial tiene un rol importante en la seguridad nacional. Pero la vigilancia de ciudadanos estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que tuvieron”.
Una ejecutiva clave en el área de hardware
Kalinowski se había incorporado a OpenAI en noviembre de 2024 para liderar el desarrollo del área de hardware de la empresa, un sector estratégico en momentos en que la compañía explora dispositivos físicos basados en inteligencia artificial.
Antes de llegar a OpenAI, la ejecutiva había dirigido el equipo que desarrolló gafas de realidad aumentada en Meta, lo que la posicionaba como una figura relevante dentro del ecosistema de innovación tecnológica.
En su mensaje de despedida, Kalinowski subrayó que su decisión no responde a diferencias personales con el equipo de la empresa.
“Esta decisión tiene que ver con principios, no con personas”, explicó. También afirmó que mantiene “un profundo respeto” por el CEO de OpenAI, Sam Altman, y por el resto del equipo de la compañía.
En una publicación posterior en la red social X, la ejecutiva profundizó su postura sobre el proceso que llevó al acuerdo con el Pentágono.
“Para ser clara, mi problema es que el anuncio se hizo apresuradamente sin definir las salvaguardas necesarias. Es, ante todo, una cuestión de gobernanza. Estos temas son demasiado importantes como para que los acuerdos o anuncios se apresuren”, escribió.
El acuerdo con el Pentágono
La renuncia llega poco más de una semana después de que OpenAI anunciara su propio acuerdo con el Departamento de Defensa para permitir el uso de su tecnología en entornos clasificados.
La compañía explicó que el objetivo es permitir usos responsables de la inteligencia artificial en seguridad nacional, estableciendo al mismo tiempo límites claros.
Un vocero de OpenAI confirmó la salida de Kalinowski y defendió la decisión de avanzar con el acuerdo.
“Creemos que nuestro acuerdo con el Pentágono crea un camino viable para usos responsables de la IA en seguridad nacional, al tiempo que deja claras nuestras líneas rojas: sin vigilancia doméstica y sin armas autónomas”, señaló la empresa en un comunicado.
El portavoz también reconoció que el tema genera opiniones intensas dentro y fuera de la industria.
“Reconocemos que las personas tienen opiniones fuertes sobre estos temas y seguiremos participando en el debate con empleados, gobiernos, organizaciones civiles y comunidades de todo el mundo”, agregó la compañía.
El trasfondo del acuerdo: la disputa con Anthropic
El acuerdo entre OpenAI y el Pentágono se produjo después de que las negociaciones entre el Departamento de Defensa y Anthropic fracasaran.
La empresa de inteligencia artificial había intentado incluir en el contrato salvaguardas para impedir que su tecnología fuera utilizada en vigilancia masiva dentro del país o en armas totalmente autónomas.
Tras el fracaso de esas conversaciones, el Pentágono decidió designar a Anthropic como un riesgo para la cadena de suministro.
La empresa anunció que impugnará esa designación en los tribunales, mientras que gigantes tecnológicos como Microsoft, Google y Amazon confirmaron que seguirán ofreciendo el modelo Claude de Anthropic a clientes que no pertenezcan al sector defensa.
En ese contexto, OpenAI anunció rápidamente su propio acuerdo, explicando que adoptará “un enfoque más amplio y multicapa” para establecer límites, que incluirá tanto cláusulas contractuales como salvaguardas técnicas.
Impacto en la percepción pública
La controversia también parece haber tenido un impacto inmediato en la percepción de los usuarios.
Tras el anuncio del acuerdo militar, las desinstalaciones de ChatGPT aumentaron un 295%, mientras que la aplicación Claude, desarrollada por Anthropic, ascendió rápidamente hasta el primer puesto del ranking de aplicaciones gratuitas de la App Store en Estados Unidos.
Hasta la tarde del sábado, Claude ocupaba el puesto número 1 entre las apps gratuitas de la tienda de Apple, mientras que ChatGPT se mantenía en el puesto número 2.
Un debate que recién comienza
La renuncia de una ejecutiva de alto perfil como Caitlin Kalinowski expone las tensiones internas que atraviesan muchas compañías tecnológicas frente al uso militar de la inteligencia artificial.
A medida que gobiernos y ejércitos buscan integrar estas tecnologías en sus operaciones, las empresas del sector deberán equilibrar oportunidades comerciales, responsabilidad ética y gobernanza tecnológica.
El episodio también confirma que, en la nueva economía de la inteligencia artificial, las decisiones estratégicas sobre seguridad nacional, defensa y regulación pueden tener impacto directo no solo en los negocios, sino también en la reputación y en la cultura interna de las compañías que lideran la revolución tecnológica.

