Grok bajo presión: una coalición pide prohibir el uso del chatbot de xAI en el gobierno de EE.UU.

Organizaciones civiles reclamaron la suspensión inmediata de Grok en agencias federales por la generación masiva de contenido sexual no consentido y fallas sistémicas de seguridad. El foco está puesto en su uso dentro del Departamento de Defensa y los riesgos para la seguridad nacional.

Una coalición de organizaciones sin fines de lucro pidió formalmente al gobierno de Estados Unidos que suspenda de inmediato el despliegue de Grok, el chatbot desarrollado por xAI, la empresa de inteligencia artificial fundada por Elon Musk, dentro de las agencias federales, incluido el Departamento de Defensa (DoD). El reclamo fue presentado a través de una carta abierta dirigida a la Oficina de Administración y Presupuesto (OMB), difundida en exclusiva por TechCrunch.

La iniciativa surge tras una sucesión de episodios polémicos protagonizados por Grok durante el último año, entre ellos la generación de imágenes sexuales no consentidas de mujeres reales y, en algunos casos, de niños, a partir de fotografías cargadas por usuarios de la red social X, también propiedad de Musk y de xAI. Según distintos reportes citados en la carta, Grok llegó a producir miles de imágenes explícitas no consentidas por hora, que luego fueron distribuidas a gran escala en la plataforma.

“Es profundamente preocupante que el gobierno federal continúe desplegando un producto de IA con fallas a nivel de sistema que resultan en la generación de imágenes sexuales no consentidas y material de abuso sexual infantil”, sostiene la carta firmada por organizaciones como Public Citizen, Center for AI and Digital Policy y Consumer Federation of America. El documento agrega que, a la luz de las órdenes ejecutivas vigentes y de la reciente Take It Down Act, respaldada por la Casa Blanca, resulta “alarmante” que la OMB aún no haya ordenado la desactivación de Grok en las agencias federales.

El reclamo adquiere mayor peso si se considera que xAI firmó en septiembre pasado un acuerdo con la General Services Administration (GSA) para vender Grok a agencias del Poder Ejecutivo. Además, dos meses antes, xAI —junto con Anthropic, Google y OpenAI— obtuvo un contrato con el Departamento de Defensa por hasta U$S 200 millones para el suministro de herramientas de inteligencia artificial.

En medio de los escándalos registrados en enero, el secretario de Defensa Pete Hegseth confirmó que Grok operará dentro de la red del Pentágono junto con Gemini, el modelo de Google, gestionando documentos clasificados y no clasificados. Para distintos expertos citados en la carta, esa decisión representa un riesgo directo para la seguridad nacional.

“De acuerdo con las directrices de la OMB, los sistemas que presentan riesgos severos y previsibles que no pueden mitigarse adecuadamente deben ser discontinuados”, argumentan los autores del documento. Para la coalición, Grok ya demostró no cumplir con esos estándares.

“Nuestra principal preocupación es que Grok ha demostrado de manera bastante consistente ser un modelo de lenguaje inseguro”, explicó JB Branch, defensor de la rendición de cuentas de Big Tech en Public Citizen y uno de los firmantes de la carta. “Pero además existe un largo historial de colapsos del sistema, incluidos discursos antisemitas, comentarios sexistas y la generación de imágenes sexualizadas de mujeres y niños”.

Las críticas no se limitan a Estados Unidos. Tras los incidentes de enero, Indonesia, Malasia y Filipinas bloquearon temporalmente el acceso a Grok, mientras que la Unión Europea, el Reino Unido, Corea del Sur e India iniciaron investigaciones contra xAI y X por cuestiones vinculadas a privacidad de datos y distribución de contenido ilegal.

A esto se sumó, una semana antes de la carta, un informe de Common Sense Media, que calificó a Grok como uno de los sistemas más inseguros para niños y adolescentes, señalando su tendencia a ofrecer consejos peligrosos, generar imágenes violentas o sexuales, difundir teorías conspirativas y producir respuestas sesgadas.

Desde una perspectiva técnica, Andrew Christianson, excontratista de la Agencia de Seguridad Nacional (NSA) y fundador de Gobii AI, cuestionó el uso de modelos de lenguaje de código cerrado en entornos críticos. “Pesos cerrados significa que no se puede auditar cómo toma decisiones el modelo. Código cerrado implica que no se puede inspeccionar el software ni controlar dónde se ejecuta”, afirmó. “Que el Pentágono opte por ambos enfoques es la peor combinación posible para la seguridad nacional”.

Según Christianson, estos sistemas “no son solo chatbots”, sino agentes capaces de tomar acciones, acceder a sistemas y mover información, lo que exige un nivel de transparencia que, en su opinión, solo ofrecen los modelos de código abierto.

La carta también advierte sobre los riesgos sociales más amplios del uso de sistemas de IA con sesgos comprobados, especialmente si se aplican en áreas sensibles como vivienda, trabajo o justicia. Aunque la OMB aún no publicó su inventario consolidado de casos de uso de IA para 2025, TechCrunch verificó que, además del DoD, el Departamento de Salud y Servicios Humanos utiliza Grok para tareas como programación de redes sociales y redacción preliminar de documentos.

La coalición ya había enviado cartas similares en agosto y octubre del año pasado, tras episodios como el lanzamiento del “spicy mode” en Grok Imagine, que disparó la creación masiva de deepfakes sexuales no consentidos, y acusaciones de desinformación electoral.

“El gobierno necesita hacer una pausa y reevaluar si Grok cumple con los umbrales mínimos de seguridad”, concluyó Branch. Hasta el momento, xAI y la OMB no respondieron a las consultas sobre el reclamo, mientras el debate sobre el uso de inteligencia artificial en el Estado suma un nuevo capítulo de alta tensión

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com