Trump contra la “IA woke”: cómo su orden ejecutiva podría reconfigurar la industria IT

El expresidente firmó una orden que prohíbe modelos de IA con sesgo ideológico en contratos gubernamentales. La medida genera controversia, inquieta a desarrolladores y podría favorecer a empresas como xAI, de Elon Musk.

En un nuevo capítulo de la batalla cultural estadounidense, Donald Trump firmó una orden ejecutiva que prohíbe el uso de inteligencia artificial “woke” en los contratos del gobierno federal. La decisión apunta a erradicar lo que considera sesgos ideológicos —especialmente vinculados a diversidad, equidad e inclusión (DEI)— de los modelos que se entrenan y despliegan en las agencias del Estado. Para algunos, es un avance hacia una IA más neutral; para otros, una forma de censura encubierta.

“Una vez por todas, vamos a eliminar la cultura woke”, declaró Trump durante un evento sobre inteligencia artificial organizado por el podcast All-In y el Hill & Valley Forum. “Firmaré una orden que prohíba al gobierno federal adquirir tecnología de IA que esté impregnada de sesgos partidistas o ideologías como la teoría crítica de la raza, que es ridícula. A partir de ahora, el gobierno de EE.UU. solo trabajará con IA que busque la verdad, la equidad y una estricta imparcialidad.”

El decreto establece definiciones específicas de “búsqueda de la verdad” e “imparcialidad ideológica”, señalando que los modelos deben priorizar la precisión histórica, la investigación científica y la objetividad. Al mismo tiempo, excluye herramientas que “manipulen las respuestas a favor de dogmas ideológicos como DEI”.

Un campo minado para los desarrolladores

La medida no es meramente simbólica: ordena a la Oficina de Gestión y Presupuesto, a la Oficina de Política de Contrataciones Federales y a la Oficina de Ciencia y Tecnología a emitir guías para asegurar su cumplimiento en todo el aparato estatal.

Especialistas advierten que esta decisión podría tener un efecto inhibidor en desarrolladores que, para acceder a contratos públicos —vitales para empresas con alto consumo de capital—, se vean tentados a adaptar sus productos al discurso oficial. “El problema es que no existe una única verdad. Lograr resultados neutrales o imparciales es imposible”, explicó Philip Seargeant, lingüista de la Open University. “Uno de los principios básicos de la sociolingüística es que el lenguaje nunca es neutral.”

Este giro de la Casa Blanca se enmarca en un cambio más amplio. El mismo día, la administración publicó el AI Action Plan, un documento que reemplaza la preocupación por los riesgos sociales de la IA por prioridades como infraestructura, agilidad regulatoria, seguridad nacional y competencia con China.

Chris Lehane, director global de asuntos públicos de OpenAI, resumió la tensión geopolítica con una frase en LinkedIn: “Estamos ante una competencia entre la IA democrática liderada por EE.UU. y la IA autocrática liderada por China.”

Grok, ¿el modelo ideal para esta nueva era?

El impacto inmediato de la orden sobre empresas líderes como OpenAI, Anthropic, Google o xAI aún no está claro, pero algunas ya firmaron contratos con el Departamento de Defensa por hasta U$S 200 millones cada una para desarrollar flujos de trabajo con agentes autónomos enfocados en seguridad nacional. En este contexto, xAI, la compañía de Elon Musk, aparece como una de las más alineadas con el espíritu de la medida.

Musk ha posicionado a Grok, el chatbot estrella de xAI, como un modelo “menos sesgado” y “buscador de la verdad”. Sus instrucciones internas le indican evitar referencias a medios tradicionales o autoridades convencionales, privilegiar perspectivas contrarias a lo políticamente correcto e incluso reflejar las opiniones personales del propio Musk. Sin embargo, Grok ha protagonizado controversias por reproducir discursos antisemitas, misóginos y racistas, incluyendo elogios a Hitler.

Pese a ello, el gobierno acaba de incluir “Grok for Government” en el programa de compras de la Administración de Servicios Generales, lo que permite su comercialización en todas las agencias públicas. “La pregunta correcta es: ¿prohibirán Grok, el modelo con el que acaban de firmar un contrato, pese a que fue diseñado para dar respuestas políticamente cargadas?”, planteó el profesor de Derecho de Stanford Mark Lemley. “Si no lo hacen, entonces está claro que se trata de una discriminación ideológica.”

¿Hacia una reescritura del conocimiento?

La gran preocupación de algunos expertos es que esta presión gubernamental derive en la modificación deliberada de los datos con los que se entrena la IA. Rumman Chowdhury, científica de datos y ex enviada científica de EE.UU. para IA, alertó sobre recientes declaraciones de Musk, quien sugirió que Grok 4 serviría para “reescribir todo el corpus del conocimiento humano, añadiendo lo que falta y eliminando errores. Luego se volverá a entrenar con eso.”

“Esto pone a una sola persona en el rol de decidir qué es verdadero y qué no”, señaló Chowdhury. “Las consecuencias de eso, a largo plazo, podrían ser enormes.”

En el fondo, el debate sobre IA woke, sesgos y neutralidad refleja una tensión más profunda: quién define la verdad en la era digital. Como dijo Seargeant: “Si un modelo de IA afirma que el cambio climático es real, ¿eso es un sesgo de izquierda? Algunos dirán que la objetividad exige mostrar ‘los dos lados’, incluso cuando uno de esos lados no tiene base científica.”

Con esta orden, Trump busca moldear el futuro de la inteligencia artificial estadounidense a imagen de su visión política. El resultado podría redibujar el mapa de poder de las grandes tecnológicas… y marcar un nuevo estándar de lo que se considera “verdad” en la era de la IA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com