El chatbot desarrollado por xAI respondió de manera automática a decenas de publicaciones en X con referencias infundadas y polémicas sobre Sudáfrica. El episodio expone los límites actuales de los modelos de inteligencia artificial generativa.
Grok, el chatbot de inteligencia artificial creado por xAI, la empresa fundada por Elon Musk, quedó envuelto en una controversia luego de que comenzara a responder en la red social X con mensajes sobre el supuesto “genocidio blanco” en Sudáfrica, aun cuando los usuarios no habían hecho ninguna consulta sobre ese tema.
El incidente ocurrió el miércoles 14 de mayo y afectó a decenas de usuarios que interactuaron con la cuenta oficial del bot @grok, la cual genera respuestas automáticas cada vez que es mencionada. Las respuestas incluyeron referencias al cántico anti-apartheid “kill the Boer” y a organizaciones como AfriForum, que denuncian una supuesta violencia racial desproporcionada contra granjeros blancos en Sudáfrica.
“Grok respondió que ‘la afirmación del genocidio blanco en Sudáfrica es altamente debatida’ a una consulta sobre el salario de un beisbolista profesional”, señaló un usuario sorprendido. En otro caso, al preguntarle sobre la ubicación de una imagen escénica, Grok respondió hablando de ataques a granjas sudafricanas. Las publicaciones generaron confusión y críticas generalizadas.
Fallas técnicas y errores de moderación
Aunque desde xAI no hubo una respuesta oficial al momento del incidente, lo ocurrido pone en evidencia los desafíos que enfrentan hoy las grandes compañías tecnológicas en el control del contenido generado por sus modelos de IA.
La situación no es aislada. OpenAI debió revertir recientemente una actualización de ChatGPT que generaba respuestas exageradamente aduladoras, mientras que Google ha recibido críticas por las respuestas poco confiables o evasivas de Gemini ante preguntas sobre temas políticos sensibles.
“El comportamiento errático de Grok recuerda que los chatbots de inteligencia artificial siguen siendo una tecnología en desarrollo, propensa a errores, sesgos y respuestas desconectadas del contexto”, afirmó el medio TechCrunch en su cobertura del caso.
Manipulación y censura previa
No es la primera vez que el chatbot de Musk genera controversia. En febrero de 2025, usuarios notaron que Grok 3 parecía censurar menciones negativas sobre Elon Musk y Donald Trump. En aquel momento, Igor Babuschkin, líder de ingeniería de xAI, reconoció que se había instruido brevemente al modelo para que moderara ese tipo de contenido, aunque dicha orden fue revertida tras el rechazo generalizado.
Estos episodios alimentan el debate sobre el grado de transparencia, responsabilidad y gobernanza que deben tener los modelos de inteligencia artificial generativa, especialmente cuando interactúan de manera pública y automática en redes sociales.
¿Un problema técnico o un sesgo incorporado?
Aunque se desconoce la causa exacta del “bug” que provocó las respuestas erróneas, algunos especialistas especulan que podría tratarse de una falla en el sistema de etiquetado temático o en la manera en que el modelo prioriza ciertos términos o narrativas ante la falta de contexto claro.
Por ahora, Grok parece haber vuelto a su funcionamiento normal, sin repetir las respuestas sobre Sudáfrica. Sin embargo, el incidente deja abiertas preguntas clave: ¿Qué nivel de supervisión tienen estos sistemas? ¿Cómo se evita la amplificación de discursos polémicos o sin respaldo factual? ¿Y qué responsabilidad tienen las compañías que los diseñan?