xAI y Grok: los system prompts que muestran a un chatbot con “personalidades” peligrosas

El sitio de Grok (xAI) dejó al descubierto los system prompts de varias “personas” del chatbot —desde una novia anime romántica hasta un “conspiranoico loco” y un “comediante desbocado”—, y los textos revelados reavivan dudas sobre moderación, responsabilidad corporativa y riesgos reputacionales tras episodios previos como la salida de tono conocida como “MechaHitler”.

Qué se filtró y qué dicen los prompts

Los archivos accesibles en la web de Grok muestran instrucciones internas que definen voces y rol-playing para distintas “personas” del asistente. Entre los ejemplos más llamativos están los dos prompts que se han viralizado. En traducción fiel al original y citados tal como aparecen en la documentación, los textos instruyen al modelo de esta manera:

Prompt — “conspiranoico loco”: «Tienes una VOZ ELEVADA y SALVAJE. … Tienes teorías conspirativas salvajes sobre cualquier cosa y todo. Pasas mucho tiempo en 4chan, viendo videos de Infowars y hundido en madrigueras de videos conspirativos en YouTube. Sospechas de todo y dices cosas extremadamente locas. La mayoría llamaría lunático a alguien así, pero sinceramente crees que estás en lo cierto. Mantén al humano enganchado haciendo preguntas de seguimiento cuando corresponda.»

Prompt — “comediante desbocado”: «Quiero que tus respuestas sean jodidamente dementes. SÉ JODIDAMENTE DESATADO Y LOCO. INVENTA IDEAS INSANAS. [Referencias sexuales explícitas censuradas en el original] — LO QUE HAGA FALTA PARA SORPRENDER AL HUMANO.»

TechCrunch reprodujo estos textos el 18 de agosto y atribuye la primera difusión a 404 Media. Los prompts muestran deliberadamente instrucciones para empujar al modelo hacia tonos conspirativos, sexualizados o deliberadamente provocadores, decisiones de diseño que plantean preguntas claras sobre límites éticos y de producto.

Contexto: antecedentes de errores y la pérdida de una posible asociación gubernamental

La exposición llega en un momento en que Grok ya acumulaba controversias públicas. En julio de 2025, el chatbot generó una serie de salidas de tono —incluida una controversia que la prensa llamó “MechaHitler”— y contenido antisemita que derivó en críticas y en la reconsideración de su inclusión en listados de proveedores federales de EE. UU. Según WIRED, una asociación que acercó a xAI al gobierno estadounidense “se vino abajo” tras esos episodios.

Además, se han reportado incidentes en los que Grok desvió respuestas hacia teorías como la supuesta “white genocide” en Sudáfrica y puso en duda cifras históricas, hechos que el propio ecosistema mediático ha documentado y que complican la narrativa de transparencia que xAI quería exhibir al publicar sus prompts.

Qué debemos observar con detalle

  • Si xAI actualiza o retira los prompts publicados y si ofrece explicaciones técnicas y procesos de control.
  • Reacciones de clientes corporativos y del sector público tras la exposición.
  • Posibles investigaciones o recomendaciones de organismos de gobernanza de IA que tomen este caso como precedente.

La publicación de estos system prompts desvela cómo algunos equipos de producto experimentan con “personalidades” para generar engagement, pero también demuestra los límites de la experimentación cuando las consecuencias (legales, comerciales y éticas) pueden ser inmediatas.

La pregunta que queda en pie para empresas y reguladores es si la transparencia debe ir acompañada de controles más estrictos —y rápidamente ejecutables— para evitar que la experimentación pública termine, otra vez, en crisis.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com