ChatGPT vuelve al “selector de modelos”: GPT-5 suma Auto, Fast y Thinking tras el revés inicial

A una semana del estreno de GPT-5, OpenAI reculó con su idea de un modelo “único” y reabrió el selector de modelos en ChatGPT. La compañía habilitó tres modos (Auto, Fast y Thinking) y repuso GPT-4o, mientras admite que deberá personalizar más la “personalidad” por usuario. La pulseada por la preferencia del público y la retención de clientes pagos (U$S 20 y U$S 200 al mes) entra en una nueva fase.

El lanzamiento de GPT-5 prometía simplificar la experiencia de ChatGPT con un router que eligiera automáticamente la mejor forma de responder. Pero el plan duró poco. Tras una semana de quejas por desempeño y “sensación” del modelo, OpenAI restauró el selector de modelos con tres opciones visibles —Auto, Fast y Thinking— y volvió a poner GPT-4o en primer plano para usuarios pagos. Además, quienes lo deseen pueden reactivar modelos legados como GPT-4.1 y o3 desde la configuración.

El cambio llega luego de un despliegue con tropiezos: el router de GPT-5 se comportó de manera errática durante el primer día, lo que alimentó la percepción de menor rendimiento frente a modelos previos y empujó a la empresa a explicarse en foros y redes. “No siempre vamos a acertar en el intento n.º 1, pero estoy muy orgulloso de lo rápido que el equipo puede iterar”, reconoció Nick Turley, VP de ChatGPT, en X.

La decisión de devolver el control al usuario es también una admisión de algo más profundo: la relación afectiva con los modelos existe y pesa. Sam Altman lo dijo sin rodeos al anunciar los cambios de GPT-5: “Estamos trabajando en una actualización de la personalidad de GPT-5 que debería sentirse más cálida que la actual, pero no tan molesta (para la mayoría) como GPT-4o”. Y añadió: “Una lección de estos días es que tenemos que llegar a un mundo con más personalización por usuario de la personalidad del modelo”.

La complejidad del ruteo (decidir, en milisegundos, qué modelo responde y cómo balancear velocidad y calidad) no es trivial. OpenAI buscó resolverlo con GPT-5 como modelo “unificado”, pero debió abrir modos explícitos:

  • Auto, que mantiene la promesa del router y decide por el usuario.
  • Fast, pensado para respuestas veloces.
  • Thinking, que habilita más tiempo de “razonamiento” para tareas complejas.
    La reaparición del picker sugiere que la automatización total todavía no satisface a todos los segmentos de usuarios.

En paralelo, OpenAI intenta contener a los suscriptores. El plan Plus (U$S 20/mes) ofrece límites más altos de uso de GPT-5, mientras que Pro (U$S 200/mes) habilita acceso ilimitado y variantes potentes como GPT-5 Pro en el ecosistema de la API (gpt-5, gpt-5-mini y gpt-5-nano, con control de verbosidad). En API, el costo base de GPT-5 es de U$S 1,25 por millón de tokens de entrada y U$S 10 por millón de salida, una señal de que OpenAI también compite por precio y volumen frente a rivales como Anthropic, Google DeepMind y xAI.

El contexto no ayuda a la simplificación: OpenAI había discontinuado hace días modelos populares —como GPT-4o—, pero la reacción de los usuarios forzó un paso atrás. “Permitiremos que los usuarios Plus sigan usando 4o…”, dijo Altman, al tiempo que prometió avisos con más anticipación ante futuras bajas. La empresa también reconoció un “despliegue con baches” y aseguró que seguirá estabilizando la infraestructura y el router.

Más allá de la ingeniería, el episodio expone un fenómeno nuevo para la industria: apego humano a modelos específicos. En San Francisco, cientos de personas llegaron a realizar un “funeral” cuando Anthropic retiró una versión de Claude, un dato que no pasa inadvertido para OpenAI al reintroducir opciones y personalidad configurable.

Para el ecosistema empresarial, la lectura es clara: no hay un solo “talle único”. Organizaciones con flujos críticos —soporte, coding, investigación— necesitan predecibilidad y controles explícitos. Con Auto/Fast/Thinking, OpenAI ofrece un catálogo operativo más claro: rapidez cuando importa el tiempo-to-answer, y deliberación cuando el costo del error es alto. En la comparativa competitiva, este giro empata la cancha frente a la personalización fina que ya promueven Anthropic (Claude) y Google (Gemini) en entornos corporativos.

En términos de SEO y negocio, la noticia deja tres anclas:

  1. OpenAI repone GPT-4o y amplía opciones con Auto/Fast/Thinking tras el feedback;
  2. Precio y producto se alinean para retener a Plus (U$S 20) y Pro (U$S 200), y para empujar adopción de API con tarifas agresivas;
  3. La personalización por usuario (tono, estilo, control) emerge como ventaja competitiva en un mercado donde la fidelidad al “modelo favorito” ya es real.

En palabras de Turley, el plan es iterar rápido. Y en las de Altman, dar a cada usuario un ChatGPT que “se sienta” propio. La vuelta del selector confirma que, por ahora, la mejor UX no es esconder la complejidad, sino devolverle al usuario el volante.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com