El lanzamiento de GPT-5: Altman admite fallos, estudia volver a GPT-4o y promete arreglos

En un AMA en Reddit, Sam Altman reconoció que el despliegue de GPT-5 fue “bumpy”: un enrutador en tiempo real falló y dejó al modelo “menos inteligente” para muchos usuarios. OpenAI promete transparencia sobre qué modelo responde, evalua mantener GPT-4o para suscriptores Plus y duplicar los límites de uso durante el despliegue.

Sí, salió mal, nada que no se pueda arreglar

Uno de los cambios centrales de GPT-5 es un enrutador en tiempo real (router/autoswitcher) que decide si una petición se atiende con rapidez o si conviene dedicar más tiempo de “pensamiento” y enrutarla a un modelo distinto. Durante el despliegue, ese componente sufrió problemas operativos: según Sam Altman, “GPT-5 parecerá más inteligente a partir de hoy. Ayer tuvimos un incidente de severidad (sev) y el autoswitcher estuvo fuera de servicio durante parte del día, y el resultado fue que GPT-5 pareció mucho más tonto”. Altman añadió que están interviniendo en “el límite de decisión” para mejorar la selección del modelo y que harán “más transparente qué modelo está respondiendo una consulta dada”.

La confusión técnica se sumó a un episodio que pasó a llamarse en redes el “chart crime”: durante la presentación en vivo se mostró un gráfico con una barra desproporcionada respecto a su benchmark, lo que desató burlas y dudas sobre la calidad del material mostrado. Altman calificó ese fallo en X como un “megafallo en el gráfico”; los gráficos publicados posteriormente en el blog oficial, sin embargo, aparecieron correctos.

Respuestas, concesiones y efectos para usuarios y negocio

La comunidad presionó para que OpenAI restituyera el modelo anterior, GPT-4o, como alternativa. En el AMA, Altman respondió: “Estamos analizando permitir que los usuarios Plus continúen usando 4o. Intentamos recopilar más datos sobre las compensaciones”. Además prometió una mejora concreta para clientes: “Vamos a duplicar los límites de uso para los usuarios Plus a medida que terminemos el despliegue” —una medida pensada para que quienes dependen del servicio no se queden sin capacidad mientras se estabiliza la nueva versión.

El hecho de que OpenAI evalúe mantener GPT-4o para suscriptores Plus muestra el equilibrio entre innovación y continuidad: las empresas que integran la API o clientes profesionales necesitan estabilidad operativa, y una “actualización forzada” que degrade rendimiento puede tener un coste reputacional y comercial inmediato.

Críticas y lecturas técnicas

Entre quienes tuvieron acceso anticipado, el revisor Simon Willison valoró en líneas generales el rendimiento de GPT-5, pero señaló también fallos prácticos: según Willison, convertir datos en una tabla fue “un buen ejemplo de una falla de GPT-5”. Esa observación ilustra que, más allá de benchmarks, los problemas percibidos por usuarios devienen de situaciones reales de uso —tablas, gráficos y respuestas concretas— que hoy determinan la experiencia.

Por qué importa para el mercado de IA

El episodio deja varias lecciones para el ecosistema: 1) la arquitectura que decide “qué modelo responde” introduce nuevos puntos de falla operativa; 2) la comunicación —y la transparencia sobre qué modelo contesta— es clave para la confianza de clientes; y 3) la flexibilidad comercial (mantener versiones previas o ajustar límites de uso) puede ser la diferencia entre un lanzamiento aceptado o un daño prolongado al producto.

Sam Altman cerró el AMA con una promesa directa: “Continuaremos trabajando para estabilizar las cosas y seguiremos escuchando los comentarios”. En la práctica, la rapidez con la que OpenAI documente los cambios, restituya la fiabilidad y aporte herramientas para que el usuario sepa qué modelo está interactuando marcará si GPT-5 se convierte en el salto adelante que promete o en otro despliegue “bumpy” para la industria.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com