OpenAI y el tropiezo de GPT-5: promesa científica o sobreventa pública

Investigadores de OpenAI anunciaron que GPT-5 había resuelto problemas matemáticos «abiertos», pero tuvieron que retractarse. El episodio expone fallas comunicacionales y recuerda que hoy la IA brilla más como asistente de investigación que como genio autónomo.

Una serie de tuits y declaraciones de empleados de OpenAI provocó esta semana un revuelo en la comunidad científica: el gerente Kevin Weil afirmó que GPT-5 había «encontrado soluciones a 10 (!) problemas de Erdős previamente no resueltos» y avanzado en otros 11, una afirmación que sugería un hito matemático de primer orden. La publicación fue eliminada rápidamente y los investigadores de OpenAI matizaron y corrigieron la comunicación, pero el daño en reputación ya estaba hecho.

La crítica llegó de inmediato. El matemático Thomas Bloom, responsable del sitio erdosproblems.com, calificó las afirmaciones como “una interpretación dramática” y aclaró que la etiqueta «abierto» en su base significa simplemente que él personalmente no conoce la solución —no que el problema sea de verdad irresuelto en la literatura. En otras palabras, GPT-5 había surfado literatura existente y señalado resultados previos que Bloom había pasado por alto, no había inventado pruebas originales.

«Fue una interpretación dramática», dijo Thomas Bloom, explicando que «abierto» en su site no implica necesariamente que la comunidad matemática carezca de una solución.

La reacción de algunos de los nombres más visibles del sector fue dura. Demis Hassabis, CEO de DeepMind, calificó el episodio como “embarazoso”; Yann LeCun, jefe de Meta AI, criticó el exceso de auto-fervor con un comentario punzante que señalaba cómo el propio ecosistema puede quedar atrapado en su propia exageración. Otros investigadores, al parecer, coincidieron en que la comunicación fue apresurada y pobremente verificada.

«Fue embarazoso», dijo Demis Hassabis sobre la comunicación pública de OpenAI.

El caso sirve como recordatorio: en un mercado con miles de millones de dólares —y enormes incentivos de posicionamiento público— la tentación de proclamar avances espectaculares puede eclipsar la necesaria verificación científica. Según el texto original, algunos investigadores incluso borraron los tuits y moderaron sus afirmaciones tras la crítica.

Pero hay un matiz que no conviene perder: GPT-5 sí mostró utilidad real para la investigación matemática, aunque en un papel distinto al prometido. La capacidad del modelo para rastrear literatura dispersa, agrupar referencias relevantes y acelerar búsquedas bibliográficas es lo que varios expertos, entre ellos el laureado matemático Terence Tao, consideran el aporte más inmediato y valioso de estas herramientas.

«Lo más inmediato es acelerar tareas tediosas como búsquedas de literatura», reflexiona Terence Tao, que ve valor en la IA como asistente, no como sustituto del juicio humano.

Tao y otros subrayan que, si bien ha habido «ejemplos aislados» de avances reales apoyados por modelos generativos, el papel dominante hoy es el de industrializar partes del trabajo científico repetitivo: rastrear papers, identificar conexiones, proponer referencias que un humano podría pasar por alto. La revisión, la clasificación y la validación siguen siendo exclusivamente humanas.

El episodio también plantea cuestiones más amplias para empresas y laboratorios: ¿cómo comunicar descubrimientos cuando el público y los mercados estén pendientes de cada afirmación? ¿Qué controles internos deben aplicarse antes de anunciar supuestos hitos? Y, por supuesto, ¿qué impacto reputacional generan rectificaciones públicas ante la comunidad académica?

En el terreno tecnológico, la lección es práctica. GPT-5 y modelos similares tienen un valor inmediato como herramientas de productividad para investigadores: acortan tiempos de búsqueda, ayudan a mapear la bibliografía y pueden descubrir referencias que escapan al radar. Pero la narrativa de que una IA “resuelve” problemas matemáticos de alto impacto de forma autónoma no se sostiene con las evidencias presentadas en este caso.

Para ejecutivos y líderes tecnológicos, el take-away es doble: por un lado, aprovechar las capacidades de IA para escalar procesos de investigación y reducir fricciones; por otro, adoptar protocolos de verificación científica y comunicación responsable antes de publicar afirmaciones que puedan influir en financiación, reputación o políticas públicas.

El derrape comunicacional de OpenAI no descarta el potencial transformador de la IA en la ciencia; sí recuerda que, al menos por ahora, la verdadera revolución es colaborativa: modelos que aumentan la productividad humana, no que la sustituyen. Y que, en una era de titulares y expectativas gigantes, la prudencia y el rigor informativo siguen siendo activos estratégicos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com