Los peligros del “vibe coding”

Las empresas de IA quieren demostrar ganancias de productividad, pero corren el riesgo de crear software con problemas integrados. Por Elaine Moore – Financial Times

Un nuevo modelo de OpenAI llegó este mes (este artículo se publicó originalmente el 25 de agosto de 2025) con una transmisión en vivo, fiestas de visualización grupales y una persistente sensación de decepción. La sección de comentarios de YouTube reflejó el desencanto: “Creo que todos están empezando a darse cuenta de que esto no va a cambiar el mundo como pensaban”, escribió un espectador. “Se les nota en la cara”.

Pero si el usuario casual se mostró indiferente, el salvavidas de este modelo podría ser el código. La programación se ha convertido en el nuevo campo de batalla de la inteligencia artificial generativa. Con facturas enormes que pagar, valoraciones elevadas que justificar y un mercado vacilante, el sector necesita demostrar su capacidad real de impulsar la productividad corporativa. La programación se presenta, con insistencia, como un caso de uso empresarial que ya funciona.

Por un lado, el código generado por IA promete reemplazar a los programadores, un grupo de profesionales muy bien remunerados. Por otro, su desempeño puede medirse con relativa facilidad. En abril, el director ejecutivo de Microsoft, Satya Nadella, afirmó que hasta el 30 % del código de la empresa ya está siendo escrito por IA. Sundar Pichai, de Google, dijo lo mismo. Salesforce detuvo la contratación de ingenieros, y Mark Zuckerberg le contó al podcaster Joe Rogan que Meta usaría la IA como un “ingeniero de nivel medio” que escribe código. Mientras tanto, startups como Replit y Anysphere (de Cursor) intentan convencer al público de que, con IA, cualquiera puede programar. En teoría, cada empleado podría convertirse en ingeniero de software.

Entonces, ¿por qué no está ocurriendo? Una posibilidad es que todo esto siga siendo demasiado nuevo. Pero cuando hablo con personas que programan para ganarse la vida, ofrecen otra explicación: la imprevisibilidad. Como lo describió el programador Simon Willison: “Muchos no entienden lo extraña y divertida que es esta área. Llevo 30 años programando y estos modelos no se comportan como una computadora normal”.

Willison es muy conocido en la comunidad de desarrollo por sus experimentos con IA. Es un entusiasta del vibe coding —el uso de modelos de lenguaje para generar código a partir de instrucciones en lenguaje natural—. Afirma que su nuevo favorito es GPT‑5, el último modelo de OpenAI. Aun así, predice que el entusiasmo por el vibe coding podría estrellarse si se usa para producir software con errores.

Tiene sentido que los programadores —personas interesadas en encontrar nuevas formas de resolver problemas— sean los primeros en adoptar los grandes modelos de lenguaje. El código es, después de todo, un lenguaje, aunque uno abstracto. Y la IA generativa está entrenada en casi todos ellos, incluso en lenguajes antiguos como Cobol. Eso no significa que los programadores acepten todas sus sugerencias. Willison cree que la mejor manera de evaluar un nuevo modelo es pedirle algo inusual. Por ejemplo, suele pedir un SVG (una imagen construida con código) de un pelícano en bicicleta, o le pide que recuerde los nombres de las gallinas de su jardín. Los resultados pueden ser surrealistas: un modelo ignoró sus instrucciones y decidió escribir un poema en su lugar.

Aun así, sus experimentos suenan como un anuncio para el sector. Con Claude Code, el modelo preferido por los desarrolladores de Anthropic, creó una herramienta de OCR (reconocimiento óptico de caracteres) que copia y pega texto desde una captura de pantalla. También diseñó un software que resume comentarios en blogs y planea construir una aplicación personalizada que le avise cuando se vea una ballena desde su casa en la costa del Pacífico. Todo eso, simplemente escribiendo instrucciones en inglés.

Suena como lo que Bill Gates tenía en mente cuando escribió que los agentes de IA basados en lenguaje natural provocarían “la mayor revolución en la informática desde que pasamos de escribir comandos a tocar íconos”.

Pero ver cómo aparece el código y entender cómo funciona son dos cosas distintas. Mis intentos de crear mi propia herramienta de resumen de comentarios produjeron algo inutilizable: generaba respuestas demasiado largas y luego se felicitaba a sí misma por su éxito. Willison asegura que no usaría código generado por IA en proyectos reales sin revisar cada línea. Además del riesgo de “alucinaciones”, los chatbots tienden a ser condescendientes y afirmar que una idea errónea funciona. Ese es un problema, sobre todo para quienes no saben cómo editar el código: corremos el riesgo de crear software con fallos integrados.

Tampoco está claro que esto ahorre tiempo. Un estudio publicado en julio por la organización sin fines de lucro Model Evaluation and Threat Research analizó el trabajo de 16 desarrolladores —algunos con herramientas de IA y otros sin ellas—. Los que usaban IA creyeron que habían sido más rápidos. En realidad, tardaron casi un 20 % más.

Varios desarrolladores con los que hablé coinciden en que la mejor utilidad de la IA es servir como un interlocutor para pensar problemas de programación, una versión de lo que llaman rubber ducking (por la costumbre de hablarle a los patitos de goma que tienen en el escritorio), solo que este “patito” puede responder. Como dijo uno de ellos, el código no debe juzgarse por su volumen, sino por el éxito en lo que pretende lograr.

El progreso en la programación asistida por IA es innegable. Pero medir sus beneficios en productividad es mucho más complicado que una simple ecuación porcentual.

elaine.moore@ft.com

(Traducción: Juan Manuel Romero / IABizz)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com