El proyecto creado por el desarrollador austríaco Peter Steinberger se volvió tendencia global en pocas semanas y expuso tanto el potencial como los riesgos de los asistentes de inteligencia artificial autónomos. Tras un conflicto legal con Anthropic, Clawdbot pasó a llamarse Moltbot, pero mantuvo intacta su ambición.
La última ola de entusiasmo por la inteligencia artificial tiene un símbolo inesperado: una langosta. Moltbot —anteriormente conocido como Clawdbot— es un asistente personal de IA que se volvió viral en cuestión de semanas y captó la atención de miles de desarrolladores en todo el mundo. Su propuesta es tan simple como disruptiva: ser “la IA que realmente hace cosas”, desde gestionar calendarios y enviar mensajes hasta realizar check-ins de vuelos de manera autónoma.
Detrás del proyecto está Peter Steinberger, desarrollador austríaco y fundador conocido en la comunidad tecnológica como @steipete. Steinberger, creador previo de PSPDFkit, contó en su blog que tras alejarse de ese proyecto atravesó casi tres años de desconexión creativa. “Me sentía vacío y apenas tocaba la computadora”, explicó. Ese paréntesis terminó cuando volvió a entusiasmarse con la inteligencia artificial, un proceso que derivó en la creación de lo que inicialmente llamó Clawd, “el asistente con caparazón de Peter”, hoy rebautizado como Molty, el núcleo del actual Moltbot.
El crecimiento del proyecto fue explosivo. En poco tiempo, Moltbot acumuló más de 44.200 estrellas en GitHub, una cifra inusual incluso para herramientas de código abierto con fuerte tracción inicial. El fenómeno no solo se reflejó en redes sociales y foros técnicos, sino también en los mercados financieros: las acciones de Cloudflare subieron un 14% en el premarket del martes, impulsadas por el renovado interés en su infraestructura, utilizada por desarrolladores para ejecutar Moltbot localmente.
El camino al cambio de nombre no fue voluntario. Steinberger es un confeso “Claudoholic” y había bautizado su proyecto en alusión directa a Claude, el modelo insignia de Anthropic. Sin embargo, según reveló en la red social X, la compañía liderada por Dario Amodei le exigió modificar la marca por cuestiones de derechos. “El alma langosta del proyecto permanece intacta”, aclaró Steinberger, aun después de adoptar el nombre Moltbot. TechCrunch contactó a Anthropic para obtener comentarios, pero la empresa no respondió.
Para sus primeros usuarios, Moltbot representa la vanguardia de los asistentes personales basados en agentes de IA. A diferencia de herramientas conversacionales como ChatGPT, su valor está en la ejecución directa de tareas. Esa capacidad, sin embargo, también abre un debate profundo sobre seguridad. El proyecto es open source y se ejecuta en computadoras o servidores propios, no en la nube, lo que permite auditar el código. Pero su premisa central implica riesgos evidentes.
El emprendedor e inversor Rahul Sood lo sintetizó con crudeza en X: “Que ‘realmente haga cosas’ significa que puede ejecutar comandos arbitrarios en tu computadora”. Sood advirtió especialmente sobre el riesgo de “inyección de prompts a través de contenido”, un escenario en el que un mensaje malicioso —por ejemplo, vía WhatsApp— podría inducir al asistente a realizar acciones no deseadas sin conocimiento del usuario.
Estos riesgos pueden mitigarse parcialmente con una configuración cuidadosa y con la elección del modelo de IA adecuado, ya que Moltbot es compatible con distintas alternativas. Aun así, la única forma de prevenir completamente ese tipo de ataques es aislar el sistema en un entorno separado, lo que reduce significativamente su utilidad práctica.
El propio Steinberger fue víctima de actores maliciosos durante el proceso de cambio de nombre. Reconoció en X que “estafadores cripto” se apropiaron de su nombre de usuario en GitHub y lanzaron falsos proyectos de criptomonedas. “Cualquier proyecto que me liste como dueño de una coin es una ESTAFA”, alertó, y luego aclaró que la cuenta legítima en X es @moltbot, “no ninguna de las 20 variaciones falsas”.
Hoy, ejecutar Moltbot de manera segura implica usar una computadora separada, cuentas descartables y, preferentemente, un VPS —un servidor privado virtual—, algo que excede el conocimiento técnico del usuario promedio. Como advirtió Sood, “no debería correrse en la laptop que contiene claves SSH, credenciales de API y un gestor de contraseñas”.
Aun con esas limitaciones, Moltbot se convirtió en una demostración tangible de hasta dónde pueden llegar los agentes de inteligencia artificial cuando se los diseña para resolver problemas reales. Al crear una herramienta para su propio uso, Steinberger logró mostrarle a la comunidad qué puede hacer la IA autónoma cuando deja de ser solo impresionante y empieza a ser verdaderamente útil.

