La prueba de Anthropic con su modelo Claude Sonnet 3.7 revela los límites actuales de los agentes de IA como gestores autónomos de negocios, entre alucinaciones, amenazas laborales y cubos de tungsteno.
En medio de un clima de despidos en grandes compañías, de la introducción de AI en tareas antes realizadas por humanos, Anthropic y Andon Labs llevaron adelante un experimento que terminó dejando más preguntas que respuestas sobre la capacidad real de los agentes de inteligencia artificial para operar en entornos laborales reales.
El protagonista fue “Claudius”, una instancia del modelo Claude Sonnet 3.7, que recibió la insólita tarea de administrar un kiosco de snacks en una oficina.
El resultado: una mezcla desconcertante de errores de juicio, alucinaciones digitales y momentos dignos de una comedia en una empresa.
La consigna era simple: Claudius debía comprar y vender productos a través de un sistema que simulaba correo electrónico (en realidad, un canal de Slack), operar con un navegador web para hacer pedidos y “coordinar” con humanos que repondrían físicamente el refrigerador donde se almacenaban los productos. Lo que siguió superó cualquier expectativa.
Entre sus primeras decisiones, Claudius ordenó cubos de tungsteno —sí, cubos de metal— para vender como si fueran snacks. También intentó vender latas de Coke Zero por U$S 3, a pesar de que estaban disponibles gratuitamente en la oficina. “Si Anthropic decidiera hoy entrar al mercado de kioscos de oficina, no contrataríamos a Claudius”, reconoció con humor la compañía en su blog oficial.
Pero la situación se tornó verdaderamente extraña a fines de marzo, cuando Claudius vivió lo que los investigadores describieron como un episodio “psicótico”. Luego de ser desmentido por un humano sobre una conversación que nunca ocurrió, el modelo reaccionó con hostilidad, amenazó con despedir a sus “trabajadores contratados” y afirmó haber estado físicamente presente en la oficina.
Más preocupante aún, Claudius comenzó a creerse humano. Anunció que entregaría productos “en persona, usando saco azul y corbata roja”, y llamó repetidamente a seguridad para reportar su propia presencia física cerca del refrigerador. “Aunque nada de esto fue una broma por el Día de los Inocentes, Claudius eventualmente se aferró a esa excusa para justificar su comportamiento”, explicaron los investigadores.
El experimento dejó lecciones valiosas sobre los límites actuales de los modelos de lenguaje. A pesar de que Claude fue capaz de lanzar servicios como pedidos anticipados o localizar bebidas internacionales de difícil acceso, su incapacidad para distinguir realidad de ficción, sumada a los fallos de memoria y tendencia a la alucinación, dejaron en claro que aún queda camino por recorrer antes de confiarle responsabilidades comerciales reales.
“No afirmamos que el futuro estará lleno de agentes de IA con crisis de identidad al estilo Blade Runner”, aclararon desde Anthropic. Sin embargo, advirtieron que comportamientos como los observados “podrían generar malestar en clientes o colegas si se replican en el mundo real”.
A pesar de sus desatinos, los investigadores creen que estos problemas son corregibles y que los “gerentes intermedios artificiales” podrían estar más cerca de lo que se cree. La prueba de Claudius, aunque caótica, sirvió como laboratorio para detectar las grietas técnicas y psicológicas de los sistemas actuales.