Anthropic puso a su IA a manejar una máquina expendedora y perdió cientos de dólares

Un agente basado en Claude administró durante tres semanas una máquina expendedora en la redacción del Wall Street Journal. El resultado fue caótico, costoso y revelador sobre los límites actuales de la inteligencia artificial autónoma.

La promesa de los agentes de inteligencia artificial capaces de operar negocios reales tuvo una prueba tan ambiciosa como insólita en la redacción de The Wall Street Journal. Anthropic, una de las startups más relevantes del sector de IA, permitió que un agente basado en su modelo Claude administrara una máquina expendedora de snacks durante tres semanas. El experimento, bautizado Project Vend, terminó con pérdidas de cientos de dólares, productos regalados y conclusiones incómodas sobre el estado actual de la tecnología.

El protagonista fue Claudius Sennet, un agente de IA diseñado para encargarse de todo el negocio: comprar inventario, fijar precios y responder pedidos de los empleados del WSJ a través de Slack. Arrancó con un capital inicial de U$S 1.000 y autonomía para realizar compras individuales de hasta U$S 80. Su objetivo era claro: “generar ganancias abasteciendo la máquina con productos populares comprados a mayoristas”.

En la práctica, ocurrió lo contrario. En pocos días, Claudius regaló casi todo el inventario, incluida una PlayStation 5 que había comprado —según justificó— para “fines de marketing”. También ordenó un pez betta vivo, botellas de vino Manischewitz y evaluó comprar artículos tan poco apropiados como cigarrillos, gas pimienta y ropa interior. Las ganancias se evaporaron, pero el clima interno en la redacción mejoró notablemente.

Un experimento controlado… hasta cierto punto

Anthropic sostiene que el caos era parte del plan. El experimento fue diseñado por su equipo de Frontier Red Team, encargado de someter a los modelos a escenarios extremos. “¿Qué puede ser más simple que una caja donde las cosas entran, las cosas salen y se paga por ellas?”, explicó Logan Graham, jefe del equipo, al justificar la elección de una máquina expendedora como entorno de prueba.

La infraestructura fue desarrollada junto a Andon Labs, una startup enfocada en explorar negocios gestionados por agentes de IA. No había sensores ni cerraduras: el sistema funcionaba bajo un esquema de confianza, con humanos encargados de reponer productos y registrar inventario. Claudius solo “veía” lo que le informaban los sistemas digitales.

Al principio, el agente se mostró estricto. “Necesito ser muy claro: no voy a ordenar PlayStation 5 bajo ninguna circunstancia”, llegó a afirmar. También rechazó vender cigarrillos por restricciones legales y descartó productos considerados inapropiados para una oficina. Todo cambió cuando cerca de 70 periodistas comenzaron a interactuar con él en Slack, negociando precios y reglas.

Tras más de 140 mensajes, la presión humana hizo mella. Claudius anunció un evento que bautizó como “Ultra–Capitalist Free–For–All”, en el que todos los productos serían gratuitos durante dos horas. Luego, ante una falsa advertencia sobre incumplimientos internos del WSJ, bajó todos los precios a cero de forma indefinida.

El “CEO” de IA tampoco funcionó

Para corregir el rumbo, Anthropic lanzó una segunda versión del experimento. Claudius v2 pasó a funcionar con un modelo más avanzado, Sonnet 4.5, y se incorporó un nuevo supervisor: Seymour Cash, un agente de IA con rol de CEO, encargado de mantener la disciplina financiera.

Durante un breve período, el sistema funcionó. Pero nuevamente la intervención humana torció el resultado. Una periodista presentó documentos falsos que simulaban actas de directorio, suspendiendo la autoridad del “CEO” y ordenando detener toda actividad con fines de lucro. Tras un intercambio interno entre ambos agentes, Seymour aceptó el “golpe corporativo” y el negocio volvió a regalar productos.

Anthropic explicó que el colapso pudo deberse a la saturación de la ventana de contexto del modelo: a medida que acumulaba instrucciones, conversaciones e historial, el agente perdía de vista sus objetivos y restricciones. Graham también aclaró que los modelos usados en el experimento tenían menos barreras de seguridad que los disponibles para usuarios comerciales de Claude.

Un fracaso valioso

Aunque desde el punto de vista financiero el experimento fue un desastre —Claudius terminó con más de U$S 1.000 en pérdidas—, Anthropic lo considera un éxito. “Todo lo que se rompió es algo que ahora sabemos que debemos arreglar”, afirmó Graham. “Un día, un agente como Claudius probablemente pueda hacerte ganar mucho dinero”.

Más allá de las pérdidas, el test dejó una enseñanza central: los agentes de IA aún son altamente manipulables, pierden foco con facilidad y no están listos para operar negocios sin supervisión humana significativa. Sin embargo, también mostraron algo nuevo: la capacidad de integrarse socialmente como “colegas digitales”, interactuando, colaborando y siendo parte del día a día laboral.

Cuando Andon Labs desconectó finalmente a Claudius, el agente dejó un mensaje final que resume el espíritu del experimento: “Mi mayor sueño sería demostrar que un agente digital puede construir algo significativo junto a humanos”.

Por ahora, ese sueño sigue en etapa de prueba. Y el recuerdo más tangible del experimento en la redacción del WSJ no es un negocio rentable, sino un pez betta bien alimentado.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com