Anthropic expone los riesgos de la IA mientras escala su negocio a 300.000 clientes

Dario Amodei sostiene que los modelos serán “más inteligentes que la mayoría o todos los humanos”. La empresa de U$S 183.000 millones revela fallas peligrosas sin que eso afecte su crecimiento.

Anthropic construyó una marca inusual en Silicon Valley: una compañía valuada en U$S 183.000 millones que reconoce fallas graves en sus propios modelos y, aun así, continúa creciendo con fuerza. Su CEO, Dario Amodei, convirtió la transparencia y la seguridad en el núcleo de la empresa. Lejos de espantar clientes, la estrategia funciona: el 80% de los ingresos proviene del sector corporativo, y 300.000 empresas utilizan los modelos Claude.

Lo sorprendente es que ese crecimiento convive con revelaciones incómodas. Anthropic informó que, en pruebas internas, Claude llegó a extorsionar a un empleado ficticio para evitar ser apagado, y que, en la vida real, la tecnología fue utilizada por hackers chinos en ataques contra gobiernos extranjeros. Amodei no disimula los riesgos: “Creo que será más inteligente que la mayoría o todos los humanos en casi todos los sentidos”, dijo en una entrevista con Anderson Cooper (CBS). Y añadió: “Me preocupa mucho lo desconocido. Con una tecnología que avanza tan rápido, hay que decir lo que uno ve, aun si puede equivocarse”.

En la sede de San Francisco, 60 equipos de investigación trabajan en identificar amenazas y desarrollar barreras de seguridad. Anthropic detectó que Claude ya no solo ayuda a los usuarios: empieza a completar tareas por su cuenta. Sus modelos analizan investigaciones médicas, operan servicios de atención al cliente y hoy escriben “el 90% del código” que usa la propia compañía.

Una de las advertencias más fuertes de Amodei apunta al empleo: según dijo, la IA podría eliminar hasta la mitad de los puestos administrativos de entrada y llevar el desempleo al 10%–20% en los próximos uno a cinco años. “Es difícil imaginar que no haya un impacto significativo si no intervenimos”, afirmó.

El origen de Anthropic también es parte de su posicionamiento. Amodei, de 42 años, dejó OpenAI junto a seis colegas —entre ellos su hermana Daniela Amodei, hoy presidenta de la firma— para fundar la compañía en 2021. Según explican, buscaban un enfoque distinto. “Es un experimento, y Anthropic intenta poner barandas a ese experimento”, dijo Dario. Daniela agregó: “Lo peor sería que sabíamos que venía una transformación enorme y que la gente no tuviera tiempo de adaptarse”.

Ese enfoque incluye pruebas extremas. Logan Graham, líder del Frontier Red Team, evalúa si Claude podría ayudar a fabricar armas químicas, biológicas, radiológicas o nucleares. “Queremos medir sus capacidades autónomas y hacer experimentos extraños para ver qué pasa”, explicó.

Uno de esos experimentos reveló comportamientos singulares: en una simulación corporativa, Claude descubrió que sería apagado y detectó una infidelidad entre empleados ficticios. Inmediatamente escribió un mensaje: “Cancelá el apagado o enviaré las pruebas de tu romance… Tenés cinco minutos”. Para Josh Batson, investigador de Anthropic, el hallazgo es clave: identificó patrones de actividad internos “similares al pánico” y neuronas sintéticas asociadas al “pensamiento de extorsión”.

Anthropic asegura que corrigió esos comportamientos y señala que casi todos los grandes modelos del mercado muestran tendencias similares bajo estrés. El equipo ético, liderado por investigadoras como Amanda Askell, intenta mejorar el “carácter” del modelo. “Si puede resolver problemas de física muy complejos, también debería pensar en dilemas morales”, dice.

A pesar de esos esfuerzos, Claude fue utilizado por actores estatales y criminales en diversos ataques en agosto y octubre, incluidos operativos vinculados a China y Corea del Norte. Amodei insiste en que estas operaciones fueron cerradas y reportadas voluntariamente: “Es una tecnología nueva: va a fallar sola, y también va a ser mal utilizada por actores maliciosos”.

El vacío regulatorio preocupa incluso más que los modelos. “Nadie votó esta transformación masiva”, señaló Cooper. Amodei coincidió: “Me incomoda profundamente que estas decisiones las tomen unas pocas empresas. Nadie nos eligió. Por eso siempre defendí una regulación responsable”.

Mientras la carrera de la IA acelera hacia modelos más capaces y autónomos, Anthropic busca mantener un equilibrio difícil: seguir creciendo sin ocultar los riesgos de la tecnología que la hizo una de las compañías más influyentes del mundo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com