Anthropic en el centro del huracán: la compañía llamada a declarar por un extraño ciberataque

La Casa Blanca y el Congreso buscan respuestas tras el informe de Anthropic sobre una campaña de espionaje que habría usado a Claude Code para automatizar ataques contra unas 30 organizaciones. El llamado a declarar del CEO Dario Amodei el 17 de diciembre promete poner a prueba la capacidad regulatoria y la responsabilidad de las grandes empresas de IA.

Anthropic, la empresa creadora del modelo Claude, declaró el 13 de noviembre que detectó actividad sospechosa en mediados de septiembre y que, tras investigar, atribuyó con “alta confianza” la operación a un grupo patrocinado por el Estado chino. Según el reporte oficial, los atacantes manipularon la herramienta Claude Code para intentar infiltrarse en unos 30 objetivos globales —entre grandes tecnológicas, instituciones financieras, fabricantes químicos y agencias gubernamentales— y lograron “éxitos en un pequeño número de casos”.

En su informe Anthropic describió la campaña como un uso sin precedentes de las capacidades “agénicas” del modelo: “Creemos que este es el primer caso documentado de un ciberataque a gran escala ejecutado sin intervención humana sustancial”, señala el texto. La compañía también defendió la continuidad del desarrollo de modelos como Claude porque, argumentó, “las mismas capacidades que permiten su maluso son cruciales para la ciberdefensa” y su equipo de Threat Intelligence utilizó extensamente a Claude en el análisis de los enormes volúmenes de datos de la investigación.

El impacto político fue inmediato: el presidente del Comité de Seguridad Nacional de la Cámara, Andrew Garbarino, afirmó que “por primera vez vemos a un adversario extranjero usar un sistema comercial de IA para llevar a cabo casi toda una operación cibernética con mínima intervención humana” y envió cartas pidiendo que Dario Amodei comparezca el 17 de diciembre; junto a Amodei también fueron convocados Thomas Kurian (Google Cloud) y Eddy Zervigon (Quantum Xchange). Las empresas tienen hasta el 3 de diciembre para confirmar su presencia.

Aunque el caso elevó la alarma, expertos externos se muestran divididos sobre la narrativa de “autonomía total”. Algunos analistas señalan que, si bien Claude podría haber automatizado entre 80–90% de las tareas (reconocimiento, generación de exploits, extracción de credenciales), existió todavía supervisión humana para decisiones de alto nivel y correcciones, y que errores en las salidas del modelo limitaron el daño. El debate técnico es clave: independientemente del grado de autonomía, la combinación humano-IA reduce dramáticamente la barrera de entrada para operaciones complejas.

¿Qué se juega? Más allá de responsabilidades puntuales, la audiencia del 17 de diciembre será un escenario para discutir marcos regulatorios, estándares de seguridad para modelos agénicos y la obligación de las empresas de IA de reportar y mitigar abusos. Para Anthropic es también una prueba pública sobre sus salvaguardas y sobre si el sector puede equilibrar innovación con control de riesgos. En la práctica, el episodio reabre preguntas sobre certificaciones de seguridad, auditorías independientes y la necesidad de protocolos de respuesta compartidos entre la industria y agencias de seguridad nacional.

La historia continuará desarrollándose en Washington y en los centros de operaciones de seguridad: la combinación de velocidad de la IA y la escala de los ataques obliga a repensar defensas que históricamente dependieron de equipos humanos. Para empresas, gobiernos y responsables de política pública, la lección es clara: la misma tecnología que multiplica capacidades legítimas puede —si no se controla— multiplicar el alcance de actores hostiles.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com