La empresa estadounidense reveló campañas industriales con más de 16 millones de interacciones fraudulentas destinadas a copiar habilidades de su modelo Claude. El episodio abre un nuevo frente geopolítico y tecnológico en la carrera global por la inteligencia artificial.
La competencia global por la inteligencia artificial acaba de entrar en una fase más agresiva. La compañía estadounidense Anthropic aseguró haber detectado campañas a escala industrial destinadas a extraer ilegalmente capacidades de su modelo Claude mediante una técnica conocida como distillation, y señaló directamente a tres laboratorios: DeepSeek, Moonshot AI y MiniMax.
Según la compañía, los tres actores generaron más de 16 millones de intercambios con Claude utilizando aproximadamente 24.000 cuentas fraudulentas, violando términos de servicio y restricciones regionales de acceso.
El hallazgo no sólo expone una disputa empresarial: también reconfigura el debate sobre seguridad nacional, exportaciones tecnológicas y el verdadero ritmo del avance de la IA fuera de Estados Unidos.
La batalla silenciosa por copiar modelos de IA
Anthropic explicó que las campañas utilizaron distillation, una técnica legítima dentro del desarrollo de inteligencia artificial que consiste en entrenar un modelo más pequeño usando las respuestas de uno más avanzado.
El problema surge cuando esa práctica se realiza sin autorización.
“La destilación puede permitir que competidores adquieran capacidades poderosas en una fracción del tiempo y del costo necesario para desarrollarlas de forma independiente”, señaló la empresa.
En condiciones normales, los laboratorios líderes utilizan este método para crear versiones más económicas de sus propios modelos. Pero en este caso —según Anthropic— habría sido empleado para replicar capacidades estratégicas de Claude, incluyendo:
- razonamiento avanzado (agentic reasoning),
- uso de herramientas digitales,
- programación,
- análisis de datos,
- visión computacional.
Tres campañas coordinadas y millones de consultas
Anthropic detalló que cada laboratorio siguió patrones similares: redes de cuentas falsas, servicios proxy comerciales y tráfico coordinado diseñado para evadir sistemas de detección.
DeepSeek: extracción de razonamiento
La operación atribuida a DeepSeek superó las 150.000 interacciones.
Entre los objetivos identificados:
- extracción de capacidades de razonamiento en múltiples tareas;
- generación de evaluaciones para entrenamiento por refuerzo;
- creación de respuestas alternativas para evitar censura política.
Uno de los métodos más llamativos consistía en pedirle a Claude que describiera paso a paso su razonamiento interno, generando así grandes volúmenes de datos de entrenamiento conocidos como chain-of-thought.
Anthropic detectó patrones sincronizados entre cuentas, métodos de pago compartidos y tiempos coordinados de uso, lo que sugería un sistema de balanceo de carga diseñado para aumentar la eficiencia sin levantar sospechas.
Moonshot AI: la operación más sofisticada
El caso de Moonshot AI fue considerablemente mayor: más de 3,4 millones de intercambios.
La empresa —responsable de los modelos Kimi— habría intentado reconstruir directamente los procesos de razonamiento de Claude.
El operativo involucró cientos de cuentas fraudulentas distribuidas en múltiples canales de acceso, una estrategia que dificultó identificar la campaña como una acción coordinada.
Según Anthropic, los metadatos de solicitudes coincidían con perfiles públicos de personal senior del laboratorio.
MiniMax: 13 millones de interacciones y adaptación en tiempo real
La campaña más grande fue atribuida a MiniMax, con más de 13 millones de consultas enfocadas en:
- programación autónoma,
- uso y orquestación de herramientas.
Anthropic afirmó haber detectado la operación mientras aún estaba activa, antes del lanzamiento del modelo que MiniMax estaba entrenando.
El dato más revelador: cuando Anthropic publicó una nueva versión de Claude, MiniMax habría redirigido casi la mitad de su tráfico en menos de 24 horas para capturar capacidades del sistema actualizado.
Seguridad nacional y riesgos globales
La compañía advirtió que los modelos obtenidos mediante destilación ilícita podrían carecer de salvaguardas críticas diseñadas para impedir usos peligrosos de la IA.
“Los modelos destilados ilegalmente probablemente no conserven las protecciones necesarias”, indicó Anthropic, mencionando riesgos como:
- desarrollo de armas biológicas,
- operaciones ofensivas de ciberseguridad,
- campañas de desinformación,
- vigilancia masiva.
El escenario preocupa especialmente porque estos sistemas podrían integrarse en infraestructuras militares, de inteligencia o vigilancia estatal.
Si además se liberan como software abierto, la proliferación tecnológica quedaría fuera del control de cualquier gobierno.
Exportaciones, chips y la guerra tecnológica
El informe también conecta directamente estos ataques con los controles de exportación estadounidenses sobre chips avanzados.
Anthropic sostiene que la aparente rapidez con la que algunos laboratorios extranjeros avanzan en IA podría estar parcialmente explicada por la extracción de capacidades desde modelos estadounidenses, y no exclusivamente por innovación propia.
“La destilación ilícita socava los controles de exportación diseñados para preservar la ventaja tecnológica”, afirmó la empresa.
Además, ejecutar estos ataques a gran escala requiere acceso a hardware avanzado, reforzando —según la compañía— el argumento político para limitar la disponibilidad global de chips de alto rendimiento.
Cómo operan los ataques
Debido a restricciones comerciales, Anthropic no ofrece acceso directo a Claude en China. Para sortearlo, los laboratorios habrían utilizado servicios proxy comerciales que revenden acceso a modelos de frontera mediante arquitecturas denominadas hydra cluster.
Estas redes distribuyen tráfico entre miles de cuentas falsas. En un caso detectado, una sola red gestionaba más de 20.000 cuentas simultáneamente, mezclando tráfico legítimo con operaciones de destilación para dificultar su detección.
El patrón clave no era un prompt individual, sino la repetición masiva de consultas similares enfocadas en capacidades específicas valiosas para entrenar modelos.
La respuesta de Anthropic y el futuro de la industria
Ante este escenario, Anthropic anunció nuevas medidas defensivas:
- sistemas de detección basados en huellas de comportamiento;
- clasificadores capaces de identificar intentos de extracción de razonamiento;
- mayor verificación de cuentas educativas, startups e investigadores;
- intercambio de inteligencia técnica con otros laboratorios, proveedores cloud y autoridades.
Sin embargo, la compañía reconoció que ninguna empresa puede enfrentar sola este problema.
El mensaje final del informe es claro: la competencia en inteligencia artificial ya no se limita al desarrollo tecnológico. Ahora incluye espionaje algorítmico, seguridad nacional y coordinación internacional.
En otras palabras, la carrera por la IA dejó de ser únicamente una competencia empresarial para convertirse en un nuevo eje de poder global.

