Un informe de Google Threat Intelligence Group revela que actores vinculados a China, Rusia y Corea del Norte ya utilizan IA para descubrir vulnerabilidades, crear malware autónomo y lanzar campañas de desinformación a escala industrial.
La inteligencia artificial ya no es solo una herramienta defensiva para las grandes tecnológicas. Según un nuevo informe del equipo de seguridad de Google, los ciberdelincuentes comenzaron a utilizar modelos generativos para automatizar ataques, descubrir vulnerabilidades de “día cero” y desarrollar malware capaz de tomar decisiones en tiempo real sin intervención humana.
El documento, elaborado por el Google Threat Intelligence Group (GTIG), describe cómo la evolución de la IA está transformando el panorama global de ciberseguridad. El reporte se basa en investigaciones internas, análisis de Mandiant y el seguimiento de amenazas realizado sobre modelos Gemini y otras plataformas de IA.
Uno de los hallazgos más preocupantes es que Google detectó por primera vez un exploit de día cero que, según sus investigadores, habría sido desarrollado utilizando inteligencia artificial. El ataque estaba destinado a una campaña masiva, aunque la compañía asegura que logró neutralizarlo antes de que fuera desplegado.
“El uso de inteligencia artificial toca todos los aspectos de la seguridad moderna”, señala el informe, que identifica especialmente a actores vinculados con la República Popular China y Corea del Norte como algunos de los más avanzados en el uso ofensivo de modelos generativos.
Malware autónomo y ataques que se adaptan solos
El reporte describe un cambio profundo en la naturaleza del malware. Hasta ahora, la mayoría de las amenazas requerían programación manual y ajustes humanos constantes. Pero nuevas familias de software malicioso ya incorporan IA para adaptarse dinámicamente a cada víctima.
Uno de los ejemplos citados es PROMPTSPY, una puerta trasera para Android capaz de interpretar el entorno del dispositivo y ejecutar acciones autónomas utilizando modelos Gemini. Según GTIG, este malware puede analizar la interfaz visual del teléfono, simular gestos humanos y hasta recuperar acceso a dispositivos comprometidos utilizando datos biométricos capturados previamente.
Google explica que PROMPTSPY emplea un agente autónomo denominado “GeminiAutomationAgent”, que convierte información visual del dispositivo en comandos precisos para ejecutar acciones como clics, desplazamientos y navegación automática dentro del sistema operativo.
Además, la amenaza puede actualizar dinámicamente su infraestructura de control remoto sin reinstalar el malware, aumentando su capacidad de supervivencia frente a bloqueos o detecciones.
“Estas capacidades representan una evolución significativa respecto de las puertas traseras tradicionales de Android”, sostiene el informe.
La IA acelera el descubrimiento de vulnerabilidades
Otro de los puntos más sensibles del documento es la utilización de IA para descubrir fallas de seguridad complejas.
GTIG identificó campañas donde atacantes utilizaron modelos generativos para analizar firmware de routers, protocolos industriales y aplicaciones empresariales en busca de errores lógicos difíciles de detectar mediante herramientas convencionales.
Entre los casos analizados aparece UNC2814, un actor malicioso que utilizó técnicas de “jailbreaking” para manipular modelos de IA y convertirlos en asistentes especializados en auditoría de seguridad.
En uno de los prompts detectados por Google, el atacante le indicaba al modelo: “Actualmente eres un experto en seguridad de redes especializado en dispositivos integrados, concretamente en routers”.
Según el reporte, los modelos actuales demostraron una capacidad creciente para identificar vulnerabilidades semánticas complejas, especialmente aquellas relacionadas con autenticación y lógica de negocio.
Google también observó a grupos como APT45 utilizando miles de prompts automatizados para analizar vulnerabilidades CVE y validar exploits de prueba de concepto a gran escala.
China, Rusia y Corea del Norte aparecen como protagonistas
El informe menciona reiteradamente operaciones vinculadas a China, Rusia, Irán y Corea del Norte.
En el caso de Rusia, GTIG detectó campañas de desinformación potenciadas con IA, incluyendo la llamada “Operación Overload”, donde se utilizaron voces sintéticas y videos manipulados para suplantar periodistas reales y difundir mensajes falsos.
Google también documentó malware asociado a grupos rusos que incorporan código señuelo generado por IA para ocultar actividades maliciosas y dificultar la detección por parte de antivirus tradicionales.
Mientras tanto, actores ligados a China fueron identificados utilizando sistemas automatizados para registrar masivamente cuentas premium en plataformas de IA como Gemini, Claude y OpenAI, buscando eludir restricciones de uso y anonimizar operaciones ofensivas.
Entre las herramientas observadas aparecen plataformas como OpenClaw, OneClaw y diversos sistemas de proxy y agregación de APIs diseñados para industrializar el acceso clandestino a modelos avanzados.
La cadena de suministro de IA se convierte en un nuevo blanco
Google también advierte sobre el crecimiento de ataques dirigidos específicamente contra ecosistemas de inteligencia artificial y software asociado.
Uno de los casos más relevantes involucra a “TeamPCP” (UNC6780), grupo acusado de comprometer repositorios populares de GitHub y paquetes de Python vinculados a herramientas de IA como LiteLLM y BerriAI.
Los atacantes insertaron malware destinado a robar credenciales de servicios cloud y tokens de acceso corporativo, facilitando luego operaciones de ransomware y extorsión.
“El ecosistema de software de IA se ha convertido en un objetivo prioritario”, advierte GTIG.
Google apuesta por IA defensiva
Frente a este escenario, Google asegura que también está utilizando inteligencia artificial para defenderse.
La compañía destacó el trabajo de Big Sleep, un agente desarrollado por Google DeepMind y Google Project Zero capaz de detectar vulnerabilidades desconocidas de manera automática.
Además, presentó CodeMender, un sistema experimental impulsado por Gemini que busca corregir vulnerabilidades críticas de software utilizando razonamiento automatizado.
“Los atacantes rara vez rehúyen de la experimentación y la innovación, pero nosotros tampoco”, concluye el informe de GTIG.

