El campo de batalla digital ha cambiado para siempre. Un nuevo informe del Google Threat Intelligence Group (GTIG) publicado el 5 de noviembre de 2025, confirma un salto evolutivo en las amenazas cibernéticas: El malware ahora usa inteligencia artificial en tiempo real para adaptarse, evadir y atacar. La IA ya no es solo un recurso de productividad para los atacantes. Es su nuevo cerebro.
Esto marca el comienzo de una nueva fase operativa, una era de malware autónomo y adaptativo que puede alterar dinámicamente su comportamiento para evadir la detección y maximizar su impacto. Ya no hablamos de IA para escribir correos de phishing más convincentes, hablamos de código malicioso que aprende y evoluciona en mitad de la ejecución.
El Salto Evolutivo De la Productividad a la Operación Activa
Hasta ahora el uso de IA por parte de los ciberdelincuentes se centraba en la eficiencia, generar señuelos de phishing, investigar vulnerabilidades o traducir contenido para campañas de desinformación. Sin embargo, el análisis de GTIG revela un “cambio significativo” en el último año. Ahora, la IA está integrada en el núcleo del malware.
“Los adversarios están desplegando novedoso malware habilitado por IA en operaciones activas”, afirma el informe. Esto representa un paso fundamental hacia un malware más autónomo, capaz de tomar decisiones “justo a tiempo” sin depender de instrucciones pre-programadas.
El informe de Google detalla varios descubrimientos cruciales que dibujan el panorama de esta nueva amenaza:
1. Malware “Just-in-Time”: PROMPTFLUX y PROMPTSTEAL
Por primera vez, GTIG ha identificado familias de malware que utilizan Grandes Modelos de Lenguaje (LLMs) durante su ejecución para generar código malicioso bajo demanda.
- PROMPTFLUX: Dropper experimental que utiliza la API de Gemini para reescribirse dinámicamente y evadir detección antivirus. Su módulo “Thinking Robot” busca crear código metamórfico.
- PROMPTSTEAL: Primer caso documentado de malware en operaciones activas usando IA. Fue desplegado por APT28 (Fancy Bear) contra objetivos ucranianos. En lugar de comandos predefinidos, consulta una LLM vía Hugging Face para generar las instrucciones necesarias según el entorno de ejecución.
2. Ingeniería Social… para Engañar a la IA
Los atacantes no solo usan la ingeniería social contra los humanos, sino también contra las propias barreras de seguridad de la IA. GTIG observó a actores maliciosos eludir las restricciones de seguridad de Gemini haciéndose pasar por estudiantes en una competición de “Capture The Flag” (CTF) o por investigadores de ciberseguridad. Al presentar sus solicitudes maliciosas bajo este pretexto “benigno”, lograban que la IA les proporcionara información que de otro modo estaría bloqueada.
3. Un Mercado Negro de IA en Pleno Auge
El informe destaca la maduración de un mercado clandestino de herramientas de IA diseñadas específicamente para actividades ilícitas. Herramientas con nombres como FraudGPT, MalwareGPT y WormGPT se anuncian en foros clandestinos, ofreciendo capacidades para:
- Crear malware para casos de uso específicos.
- Generar deepfakes para eludir verificaciones de identidad (KYC).
- Desarrollar kits de phishing y realizar reconocimientos avanzados.
Esto está “reduciendo la barrera de entrada para actores menos sofisticados”, permitiendo que ciberdelincuentes con recursos limitados lancen ataques complejos y efectivos.
4. Actores Estatales a la Vanguardia de la Innovación
Grupos respaldados por gobiernos de Corea del Norte, Irán y China continúan utilizando IA para potenciar todas las fases del ciclo de vida de un ataque: desde el reconocimiento inicial y la creación de señuelos, hasta el desarrollo de infraestructura de Mando y Control (C2) y la exfiltración de datos.
Curiosamente, la dependencia en la IA también ha provocado errores de seguridad operativa (OPSEC) para los atacantes. Un actor iraní, al pedir ayuda a Gemini para depurar un script, reveló información sensible codificada, como su dominio de C2 y la clave de cifrado, lo que permitió a Google desmantelar su campaña.
Consecuencias para los Defensores: Una Nueva Realidad
La llegada del malware adaptativo tiene implicaciones profundas para la ciberdefensa, entre estos los siguientes:
- La Detección Estática es Insuficiente: Las firmas y los indicadores de compromiso (IoCs) tradicionales son menos efectivos contra un malware que puede cambiar su código y comportamiento en tiempo real.
- El Análisis de Comportamiento es Clave: La defensa debe centrarse en detectar anomalías y comportamientos maliciosos, en lugar de buscar firmas de archivos conocidos. Las soluciones EDR y XDR se vuelven más cruciales que nunca.
- Monitoreo de APIs: El tráfico de red hacia APIs de modelos de IA (como Gemini, OpenAI o Hugging Face) desde dentro de una organización podría convertirse en un nuevo indicador de una posible brecha.
Conclusión: La Carrera Armamentista de la IA ha Comenzado
El informe de Google no es una predicción acerca del futuro, mas bien es una fotografía del presente. La era del malware inteligente ya está aquí, nos enfrentamos a un adversario que no solo sigue un guion, sino que también puede improvisar.
Esto impone un desafío mayúsculo a los equipos de ciberseguridad. Dejar de reaccionar ante amenazas y comenzar a aprender, automatizar y evolucionar a la velocidad de la máquina.
Bienvenidos a la nueva era, donde la defensa inteligente no es una opción, es la única salida.


