Por Michelle Ballesteros Aguirre
El Grupo de Inteligencia contra Amenazas (GTIG) de Google ha alertado sobre la emergencia de un nuevo tipo de ciberamenaza: programas maliciosos que utilizan inteligencia artificial para modificar su propio código en tiempo real y eludir así los sistemas de detección de seguridad.
De acuerdo con el informe, los ciberatacantes han comenzado a incorporar modelos de lenguaje avanzados en su malware, lo que les permite generar código dañino de forma dinámica y camuflar su actividad para evitar ser descubiertos por las soluciones antivirus tradicionales.
Entre los casos identificados, Google destaca el software experimental PROMPTFLUX, que emplea el modelo Gemini de Google para reescribir partes de su código mientras está en ejecución, adaptándose continuamente a los mecanismos de defensa. Aunque esta tecnología se encuentra en fase de pruebas, la compañía la considera una señal temprana de cómo la IA podría ser explotada para futuros ciberataques más sofisticados.
El GTIG también detectó otro programa llamado PROMPTSTEAL, asociado a operaciones de espionaje entre Rusia y Ucrania. Este malware genera comandos mediante modelos de IA alojados en Hugging Face, y se hace pasar por una aplicación legítima para crear imágenes con IA, ocultando así su verdadero propósito.
Adicionalmente, el informe revela que los hackers están utilizando técnicas de ingeniería social para engañar a los modelos de IA, suplantando identidades de investigadores o estudiantes con el fin de obtener información confidencial sobre vulnerabilidades de sistemas.
Frente a esta nueva realidad, Google ha intensificado los filtros de seguridad en Gemini y sus herramientas de detección para prevenir que sus modelos puedan ser utilizados, incluso de manera involuntaria, en actividades maliciosas. La compañía subraya que la integración de la IA en la creación de malware representa un punto de inflexión en la evolución de las ciberamenazas, lo que exigirá el desarrollo de estrategias defensivas más avanzadas y proactivas.
