El malware y la IA: una amenaza en evolución que desafía la ciberseguridad
La inteligencia artificial, en particular los modelos de lenguaje grandes (LLM), se ha convertido en una herramienta poderosa para transformar muchos sectores, pero también está siendo aprovechada por actores maliciosos para mejorar sus ataques cibernéticos. Investigadores de la Unidad 42 de Palo Alto Networks han revelado que los LLM pueden generar miles de variantes de malware JavaScript capaces de eludir sistemas de detección en el 88% de los casos.
Reescribir para engañar
Aunque los modelos de lenguaje no son capaces de crear malware desde cero, pueden modificar y ofuscar códigos maliciosos ya existentes con una precisión sorprendente. Este proceso incluye técnicas como cambiar nombres de variables, dividir cadenas, añadir código basura o incluso reimplementar el código completamente. Como resultado, los sistemas de aprendizaje automático que clasifican malware, como Innocent Until Proven Guilty o PhishingJS, pueden ser engañados para considerar el código como benigno.
“El resultado final es un script que mantiene su funcionalidad maliciosa, pero con una puntuación mucho más baja de amenaza”, señalan los investigadores. Además, estos códigos modificados también logran evadir herramientas como VirusTotal, lo que representa un riesgo significativo para la ciberseguridad global.
Una escala preocupante
Los investigadores han demostrado que con IA generativa es posible crear hasta 10,000 variantes únicas de malware JavaScript. Este avance no solo degrada la capacidad de los sistemas actuales para detectar amenazas, sino que también incrementa exponencialmente la carga para los equipos de ciberseguridad. A diferencia de las bibliotecas tradicionales de ofuscación, las reescrituras realizadas por los LLM son mucho más naturales y, por tanto, más difíciles de identificar como sospechosas.
¿Cómo contrarrestar esta amenaza?
A pesar del panorama preocupante, la inteligencia artificial también puede ser usada para reforzar la seguridad. Los mismos métodos empleados para ofuscar malware pueden aplicarse para crear datos de entrenamiento que mejoren los modelos de detección. Los expertos creen que esta carrera entre ofensiva y defensiva marcará el futuro de la ciberseguridad.
Ataques más allá del malware
No es solo el malware lo que preocupa. Investigadores de la Universidad Estatal de Carolina del Norte han diseñado ataques para robar modelos de inteligencia artificial utilizando unidades de procesamiento tensorial (TPU) de Google Edge. Por otro lado, sistemas como el Exploit Prediction Scoring System (EPSS), que priorizan vulnerabilidades, también han demostrado ser susceptibles a manipulaciones externas.
La tecnología avanza rápidamente, y mientras la IA abre nuevas posibilidades para el desarrollo humano, también presenta desafíos éticos y de seguridad que requieren atención urgente. La colaboración entre investigadores, gobiernos y empresas será crucial para mitigar estos riesgos y construir un entorno digital más seguro.