En un mundo donde la inteligencia artificial (IA) avanza a pasos agigantados, la IA generativa se erige como una fuerza indiscutible. Según el informe «2025 State of GenAI Report» de Palo Alto Networks, el uso de esta tecnología ha aumentado un impresionante 890%, convirtiéndose en un componente significativo de los incidentes de fuga de datos, representando ahora el 14% de ellos.
Este análisis, basado en datos de más de 7.000 organizaciones a nivel mundial, revela que las empresas están utilizando una media de 6,6 aplicaciones de IA generativa de alto riesgo. Muchas de estas herramientas operan sin supervisión adecuada, lo que incrementa los riesgos de seguridad. En los primeros meses de 2025, los incidentes relacionados con la pérdida de datos por IA generativa se multiplicaron por 2,5.
Un fenómeno preocupante es el de la «Shadow AI», el uso no autorizado de herramientas de IA por parte de empleados, fuera del control del departamento de TI. Esta práctica no solo dificulta la supervisión, sino que también pone en peligro la confidencialidad de la información empresarial. Más del 70% de las aplicaciones de IA generativa analizadas pueden ser explotadas mediante ataques de tipo jailbreak, generando contenido inapropiado o peligroso.
Las interacciones con la IA generativa provienen mayoritariamente de plataformas de asistencia a la escritura, agentes conversacionales, buscadores corporativos y entornos de desarrollo. Grammarly es la herramienta más utilizada en escritura, mientras que Microsoft lidera en el ámbito empresarial con Copilot. En España, Microsoft 365 Copilot y ChatGPT de OpenAI son las herramientas más populares.
El sector tecnológico e industrial es el más activo en el uso de IA generativa, representando el 39% de las actividades de codificación. Sin embargo, esto conlleva riesgos, como la ejecución de código malicioso y la fuga de propiedad intelectual, que pueden desencadenar problemas legales y éticos.
Frente a este escenario, Palo Alto Networks recomienda un enfoque integral para la gobernanza de la inteligencia artificial, centrado en la visibilidad, el control y la seguridad avanzada. Esto incluye establecer políticas de acceso condicional, proteger los datos sensibles con inspección en tiempo real y desarrollar arquitecturas de confianza cero para detectar y bloquear amenazas sofisticadas.
La rápida adopción de la IA generativa ofrece grandes oportunidades, pero también plantea serios desafíos de seguridad que no pueden ser ignorados. Las organizaciones deben estar preparadas para gestionar estos riesgos y garantizar un uso seguro y ético de estas poderosas herramientas tecnológicas.