Según el informe, las cargas de trabajo de IA presentan una mayor tasa de vulnerabilidades críticas sin corregir (70 %) en comparación con otras cargas en la nube (50 %).
Estas vulnerabilidades suponen un riesgo especialmente elevado cuando los entornos afectados manejan datos sensibles, como conjuntos de entrenamiento que podrían incluir información confidencial de clientes, usuarios o propiedad intelectual.
Un entorno de IA comprometido puede derivar en manipulación de datos, envenenamiento de modelos o filtración de información. Por eso, las organizaciones deben evaluar y remediar estos fallos con una estrategia clara de priorización de riesgos.
Las plataformas de IA en la nube suelen ofrecer configuraciones predeterminadas que facilitan la implementación rápida de modelos y entornos. Sin embargo, este enfoque prioriza la agilidad sobre la seguridad.
• El 77 % de las organizaciones que utilizan Google Vertex AI Notebooks configuran cuentas de servicio predeterminadas con permisos excesivos.
• El 91 % de los usuarios de Amazon SageMaker ejecutan instancias que podrían ser explotadas para acceder y modificar todos los archivos si se ven comprometidas.
• El 14 % de quienes usan Amazon Bedrock no bloquean explícitamente el acceso público a al menos un bucket de entrenamiento, y el 5 % tienen buckets con permisos demasiado amplios.
Estas configuraciones implican riesgos innecesarios que pueden prevenirse mediante una revisión inicial y un monitoreo continuo de la configuración.
A pesar de los desafíos, hay prácticas claras que las organizaciones pueden seguir para reducir la exposición al riesgo al implementar soluciones de IA en la nube:
1. Priorizar la remediación de vulnerabilidades críticas.
Ante el volumen de alertas, muchas veces las vulnerabilidades se acumulan sin tratarse. Usar herramientas que permitan evaluar el riesgo en contexto y priorizar según impacto es clave para reducir la carga y actuar con foco.
2. Reducir permisos excesivos.
Auditar y controlar los permisos en servicios de IA, modelos y buckets de datos. Aplicar principios como mínimo privilegio y acceso temporal, y evitar suposiciones sobre la seguridad de configuraciones por defecto.
3. Clasificar los activos de IA como sensibles.
Incluir los componentes de IA (modelos, datos, herramientas) en el inventario de activos críticos, empleando mecanismos de gestión de seguridad de datos para monitorear acceso, modificar sensibilidad y proteger la información.
4. Adoptar una solución de seguridad contextual.
La seguridad en la nube debe considerar la identidad, los datos, la infraestructura y las cargas de trabajo como parte de un todo. Usar plataformas nativas orientadas a IA permite tener una visión integral del riesgo.
La inteligencia artificial en la nube abre nuevas oportunidades, pero también nuevos vectores de ataque. Las configuraciones inseguras, los permisos excesivos y la exposición de datos pueden pasar desapercibidos si no se cuenta con visibilidad y control adecuados.
Aplicar buenas prácticas desde el principio, priorizar las acciones de mitigación y asegurar todos los componentes involucrados permitirá a las organizaciones avanzar con confianza en su estrategia de IA.
https://www.tenable.com/blog/whos-afraid-of-ai-risk-in-cloud-environments