Informe sobre Riesgos y Preparación de IA 2026
Este es el año en que la IA se convierte en infraestructura para la mayoría de las organizaciones. Los agentes ahora ejecutan acciones de forma autónoma: modificando registros, creando cuentas y enviando código a través de llamadas API que se completan antes de que cualquier humano las revise. Esto convierte cada implementación de IA en un riesgo de seguridad, independientemente de cómo las organizaciones lo traten.
Los conjuntos de seguridad que se encuentran en la mayoría de las organizaciones hoy fueron construidos para un mundo diferente: uno donde los humanos eran los únicos actores, los procesos eran deterministas, los datos se mantenían en formas reconocibles y la confianza se verificaba en el navegador. Ese mundo ya no existe.
Hallazgos Clave
- Las herramientas de IA ya están implementadas en el 73% de las organizaciones encuestadas, pero la gobernanza que refuerza la seguridad y la política en tiempo real ha alcanzado solo el 7%. Esto deja un déficit estructural de 66 puntos, que se está ampliando a medida que la adopción de IA continúa acelerándose más rápido que los controles.
- El 90% aumentó los presupuestos de seguridad de IA este año, sin embargo, el 29% se siente menos seguro que hace doce meses. El problema está superando la inversión.
- El 94% de los encuestados informa brechas en la visibilidad de la actividad de IA. El 88% no puede distinguir entre cuentas de IA personales y corporativas. Solo el 6% afirma tener una visión completa de la tubería de IA de su organización.
- La Protección de Datos (DLP) coincide con patrones mientras que la IA transforma significados; solo el 8% tiene controles que evalúan el contenido semánticamente, independientemente de cómo se haya reescrito.
- Los agentes de IA tienen acceso de escritura a herramientas de colaboración (53%), correos electrónicos (40%), repositorios de código (25%) y proveedores de identidad (8%). El 91% de las organizaciones solo descubre lo que hizo un agente después de que ya ha ejecutado la acción.
- El 31% se basa en políticas escritas y el cumplimiento de los empleados como su principal aplicación. Otro 11% no tiene nada en absoluto. Solo el 23% dice que refuerza la seguridad de IA en línea, en el punto de acción.
La Gobernanza de IA se Queda Atrás de la Adopción
Hace doce meses, la mayoría de las organizaciones trataban la gobernanza de IA como una prioridad futura: algo que formalizar una vez que la adopción se estabilizara. La adopción no esperó. Herramientas como copilotos, herramientas de finalización de código y generadores de contenido se implementaron en producción en varios departamentos, y para cuando la seguridad tuvo un marco en su lugar, la huella de IA ya estaba operativa.
Hoy, el 68% de las organizaciones describe su gobernanza de IA como reactiva o aún en desarrollo. Solo el 7% ha alcanzado una madurez avanzada con la aplicación de políticas en tiempo real. La brecha de 66 puntos entre el 73% que implementa herramientas de IA y el 7% que las gobierna en tiempo real es una desajuste estructural.
Más Presupuesto, Menos Confianza
Paradójicamente, la brecha de gobernanza de IA existe a pesar de que las organizaciones están invirtiendo más que nunca en seguridad. El 90% aumentó el gasto en seguridad de IA este año, con casi un tercio aumentando los presupuestos en más del 25%, sin embargo, el 29% informa sentirse menos seguro que hace doce meses.
Los participantes de la investigación explicaron por qué: el 34% ve la mayor barrera provenir de la presión empresarial para adoptar IA más rápido de lo que la seguridad puede seguir. Las brechas de habilidades fueron la segunda causa con el 25% y las herramientas heredadas que no pueden interpretar amenazas específicas de IA ocuparon el tercer lugar con el 21%.
La Mayor Parte de la Actividad de IA es Invisible para la Seguridad
No se puede asegurar lo que no se puede ver. Solo el 6% de las organizaciones informa tener visibilidad completa sobre el uso de IA en su entorno. El 45% tiene visibilidad parcial limitada a aplicaciones gestionadas, ciego a cualquier cosa fuera de las herramientas autorizadas. El 35% solo ve patrones de tráfico a nivel de red, suficiente para saber que algo está sucediendo, pero no qué. El 14% restante no tiene visibilidad en absoluto.
El 94% toma decisiones de seguridad de IA con una imagen incompleta, y para la mayoría, este es el estado operativo predeterminado.
Agentes de IA Sin Supervisión
Si bien la fuga de datos a través de herramientas de IA es el riesgo que la mayoría de las organizaciones reconocen, la exposición más profunda es que los sistemas de IA ahora actúan por su cuenta, muchos operando en modo sombra fuera de la vista de la seguridad.
El 56% informa exposición real al riesgo de IA agentiva: un 24% en producción limitada, un 9% a gran escala manejando lógica empresarial central, y un 23% a través de implementaciones en sombra que TI no conoce.
Conclusiones
La seguridad de IA es ahora una disciplina operativa. Las dimensiones de madurez están mapeadas, la secuencia de dependencias es clara, y las acciones son concretas. Lo que queda es la decisión de construir. Se identifican seis dominios de seguridad de IA a través de tres niveles de preparación, donde cada dominio representa un área de mejora crítica.