Estudio advierte sobre la brecha de seguridad y gobernanza en IA
Un reciente estudio ha revelado que muchas organizaciones están implementando IA generativa sin contar con las medidas de seguridad y gobernanza adecuadas. La investigación indica que el 52% de las empresas han desplegado total o parcialmente IA generativa.
Brecha de Gobernanza
Solo una de cada cinco empresas ha alcanzado lo que se describe como madurez en IA en ciberseguridad, donde la IA está completamente implementada en actividades de seguridad y se evalúan los riesgos. Casi el 80% de las organizaciones no han llegado a esta etapa.
La adopción de políticas también es limitada. Solo el 41% de las organizaciones cuenta con políticas de privacidad de datos específicas para IA, y el 43% ha adoptado un enfoque de gobernanza basado en riesgos que abarca cuestiones como sesgos, amenazas de seguridad y preocupaciones éticas.
El informe indica que la velocidad de implementación está superando los controles internos. Casi el 59% de los encuestados afirmó que la IA dificulta el cumplimiento de las regulaciones de privacidad y seguridad, pero la mayoría de las organizaciones no han introducido reglas de privacidad dedicadas para los sistemas de IA.
Preocupaciones Operativas
El 58% de los encuestados mencionaron que los riesgos relacionados con las entradas o los mensajes, incluyendo respuestas engañosas o dañinas, son muy difíciles de minimizar. Más de la mitad (56%) reportaron retos en la gestión de riesgos de usuarios, incluyendo la difusión involuntaria de desinformación.
Problemas de Confianza
El estudio también examinó si los sistemas de IA están brindando los beneficios esperados en las operaciones de seguridad. Solo el 51% de los encuestados dijo que la IA es efectiva para reducir el tiempo necesario para detectar anomalías o amenazas emergentes.
La confianza es aún menor para usos más avanzados. Menos de la mitad, o el 48%, calificaron a la IA como efectiva para la detección de amenazas y la búsqueda de información más profunda, mientras se reduce el trabajo manual.
El sesgo y la fiabilidad siguen siendo obstáculos importantes. Casi dos tercios de los encuestados (62%) afirmaron que es muy o extremadamente difícil minimizar los riesgos de sesgo en los modelos, incluyendo resultados injustos o discriminatorios.
Otros obstáculos están relacionados con cómo se construyen y utilizan los sistemas de IA. El 45% citó errores en las reglas de decisión de la IA como un problema principal, mientras que el 40% señaló errores en los datos alimentados a los sistemas de IA.
Conclusión
Para muchas empresas, la IA totalmente autónoma parece estar aún lejos. Solo el 47% dijo que sus modelos de IA pueden aprender normas robustas y tomar decisiones seguras de forma autónoma, mientras que el 51% afirmó que se necesita supervisión humana en la gobernanza de la IA debido a la rápida adaptación de los atacantes.
Es fundamental que la seguridad y la gobernanza se integren desde el inicio del proceso de adopción de IA. Las organizaciones que se enfoquen en la transparencia y el control desde el principio estarán mejor posicionadas para la siguiente fase de adopción de IA. A medida que estas herramientas se integran más en las operaciones diarias, es esencial contar con una gestión de información segura, marcos de gobernanza claros y un monitoreo continuo que asegure que los sistemas de IA sigan siendo confiables y cumplan con las normativas.