Brecha de Seguridad y Gobernanza en la Adopción de IA

Estudio advierte sobre la brecha de seguridad y gobernanza en IA

Un reciente estudio ha revelado que muchas organizaciones están implementando IA generativa sin contar con las medidas de seguridad y gobernanza adecuadas. La investigación indica que el 52% de las empresas han desplegado total o parcialmente IA generativa.

Brecha de Gobernanza

Solo una de cada cinco empresas ha alcanzado lo que se describe como madurez en IA en ciberseguridad, donde la IA está completamente implementada en actividades de seguridad y se evalúan los riesgos. Casi el 80% de las organizaciones no han llegado a esta etapa.

La adopción de políticas también es limitada. Solo el 41% de las organizaciones cuenta con políticas de privacidad de datos específicas para IA, y el 43% ha adoptado un enfoque de gobernanza basado en riesgos que abarca cuestiones como sesgos, amenazas de seguridad y preocupaciones éticas.

El informe indica que la velocidad de implementación está superando los controles internos. Casi el 59% de los encuestados afirmó que la IA dificulta el cumplimiento de las regulaciones de privacidad y seguridad, pero la mayoría de las organizaciones no han introducido reglas de privacidad dedicadas para los sistemas de IA.

Preocupaciones Operativas

El 58% de los encuestados mencionaron que los riesgos relacionados con las entradas o los mensajes, incluyendo respuestas engañosas o dañinas, son muy difíciles de minimizar. Más de la mitad (56%) reportaron retos en la gestión de riesgos de usuarios, incluyendo la difusión involuntaria de desinformación.

Problemas de Confianza

El estudio también examinó si los sistemas de IA están brindando los beneficios esperados en las operaciones de seguridad. Solo el 51% de los encuestados dijo que la IA es efectiva para reducir el tiempo necesario para detectar anomalías o amenazas emergentes.

La confianza es aún menor para usos más avanzados. Menos de la mitad, o el 48%, calificaron a la IA como efectiva para la detección de amenazas y la búsqueda de información más profunda, mientras se reduce el trabajo manual.

El sesgo y la fiabilidad siguen siendo obstáculos importantes. Casi dos tercios de los encuestados (62%) afirmaron que es muy o extremadamente difícil minimizar los riesgos de sesgo en los modelos, incluyendo resultados injustos o discriminatorios.

Otros obstáculos están relacionados con cómo se construyen y utilizan los sistemas de IA. El 45% citó errores en las reglas de decisión de la IA como un problema principal, mientras que el 40% señaló errores en los datos alimentados a los sistemas de IA.

Conclusión

Para muchas empresas, la IA totalmente autónoma parece estar aún lejos. Solo el 47% dijo que sus modelos de IA pueden aprender normas robustas y tomar decisiones seguras de forma autónoma, mientras que el 51% afirmó que se necesita supervisión humana en la gobernanza de la IA debido a la rápida adaptación de los atacantes.

Es fundamental que la seguridad y la gobernanza se integren desde el inicio del proceso de adopción de IA. Las organizaciones que se enfoquen en la transparencia y el control desde el principio estarán mejor posicionadas para la siguiente fase de adopción de IA. A medida que estas herramientas se integran más en las operaciones diarias, es esencial contar con una gestión de información segura, marcos de gobernanza claros y un monitoreo continuo que asegure que los sistemas de IA sigan siendo confiables y cumplan con las normativas.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...