Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

Gobernanza de la IA: Lo que los profesionales de tecnología y seguridad deben saber

La inteligencia artificial (IA), ya sea IA generativa o IA agentiva, está impactando de manera significativa a diversas líneas de negocio, incluida la ciberseguridad. Un estudio de la Cloud Security Alliance publicado en abril reveló que el noventa por ciento de las organizaciones están adoptando o planean adoptar IA generativa para fines de seguridad.

El mismo estudio, basado en 2,486 respuestas de profesionales de TI y seguridad, indicó que el 63% de los profesionales de ciberseguridad cree en el potencial de la IA para mejorar la seguridad, incluyendo capacidades de detección y respuesta ante amenazas.

A medida que las empresas y pequeños negocios evalúan cómo la IA puede beneficiar sus resultados, también surgen preocupaciones sobre el uso de estas herramientas. En algunos casos, las organizaciones ya enfrentan el uso de IA sombra por parte de empleados, y los cibercriminales también están utilizando estas herramientas para sus propios fines.

Estos desarrollos han llevado a un mayor interés en la gobernanza de la IA, que busca abordar problemas dentro del campo de la inteligencia artificial como los sesgos algorítmicos, las violaciones y las preocupaciones éticas. Al mismo tiempo, las agencias gubernamentales, incluyendo reguladores en EE.UU. y la UE, están examinando regulaciones más estrictas sobre esta tecnología, según una encuesta publicada por Markets & Markets.

Un mercado en crecimiento

El mercado de gobernanza de la IA estaba valorado en aproximadamente $890 millones en 2024, y se espera que aumente a $5.8 mil millones en los próximos cuatro años, lo que representa una tasa de crecimiento anual de aproximadamente 45%. Si las organizaciones no están lidiando con estas cuestiones ahora, sus equipos de seguridad y privacidad pronto se verán obligados a responder preguntas difíciles.

Según un experto en el campo, la gobernanza de la IA está pasando de una teoría abstracta a una urgencia operativa. Para los equipos de seguridad, la pregunta no es si la IA introduce riesgos, sino qué tan rápido podemos adaptar nuestros marcos para gestionarlo sin frenar la innovación.

La necesidad de profesionales capacitados

Con un mercado de gobernanza de la IA en auge, los expertos en ciberseguridad indican que las organizaciones necesitarán profesionales de seguridad que comprendan las plataformas de IA y estén versados en cuestiones de privacidad, regulación y ciberseguridad relacionadas con este nuevo campo.

A medida que emergen nuevos modelos de IA, la gobernanza de estos modelos aún está en su infancia. Las regulaciones no están claramente definidas para abordar preocupaciones de seguridad y privacidad de datos en el uso de modelos de IA, y la detección de anomalías debe incluir la identificación de estas violaciones.

Construcción de sistemas éticos y conformes

En eventos recientes, como la RSA Conference en San Francisco, los profesionales de tecnología y seguridad están intentando comprender cómo construir sistemas de IA éticos y conformes que no comprometan la confianza del usuario ni introduzcan riesgos organizacionales.

Los equipos más sólidos están tratando la gobernanza de la IA como lo harían con cualquier otro dominio crítico de seguridad: a través de la visibilidad, la automatización y procesos repetibles. Esto implica saber qué modelos se están utilizando, cómo fluyen los datos, quién tiene acceso y cómo se están tomando las decisiones.

Es fundamental que los profesionales de seguridad comiencen a discutir marcos, manuales y otras formas de construir la gobernanza de IA. Fundaciones de privacidad como el Registro de Actividades de Procesamiento (RoPAs) y las Evaluaciones de Impacto en la Protección de Datos (DPIAs) son guías cada vez más útiles.

El modelo de seguridad compartida

Las organizaciones que adoptan herramientas de IA de terceros deben reconocer que esto introduce un modelo de responsabilidad de seguridad compartida, similar a lo que se ha visto con la adopción de la nube. Cuando la visibilidad en la infraestructura de los proveedores, el manejo de datos o el comportamiento del modelo es limitada, las organizaciones deben mitigar proactivamente esos riesgos.

La gobernanza de la IA efectiva requiere una fuerza laboral capacitada que comprenda la colaboración multidisciplinaria. Esto puede incluir equipos de seguridad y privacidad, así como líderes de legal, RRHH, cumplimiento, datos y producto.

Preparación para el futuro

Para abordar las preocupaciones actuales de la IA y lo que está por venir, las organizaciones deberían incluir profesionales de privacidad en su planificación de seguridad. Existe la idea errónea de que proteger la privacidad limita la capacidad de los equipos de seguridad para detectar actividades maliciosas, lo cual es falso.

Los esfuerzos de seguridad que dependen de la vigilancia pueden crear sus propios riesgos organizacionales. Si las fundaciones de privacidad no están bien establecidas y son desconocidas para los usuarios, una herramienta de IA podría estar recopilando y almacenando información personal, lo que se convierte rápidamente en un problema de privacidad y seguridad.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...