Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

Gobernanza de la IA: Lo que los profesionales de tecnología y seguridad deben saber

La inteligencia artificial (IA), ya sea IA generativa o IA agentiva, está impactando de manera significativa a diversas líneas de negocio, incluida la ciberseguridad. Un estudio de la Cloud Security Alliance publicado en abril reveló que el noventa por ciento de las organizaciones están adoptando o planean adoptar IA generativa para fines de seguridad.

El mismo estudio, basado en 2,486 respuestas de profesionales de TI y seguridad, indicó que el 63% de los profesionales de ciberseguridad cree en el potencial de la IA para mejorar la seguridad, incluyendo capacidades de detección y respuesta ante amenazas.

A medida que las empresas y pequeños negocios evalúan cómo la IA puede beneficiar sus resultados, también surgen preocupaciones sobre el uso de estas herramientas. En algunos casos, las organizaciones ya enfrentan el uso de IA sombra por parte de empleados, y los cibercriminales también están utilizando estas herramientas para sus propios fines.

Estos desarrollos han llevado a un mayor interés en la gobernanza de la IA, que busca abordar problemas dentro del campo de la inteligencia artificial como los sesgos algorítmicos, las violaciones y las preocupaciones éticas. Al mismo tiempo, las agencias gubernamentales, incluyendo reguladores en EE.UU. y la UE, están examinando regulaciones más estrictas sobre esta tecnología, según una encuesta publicada por Markets & Markets.

Un mercado en crecimiento

El mercado de gobernanza de la IA estaba valorado en aproximadamente $890 millones en 2024, y se espera que aumente a $5.8 mil millones en los próximos cuatro años, lo que representa una tasa de crecimiento anual de aproximadamente 45%. Si las organizaciones no están lidiando con estas cuestiones ahora, sus equipos de seguridad y privacidad pronto se verán obligados a responder preguntas difíciles.

Según un experto en el campo, la gobernanza de la IA está pasando de una teoría abstracta a una urgencia operativa. Para los equipos de seguridad, la pregunta no es si la IA introduce riesgos, sino qué tan rápido podemos adaptar nuestros marcos para gestionarlo sin frenar la innovación.

La necesidad de profesionales capacitados

Con un mercado de gobernanza de la IA en auge, los expertos en ciberseguridad indican que las organizaciones necesitarán profesionales de seguridad que comprendan las plataformas de IA y estén versados en cuestiones de privacidad, regulación y ciberseguridad relacionadas con este nuevo campo.

A medida que emergen nuevos modelos de IA, la gobernanza de estos modelos aún está en su infancia. Las regulaciones no están claramente definidas para abordar preocupaciones de seguridad y privacidad de datos en el uso de modelos de IA, y la detección de anomalías debe incluir la identificación de estas violaciones.

Construcción de sistemas éticos y conformes

En eventos recientes, como la RSA Conference en San Francisco, los profesionales de tecnología y seguridad están intentando comprender cómo construir sistemas de IA éticos y conformes que no comprometan la confianza del usuario ni introduzcan riesgos organizacionales.

Los equipos más sólidos están tratando la gobernanza de la IA como lo harían con cualquier otro dominio crítico de seguridad: a través de la visibilidad, la automatización y procesos repetibles. Esto implica saber qué modelos se están utilizando, cómo fluyen los datos, quién tiene acceso y cómo se están tomando las decisiones.

Es fundamental que los profesionales de seguridad comiencen a discutir marcos, manuales y otras formas de construir la gobernanza de IA. Fundaciones de privacidad como el Registro de Actividades de Procesamiento (RoPAs) y las Evaluaciones de Impacto en la Protección de Datos (DPIAs) son guías cada vez más útiles.

El modelo de seguridad compartida

Las organizaciones que adoptan herramientas de IA de terceros deben reconocer que esto introduce un modelo de responsabilidad de seguridad compartida, similar a lo que se ha visto con la adopción de la nube. Cuando la visibilidad en la infraestructura de los proveedores, el manejo de datos o el comportamiento del modelo es limitada, las organizaciones deben mitigar proactivamente esos riesgos.

La gobernanza de la IA efectiva requiere una fuerza laboral capacitada que comprenda la colaboración multidisciplinaria. Esto puede incluir equipos de seguridad y privacidad, así como líderes de legal, RRHH, cumplimiento, datos y producto.

Preparación para el futuro

Para abordar las preocupaciones actuales de la IA y lo que está por venir, las organizaciones deberían incluir profesionales de privacidad en su planificación de seguridad. Existe la idea errónea de que proteger la privacidad limita la capacidad de los equipos de seguridad para detectar actividades maliciosas, lo cual es falso.

Los esfuerzos de seguridad que dependen de la vigilancia pueden crear sus propios riesgos organizacionales. Si las fundaciones de privacidad no están bien establecidas y son desconocidas para los usuarios, una herramienta de IA podría estar recopilando y almacenando información personal, lo que se convierte rápidamente en un problema de privacidad y seguridad.

More Insights

Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

La inteligencia artificial (IA) está teniendo un amplio efecto en las líneas de negocio, incluida la ciberseguridad, con un estudio que muestra que el 63% de los profesionales de ciberseguridad creen...

Gobierno británico en la mira por la implementación de reconocimiento facial sin regulación

El gobierno del Reino Unido ha sido criticado por la implementación de tecnología de reconocimiento facial sin un marco legal adecuado. El Instituto Ada Lovelace ha expresado preocupaciones sobre el...

El Auge de Startups de Gobernanza en la Era de la IA

A medida que la explosión de la inteligencia artificial avanza, las soluciones de gobernanza están en gran demanda. La industria global de gobernanza de IA se valoró en 890 millones de dólares el año...

Perspectivas sobre la Moratoria de 10 Años en las Leyes Estatales de IA en EE. UU.

La Cámara de Representantes de EE. UU. aprobó un paquete de presupuesto que incluye una moratoria de 10 años sobre la aplicación de leyes estatales de inteligencia artificial. Tech Policy Press busca...

El Futuro de la IA en los Tribunales: Lecciones de 500 Casos

A través del mundo, la regulación de la inteligencia artificial (IA) es desigual, con algunas jurisdicciones que ya cuentan con regulaciones integrales y otras que solo se centran en reglas...

Estrategias Efectivas para Mitigar los Riesgos de la IA Responsable

La inteligencia artificial responsable se está transformando de una impresionante palabra de moda en una necesidad crítica para los negocios, especialmente en la región de Asia-Pacífico. A pesar de...

La necesidad urgente de gobernanza legal en la IA

En esta entrevista de Help Net Security, Brooke Johnson, Asesor Legal Principal de Ivanti, explora las responsabilidades legales en la gobernanza de la IA, destacando cómo la colaboración...

Reformando las Regulaciones de IA

La Cámara de Representantes aprobó recientemente un importante proyecto de ley que impide a los estados regular modelos de inteligencia artificial durante diez años. Esto preocupa a algunos...