Gobernanza de IA: Repensando el Enfoque para Riesgos Emergentes

Gobernanza de IA: Por qué la supervisión tradicional es insuficiente y la necesidad de un nuevo enfoque en el paisaje evolutivo actual

En los últimos años, la inteligencia artificial (IA) ha pasado de ser una tecnología novedosa a convertirse en un componente central de las operaciones comerciales, trayendo consigo riesgos sin precedentes que los marcos de gobernanza tradicionales no pueden abordar completamente. Mientras que las juntas directivas han confiado en marcos bien establecidos para gestionar la seguridad de datos, la privacidad y el cumplimiento, estos enfoques son insuficientes frente a los desafíos únicos y complejos que presenta la IA.

Esto se debe a tres factores principales:

  • La IA introduce riesgos novedosos,
  • Se deben integrar nuevos requisitos legales en la estructura tecnológica para abordar estos riesgos,
  • Y se requieren habilidades, procesos y herramientas especializadas para una gestión efectiva.

1. IA: No solo software, sino una nueva frontera de riesgos novedosos

La IA presenta desafíos específicos que la gobernanza heredada simplemente no está diseñada para abordar.

El núcleo de esta diferencia es que la IA difiere fundamentalmente del software tradicional debido a su capacidad para aprender, adaptarse y tomar decisiones basadas en datos, lo que la hace inherentemente menos predecible que el software tradicional basado en reglas. Dependiendo de la complejidad del sistema – desde modelos de aprendizaje automático tradicionales como los árboles de decisión hasta sistemas multiagente intrincados – estos riesgos se vuelven cada vez más complejos de detectar y abordar. Los sistemas de IA pueden exhibir sesgo, carecer de transparencia o generar desinformación y resultados inesperados, riesgos que los modelos tradicionales de supervisión no anticipan.

La Base de Datos de Incidentes de IA rastrea riesgos críticos de IA, incluidos el sesgo y la discriminación a través de factores demográficos, fallos específicos del sector (por ejemplo, en atención médica, aplicación de la ley), problemas técnicos como errores de generalización y generación de desinformación, así como riesgos operativos.

En agosto y septiembre de 2024, la AIID agregó 46 nuevos incidentes, incluidos errores de alerta de incendios forestales de Facebook, consejos parentales engañosos de Google, intentos de extorsión e impersonificación de líderes de alto perfil, una escalada global en estafas de deep fake en general, y un servicio de transcripción de IA que envió inadvertidamente una transcripción generada por IA de conversaciones privadas de una reunión de capital de riesgo.

Desde violaciones de seguridad de datos y multas regulatorias hasta daños a la reputación, cada uno de estos casos enfatiza la necesidad de un marco de gobernanza específico para IA que incluya supervisión, control de calidad, medidas de seguridad y protección de IA, y actualizaciones de cumplimiento adaptadas a los desafíos únicos que presenta la IA.

2. Siguiendo los pasos de la privacidad y la seguridad: La necesidad de cumplimiento integrado

La gobernanza de IA está siguiendo un camino similar al de la privacidad y la seguridad, ambas de las cuales tuvieron que luchar por el reconocimiento como preocupaciones críticas a nivel organizacional. Así como la privacidad y la seguridad demostraron su relevancia y necesidad, la gobernanza de IA ahora enfrenta desafíos similares en ganar reconocimiento como un área de riesgo a nivel empresarial.

Además, la privacidad y la seguridad han demostrado que simplemente tener políticas no es suficiente; los requisitos legales ahora exigen que las medidas de seguridad y privacidad se integren técnicamente en los sistemas de TI, productos e infraestructura desde el principio – un enfoque proactivo conocido como «shift left». Esta práctica, junto con la ingeniería de seguridad y privacidad, asegura que estas protecciones sean parte integral del diseño y función de la tecnología en lugar de añadirse después del desarrollo.

Lo mismo es cierto para la IA, ya que la gestión de riesgos de IA ahora es obligatoria por un número creciente de leyes internacionales como la Ley de IA de la UE y leyes estatales en EE. UU. (por ejemplo, en Utah, Colorado y California) y debe integrarse directamente en la arquitectura técnica de los sistemas de IA.

Por ejemplo, la AB 1008 de California extiende las protecciones de privacidad existentes a los sistemas de IA generativa. La AB 2013 de CA exige transparencia con respecto a los datos utilizados para entrenar modelos de IA, empujando a las empresas a incorporar prácticas de gobernanza de datos directamente en sus pilas técnicas. Similarmente, las evaluaciones de riesgo exigidas por la SB 896 indican la necesidad de que los sistemas de IA sean monitoreados y evaluados para mitigar amenazas, desde riesgos infrastructurales hasta posibles fallos a gran escala.

Para esto, las organizaciones necesitan un enfoque multidisciplinario. Los profesionales legales son esenciales para analizar las leyes aplicables y determinar el alcance del cumplimiento, mientras que los ingenieros de aprendizaje automático, científicos de datos y profesionales de gobernanza de IA juegan un papel crucial en traducir estos requisitos en medidas técnicas y operativas aplicables.

Esto representa un nuevo dominio de gobernanza, donde el cumplimiento legal se cruza con la implementación técnica de IA, requiriendo experiencia especializada para asegurar que los sistemas de IA no solo cumplan con las normativas, sino que también sean diseñados y gestionados de manera responsable desde el principio.

3. Avanzando: Construyendo una gobernanza rigurosa de IA

Para abordar estos nuevos y complejos riesgos, es esencial un enfoque de gobernanza fresco adaptado específicamente a la IA. Debe incluir:

  • Nuevas habilidades y roles: Los equipos de gobernanza tradicionales pueden no tener las habilidades especializadas necesarias para entender y gestionar los sistemas de IA. La gobernanza de IA requiere personas con experiencia en ciencia de datos, aprendizaje automático, ética y cumplimiento regulatorio.
  • Procesos para riesgos específicos de IA: A diferencia del software tradicional, los modelos de IA evolucionan continuamente. La gobernanza, por lo tanto, debe incluir procesos para revisiones regulares de modelos, auditorías y evaluaciones de rendimiento.
  • Herramientas y tecnologías avanzadas: Se necesitan herramientas de gobernanza especializadas para manejar los requisitos únicos de la IA.

4. Conclusión: Adaptándose a las nuevas realidades en la gobernanza de IA

La rápida integración de la IA en las operaciones comerciales ha traído riesgos que son desconocidos para las estructuras de gobernanza tradicionales. En vista de la rápida adopción de herramientas de IA en las organizaciones y la aparición de sistemas de IA multi-agente, se vuelve aún más claro que los marcos de gobernanza heredados no son suficientes.

Los riesgos únicos que presentan los sistemas de IA no son teóricos; tienen implicaciones significativas en el mundo real. Los sistemas de IA mal gobernados pueden impactar directamente la reputación de la marca, erosionar la confianza pública y resultar en consecuencias legales costosas.

De cara al futuro, las empresas deben priorizar la construcción de estructuras de gobernanza que abarquen las habilidades, procesos y herramientas especializadas requeridas para abordar los riesgos distintos y complejos introducidos por la IA.

Las juntas y ejecutivos que adopten este enfoque proactivo hacia la gobernanza de IA pueden posicionar a sus organizaciones no solo para evitar costosas trampas, sino también para obtener una ventaja estratégica en un paisaje digital en rápida evolución. Esto incluye entender los riesgos de IA como un problema a nivel empresarial y no solo como un riesgo departamental. Los riesgos de IA deben informarse en la gestión de riesgos empresariales e incluirse en la planificación de continuidad del negocio. Además, con la gobernanza de IA en su lugar, las organizaciones tienen una excelente base para la gestión de productos de IA y la estrategia, y un socio que puede proporcionar una visión general de todos los activos de IA de la organización.

Invertir en la gobernanza de IA es más que cumplir con las normativas; se trata de asegurar que la IA sirva como un activo responsable y beneficioso para la empresa y sus partes interesadas.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...