9 Enfoques para las Regulaciones Gubernamentales de la Inteligencia Artificial
Desde 2016, más de treinta países han promulgado leyes que mencionan explícitamente la Inteligencia Artificial, y en 2025, la discusión sobre los proyectos de ley de IA en los cuerpos legislativos ha aumentado globalmente.
La UNESCO publicó un Documento de Consulta sobre la Regulación de la IA, que describe 9 enfoques regulatorios (con ejemplos de todo el mundo) que son extremadamente interesantes para cualquiera que trabaje o estudie la gobernanza y regulación de la IA.
Los nueve enfoques regulatorios de la IA se presentan en orden desde medidas menos intervencionistas y de regulación ligera hasta enfoques más coercitivos y exigentes. Es importante notar que los enfoques regulatorios descritos a continuación no son mutuamente excluyentes, y las leyes de IA en todo el mundo a menudo combinarán dos o más enfoques.
Enfoque Basado en Principios
Ofrecer a los interesados un conjunto de proposiciones fundamentales (principios) que proporcionen orientación para desarrollar y utilizar sistemas de IA a través de procesos éticos, responsables, centrados en el ser humano y que respeten los derechos humanos. Ejemplos de instrumentos internacionales que promueven principios de IA son las “Recomendaciones sobre la Ética de la IA” de la UNESCO y la “Recomendación del Consejo sobre Inteligencia Artificial” de la OCDE.
Enfoque Basado en Normas
Delegar (total o parcialmente) los poderes regulatorios del estado a organizaciones que produzcan normas técnicas que guíen la interpretación e implementación de reglas obligatorias. Por ejemplo, el considerando 121 de la Ley de IA de la UE establece que “la normalización debe desempeñar un papel clave para proporcionar soluciones técnicas a los proveedores para garantizar el cumplimiento de esta regulación, en línea con el estado de la técnica, para promover la innovación, así como la competitividad y el crecimiento en el mercado único.”
Enfoque Ágil y Experimentalista
Generar esquemas regulatorios flexibles, como «sandbox» regulatorios y otros bancos de pruebas, que permitan a las organizaciones probar nuevos modelos de negocio, métodos, infraestructura y herramientas bajo condiciones regulatorias más flexibles y con la supervisión de las autoridades públicas. Este es el caso de la Ley de IA de la UE, que establece un marco para la creación de “sandbox” regulatorios.
Enfoque de Facilitación y Habilitación
Facilitar y habilitar un entorno que fomente a todos los interesados involucrados en el ciclo de vida de la IA para desarrollar y utilizar sistemas de IA responsables, éticos y conformes a los derechos humanos. En este sentido, la UNESCO desarrolló la Metodología de Evaluación de Preparación (RAM) que ayuda a los países a entender su nivel de preparación para implementar la IA de manera ética y responsable.
Enfoque de Adaptación de Leyes Existentes
Modificar reglas específicas por sectores (p.ej., salud, finanzas, educación, justicia) y reglas transversales (p.ej., códigos penales, contratación pública, leyes de protección de datos, leyes laborales) para hacer mejoras incrementales en el marco regulatorio existente. Un ejemplo es el artículo 22 del Reglamento General de Protección de Datos (GDPR) de la Unión Europea que establece el derecho de los sujetos de datos a no ser objeto de decisiones basadas únicamente en el procesamiento automatizado.
Enfoque de Mandatos de Acceso a la Información
Exigir la implementación de instrumentos de transparencia que permitan al público acceder a información básica sobre los sistemas de IA. Pocos países han adoptado obligaciones de transparencia algorítmica para los organismos públicos. Por ejemplo, el artículo 6 de la Ley N° 2016-1321 en Francia exige que los organismos públicos publiquen las reglas que definen los principales procesos algorítmicos utilizados en la toma de decisiones individuales.
Enfoque Basado en Riesgos
Establecer obligaciones y requisitos de acuerdo con la evaluación de los riesgos asociados con el despliegue y uso de ciertas herramientas de IA en contextos específicos. Un ejemplo es la Directiva sobre Toma de Decisiones Automatizadas de Canadá, que busca garantizar que los sistemas de decisión automatizados se desplieguen de manera que reduzcan los riesgos para los clientes y la sociedad canadiense.
Enfoque Basado en Derechos
Establecer obligaciones o requisitos para proteger los derechos y libertades de los individuos. Se propone un enfoque basado en los derechos humanos para los países africanos que empodera a los titulares de derechos a reclamar y ejercer sus derechos.
Enfoque de Responsabilidad
Asignar responsabilidad y sanciones a los usos problemáticos de los sistemas de IA. Por ejemplo, la Ley de IA de la UE establece penalizaciones por infracciones de la regulación, que pueden alcanzar hasta 35,000,000 EUR o hasta el 7% de la facturación anual mundial del infractor, lo que sea mayor.