Nueve Enfoques para Regular la Inteligencia Artificial

9 Enfoques para las Regulaciones Gubernamentales de la Inteligencia Artificial

Desde 2016, más de treinta países han promulgado leyes que mencionan explícitamente la Inteligencia Artificial, y en 2025, la discusión sobre los proyectos de ley de IA en los cuerpos legislativos ha aumentado globalmente.

La UNESCO publicó un Documento de Consulta sobre la Regulación de la IA, que describe 9 enfoques regulatorios (con ejemplos de todo el mundo) que son extremadamente interesantes para cualquiera que trabaje o estudie la gobernanza y regulación de la IA.

Los nueve enfoques regulatorios de la IA se presentan en orden desde medidas menos intervencionistas y de regulación ligera hasta enfoques más coercitivos y exigentes. Es importante notar que los enfoques regulatorios descritos a continuación no son mutuamente excluyentes, y las leyes de IA en todo el mundo a menudo combinarán dos o más enfoques.

Enfoque Basado en Principios

Ofrecer a los interesados un conjunto de proposiciones fundamentales (principios) que proporcionen orientación para desarrollar y utilizar sistemas de IA a través de procesos éticos, responsables, centrados en el ser humano y que respeten los derechos humanos. Ejemplos de instrumentos internacionales que promueven principios de IA son las “Recomendaciones sobre la Ética de la IA” de la UNESCO y la “Recomendación del Consejo sobre Inteligencia Artificial” de la OCDE.

Enfoque Basado en Normas

Delegar (total o parcialmente) los poderes regulatorios del estado a organizaciones que produzcan normas técnicas que guíen la interpretación e implementación de reglas obligatorias. Por ejemplo, el considerando 121 de la Ley de IA de la UE establece que “la normalización debe desempeñar un papel clave para proporcionar soluciones técnicas a los proveedores para garantizar el cumplimiento de esta regulación, en línea con el estado de la técnica, para promover la innovación, así como la competitividad y el crecimiento en el mercado único.”

Enfoque Ágil y Experimentalista

Generar esquemas regulatorios flexibles, como «sandbox» regulatorios y otros bancos de pruebas, que permitan a las organizaciones probar nuevos modelos de negocio, métodos, infraestructura y herramientas bajo condiciones regulatorias más flexibles y con la supervisión de las autoridades públicas. Este es el caso de la Ley de IA de la UE, que establece un marco para la creación de “sandbox” regulatorios.

Enfoque de Facilitación y Habilitación

Facilitar y habilitar un entorno que fomente a todos los interesados involucrados en el ciclo de vida de la IA para desarrollar y utilizar sistemas de IA responsables, éticos y conformes a los derechos humanos. En este sentido, la UNESCO desarrolló la Metodología de Evaluación de Preparación (RAM) que ayuda a los países a entender su nivel de preparación para implementar la IA de manera ética y responsable.

Enfoque de Adaptación de Leyes Existentes

Modificar reglas específicas por sectores (p.ej., salud, finanzas, educación, justicia) y reglas transversales (p.ej., códigos penales, contratación pública, leyes de protección de datos, leyes laborales) para hacer mejoras incrementales en el marco regulatorio existente. Un ejemplo es el artículo 22 del Reglamento General de Protección de Datos (GDPR) de la Unión Europea que establece el derecho de los sujetos de datos a no ser objeto de decisiones basadas únicamente en el procesamiento automatizado.

Enfoque de Mandatos de Acceso a la Información

Exigir la implementación de instrumentos de transparencia que permitan al público acceder a información básica sobre los sistemas de IA. Pocos países han adoptado obligaciones de transparencia algorítmica para los organismos públicos. Por ejemplo, el artículo 6 de la Ley N° 2016-1321 en Francia exige que los organismos públicos publiquen las reglas que definen los principales procesos algorítmicos utilizados en la toma de decisiones individuales.

Enfoque Basado en Riesgos

Establecer obligaciones y requisitos de acuerdo con la evaluación de los riesgos asociados con el despliegue y uso de ciertas herramientas de IA en contextos específicos. Un ejemplo es la Directiva sobre Toma de Decisiones Automatizadas de Canadá, que busca garantizar que los sistemas de decisión automatizados se desplieguen de manera que reduzcan los riesgos para los clientes y la sociedad canadiense.

Enfoque Basado en Derechos

Establecer obligaciones o requisitos para proteger los derechos y libertades de los individuos. Se propone un enfoque basado en los derechos humanos para los países africanos que empodera a los titulares de derechos a reclamar y ejercer sus derechos.

Enfoque de Responsabilidad

Asignar responsabilidad y sanciones a los usos problemáticos de los sistemas de IA. Por ejemplo, la Ley de IA de la UE establece penalizaciones por infracciones de la regulación, que pueden alcanzar hasta 35,000,000 EUR o hasta el 7% de la facturación anual mundial del infractor, lo que sea mayor.

More Insights

Avanzando en la Gobernanza Internacional de IA en el G7

El Primer Ministro canadiense Mark Carney ha destacado la importancia de la inteligencia artificial como prioridad en los próximos años. Con la cumbre del G7 en Canadá, se presenta una oportunidad...

Kazajistán impulsa una legislación innovadora sobre IA inspirada en la UE

Kazajistán ha aprobado un borrador de la ‘Ley sobre Inteligencia Artificial’ que busca regular el uso de la IA con un enfoque centrado en el ser humano. Esta legislación se inspira en la Ley de IA de...

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...