Cumplimiento del Acta de IA de la UE: ISO 42001 y NIST AI RMF como Aliados

Uso de ISO 42001 y NIST AI RMF para Ayudar con la Ley de IA de la UE

La adopción de tecnologías de IA ha aumentado drásticamente en los últimos años. En 2019, el 58% de las organizaciones utilizaban IA para al menos una función empresarial; para 2024, esa cifra aumentó al 72%. El uso de genAI casi se duplicó de 2023 a 2024, pasando de solo 33% a 65%.

¿Qué es la Ley de IA de la UE?

La Reglamento de la Ley de Inteligencia Artificial de la Unión Europea (AI Act) (Reglamento (UE) 2024/1689) es una regulación de la Unión Europea que establece un marco regulatorio y legal común para la IA dentro de la UE. Entró en vigor el 1 de agosto de 2024 y abarca todos los tipos de IA en diversos sectores, excepto para sistemas de IA utilizados exclusivamente con fines militares, de seguridad nacional, investigación y propósitos no profesionales.

La Ley de IA de la UE busca equilibrar la innovación y la seguridad en la inteligencia artificial, estableciendo pautas claras para la gestión de riesgos, el monitoreo continuo de sistemas y la supervisión humana, creando así una base para una IA en la que las personas puedan confiar.

¿Quién se verá afectado?

Las organizaciones que usan IA y operan dentro de la UE, así como cualquier organización fuera de la UE que haga negocios (desarrolle o use sistemas de IA) en la UE, estarán sujetas a esta regulación.

¿Quién no se verá afectado?

Es importante entender lo que queda fuera del alcance de la Ley de IA. Esta regulación adopta un enfoque de manos libres hacia las aplicaciones militares y de seguridad nacional. Asimismo, los sistemas de IA dedicados exclusivamente a la investigación científica disfrutan de la exención de estas normas, permitiendo a los investigadores innovar sin restricciones regulatorias.

Multas bajo la Ley de IA de la UE

Las organizaciones pueden enfrentar multas significativas por incumplimiento:

  • Por incumplimiento de prácticas de IA prohibidas, hasta EUR 35,000,000 o 7% de la facturación anual mundial, lo que sea mayor.
  • Por incumplimiento de los requisitos para sistemas de IA de alto riesgo, hasta EUR 15,000,000 o 3% de la facturación anual mundial.
  • Por proporcionar información incorrecta, incompleta o engañosa a las autoridades, hasta EUR 7,500,000 o 1% de la facturación anual mundial.

Enfoque basado en riesgos de la Ley de IA de la UE

1. Riesgos inaceptables:

Los sistemas de IA que permiten prácticas de manipulación, explotación y control social se consideran de alto riesgo. Ejemplos incluyen:

  • Técnicas subliminales o manipulativas.
  • Identificación biométrica remota en tiempo real.
  • Compilación de bases de datos de reconocimiento facial.

2. Altos riesgos:

Los sistemas de IA que afectan negativamente la seguridad o los derechos fundamentales se consideran de alto riesgo. Ejemplos incluyen:

  • Biometría.
  • Infraestructura crítica, como el suministro de agua.
  • Procesos judiciales y democráticos.

3. Riesgos limitados:

Algunos sistemas de IA diseñados para interactuar con personas o generar contenido no necesariamente califican como de alto riesgo, pero pueden implicar riesgos de suplantación o engaño. Ejemplos incluyen:

  • Chatbots.
  • Deepfakes.

4. Riesgos mínimos:

La Ley de IA no define esta categoría, pero incluye sistemas de IA que no caen en otras categorías, como videojuegos habilitados por IA o filtros de spam. Ejemplos incluyen:

  • Videojuegos habilitados por IA.
  • Filtros de spam.

Comprendiendo el Marco de Gestión de Riesgos de IA de NIST y ISO/IEC 42001

El marco está diseñado para proporcionar un enfoque estructurado para gestionar los riesgos asociados con las tecnologías de IA, asegurando el desarrollo, la implementación y el uso responsables, éticos y confiables de los sistemas de IA.

¿Qué es ISO/IEC 42001:2023?

ISO/IEC 42001 es un estándar internacional que especifica los requisitos para establecer, implementar, mantener y mejorar continuamente un Sistema de Gestión de Inteligencia Artificial (AIMS) dentro de las organizaciones. Está diseñado para entidades que proporcionan o utilizan productos o servicios basados en IA, asegurando un desarrollo y uso responsables de los sistemas de IA.

Este estándar es aplicable a organizaciones de cualquier tamaño que participen en el desarrollo, provisión o uso de productos o servicios basados en IA y es relevante para agencias del sector público, así como para empresas o organizaciones sin fines de lucro.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...