Uso de ISO 42001 y NIST AI RMF para Ayudar con la Ley de IA de la UE
La adopción de tecnologías de IA ha aumentado drásticamente en los últimos años. En 2019, el 58% de las organizaciones utilizaban IA para al menos una función empresarial; para 2024, esa cifra aumentó al 72%. El uso de genAI casi se duplicó de 2023 a 2024, pasando de solo 33% a 65%.
¿Qué es la Ley de IA de la UE?
La Reglamento de la Ley de Inteligencia Artificial de la Unión Europea (AI Act) (Reglamento (UE) 2024/1689) es una regulación de la Unión Europea que establece un marco regulatorio y legal común para la IA dentro de la UE. Entró en vigor el 1 de agosto de 2024 y abarca todos los tipos de IA en diversos sectores, excepto para sistemas de IA utilizados exclusivamente con fines militares, de seguridad nacional, investigación y propósitos no profesionales.
La Ley de IA de la UE busca equilibrar la innovación y la seguridad en la inteligencia artificial, estableciendo pautas claras para la gestión de riesgos, el monitoreo continuo de sistemas y la supervisión humana, creando así una base para una IA en la que las personas puedan confiar.
¿Quién se verá afectado?
Las organizaciones que usan IA y operan dentro de la UE, así como cualquier organización fuera de la UE que haga negocios (desarrolle o use sistemas de IA) en la UE, estarán sujetas a esta regulación.
¿Quién no se verá afectado?
Es importante entender lo que queda fuera del alcance de la Ley de IA. Esta regulación adopta un enfoque de manos libres hacia las aplicaciones militares y de seguridad nacional. Asimismo, los sistemas de IA dedicados exclusivamente a la investigación científica disfrutan de la exención de estas normas, permitiendo a los investigadores innovar sin restricciones regulatorias.
Multas bajo la Ley de IA de la UE
Las organizaciones pueden enfrentar multas significativas por incumplimiento:
- Por incumplimiento de prácticas de IA prohibidas, hasta EUR 35,000,000 o 7% de la facturación anual mundial, lo que sea mayor.
- Por incumplimiento de los requisitos para sistemas de IA de alto riesgo, hasta EUR 15,000,000 o 3% de la facturación anual mundial.
- Por proporcionar información incorrecta, incompleta o engañosa a las autoridades, hasta EUR 7,500,000 o 1% de la facturación anual mundial.
Enfoque basado en riesgos de la Ley de IA de la UE
1. Riesgos inaceptables:
Los sistemas de IA que permiten prácticas de manipulación, explotación y control social se consideran de alto riesgo. Ejemplos incluyen:
- Técnicas subliminales o manipulativas.
- Identificación biométrica remota en tiempo real.
- Compilación de bases de datos de reconocimiento facial.
2. Altos riesgos:
Los sistemas de IA que afectan negativamente la seguridad o los derechos fundamentales se consideran de alto riesgo. Ejemplos incluyen:
- Biometría.
- Infraestructura crítica, como el suministro de agua.
- Procesos judiciales y democráticos.
3. Riesgos limitados:
Algunos sistemas de IA diseñados para interactuar con personas o generar contenido no necesariamente califican como de alto riesgo, pero pueden implicar riesgos de suplantación o engaño. Ejemplos incluyen:
- Chatbots.
- Deepfakes.
4. Riesgos mínimos:
La Ley de IA no define esta categoría, pero incluye sistemas de IA que no caen en otras categorías, como videojuegos habilitados por IA o filtros de spam. Ejemplos incluyen:
- Videojuegos habilitados por IA.
- Filtros de spam.
Comprendiendo el Marco de Gestión de Riesgos de IA de NIST y ISO/IEC 42001
El marco está diseñado para proporcionar un enfoque estructurado para gestionar los riesgos asociados con las tecnologías de IA, asegurando el desarrollo, la implementación y el uso responsables, éticos y confiables de los sistemas de IA.
¿Qué es ISO/IEC 42001:2023?
ISO/IEC 42001 es un estándar internacional que especifica los requisitos para establecer, implementar, mantener y mejorar continuamente un Sistema de Gestión de Inteligencia Artificial (AIMS) dentro de las organizaciones. Está diseñado para entidades que proporcionan o utilizan productos o servicios basados en IA, asegurando un desarrollo y uso responsables de los sistemas de IA.
Este estándar es aplicable a organizaciones de cualquier tamaño que participen en el desarrollo, provisión o uso de productos o servicios basados en IA y es relevante para agencias del sector público, así como para empresas o organizaciones sin fines de lucro.