Acta de IA de la UE 2024: un análisis detallado
La Acta de IA de la UE es un marco regulatorio significativo que busca armonizar el desarrollo, despliegue y uso de la inteligencia artificial (IA) dentro de la Unión Europea (UE). Esta regulación integral, que entró en vigor el 1 de agosto de 2024, tiene como objetivo garantizar la seguridad, proteger los derechos fundamentales y promover la innovación, al tiempo que previene la fragmentación del mercado.
El Acta de IA abarca una amplia gama de aplicaciones de IA en diversos sectores, incluyendo salud, finanzas, seguros, transporte y educación. Se aplica a los proveedores y desplegadores de sistemas de IA dentro de la UE, así como a aquellos fuera de la UE cuyos sistemas de IA impacten el mercado de la UE. Las excepciones incluyen sistemas de IA utilizados para fines militares, de defensa o de seguridad nacional, y aquellos desarrollados únicamente para la investigación científica.
Definición de «sistema de IA»
Un «sistema de IA» se define como un sistema basado en máquinas diseñado para operar con diversos niveles de autonomía, que puede exhibir adaptabilidad y que, a partir de la información que recibe, puede generar salidas derivadas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.
Literacidad en IA
El Acta enfatiza la importancia de la literacidad en IA para proveedores y desplegadores, exigiendo que el personal de empresas y organizaciones (así como otras personas relevantes) posea las habilidades y el entendimiento necesarios para interactuar con tecnologías de IA de manera responsable. Esta obligación incluye formación y educación continuas adaptadas a sectores y casos de uso específicos.
Enfoque basado en riesgos
Con el fin de introducir un conjunto de reglas vinculantes que sean proporcionadas y efectivas para los sistemas de IA, el Acta ha introducido un enfoque basado en riesgos predefinido, que adapta el tipo y contenido de dichas reglas con la intensidad y el alcance de los riesgos que pueden generar los sistemas de IA. La ley prohíbe ciertas prácticas de IA inaceptables y establece requisitos para sistemas de IA de alto riesgo y modelos de IA de propósito general, así como diferentes obligaciones para los diversos operadores. Además, introduce obligaciones de transparencia para ciertos sistemas de IA.
Prácticas de IA prohibidas
El Acta prohíbe ciertas prácticas de IA consideradas como riesgos inaceptables para los derechos fundamentales, la seguridad y los intereses públicos. Estas incluyen:
- Sistemas de IA que utilizan técnicas subliminales para manipular comportamientos;
- Explotación de vulnerabilidades de grupos específicos, como niños o individuos con discapacidades;
- Puntuación social basada en características personales que conduce a resultados discriminatorios;
- Predicción del comportamiento criminal basándose exclusivamente en perfiles;
- Obtención indiscriminada de datos para bases de datos de reconocimiento facial;
- Reconocimiento emocional en lugares de trabajo e instituciones educativas, excepto por razones médicas o de seguridad;
- Categorización biométrica para inferir atributos sensibles, salvo para fines de cumplimiento legal;
- Identificación biométrica remota en tiempo real en espacios públicos para la aplicación de la ley.
Las obligaciones de literacidad en IA y las prácticas de IA prohibidas son aplicables a partir del 2 de febrero de 2025.
Sistemas de IA de alto riesgo
Con el fin de garantizar una protección coherente y de alto nivel de los intereses públicos relacionados con la salud, la seguridad y los derechos fundamentales (incluyendo el derecho a la no discriminación, la protección de datos y la privacidad), el Acta establece reglas comunes para los sistemas de IA de alto riesgo. Estas incluyen:
- Establecimiento de un sistema de gestión de riesgos;
- Garantizar la calidad y gobernanza de los datos;
- Mantenimiento de documentación técnica y capacidades de registro;
- Proporcionar información transparente y supervisión humana;
- Asegurar precisión, solidez y ciberseguridad;
- Implementar un sistema de gestión de calidad.
Modelos de IA de propósito general
La ley incluye reglas específicas para modelos de IA de propósito general, particularmente aquellos con riesgos sistémicos. Los proveedores deben notificar a la Comisión de la UE si sus modelos cumplen con umbrales de capacidad de alto impacto y preparar documentación técnica completa, asegurar el cumplimiento de derechos de autor y proporcionar resúmenes del contenido de entrenamiento.
Las «capacidades de alto impacto» son aquellas que igualan o superan las capacidades registradas en los modelos de IA de propósito general más avanzados. El Anexo XIII del Acta define criterios específicos para la designación de modelos de IA de propósito general con riesgo sistémico, tales como el número de parámetros del modelo; la calidad o tamaño del conjunto de datos; la cantidad de computación utilizada para entrenar el modelo; las modalidades de entrada y salida del modelo; y los benchmarks y evaluaciones de las capacidades del modelo.
Aspectos de gobernanza, cumplimiento y regulación
El Acta exige transparencia para asegurar la confianza pública y prevenir el uso indebido de tecnologías de IA. Los proveedores y desplegadores deben informar a los individuos sobre su interacción con sistemas de IA, mantener documentación detallada y adherirse a prácticas de registro y archivo. Los sistemas de IA de alto riesgo tienen requisitos de transparencia más estrictos, incluyendo la marcación de contenido sintético para prevenir la desinformación y asegurar la transparencia en el uso de IA y la toma de decisiones.
El Acta promueve el desarrollo de IA ética a través de arenas regulatorias, proporcionando un entorno controlado para probar tecnologías de IA. Estas arenas apoyan la cooperación entre partes interesadas, eliminan barreras para PYMEs y aceleran el acceso al mercado.
Además, el Acta fomenta el desarrollo de códigos de conducta y directrices para facilitar el cumplimiento. Estos pueden abarcar la aplicación voluntaria de requisitos, directrices éticas, sostenibilidad ambiental, literacidad en IA y diseño inclusivo.
Una gobernanza efectiva de IA implica establecer políticas de uso de IA, programas de literacidad en IA, marcos de evaluación de riesgos centralizados, comités de gobernanza y controles operacionales. Esto garantizará un uso ético de la IA, el cumplimiento de regulaciones y la mejora continua en la gestión de riesgos de IA.
Penalizaciones
El Acta impone sanciones significativas por incumplimiento, con multas de hasta 35 millones de EUR o 7% del total de la facturación anual mundial en el año financiero anterior para prácticas prohibidas. Otras infracciones pueden acarrear multas de hasta 15 millones de EUR o 3% de la facturación total anual mundial del infractor en el año financiero anterior, lo que sea mayor. Las sanciones buscan ser efectivas, proporcionales y disuasorias, y tendrán en cuenta los intereses de pequeñas y medianas empresas (PYMEs), incluyendo startups. En el caso de las PYMEs, cada multa será la menor de la cantidad o porcentajes mencionados anteriormente.
Conclusión
La Acta de IA de la UE crea un ecosistema de IA confiable y centrado en el ser humano al equilibrar la innovación con la protección de los derechos fundamentales y los intereses públicos. Al cumplir con los requisitos de la ley, las empresas pueden asegurar el desarrollo y despliegue seguro y ético de tecnologías de IA.