Análisis del Acta de IA de la UE 2024

Acta de IA de la UE 2024: un análisis detallado

La Acta de IA de la UE es un marco regulatorio significativo que busca armonizar el desarrollo, despliegue y uso de la inteligencia artificial (IA) dentro de la Unión Europea (UE). Esta regulación integral, que entró en vigor el 1 de agosto de 2024, tiene como objetivo garantizar la seguridad, proteger los derechos fundamentales y promover la innovación, al tiempo que previene la fragmentación del mercado.

El Acta de IA abarca una amplia gama de aplicaciones de IA en diversos sectores, incluyendo salud, finanzas, seguros, transporte y educación. Se aplica a los proveedores y desplegadores de sistemas de IA dentro de la UE, así como a aquellos fuera de la UE cuyos sistemas de IA impacten el mercado de la UE. Las excepciones incluyen sistemas de IA utilizados para fines militares, de defensa o de seguridad nacional, y aquellos desarrollados únicamente para la investigación científica.

Definición de «sistema de IA»

Un «sistema de IA» se define como un sistema basado en máquinas diseñado para operar con diversos niveles de autonomía, que puede exhibir adaptabilidad y que, a partir de la información que recibe, puede generar salidas derivadas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.

Literacidad en IA

El Acta enfatiza la importancia de la literacidad en IA para proveedores y desplegadores, exigiendo que el personal de empresas y organizaciones (así como otras personas relevantes) posea las habilidades y el entendimiento necesarios para interactuar con tecnologías de IA de manera responsable. Esta obligación incluye formación y educación continuas adaptadas a sectores y casos de uso específicos.

Enfoque basado en riesgos

Con el fin de introducir un conjunto de reglas vinculantes que sean proporcionadas y efectivas para los sistemas de IA, el Acta ha introducido un enfoque basado en riesgos predefinido, que adapta el tipo y contenido de dichas reglas con la intensidad y el alcance de los riesgos que pueden generar los sistemas de IA. La ley prohíbe ciertas prácticas de IA inaceptables y establece requisitos para sistemas de IA de alto riesgo y modelos de IA de propósito general, así como diferentes obligaciones para los diversos operadores. Además, introduce obligaciones de transparencia para ciertos sistemas de IA.

Prácticas de IA prohibidas

El Acta prohíbe ciertas prácticas de IA consideradas como riesgos inaceptables para los derechos fundamentales, la seguridad y los intereses públicos. Estas incluyen:

  • Sistemas de IA que utilizan técnicas subliminales para manipular comportamientos;
  • Explotación de vulnerabilidades de grupos específicos, como niños o individuos con discapacidades;
  • Puntuación social basada en características personales que conduce a resultados discriminatorios;
  • Predicción del comportamiento criminal basándose exclusivamente en perfiles;
  • Obtención indiscriminada de datos para bases de datos de reconocimiento facial;
  • Reconocimiento emocional en lugares de trabajo e instituciones educativas, excepto por razones médicas o de seguridad;
  • Categorización biométrica para inferir atributos sensibles, salvo para fines de cumplimiento legal;
  • Identificación biométrica remota en tiempo real en espacios públicos para la aplicación de la ley.

Las obligaciones de literacidad en IA y las prácticas de IA prohibidas son aplicables a partir del 2 de febrero de 2025.

Sistemas de IA de alto riesgo

Con el fin de garantizar una protección coherente y de alto nivel de los intereses públicos relacionados con la salud, la seguridad y los derechos fundamentales (incluyendo el derecho a la no discriminación, la protección de datos y la privacidad), el Acta establece reglas comunes para los sistemas de IA de alto riesgo. Estas incluyen:

  • Establecimiento de un sistema de gestión de riesgos;
  • Garantizar la calidad y gobernanza de los datos;
  • Mantenimiento de documentación técnica y capacidades de registro;
  • Proporcionar información transparente y supervisión humana;
  • Asegurar precisión, solidez y ciberseguridad;
  • Implementar un sistema de gestión de calidad.

Modelos de IA de propósito general

La ley incluye reglas específicas para modelos de IA de propósito general, particularmente aquellos con riesgos sistémicos. Los proveedores deben notificar a la Comisión de la UE si sus modelos cumplen con umbrales de capacidad de alto impacto y preparar documentación técnica completa, asegurar el cumplimiento de derechos de autor y proporcionar resúmenes del contenido de entrenamiento.

Las «capacidades de alto impacto» son aquellas que igualan o superan las capacidades registradas en los modelos de IA de propósito general más avanzados. El Anexo XIII del Acta define criterios específicos para la designación de modelos de IA de propósito general con riesgo sistémico, tales como el número de parámetros del modelo; la calidad o tamaño del conjunto de datos; la cantidad de computación utilizada para entrenar el modelo; las modalidades de entrada y salida del modelo; y los benchmarks y evaluaciones de las capacidades del modelo.

Aspectos de gobernanza, cumplimiento y regulación

El Acta exige transparencia para asegurar la confianza pública y prevenir el uso indebido de tecnologías de IA. Los proveedores y desplegadores deben informar a los individuos sobre su interacción con sistemas de IA, mantener documentación detallada y adherirse a prácticas de registro y archivo. Los sistemas de IA de alto riesgo tienen requisitos de transparencia más estrictos, incluyendo la marcación de contenido sintético para prevenir la desinformación y asegurar la transparencia en el uso de IA y la toma de decisiones.

El Acta promueve el desarrollo de IA ética a través de arenas regulatorias, proporcionando un entorno controlado para probar tecnologías de IA. Estas arenas apoyan la cooperación entre partes interesadas, eliminan barreras para PYMEs y aceleran el acceso al mercado.

Además, el Acta fomenta el desarrollo de códigos de conducta y directrices para facilitar el cumplimiento. Estos pueden abarcar la aplicación voluntaria de requisitos, directrices éticas, sostenibilidad ambiental, literacidad en IA y diseño inclusivo.

Una gobernanza efectiva de IA implica establecer políticas de uso de IA, programas de literacidad en IA, marcos de evaluación de riesgos centralizados, comités de gobernanza y controles operacionales. Esto garantizará un uso ético de la IA, el cumplimiento de regulaciones y la mejora continua en la gestión de riesgos de IA.

Penalizaciones

El Acta impone sanciones significativas por incumplimiento, con multas de hasta 35 millones de EUR o 7% del total de la facturación anual mundial en el año financiero anterior para prácticas prohibidas. Otras infracciones pueden acarrear multas de hasta 15 millones de EUR o 3% de la facturación total anual mundial del infractor en el año financiero anterior, lo que sea mayor. Las sanciones buscan ser efectivas, proporcionales y disuasorias, y tendrán en cuenta los intereses de pequeñas y medianas empresas (PYMEs), incluyendo startups. En el caso de las PYMEs, cada multa será la menor de la cantidad o porcentajes mencionados anteriormente.

Conclusión

La Acta de IA de la UE crea un ecosistema de IA confiable y centrado en el ser humano al equilibrar la innovación con la protección de los derechos fundamentales y los intereses públicos. Al cumplir con los requisitos de la ley, las empresas pueden asegurar el desarrollo y despliegue seguro y ético de tecnologías de IA.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...