Actualización de la Ley de IA de la UE: Prohibición de sistemas que representan un ‘riesgo inaceptable’
La Ley de Inteligencia Artificial (IA) de la Unión Europea (UE), presentada por primera vez en 2023, establece un marco regulatorio común para el desarrollo y la aplicación de la IA. La Comisión Europea (CE), en su última actualización, ha prohibido el uso de prácticas de IA cuya evaluación de riesgo se considere «inaceptable».
Niveles de Riesgo para los Sistemas de IA
La CE ha definido cuatro niveles de riesgo para los sistemas de IA: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.
Riesgo Inaceptable
Los sistemas de IA que presentan un riesgo inaceptable son aquellos que se consideran una «amenaza clara para la seguridad, los medios de vida y los derechos de las personas». Estos sistemas están ahora prohibidos en la UE e incluyen prácticas como:
- Evaluación social
- Recolección de datos de internet o CCTV para bases de datos de reconocimiento facial
- Manipulación y explotación de vulnerabilidades mediante IA dañina
Riesgo Alto
Los sistemas de IA de alto riesgo no están prohibidos, pero serán monitoreados por la CE. Estos incluyen aplicaciones que, aunque creadas de buena fe, podrían tener consecuencias devastadoras si algo sale mal. Ejemplos de sistemas de alto riesgo incluyen:
- Componentes de seguridad de infraestructuras críticas cuya falla podría poner en riesgo la vida y salud de los ciudadanos, como en el transporte.
- Soluciones de IA utilizadas en instituciones educativas que determinan el acceso a la educación y la trayectoria profesional de una persona, como la evaluación de exámenes.
- Componentes de seguridad de productos, como cirugías asistidas por robots.
- Casos de uso de IA en aplicaciones de la ley que pueden interferir con los derechos fundamentales de las personas, como la evaluación de pruebas.
Antes de que un sistema de IA de alto riesgo pueda ser comercializado, debe someterse a una evaluación de conformidad y cumplir con todos los requisitos de la Ley de IA. Posteriormente, el sistema debe ser registrado en una base de datos y llevar la Marca CE, que regula los productos vendidos dentro del Espacio Económico Europeo (EEE) desde 1985.
Consecuencias de la No Conformidad
La aplicación de la Ley de IA será supervisada por reguladores nacionales. Aquellas empresas que se encuentren en incumplimiento enfrentarán fuertes sanciones financieras de €35 millones o más, dependiendo de los ingresos anuales globales. Además, las que participen en prácticas de IA prohibidas podrían ser excluidas de operar en la UE.
Sin embargo, para la mayoría de los desarrolladores de IA en la región, esto no será necesario, ya que, según la CE, la mayoría de los sistemas de IA actualmente utilizados en la UE presentan un riesgo mínimo o nulo.
La CE ha declarado: “La Ley de IA asegura que los europeos puedan confiar en lo que la IA tiene para ofrecer. Mientras que la mayoría de los sistemas de IA presentan un riesgo limitado a nulo y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.”