Resumen de la Ley de Inteligencia Artificial de la UE
La ley de inteligencia artificial (IA) de la Unión Europea (UE) tiene como objetivo regular el uso de tecnologías de IA en función de los riesgos que presentan. A continuación, se presenta un resumen detallado de los aspectos más relevantes de esta legislación.
Clasificación de la IA según su riesgo
La ley clasifica la IA en diferentes categorías basadas en el nivel de riesgo que representan:
- Riesgos inaceptables: Estos sistemas están prohibidos, como las técnicas de manipulación o sistemas de puntuación social.
- Sistemas de IA de alto riesgo: Estos son regulados y requieren cumplimiento con normas estrictas.
- Sistemas de IA de riesgo limitado: Están sujetos a obligaciones de transparencia más ligeras; por ejemplo, los chatbots deben informar a los usuarios que están interactuando con una IA.
- Mínimo riesgo: La mayoría de las aplicaciones actuales, como videojuegos o filtros anti-spam, no están reguladas.
Obligaciones de los proveedores y desplegadores
La ley establece que la mayoría de las obligaciones recaen en los proveedores de sistemas de IA de alto riesgo, que deben:
- Implementar un sistema de gestión de riesgos.
- Asegurar la gobernanza de datos para la calidad de los conjuntos de datos utilizados.
- Proporcionar documentación técnica que demuestre la conformidad.
- Permitir la supervisión humana en el uso de la IA.
Los desplegadores de estos sistemas también tienen obligaciones, aunque son menos estrictas que las de los proveedores.
Uso de IA a General Purpose AI (GPAI)
La ley menciona específicamente la IA de propósito general (GPAI), que se refiere a modelos de IA capaces de ejecutar múltiples tareas. Los proveedores de GPAI deben:
- Redactar documentación técnica detallada.
- Proporcionar instrucciones de uso a los proveedores en la cadena de suministro.
Sistemas de IA prohibidos
La ley prohíbe ciertos sistemas de IA, que incluyen:
- Técnicas subliminales: Utilizadas para manipular el comportamiento de las personas.
- Explotación de vulnerabilidades: Como la explotación de la edad o la situación socioeconómica.
- Catálogo biométrico: Categorización de individuos basada en atributos sensibles.
Plazos de implementación
La ley establece un calendario para su implementación:
- 6 meses: Para sistemas de IA prohibidos.
- 12 meses: Para GPAI.
- 24 meses: Para sistemas de IA de alto riesgo según el Anexo III.
- 36 meses: Para sistemas de IA de alto riesgo según el Anexo I.
Los códigos de práctica deben estar listos 9 meses después de la entrada en vigor de la ley.
En conclusión, la Ley de IA de la UE representa un esfuerzo significativo para regular el uso de tecnologías de IA, asegurando que se utilicen de manera responsable y ética, protegiendo así los derechos de los ciudadanos europeos.