Plazos y Requisitos de Cumplimiento de la Ley de IA de la UE
La Ley de Inteligencia Artificial de la Unión Europea (UE AI Act) representa una legislación fundamental destinada a regular los sistemas de IA en toda la UE, asegurando seguridad, transparencia y responsabilidad. Esta ley entró en vigor el 2 de agosto de 2024, y su implementación se llevará a cabo en varios años con plazos escalonados. A continuación, se presenta un desglose de los plazos clave y lo que las empresas deben hacer para cumplir con esta normativa:
1. 2 de febrero de 2025: Prácticas Prohibidas
Qué cumplir: La Ley de IA de la UE prohíbe ciertas prácticas de IA consideradas perjudiciales o manipulativas, como los sistemas que explotan vulnerabilidades o distorsionan el comportamiento humano (por ejemplo, la biometría pública, el puntaje social, etc.). Las empresas deben asegurarse de que sus sistemas de IA no caigan en estas categorías prohibidas.
2. 2 de agosto de 2025: IA de Propósito General (GPAI)
Qué cumplir: Los proveedores de modelos de GPAI deben cumplir con obligaciones de transparencia, que incluyen mantener documentación detallada de sus modelos y conjuntos de datos. Todos los desarrolladores de modelos fundamentales de LLM y genAI entran en esta categoría.
3. 2 de agosto de 2026: Sistemas de IA de Alto Riesgo
Qué cumplir: Los sistemas de IA de alto riesgo, como aquellos utilizados en salud o transporte, estarán sujetos a regulaciones más estrictas, que incluyen medidas de ciberseguridad, respuestas a incidentes y registros de evaluación de modelos de IA.
4. 2 de agosto de 2026: Sistemas de IA de Riesgo Limitado
Qué cumplir: Los sistemas de IA de riesgo limitado, como los utilizados en irrigación/agricultura o servicios al cliente, estarán sujetos a regulaciones más suaves. Esto incluye: etiquetar la salida de la solución de IA como ‘artificial’, un resumen de los datos utilizados y una ‘tarjeta de modelo’ con información sobre el modelo utilizado.
5. 2 de agosto de 2027: Requisitos Adicionales para la IA de Alto Riesgo
Qué cumplir: Se implementarán requisitos adicionales para los sistemas de IA de alto riesgo, particularmente aquellos que involucran componentes de seguridad, dispositivos médicos, fabricantes de juguetes, etc.
La Ley de IA de la UE marca un paso significativo hacia la regulación de la inteligencia artificial, estableciendo un marco claro para la responsabilidad y la ética en el desarrollo y uso de tecnologías de IA.