Acta de IA de la UE: Consideraciones Clave para el Cumplimiento Antes de Agosto de 2025
La Comisión Europea ha dejado claro que el calendario para implementar la Ley de Inteligencia Artificial (Acta de IA de la UE) se mantiene sin cambios. No hay planes para períodos de transición o aplazamientos. Las primeras regulaciones han estado vigentes desde el 2 de febrero de 2025, mientras que otras obligaciones clave entrarán en vigor el 2 de agosto de 2025. Las violaciones de la Acta de IA pueden ser sancionadas con multas significativas, que pueden alcanzar hasta 35 millones de euros o el 7% de la facturación anual global.
La Acta de IA marca el primer marco legal integral en el mundo para el uso y desarrollo de la IA. Sigue un enfoque basado en riesgos, que vincula los requisitos regulatorios al riesgo específico que representa un sistema de IA. La implementación puede plantear desafíos estructurales, técnicos y de gobernanza para las empresas, especialmente en el área de la IA de propósito general (GPAI).
Requisitos Clave y Obligaciones de Cumplimiento Bajo la Acta de IA de la UE
La Acta de IA se centra en prácticas de IA consideradas de alto riesgo y prohibidas. Algunas aplicaciones han sido expresamente prohibidas desde el 2 de febrero de 2025, incluyendo:
- Categorización biométrica basada en características sensibles;
- Sistemas de reconocimiento emocional en el lugar de trabajo;
- Sistemas manipulativos que influyen en el comportamiento humano sin ser notados;
- Puntuación social.
Estas prohibiciones se aplican de manera comprehensiva tanto al desarrollo como al simple uso de tales sistemas.
El 2 de agosto de 2025, también entrarán en vigor requisitos de diligencia debida, transparencia y documentación para varios actores a lo largo de la cadena de valor de la IA.
Impacto en Empresas y Partes Interesadas
Proveedores de IA de Propósito General (GPAI)
Los proveedores de modelos de GPAI, como modelos de lenguaje grande o multimodales, estarán sujetos a un régimen regulatorio específico a partir de agosto de 2025. Tendrán la obligación de mantener documentación técnica que haga trazable el desarrollo, entrenamiento y evaluación del modelo. Además, deben preparar informes de transparencia que describan las capacidades, limitaciones, riesgos potenciales y directrices para los integradores.
GPAIs con Riesgo Sistémico
Se aplican obligaciones extendidas a modelos de GPAI particularmente poderosos que se clasifican como “sistémicos”. La clasificación se basa en criterios técnicos como potencia de cálculo, alcance o impacto potencial. Los proveedores de tales modelos deben informar del sistema a la Comisión Europea, someterse a procedimientos de evaluación y pruebas estructuradas, y documentar permanentemente los incidentes de seguridad.
Proveedores y Modificadores Descendentes
Las empresas que modifiquen sustancialmente los modelos de GPAI existentes se convertirán en proveedores a efectos regulatorios. Una modificación se considera sustancial si el modelo de GPAI existente se cambia de tal manera que la funcionalidad, rendimiento o riesgos del modelo cambian significativamente. Esto significa que todas las obligaciones que se aplican a los desarrolladores originales de GPAI también se aplican a los modelos modificados.
Usuarios de Sistemas de IA
Las empresas que simplemente utilizan sistemas de IA, especialmente en aplicaciones con riesgos potencialmente altos, como en reclutamiento, medicina o infraestructura crítica, también deben mantener un inventario completo de los sistemas que utilizan. Además, deben asegurarse de que no se utilicen aplicaciones prohibidas. A partir de agosto de 2026, se aplicarán obligaciones adicionales a los sistemas de IA de alto riesgo.
Requisitos Técnicos y Organizativos
La implementación de la Acta de IA requiere no solo medidas legales, sino también estructurales. Las empresas deben considerar lo siguiente para mejorar el cumplimiento:
- Establecimiento de un inventario completo de IA con clasificación de riesgos;
- Aclarar el rol de la empresa (proveedor, modificador o desplegador);
- Preparar la documentación técnica y de transparencia necesaria;
- Implementar requisitos de protección de datos y derechos de autor;
- Capacitar y verificar la competencia en IA entre los empleados;
- Adaptar las estructuras de gobernanza interna.
Preparación Temprana para el Cumplimiento y Mitigación de Riesgos
El 2 de agosto de 2025 es una fecha límite vinculante. Realizar un inventario, aclarar roles y evaluar sistemas puede ayudar a crear una base sólida para la certeza regulatoria. Los proveedores y modificadores de GPAI, en particular, deben prepararse para un mayor nivel de responsabilidad.
La acción temprana puede mitigar riesgos legales y financieros, así como subrayar la responsabilidad y la viabilidad futura en el manejo de la inteligencia artificial.