Consideraciones Clave para Cumplir con la Ley de IA de la UE antes de Agosto de 2025

Acta de IA de la UE: Consideraciones Clave para el Cumplimiento Antes de Agosto de 2025

La Comisión Europea ha dejado claro que el calendario para implementar la Ley de Inteligencia Artificial (Acta de IA de la UE) se mantiene sin cambios. No hay planes para períodos de transición o aplazamientos. Las primeras regulaciones han estado vigentes desde el 2 de febrero de 2025, mientras que otras obligaciones clave entrarán en vigor el 2 de agosto de 2025. Las violaciones de la Acta de IA pueden ser sancionadas con multas significativas, que pueden alcanzar hasta 35 millones de euros o el 7% de la facturación anual global.

La Acta de IA marca el primer marco legal integral en el mundo para el uso y desarrollo de la IA. Sigue un enfoque basado en riesgos, que vincula los requisitos regulatorios al riesgo específico que representa un sistema de IA. La implementación puede plantear desafíos estructurales, técnicos y de gobernanza para las empresas, especialmente en el área de la IA de propósito general (GPAI).

Requisitos Clave y Obligaciones de Cumplimiento Bajo la Acta de IA de la UE

La Acta de IA se centra en prácticas de IA consideradas de alto riesgo y prohibidas. Algunas aplicaciones han sido expresamente prohibidas desde el 2 de febrero de 2025, incluyendo:

  • Categorización biométrica basada en características sensibles;
  • Sistemas de reconocimiento emocional en el lugar de trabajo;
  • Sistemas manipulativos que influyen en el comportamiento humano sin ser notados;
  • Puntuación social.

Estas prohibiciones se aplican de manera comprehensiva tanto al desarrollo como al simple uso de tales sistemas.

El 2 de agosto de 2025, también entrarán en vigor requisitos de diligencia debida, transparencia y documentación para varios actores a lo largo de la cadena de valor de la IA.

Impacto en Empresas y Partes Interesadas

Proveedores de IA de Propósito General (GPAI)

Los proveedores de modelos de GPAI, como modelos de lenguaje grande o multimodales, estarán sujetos a un régimen regulatorio específico a partir de agosto de 2025. Tendrán la obligación de mantener documentación técnica que haga trazable el desarrollo, entrenamiento y evaluación del modelo. Además, deben preparar informes de transparencia que describan las capacidades, limitaciones, riesgos potenciales y directrices para los integradores.

GPAIs con Riesgo Sistémico

Se aplican obligaciones extendidas a modelos de GPAI particularmente poderosos que se clasifican como “sistémicos”. La clasificación se basa en criterios técnicos como potencia de cálculo, alcance o impacto potencial. Los proveedores de tales modelos deben informar del sistema a la Comisión Europea, someterse a procedimientos de evaluación y pruebas estructuradas, y documentar permanentemente los incidentes de seguridad.

Proveedores y Modificadores Descendentes

Las empresas que modifiquen sustancialmente los modelos de GPAI existentes se convertirán en proveedores a efectos regulatorios. Una modificación se considera sustancial si el modelo de GPAI existente se cambia de tal manera que la funcionalidad, rendimiento o riesgos del modelo cambian significativamente. Esto significa que todas las obligaciones que se aplican a los desarrolladores originales de GPAI también se aplican a los modelos modificados.

Usuarios de Sistemas de IA

Las empresas que simplemente utilizan sistemas de IA, especialmente en aplicaciones con riesgos potencialmente altos, como en reclutamiento, medicina o infraestructura crítica, también deben mantener un inventario completo de los sistemas que utilizan. Además, deben asegurarse de que no se utilicen aplicaciones prohibidas. A partir de agosto de 2026, se aplicarán obligaciones adicionales a los sistemas de IA de alto riesgo.

Requisitos Técnicos y Organizativos

La implementación de la Acta de IA requiere no solo medidas legales, sino también estructurales. Las empresas deben considerar lo siguiente para mejorar el cumplimiento:

  • Establecimiento de un inventario completo de IA con clasificación de riesgos;
  • Aclarar el rol de la empresa (proveedor, modificador o desplegador);
  • Preparar la documentación técnica y de transparencia necesaria;
  • Implementar requisitos de protección de datos y derechos de autor;
  • Capacitar y verificar la competencia en IA entre los empleados;
  • Adaptar las estructuras de gobernanza interna.

Preparación Temprana para el Cumplimiento y Mitigación de Riesgos

El 2 de agosto de 2025 es una fecha límite vinculante. Realizar un inventario, aclarar roles y evaluar sistemas puede ayudar a crear una base sólida para la certeza regulatoria. Los proveedores y modificadores de GPAI, en particular, deben prepararse para un mayor nivel de responsabilidad.

La acción temprana puede mitigar riesgos legales y financieros, así como subrayar la responsabilidad y la viabilidad futura en el manejo de la inteligencia artificial.

More Insights

Sistema de Gestión de Riesgos en la Ley de IA de la UE

La Ley de Inteligencia Artificial (IA) de la Unión Europea establece un marco de regulación para los sistemas de IA de alto riesgo, destacando la importancia de un Sistema de Gestión de Riesgos. Este...

Riesgos Ocultos de los Agentes de IA en la Gobernanza

La gobernanza específica para la inteligencia artificial es necesaria para garantizar que las herramientas se implementen de manera responsable y generen valor sostenible. Las empresas deben ser...

Consideraciones Clave para Cumplir con la Ley de IA de la UE antes de Agosto de 2025

El Acta de Inteligencia Artificial de la Unión Europea establece un marco legal integral para el uso y desarrollo de la inteligencia artificial, vinculando los requisitos regulatorios al riesgo...

Gobernanza de la IA: Desafíos y Oportunidades

Estamos firmemente inmersos en la era de las máquinas inteligentes, donde la inteligencia artificial (IA) ha pasado de ser una simple herramienta a un disruptor estratégico. A medida que la IA se...

Texas Establece un Nuevo Modelo de Regulación de IA

El gobernador de Texas, Greg Abbott, firmó el mes pasado la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas (TRAIGA), convirtiéndose en el segundo estado en adoptar una ley integral...

Falta de financiamiento para la regulación de IA en organismos públicos

No se han asignado fondos adicionales hasta ahora a los nueve organismos públicos que recibirán poderes adicionales para hacer cumplir la Ley de IA de la UE. Sin recursos adicionales, los organismos...