La UE aclara el alcance de la Ley de IA para la inteligencia artificial general

La UE se mueve para aclarar el alcance de la Ley de IA para IA general

Los responsables políticos de la Unión Europea están considerando establecer medidas umbral de recursos computacionales para ayudar a las empresas a determinar si los modelos de IA que entrenan o modifican están sujetos a requisitos regulatorios bajo la Ley de IA.

Estos umbrales fueron establecidos por la Oficina de IA de la UE en un documento de trabajo que describe el pensamiento actual, aunque no final ni vinculante, sobre los asuntos relevantes para el alcance de las reglas aplicables a los modelos de IA de propósito general (GPAI) bajo la Ley de IA.

Consulta y retroalimentación

Las propuestas están sujetas a una encuesta que ha abierto la Comisión Europea, a través de la cual busca las opiniones de la industria y otros interesados. Se espera que la retroalimentación ayude a dar forma a nuevas pautas que aclaren el alcance del régimen de GPAI, que entrará en vigor el 2 de agosto de 2025.

El régimen de la Ley de IA para los modelos de GPAI es distinto de otros requisitos de la Ley aplicables a sistemas de IA; los modelos de IA son considerados componentes de sistemas de IA para los fines de la Ley.

Obligaciones para proveedores de GPAI

Los proveedores de modelos de GPAI enfrentan una variedad de obligaciones de documentación y divulgación, desde documentar el proceso de entrenamiento y prueba del modelo, compartir información para ayudar a los proveedores de sistemas de IA a integrar sus sistemas con el modelo, hasta elaborar una política de derechos de autor conforme a la ley de la UE, y publicar un resumen suficientemente detallado sobre el contenido utilizado para el entrenamiento del modelo.

Los modelos de GPAI ‘con riesgo sistémico’ enfrentan obligaciones adicionales, incluyendo la evaluación del modelo, pruebas y mitigación de riesgos, así como la información de incidentes y la ciberseguridad.

Código de práctica GPAI

La Comisión se encuentra en las etapas finales de desarrollo de un código de práctica GPAI para detallar aún más los diversos requisitos que los proveedores de GPAI deben cumplir bajo la Ley de IA. Se esperaba que el código finalizado se publicara el 2 de mayo, sin embargo, un informe sugiere que habrá un retraso en la publicación.

El cumplimiento del código no será obligatorio para los proveedores de GPAI, pero aquellos que se adhieran al código «serán transparentes en su cumplimiento con la Ley de IA y, por lo tanto, se beneficiarán de una mayor confianza por parte de la Comisión y otros interesados».

Definición de GPAI

La Ley de IA define GPAI como un modelo de IA que muestra una generación significativa y es capaz de realizar de manera competente una amplia gama de tareas distintas, independientemente de cómo se coloque el modelo en el mercado y que puede integrarse en una variedad de sistemas o aplicaciones posteriores.

Los modelos de IA que se utilizan para actividades de investigación, desarrollo o prototipado antes de ser colocados en el mercado quedan fuera del alcance de lo que se define como GPAI.

Umbrales y su implicación

Si se adoptan las propuestas de la Oficina de IA, los modelos de IA que pueden generar texto o imágenes se presumirán como modelos de GPAI, para los fines de la Ley de IA, si su entrenamiento computacional es superior a 10^22 operaciones de punto flotante (FLOP). FLOP es una medida de potencia computacional.

Otros modelos de IA también podrían considerarse GPAI bajo la Ley si esos modelos «tienen un nivel de generalidad y capacidades comparable» a los modelos generadores de texto y/o imagen.

Modificaciones y requisitos adicionales

Las empresas que implementen modelos en sus propios sistemas de IA se considerarán proveedores de GPAI. En este sentido, se presume que las empresas que modifiquen o «ajusten» modelos de GPAI que ya se han colocado en el mercado serán responsables de cumplir con las obligaciones relacionadas con las modificaciones que realicen.

Las presunciones de que los modelos que cumplen con los umbrales caen dentro del alcance de los requisitos relevantes bajo el régimen de GPAI serían rebatibles, lo que permite a las empresas presentar argumentos sobre por qué sus modelos deberían estar exentos.

Críticas y consideraciones futuras

Sin embargo, el uso de FLOP como métrica para distinguir las obligaciones regulatorias bajo la Ley de IA ha sido criticado. La Oficina de IA ha declarado que «el entrenamiento de computación es un proxy imperfecto para la generalidad y capacidades».

Las pautas propuestas incluyen la consideración de una exención relacionada con datos para modelos de IA accesibles bajo una licencia de código abierto. Estas exenciones no se aplicarían si los proveedores de esos modelos recopilan datos personales «del uso del modelo o los servicios acompañantes».

Por lo tanto, el desarrollo de un marco regulatorio claro y comprensible es crucial para el futuro de la IA en la UE, ya que las empresas deben adaptarse a un entorno en evolución que exige transparencia y cumplimiento.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...