La UE aclara el alcance de la Ley de IA para la inteligencia artificial general

La UE se mueve para aclarar el alcance de la Ley de IA para IA general

Los responsables políticos de la Unión Europea están considerando establecer medidas umbral de recursos computacionales para ayudar a las empresas a determinar si los modelos de IA que entrenan o modifican están sujetos a requisitos regulatorios bajo la Ley de IA.

Estos umbrales fueron establecidos por la Oficina de IA de la UE en un documento de trabajo que describe el pensamiento actual, aunque no final ni vinculante, sobre los asuntos relevantes para el alcance de las reglas aplicables a los modelos de IA de propósito general (GPAI) bajo la Ley de IA.

Consulta y retroalimentación

Las propuestas están sujetas a una encuesta que ha abierto la Comisión Europea, a través de la cual busca las opiniones de la industria y otros interesados. Se espera que la retroalimentación ayude a dar forma a nuevas pautas que aclaren el alcance del régimen de GPAI, que entrará en vigor el 2 de agosto de 2025.

El régimen de la Ley de IA para los modelos de GPAI es distinto de otros requisitos de la Ley aplicables a sistemas de IA; los modelos de IA son considerados componentes de sistemas de IA para los fines de la Ley.

Obligaciones para proveedores de GPAI

Los proveedores de modelos de GPAI enfrentan una variedad de obligaciones de documentación y divulgación, desde documentar el proceso de entrenamiento y prueba del modelo, compartir información para ayudar a los proveedores de sistemas de IA a integrar sus sistemas con el modelo, hasta elaborar una política de derechos de autor conforme a la ley de la UE, y publicar un resumen suficientemente detallado sobre el contenido utilizado para el entrenamiento del modelo.

Los modelos de GPAI ‘con riesgo sistémico’ enfrentan obligaciones adicionales, incluyendo la evaluación del modelo, pruebas y mitigación de riesgos, así como la información de incidentes y la ciberseguridad.

Código de práctica GPAI

La Comisión se encuentra en las etapas finales de desarrollo de un código de práctica GPAI para detallar aún más los diversos requisitos que los proveedores de GPAI deben cumplir bajo la Ley de IA. Se esperaba que el código finalizado se publicara el 2 de mayo, sin embargo, un informe sugiere que habrá un retraso en la publicación.

El cumplimiento del código no será obligatorio para los proveedores de GPAI, pero aquellos que se adhieran al código «serán transparentes en su cumplimiento con la Ley de IA y, por lo tanto, se beneficiarán de una mayor confianza por parte de la Comisión y otros interesados».

Definición de GPAI

La Ley de IA define GPAI como un modelo de IA que muestra una generación significativa y es capaz de realizar de manera competente una amplia gama de tareas distintas, independientemente de cómo se coloque el modelo en el mercado y que puede integrarse en una variedad de sistemas o aplicaciones posteriores.

Los modelos de IA que se utilizan para actividades de investigación, desarrollo o prototipado antes de ser colocados en el mercado quedan fuera del alcance de lo que se define como GPAI.

Umbrales y su implicación

Si se adoptan las propuestas de la Oficina de IA, los modelos de IA que pueden generar texto o imágenes se presumirán como modelos de GPAI, para los fines de la Ley de IA, si su entrenamiento computacional es superior a 10^22 operaciones de punto flotante (FLOP). FLOP es una medida de potencia computacional.

Otros modelos de IA también podrían considerarse GPAI bajo la Ley si esos modelos «tienen un nivel de generalidad y capacidades comparable» a los modelos generadores de texto y/o imagen.

Modificaciones y requisitos adicionales

Las empresas que implementen modelos en sus propios sistemas de IA se considerarán proveedores de GPAI. En este sentido, se presume que las empresas que modifiquen o «ajusten» modelos de GPAI que ya se han colocado en el mercado serán responsables de cumplir con las obligaciones relacionadas con las modificaciones que realicen.

Las presunciones de que los modelos que cumplen con los umbrales caen dentro del alcance de los requisitos relevantes bajo el régimen de GPAI serían rebatibles, lo que permite a las empresas presentar argumentos sobre por qué sus modelos deberían estar exentos.

Críticas y consideraciones futuras

Sin embargo, el uso de FLOP como métrica para distinguir las obligaciones regulatorias bajo la Ley de IA ha sido criticado. La Oficina de IA ha declarado que «el entrenamiento de computación es un proxy imperfecto para la generalidad y capacidades».

Las pautas propuestas incluyen la consideración de una exención relacionada con datos para modelos de IA accesibles bajo una licencia de código abierto. Estas exenciones no se aplicarían si los proveedores de esos modelos recopilan datos personales «del uso del modelo o los servicios acompañantes».

Por lo tanto, el desarrollo de un marco regulatorio claro y comprensible es crucial para el futuro de la IA en la UE, ya que las empresas deben adaptarse a un entorno en evolución que exige transparencia y cumplimiento.

More Insights

Control y cumplimiento en la era de la IA soberana en manufactura

Los nubes de IA soberanas proporcionan tanto control como cumplimiento, abordando las crecientes preocupaciones en torno a la residencia de datos y el riesgo regulatorio. En un mundo donde la adopción...

Ética en la Inteligencia Artificial: Avances de la Alianza Escocesa

La Alianza Escocesa de IA ha publicado su Informe de Impacto 2024/2025, destacando un año transformador en la promoción de una inteligencia artificial ética e inclusiva en Escocia. El informe revela...

El futuro del cumplimiento con la Ley de IA de la UE

La Comisión Europea anunció el viernes pasado que no habrá un retraso en la Ley de IA de la UE, lo que ha provocado reacciones encontradas. Aunque algunas partes de la Ley ya están en vigor, los...

Modelos de Lenguaje y la Confianza: Un Análisis del Acta de IA de la UE

Este estudio sistemático examina la confianza en los modelos de lenguaje grande (LLMs) a la luz de la Ley de IA de la UE, destacando su desarrollo y adopción en diversos sectores. A pesar de sus...

¿Debería pausar la implementación de la Ley de IA de la UE?

La Comisión Europea ha rechazado las solicitudes de algunas empresas para retrasar la implementación de la Ley de IA, manteniendo el cronograma original de la legislación. Además, el primer ministro...

Controles más estrictos de IA: Ganadores y perdedores en el sector tecnológico

La administración de Trump está preparando nuevas restricciones a las exportaciones de chips de IA a Malasia y Tailandia para evitar que procesadores avanzados lleguen a China. Se prevé que estas...

Gobernanza de IA y Datos: Clave para Empresas Modernas

La gobernanza de la inteligencia artificial y la gobernanza de datos son fundamentales para garantizar el desarrollo de soluciones de IA éticas y de alta calidad. Estos marcos de gobernanza son...

Potenciando la IA Responsable: LLMOps con Python

En el panorama hipercompetitivo actual, no es suficiente con desplegar Modelos de Lenguaje Grande (LLMs); es necesario contar con un marco robusto de LLMOps para garantizar la fiabilidad y el...

Fortaleciendo la Protección de Datos y la Gobernanza de la IA en Singapur

Singapur está respondiendo proactivamente a los desafíos que plantea el uso de datos en la era de la inteligencia artificial, según la ministra de Comunicaciones e Información, Josephine Teo. La...