La UE se mueve para aclarar el alcance de la Ley de IA para IA general
Los responsables políticos de la Unión Europea están considerando establecer medidas umbral de recursos computacionales para ayudar a las empresas a determinar si los modelos de IA que entrenan o modifican están sujetos a requisitos regulatorios bajo la Ley de IA.
Estos umbrales fueron establecidos por la Oficina de IA de la UE en un documento de trabajo que describe el pensamiento actual, aunque no final ni vinculante, sobre los asuntos relevantes para el alcance de las reglas aplicables a los modelos de IA de propósito general (GPAI) bajo la Ley de IA.
Consulta y retroalimentación
Las propuestas están sujetas a una encuesta que ha abierto la Comisión Europea, a través de la cual busca las opiniones de la industria y otros interesados. Se espera que la retroalimentación ayude a dar forma a nuevas pautas que aclaren el alcance del régimen de GPAI, que entrará en vigor el 2 de agosto de 2025.
El régimen de la Ley de IA para los modelos de GPAI es distinto de otros requisitos de la Ley aplicables a sistemas de IA; los modelos de IA son considerados componentes de sistemas de IA para los fines de la Ley.
Obligaciones para proveedores de GPAI
Los proveedores de modelos de GPAI enfrentan una variedad de obligaciones de documentación y divulgación, desde documentar el proceso de entrenamiento y prueba del modelo, compartir información para ayudar a los proveedores de sistemas de IA a integrar sus sistemas con el modelo, hasta elaborar una política de derechos de autor conforme a la ley de la UE, y publicar un resumen suficientemente detallado sobre el contenido utilizado para el entrenamiento del modelo.
Los modelos de GPAI ‘con riesgo sistémico’ enfrentan obligaciones adicionales, incluyendo la evaluación del modelo, pruebas y mitigación de riesgos, así como la información de incidentes y la ciberseguridad.
Código de práctica GPAI
La Comisión se encuentra en las etapas finales de desarrollo de un código de práctica GPAI para detallar aún más los diversos requisitos que los proveedores de GPAI deben cumplir bajo la Ley de IA. Se esperaba que el código finalizado se publicara el 2 de mayo, sin embargo, un informe sugiere que habrá un retraso en la publicación.
El cumplimiento del código no será obligatorio para los proveedores de GPAI, pero aquellos que se adhieran al código «serán transparentes en su cumplimiento con la Ley de IA y, por lo tanto, se beneficiarán de una mayor confianza por parte de la Comisión y otros interesados».
Definición de GPAI
La Ley de IA define GPAI como un modelo de IA que muestra una generación significativa y es capaz de realizar de manera competente una amplia gama de tareas distintas, independientemente de cómo se coloque el modelo en el mercado y que puede integrarse en una variedad de sistemas o aplicaciones posteriores.
Los modelos de IA que se utilizan para actividades de investigación, desarrollo o prototipado antes de ser colocados en el mercado quedan fuera del alcance de lo que se define como GPAI.
Umbrales y su implicación
Si se adoptan las propuestas de la Oficina de IA, los modelos de IA que pueden generar texto o imágenes se presumirán como modelos de GPAI, para los fines de la Ley de IA, si su entrenamiento computacional es superior a 10^22 operaciones de punto flotante (FLOP). FLOP es una medida de potencia computacional.
Otros modelos de IA también podrían considerarse GPAI bajo la Ley si esos modelos «tienen un nivel de generalidad y capacidades comparable» a los modelos generadores de texto y/o imagen.
Modificaciones y requisitos adicionales
Las empresas que implementen modelos en sus propios sistemas de IA se considerarán proveedores de GPAI. En este sentido, se presume que las empresas que modifiquen o «ajusten» modelos de GPAI que ya se han colocado en el mercado serán responsables de cumplir con las obligaciones relacionadas con las modificaciones que realicen.
Las presunciones de que los modelos que cumplen con los umbrales caen dentro del alcance de los requisitos relevantes bajo el régimen de GPAI serían rebatibles, lo que permite a las empresas presentar argumentos sobre por qué sus modelos deberían estar exentos.
Críticas y consideraciones futuras
Sin embargo, el uso de FLOP como métrica para distinguir las obligaciones regulatorias bajo la Ley de IA ha sido criticado. La Oficina de IA ha declarado que «el entrenamiento de computación es un proxy imperfecto para la generalidad y capacidades».
Las pautas propuestas incluyen la consideración de una exención relacionada con datos para modelos de IA accesibles bajo una licencia de código abierto. Estas exenciones no se aplicarían si los proveedores de esos modelos recopilan datos personales «del uso del modelo o los servicios acompañantes».
Por lo tanto, el desarrollo de un marco regulatorio claro y comprensible es crucial para el futuro de la IA en la UE, ya que las empresas deben adaptarse a un entorno en evolución que exige transparencia y cumplimiento.