La UE aclara el alcance de la Ley de IA para la inteligencia artificial general

La UE se mueve para aclarar el alcance de la Ley de IA para IA general

Los responsables políticos de la Unión Europea están considerando establecer medidas umbral de recursos computacionales para ayudar a las empresas a determinar si los modelos de IA que entrenan o modifican están sujetos a requisitos regulatorios bajo la Ley de IA.

Estos umbrales fueron establecidos por la Oficina de IA de la UE en un documento de trabajo que describe el pensamiento actual, aunque no final ni vinculante, sobre los asuntos relevantes para el alcance de las reglas aplicables a los modelos de IA de propósito general (GPAI) bajo la Ley de IA.

Consulta y retroalimentación

Las propuestas están sujetas a una encuesta que ha abierto la Comisión Europea, a través de la cual busca las opiniones de la industria y otros interesados. Se espera que la retroalimentación ayude a dar forma a nuevas pautas que aclaren el alcance del régimen de GPAI, que entrará en vigor el 2 de agosto de 2025.

El régimen de la Ley de IA para los modelos de GPAI es distinto de otros requisitos de la Ley aplicables a sistemas de IA; los modelos de IA son considerados componentes de sistemas de IA para los fines de la Ley.

Obligaciones para proveedores de GPAI

Los proveedores de modelos de GPAI enfrentan una variedad de obligaciones de documentación y divulgación, desde documentar el proceso de entrenamiento y prueba del modelo, compartir información para ayudar a los proveedores de sistemas de IA a integrar sus sistemas con el modelo, hasta elaborar una política de derechos de autor conforme a la ley de la UE, y publicar un resumen suficientemente detallado sobre el contenido utilizado para el entrenamiento del modelo.

Los modelos de GPAI ‘con riesgo sistémico’ enfrentan obligaciones adicionales, incluyendo la evaluación del modelo, pruebas y mitigación de riesgos, así como la información de incidentes y la ciberseguridad.

Código de práctica GPAI

La Comisión se encuentra en las etapas finales de desarrollo de un código de práctica GPAI para detallar aún más los diversos requisitos que los proveedores de GPAI deben cumplir bajo la Ley de IA. Se esperaba que el código finalizado se publicara el 2 de mayo, sin embargo, un informe sugiere que habrá un retraso en la publicación.

El cumplimiento del código no será obligatorio para los proveedores de GPAI, pero aquellos que se adhieran al código «serán transparentes en su cumplimiento con la Ley de IA y, por lo tanto, se beneficiarán de una mayor confianza por parte de la Comisión y otros interesados».

Definición de GPAI

La Ley de IA define GPAI como un modelo de IA que muestra una generación significativa y es capaz de realizar de manera competente una amplia gama de tareas distintas, independientemente de cómo se coloque el modelo en el mercado y que puede integrarse en una variedad de sistemas o aplicaciones posteriores.

Los modelos de IA que se utilizan para actividades de investigación, desarrollo o prototipado antes de ser colocados en el mercado quedan fuera del alcance de lo que se define como GPAI.

Umbrales y su implicación

Si se adoptan las propuestas de la Oficina de IA, los modelos de IA que pueden generar texto o imágenes se presumirán como modelos de GPAI, para los fines de la Ley de IA, si su entrenamiento computacional es superior a 10^22 operaciones de punto flotante (FLOP). FLOP es una medida de potencia computacional.

Otros modelos de IA también podrían considerarse GPAI bajo la Ley si esos modelos «tienen un nivel de generalidad y capacidades comparable» a los modelos generadores de texto y/o imagen.

Modificaciones y requisitos adicionales

Las empresas que implementen modelos en sus propios sistemas de IA se considerarán proveedores de GPAI. En este sentido, se presume que las empresas que modifiquen o «ajusten» modelos de GPAI que ya se han colocado en el mercado serán responsables de cumplir con las obligaciones relacionadas con las modificaciones que realicen.

Las presunciones de que los modelos que cumplen con los umbrales caen dentro del alcance de los requisitos relevantes bajo el régimen de GPAI serían rebatibles, lo que permite a las empresas presentar argumentos sobre por qué sus modelos deberían estar exentos.

Críticas y consideraciones futuras

Sin embargo, el uso de FLOP como métrica para distinguir las obligaciones regulatorias bajo la Ley de IA ha sido criticado. La Oficina de IA ha declarado que «el entrenamiento de computación es un proxy imperfecto para la generalidad y capacidades».

Las pautas propuestas incluyen la consideración de una exención relacionada con datos para modelos de IA accesibles bajo una licencia de código abierto. Estas exenciones no se aplicarían si los proveedores de esos modelos recopilan datos personales «del uso del modelo o los servicios acompañantes».

Por lo tanto, el desarrollo de un marco regulatorio claro y comprensible es crucial para el futuro de la IA en la UE, ya que las empresas deben adaptarse a un entorno en evolución que exige transparencia y cumplimiento.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...