Clarification de la portée de la loi sur l’IA de l’UE pour l’IA générative

A robot

Les nouvelles avancées de l’UE sur la portée de la Loi sur l’IA pour les modèles d’IA générale

Les décideurs européens envisagent de mettre en place des mesures de seuil concernant les ressources computationnelles afin d’aider les entreprises à déterminer si, et dans quelle mesure, les modèles d’IA qu’elles forment ou modifient sont soumis aux exigences réglementaires de la Loi sur l’IA de l’UE.

Propositions et consultation

Ces seuils ont été présentés par le Bureau de l’IA de l’UE dans un document de travail qui esquisse des réflexions actuelles, mais pas définitives, concernant la portée des règles applicables aux modèles d’IA de « grande généralité » (GPAI) en vertu de la Loi sur l’IA.

Les propositions font l’objet d’une enquête ouverte par la Commission européenne, qui cherche les avis de l’industrie et d’autres parties prenantes. Les retours attendus devraient contribuer à façonner de nouvelles lignes directrices visant à clarifier la portée du régime GPAI, qui devrait entrer en vigueur le 2 août 2025.

Obligations des fournisseurs de modèles GPAI

Les fournisseurs de modèles GPAI sont confrontés à une série d’obligations de tenue de dossiers et de divulgation, allant de la documentation du processus de formation et de test des modèles à la publication d’un résumé détaillé concernant le contenu utilisé pour l’entraînement du modèle.

Les modèles GPAI présentant un risque systémique sont soumis à des obligations supplémentaires, notamment en matière d’évaluation, de test et d’atténuation des risques, ainsi que de déclaration d’incidents et de cybersécurité.

Code de pratique GPAI

La Commission est en phase finale de développement d’un code de pratique GPAI qui détaillera les diverses exigences que les fournisseurs de GPAI devront respecter en vertu de la Loi sur l’IA. Bien que l’adhésion au code ne soit pas obligatoire, le Bureau de l’IA a indiqué que les signataires bénéficieront d’une transparence accrue en matière de conformité à la Loi sur l’IA.

Débats autour des seuils de FLOP

Le document de travail indique que les modèles d’IA capables de générer du texte ou des images seraient présumés être des modèles GPAI si leur capacité d’entraînement dépasse 1022 opérations à virgule flottante (FLOP). Cependant, ce seuil est controversé, car le Bureau de l’IA lui-même a déclaré que l’utilisation de la capacité d’entraînement comme mesure est un proxy imparfait pour la généralité et les capacités des modèles.

Les modèles qui ne sont pas utilisés pour des activités de recherche, de développement ou de prototypage avant d’être mis sur le marché sortent du champ d’application de la définition des GPAI.

Perspectives et implications

Cette initiative vise à rectifier l’absence de métriques de FLOP dans la Loi sur l’IA pour déterminer ce qui constitue un modèle GPAI à l’origine. Les entreprises auront la possibilité de présenter des arguments pour justifier pourquoi leurs modèles devraient être exemptés des exigences réglementaires.

Dans un contexte où des modifications importantes des modèles d’IA sont à prévoir, les implications de cette législation seront essentielles pour guider les entreprises dans un paysage réglementaire en constante évolution.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...