Nouvelles directives douces pour les géants de l’IA en Europe

A compass

Acte sur l’IA de l’UE : Le dernier projet de code pour les créateurs de modèles d’IA s’oriente vers des directives plus douces pour les grandes entreprises d’IA

À l’approche d’une échéance en mai pour finaliser les directives destinées aux fournisseurs de modèles d’IA à usage général (GPAI) concernant la conformité aux dispositions de l’Acte sur l’IA de l’UE, un troisième projet du code de pratique a été publié récemment. Ce code, en développement depuis l’année dernière, devrait être la dernière version.

Un site web a également été lancé pour améliorer l’accessibilité du code. Les retours écrits sur le dernier projet doivent être soumis d’ici le 30 mars 2025.

Règlementation basée sur les risques

Le règlement basé sur les risques de l’UE pour l’IA comprend un sous-ensemble d’obligations qui s’appliquent uniquement aux créateurs de modèles d’IA les plus puissants, couvrant des domaines tels que la transparence, le droit d’auteur et l’atténuation des risques. Le code vise à aider les créateurs de modèles GPAI à comprendre comment respecter les obligations légales et à éviter le risque de sanctions en cas de non-conformité. Les pénalités prévues par l’Acte sur l’IA pour les violations des exigences GPAI pourraient atteindre jusqu’à 3% du chiffre d’affaires annuel mondial.

Une structure simplifiée

La dernière révision du code est présentée comme ayant une structure plus simplifiée avec des engagements et des mesures affinés par rapport aux itérations précédentes, basées sur les retours concernant le deuxième projet publié en décembre.

De nouveaux retours, discussions en groupe de travail et ateliers alimenteront le processus de transformation du troisième projet en directives finales. Les experts espèrent obtenir une plus grande clarté et cohérence dans la version finale adoptée du code.

Engagements et obligations

Le projet est divisé en plusieurs sections traitant des engagements pour les GPAI, ainsi que des directives détaillées concernant les mesures de transparence et de droit d’auteur. Il existe également une section sur les obligations de sécurité qui s’appliquent aux modèles les plus puissants.

Concernant la transparence, les directives comprennent un exemple de formulaire de documentation que les GPAI pourraient être tenus de remplir afin d’assurer que les déployeurs en aval de leur technologie aient accès aux informations clés pour aider à leur propre conformité.

Défis en matière de droit d’auteur

La section sur le droit d’auteur demeure probablement le domaine le plus controversé pour les grandes entreprises d’IA. Le projet actuel est rempli de termes tels que « meilleurs efforts », « mesures raisonnables » et « mesures appropriées » en ce qui concerne le respect des exigences de droits lors de l’exploration du web pour acquérir des données pour l’entraînement des modèles, ou l’atténuation du risque que les modèles produisent des résultats enfreignant le droit d’auteur.

L’utilisation d’un tel langage suggère que les géants de l’IA, qui exploitent des données, pourraient estimer avoir suffisamment de marge de manœuvre pour continuer à saisir des informations protégées pour entraîner leurs modèles et « demander pardon plus tard ». Cependant, il reste à voir si ce langage sera renforcé dans le projet final du code.

Exigences de sécurité et de sûreté

Les exigences de l’Acte sur l’IA de l’UE pour évaluer et atténuer les risques systémiques ne s’appliquent déjà qu’à un sous-ensemble des modèles les plus puissants, mais cette dernière version voit certaines mesures recommandées précédemment étroitement réduites en réponse aux retours.

Pression des États-Unis

Dans le communiqué de presse de l’UE concernant le dernier projet, il n’est pas fait mention des critiques virulentes sur la législation européenne en général, et des règles de l’UE pour l’IA en particulier, émanant de l’administration américaine. Lors du sommet AI Action à Paris le mois dernier, le vice-président américain a rejeté la nécessité de réglementer pour garantir que l’IA soit appliquée en toute sécurité, affirmant que l’administration Trump se pencherait plutôt sur l’opportunité de l’IA.

Depuis lors, le bloc a décidé d’abandonner une initiative de sécurité de l’IA, mettant le directive sur la responsabilité de l’IA sur la sellette. Les législateurs de l’UE ont également annoncé un paquet de simplifications des règles existantes destinées à réduire la paperasse et la bureaucratie pour les entreprises.

Alors que cet acte GPAI est élaboré par des experts indépendants, la Commission européenne, via le bureau de l’IA, produit en parallèle des directives de clarification qui façonneront également l’application de la loi.

Il est donc essentiel de rester à l’affût des prochaines directives, qui « clarifieront le champ d’application des règles » et pourraient offrir une voie pour que les législateurs, en perte de nerfs, réagissent au lobbying américain en faveur de la déréglementation de l’IA.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...