Nouvelles directives douces pour les géants de l’IA en Europe

A compass

Acte sur l’IA de l’UE : Le dernier projet de code pour les créateurs de modèles d’IA s’oriente vers des directives plus douces pour les grandes entreprises d’IA

À l’approche d’une échéance en mai pour finaliser les directives destinées aux fournisseurs de modèles d’IA à usage général (GPAI) concernant la conformité aux dispositions de l’Acte sur l’IA de l’UE, un troisième projet du code de pratique a été publié récemment. Ce code, en développement depuis l’année dernière, devrait être la dernière version.

Un site web a également été lancé pour améliorer l’accessibilité du code. Les retours écrits sur le dernier projet doivent être soumis d’ici le 30 mars 2025.

Règlementation basée sur les risques

Le règlement basé sur les risques de l’UE pour l’IA comprend un sous-ensemble d’obligations qui s’appliquent uniquement aux créateurs de modèles d’IA les plus puissants, couvrant des domaines tels que la transparence, le droit d’auteur et l’atténuation des risques. Le code vise à aider les créateurs de modèles GPAI à comprendre comment respecter les obligations légales et à éviter le risque de sanctions en cas de non-conformité. Les pénalités prévues par l’Acte sur l’IA pour les violations des exigences GPAI pourraient atteindre jusqu’à 3% du chiffre d’affaires annuel mondial.

Une structure simplifiée

La dernière révision du code est présentée comme ayant une structure plus simplifiée avec des engagements et des mesures affinés par rapport aux itérations précédentes, basées sur les retours concernant le deuxième projet publié en décembre.

De nouveaux retours, discussions en groupe de travail et ateliers alimenteront le processus de transformation du troisième projet en directives finales. Les experts espèrent obtenir une plus grande clarté et cohérence dans la version finale adoptée du code.

Engagements et obligations

Le projet est divisé en plusieurs sections traitant des engagements pour les GPAI, ainsi que des directives détaillées concernant les mesures de transparence et de droit d’auteur. Il existe également une section sur les obligations de sécurité qui s’appliquent aux modèles les plus puissants.

Concernant la transparence, les directives comprennent un exemple de formulaire de documentation que les GPAI pourraient être tenus de remplir afin d’assurer que les déployeurs en aval de leur technologie aient accès aux informations clés pour aider à leur propre conformité.

Défis en matière de droit d’auteur

La section sur le droit d’auteur demeure probablement le domaine le plus controversé pour les grandes entreprises d’IA. Le projet actuel est rempli de termes tels que « meilleurs efforts », « mesures raisonnables » et « mesures appropriées » en ce qui concerne le respect des exigences de droits lors de l’exploration du web pour acquérir des données pour l’entraînement des modèles, ou l’atténuation du risque que les modèles produisent des résultats enfreignant le droit d’auteur.

L’utilisation d’un tel langage suggère que les géants de l’IA, qui exploitent des données, pourraient estimer avoir suffisamment de marge de manœuvre pour continuer à saisir des informations protégées pour entraîner leurs modèles et « demander pardon plus tard ». Cependant, il reste à voir si ce langage sera renforcé dans le projet final du code.

Exigences de sécurité et de sûreté

Les exigences de l’Acte sur l’IA de l’UE pour évaluer et atténuer les risques systémiques ne s’appliquent déjà qu’à un sous-ensemble des modèles les plus puissants, mais cette dernière version voit certaines mesures recommandées précédemment étroitement réduites en réponse aux retours.

Pression des États-Unis

Dans le communiqué de presse de l’UE concernant le dernier projet, il n’est pas fait mention des critiques virulentes sur la législation européenne en général, et des règles de l’UE pour l’IA en particulier, émanant de l’administration américaine. Lors du sommet AI Action à Paris le mois dernier, le vice-président américain a rejeté la nécessité de réglementer pour garantir que l’IA soit appliquée en toute sécurité, affirmant que l’administration Trump se pencherait plutôt sur l’opportunité de l’IA.

Depuis lors, le bloc a décidé d’abandonner une initiative de sécurité de l’IA, mettant le directive sur la responsabilité de l’IA sur la sellette. Les législateurs de l’UE ont également annoncé un paquet de simplifications des règles existantes destinées à réduire la paperasse et la bureaucratie pour les entreprises.

Alors que cet acte GPAI est élaboré par des experts indépendants, la Commission européenne, via le bureau de l’IA, produit en parallèle des directives de clarification qui façonneront également l’application de la loi.

Il est donc essentiel de rester à l’affût des prochaines directives, qui « clarifieront le champ d’application des règles » et pourraient offrir une voie pour que les législateurs, en perte de nerfs, réagissent au lobbying américain en faveur de la déréglementation de l’IA.

Articles

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Révolutionner la gouvernance de l’IA dans la gestion des risques

L'intelligence artificielle et les technologies de l'IA sont essentielles au succès de la fonction de risque. Les directeurs des risques peuvent déployer l'IA pour répondre à la conformité et naviguer...

Le Sénat met fin au moratoire sur les lois sur l’IA

Le Sénat américain a voté à une écrasante majorité de 99 contre 1 pour supprimer une disposition qui aurait bloqué les États de réglementer l'intelligence artificielle pendant la prochaine décennie...

L’écart de conformité de 83 % des entreprises pharmaceutiques face à la sécurité des données IA

L'industrie pharmaceutique est confrontée à une menace sérieuse en matière de sécurité des données liées à l'intelligence artificielle, avec seulement 17 % des entreprises ayant mis en place des...

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Réveil Cybernétique : L’Impact de l’IA sur la Sécurité

Les organisations doivent prendre en compte que l'IA transforme rapidement le paysage des menaces en cybersécurité, tout en offrant des opportunités pour améliorer la détection et la réponse...

Vers une législation éclairée sur l’IA en Thaïlande

M. Sak déclare que la législation à venir vise à protéger les utilisateurs des risques potentiels liés à l'IA et à supprimer les obstacles juridiques que les lois existantes ne peuvent pas traiter. La...

Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

Le Texas a franchi une étape importante dans la réglementation de l'intelligence artificielle (IA) avec l'adoption de la Loi sur la gouvernance responsable de l'IA (TRAIGA), qui établit un cadre pour...

Révolutionner la gouvernance de l’IA pour un avenir responsable

Riskonnect a annoncé le lancement de sa nouvelle solution de gouvernance de l'IA, permettant aux organisations de gérer les risques et les obligations de conformité des technologies d'IA de manière...