Quand la régulation devient excessive : enjeux des modèles d’IA

A road sign

Lorsque l’Orientation Devient un Dépassement

À partir du 2 août 2025, les fournisseurs de modèles d’« Intelligence Artificielle à Usage Général » (GPAI) – tels que GPT, DALL-E, Gemini et Midjourney – devront faire face à des obligations considérables en vertu de la Loi sur l’IA de l’UE. L’émergence de ces modèles linguistiques (multimodaux) en fin d’année 2022 a poussé les législateurs européens à inclure rapidement des réglementations sur le GPAI dans la Loi sur l’IA.

Les fournisseurs de modèles GPAI doivent fournir une documentation technique, mettre en œuvre une politique de droits d’auteur, publier un résumé du contenu d’entraînement et, pour les modèles particulièrement puissants pouvant poser des risques systémiques, entreprendre des évaluations des risques et des mesures d’atténuation.

Pour démontrer leur conformité, la Loi sur l’IA permet aux fournisseurs de s’appuyer sur un « Code de Pratique », actuellement en cours d’élaboration par plus de 1000 parties prenantes sous l’égide du Bureau de l’IA, et devant être adopté par la Commission Européenne avant août 2025.

Co-régulation comme Stratégie Centrale de la Loi sur l’IA

La Loi sur l’IA repose sur le Nouveau Cadre Législatif (NLF), qui s’appuie sur la co-régulation : un dialogue structuré entre les régulateurs et l’industrie pour traduire les obligations juridiques générales en normes techniques. Au lieu de spécifier les détails techniques dans la législation, la Loi sur l’IA définit les exigences essentielles et laisse la tâche de concrétisation aux organisations de normalisation européennes CEN et CENELEC par l’intermédiaire de leur comité conjoint, JTC21.

Les normes harmonisées fournissent une sécurité juridique : une fois adoptées par la Commission, la conformité à ces normes crée une présomption de conformité avec la Loi sur l’IA. Bien que les entreprises puissent, en théorie, développer leurs propres solutions techniques, les difficultés administratives et les coûts supplémentaires impliqués les poussent généralement à suivre les normes.

Le Code de Pratique comme « Partie du Droit de l’UE »

Bien que des normes harmonisées soient envisagées pour les modèles GPAI, les efforts de normalisation dans ce domaine en sont encore à un stade précoce. Pour combler cette lacune, la Loi sur l’IA introduit un instrument intérimaire : le Code de Pratique. Une fois adopté par la Commission Européenne par le biais d’un acte d’exécution, la conformité au Code accordera une présomption de conformité en vertu des articles 53(4)(2) et 55(2)(2) de la Loi sur l’IA – semblable aux normes harmonisées.

En théorie, les fournisseurs peuvent choisir de ne pas s’appuyer sur le Code et de démontrer leur conformité par d’autres moyens. Cependant, en pratique, le Code façonnera probablement l’interprétation et l’application des obligations GPAI par la Commission.

Étant donné ses conséquences juridiques et pratiques, il ne fait aucun doute que la Cour de Justice de l’Union Européenne (CJUE) reconnaîtra également le Code comme « partie du droit de l’UE ». Par conséquent, le Code doit être élaboré en conformité avec l’état de droit (Art. 2 TUE) – tant sur le plan procédural que substantiel. Cependant, ce n’est actuellement pas le cas.

Un Processus Non Réglementé avec 1 000 Parties Prenantes

Alors que le développement des normes harmonisées est régi par le Règlement 1025/2012, la rédaction du Code de Pratique s’appuie uniquement sur l’article 56 de la Loi sur l’IA, qui autorise vaguement le Bureau de l’IA à inviter des parties prenantes.

Le résultat est un processus sans règles structurées, sans transparence, et sans garanties démocratiques. Initialement, le Bureau de l’IA prévoyait de rédiger le Code à huis clos. En réponse aux critiques, il a inversé la tendance, lançant une consultation avec près de 1 000 parties prenantes – coordonnée par 10 experts, dont certains sont non-européens.

Avec un calendrier extrêmement compressé et un nombre de participants peu maniable, le processus a laissé peu de place à une délibération réfléchie ou à une contribution équilibrée. Plus inquiétant encore, des universitaires – dont beaucoup n’ont pas d’expertise juridique ou d’expérience en normalisation technique – dirigent l’effort de rédaction. Pourtant, le Code, une fois adopté, définira les attentes des obligations GPAI et influencera l’application.

Le Code de Pratique comme Cheval de Troie pour Redéfinir la Loi sur l’IA ?

Le fond du projet est tout aussi préoccupant. Bien que son objectif soit d’aider les fournisseurs à respecter les obligations existantes, le projet actuel dépasse la simple clarification – introduisant de nouvelles exigences non envisagées dans la Loi sur l’IA.

Un exemple est le rôle proposé des évaluateurs externes avant la mise sur le marché des modèles GPAI présentant des risques systémiques, qui n’est pas prévu par la Loi sur l’IA. Le projet exige des fournisseurs qu’ils obtiennent des évaluations externes des risques systémiques, y compris des évaluations de modèles, avant de mettre leurs modèles sur le marché.

Un autre exemple concerne les droits d’auteur : la mesure I.2.4. du projet exige que les développeurs de modèles GPAI fassent des efforts raisonnables pour déterminer si le contenu protégé a été collecté par un robot.txt conforme – une obligation non imposée par la Loi sur l’IA. De plus, la mesure I.2.5. mandate que les fournisseurs de modèles GPAI prennent des mesures raisonnables pour atténuer le risque que les systèmes d’IA en aval génèrent à plusieurs reprises du contenu enfreignant les droits d’auteur.

Encore une fois, la question n’est pas de savoir si ces exigences sont raisonnables, mais que le Code a pour seul but de clarifier les obligations de la Loi sur l’IA, et non de les redéfinir. Par conséquent, le Code ne doit pas être utilisé comme un cheval de Troie pour redéfinir la Loi sur l’IA selon des préférences politiques – contournant les procédures démocratiques.

Prochaines Étapes : Adopter ou Ne Pas Adopter le Projet de Code de Pratique

Que se passe-t-il ensuite ? Le Code de Pratique ne prendra effet que s’il est approuvé par la Commission par le biais d’un acte d’exécution en vertu de l’article 56(6) de la Loi sur l’IA. Contrairement aux actes délégués, les actes d’exécution n’habilitent pas la Commission à modifier ou à compléter la législation de base, c’est-à-dire la Loi sur l’IA.

Ainsi, la Commission et le Conseil de l’IA ne doivent pas simplement approuver le projet actuel. Au lieu de cela, ils devraient procéder à un examen critique approfondi pour s’assurer que les mesures proposées sont réellement nécessaires à la mise en œuvre et ne contredisent pas ou ne dépassent pas les dispositions de la Loi sur l’IA.

Tout cela compromettrait non seulement le compromis politique soigneusement négocié entre le Parlement et le Conseil dans la Loi sur l’IA, mais conduirait également à un dépassement inconstitutionnel des pouvoirs d’application de la Commission.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...