Nouveau Code de Pratique pour l’IA : Vers une Conformité Améliorée

A compass

Code de Pratique pour les Modèles d’IA Générale : La Conformité Devenue Plus Claire (Participation Toujours Optionnelle)

Le 11 juillet 2025, la Commission Européenne a publié la version finale de son Code de Pratique pour l’Intelligence Artificielle Générale (GPAI). Ce code vise à servir d’outil pour les fournisseurs de modèles GPAI, les aidant à se conformer aux obligations de transparence, de droit d’auteur et de sécurité régissant les modèles d’IA générale, telles que stipulées dans la Loi sur l’IA (articles 53 et 55), qui entrera en vigueur le 2 août 2025. L’adhésion à ce code est volontaire.

Développé par des experts indépendants à travers un processus multi-parties prenantes, le Code de Pratique est structuré autour de trois chapitres : (i) Transparence, (ii) Droit d’auteur, et (iii) Sécurité et Sûreté. Ce dernier chapitre concerne les fournisseurs de modèles GPAI présentant un risque systémique et ne sera pas abordé ici.

Chapitre 1 : Transparence

Les fournisseurs de modèles GPAI sont soumis aux obligations de transparence énoncées dans l’article 53(1)(a) et (b) de la Loi sur l’IA. Ils doivent rédiger et mettre à jour la documentation concernant le fonctionnement de leurs modèles GPAI et fournir ces informations à l’Office de l’IA, aux autorités nationales et aux fournisseurs en aval des systèmes d’IA qui utilisent leurs modèles GPAI.

Trois mesures sont décrites dans le Code de Pratique :

Mesure 1.1 – Rédaction et mise à jour de la documentation des modèles

Conformément à la Loi sur l’IA, les fournisseurs de modèles GPAI doivent élaborer et mettre à jour une documentation couvrant, entre autres, les tâches que le modèle peut effectuer, le type et la nature des systèmes d’IA dans lesquels il peut être intégré, les politiques d’utilisation acceptables et les informations techniques (architecture, paramètres, modalités, formats d’entrée et de sortie).

Mesure 1.2 – Fourniture d’informations pertinentes

Les fournisseurs de modèles GPAI doivent divulguer publiquement leurs informations de contact via leur site web ou par d’autres moyens appropriés, afin que l’Office de l’IA et les fournisseurs en aval puissent demander l’accès aux informations pertinentes, notamment celles dans la documentation des modèles.

Mesure 1.3 – Garantir la qualité, l’intégrité et la sécurité des informations

Les fournisseurs de modèles GPAI signataires restent responsables de la qualité et de l’intégrité des informations documentées, qui servent de preuve de conformité avec la Loi sur l’IA. Ils sont encouragés à garantir la qualité et la sécurité des informations en suivant des protocoles et normes techniques établis.

Chapitre 2 : Droit d’auteur

La Loi sur l’IA contient des références explicites à la loi de l’Union sur le droit d’auteur et les droits connexes. L’interaction entre les obligations réglementaires de la Loi sur l’IA et le droit d’auteur est complexe, d’autant plus que l’effet extraterritorial de la Loi sur l’IA soulève des questions.

Le chapitre sur le Droit d’auteur du Code de Pratique fournit des conseils sur la manière de se conformer aux obligations des fournisseurs de modèles GPAI concernant l’application de la loi de l’Union sur le droit d’auteur, notamment en ce qui concerne l’exception pour le text mining et le « opt-out » prévu à l’article 4(3) de la Directive 2019/790.

Mesure 1.1 Rédiger et mettre en œuvre une politique de droit d’auteur

Les fournisseurs de modèles GPAI doivent « rédiger, tenir à jour et mettre en œuvre » une politique de droit d’auteur, décrite dans un document unique. Un résumé de cette politique peut être rendu public, bien que cela ne soit pas obligatoire.

Mesure 1.2 Reproduire et extraire uniquement le contenu protégé par le droit d’auteur accessible légalement

Les fournisseurs de modèles GPAI utilisant des robots d’exploration pour collecter des données d’entraînement doivent s’engager à ne pas contourner les mesures de protection technologique « efficaces ».

Mesure 1.4 Mitiger le risque de résultats portant atteinte au droit d’auteur

Les fournisseurs de modèles GPAI doivent adopter des garanties techniques appropriées pour prévenir la production de résultats contraires au droit d’auteur et interdire l’utilisation de résultats enfreignant le droit d’auteur dans leur politique d’utilisation acceptable.

Conclusion

Avec ce Code de Pratique, la Commission pousse les fournisseurs de modèles GPAI à se conformer à la Loi sur l’IA de manière pratique, tout en maintenant des incertitudes juridiques quant à l’interprétation de la Loi. Le Code précise que, finalement, seule l’interprétation de la Cour de Justice de l’Union Européenne est contraignante.

Bien que le Modèle de Documentation soit un outil pratique potentiel, des questions complexes concernant l’interaction entre la Loi sur l’IA et le droit d’auteur au niveau de l’UE et national nécessitent une attention urgente.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...