Défis et évolutions du règlement sur l’IA en Europe

A map

La Loi Européenne sur l’IA à la Croisée des Chemins : Règles GPAI, Orientation sur la Littératie en IA et Retards Potentiels

La Loi Européenne sur l’IA (Loi IA), entrée en vigueur en février 2025, introduit un cadre réglementaire basé sur le risque pour les systèmes d’IA et un régime parallèle pour les modèles d’IA à usage général (GPAI). Elle impose des obligations à divers acteurs, notamment les fournisseurs, déployeurs, importateurs et fabricants, et exige que les organisations garantissent un niveau approprié de littératie en IA parmi leur personnel.

La Loi IA interdit également les cas d’utilisation de l’IA présentant un « risque inacceptable » et impose des exigences rigoureuses sur les systèmes « à haut risque ». Cet article fait le point sur l’état d’avancement de la mise en œuvre à mi-2025, en se concentrant sur : (i) les nouvelles orientations concernant les obligations de littératie en IA pour les fournisseurs et déployeurs ; (ii) l’état d’avancement du développement d’un Code de Pratique pour l’IA à Usage Général et ses implications ; et (iii) la perspective de retards dans l’application de certaines dispositions clés de la Loi IA.

Exigences de Littératie en IA

À partir du 2 février 2025, l’article 4 de la Loi IA mandate que les fournisseurs (c’est-à-dire les entités qui développent des systèmes d’IA pour le marché européen sous leur propre nom) et les déployeurs de systèmes d’IA (c’est-à-dire ceux qui utilisent des systèmes d’IA sous leur autorité) garantissent un « niveau suffisant de littératie en IA » parmi leur personnel. Cette exigence s’applique à tous les systèmes d’IA (pas seulement aux systèmes à haut risque).

Le 7 mai 2025, la Commission Européenne a publié des FAQ détaillées clarifiant la portée de cette obligation. Selon ces orientations, la littératie en IA englobe non seulement une compréhension générale des capacités et des limites de l’IA, mais également la capacité à évaluer les implications juridiques et éthiques, à interpréter les résultats de manière critique et à appliquer une surveillance appropriée. Particulièrement pertinent pour tous les types d’entreprises, le guide indique que les organisations utilisant l’IA générative pour des fonctions commerciales (par exemple, la rédaction de contenu marketing, les traductions) doivent s’assurer que les utilisateurs sont formés aux risques associés, tels que les hallucinations.

L’obligation s’étend à tout le personnel interagissant avec les systèmes d’IA (c’est-à-dire pas seulement aux employés), y compris les sous-traitants et les fournisseurs de services. Bien que la Loi IA ne prescrive pas de programme spécifique, la Commission Européenne suggère que les initiatives de littératie en IA devraient refléter le rôle de l’organisation (par exemple, fournisseur ou déployeur), la nature et le profil de risque des systèmes d’IA impliqués, ainsi que les compétences techniques du personnel. Se fier uniquement aux instructions utilisateur ou à la documentation passive ne serait généralement pas considéré comme suffisant et des politiques, procédures et formations sur mesure peuvent être nécessaires.

La formation doit être adaptée aux rôles et responsabilités spécifiques et intégrée dans des systèmes de gestion des risques et de conformité plus larges. Les orientations soulignent en outre que cette obligation s’applique, et sera appliquée, de manière proportionnelle, ce qui signifie que ceux qui déploient des systèmes à haut risque sont censés mettre en œuvre des programmes de littératie plus robustes.

Modèles GPAI et Code de Pratique

La Loi IA définit un modèle GPAI en termes de « généralité significative » dans ses capacités et sa compétence à « réaliser un large éventail de tâches distinctes indépendamment de la manière dont le modèle est mis sur le marché » — englobant des modèles de langage de grande taille comme GPT-4, Gemini 2.5 Pro, DeepSeek-VL, etc.

Le 12 juin 2025, la Commission Européenne a publié un ensemble de FAQ utiles concernant ce qui constitue un modèle GPAI et les obligations de la Loi IA à leur égard. L’article 56 de la Loi IA prévoit la publication d’un Code de Pratique pour l’IA à Usage Général par le Bureau Européen de l’IA, incluant des orientations générales pour les fournisseurs de modèles GPAI (et des orientations supplémentaires pour les modèles présentant un « risque systémique« ) sur la conformité aux obligations de la Loi IA.

Ce Code GPAI, bien que volontaire, formera finalement la base sur laquelle le Bureau Européen de l’IA évaluera la conformité à la Loi IA. Le Code GPAI couvre des règles de transparence et de droits d’auteur, qui s’appliquent à tous les fournisseurs de modèles GPAI (autres que ceux sous licence open-source), ainsi que des exigences techniques et de gouvernance spécifiques pour les fournisseurs de modèles GPAI présentant un « risque systémique ».

Nous avons précédemment commenté certains des éléments clés du premier projet du Code dans un précédent article. Les deuxième et troisième projets du Code GPAI ont depuis été publiés par la Commission Européenne. Le troisième projet, publié le 11 mars 2025, a notablement supprimé l’utilisation d’indicateurs de performance clés comme référence, introduite dans le deuxième projet, parmi divers changements de rationalisation et de réorganisation. Ce projet le plus récent souligne également la nécessité pour le Bureau Européen de l’IA de réviser et de mettre à jour le Code GPAI au fil du temps à mesure que la technologie progresse. Ce projet est attendu comme le projet final pour lequel des retours peuvent être soumis, et formera la base du Code GPAI final. Cependant, la finalisation du Code GPAI a été retardée par rapport à la date limite initiale du 2 mai 2025, et est désormais attendue pour août 2025, suscitant des inquiétudes dans l’industrie concernant l’incertitude réglementaire et la préparation inégale à la conformité.

Retards Potentiels dans la Mise en Œuvre

Bien que les premières dispositions de la Loi IA soient entrées en vigueur en février 2025, d’autres obligations, telles que celles imposées aux fournisseurs de modèles GPAI, ne prendront effet qu’à partir du 2 août 2025, selon les délais actuels, avec une mise en œuvre progressive jusqu’à l’été 2027. Le récent retard du Code GPAI jusqu’en août a conduit à des spéculations selon lesquelles certaines dispositions clés de la Loi IA pourraient également être retardées. Il a été rapporté en mai que la Commission Européenne envisageait un retard dans l’application des obligations GPAI en vertu de la Loi IA afin de permettre de « simplifier » certaines des règles. Cette motivation s’inscrit dans le cadre d’autres efforts de simplification récents entrepris par la Commission Européenne, qui ont été menés en réponse aux appels des entreprises à réduire le fardeau réglementaire lié aux activités commerciales dans l’UE. Bien que le retard ne soit pas encore confirmé publiquement par des sources officielles de l’UE, diverses figures influentes des États membres, y compris le Premier ministre suédois, ont exprimé leur soutien à un retard dans la mise en œuvre, dans certains cas pouvant aller jusqu’à deux ans.

Points Clés à Retenir

Les organisations développant ou déployant des systèmes d’IA au sein de l’UE doivent naviguer avec précaution dans ces exigences en évolution. Les retards potentiels dans l’application offrent une fenêtre pour renforcer les stratégies de conformité, mais introduisent également de l’incertitude. Assurer une littératie en IA parmi le personnel est désormais une obligation légale, nécessitant le développement de programmes de formation adaptés. Pour les fournisseurs de modèles GPAI, comprendre et se préparer aux obligations à venir est crucial, même en l’absence de directives finalisées.

Les organisations concernées devraient :

  • Améliorer la Littératie en IA : Développer et mettre en œuvre des programmes de formation pour répondre aux exigences de littératie en IA énoncées dans l’article 4.
  • Surveiller les Mises à Jour Réglementaires : Rester informé des changements dans les délais d’application et la finalisation du Code de Pratique GPAI.
  • Se Préparer aux Obligations GPAI : Même en l’absence de directives finalisées, commencer à évaluer les pratiques actuelles par rapport aux exigences anticipées pour les modèles GPAI.

Pour toute assistance concernant ces obligations, ou pour des conseils sur la Loi IA ou la préparation à l’IA, il est conseillé de consulter un professionnel compétent.

Articles

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...

Réglementation de l’UE sur l’IA : Vers une conformité stricte pour les modèles à risque

La Commission européenne a publié des directives pour aider les entreprises à se conformer à la loi sur l'intelligence artificielle de l'UE, qui entrera en vigueur le 2 août. Les entreprises doivent...

Risques systémiques des modèles d’IA : se conformer aux règles de l’UE

Les modèles d'IA présentent des risques systémiques qui doivent être pris en compte pour respecter les réglementations de l'UE sur l'IA. Ce document fournit des conseils sur la manière de se conformer...

Musiciens européens unis pour défendre leurs droits face à l’IA

Plus de 30 musiciens européens ont lancé une campagne vidéo unie pour demander à la Commission européenne de préserver l'intégrité de la loi sur l'IA de l'UE. Ils exigent le droit d'être informés et...

Les agents IA : un cauchemar de sécurité pour les entreprises

L'émergence des agents d'IA dans les applications d'entreprise introduit un nouveau type de trafic réseau complexe, rendant la visibilité et la sécurité plus difficiles. Cela souligne la nécessité...

Audit de l’IA en milieu de travail : 11 étapes essentielles

Avec l'intégration croissante des outils d'intelligence artificielle générative dans les opérations quotidiennes, en particulier dans les ressources humaines, les audits d'IA deviennent de plus en...

Certification en conformité AI : un atout pour l’avenir professionnel

La certification en conformité de l'IA prépare les professionnels à comprendre et à mettre en œuvre les exigences réglementaires en constante évolution, ce qui les rend indispensables. Obtenir cette...

Régulations des IA : Les États prennent les devants face à l’inaction du Congrès

Ce mois-ci, le Sénat américain a voté pour annuler une disposition controversée dans le vaste paquet fiscal et de dépenses du président Trump, qui aurait empêché les États et les collectivités locales...

Éthique et durabilité : l’avenir de l’IA en question

Alors que la Journée de l'Appréciation de l'IA approche, les leaders de l'industrie réfléchissent à l'impact croissant de l'intelligence artificielle en Australie et dans le monde. Ils soulignent à la...