La Commission Européenne Publie une FAQ sur la Littératie en IA

Le 7 mai 2025, la Commission Européenne a publié une FAQ abordant les obligations de littératie en IA dans le cadre de la Loi sur l’IA de l’UE. Ce document fournit des précisions sur l’Article 4 de la Loi, en clarifiant les mesures que les entités concernées doivent mettre en œuvre pour garantir une compréhension adéquate de l’IA.

Principaux Points à Retenir

La Commission Européenne définit les étapes et objectifs que doit atteindre une entité lors du développement et de la mise en œuvre d’un programme de conformité à la littératie en IA, notamment :

  • Assurer une compréhension générale de l’IA au sein de l’entité, couvrant les sujets suivants : Qu’est-ce que l’IA ? Comment fonctionne-t-elle ? Quelle IA est utilisée dans l’entité ? Quelles sont ses opportunités et dangers ?
  • Considérer le rôle de l’entité dans le cadre de l’application (par exemple, fournisseur ou déployeur des systèmes d’IA).
  • Évaluer les risques des systèmes d’IA fournis ou déployés, y compris les questions : que doivent savoir les employés lorsqu’ils manipulent ces systèmes d’IA ? Quels sont les risques à connaître et doivent-ils être informés des mesures d’atténuation ?
  • Construire concrètement le programme de conformité en tenant compte des analyses précédentes, en considérant : (1) les différences de connaissances techniques, d’expérience, d’éducation et de formation du personnel et des autres personnes ; et (2) le contexte d’utilisation des systèmes d’IA et les personnes concernées.

Concernant la formation, la Commission note que des formations fréquentes et spécifiques devront faire partie des programmes de conformité à la littératie en IA ; se contenter de renvoyer les employés à des instructions accompagnant les systèmes d’IA ne sera généralement pas considéré comme suffisant. Le contenu des formations ne sera pas fixe, pouvant varier en fonction de l’expérience du personnel, et devra être évalué au cas par cas. Les formations devront également aborder les risques pouvant émerger de l’utilisation de systèmes d’IA générative courants, tels que les hallucinations. Si des employés de tiers interagissent avec les systèmes d’IA, la formation pourrait être fournie directement par l’entité concernée et/ou des exigences de formation pourraient être établies dans des contrats avec ces tiers.

Chronologie

L’Article 4 de la Loi sur l’IA est entré en application le 2 février 2025. Par conséquent, les obligations relatives à la littératie en IA s’appliquent déjà aux entités concernées.

Cependant, dans la FAQ, la Commission Européenne précise que les règles de supervision et d’application ne s’appliqueront qu’à partir du 3 août 2026. Les sanctions pour non-conformité aux obligations de littératie en IA seront basées sur les lois nationales que les États membres de l’UE devront adopter d’ici le 2 août 2025. L’application privée est déjà possible lorsque qu’un individu subit un préjudice et considère que cela est dû à une entité concernée qui ne respecte pas les obligations découlant de l’article 4 de la Loi sur l’IA.

Articles

Guide pratique pour une IA responsable pour les développeurs .NET

L'ère de l'intelligence artificielle (IA) est en cours, mais elle soulève des questions éthiques sur la confiance que l'on peut accorder aux systèmes d'IA. Cet article explore les six principes...

Directives du projet de loi sur l’IA de l’UE : évolutions en matière de droits d’auteur

Le projet de directive sur le Code de pratique de l'UE concernant les obligations des fournisseurs de modèles d'IA à usage général (GPAI) a été amélioré, offrant une voie de conformité structurée. Les...

Confiance client et conformité à l’ère de l’IA

L'intelligence artificielle promet une valeur considérable pour les marketeurs, mais cela ne sera possible que si elle est alimentée par des données de qualité collectées de manière responsable. Les...

L’IA au service de la gestion des risques dans le secteur bancaire

Dans le paysage bancaire complexe d'aujourd'hui, l'IA devient un moteur central de la gestion des risques, essentiel pour identifier les menaces et gérer la conformité. En Inde, où les attentes...

Loi californienne sur la transparence de l’IA : un tournant majeur pour l’innovation responsable

Les législateurs californiens ont fait les gros titres en adoptant une loi historique sur la transparence de l'IA, axée spécifiquement sur les "modèles de pointe". Cette législation vise à garantir la...

Bureau national de l’IA : autorité centrale pour la mise en œuvre de la législation européenne

Le gouvernement a désigné 15 autorités compétentes dans le cadre de la nouvelle loi sur l'IA de l'UE et a annoncé la création d'un Bureau national de l'IA d'ici le 2 août 2026. Ce bureau agira comme...

Défis de l’IA : Éviter les pièges juridiques et discriminatoires dans le recrutement

L'utilisation d'outils d'IA dans le processus de recrutement permet aux entreprises d'optimiser leurs processus, mais les employeurs doivent veiller à ce que les systèmes utilisés soient transparents...

Quatre piliers pour encadrer l’IA responsable dans les entreprises

Alors que l'IA générative transforme le fonctionnement des entreprises, il est crucial d'implémenter des garde-fous pour éviter des déploiements coûteux. Les quatre piliers de ces garde-fous incluent...

Concevoir une IA inclusive pour les marchés émergents

L'intelligence artificielle transforme notre monde à une vitesse fulgurante, mais ses bénéfices ne sont pas accessibles à tous. Il est crucial de concevoir des systèmes d'IA inclusifs qui tiennent...