Directives de la Commission Européenne sur les Pratiques d’IA Interdites en vertu de la Loi Européenne sur l’Intelligence Artificielle

En février 2025, la Commission Européenne a publié deux ensembles de directives pour clarifier des aspects clés de la Loi Européenne sur l’Intelligence Artificielle (« Loi sur l’IA ») : les Directives sur la définition d’un système d’IA et les Directives sur les pratiques d’IA interdites. Ces directives visent à fournir des orientations sur les obligations de la loi sur l’IA qui ont commencé à s’appliquer le 2 février 2025, y compris la section sur les définitions, les obligations relatives à la littératie en IA, et les prohibitions sur certaines pratiques d’IA.

Résumé des Directives sur les Pratiques d’IA Interdites

Les Directives dépassent les 100 pages et offrent des orientations détaillées sur la manière d’interpréter et d’appliquer chacune des huit pratiques d’IA interdites énumérées à l’article 5 de la Loi sur l’IA. Cet article identifie des pratiques interdites en relation avec les systèmes d’IA. Les directives traitent également de la relation entre les systèmes d’IA à haut risque (réglementés par la Loi) et les pratiques interdites.

Points Clés des Directives

  • Publicités personnalisées. L’article 5(1)(a) interdit « la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui déploie des techniques subliminales au-delà de la conscience d’une personne ou des techniques manipulatrices ou trompeuses, avec l’objectif, ou l’effet de distordre matériellement le comportement d’une personne ou d’un groupe de personnes… ». Les Directives indiquent que l’utilisation de l’IA pour personnaliser des publicités en fonction des préférences des utilisateurs n’est « pas intrinsèquement manipulatrice » tant qu’elle ne déploie pas de techniques subliminales ou trompeuses.
  • Persuasion légale. L’article 5(1)(b) interdit « la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui exploite les vulnérabilités d’une personne ou d’un groupe de personnes… ». Pour être qualifiée de pratiques d’IA interdites, une telle distorsion doit aller au-delà de la « persuasion légale ». Les directives expliquent qu’un système d’IA est susceptible d’engager une « persuasion légale » lorsqu’il fonctionne de manière transparente.
  • Vulnérabilité et addiction, escroqueries et ciblage prédateur. L’article 5(1)(b) interdit spécifiquement l’exploitation de la vulnérabilité d’une personne ou d’un groupe sur la base de l’âge, du handicap ou d’une situation socio-économique spécifique.
  • Profilage et notation sociale. L’article 5(1)(c) interdit « la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA pour l’évaluation ou la classification de personnes naturelles ou de groupes de personnes sur une certaine période de temps… ». Les directives expliquent que le profilage pourrait relever du champ d’application de l’article 5(1)(c).
  • Policing prédictif et acteurs privés. L’article 5(1)(d) prohibe « la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA pour évaluer ou prédire le risque qu’une personne commette une infraction pénale… ». Les directives soulignent que cette prohibition s’applique également aux acteurs privés agissant pour le compte de la loi.
  • Extraction d’images faciales et formation de modèles d’IA. L’article 5(1)(e) interdit « la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA qui créent ou élargissent des bases de données de reconnaissance faciale… ». Cela n’inclut pas les bases de données utilisées à des fins de formation ou de test tant que les personnes ne sont pas identifiées.
  • Reconnaissance des émotions au travail. L’article 5(1)(f) interdit « la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA pour inférer les émotions d’une personne dans les domaines du travail et des établissements d’éducation ». Les directives précisent que cette interdiction s’applique à l’inférence des émotions des travailleurs, mais pas à celles des clients.

Interprétation de la Loi sur l’IA

Les directives abordent également comment interpréter le champ d’application de la Loi sur l’IA et ses exceptions.

  • Définir « mise sur le marché », « mise en service » et « utilisation ». Les pratiques interdites de l’article 5 interdisent « la mise sur le marché, la mise en service [ou dans certains cas, la ‘mise en service à cette fin spécifique’] ou l’utilisation » du système d’IA concerné.
  • Exclusions pour la recherche et le développement. Article 2(8) de la Loi sur l’IA stipule que la loi ne s’applique pas à toute activité de recherche, test ou développement concernant des systèmes d’IA avant leur mise sur le marché.
  • Application aux systèmes d’IA à usage général. Les directives clarifient que les prohibitions de l’article 5 s’appliquent aussi bien aux systèmes d’IA à usage général qu’à ceux ayant une finalité spécifique.

Les directives fournissent une base essentielle pour comprendre les implications des pratiques d’IA interdites et la responsabilité des développeurs d’IA dans le respect de la législation en vigueur.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...