Directives de la Commission Européenne sur les Pratiques d’IA Interdites en vertu de la Loi Européenne sur l’Intelligence Artificielle

En février 2025, la Commission Européenne a publié deux ensembles de directives pour clarifier des aspects clés de la Loi Européenne sur l’Intelligence Artificielle (« Loi sur l’IA ») : les Directives sur la définition d’un système d’IA et les Directives sur les pratiques d’IA interdites. Ces directives visent à fournir des orientations sur les obligations de la loi sur l’IA qui ont commencé à s’appliquer le 2 février 2025, y compris la section sur les définitions, les obligations relatives à la littératie en IA, et les prohibitions sur certaines pratiques d’IA.

Résumé des Directives sur les Pratiques d’IA Interdites

Les Directives dépassent les 100 pages et offrent des orientations détaillées sur la manière d’interpréter et d’appliquer chacune des huit pratiques d’IA interdites énumérées à l’article 5 de la Loi sur l’IA. Cet article identifie des pratiques interdites en relation avec les systèmes d’IA. Les directives traitent également de la relation entre les systèmes d’IA à haut risque (réglementés par la Loi) et les pratiques interdites.

Points Clés des Directives

  • Publicités personnalisées. L’article 5(1)(a) interdit « la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui déploie des techniques subliminales au-delà de la conscience d’une personne ou des techniques manipulatrices ou trompeuses, avec l’objectif, ou l’effet de distordre matériellement le comportement d’une personne ou d’un groupe de personnes… ». Les Directives indiquent que l’utilisation de l’IA pour personnaliser des publicités en fonction des préférences des utilisateurs n’est « pas intrinsèquement manipulatrice » tant qu’elle ne déploie pas de techniques subliminales ou trompeuses.
  • Persuasion légale. L’article 5(1)(b) interdit « la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui exploite les vulnérabilités d’une personne ou d’un groupe de personnes… ». Pour être qualifiée de pratiques d’IA interdites, une telle distorsion doit aller au-delà de la « persuasion légale ». Les directives expliquent qu’un système d’IA est susceptible d’engager une « persuasion légale » lorsqu’il fonctionne de manière transparente.
  • Vulnérabilité et addiction, escroqueries et ciblage prédateur. L’article 5(1)(b) interdit spécifiquement l’exploitation de la vulnérabilité d’une personne ou d’un groupe sur la base de l’âge, du handicap ou d’une situation socio-économique spécifique.
  • Profilage et notation sociale. L’article 5(1)(c) interdit « la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA pour l’évaluation ou la classification de personnes naturelles ou de groupes de personnes sur une certaine période de temps… ». Les directives expliquent que le profilage pourrait relever du champ d’application de l’article 5(1)(c).
  • Policing prédictif et acteurs privés. L’article 5(1)(d) prohibe « la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA pour évaluer ou prédire le risque qu’une personne commette une infraction pénale… ». Les directives soulignent que cette prohibition s’applique également aux acteurs privés agissant pour le compte de la loi.
  • Extraction d’images faciales et formation de modèles d’IA. L’article 5(1)(e) interdit « la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA qui créent ou élargissent des bases de données de reconnaissance faciale… ». Cela n’inclut pas les bases de données utilisées à des fins de formation ou de test tant que les personnes ne sont pas identifiées.
  • Reconnaissance des émotions au travail. L’article 5(1)(f) interdit « la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA pour inférer les émotions d’une personne dans les domaines du travail et des établissements d’éducation ». Les directives précisent que cette interdiction s’applique à l’inférence des émotions des travailleurs, mais pas à celles des clients.

Interprétation de la Loi sur l’IA

Les directives abordent également comment interpréter le champ d’application de la Loi sur l’IA et ses exceptions.

  • Définir « mise sur le marché », « mise en service » et « utilisation ». Les pratiques interdites de l’article 5 interdisent « la mise sur le marché, la mise en service [ou dans certains cas, la ‘mise en service à cette fin spécifique’] ou l’utilisation » du système d’IA concerné.
  • Exclusions pour la recherche et le développement. Article 2(8) de la Loi sur l’IA stipule que la loi ne s’applique pas à toute activité de recherche, test ou développement concernant des systèmes d’IA avant leur mise sur le marché.
  • Application aux systèmes d’IA à usage général. Les directives clarifient que les prohibitions de l’article 5 s’appliquent aussi bien aux systèmes d’IA à usage général qu’à ceux ayant une finalité spécifique.

Les directives fournissent une base essentielle pour comprendre les implications des pratiques d’IA interdites et la responsabilité des développeurs d’IA dans le respect de la législation en vigueur.

Articles

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...

Les risques méconnus de l’IA dans les entreprises

L'IA devient de plus en plus présente dans les lieux de travail, mais de nombreuses entreprises ignorent les risques associés. Il est essentiel d'établir des principes de conformité et de gouvernance...

Investir dans la sécurité de l’IA pour un avenir responsable

La révolution de l'intelligence artificielle est désormais une réalité, transformant les industries et la vie quotidienne. Pour les investisseurs, cela représente une opportunité en or d'exploiter un...

L’impact croissant de l’IA sur la sécurité publique

Les agences de maintien de l'ordre (LEAs) utilisent de plus en plus l'intelligence artificielle (IA) pour améliorer leur fonctionnement, en particulier grâce à des capacités accrues pour la police...

Kenya à l’avant-garde de la gouvernance mondiale de l’IA

Le Kenya a remporté une victoire diplomatique majeure après que les 193 États membres des Nations Unies ont convenu à l'unanimité de créer deux institutions marquantes pour gouverner l'intelligence...

Cadre de gouvernance de l’IA : Un appel à l’action

Les parties prenantes ont appelé au développement d'un cadre de gouvernance de l'intelligence artificielle (IA) pour garantir son déploiement responsable lors de la 17e conférence annuelle de...

Nouvelles recommandations sur l’adoption de l’IA pour les responsables marketing en santé

Avec l'expansion rapide des outils d'intelligence artificielle, les directeurs marketing et autres leaders du secteur de la santé doivent mettre en place des politiques pour l'adoption et la...

Nouveau dialogue mondial sur la gouvernance de l’IA à l’ONU

L'Assemblée générale des Nations Unies a adopté une résolution visant à établir un panel scientifique international indépendant sur l'intelligence artificielle et un dialogue mondial sur la...

Menaces cybernétiques : l’essor de l’IA et ses risques pour la sécurité

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les industries, offrant aux organisations de nouveaux outils pour l'efficacité et la croissance. Cependant, leur adoption...