Directives de la Commission Européenne sur les Pratiques d’IA Interdites en vertu de la Loi Européenne sur l’Intelligence Artificielle

En février 2025, la Commission Européenne a publié deux ensembles de directives pour clarifier des aspects clés de la Loi Européenne sur l’Intelligence Artificielle (« Loi sur l’IA ») : les Directives sur la définition d’un système d’IA et les Directives sur les pratiques d’IA interdites. Ces directives visent à fournir des orientations sur les obligations de la loi sur l’IA qui ont commencé à s’appliquer le 2 février 2025, y compris la section sur les définitions, les obligations relatives à la littératie en IA, et les prohibitions sur certaines pratiques d’IA.

Résumé des Directives sur les Pratiques d’IA Interdites

Les Directives dépassent les 100 pages et offrent des orientations détaillées sur la manière d’interpréter et d’appliquer chacune des huit pratiques d’IA interdites énumérées à l’article 5 de la Loi sur l’IA. Cet article identifie des pratiques interdites en relation avec les systèmes d’IA. Les directives traitent également de la relation entre les systèmes d’IA à haut risque (réglementés par la Loi) et les pratiques interdites.

Points Clés des Directives

  • Publicités personnalisées. L’article 5(1)(a) interdit « la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui déploie des techniques subliminales au-delà de la conscience d’une personne ou des techniques manipulatrices ou trompeuses, avec l’objectif, ou l’effet de distordre matériellement le comportement d’une personne ou d’un groupe de personnes… ». Les Directives indiquent que l’utilisation de l’IA pour personnaliser des publicités en fonction des préférences des utilisateurs n’est « pas intrinsèquement manipulatrice » tant qu’elle ne déploie pas de techniques subliminales ou trompeuses.
  • Persuasion légale. L’article 5(1)(b) interdit « la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui exploite les vulnérabilités d’une personne ou d’un groupe de personnes… ». Pour être qualifiée de pratiques d’IA interdites, une telle distorsion doit aller au-delà de la « persuasion légale ». Les directives expliquent qu’un système d’IA est susceptible d’engager une « persuasion légale » lorsqu’il fonctionne de manière transparente.
  • Vulnérabilité et addiction, escroqueries et ciblage prédateur. L’article 5(1)(b) interdit spécifiquement l’exploitation de la vulnérabilité d’une personne ou d’un groupe sur la base de l’âge, du handicap ou d’une situation socio-économique spécifique.
  • Profilage et notation sociale. L’article 5(1)(c) interdit « la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA pour l’évaluation ou la classification de personnes naturelles ou de groupes de personnes sur une certaine période de temps… ». Les directives expliquent que le profilage pourrait relever du champ d’application de l’article 5(1)(c).
  • Policing prédictif et acteurs privés. L’article 5(1)(d) prohibe « la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA pour évaluer ou prédire le risque qu’une personne commette une infraction pénale… ». Les directives soulignent que cette prohibition s’applique également aux acteurs privés agissant pour le compte de la loi.
  • Extraction d’images faciales et formation de modèles d’IA. L’article 5(1)(e) interdit « la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA qui créent ou élargissent des bases de données de reconnaissance faciale… ». Cela n’inclut pas les bases de données utilisées à des fins de formation ou de test tant que les personnes ne sont pas identifiées.
  • Reconnaissance des émotions au travail. L’article 5(1)(f) interdit « la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA pour inférer les émotions d’une personne dans les domaines du travail et des établissements d’éducation ». Les directives précisent que cette interdiction s’applique à l’inférence des émotions des travailleurs, mais pas à celles des clients.

Interprétation de la Loi sur l’IA

Les directives abordent également comment interpréter le champ d’application de la Loi sur l’IA et ses exceptions.

  • Définir « mise sur le marché », « mise en service » et « utilisation ». Les pratiques interdites de l’article 5 interdisent « la mise sur le marché, la mise en service [ou dans certains cas, la ‘mise en service à cette fin spécifique’] ou l’utilisation » du système d’IA concerné.
  • Exclusions pour la recherche et le développement. Article 2(8) de la Loi sur l’IA stipule que la loi ne s’applique pas à toute activité de recherche, test ou développement concernant des systèmes d’IA avant leur mise sur le marché.
  • Application aux systèmes d’IA à usage général. Les directives clarifient que les prohibitions de l’article 5 s’appliquent aussi bien aux systèmes d’IA à usage général qu’à ceux ayant une finalité spécifique.

Les directives fournissent une base essentielle pour comprendre les implications des pratiques d’IA interdites et la responsabilité des développeurs d’IA dans le respect de la législation en vigueur.

Articles

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...

Réglementation de l’UE sur l’IA : Vers une conformité stricte pour les modèles à risque

La Commission européenne a publié des directives pour aider les entreprises à se conformer à la loi sur l'intelligence artificielle de l'UE, qui entrera en vigueur le 2 août. Les entreprises doivent...

Risques systémiques des modèles d’IA : se conformer aux règles de l’UE

Les modèles d'IA présentent des risques systémiques qui doivent être pris en compte pour respecter les réglementations de l'UE sur l'IA. Ce document fournit des conseils sur la manière de se conformer...

Musiciens européens unis pour défendre leurs droits face à l’IA

Plus de 30 musiciens européens ont lancé une campagne vidéo unie pour demander à la Commission européenne de préserver l'intégrité de la loi sur l'IA de l'UE. Ils exigent le droit d'être informés et...

Les agents IA : un cauchemar de sécurité pour les entreprises

L'émergence des agents d'IA dans les applications d'entreprise introduit un nouveau type de trafic réseau complexe, rendant la visibilité et la sécurité plus difficiles. Cela souligne la nécessité...

Audit de l’IA en milieu de travail : 11 étapes essentielles

Avec l'intégration croissante des outils d'intelligence artificielle générative dans les opérations quotidiennes, en particulier dans les ressources humaines, les audits d'IA deviennent de plus en...

Certification en conformité AI : un atout pour l’avenir professionnel

La certification en conformité de l'IA prépare les professionnels à comprendre et à mettre en œuvre les exigences réglementaires en constante évolution, ce qui les rend indispensables. Obtenir cette...

Régulations des IA : Les États prennent les devants face à l’inaction du Congrès

Ce mois-ci, le Sénat américain a voté pour annuler une disposition controversée dans le vaste paquet fiscal et de dépenses du président Trump, qui aurait empêché les États et les collectivités locales...

Éthique et durabilité : l’avenir de l’IA en question

Alors que la Journée de l'Appréciation de l'IA approche, les leaders de l'industrie réfléchissent à l'impact croissant de l'intelligence artificielle en Australie et dans le monde. Ils soulignent à la...