Directives de la Commission Européenne sur les Pratiques d’IA Prohibées selon la Loi sur l’IA
La Commission Européenne a récemment publié un ensemble de directives préliminaires concernant les pratiques d’intelligence artificielle (IA) jugées inacceptables en vertu de la Loi sur l’IA. Ces directives visent à éclairer les entreprises sur les pratiques prohibées et à assurer une application uniforme de la loi à travers l’Union Européenne.
Contexte
Depuis le 2 février 2025, des dispositions générales et des règles sur les pratiques d’IA prohibées sont entrées en vigueur. En particulier, l’Article 5 de la Loi sur l’IA interdit des techniques d’IA manipulatrices ou trompeuses, l’extraction de données faciales non ciblée, ainsi que des systèmes exploitants des groupes vulnérables.
Un élément clé de la loi est l’exigence de littératie en IA, stipulée dans l’Article 4, qui requiert des entreprises qu’elles assurent une compréhension adéquate de l’IA au sein de leur personnel.
Directives sur les Pratiques d’IA Prohibées
La Commission a élaboré un document détaillé de 135 pages qui définit les pratiques jugées inacceptables. Le but est de fournir des éclaircissements sur l’interprétation des pratiques prohibées afin d’assurer la protection des droits fondamentaux.
Quelles pratiques d’IA sont prohibées ?
Les pratiques explicitement interdites par l’Article 5(1) de la Loi sur l’IA incluent :
1. Manipulation et tromperie nuisibles : Utilisation de techniques subliminales ou manipulatrices visant à déformer le comportement et à causer des dommages significatifs.
2. Exploitation nuisible des vulnérabilités : Systèmes d’IA qui tirent profit des vulnérabilités liées à l’âge ou à des situations sociales spécifiques, causant des préjudices importants.
3. Notation sociale : Évaluation des individus basée sur leur comportement social, menant à un traitement défavorable non justifié.
4. Évaluation des risques criminels individuels : Prédiction de la probabilité qu’un individu commette un délit sur la base de traits psychologiques, sauf si utilisée pour soutenir une évaluation humaine.
5. Extraction non ciblée pour développer des bases de données de reconnaissance faciale : Construction de bases de données par le biais de l’extraction d’images faciales sur Internet.
6. Reconnaissance des émotions : Inférence des émotions dans des contextes tels que le travail, sauf pour des raisons médicales.
7. Catégorisation biométrique : Classification des individus en fonction de données biométriques pour déduire des attributs sensibles.
8. Identification biométrique à distance : Systèmes d’identification biométrique en temps réel dans des espaces publics, sauf dans des cas spécifiques de menaces ciblées.
Exclusions de la Portée de la Loi sur l’IA
La Loi sur l’IA prévoit plusieurs exclusions générales. Par exemple, les systèmes d’IA publiés sous licences libres ne sont généralement pas soumis à la loi, sauf s’ils sont commercialisés comme des systèmes à haut risque.
Responsabilités des Acteurs
La Loi identifie différents acteurs liés aux systèmes d’IA, notamment les fournisseurs et déployeurs. Les fournisseurs sont ceux qui développent ou commercialisent des systèmes d’IA, tandis que les déployeurs les utilisent sous leur autorité. Ces deux catégories doivent s’assurer que leurs systèmes respectent les exigences de la loi.
Conclusion
Les entreprises doivent évaluer, au cas par cas, si leurs applications d’IA sont prohibées par l’Article 5 de la Loi sur l’IA. Les responsabilités des fournisseurs et des déployeurs varient selon leur rôle et leur contrôle sur le système, et doivent être interprétées de manière proportionnelle.
Les directives de la Commission, bien qu’elles soient non contraignantes, fournissent des interprétations utiles pour évaluer la conformité avec la Loi sur l’IA. L’attention se tourne désormais vers la Cour de Justice de l’Union Européenne pour des interprétations autorisées.