Les Directives de la Commission Européenne sur les Pratiques d’IA Interdites selon la Loi sur l’IA – Partie Un

Le 4 février 2025, la Commission Européenne (CE) a publié des directives sur les pratiques d’intelligence artificielle (IA) interdites établies par la Loi sur l’IA de l’UE. Ces directives, qui ne sont actuellement pas contraignantes, clarifient les pratiques d’IA interdites qui présentent un risque pour les valeurs et les droits fondamentaux de l’Union Européenne, tels que la sécurité publique, le droit à la vie privée et le droit à la non-discrimination.

Contexte

Le but de cette série de brèves en deux parties est d’aider les professionnels de la vie privée et les autres opérateurs de systèmes d’IA à comprendre les implications des directives. La première partie examine les quatre premiers cas d’utilisation selon l’Article 5(1)(a) à 5(1)(d) inclus. La seconde partie de cette série de brèves se penchera sur le reste des directives concernant les cas d’utilisation interdits sous l’Article 5(1)(e) à l’Article 5(1)(h), ainsi que d’autres éléments clés.

Période Intermédiaire – Application

Les dispositions relatives aux systèmes d’IA interdits sont entrées en vigueur le 2 février 2025, avec des sanctions applicables à partir du 2 août 2025, laissant une période intermédiaire de six mois en ce qui concerne l’application. Pendant cette période intermédiaire, bien que les autorités de surveillance du marché national ne soient pas encore identifiées, les dispositions concernant les systèmes d’IA interdits sont obligatoires.

Pratiques d’IA Interdites

L’Article 5 de la Loi sur l’IA contient la liste des cas d’utilisation de l’IA qui sont expressément interdits. Les tableaux ci-dessous exposent les cas d’utilisation, le contexte et le raisonnement derrière l’interdiction, tout en soulignant les exceptions permises et les exemples de cas d’utilisation qui sont hors du champ d’application. Les directives décomposent chaque composant des sous-sections de l’Article 5 en un ensemble de conditions cumulatives, toutes devant être remplies pour que l’interdiction s’applique.

Manipulation et Tromperie Article 5(1)(a)

L’Article 5(1)(a) contient une interdiction sur l’IA qui utilise des techniques subliminales ou des stratégies manipulatrices pour déformer de manière significative le comportement des individus, altérant leur capacité de décision, d’une manière qui est raisonnablement susceptible de causer un préjudice significatif.

Conditions cumulatives à respecter :

  • La pratique doit constituer le « placement sur le marché », la « mise en service » ou l’« utilisation » d’un système d’IA.
  • Déploiement de techniques subliminales, manipulatrices ou trompeuses.
  • Objectif ou effet de déformer matériellement le comportement d’une personne ou d’un groupe.
  • Le comportement déformé doit causer ou être raisonnablement susceptible de causer un préjudice significatif.

Les exemples de techniques subliminales incluent des messages visuels subliminaux (flashés trop rapidement pour être enregistrés par l’esprit conscient), des messages auditifs subliminaux, et d’autres formes de manipulation.

Exploitation Nocive des Vulnérabilités Article 5(1)(b)

L’Article 5(1)(b) interdit l’utilisation de l’IA pour exploiter des vulnérabilités liées à l’âge, au handicap ou aux conditions socio-économiques, avec l’objectif ou l’effet de déformer matériellement le comportement d’une personne, entraînant un préjudice.

Conditions cumulatives à respecter :

  • La pratique doit constituer le « placement sur le marché », la « mise en service » ou l’« utilisation » d’un système d’IA.
  • Le système d’IA doit exploiter des vulnérabilités dues à l’âge, au handicap, ou à des situations socio-économiques.
  • L’exploitation doit avoir pour objectif ou effet de déformer le comportement d’une personne ou d’un groupe.
  • Le comportement déformé doit causer ou être raisonnablement susceptible de causer un préjudice significatif.

Des exemples incluent des jouets alimentés par l’IA conçus pour encourager des comportements risqués chez les enfants.

Scoring Social Article 5(1)(c)

L’Article 5(1)(c) interdit l’utilisation de l’IA pour classer des individus sur la base de leur comportement social, personnel ou professionnel, lorsque cela entraîne un traitement injustifié ou préjudiciable.

Conditions cumulatives à respecter :

  • La pratique doit constituer le « placement sur le marché », la « mise en service » ou l’« utilisation » d’un système d’IA.
  • Le système d’IA doit être destiné à l’évaluation ou à la classification de personnes ou de groupes sur une certaine période.
  • Le score social doit mener à un traitement préjudiciable ou défavorable.

Ce scoring peut inclure des systèmes de crédit qui évaluent la solvabilité d’un client sur la base de son revenu et de ses dépenses.

Prévision des Infractions Criminelles Article 5(1)(d)

L’Article 5(1)(d) interdit les systèmes d’IA qui évaluent la probabilité de commettre des infractions, uniquement sur la base du profilage ou des caractéristiques personnelles.

Conditions cumulatives à respecter :

  • La pratique doit constituer le « placement sur le marché », la « mise en service pour ce but spécifique » ou l’« utilisation » d’un système d’IA.
  • Le système d’IA doit effectuer des évaluations de risques pour prédire la probabilité qu’une personne commette une infraction.

Les prédictions basées uniquement sur le profilage sont interdites, mais les systèmes qui soutiennent les évaluations humaines basées sur des faits objectifs sont exclus de cette interdiction.

Rappel de la Chronologie de Mise en Œuvre de la Loi sur l’IA

Jusqu’en août 2025 : Obligations à respecter pour les fournisseurs de modèles d’IA à usage général.

Jusqu’en août 2026 : Début des obligations de conformité pour les systèmes d’IA à haut risque.

Jusqu’en août 2027 : Obligations de conformité pour les systèmes d’IA à haut risque couverts par l’Article 6(1).

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...