La loi sur l’IA de l’UE commence à prendre effet : ce qu’il faut savoir et comment se préparer
Le 2 février 2025, les chapitres I et II de la loi sur l’IA de l’Union Européenne sont entrés en vigueur. Les deux dispositions clés qui ont pris effet concernent les pratiques d’IA interdites et la littératie en matière d’IA. Cet article explique leurs implications tant pour les fournisseurs (développeurs) que pour les déployeurs (utilisateurs, à l’exception des activités personnelles et non professionnelles) de systèmes d’IA et suggère des étapes à suivre dès maintenant pour combler le fossé de conformité.
Les entreprises situées en dehors de l’UE doivent noter que l’effet de Bruxelles s’applique à cette loi, ce qui signifie que les entreprises non européennes mettant en œuvre des systèmes dans l’UE, servant des utilisateurs basés dans l’UE ou utilisant des résultats d’IA au sein de l’UE seront toujours concernées par son application.
Pratiques d’IA interdites en vertu de la loi sur l’IA de l’UE
L’article 5 de la loi sur l’IA de l’UE énumère les pratiques d’IA jugées inacceptables en raison de leurs risques potentiels pour les valeurs et les droits fondamentaux de l’UE. Ces pratiques doivent être lues en parallèle avec les lignes directrices récemment publiées par la Commission européenne. Bien que non juridiquement contraignantes, ces lignes directrices, qui attendent une adoption formelle, informeront probablement l’interprétation de l’article 5 par les régulateurs et les tribunaux.
La législation interdit la mise sur le marché, la mise en service et l’utilisation de systèmes d’IA dans les contextes suivants :
Manipulation ou tromperie nuisible
La loi interdit aux systèmes d’IA d’utiliser des techniques subliminales, manipulatrices ou trompeuses qui peuvent ou altèrent le comportement humain en compromettant la prise de décision éclairée des individus. Cela inclut, par exemple, l’utilisation de flashs d’images rapides pour influencer les décisions d’achat.
Exploitation d’individus vulnérables
Cette pratique est interdite si elle peut ou est susceptible de déformer le comportement des personnes d’une manière potentiellement nuisible. Par exemple, cibler des personnes âgées avec des traitements médicaux ou des polices d’assurance inutiles constitue une utilisation interdite de l’IA.
Notation sociale conduisant à un traitement injustifiable
La loi interdit l’utilisation de l’IA pour classer ou évaluer des individus sur la base de leur comportement social ou de leurs traits de personnalité, si cela entraîne un traitement défavorable ou disproportionné. Un exemple en serait l’utilisation d’un système d’IA par une agence de protection sociale pour estimer la probabilité de fraude aux prestations en se basant sur des caractéristiques sociales non pertinentes.
Policing prédictif
La loi interdit de prédire le risque qu’une personne commette un crime uniquement sur la base de son profil ou de l’évaluation de ses traits de personnalité, sauf pour soutenir une évaluation humaine existante.
Reconnaissance faciale
Les systèmes d’IA ne peuvent pas être utilisés pour créer ou élargir une base de données de reconnaissance faciale par le biais d’un scraping non ciblé d’images faciales.
Reconnaissance des émotions en milieu de travail ou éducatif
Utiliser l’IA pour identifier ou inférer les émotions d’une personne dans un cadre professionnel ou éducatif est interdit, sauf pour des raisons médicales ou de sécurité.
Catégorisation biométrique pour déduire des informations sensibles
Les systèmes d’IA qui catégorisent des individus sur la base de données biométriques pour déduire des informations sensibles, telles que la race ou les croyances politiques, ne sont pas autorisés.
Identification biométrique à distance en temps réel pour les forces de l’ordre
L’utilisation de systèmes d’IA à cette fin est seulement permise si elle est strictement nécessaire pour rechercher des personnes disparues ou prévenir un danger imminent.
Comprendre les exigences en matière de littératie en IA
L’article 4 de la loi exige que les fournisseurs et les déployeurs prennent des mesures pour s’assurer que leur personnel et les personnes traitant des systèmes d’IA en leur nom ont un niveau suffisant de littératie en IA. Bien que cet article soit entré en vigueur, la littératie en IA reste un concept nébuleux.
La mise en œuvre des exigences de littératie en IA peut poser un défi pour les entreprises, car cela implique des questions éthiques ainsi que des implications sociétales, économiques et politiques des systèmes d’IA concernés. Il est donc crucial pour les entreprises de commencer dès maintenant à investir dans la conformité avec la loi sur l’IA de l’UE.
Application et étapes pratiques
La loi ne mentionne pas de sanctions pour non-conformité aux exigences de littératie en IA, mais de fausses déclarations à ce sujet pourraient entraîner une amende allant jusqu’à 7,5 millions d’euros ou 1% du chiffre d’affaires annuel, selon ce qui est le plus élevé.
Les pratiques d’IA interdites entraîneront les plus fortes amendes sous la loi : jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires mondial annuel. Les mécanismes d’application entreront en vigueur le 2 août 2025.
Les organisations devraient utiliser la période qui précède pour prendre des mesures afin d’assurer la conformité avec les articles 4 et 5. Cela peut inclure :
- Faire un inventaire de tous les systèmes d’IA au sein de l’entreprise et évaluer leurs risques et bénéfices.
- Créer des ressources de littératie en IA telles que des programmes de formation et des politiques sur l’utilisation responsable de l’IA.
- Développer des programmes de formation adaptés au personnel concerné.
- Établir des politiques de gouvernance en matière d’IA pour réguler le développement et le déploiement des systèmes d’IA.
- Assurer la transparence et la responsabilité en documentant l’utilisation des systèmes d’IA dans le cadre de l’entreprise.
Les entreprises qui commencent dès maintenant à se conformer à la loi sur l’IA de l’UE seront mieux placées pour naviguer dans le paysage international en pleine évolution de la réglementation de l’IA.