L’entrée en vigueur de la loi sur l’IA de l’UE : enjeux et préparations

A magnifying glass illustrating scrutiny and oversight of AI practices.

La loi sur l’IA de l’UE commence à prendre effet : ce qu’il faut savoir et comment se préparer

Le 2 février 2025, les chapitres I et II de la loi sur l’IA de l’Union Européenne sont entrés en vigueur. Les deux dispositions clés qui ont pris effet concernent les pratiques d’IA interdites et la littératie en matière d’IA. Cet article explique leurs implications tant pour les fournisseurs (développeurs) que pour les déployeurs (utilisateurs, à l’exception des activités personnelles et non professionnelles) de systèmes d’IA et suggère des étapes à suivre dès maintenant pour combler le fossé de conformité.

Les entreprises situées en dehors de l’UE doivent noter que l’effet de Bruxelles s’applique à cette loi, ce qui signifie que les entreprises non européennes mettant en œuvre des systèmes dans l’UE, servant des utilisateurs basés dans l’UE ou utilisant des résultats d’IA au sein de l’UE seront toujours concernées par son application.

Pratiques d’IA interdites en vertu de la loi sur l’IA de l’UE

L’article 5 de la loi sur l’IA de l’UE énumère les pratiques d’IA jugées inacceptables en raison de leurs risques potentiels pour les valeurs et les droits fondamentaux de l’UE. Ces pratiques doivent être lues en parallèle avec les lignes directrices récemment publiées par la Commission européenne. Bien que non juridiquement contraignantes, ces lignes directrices, qui attendent une adoption formelle, informeront probablement l’interprétation de l’article 5 par les régulateurs et les tribunaux.

La législation interdit la mise sur le marché, la mise en service et l’utilisation de systèmes d’IA dans les contextes suivants :

Manipulation ou tromperie nuisible

La loi interdit aux systèmes d’IA d’utiliser des techniques subliminales, manipulatrices ou trompeuses qui peuvent ou altèrent le comportement humain en compromettant la prise de décision éclairée des individus. Cela inclut, par exemple, l’utilisation de flashs d’images rapides pour influencer les décisions d’achat.

Exploitation d’individus vulnérables

Cette pratique est interdite si elle peut ou est susceptible de déformer le comportement des personnes d’une manière potentiellement nuisible. Par exemple, cibler des personnes âgées avec des traitements médicaux ou des polices d’assurance inutiles constitue une utilisation interdite de l’IA.

Notation sociale conduisant à un traitement injustifiable

La loi interdit l’utilisation de l’IA pour classer ou évaluer des individus sur la base de leur comportement social ou de leurs traits de personnalité, si cela entraîne un traitement défavorable ou disproportionné. Un exemple en serait l’utilisation d’un système d’IA par une agence de protection sociale pour estimer la probabilité de fraude aux prestations en se basant sur des caractéristiques sociales non pertinentes.

Policing prédictif

La loi interdit de prédire le risque qu’une personne commette un crime uniquement sur la base de son profil ou de l’évaluation de ses traits de personnalité, sauf pour soutenir une évaluation humaine existante.

Reconnaissance faciale

Les systèmes d’IA ne peuvent pas être utilisés pour créer ou élargir une base de données de reconnaissance faciale par le biais d’un scraping non ciblé d’images faciales.

Reconnaissance des émotions en milieu de travail ou éducatif

Utiliser l’IA pour identifier ou inférer les émotions d’une personne dans un cadre professionnel ou éducatif est interdit, sauf pour des raisons médicales ou de sécurité.

Catégorisation biométrique pour déduire des informations sensibles

Les systèmes d’IA qui catégorisent des individus sur la base de données biométriques pour déduire des informations sensibles, telles que la race ou les croyances politiques, ne sont pas autorisés.

Identification biométrique à distance en temps réel pour les forces de l’ordre

L’utilisation de systèmes d’IA à cette fin est seulement permise si elle est strictement nécessaire pour rechercher des personnes disparues ou prévenir un danger imminent.

Comprendre les exigences en matière de littératie en IA

L’article 4 de la loi exige que les fournisseurs et les déployeurs prennent des mesures pour s’assurer que leur personnel et les personnes traitant des systèmes d’IA en leur nom ont un niveau suffisant de littératie en IA. Bien que cet article soit entré en vigueur, la littératie en IA reste un concept nébuleux.

La mise en œuvre des exigences de littératie en IA peut poser un défi pour les entreprises, car cela implique des questions éthiques ainsi que des implications sociétales, économiques et politiques des systèmes d’IA concernés. Il est donc crucial pour les entreprises de commencer dès maintenant à investir dans la conformité avec la loi sur l’IA de l’UE.

Application et étapes pratiques

La loi ne mentionne pas de sanctions pour non-conformité aux exigences de littératie en IA, mais de fausses déclarations à ce sujet pourraient entraîner une amende allant jusqu’à 7,5 millions d’euros ou 1% du chiffre d’affaires annuel, selon ce qui est le plus élevé.

Les pratiques d’IA interdites entraîneront les plus fortes amendes sous la loi : jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires mondial annuel. Les mécanismes d’application entreront en vigueur le 2 août 2025.

Les organisations devraient utiliser la période qui précède pour prendre des mesures afin d’assurer la conformité avec les articles 4 et 5. Cela peut inclure :

  • Faire un inventaire de tous les systèmes d’IA au sein de l’entreprise et évaluer leurs risques et bénéfices.
  • Créer des ressources de littératie en IA telles que des programmes de formation et des politiques sur l’utilisation responsable de l’IA.
  • Développer des programmes de formation adaptés au personnel concerné.
  • Établir des politiques de gouvernance en matière d’IA pour réguler le développement et le déploiement des systèmes d’IA.
  • Assurer la transparence et la responsabilité en documentant l’utilisation des systèmes d’IA dans le cadre de l’entreprise.

Les entreprises qui commencent dès maintenant à se conformer à la loi sur l’IA de l’UE seront mieux placées pour naviguer dans le paysage international en pleine évolution de la réglementation de l’IA.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...