L’entrée en vigueur de la loi sur l’IA de l’UE : enjeux et préparations

A magnifying glass illustrating scrutiny and oversight of AI practices.

La loi sur l’IA de l’UE commence à prendre effet : ce qu’il faut savoir et comment se préparer

Le 2 février 2025, les chapitres I et II de la loi sur l’IA de l’Union Européenne sont entrés en vigueur. Les deux dispositions clés qui ont pris effet concernent les pratiques d’IA interdites et la littératie en matière d’IA. Cet article explique leurs implications tant pour les fournisseurs (développeurs) que pour les déployeurs (utilisateurs, à l’exception des activités personnelles et non professionnelles) de systèmes d’IA et suggère des étapes à suivre dès maintenant pour combler le fossé de conformité.

Les entreprises situées en dehors de l’UE doivent noter que l’effet de Bruxelles s’applique à cette loi, ce qui signifie que les entreprises non européennes mettant en œuvre des systèmes dans l’UE, servant des utilisateurs basés dans l’UE ou utilisant des résultats d’IA au sein de l’UE seront toujours concernées par son application.

Pratiques d’IA interdites en vertu de la loi sur l’IA de l’UE

L’article 5 de la loi sur l’IA de l’UE énumère les pratiques d’IA jugées inacceptables en raison de leurs risques potentiels pour les valeurs et les droits fondamentaux de l’UE. Ces pratiques doivent être lues en parallèle avec les lignes directrices récemment publiées par la Commission européenne. Bien que non juridiquement contraignantes, ces lignes directrices, qui attendent une adoption formelle, informeront probablement l’interprétation de l’article 5 par les régulateurs et les tribunaux.

La législation interdit la mise sur le marché, la mise en service et l’utilisation de systèmes d’IA dans les contextes suivants :

Manipulation ou tromperie nuisible

La loi interdit aux systèmes d’IA d’utiliser des techniques subliminales, manipulatrices ou trompeuses qui peuvent ou altèrent le comportement humain en compromettant la prise de décision éclairée des individus. Cela inclut, par exemple, l’utilisation de flashs d’images rapides pour influencer les décisions d’achat.

Exploitation d’individus vulnérables

Cette pratique est interdite si elle peut ou est susceptible de déformer le comportement des personnes d’une manière potentiellement nuisible. Par exemple, cibler des personnes âgées avec des traitements médicaux ou des polices d’assurance inutiles constitue une utilisation interdite de l’IA.

Notation sociale conduisant à un traitement injustifiable

La loi interdit l’utilisation de l’IA pour classer ou évaluer des individus sur la base de leur comportement social ou de leurs traits de personnalité, si cela entraîne un traitement défavorable ou disproportionné. Un exemple en serait l’utilisation d’un système d’IA par une agence de protection sociale pour estimer la probabilité de fraude aux prestations en se basant sur des caractéristiques sociales non pertinentes.

Policing prédictif

La loi interdit de prédire le risque qu’une personne commette un crime uniquement sur la base de son profil ou de l’évaluation de ses traits de personnalité, sauf pour soutenir une évaluation humaine existante.

Reconnaissance faciale

Les systèmes d’IA ne peuvent pas être utilisés pour créer ou élargir une base de données de reconnaissance faciale par le biais d’un scraping non ciblé d’images faciales.

Reconnaissance des émotions en milieu de travail ou éducatif

Utiliser l’IA pour identifier ou inférer les émotions d’une personne dans un cadre professionnel ou éducatif est interdit, sauf pour des raisons médicales ou de sécurité.

Catégorisation biométrique pour déduire des informations sensibles

Les systèmes d’IA qui catégorisent des individus sur la base de données biométriques pour déduire des informations sensibles, telles que la race ou les croyances politiques, ne sont pas autorisés.

Identification biométrique à distance en temps réel pour les forces de l’ordre

L’utilisation de systèmes d’IA à cette fin est seulement permise si elle est strictement nécessaire pour rechercher des personnes disparues ou prévenir un danger imminent.

Comprendre les exigences en matière de littératie en IA

L’article 4 de la loi exige que les fournisseurs et les déployeurs prennent des mesures pour s’assurer que leur personnel et les personnes traitant des systèmes d’IA en leur nom ont un niveau suffisant de littératie en IA. Bien que cet article soit entré en vigueur, la littératie en IA reste un concept nébuleux.

La mise en œuvre des exigences de littératie en IA peut poser un défi pour les entreprises, car cela implique des questions éthiques ainsi que des implications sociétales, économiques et politiques des systèmes d’IA concernés. Il est donc crucial pour les entreprises de commencer dès maintenant à investir dans la conformité avec la loi sur l’IA de l’UE.

Application et étapes pratiques

La loi ne mentionne pas de sanctions pour non-conformité aux exigences de littératie en IA, mais de fausses déclarations à ce sujet pourraient entraîner une amende allant jusqu’à 7,5 millions d’euros ou 1% du chiffre d’affaires annuel, selon ce qui est le plus élevé.

Les pratiques d’IA interdites entraîneront les plus fortes amendes sous la loi : jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires mondial annuel. Les mécanismes d’application entreront en vigueur le 2 août 2025.

Les organisations devraient utiliser la période qui précède pour prendre des mesures afin d’assurer la conformité avec les articles 4 et 5. Cela peut inclure :

  • Faire un inventaire de tous les systèmes d’IA au sein de l’entreprise et évaluer leurs risques et bénéfices.
  • Créer des ressources de littératie en IA telles que des programmes de formation et des politiques sur l’utilisation responsable de l’IA.
  • Développer des programmes de formation adaptés au personnel concerné.
  • Établir des politiques de gouvernance en matière d’IA pour réguler le développement et le déploiement des systèmes d’IA.
  • Assurer la transparence et la responsabilité en documentant l’utilisation des systèmes d’IA dans le cadre de l’entreprise.

Les entreprises qui commencent dès maintenant à se conformer à la loi sur l’IA de l’UE seront mieux placées pour naviguer dans le paysage international en pleine évolution de la réglementation de l’IA.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...