La Loi sur l’IA de l’UE est en vigueur : Ce que les entreprises mondiales doivent savoir

La Loi sur l’IA de l’UE prend effet avec une portée mondiale. Les entreprises américaines sont confrontées à de nouvelles règles, risques et pénalités sévères. Voici ce que les dirigeants doivent savoir dès maintenant.

Les deux premiers chapitres de la Loi sur l’IA de l’UE ont pris effet le 2 février 2025. Ces dispositions abordent les pratiques en matière d’IA et de l’alphabétisation de l’IA. Le reste des dispositions de la loi sera déployé progressivement.

La portée mondiale de la Loi sur l’IA

Bien que les plus grandes implications de la loi concernent les entreprises basées dans l’UE, celles situées en dehors de l’Union européenne sont également affectées. La loi s’applique à tous les fournisseurs de systèmes d’IA sur le marché de l’UE, qu’ils opèrent au sein de l’UE ou non.

« La portée mondiale de la Loi sur l’IA de l’UE, les pénalités significatives pour non-conformité et les exigences étendues couvrant toute la chaîne de valeur de l’IA garantissent que les organisations du monde entier utilisant des technologies d’IA doivent se conformer à la réglementation », a déclaré un analyste principal.

La loi aura un impact significatif sur la gouvernance de l’IA à l’échelle mondiale. « Avec ces réglementations, l’UE a établi le standard de facto pour une IA digne de confiance et la gestion des risques liés à l’IA », a-t-il ajouté.

Comprendre le cadre de risque de la Loi sur l’IA

Le cœur de la Loi sur l’IA de l’UE est son approche basée sur le risque. Plus le risque d’utilisation de l’IA ou d’un cas d’utilisation d’IA à usage général (GPAI) est élevé, plus les exigences auxquelles il doit se conformer sont strictes. À mesure que le risque diminue, le nombre et la complexité des exigences que doit suivre une entreprise diminuent également.

Les quatre niveaux de risque incluent :

  1. IA à risque inacceptable : Interdite. Exemples : notation sociale, IA manipulatrice et identification biométrique en temps réel dans les espaces publics.
  2. IA à haut risque : Strictement réglementée. Exemples : IA dans la santé, le recrutement, la finance et l’application de la loi, nécessitant une conformité en matière de transparence, de gouvernance des données et de supervision humaine.
  3. IA à risque limité : Nécessitant de la transparence. Exemples : chatbots et deep fakes, garantissant que les utilisateurs soient conscients qu’ils interagissent avec de l’IA.
  4. IA à risque minimal : Non réglementée. Exemples : moteurs de recommandation et IA de jeux vidéo.

Les obligations des fournisseurs de systèmes d’IA diffèrent de celles des déployeurs, mais la conformité de chaque acteur dépend de l’autre. Les fournisseurs doivent fournir aux déployeurs une documentation détaillée sur le système (par exemple, capacités, limitations, utilisation prévue) afin qu’ils puissent déployer les systèmes correctement et comprendre leurs résultats de manière appropriée.

Le mandat sur l’alphabétisation de l’IA

La Loi sur l’IA exige que les fournisseurs et déployeurs prennent des mesures pour garantir, dans la mesure du possible, que le personnel et les autres personnes traitant des systèmes d’IA en leur nom (y compris les consultants) possèdent un niveau suffisant d’alphabétisation en IA.

Pour ces personnes, la formation à l’alphabétisation doit tenir compte de leurs connaissances techniques, de leur expérience, de leur éducation, de leur formation et du contexte dans lequel les systèmes d’IA sont utilisés.

Cette exigence s’applique à tous les systèmes d’IA et pas seulement à ceux considérés comme à haut risque selon la loi.

Ce que les entreprises doivent également préparer

Au-delà des niveaux de risque et de l’alphabétisation, la Loi sur l’IA de l’UE introduit de vastes responsabilités touchant aux modèles fondamentaux, aux chaînes d’approvisionnement et à l’écosystème plus large de l’IA.

Nouveaux standards pour les systèmes d’IA à usage général

La loi fait de grands progrès pour aborder les obligations des systèmes d’IA à usage général pour les déployeurs, selon un consultant.

« Un pas important est la reconnaissance au-delà des règles de transparence de l’UE pour imposer un seuil plus élevé sur les modèles fondamentaux qui pourraient entraîner des risques beaucoup plus élevés et infecter l’ensemble de la chaîne d’approvisionnement logicielle, ce qui pourrait avoir des implications directes pour les consommateurs/utilisateurs », a-t-il déclaré.

Préparez-vous aux audits, évaluations et plus

Les entreprises doivent passer des audits, respecter des normes de transparence et effectuer des évaluations, ce qui complique la concurrence des startups avec les grandes entreprises technologiques.

La Commission européenne peut infliger des amendes aux fournisseurs de modèles d’IA à usage général allant jusqu’à 3 % de leur chiffre d’affaires mondial total annuel de l’année financière précédente, ou 15 000 000 € — le montant le plus élevé étant retenu.

Ces amendes peuvent être imposées si la Commission constate que le fournisseur a intentionnellement ou par négligence :

  1. Enfreint les dispositions pertinentes de la loi.
  2. Échoué à se conformer aux demandes de documentation ou fourni des informations incorrectes, incomplètes ou trompeuses.
  3. Échoué à se conformer aux mesures demandées.
  4. Échoué à rendre l’accès au modèle d’IA à usage général disponible à la Commission.

Conception des systèmes d’IA pour l’explicabilité

La loi exige une transparence dans la prise de décision de l’IA, ce qui devrait réduire les risques d’IA en boîte noire dans des domaines tels que le recrutement, la notation de crédit et la santé.

« Les consommateurs à travers les régions s’attendent à ce que les entreprises soient explicites sur leur utilisation de toute IA », a-t-il déclaré. « La loi mandate que vous informiez clairement les personnes exposées à un système d’IA et de GPAI d’une manière facile à repérer et à comprendre. »

Les principales dispositions de la Loi sur l’IA de l’UE à venir

La Loi sur l’IA de l’UE est déployée par étapes. D’autres règles, telles que celles concernant les modèles GPAI, s’appliqueront à partir de juin 2025. Les exigences sur les cas d’utilisation à haut risque entreront en vigueur après 24 à 36 mois. Même si certaines exigences prennent effet à des dates ultérieures, elles nécessiteront un effort et un temps substantiels pour qu’une entreprise respecte les règles de la loi.

« Il reste des questions significatives quant aux conséquences involontaires potentielles et aux défis d’implémentation », a-t-il ajouté. Le calendrier de plein effet avant août 2026 pourrait être perçu comme un défi pour l’industrie, surtout à mesure que les avancées futures continuent de se développer.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...