Nouvelles règles de l’UE sur l’IA : l’alphabétisation et les risques inacceptables

A magnifying glass illustrating the need for scrutiny and transparency in AI development.

Les dispositions de l’Acte AI de l’UE sur la littératie en IA et l’interdiction des « risques inacceptables »

Entrée en vigueur : À partir du 2 février 2025, les dispositions des chapitres 1 et 2 de l’Acte AI de l’UE, qui établit des règles harmonisées sur l’intelligence artificielle, concernant la littératie en IA et l’interdiction de l’utilisation de systèmes d’IA présentant des risques inacceptables, sont entrées en vigueur.

Obligations de littératie en IA

À compter du 2 février 2025, les fournisseurs de systèmes d’IA (entités qui développent, mettent sur le marché ou mettent en service des systèmes d’IA) ainsi que les utilisateurs de systèmes d’IA (entités utilisant des systèmes d’IA dans le cadre de leurs activités professionnelles) ont l’obligation de prendre des mesures pour garantir, dans la mesure du possible, un niveau suffisant de littératie en IA de leur personnel et des autres personnes traitant avec les systèmes d’IA en leur nom. La littératie en IA est définie comme les compétences, connaissances et compréhension nécessaires pour faciliter le déploiement éclairé des systèmes d’IA et pour prendre conscience des opportunités, des risques et des dommages potentiels qu’ils peuvent causer.

Actuellement, aucune sanction spécifique n’est prévue pour les violations des obligations de littératie en IA. Cependant, il est raisonnable de s’attendre à ce que la performance ou la non-performance de ces obligations soit considérée par les autorités compétentes comme un facteur lors de l’évaluation des sanctions appropriées à appliquer à un fournisseur ou à un utilisateur pour d’autres violations de l’Acte AI de l’UE.

Systèmes d’IA interdits

À compter du 2 février 2025, les systèmes d’IA présentant des risques inacceptables, c’est-à-dire ceux qui menacent les droits fondamentaux, l’état de droit et les valeurs de l’Union européenne, sont interdits en vertu du chapitre 2 de l’Acte AI de l’UE. Les pratiques d’IA interdites comprennent :

  • Manipulation et techniques trompeuses : Mise sur le marché ou utilisation de systèmes d’IA utilisant des techniques subliminales ou trompeuses visant à déformer le comportement humain.
  • Exploitation des vulnérabilités : Systèmes d’IA exploitant les vulnérabilités des personnes en raison de leur âge, de leur handicap ou de leurs conditions socio-économiques.
  • Notation sociale : Systèmes d’IA évaluant ou classifiant les personnes sur la base d’attributs comportementaux ou personnels.
  • Évaluation des risques criminels individuels : Systèmes d’IA profilant des individus pour évaluer ou prédire les comportements criminels.
  • Bases de données de reconnaissance faciale non autorisées : Systèmes d’IA créant ou élargissant des bases de données de reconnaissance faciale sans consentement.
  • Reconnaissance des émotions dans le travail et l’éducation : Interdiction des systèmes d’IA inférant des émotions, sauf pour des raisons médicales ou de sécurité.
  • Catégorisation biométrique : Systèmes d’IA catégorisant les individus sur la base de données biométriques pour déduire des informations sensibles.
  • Utilisation par les forces de l’ordre de l’identification biométrique en temps réel : Interdiction de l’utilisation de systèmes d’identification biométriques à distance dans les espaces publics, sauf exceptions strictes.

Les sanctions pour non-conformité à ces interdictions entreront en vigueur le 2 août 2025, avec des amendes administratives pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial total de l’entité en infraction.

Cela s’applique-t-il à vous ?

Le champ d’application réglementaire de l’Acte AI de l’UE est vaste, englobant de nombreuses activités et parties prenantes liées à l’IA. Il s’applique aux fournisseurs plaçant des systèmes d’IA sur le marché de l’UE, quelles que soient leur origine, ainsi qu’aux utilisateurs de systèmes d’IA au sein de l’UE et même aux entités établies dans des pays tiers dont les résultats des systèmes d’IA sont utilisés dans l’UE.

Les organisations impliquées dans l’importation, la distribution ou la fabrication de produits intégrant des systèmes d’IA sont également soumises aux exigences de l’Acte AI de l’UE. De plus, l’Acte AI de l’UE s’applique également aux personnes affectées situées dans l’UE.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...