Nouvelle Réglementation de l’IA : Interdictions et Éducation Obligatoire

A magnifying glass over a computer chip

Acte sur l’IA de l’UE : Interdiction des IA à Haut Risque et Règles de Littératie en IA Entrent en Vigueur

Avec le passage de la première échéance majeure de conformité de l’Acte sur l’IA de l’UE le 2 février 2025, les régulateurs de l’UE ont officiellement interdit certaines applications d’IA à haut risque. Les entreprises qui développent ou déploient des systèmes d’IA doivent désormais mettre en œuvre des mesures pour garantir que le personnel opérant ces systèmes possède un niveau suffisant de littératie en IA.

Peu de temps après, la Commission européenne a publié des lignes directrices très attendues, clarifiant la portée de l’interdiction, expliquant sa logique et fournissant des exemples pratiques – tous précieux pour comprendre l’applicabilité de l’Acte.

Pratiques d’IA Interdites

L’article 5 de l’Acte sur l’IA de l’UE interdit les applications d’IA qui présentent des risques inacceptables pour les droits fondamentaux et les valeurs essentielles de l’Union. Plus précisément, la loi interdit la vente (« mise sur le marché »), le déploiement (« mise en service ») ou l’utilisation de tout système d’IA qui :

  • Utilise des techniques subliminales, manipulatives ou trompeuses ayant pour effet de déformer le comportement d’une personne ou d’entraver sa prise de décision ;
  • Exploite les vulnérabilités d’une personne ou d’un groupe de personnes en fonction de leur âge, de leur handicap ou de leur statut socio-économique ;
  • Évalue des individus ou des groupes en fonction de leur comportement social ou de leurs traits de personnalité, entraînant un traitement préjudiciable ou injuste ;
  • Évalue ou prédit le risque qu’une personne commette une infraction pénale uniquement sur la base de son profil ;
  • Crée ou étend des bases de données de reconnaissance faciale par le biais de la collecte non ciblée d’images faciales sur Internet ou via des caméras de surveillance ;
  • Infère les émotions d’un individu au travail ou dans un établissement éducatif ;
  • Utilise la catégorisation biométrique pour assigner des individus en fonction de leurs données biométriques ;
  • Collecte des données biométriques « en temps réel » dans des espaces publics à des fins d’application de la loi.

Les interdictions incluent une exemption spécifique pour l’utilisation de systèmes d’IA conçus pour inférer des émotions dans des lieux de travail ou des établissements éducatifs, mais uniquement à des fins médicales ou de sécurité. Cette exception reflète l’engagement des régulateurs à équilibrer innovation en IA et protection des droits des consommateurs.

Littératie en IA

Les dispositions sur la littératie en IA en vertu de l’article 4 de l’Acte sur l’IA de l’UE ont également pris effet le 2 février 2025. Selon ces nouvelles obligations, les fournisseurs et déployeurs de systèmes d’IA doivent garantir un niveau « suffisant » de littératie en IA parmi leur personnel. La littératie en IA est définie comme les compétences, connaissances et compréhensions nécessaires pour prendre des décisions éclairées sur le déploiement de systèmes d’IA.

Cette norme subjective s’applique à tout le personnel impliqué dans l’exploitation et l’utilisation du système d’IA au nom de l’organisation, indépendamment de leur niveau de compétence technique.

Prochaines Étapes

La première étape consistera à évaluer et documenter si votre entreprise utilise des applications d’IA interdites en vertu de l’article 5 de l’Acte sur l’IA de l’UE. Si tel est le cas, la priorité sera de mobiliser les parties prenantes, de commencer à éliminer les systèmes d’IA concernés et, en fin de compte, d’interrompre leur utilisation.

Tout au long de ce processus, il est conseillé d’établir des procédures pour identifier les futures initiatives en matière d’IA qui pourraient entrer en conflit avec l’interdiction, de mettre en œuvre une formation pour les employés afin d’assurer une compréhension de base de la conformité, et de coordonner avec les prestataires de services pour maintenir une approche cohérente en matière de conformité réglementaire.

Même si les prohibitions spécifiques ne s’appliquent pas aux cas d’utilisation de l’IA de votre organisation, les exigences en matière de littératie en IA couvrent un éventail beaucoup plus large d’activités liées à l’IA. Si cela n’est pas déjà en place, c’est une occasion de collaborer avec les équipes internes pour développer des matériaux de gouvernance sur l’IA, des programmes de formation et des mesures de protection contre les abus.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...