L’impact de la loi sur l’IA en Europe : enjeux et clarifications

A pair of binoculars

Acte sur l’IA de l’UE : Suivre les lignes directrices avec prudence

Europe’s AI Act a été publié en juin 2024. Cependant, il faudra des années avant que les directives interprétatives de la Cour de justice de l’Union européenne (CJUE) arrivent. En attendant, la Commission européenne est tenue de publier des lignes directrices pour aider les développeurs, les déployeurs ou toute autre personne intéressée par cette loi. Bien que ces lignes directrices ne soient pas juridiquement contraignantes, elles doivent être prises en compte par les pays de l’UE lors de l’application de la loi et de l’imposition de sanctions en cas d’infraction par les développeurs et déployeurs d’IA. Cela dit, cela n’empêche pas les régulateurs et les organismes de droits fondamentaux dans les pays de l’UE d’interpréter la loi différemment de la Commission.

Les cinq premiers articles de l’AI Act, qui incluent des interdictions, sont en application depuis le 2 février 2025. C’est dans ce contexte que nous devons lire les deux lignes directrices publiées par la Commission européenne au début de février, mais après la date d’application des parties pertinentes de l’AI Act. Les lignes directrices portent sur la définition d’un système d’IA et les interdictions couvertes par l’AI Act. Les deux lignes directrices tentent d’améliorer la clarté juridique. Mais y parviennent-elles ?

Définition d’un système d’IA

Les lignes directrices sur la définition se distinguent par une chose : elles affirment une bonne fois pour toutes que les tableurs ne sont pas des systèmes d’IA. Au-delà de cela, le document nourrit plus de confusion que de clarté.

Il existe sept éléments principaux dans la définition d’un système d’IA : “(1) un système basé sur une machine; (2) conçu pour fonctionner avec des niveaux d’autonomie variables; (3) pouvant faire preuve d’adaptabilité après déploiement; (4) et qui, pour des objectifs explicites ou implicites; (5) infère, à partir des entrées qu’il reçoit, comment générer des sorties (6) telles que des prédictions, du contenu, des recommandations ou des décisions (7) pouvant influencer l’environnement physique ou virtuel.”

Bien que tous ces composants ne soient pas également importants, la capacité d’inférence est considérée comme une caractéristique clé des systèmes d’IA. Cependant, les lignes directrices excluent certaines méthodes comme l’optimisation mathématique parce qu’elles ne transcendent pas le « traitement de données de base ».

Interdictions

Les lignes directrices sur les interdictions représentent une amélioration, bien que marginale, tant en termes de longueur que de qualité. Elles stipulent qu’une analyse au cas par cas est nécessaire pour évaluer si un système d’IA spécifique est interdit. Cependant, les lignes directrices ne fournissent pas d’exemples de cette évaluation, mais plutôt des exemples « simplement indicatifs ».

L’AI Act comprend huit interdictions :

  1. Manipulation et tromperie
  2. Exploitation des vulnérabilités
  3. Notation sociale
  4. Évaluation et prédiction du risque criminel individuel
  5. Grattage non ciblé pour développer des bases de données de reconnaissance faciale
  6. Reconnaissance des émotions dans les lieux de travail et les institutions éducatives
  7. Catégorisation biométrique
  8. Identification biométrique à distance en temps réel (RBI)

La prohibition sur la RBI en temps réel s’applique aux déployeurs. Toutes les autres s’appliquent aux fournisseurs, déployeurs et opérateurs. Ces interdictions couvrent l’« utilisation » d’un système d’IA, qui n’est pas limitée à l’utilisation prévue, mais inclut également les abus, qu’ils soient raisonnablement prévisibles ou non.

Conclusion

Il est essentiel de ne pas oublier qu’au-delà de l’AI Act, les systèmes d’IA peuvent être interdits par d’autres lois, telles que celles sur la non-discrimination et le RGPD. Les lignes directrices sur les interdictions, bien qu’elles fassent référence à divers droits fondamentaux en jeu, échouent à indiquer le rôle des organismes de droits fondamentaux dans leur mise en œuvre.

Les lignes directrices peuvent être mises à jour, ce qui pourrait potentiellement améliorer leur clarté et leur efficacité. En revanche, les lignes directrices sur la définition d’un système d’IA, bien qu’importantes, ne sont pas juridiquement contraignantes.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...