L’impact de la loi sur l’IA en Europe : enjeux et clarifications

A pair of binoculars

Acte sur l’IA de l’UE : Suivre les lignes directrices avec prudence

Europe’s AI Act a été publié en juin 2024. Cependant, il faudra des années avant que les directives interprétatives de la Cour de justice de l’Union européenne (CJUE) arrivent. En attendant, la Commission européenne est tenue de publier des lignes directrices pour aider les développeurs, les déployeurs ou toute autre personne intéressée par cette loi. Bien que ces lignes directrices ne soient pas juridiquement contraignantes, elles doivent être prises en compte par les pays de l’UE lors de l’application de la loi et de l’imposition de sanctions en cas d’infraction par les développeurs et déployeurs d’IA. Cela dit, cela n’empêche pas les régulateurs et les organismes de droits fondamentaux dans les pays de l’UE d’interpréter la loi différemment de la Commission.

Les cinq premiers articles de l’AI Act, qui incluent des interdictions, sont en application depuis le 2 février 2025. C’est dans ce contexte que nous devons lire les deux lignes directrices publiées par la Commission européenne au début de février, mais après la date d’application des parties pertinentes de l’AI Act. Les lignes directrices portent sur la définition d’un système d’IA et les interdictions couvertes par l’AI Act. Les deux lignes directrices tentent d’améliorer la clarté juridique. Mais y parviennent-elles ?

Définition d’un système d’IA

Les lignes directrices sur la définition se distinguent par une chose : elles affirment une bonne fois pour toutes que les tableurs ne sont pas des systèmes d’IA. Au-delà de cela, le document nourrit plus de confusion que de clarté.

Il existe sept éléments principaux dans la définition d’un système d’IA : “(1) un système basé sur une machine; (2) conçu pour fonctionner avec des niveaux d’autonomie variables; (3) pouvant faire preuve d’adaptabilité après déploiement; (4) et qui, pour des objectifs explicites ou implicites; (5) infère, à partir des entrées qu’il reçoit, comment générer des sorties (6) telles que des prédictions, du contenu, des recommandations ou des décisions (7) pouvant influencer l’environnement physique ou virtuel.”

Bien que tous ces composants ne soient pas également importants, la capacité d’inférence est considérée comme une caractéristique clé des systèmes d’IA. Cependant, les lignes directrices excluent certaines méthodes comme l’optimisation mathématique parce qu’elles ne transcendent pas le « traitement de données de base ».

Interdictions

Les lignes directrices sur les interdictions représentent une amélioration, bien que marginale, tant en termes de longueur que de qualité. Elles stipulent qu’une analyse au cas par cas est nécessaire pour évaluer si un système d’IA spécifique est interdit. Cependant, les lignes directrices ne fournissent pas d’exemples de cette évaluation, mais plutôt des exemples « simplement indicatifs ».

L’AI Act comprend huit interdictions :

  1. Manipulation et tromperie
  2. Exploitation des vulnérabilités
  3. Notation sociale
  4. Évaluation et prédiction du risque criminel individuel
  5. Grattage non ciblé pour développer des bases de données de reconnaissance faciale
  6. Reconnaissance des émotions dans les lieux de travail et les institutions éducatives
  7. Catégorisation biométrique
  8. Identification biométrique à distance en temps réel (RBI)

La prohibition sur la RBI en temps réel s’applique aux déployeurs. Toutes les autres s’appliquent aux fournisseurs, déployeurs et opérateurs. Ces interdictions couvrent l’« utilisation » d’un système d’IA, qui n’est pas limitée à l’utilisation prévue, mais inclut également les abus, qu’ils soient raisonnablement prévisibles ou non.

Conclusion

Il est essentiel de ne pas oublier qu’au-delà de l’AI Act, les systèmes d’IA peuvent être interdits par d’autres lois, telles que celles sur la non-discrimination et le RGPD. Les lignes directrices sur les interdictions, bien qu’elles fassent référence à divers droits fondamentaux en jeu, échouent à indiquer le rôle des organismes de droits fondamentaux dans leur mise en œuvre.

Les lignes directrices peuvent être mises à jour, ce qui pourrait potentiellement améliorer leur clarté et leur efficacité. En revanche, les lignes directrices sur la définition d’un système d’IA, bien qu’importantes, ne sont pas juridiquement contraignantes.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...