La Loi sur l’IA de l’UE entre en vigueur. Voici ce que cela signifie pour vous

En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l’UE pour l’intelligence artificielle – la Loi sur l’Intelligence Artificielle. L’objectif : protéger les utilisateurs contre les risques liés au déploiement de systèmes d’IA.

Quatre ans plus tard, certaines parties de la réglementation sont désormais en vigueur. Mais qu’est-ce que la Loi sur l’IA de l’UE ? À qui s’applique-t-elle ? Qu’est-ce que cela signifie pour les participants du marché financier et comment les investisseurs réagissent-ils ? Voici ce que vous devez savoir.

La Loi sur l’IA de l’UE et les niveaux de risque

La Loi sur l’IA de l’UE décompose l’utilisation de l’IA en quatre niveaux de risque, qui déterminent leur traitement réglementaire.

1. Risque inacceptable

Le premier – et sans doute le plus important – est le risque inacceptable. Cela signifie qu’un système d’IA représente une menace pour les personnes et leurs droits fondamentaux, contrevenant aux valeurs de l’UE. Sans surprise, les systèmes d’IA jugés « inacceptables » seront interdits. Des exemples incluent les systèmes d’IA qui permettent le scoring social, qui catégorisent les personnes en fonction de caractéristiques personnelles ou de facteurs socio-économiques.

2. Risque élevé

Les systèmes qui peuvent avoir un impact négatif sur les droits fondamentaux seront classés comme risque élevé et divisés en deux catégories : ceux utilisés dans des produits couverts par la législation de sécurité des produits de l’UE (ex. aviation ou dispositifs médicaux), et ceux qui devront être enregistrés dans une base de données (ex. systèmes utilisés pour l’application de la loi ou la gestion des migrations, de l’asile et du contrôle aux frontières).

3. Risque limité / Risque de transparence

Les utilisateurs doivent être informés lorsqu’ils interagissent avec l’IA, donc les applications susceptibles de manipulation, comme les chatbots ou les deepfakes, doivent être transparentes et conformes à la législation sur le droit d’auteur de l’UE.

4. Risque minimal

Les applications qui ne relèvent pas des trois catégories ci-dessus sont classées comme risque minimal et peuvent être développées et utilisées en fonction de la législation existante sans exigences légales supplémentaires.

À qui s’applique la Loi sur l’IA de l’UE ?

Naturellement, la réglementation s’appliquera à tous les 27 États membres de l’Union européenne. Crucialement, la réglementation s’appliquera également aux entités situées en dehors de l’UE si le système d’IA est proposé sur le marché de l’UE ou impacte des personnes situées dans l’UE.

Cela ajoute une couche de complexité supplémentaire. Les entreprises non européennes pourraient faire face à des défis d’adaptation significatifs, car les dispositions extraterritoriales de la loi exigent la conformité de toute entreprise opérant sur les marchés de l’UE.

Que disent les investisseurs professionnels ?

Bien qu’il soit encore tôt, les gestionnaires de fonds européens pointent trois considérations clés à surveiller : la législation en pratique, l’impact sur l’innovation et les opportunités potentielles.

Les restrictions sur le déploiement de l’IA pourraient réduire la demande pour les puces IA, le cloud computing et les logiciels alimentés par l’IA, ce qui pourrait limiter la croissance des revenus futurs.

Les coûts de conformité liés à la documentation et à l’audit mettront également la pression sur les marges. Cependant, la plus grande obstructions à l’expansion de l’IA ne sont pas la réglementation, mais les contraintes de capacité, en particulier la disponibilité limitée des GPU et de la puissance de calcul.

La Loi sur l’IA s’applique-t-elle au Royaume-Uni ?

Oui. Les entreprises britanniques qui créent ou utilisent un système d’IA utilisé dans l’UE seront soumises à la réglementation.

Par rapport à l’approche basée sur le risque de l’UE, le Royaume-Uni a adopté ce qu’il appelle une « approche pro-innovation ». Cela signifie qu’il n’y a actuellement aucun plan pour introduire de nouvelles réglementations.

Quand la Loi sur l’IA de l’UE entre-t-elle en vigueur ?

La Loi sur l’IA de l’UE a de nombreux éléments. Voici un calendrier des dates les plus notables :

  • Avril 2021 – La Commission européenne propose le premier cadre réglementaire pour l’IA.
  • Mars 2024 – Le Parlement adopte la Loi sur l’IA.
  • Mai 2024 – Le Conseil approuve la Loi sur l’IA.
  • Juin 2024 – Les législateurs de l’Union européenne signent la loi.
  • 1er août 2024 – La Loi sur l’IA de l’UE entre en vigueur dans tous les États membres de l’UE.
  • 1er août 2026 – Après une période d’implémentation de deux ans, la réglementation sera pleinement applicable.

Les implications de la Loi sur l’IA dans les services financiers

À la fin de l’année dernière, la Banque d’Angleterre et l’Autorité de conduite financière ont mené une enquête sur l’intelligence artificielle et l’apprentissage automatique dans les services financiers du Royaume-Uni. Les résultats ont révélé que 75 % des entreprises utilisent déjà l’IA, tandis qu’un autre 10 % prévoient d’adopter l’IA dans les trois prochaines années.

Alors que le débat sur l’étendue de l’intégration de l’IA dans nos vies continue, il existe des avantages potentiels pour les participants du marché financier prêts à donner une chance à l’IA.

  • Automatisation – L’IA peut être un énorme gain de temps pour les tâches manuelles ou répétitives.
  • Analyse – L’IA peut fournir des analyses rapides et utiles.
  • Détection des anomalies – L’IA est efficace pour rechercher des modèles et des anomalies, ce qui en fait un outil puissant pour lutter contre la fraude.
  • Personnalisation – Les outils comme les chatbots améliorent la communication avec les clients et fournissent des messages plus personnalisés.
  • Réduction des coûts – Grâce à l’IA, il est possible de réduire les coûts, d’augmenter le retour sur investissement et d’améliorer la productivité.

Les enjeux de la non-conformité

Le coût de la non-conformité est exorbitant – jusqu’à 35 millions d’euros, ou jusqu’à 7 % du chiffre d’affaires mondial total d’une entreprise de l’année financière précédente, selon ce qui est le plus élevé.

Alors que la Loi sur l’IA de l’UE est mise en œuvre progressivement, il est crucial de suivre comment les pays non européens abordent la réglementation de l’IA.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...