La loi sur l’IA de l’UE entre en vigueur : ce qu’il faut savoir

A circuit board

La loi sur l’IA de l’UE entre en vigueur

La Commission Européenne a mis en œuvre sa Loi sur l’IA l’année dernière, en publiant des lignes directrices visant à garantir la conformité tout en équilibrant l’innovation en matière d’intelligence artificielle et la sécurité. La loi a culminé avec le lancement le 18 juillet de l’AI Act Explorer, un guide complet pour aider les entreprises à naviguer dans ces régulations.

Objectifs de la Loi sur l’IA

Cette loi a été établie pour introduire des safeguards pour les modèles d’intelligence artificielle avancés tout en cultivant un écosystème compétitif et innovant pour les entreprises d’IA. L’AI Act définit des classifications de risque distinctes pour différents modèles, afin d’assurer une application cohérente des régulations.

Henna Virkkunen, vice-présidente exécutive de la Commission Européenne pour la souveraineté technologique, la sécurité et la démocratie, a déclaré que les lignes directrices émises par la Commission soutiennent l’application fluide et efficace de la Loi sur l’IA.

Classement des risques

Dans le cadre du cadre réglementaire de l’UE, les modèles d’intelligence artificielle sont classés selon l’un des quatre niveaux de risque distincts : risque inacceptable, risque élevé, risque limité, et risque minimal.

Les applications classées dans la catégorie de risque inacceptable font face à une interdiction au sein de l’UE. Cela inclut spécifiquement des applications telles que les systèmes de reconnaissance faciale et les mécanismes de notation sociale. Les autres catégories sont déterminées par la capacité de calcul de l’IA ou ses fonctionnalités désignées.

Conséquences des obligations

Les fabricants de modèles d’IA identifiés comme présentant des risques systémiques sont soumis à des obligations spécifiques. Celles-ci incluent la réalisation d’évaluations complètes des modèles pour identifier les risques systémiques potentiels et la documentation des tests adversariaux effectués lors de l’atténuation de ces risques. De plus, ces fabricants doivent signaler les incidents graves aux bureaux de l’UE et nationaux si de tels événements se produisent.

Ils doivent également mettre en œuvre des mesures de cybersécurité appropriées pour se protéger contre l’utilisation abusive ou le compromis de leurs systèmes d’IA. La loi place de manière exhaustive la responsabilité sur les entreprises d’IA pour identifier et prévenir proactivement les risques systémiques à leur origine.

Les défis de la mise en œuvre

Critiques de la Loi sur l’IA ont qualifié ses régulations d’incohérentes et ont affirmé qu’elles inhibent l’innovation. Le 18 juillet, Joel Kaplan, responsable des affaires mondiales chez Meta, a déclaré que l’entreprise ne soutiendrait pas le Code de Pratique de l’UE pour les modèles d’IA à usage général, un cadre volontaire aligné sur la Loi sur l’IA. Kaplan a affirmé que ce Code introduit des incertitudes juridiques pour les développeurs de modèles, en plus de mesures qui dépassent largement le cadre de la Loi sur l’IA.

Des dirigeants d’entreprises telles que Mistral AI, SAP, et Siemens ont également demandé à l’UE de suspendre la mise en œuvre des régulations.

Un compromis pour l’avenir

Les partisans de la loi soutiennent qu’elle servira à restreindre les entreprises qui priorisent les profits au détriment de la vie privée et de la santé des consommateurs. Mistral et OpenAI se sont tous deux engagés à signer le Code de Pratique, un mécanisme volontaire permettant aux entreprises de démontrer leur conformité avec les régulations contraignantes.

La sortie de l’AI Act Explorer précède la date limite du 2 août d’environ deux semaines. Cette date limite impose que les modèles d’IA à usage général et ceux identifiés comme présentant des risques systémiques doivent se conformer aux dispositions de la Loi.

Pénalités pour non-conformité

La non-conformité aux stipulations de la Loi peut entraîner des sanctions financières substantielles. Les amendes varient de 7,5 millions d’euros (soit environ 8,7 millions de dollars) ou 1,5 % du chiffre d’affaires mondial d’une entreprise, jusqu’à un maximum de 35 millions d’euros (soit 7 % du chiffre d’affaires mondial), en fonction de la gravité de la violation.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...