La loi sur l’IA de l’UE entre en vigueur
La Commission Européenne a mis en œuvre sa Loi sur l’IA l’année dernière, en publiant des lignes directrices visant à garantir la conformité tout en équilibrant l’innovation en matière d’intelligence artificielle et la sécurité. La loi a culminé avec le lancement le 18 juillet de l’AI Act Explorer, un guide complet pour aider les entreprises à naviguer dans ces régulations.
Objectifs de la Loi sur l’IA
Cette loi a été établie pour introduire des safeguards pour les modèles d’intelligence artificielle avancés tout en cultivant un écosystème compétitif et innovant pour les entreprises d’IA. L’AI Act définit des classifications de risque distinctes pour différents modèles, afin d’assurer une application cohérente des régulations.
Henna Virkkunen, vice-présidente exécutive de la Commission Européenne pour la souveraineté technologique, la sécurité et la démocratie, a déclaré que les lignes directrices émises par la Commission soutiennent l’application fluide et efficace de la Loi sur l’IA.
Classement des risques
Dans le cadre du cadre réglementaire de l’UE, les modèles d’intelligence artificielle sont classés selon l’un des quatre niveaux de risque distincts : risque inacceptable, risque élevé, risque limité, et risque minimal.
Les applications classées dans la catégorie de risque inacceptable font face à une interdiction au sein de l’UE. Cela inclut spécifiquement des applications telles que les systèmes de reconnaissance faciale et les mécanismes de notation sociale. Les autres catégories sont déterminées par la capacité de calcul de l’IA ou ses fonctionnalités désignées.
Conséquences des obligations
Les fabricants de modèles d’IA identifiés comme présentant des risques systémiques sont soumis à des obligations spécifiques. Celles-ci incluent la réalisation d’évaluations complètes des modèles pour identifier les risques systémiques potentiels et la documentation des tests adversariaux effectués lors de l’atténuation de ces risques. De plus, ces fabricants doivent signaler les incidents graves aux bureaux de l’UE et nationaux si de tels événements se produisent.
Ils doivent également mettre en œuvre des mesures de cybersécurité appropriées pour se protéger contre l’utilisation abusive ou le compromis de leurs systèmes d’IA. La loi place de manière exhaustive la responsabilité sur les entreprises d’IA pour identifier et prévenir proactivement les risques systémiques à leur origine.
Les défis de la mise en œuvre
Critiques de la Loi sur l’IA ont qualifié ses régulations d’incohérentes et ont affirmé qu’elles inhibent l’innovation. Le 18 juillet, Joel Kaplan, responsable des affaires mondiales chez Meta, a déclaré que l’entreprise ne soutiendrait pas le Code de Pratique de l’UE pour les modèles d’IA à usage général, un cadre volontaire aligné sur la Loi sur l’IA. Kaplan a affirmé que ce Code introduit des incertitudes juridiques pour les développeurs de modèles, en plus de mesures qui dépassent largement le cadre de la Loi sur l’IA.
Des dirigeants d’entreprises telles que Mistral AI, SAP, et Siemens ont également demandé à l’UE de suspendre la mise en œuvre des régulations.
Un compromis pour l’avenir
Les partisans de la loi soutiennent qu’elle servira à restreindre les entreprises qui priorisent les profits au détriment de la vie privée et de la santé des consommateurs. Mistral et OpenAI se sont tous deux engagés à signer le Code de Pratique, un mécanisme volontaire permettant aux entreprises de démontrer leur conformité avec les régulations contraignantes.
La sortie de l’AI Act Explorer précède la date limite du 2 août d’environ deux semaines. Cette date limite impose que les modèles d’IA à usage général et ceux identifiés comme présentant des risques systémiques doivent se conformer aux dispositions de la Loi.
Pénalités pour non-conformité
La non-conformité aux stipulations de la Loi peut entraîner des sanctions financières substantielles. Les amendes varient de 7,5 millions d’euros (soit environ 8,7 millions de dollars) ou 1,5 % du chiffre d’affaires mondial d’une entreprise, jusqu’à un maximum de 35 millions d’euros (soit 7 % du chiffre d’affaires mondial), en fonction de la gravité de la violation.