Consultation de l’UE sur les Définitions de la Loi sur l’IA et les Utilisations Interdites
Le Union Européenne a lancé une consultation visant à recueillir des avis sur des aspects clés de sa réglementation sur l’intelligence artificielle (IA), en se concentrant particulièrement sur la définition des systèmes d’IA et les utilisations interdites de l’IA. La consultation, qui se déroule jusqu’au 11 décembre 2024, fait partie des efforts plus larges de l’UE pour développer des orientations de conformité pour sa nouvelle loi sur l’IA, suite à un accord historique atteint en décembre dernier.
Cadre Réglementaire de la Loi sur l’IA
La Loi sur l’Intelligence Artificielle (AI Act), entrée en vigueur le 1er août 2024, sera mise en œuvre progressivement sur une période de 36 mois. Cette loi introduit un cadre réglementaire complet affectant les entreprises du monde entier à travers divers secteurs, avec pour objectif de promouvoir une IA centrée sur l’humain et de confiance tout en maintenant des normes de sécurité élevées et en protégeant les droit fondamentaux.
Classification des Systèmes d’IA
Selon la Loi sur l’IA, les systèmes d’IA sont classés en quatre niveaux de risque : risque minimal, risque élevé, risque inacceptable, et risque spécifique de transparence. Les systèmes à haut risque incluent des applications critiques pour la sécurité dans les infrastructures essentielles, l’emploi, l’application de la loi et les processus judiciaires. Les systèmes d’IA à risque limité, tels que les chatbots et les assistants numériques, doivent répondre à des exigences de transparence spécifiques.
Cette approche par niveaux s’appuie sur des initiatives antérieures de l’UE en matière de réglementation numérique, y compris le RGPD et la Loi sur les Services Numériques.
Obligations de Transparence
À partir du 2 août 2026, les fournisseurs devront informer les utilisateurs lorsqu’ils interagissent avec des systèmes d’IA, sauf si cela est évident dans le contexte. Des obligations de transparence supplémentaires s’appliquent aux systèmes impliquant la reconnaissance des émotions, la catégorisation biométrique, et les deepfakes, reflétant les préoccupations croissantes concernant la manipulation des médias et des données personnelles par l’IA.
Applications d’IA Interdites
La loi interdit explicitement certaines applications d’IA jugées présenter des risques inacceptables, y compris les systèmes de notation sociale à la chinoise et la reconnaissance faciale non réglementée dans les espaces publics. La consultation actuelle recherche des retours détaillés sur ces utilisations interdites, la Commission Européenne prévoyant de publier des orientations sur la définition des systèmes d’IA et des applications interdites au début de 2025.
Structures d’Implémentation
Pour la mise en œuvre, les États Membres de l’UE doivent établir ou désigner trois types d’autorités : les autorités de surveillance du marché, les autorités notifiantes, et les autorités publiques nationales responsables de l’application des droits fondamentaux. Les États membres disposent d’une flexibilité dans la structuration de ces autorités, comme le montre l’approche centralisée de l’Espagne et le modèle décentralisé proposé par la Finlande. Cette flexibilité vise à s’adapter aux différents cadres réglementaires nationaux tout en garantissant une application cohérente à travers l’UE.
Appel à Contribution
La consultation accueille les contributions des parties prenantes de l’industrie de l’IA, du secteur des affaires, du monde académique, et de la société civile. Les participants peuvent fournir des retours sur la clarté des définitions clés de la loi et suggérer des exemples de logiciels qui devraient être exclus de son champ d’application.