L’AI Act : Un Règlement Européen Révolutionnaire sur l’Intelligence Artificielle
Le Règlement Européen sur l’Intelligence Artificielle, communément appelé AI Act ou RIA, a été adopté par le Conseil de l’Union Européenne le 21 mai 2024 et publié au Journal Officiel de l’UE le 12 juillet 2024. Ce texte législatif vise à garantir une utilisation éthique et sécurisée des systèmes d’intelligence artificielle au sein de l’Union Européenne, tout en s’assurant du respect des droits fondamentaux.
Le RIA a pour objectif de protéger les individus et de promouvoir l’innovation, tout en positionnant l’Union Européenne comme un acteur clé dans le domaine de l’IA digne de confiance. Ce règlement s’inscrit dans une approche qui met l’accent sur la responsabilité et la sécurité des systèmes d’IA déployés sur le marché.
Une Approche par les Risques
Le champ d’application de l’AI Act s’étend aux systèmes d’IA, définis comme des systèmes automatisés capables de fonctionner à différents niveaux d’autonomie. Ces systèmes peuvent générer des prédictions, du contenu ou des recommandations basées sur les entrées reçues. Selon le niveau de risque associé, les obligations des fournisseurs, importateurs et utilisateurs professionnels, appelés déployeurs, varient considérablement.
Les Niveaux de Risque des Systèmes d’IA
Le Règlement établit quatre catégories de risque :
- Risques inacceptables : Interdictions de certains systèmes, comme l’utilisation de l’identification biométrique à distance dans des espaces publics, sauf exceptions précises.
- Haut risque : Systèmes soumis à des exigences renforcées, notamment ceux qui peuvent affecter la santé ou la sécurité.
- Risque faible : Systèmes principalement soumis à des obligations de transparence, tels que les chatbots.
- Risques minimaux : La majorité des systèmes d’IA, exemptés d’obligations spécifiques.
Les modèles d’IA à usage général doivent également respecter des réglementations strictes, incluant la transparence et le respect des droit d’auteur.
La Mise en Œuvre et l’Application Progressive du Règlement
Le RIA entre en vigueur le 1er août 2024. Son application sera progressive, avec plusieurs étapes :
- 2 février 2025 : Interdictions relatives aux systèmes à risque inacceptable et obligations de formation pour les employés.
- 2 août 2025 : Application des règles pour les modèles d’IA à usage général.
- 2 août 2026 : Applicabilité générale, en particulier pour les systèmes à haut risque.
- 2 août 2027 : Application des règles pour les systèmes à haut risque supplémentaires.
À la fin de 2030, les périodes de grâce pour les systèmes d’IA existants prendront fin, ce qui obligera tous les acteurs à être en conformité.
Préparer sa Mise en Conformité
Les fournisseurs de systèmes d’IA doivent commencer à identifier les risques associés à leurs technologies et à garantir le respect des droits fondamentaux. La documentation transparente et le maintien de standards élevés de qualité sont essentiels. La surveillance continue et les audits par des tiers indépendants permettront d’identifier et de corriger les dérives potentielles.
Les déployeurs doivent dès à présent classer leurs cas d’usage et anticiper leur conformité avec l’AI Act. En adoptant une approche éthique et collaborative avec les autorités, les entreprises peuvent non seulement se conformer aux exigences, mais aussi favoriser une innovation responsable et sécurisée.