L’Acte AI de l’UE : Une nouvelle ère pour la réglementation de l’intelligence artificielle en Europe
L’intelligence artificielle (IA) est déjà en train de transformer nos sociétés. Les régulateurs peuvent-ils aider ce secteur à prospérer tout en veillant à la sécurité des citoyens ? L’Union européenne (UE) pense que oui. Cet article se penche sur les détails de l’Acte AI.
Février 2025 a été un mois charnière pour le secteur de l’IA en Europe. Des dirigeants mondiaux se sont réunis lors du Sommet sur l’Action IA à Paris, et la Commission européenne a annoncé un programme d’investissement de 200 milliards d’euros pour faire de l’Europe une force majeure dans le domaine de l’IA.
Cependant, il y a plus à l’IA que le simple commerce. La sécurité est également un enjeu essentiel. Pour protéger ses citoyens, l’UE a élaboré l’Acte sur l’intelligence artificielle, qui crée un régime juridique uniforme pour tous les États membres. Il s’agit du premier cadre réglementaire majeur au monde pour l’IA.
Comment l’UE définit l’IA
Pour créer des lignes directrices autour de l’IA, il est crucial de définir ce qu’est exactement l’IA. Cela s’est avéré difficile, l’UE ayant révisé sa définition à plusieurs reprises. Cependant, en février 2025, elle a publié une nouvelle formulation dans l’Article 3(1) de l’Acte AI.
Un système d’IA est défini comme un système basé sur une machine conçu pour fonctionner avec divers niveaux d’autonomie et pouvant faire preuve d’adaptabilité après déploiement, et qui, pour des objectifs explicites ou implicites, infère, à partir des données d’entrée qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels.
Une brève histoire de l’Acte sur l’intelligence artificielle de l’UE
L’Acte sur l’IA de l’UE a été proposé pour la première fois en 2021 et approuvé en août 2024. Voici une chronologie des dates clés :
- Avril 2021 : La Commission européenne publie une proposition pour réglementer l’IA dans l’UE.
- Décembre 2023 : Un accord provisoire est atteint sur l’Acte AI.
- Août 2024 : L’Acte AI est publié dans le Journal officiel de l’Union européenne. Il entre en vigueur.
- Février 2025 : Les interdictions sur les systèmes d’IA et les exigences en matière de littératie en IA commencent à s’appliquer.
- Août 2026 : Le reste de l’Acte AI commencera à s’appliquer.
L’approche basée sur le risque de l’Acte AI
Toute réglementation doit trouver un équilibre entre la sécurité des citoyens et la promotion de l’innovation. C’est pourquoi l’. En résumé, plus le risque est élevé, plus les règles sont strictes. Les régulateurs s’attendent à ce que la plupart des cas d’utilisation de l’IA soient à faible risque et donc exemptés de contrôle. À l’autre extrême, certains programmes seront interdits s’ils portent atteinte aux droits fondamentaux et aux valeurs démocratiques.
L’Acte classe les systèmes d’IA en quatre niveaux :
- Risques faibles et minimes : Ces systèmes posent des risques minimes pour les droits fondamentaux ou la sécurité. Dans la plupart des cas, ils ne nécessiteront qu’une auto-déclaration. Exemples :
- Filtres anti-spam
- Systèmes de recommandation de produits
- Chatbots
- Filtres d’image ou de vidéo simples
- Jeux simples
- Risques élevés : Ces systèmes nécessitent des mesures de conformité strictes. Ils comprennent :
- Infrastructures critiques pouvant mettre des vies en danger
- Accès à l’éducation
- Composants de sécurité des produits
- Risques inacceptables : Ces systèmes d’IA sont considérés comme une menace pour les droits fondamentaux, la sécurité ou les moyens de subsistance. Ils sont interdits dans l’UE, notamment :
- Systèmes de notation de crédit social
- Identification biométrique à distance en temps réel pour le maintien de l’ordre
Une règle spéciale pour les ‘modèles’ d’IA
L’IA ne concerne pas seulement les cas d’utilisation. Elle concerne également les modèles de données qui les entraînent, que l’Acte appelle modèles d’IA à usage général (GPAIs). Les régulateurs européens proposent également une approche basée sur le risque ici.
Pour les GPAIs commerciaux, cela signifie transparence. Mais il existe des dispositions encore plus strictes pour les GPAIs présentant un « risque systémique ». Actuellement, l’Acte considère les modèles GPAI comme présentant un risque systémique lorsque la quantité cumulative de calcul utilisée pour l’entraînement dépasse 10^25 FLOPS (opérations en virgule flottante par seconde).
L’Acte AI de l’UE : portée et pénalités
Toute entreprise active dans le domaine de l’IA doit respecter les nouvelles règles. Étant donné que l’Acte est extraterritorial, il s’applique à toutes les entités, pas seulement à celles basées dans l’UE. Cela est significatif, car la plupart des leaders du marché de l’IA sont basés à l’étranger.
Des amendes sévères seront appliquées en cas de non-conformité :
- Lancement de systèmes d’IA interdits : Amendes pouvant atteindre 7 % du chiffre d’affaires annuel mondial ou 35 millions d’euros (selon le montant le plus élevé).
- Infractions liées à l’IA à haut risque et aux GPAI : 3 % du chiffre d’affaires annuel mondial ou 15 millions d’euros.
- Fourniture d’informations incorrectes : 1 % du chiffre d’affaires annuel mondial ou 7,5 millions d’euros.
Comment les entreprises doivent-elles se préparer à l’Acte AI ?
L’Acte est clair : les applications d’IA inacceptables sont déjà interdites, et les applications d’IA à haut risque doivent atteindre la conformité d’ici août 2026. Les entreprises doivent agir rapidement pour rester dans la légalité.
Les experts conseillent les étapes suivantes :
- Créer une analyse des besoins : Comment l’IA est-elle actuellement utilisée dans l’organisation ? Quelle est la qualification du personnel ? Quelle formation est nécessaire ?
- Élaborer un plan de formation : L’Acte stipule que les entreprises doivent avoir « une compétence en IA » pour utiliser les systèmes d’IA en toute sécurité.
- Désigner un spécialiste de l’IA : Bien que cela ne soit pas obligatoire, il peut être judicieux d’avoir une personne avec une connaissance approfondie des systèmes d’IA et une certaine expertise juridique.
- Se familiariser avec les normes de l’IA : Les organisations doivent connaître la norme technique ISO/IEC 42001 pour créer des systèmes de gestion de l’IA conformes aux nouvelles exigences réglementaires.
L’Acte AI de l’UE pourrait être la réglementation la plus significative et détaillée sur l’IA au monde. Il reflète la tentative de l’Europe de stimuler un secteur nouveau tout en protégeant la sécurité publique. Cet équilibre délicat nécessite une attention soutenue de la part des parties prenantes pour tirer parti de ses dispositions et éviter les violations.