Réglementation de l’IA en Europe : Une nouvelle ère s’ouvre

A compass pointing towards ethical AI use

L’Acte AI de l’UE : Une nouvelle ère pour la réglementation de l’intelligence artificielle en Europe

L’intelligence artificielle (IA) est déjà en train de transformer nos sociétés. Les régulateurs peuvent-ils aider ce secteur à prospérer tout en veillant à la sécurité des citoyens ? L’Union européenne (UE) pense que oui. Cet article se penche sur les détails de l’Acte AI.

Février 2025 a été un mois charnière pour le secteur de l’IA en Europe. Des dirigeants mondiaux se sont réunis lors du Sommet sur l’Action IA à Paris, et la Commission européenne a annoncé un programme d’investissement de 200 milliards d’euros pour faire de l’Europe une force majeure dans le domaine de l’IA.

Cependant, il y a plus à l’IA que le simple commerce. La sécurité est également un enjeu essentiel. Pour protéger ses citoyens, l’UE a élaboré l’Acte sur l’intelligence artificielle, qui crée un régime juridique uniforme pour tous les États membres. Il s’agit du premier cadre réglementaire majeur au monde pour l’IA.

Comment l’UE définit l’IA

Pour créer des lignes directrices autour de l’IA, il est crucial de définir ce qu’est exactement l’IA. Cela s’est avéré difficile, l’UE ayant révisé sa définition à plusieurs reprises. Cependant, en février 2025, elle a publié une nouvelle formulation dans l’Article 3(1) de l’Acte AI.

Un système d’IA est défini comme un système basé sur une machine conçu pour fonctionner avec divers niveaux d’autonomie et pouvant faire preuve d’adaptabilité après déploiement, et qui, pour des objectifs explicites ou implicites, infère, à partir des données d’entrée qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels.

Une brève histoire de l’Acte sur l’intelligence artificielle de l’UE

L’Acte sur l’IA de l’UE a été proposé pour la première fois en 2021 et approuvé en août 2024. Voici une chronologie des dates clés :

  • Avril 2021 : La Commission européenne publie une proposition pour réglementer l’IA dans l’UE.
  • Décembre 2023 : Un accord provisoire est atteint sur l’Acte AI.
  • Août 2024 : L’Acte AI est publié dans le Journal officiel de l’Union européenne. Il entre en vigueur.
  • Février 2025 : Les interdictions sur les systèmes d’IA et les exigences en matière de littératie en IA commencent à s’appliquer.
  • Août 2026 : Le reste de l’Acte AI commencera à s’appliquer.

L’approche basée sur le risque de l’Acte AI

Toute réglementation doit trouver un équilibre entre la sécurité des citoyens et la promotion de l’innovation. C’est pourquoi l’. En résumé, plus le risque est élevé, plus les règles sont strictes. Les régulateurs s’attendent à ce que la plupart des cas d’utilisation de l’IA soient à faible risque et donc exemptés de contrôle. À l’autre extrême, certains programmes seront interdits s’ils portent atteinte aux droits fondamentaux et aux valeurs démocratiques.

L’Acte classe les systèmes d’IA en quatre niveaux :

  • Risques faibles et minimes : Ces systèmes posent des risques minimes pour les droits fondamentaux ou la sécurité. Dans la plupart des cas, ils ne nécessiteront qu’une auto-déclaration. Exemples :
    • Filtres anti-spam
    • Systèmes de recommandation de produits
    • Chatbots
    • Filtres d’image ou de vidéo simples
    • Jeux simples
  • Risques élevés : Ces systèmes nécessitent des mesures de conformité strictes. Ils comprennent :
    • Infrastructures critiques pouvant mettre des vies en danger
    • Accès à l’éducation
    • Composants de sécurité des produits
  • Risques inacceptables : Ces systèmes d’IA sont considérés comme une menace pour les droits fondamentaux, la sécurité ou les moyens de subsistance. Ils sont interdits dans l’UE, notamment :
    • Systèmes de notation de crédit social
    • Identification biométrique à distance en temps réel pour le maintien de l’ordre

Une règle spéciale pour les ‘modèles’ d’IA

L’IA ne concerne pas seulement les cas d’utilisation. Elle concerne également les modèles de données qui les entraînent, que l’Acte appelle modèles d’IA à usage général (GPAIs). Les régulateurs européens proposent également une approche basée sur le risque ici.

Pour les GPAIs commerciaux, cela signifie transparence. Mais il existe des dispositions encore plus strictes pour les GPAIs présentant un « risque systémique ». Actuellement, l’Acte considère les modèles GPAI comme présentant un risque systémique lorsque la quantité cumulative de calcul utilisée pour l’entraînement dépasse 10^25 FLOPS (opérations en virgule flottante par seconde).

L’Acte AI de l’UE : portée et pénalités

Toute entreprise active dans le domaine de l’IA doit respecter les nouvelles règles. Étant donné que l’Acte est extraterritorial, il s’applique à toutes les entités, pas seulement à celles basées dans l’UE. Cela est significatif, car la plupart des leaders du marché de l’IA sont basés à l’étranger.

Des amendes sévères seront appliquées en cas de non-conformité :

  • Lancement de systèmes d’IA interdits : Amendes pouvant atteindre 7 % du chiffre d’affaires annuel mondial ou 35 millions d’euros (selon le montant le plus élevé).
  • Infractions liées à l’IA à haut risque et aux GPAI : 3 % du chiffre d’affaires annuel mondial ou 15 millions d’euros.
  • Fourniture d’informations incorrectes : 1 % du chiffre d’affaires annuel mondial ou 7,5 millions d’euros.

Comment les entreprises doivent-elles se préparer à l’Acte AI ?

L’Acte est clair : les applications d’IA inacceptables sont déjà interdites, et les applications d’IA à haut risque doivent atteindre la conformité d’ici août 2026. Les entreprises doivent agir rapidement pour rester dans la légalité.

Les experts conseillent les étapes suivantes :

  • Créer une analyse des besoins : Comment l’IA est-elle actuellement utilisée dans l’organisation ? Quelle est la qualification du personnel ? Quelle formation est nécessaire ?
  • Élaborer un plan de formation : L’Acte stipule que les entreprises doivent avoir « une compétence en IA » pour utiliser les systèmes d’IA en toute sécurité.
  • Désigner un spécialiste de l’IA : Bien que cela ne soit pas obligatoire, il peut être judicieux d’avoir une personne avec une connaissance approfondie des systèmes d’IA et une certaine expertise juridique.
  • Se familiariser avec les normes de l’IA : Les organisations doivent connaître la norme technique ISO/IEC 42001 pour créer des systèmes de gestion de l’IA conformes aux nouvelles exigences réglementaires.

L’Acte AI de l’UE pourrait être la réglementation la plus significative et détaillée sur l’IA au monde. Il reflète la tentative de l’Europe de stimuler un secteur nouveau tout en protégeant la sécurité publique. Cet équilibre délicat nécessite une attention soutenue de la part des parties prenantes pour tirer parti de ses dispositions et éviter les violations.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...