Mise à jour sur la réglementation de l’IA en Europe

A blueprint illustrating the structured approach to developing AI standards.

Mise à jour sur l’Acte AI de l’UE : Naviguer vers l’avenir

Dans un mouvement qui souligne l’engagement de l’Union européenne à façonner l’avenir de l’intelligence artificielle (IA), la Commission européenne a annoncé qu’elle procédera à ses réglementations prévues sur l’IA sans aucun retard.

De plus, le 10 juillet 2025, la Commission a publié le Code de pratique pour l’IA à usage général (GPAI) accompagné de réponses aux questions fréquemment posées (FAQ) pour aider à la conformité avec les exigences de l’Acte AI de l’UE.

Points rapides

  • La Commission européenne a confirmé qu’il n’y aura aucun retard dans la mise en œuvre de l’Acte AI de l’UE.
  • Le 10 juillet 2025, le Code de pratique GPAI et les FAQ associées ont été publiés. Le Code de pratique GPAI vise à aider à la conformité avec les obligations de l’Acte AI.

Une position ferme sur la réglementation de l’IA

La décision de la Commission de poursuivre les réglementations sur l’IA reflète sa position proactive pour garantir que les technologies de l’IA soient développées et déployées de manière responsable. Les réglementations, qui sont en préparation depuis plusieurs années, visent à créer un cadre complet qui aborde les implications éthiques, juridiques et sociétales de l’IA. Des acteurs majeurs de la technologie et des entreprises européennes ont récemment exhorté la Commission à retarder l’Acte AI de plusieurs années.

En ajoutant à cet élan, cette semaine, la Commission européenne a reçu la version finale du Code de pratique GPAI. Ce document historique est prêt à établir la norme pour le déploiement éthique de l’IA en Europe, garantissant que les technologies de l’IA soient développées et utilisées de manière transparente, responsable et en accord avec les droits fondamentaux de l’homme.

Le Code de pratique GPAI est volontaire pour les organisations souhaitant démontrer leur conformité à l’Acte AI de l’UE. La Commission s’attend à ce que les organisations qui acceptent de les suivre aient un « fardeau administratif réduit » et une « plus grande certitude juridique » par rapport à celles qui choisissent de montrer leur conformité d’autres manières.

Le Code de pratique GPAI comporte trois chapitres : « Transparence » et « Droits d’auteur », qui s’adressent à tous les fournisseurs de modèles d’IA à usage général, et « Sécurité et sûreté », qui ne concerne qu’un nombre limité de fournisseurs des modèles les plus avancés. Dans le chapitre « Transparence », se trouve un formulaire de documentation de modèle pour que les fournisseurs documentent leur conformité aux exigences de transparence de l’Acte AI.

Perspectives d’avenir

Alors que la Commission européenne avance avec la mise en œuvre du Code de pratique GPAI, l’accent sera mis sur la promotion d’une culture de développement éthique de l’IA. Cela impliquera un dialogue continu avec les parties prenantes, un suivi régulier des systèmes d’IA et des mises à jour régulières du Code de pratique GPAI pour suivre l’évolution technologique. De plus, des lignes directrices de la Commission sur des concepts clés liés aux modèles d’IA à usage général devraient être publiées prochainement.

D’autres dates futures clés à noter sont :

  • 2 août 2025 : À partir de cette date, les dispositions concernant la notification aux autorités, les modèles d’IA à usage général, la gouvernance, la confidentialité et la plupart des pénalités entreront en vigueur.
  • 2 février 2026 : Des lignes directrices devraient être disponibles précisant comment se conformer aux dispositions concernant les systèmes d’IA à haut risque, y compris des exemples pratiques de systèmes à haut risque et non à haut risque.
  • 2 août 2026 : Le reste de la législation entrera en vigueur, sauf pour une disposition mineure concernant des types spécifiques de systèmes d’IA à haut risque qui entreront en vigueur le 1er août 2027.

Entre-temps, la version finale du Code de pratique GPAI marque une étape significative dans la mise en œuvre de l’Acte AI.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...