Le projet de loi sur l’intelligence artificielle (IA) : Combler le fossé réglementaire de l’IA au Royaume-Uni ?
Le projet de loi sur l’intelligence artificielle (IA) [HL] (2025) représente une nouvelle tentative d’introduire une législation spécifique à l’IA au Royaume-Uni. Initialement présenté à la Chambre des Lords lors de la session parlementaire 2023-24, le projet de loi n’a pas progressé avant la dissolution du Parlement en vue des élections générales britanniques. Cependant, sa réintroduction le 4 mars 2025 souligne les préoccupations persistantes concernant la gouvernance de l’IA, en particulier à la lumière des développements réglementaires mondiaux et des appels croissants à une surveillance juridique.
La bataille pour la réglementation de l’IA : Pourquoi ce projet de loi est de retour sur la table
Pour comprendre la signification du projet de loi sur l’IA, il est essentiel d’examiner ses origines et le contexte politique plus large dans lequel il a été introduit. Nous explorerons d’abord la genèse du projet de loi, mettant en lumière son parcours législatif et son intention, suivie d’une analyse du paysage réglementaire évolutif de l’IA au Royaume-Uni, en tenant compte des facteurs nationaux et internationaux qui façonnent ce débat.
Un projet de loi d’un membre privé avec un élan croissant
Le projet de loi sur l’IA est un projet de loi d’un membre privé, ce qui signifie qu’il a été introduit par un pair individuel plutôt que par le gouvernement. De tels projets de loi ont souvent du mal à devenir loi en raison du temps parlementaire limité, à moins de bénéficier d’un soutien fort interpartis et gouvernemental. Cependant, la réintroduction du projet de loi sur l’IA signale des préoccupations persistantes parmi les décideurs politiques concernant les risques liés à l’IA et le besoin potentiel de mécanismes de surveillance formels.
Bien que le gouvernement britannique ait constamment résisté à une réglementation statutaire de l’IA, préférant une approche adaptable et fondée sur des principes, ce projet de loi reflète une pression croissante de la part des législateurs et des parties prenantes de l’industrie. Il a été soutenu que les lignes directrices volontaires existantes manquent d’applicabilité, créant ainsi une incertitude réglementaire.
À mesure que l’IA continue d’évoluer, cette proposition législative marque un moment important dans la stratégie de gouvernance de l’IA du Royaume-Uni. En proposant une autorité statutaire pour l’IA et des principes codifiés, le projet de loi vise à combler les lacunes réglementaires qui pourraient découler de l’approche sectorielle actuelle.
Le contexte plus large du projet de loi
Au-delà de ses origines législatives, le projet de loi sur l’IA est introduit dans un paysage réglementaire et géopolitique rapidement évolutif. Comprendre la stratégie existante du gouvernement britannique en matière d’IA, ainsi que la façon dont les développements internationaux influencent les décisions réglementaires, est crucial pour évaluer si ce projet de loi représente une intervention nécessaire ou un changement injustifié par rapport à l’approche actuelle du Royaume-Uni.
Le gouvernement britannique a activement promu des charges réglementaires minimales pour attirer les investissements dans l’IA et affirmer le rôle du Royaume-Uni en tant que leader mondial de l’IA. Le plan d’action pour l’IA renforce cette position réglementaire légère, privilégiant la flexibilité plutôt que des contrôles juridiques stricts.
Cependant, l’influence croissante des réglementations internationales sur l’IA ne peut être ignorée. La loi sur l’IA de l’UE adopte un modèle basé sur le risque, catégorisant les applications de l’IA en fonction de leur potentiel de préjudice et imposant des obligations de conformité correspondantes. En introduisant des éléments ressemblant à ce modèle de classification par risque, le projet de loi sur l’IA du Royaume-Uni pourrait indiquer une convergence réglementaire vers une surveillance plus stricte.
Au-delà de l’Europe, la politique réglementaire de l’IA du Royaume-Uni est située dans un paysage géopolitique plus large. Les États-Unis ont opté pour des normes volontaires en matière d’IA plutôt qu’une réglementation statutaire, une position largement partagée par le gouvernement britannique. Cependant, en revanche, la loi sur l’IA de l’UE a établi un régime réglementaire complet, imposant des obligations légales strictes aux développeurs et utilisateurs d’IA.
Cette tension a été mise en lumière lors d’une conférence de presse conjointe le 27 février 2025, où le Premier ministre britannique Keir Starmer et le président américain Donald Trump ont annoncé un nouvel accord économique axé sur l’IA et les technologies avancées. Starmer a explicitement réaffirmé l’engagement du Royaume-Uni envers une approche légère, déclarant : « Au lieu de sur-réglementer ces nouvelles technologies, nous saisissons les opportunités qu’elles offrent. »
Cette déclaration souligne un alignement Royaume-Uni-États-Unis promouvant l’innovation plutôt qu’une surveillance rigide de l’IA. La réintroduction du projet de loi sur l’IA signale donc que certains décideurs politiques britanniques estiment qu’une gouvernance plus forte de l’IA est nécessaire, non seulement pour s’aligner sur les normes mondiales, mais aussi pour faciliter les accords commerciaux en matière d’IA avec l’UE et les États-Unis.
Transformer le paysage de l’IA au Royaume-Uni : Ce que ce projet de loi cherche à changer
Nous analysons dans cette section son champ d’application et son impact potentiel. Plus précisément, nous évaluerons si ce projet de loi représente un changement fondamental dans la stratégie réglementaire du Royaume-Uni et comment il se compare aux cadres existants au Royaume-Uni et à l’international.
Alignement ou divergence réglementaire ?
Une question clé entourant le projet de loi sur l’IA est de savoir s’il représente une extension naturelle de la stratégie existante du Royaume-Uni en matière d’IA ou un départ radical de l’approche légère du gouvernement.
Le projet de loi propose l’établissement d’une autorité de l’IA, un organe de réglementation dédié chargé de superviser le développement de l’IA et d’assurer la conformité avec les nouvelles exigences légales. Cela contraste avec le modèle réglementaire actuel du Royaume-Uni, où la supervision de l’IA est dispersée entre les régulateurs existants, tels que le Bureau du commissaire à l’information (ICO), l’Autorité de la concurrence et des marchés (CMA), l’Autorité de conduite financière (FCA) et Ofcom. Si elle est adoptée, la loi créerait un organe de supervision centralisé, similaire à l’Office de l’IA de l’UE dans le cadre de la loi sur l’IA. Le projet de loi pourrait donc aligner le Royaume-Uni plus étroitement avec le cadre de classification par risque de la loi sur l’IA de l’UE.
Le projet de loi introduit plusieurs structures de gouvernance, y compris des évaluations d’impact sur l’IA obligatoires et des obligations de conformité standardisées. Il s’appuie sur le livre blanc du gouvernement britannique sur la réglementation de l’IA (mars 2023), qui a établi cinq principes clés de réglementation de l’IA : 1. sécurité, sûreté et robustesse, 2. transparence, 3. équité, 4. responsabilité et gouvernance, et 5. contestabilité et recours (les cinq principes de l’IA). Cependant, il diverge du plan d’action pour l’IA du Royaume-Uni (2024), qui a explicitement rejeté la réglementation prescriptive en faveur de la flexibilité. Si elle est adoptée, la loi marquerait un changement de politique majeur, imposant des obligations légales aux développeurs d’IA pour la première fois.
Dispositions clés : De la transparence à l’engagement public
Pour comprendre l’ensemble du projet de loi sur l’IA, il est important d’examiner ses principales dispositions. Celles-ci incluent :
- Création d’une autorité de l’IA : le projet de loi propose l’établissement d’un organe de réglementation dédié chargé de superviser la conformité à l’IA et de coordonner avec les régulateurs sectoriels.
- Principes réglementaires : le projet de loi consacre les cinq principes de l’IA, dérivés du livre blanc du gouvernement britannique de mars 2023, « Une approche pro-innovation de la réglementation de l’IA ».
- Engagement public et éthique de l’IA : le projet de loi souligne la nécessité d’une consultation publique concernant les risques de l’IA et la transparence dans l’utilisation des données par des tiers, y compris les exigences d’obtention d’un consentement éclairé lors de l’utilisation de jeux de données d’entraînement pour l’IA.
Commentaire
Bien que le projet de loi sur l’IA (2025) soit peu susceptible de passer dans sa forme actuelle, compte tenu des contraintes de temps et du manque de soutien du gouvernement britannique jusqu’à présent, il représente une étape significative dans le débat sur la politique de l’IA au Royaume-Uni. Il met en évidence une tension croissante entre la position pro-innovation du gouvernement et les appels législatifs en faveur de garanties formelles pour l’IA.
Cette initiative législative intervient à un moment où le gouvernement britannique reste engagé envers une approche pro-innovation en matière de réglementation de l’IA, une position d’abord articulée lors du Sommet sur la sécurité de l’IA en 2023 et réaffirmée dans le plan d’action sur les opportunités d’IA publié le 13 janvier 2025. Contrairement à l’Union européenne, qui a mis en œuvre la loi sur l’IA, le Royaume-Uni a favorisé une approche sectorielle et fondée sur des principes en matière de réglementation de l’IA. Si elle est adoptée, la loi marquerait un changement fondamental dans la réglementation de l’IA au Royaume-Uni, la rapprochant du cadre basé sur le risque de l’UE tout en remettant en question l’approche sectorielle actuelle du Royaume-Uni. La question de savoir si ce projet de loi prendra de l’ampleur dépendra de la reconnaissance par les décideurs, les régulateurs et les leaders de l’industrie d’un besoin urgent de surveillance plus stricte, ou si le modèle réglementaire décentralisé actuel du Royaume-Uni reste l’approche de gouvernance privilégiée pour stimuler l’innovation en matière d’IA.