Le Royaume-Uni a-t-il besoin d’une loi sur l’IA ?

Le Royaume-Uni se trouve à un carrefour concernant l’intelligence artificielle (IA). Les enjeux sont accentués par le fait que nos alliés les plus proches semblent suivre des chemins divergents. L’année dernière, l’ a adopté sa propre loi sur l’IA, cherchant un consensus contrôlé sur la manière de réguler les nouvelles technologies. Pendant ce temps, les États-Unis adoptent une approche plus légère en matière de réglementation de l’IA, peut-être en raison des récompenses financières potentielles que leurs grandes entreprises technologiques pourraient perdre si elles sont étouffées par la réglementation.

Le Premier ministre Keir Starmer et le secrétaire à la science Peter Kyle semblent imiter la stratégie américaine. Lors du lancement en janvier du plan d’action sur les opportunités de l’IA du gouvernement, Kyle a déclaré qu’il souhaitait que la Grande-Bretagne « façonne la révolution de l’IA plutôt que d’attendre de voir comment elle nous façonne ». De nombreux experts ont appelé le gouvernement à instaurer une loi sur l’IA pour poser les bases d’un tel leadership.

Une loi sur l’IA comme signal de sérieux

Gina Neff – Professeur d’IA responsable à l’Université Queen Mary de Londres

Ce gouvernement mise gros sur l’IA, promettant d’accélérer l’innovation et l’investissement. Cependant, les garanties réglementaires sont fragmentées, la confiance du public demeure incertaine et la responsabilité réelle est floue. Avancer sans plan clair signifie que l’IA sera parachutée dans les industries, les lieux de travail et les services publics sans assurance qu’elle servira ceux qui en dépendent.

Une loi sur l’IA signalerait que le Royaume-Uni prend au sérieux l’objectif de faire fonctionner l’IA pour le bien des gens, en investissant dans les domaines qui comptent pour le pays et en exploitant le pouvoir de l’IA pour le bien. Une telle loi pourrait créer un cadre de surveillance là où il y a ambiguïté, en insistant sur la transparence et la responsabilité. Elle pourrait également fournir les bases nécessaires pour débloquer l’innovation au bénéfice du public en répondant à des questions clés : qui est responsable en cas d’échec de l’IA ? Quand les systèmes d’IA discriminent-ils ? Quand l’IA est-elle utilisée comme une arme ?

Le besoin d’une réglementation claire

Le gouvernement actuel emprunte à la logique de la Silicon Valley, positionnant la réglementation de l’IA comme l’opposée de l’innovation. Une telle logique ignore un fait crucial : la transition vers l’IA nécessitera un grand pas pour les travailleurs, les communautés et les sociétés. Le gouvernement doit intervenir là où le marché ne le fera pas : en nivelant le terrain de jeu pour que les grandes entreprises ne dominent pas notre avenir, en investissant dans l’éducation et les compétences, et en veillant à ce que les lois et réglementations actuelles restent appropriées.

Il existe une longue liste de tâches pour le gouvernement, notamment des préoccupations concernant l’impact sur les emplois d’entrée, les enfants, l’intégrité de l’information, l’environnement, le secteur créatif du Royaume-Uni, et l’égalité croissante. Le manque d’action ne fera qu’accroître la confusion pour les entreprises et l’incertitude concernant les droits et protections pour les travailleurs, les consommateurs et les citoyens.

Les responsabilités des entreprises technologiques

Une loi sur l’IA doit aller au-delà des protections de données pour établir des exigences de transparence et des dispositions de responsabilité, définir des garanties pour la propriété intellectuelle, et établir des règles plus claires concernant la prise de décision automatisée. Ce sont des responsabilités que les entreprises technologiques évitent largement. Qui peut les blâmer ? Elles ont conquis des marchés mondiaux et tireront d’énormes bénéfices de nos nouveaux investissements dans l’IA. Une loi sur l’IA au Royaume-Uni pourrait donner aux régulateurs des outils d’application plus puissants pour corriger le déséquilibre de pouvoir entre la société britannique et les plus grands acteurs mondiaux de ce secteur.

La nécessité d’une approche équilibrée

Marina Jirotka et Keri Grieman – Université d’Oxford

Le Royaume-Uni a choisi une politique d’investissement dans l’IA, tant dans l’industrie elle-même que dans l’éducation et la formation des compétences. Sa réticence à réglementer semble être alimentée par la peur de freiner une vache à lait potentielle. Cependant, cela laisse le fardeau réglementaire à des secteurs individuels, souvent sans suffisamment d’experts en réglementation de l’IA pour faire face aux défis croissants.

Le Royaume-Uni a besoin de clarté : pour l’industrie, pour la confiance du public et pour la prévention des dommages. Il existe des problèmes qui transcendent les secteurs : biais, discrimination, surenchère, impact environnemental, propriété intellectuelle et préoccupations en matière de vie privée. Un régulateur est une manière de s’attaquer à ces problèmes, mais il peut avoir des niveaux d’impact variables selon sa structure.

Quoi qu’il en soit, le Royaume-Uni doit fournir une clarté réglementaire le plus tôt possible : plus nous tardons, plus nous échouons à aborder les dommages potentiels, et nous risquons également de perdre des parts de marché si les entreprises choisissent de ne pas investir dans un marché plus petit avec un régime réglementaire flou.

Réglementer l’utilisation de l’IA

Baroness Beeban Kidron – Membre de la Chambre des Lords

Toute nouvelle technologie finit par être réglementée. À son arrivée, elle est accueillie avec admiration. Les revendications faites pour sa nature transformative et son exceptionnalité sont nombreuses. Mais tôt ou tard, ceux qui ont des responsabilités pour notre bien collectif auront leur mot à dire.

Nous devons réglementer, mais il semble que la volonté politique ait été capturée. Ceux qui contrôlent la technologie dictent les termes, mais ces termes oscillent entre rien de significatif et presque rien du tout. Pendant ce temps, le gouvernement valorise la croissance et l’efficacité sans se poser la question : croissance pour qui ? Efficacité dans quel but ?

En termes pratiques, une loi sur l’IA ne devrait pas chercher à réglementer l’IA en tant que technologie, mais plutôt à réglementer son utilisation dans divers domaines : dans la santé, où elle montre d’énormes avantages ; dans l’éducation, où ses revendications dépassent de loin ses réalisations ; dans le transport, où les assureurs imposent leurs règles ; et dans la distribution de l’information, où sa manipulation délibérée et ses erreurs de jugement créent plus de dommages que d’explications.

Répondre aux dommages quotidiens

Michael Birstwistle – Directeur associé, Ada Lovelace Institute

L’IA est partout : dans nos lieux de travail, nos services publics, nos moteurs de recherche, nos réseaux sociaux et applications de messagerie. Les risques de ces systèmes sont clairement énoncés dans le rapport de sécurité international sur l’IA du gouvernement.

Actuellement, il n’existe pas de cadre juridique cohérent régissant l’IA au Royaume-Uni. Au lieu de cela, les développeurs, les utilisateurs et les déployeurs doivent se conformer à un patchwork fragmenté de règles, laissant de nombreux risques non gérés.

Une enquête nationale récente a montré que 88 % des personnes estiment qu’il est important que le gouvernement ou les régulateurs aient le pouvoir d’arrêter l’utilisation d’un produit d’IA nuisible. Pourtant, plus de deux ans après le sommet de Bletchley et ses engagements, ce sont les développeurs d’IA qui décident de la mise sur le marché de modèles dangereux selon des critères qu’ils établissent eux-mêmes.

Le marché de l’IA doit être régulé pour garantir la confiance du public et prévenir les dommages. Le gouvernement a annoncé un projet de loi sur l’IA, mais son ambition déclarée est extrêmement étroite.

Vers une législation sectorielle

Jakob Mökander – Directeur des politiques scientifiques et technologiques, Tony Blair Institute for Global Change

La question n’est pas de savoir s’il faut réglementer la conception et l’utilisation de l’IA, mais comment le faire correctement. Les avancées rapides de l’IA offrent des opportunités passionnantes pour stimuler la croissance économique et améliorer les résultats sociaux. Cependant, l’IA pose également des risques, allant de la sécurité de l’information à la surveillance et à la discrimination algorithmique.

Il est impératif que le gouvernement britannique reste concentré sur une approche sectorielle, soutenant l’innovation tout en protégeant les intérêts des consommateurs, les droits de l’homme et la sécurité nationale.

Le Royaume-Uni a l’opportunité de servir d’exemple mondial distinct : pro-innovation, spécifique aux secteurs et ancré dans des cas d’utilisation réels. C’est le moment de rester concentré et de continuer à forger cette voie.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...