Le Royaume-Uni a-t-il besoin d’une loi sur l’IA ?
Le Royaume-Uni se trouve à un carrefour concernant l’intelligence artificielle (IA). Les enjeux sont accentués par le fait que nos alliés les plus proches semblent suivre des chemins divergents. L’année dernière, l’ a adopté sa propre loi sur l’IA, cherchant un consensus contrôlé sur la manière de réguler les nouvelles technologies. Pendant ce temps, les États-Unis adoptent une approche plus légère en matière de réglementation de l’IA, peut-être en raison des récompenses financières potentielles que leurs grandes entreprises technologiques pourraient perdre si elles sont étouffées par la réglementation.
Le Premier ministre Keir Starmer et le secrétaire à la science Peter Kyle semblent imiter la stratégie américaine. Lors du lancement en janvier du plan d’action sur les opportunités de l’IA du gouvernement, Kyle a déclaré qu’il souhaitait que la Grande-Bretagne « façonne la révolution de l’IA plutôt que d’attendre de voir comment elle nous façonne ». De nombreux experts ont appelé le gouvernement à instaurer une loi sur l’IA pour poser les bases d’un tel leadership.
Une loi sur l’IA comme signal de sérieux
Gina Neff – Professeur d’IA responsable à l’Université Queen Mary de Londres
Ce gouvernement mise gros sur l’IA, promettant d’accélérer l’innovation et l’investissement. Cependant, les garanties réglementaires sont fragmentées, la confiance du public demeure incertaine et la responsabilité réelle est floue. Avancer sans plan clair signifie que l’IA sera parachutée dans les industries, les lieux de travail et les services publics sans assurance qu’elle servira ceux qui en dépendent.
Une loi sur l’IA signalerait que le Royaume-Uni prend au sérieux l’objectif de faire fonctionner l’IA pour le bien des gens, en investissant dans les domaines qui comptent pour le pays et en exploitant le pouvoir de l’IA pour le bien. Une telle loi pourrait créer un cadre de surveillance là où il y a ambiguïté, en insistant sur la transparence et la responsabilité. Elle pourrait également fournir les bases nécessaires pour débloquer l’innovation au bénéfice du public en répondant à des questions clés : qui est responsable en cas d’échec de l’IA ? Quand les systèmes d’IA discriminent-ils ? Quand l’IA est-elle utilisée comme une arme ?
Le besoin d’une réglementation claire
Le gouvernement actuel emprunte à la logique de la Silicon Valley, positionnant la réglementation de l’IA comme l’opposée de l’innovation. Une telle logique ignore un fait crucial : la transition vers l’IA nécessitera un grand pas pour les travailleurs, les communautés et les sociétés. Le gouvernement doit intervenir là où le marché ne le fera pas : en nivelant le terrain de jeu pour que les grandes entreprises ne dominent pas notre avenir, en investissant dans l’éducation et les compétences, et en veillant à ce que les lois et réglementations actuelles restent appropriées.
Il existe une longue liste de tâches pour le gouvernement, notamment des préoccupations concernant l’impact sur les emplois d’entrée, les enfants, l’intégrité de l’information, l’environnement, le secteur créatif du Royaume-Uni, et l’égalité croissante. Le manque d’action ne fera qu’accroître la confusion pour les entreprises et l’incertitude concernant les droits et protections pour les travailleurs, les consommateurs et les citoyens.
Les responsabilités des entreprises technologiques
Une loi sur l’IA doit aller au-delà des protections de données pour établir des exigences de transparence et des dispositions de responsabilité, définir des garanties pour la propriété intellectuelle, et établir des règles plus claires concernant la prise de décision automatisée. Ce sont des responsabilités que les entreprises technologiques évitent largement. Qui peut les blâmer ? Elles ont conquis des marchés mondiaux et tireront d’énormes bénéfices de nos nouveaux investissements dans l’IA. Une loi sur l’IA au Royaume-Uni pourrait donner aux régulateurs des outils d’application plus puissants pour corriger le déséquilibre de pouvoir entre la société britannique et les plus grands acteurs mondiaux de ce secteur.
La nécessité d’une approche équilibrée
Marina Jirotka et Keri Grieman – Université d’Oxford
Le Royaume-Uni a choisi une politique d’investissement dans l’IA, tant dans l’industrie elle-même que dans l’éducation et la formation des compétences. Sa réticence à réglementer semble être alimentée par la peur de freiner une vache à lait potentielle. Cependant, cela laisse le fardeau réglementaire à des secteurs individuels, souvent sans suffisamment d’experts en réglementation de l’IA pour faire face aux défis croissants.
Le Royaume-Uni a besoin de clarté : pour l’industrie, pour la confiance du public et pour la prévention des dommages. Il existe des problèmes qui transcendent les secteurs : biais, discrimination, surenchère, impact environnemental, propriété intellectuelle et préoccupations en matière de vie privée. Un régulateur est une manière de s’attaquer à ces problèmes, mais il peut avoir des niveaux d’impact variables selon sa structure.
Quoi qu’il en soit, le Royaume-Uni doit fournir une clarté réglementaire le plus tôt possible : plus nous tardons, plus nous échouons à aborder les dommages potentiels, et nous risquons également de perdre des parts de marché si les entreprises choisissent de ne pas investir dans un marché plus petit avec un régime réglementaire flou.
Réglementer l’utilisation de l’IA
Baroness Beeban Kidron – Membre de la Chambre des Lords
Toute nouvelle technologie finit par être réglementée. À son arrivée, elle est accueillie avec admiration. Les revendications faites pour sa nature transformative et son exceptionnalité sont nombreuses. Mais tôt ou tard, ceux qui ont des responsabilités pour notre bien collectif auront leur mot à dire.
Nous devons réglementer, mais il semble que la volonté politique ait été capturée. Ceux qui contrôlent la technologie dictent les termes, mais ces termes oscillent entre rien de significatif et presque rien du tout. Pendant ce temps, le gouvernement valorise la croissance et l’efficacité sans se poser la question : croissance pour qui ? Efficacité dans quel but ?
En termes pratiques, une loi sur l’IA ne devrait pas chercher à réglementer l’IA en tant que technologie, mais plutôt à réglementer son utilisation dans divers domaines : dans la santé, où elle montre d’énormes avantages ; dans l’éducation, où ses revendications dépassent de loin ses réalisations ; dans le transport, où les assureurs imposent leurs règles ; et dans la distribution de l’information, où sa manipulation délibérée et ses erreurs de jugement créent plus de dommages que d’explications.
Répondre aux dommages quotidiens
Michael Birstwistle – Directeur associé, Ada Lovelace Institute
L’IA est partout : dans nos lieux de travail, nos services publics, nos moteurs de recherche, nos réseaux sociaux et applications de messagerie. Les risques de ces systèmes sont clairement énoncés dans le rapport de sécurité international sur l’IA du gouvernement.
Actuellement, il n’existe pas de cadre juridique cohérent régissant l’IA au Royaume-Uni. Au lieu de cela, les développeurs, les utilisateurs et les déployeurs doivent se conformer à un patchwork fragmenté de règles, laissant de nombreux risques non gérés.
Une enquête nationale récente a montré que 88 % des personnes estiment qu’il est important que le gouvernement ou les régulateurs aient le pouvoir d’arrêter l’utilisation d’un produit d’IA nuisible. Pourtant, plus de deux ans après le sommet de Bletchley et ses engagements, ce sont les développeurs d’IA qui décident de la mise sur le marché de modèles dangereux selon des critères qu’ils établissent eux-mêmes.
Le marché de l’IA doit être régulé pour garantir la confiance du public et prévenir les dommages. Le gouvernement a annoncé un projet de loi sur l’IA, mais son ambition déclarée est extrêmement étroite.
Vers une législation sectorielle
Jakob Mökander – Directeur des politiques scientifiques et technologiques, Tony Blair Institute for Global Change
La question n’est pas de savoir s’il faut réglementer la conception et l’utilisation de l’IA, mais comment le faire correctement. Les avancées rapides de l’IA offrent des opportunités passionnantes pour stimuler la croissance économique et améliorer les résultats sociaux. Cependant, l’IA pose également des risques, allant de la sécurité de l’information à la surveillance et à la discrimination algorithmique.
Il est impératif que le gouvernement britannique reste concentré sur une approche sectorielle, soutenant l’innovation tout en protégeant les intérêts des consommateurs, les droits de l’homme et la sécurité nationale.
Le Royaume-Uni a l’opportunité de servir d’exemple mondial distinct : pro-innovation, spécifique aux secteurs et ancré dans des cas d’utilisation réels. C’est le moment de rester concentré et de continuer à forger cette voie.