Le Royaume-Uni a-t-il besoin d’une loi sur l’IA ?

Le Royaume-Uni se trouve à un carrefour concernant l’intelligence artificielle (IA). Les enjeux sont accentués par le fait que nos alliés les plus proches semblent suivre des chemins divergents. L’année dernière, l’ a adopté sa propre loi sur l’IA, cherchant un consensus contrôlé sur la manière de réguler les nouvelles technologies. Pendant ce temps, les États-Unis adoptent une approche plus légère en matière de réglementation de l’IA, peut-être en raison des récompenses financières potentielles que leurs grandes entreprises technologiques pourraient perdre si elles sont étouffées par la réglementation.

Le Premier ministre Keir Starmer et le secrétaire à la science Peter Kyle semblent imiter la stratégie américaine. Lors du lancement en janvier du plan d’action sur les opportunités de l’IA du gouvernement, Kyle a déclaré qu’il souhaitait que la Grande-Bretagne « façonne la révolution de l’IA plutôt que d’attendre de voir comment elle nous façonne ». De nombreux experts ont appelé le gouvernement à instaurer une loi sur l’IA pour poser les bases d’un tel leadership.

Une loi sur l’IA comme signal de sérieux

Gina Neff – Professeur d’IA responsable à l’Université Queen Mary de Londres

Ce gouvernement mise gros sur l’IA, promettant d’accélérer l’innovation et l’investissement. Cependant, les garanties réglementaires sont fragmentées, la confiance du public demeure incertaine et la responsabilité réelle est floue. Avancer sans plan clair signifie que l’IA sera parachutée dans les industries, les lieux de travail et les services publics sans assurance qu’elle servira ceux qui en dépendent.

Une loi sur l’IA signalerait que le Royaume-Uni prend au sérieux l’objectif de faire fonctionner l’IA pour le bien des gens, en investissant dans les domaines qui comptent pour le pays et en exploitant le pouvoir de l’IA pour le bien. Une telle loi pourrait créer un cadre de surveillance là où il y a ambiguïté, en insistant sur la transparence et la responsabilité. Elle pourrait également fournir les bases nécessaires pour débloquer l’innovation au bénéfice du public en répondant à des questions clés : qui est responsable en cas d’échec de l’IA ? Quand les systèmes d’IA discriminent-ils ? Quand l’IA est-elle utilisée comme une arme ?

Le besoin d’une réglementation claire

Le gouvernement actuel emprunte à la logique de la Silicon Valley, positionnant la réglementation de l’IA comme l’opposée de l’innovation. Une telle logique ignore un fait crucial : la transition vers l’IA nécessitera un grand pas pour les travailleurs, les communautés et les sociétés. Le gouvernement doit intervenir là où le marché ne le fera pas : en nivelant le terrain de jeu pour que les grandes entreprises ne dominent pas notre avenir, en investissant dans l’éducation et les compétences, et en veillant à ce que les lois et réglementations actuelles restent appropriées.

Il existe une longue liste de tâches pour le gouvernement, notamment des préoccupations concernant l’impact sur les emplois d’entrée, les enfants, l’intégrité de l’information, l’environnement, le secteur créatif du Royaume-Uni, et l’égalité croissante. Le manque d’action ne fera qu’accroître la confusion pour les entreprises et l’incertitude concernant les droits et protections pour les travailleurs, les consommateurs et les citoyens.

Les responsabilités des entreprises technologiques

Une loi sur l’IA doit aller au-delà des protections de données pour établir des exigences de transparence et des dispositions de responsabilité, définir des garanties pour la propriété intellectuelle, et établir des règles plus claires concernant la prise de décision automatisée. Ce sont des responsabilités que les entreprises technologiques évitent largement. Qui peut les blâmer ? Elles ont conquis des marchés mondiaux et tireront d’énormes bénéfices de nos nouveaux investissements dans l’IA. Une loi sur l’IA au Royaume-Uni pourrait donner aux régulateurs des outils d’application plus puissants pour corriger le déséquilibre de pouvoir entre la société britannique et les plus grands acteurs mondiaux de ce secteur.

La nécessité d’une approche équilibrée

Marina Jirotka et Keri Grieman – Université d’Oxford

Le Royaume-Uni a choisi une politique d’investissement dans l’IA, tant dans l’industrie elle-même que dans l’éducation et la formation des compétences. Sa réticence à réglementer semble être alimentée par la peur de freiner une vache à lait potentielle. Cependant, cela laisse le fardeau réglementaire à des secteurs individuels, souvent sans suffisamment d’experts en réglementation de l’IA pour faire face aux défis croissants.

Le Royaume-Uni a besoin de clarté : pour l’industrie, pour la confiance du public et pour la prévention des dommages. Il existe des problèmes qui transcendent les secteurs : biais, discrimination, surenchère, impact environnemental, propriété intellectuelle et préoccupations en matière de vie privée. Un régulateur est une manière de s’attaquer à ces problèmes, mais il peut avoir des niveaux d’impact variables selon sa structure.

Quoi qu’il en soit, le Royaume-Uni doit fournir une clarté réglementaire le plus tôt possible : plus nous tardons, plus nous échouons à aborder les dommages potentiels, et nous risquons également de perdre des parts de marché si les entreprises choisissent de ne pas investir dans un marché plus petit avec un régime réglementaire flou.

Réglementer l’utilisation de l’IA

Baroness Beeban Kidron – Membre de la Chambre des Lords

Toute nouvelle technologie finit par être réglementée. À son arrivée, elle est accueillie avec admiration. Les revendications faites pour sa nature transformative et son exceptionnalité sont nombreuses. Mais tôt ou tard, ceux qui ont des responsabilités pour notre bien collectif auront leur mot à dire.

Nous devons réglementer, mais il semble que la volonté politique ait été capturée. Ceux qui contrôlent la technologie dictent les termes, mais ces termes oscillent entre rien de significatif et presque rien du tout. Pendant ce temps, le gouvernement valorise la croissance et l’efficacité sans se poser la question : croissance pour qui ? Efficacité dans quel but ?

En termes pratiques, une loi sur l’IA ne devrait pas chercher à réglementer l’IA en tant que technologie, mais plutôt à réglementer son utilisation dans divers domaines : dans la santé, où elle montre d’énormes avantages ; dans l’éducation, où ses revendications dépassent de loin ses réalisations ; dans le transport, où les assureurs imposent leurs règles ; et dans la distribution de l’information, où sa manipulation délibérée et ses erreurs de jugement créent plus de dommages que d’explications.

Répondre aux dommages quotidiens

Michael Birstwistle – Directeur associé, Ada Lovelace Institute

L’IA est partout : dans nos lieux de travail, nos services publics, nos moteurs de recherche, nos réseaux sociaux et applications de messagerie. Les risques de ces systèmes sont clairement énoncés dans le rapport de sécurité international sur l’IA du gouvernement.

Actuellement, il n’existe pas de cadre juridique cohérent régissant l’IA au Royaume-Uni. Au lieu de cela, les développeurs, les utilisateurs et les déployeurs doivent se conformer à un patchwork fragmenté de règles, laissant de nombreux risques non gérés.

Une enquête nationale récente a montré que 88 % des personnes estiment qu’il est important que le gouvernement ou les régulateurs aient le pouvoir d’arrêter l’utilisation d’un produit d’IA nuisible. Pourtant, plus de deux ans après le sommet de Bletchley et ses engagements, ce sont les développeurs d’IA qui décident de la mise sur le marché de modèles dangereux selon des critères qu’ils établissent eux-mêmes.

Le marché de l’IA doit être régulé pour garantir la confiance du public et prévenir les dommages. Le gouvernement a annoncé un projet de loi sur l’IA, mais son ambition déclarée est extrêmement étroite.

Vers une législation sectorielle

Jakob Mökander – Directeur des politiques scientifiques et technologiques, Tony Blair Institute for Global Change

La question n’est pas de savoir s’il faut réglementer la conception et l’utilisation de l’IA, mais comment le faire correctement. Les avancées rapides de l’IA offrent des opportunités passionnantes pour stimuler la croissance économique et améliorer les résultats sociaux. Cependant, l’IA pose également des risques, allant de la sécurité de l’information à la surveillance et à la discrimination algorithmique.

Il est impératif que le gouvernement britannique reste concentré sur une approche sectorielle, soutenant l’innovation tout en protégeant les intérêts des consommateurs, les droits de l’homme et la sécurité nationale.

Le Royaume-Uni a l’opportunité de servir d’exemple mondial distinct : pro-innovation, spécifique aux secteurs et ancré dans des cas d’utilisation réels. C’est le moment de rester concentré et de continuer à forger cette voie.

Articles

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Réveil Cybernétique : L’Impact de l’IA sur la Sécurité

Les organisations doivent prendre en compte que l'IA transforme rapidement le paysage des menaces en cybersécurité, tout en offrant des opportunités pour améliorer la détection et la réponse...

Vers une législation éclairée sur l’IA en Thaïlande

M. Sak déclare que la législation à venir vise à protéger les utilisateurs des risques potentiels liés à l'IA et à supprimer les obstacles juridiques que les lois existantes ne peuvent pas traiter. La...

Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

Le Texas a franchi une étape importante dans la réglementation de l'intelligence artificielle (IA) avec l'adoption de la Loi sur la gouvernance responsable de l'IA (TRAIGA), qui établit un cadre pour...

Révolutionner la gouvernance de l’IA pour un avenir responsable

Riskonnect a annoncé le lancement de sa nouvelle solution de gouvernance de l'IA, permettant aux organisations de gérer les risques et les obligations de conformité des technologies d'IA de manière...

L’Alignement de l’IA : Vers une Gouvernance Éthique

Gillian K. Hadfield a été nommée professeure distinguée Bloomberg en alignement et gouvernance de l'IA à l'Université Johns Hopkins. Elle se concentre sur la manière dont les systèmes d'IA peuvent...

Les dangers cachés du porno par échange de visages

La technologie de remplacement de visage, alimentée par l'IA, permet aux utilisateurs de remplacer le visage d'une personne dans une vidéo de manière très réaliste. Cependant, son utilisation abusive...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...