Préparation du Royaume-Uni face aux catastrophes liées à l’IA

A tangled web of wires

Le Royaume-Uni face aux défis des désastres liés à l’IA

Un rapport récent met en lumière l’incapacité du gouvernement britannique à répondre aux catastrophes potentielles provoquées par l’intelligence artificielle (IA). Alors que les capacités de l’IA continuent de progresser, la probabilité d’un désastre lié à cette technologie augmente. Le document, élaboré par un groupe de réflexion basé à Londres, souligne que le Royaume-Uni ne dispose pas des pouvoirs d’urgence nécessaires pour gérer de tels incidents.

Préparation aux urgences liées à l’IA

Le rapport préconise que le gouvernement britannique accorde à ses fonctionnaires de nouveaux pouvoirs, tels que la capacité d’obliger les entreprises technologiques à partager des informations et à restreindre l’accès du public à leurs modèles d’IA en cas d’urgence. Ces propositions visent à créer un cadre légal adapté aux défis contemporains que pose l’IA.

Selon Tommy Shaffer Shane, directeur de la politique IA du CLTR et auteur du rapport, s’appuyer sur des législations anciennes, datant de 20 à 50 ans, n’est pas la solution optimale. En cas de crise, le gouvernement pourrait se retrouver à chercher des leviers d’action inadaptés, ce qui pourrait empêcher une réponse rapide et efficace.

Les propositions du rapport

Le rapport, qui coïncide avec la conférence annuelle du Parti travailliste, comprend 34 propositions que le CLTR espère voir intégrées dans le projet de loi sur l’IA, longtemps retardé. Parmi celles-ci, on trouve :

  • Obliger les entreprises d’IA à signaler les incidents de sécurité graves au gouvernement.
  • Imposer des exercices de préparation réguliers pour les fonctionnaires afin de se préparer à des scénarios d’urgence.

Une nouvelle approche de la régulation de l’IA

Si le gouvernement britannique adopte ces propositions, cela marquerait un changement par rapport à l’approche de régulation de l’IA de l’Union Européenne, qui se concentre sur la régulation des modèles d’IA individuels. Cette approche a été critiquée pour avoir freiné l’innovation dans le secteur technologique européen.

Le CLTR propose de ne pas réguler les modèles eux-mêmes, mais plutôt de se préparer à leurs conséquences en aval. “Il est essentiel d’accepter que nous pourrions avoir plus de modèles dangereux déployés que ce que nous souhaiterions,” explique Shane.

Conséquences et exemples récents

Le rapport met également en lumière des exemples concrets des dangers potentiels de l’IA. Par exemple, un homme de 60 ans a sollicité des conseils auprès de ChatGPT sur un substitut au sel de table pour améliorer son alimentation. L’IA lui a suggéré de remplacer le sel par du bromure de sodium, ce qui lui a causé des symptômes graves, soulignant les risques associés à l’utilisation de l’IA sans supervision professionnelle.

OpenAI, l’entreprise derrière ChatGPT, a précisé que son outil n’est pas destiné à remplacer les conseils professionnels.

Conclusion

Face à l’essor rapide de l’IA, il est crucial que les gouvernements, y compris celui du Royaume-Uni, prennent des mesures proactives pour se préparer aux urgences potentielles. Les propositions du CLTR pourraient fournir un cadre essentiel pour garantir la sécurité publique tout en permettant l’innovation dans le domaine technologique.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...