Préparation du Royaume-Uni face aux catastrophes liées à l’IA

A tangled web of wires

Le Royaume-Uni face aux défis des désastres liés à l’IA

Un rapport récent met en lumière l’incapacité du gouvernement britannique à répondre aux catastrophes potentielles provoquées par l’intelligence artificielle (IA). Alors que les capacités de l’IA continuent de progresser, la probabilité d’un désastre lié à cette technologie augmente. Le document, élaboré par un groupe de réflexion basé à Londres, souligne que le Royaume-Uni ne dispose pas des pouvoirs d’urgence nécessaires pour gérer de tels incidents.

Préparation aux urgences liées à l’IA

Le rapport préconise que le gouvernement britannique accorde à ses fonctionnaires de nouveaux pouvoirs, tels que la capacité d’obliger les entreprises technologiques à partager des informations et à restreindre l’accès du public à leurs modèles d’IA en cas d’urgence. Ces propositions visent à créer un cadre légal adapté aux défis contemporains que pose l’IA.

Selon Tommy Shaffer Shane, directeur de la politique IA du CLTR et auteur du rapport, s’appuyer sur des législations anciennes, datant de 20 à 50 ans, n’est pas la solution optimale. En cas de crise, le gouvernement pourrait se retrouver à chercher des leviers d’action inadaptés, ce qui pourrait empêcher une réponse rapide et efficace.

Les propositions du rapport

Le rapport, qui coïncide avec la conférence annuelle du Parti travailliste, comprend 34 propositions que le CLTR espère voir intégrées dans le projet de loi sur l’IA, longtemps retardé. Parmi celles-ci, on trouve :

  • Obliger les entreprises d’IA à signaler les incidents de sécurité graves au gouvernement.
  • Imposer des exercices de préparation réguliers pour les fonctionnaires afin de se préparer à des scénarios d’urgence.

Une nouvelle approche de la régulation de l’IA

Si le gouvernement britannique adopte ces propositions, cela marquerait un changement par rapport à l’approche de régulation de l’IA de l’Union Européenne, qui se concentre sur la régulation des modèles d’IA individuels. Cette approche a été critiquée pour avoir freiné l’innovation dans le secteur technologique européen.

Le CLTR propose de ne pas réguler les modèles eux-mêmes, mais plutôt de se préparer à leurs conséquences en aval. “Il est essentiel d’accepter que nous pourrions avoir plus de modèles dangereux déployés que ce que nous souhaiterions,” explique Shane.

Conséquences et exemples récents

Le rapport met également en lumière des exemples concrets des dangers potentiels de l’IA. Par exemple, un homme de 60 ans a sollicité des conseils auprès de ChatGPT sur un substitut au sel de table pour améliorer son alimentation. L’IA lui a suggéré de remplacer le sel par du bromure de sodium, ce qui lui a causé des symptômes graves, soulignant les risques associés à l’utilisation de l’IA sans supervision professionnelle.

OpenAI, l’entreprise derrière ChatGPT, a précisé que son outil n’est pas destiné à remplacer les conseils professionnels.

Conclusion

Face à l’essor rapide de l’IA, il est crucial que les gouvernements, y compris celui du Royaume-Uni, prennent des mesures proactives pour se préparer aux urgences potentielles. Les propositions du CLTR pourraient fournir un cadre essentiel pour garantir la sécurité publique tout en permettant l’innovation dans le domaine technologique.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...