Le Royaume-Uni face aux défis des désastres liés à l’IA
Un rapport récent met en lumière l’incapacité du gouvernement britannique à répondre aux catastrophes potentielles provoquées par l’intelligence artificielle (IA). Alors que les capacités de l’IA continuent de progresser, la probabilité d’un désastre lié à cette technologie augmente. Le document, élaboré par un groupe de réflexion basé à Londres, souligne que le Royaume-Uni ne dispose pas des pouvoirs d’urgence nécessaires pour gérer de tels incidents.
Préparation aux urgences liées à l’IA
Le rapport préconise que le gouvernement britannique accorde à ses fonctionnaires de nouveaux pouvoirs, tels que la capacité d’obliger les entreprises technologiques à partager des informations et à restreindre l’accès du public à leurs modèles d’IA en cas d’urgence. Ces propositions visent à créer un cadre légal adapté aux défis contemporains que pose l’IA.
Selon Tommy Shaffer Shane, directeur de la politique IA du CLTR et auteur du rapport, s’appuyer sur des législations anciennes, datant de 20 à 50 ans, n’est pas la solution optimale. En cas de crise, le gouvernement pourrait se retrouver à chercher des leviers d’action inadaptés, ce qui pourrait empêcher une réponse rapide et efficace.
Les propositions du rapport
Le rapport, qui coïncide avec la conférence annuelle du Parti travailliste, comprend 34 propositions que le CLTR espère voir intégrées dans le projet de loi sur l’IA, longtemps retardé. Parmi celles-ci, on trouve :
- Obliger les entreprises d’IA à signaler les incidents de sécurité graves au gouvernement.
- Imposer des exercices de préparation réguliers pour les fonctionnaires afin de se préparer à des scénarios d’urgence.
Une nouvelle approche de la régulation de l’IA
Si le gouvernement britannique adopte ces propositions, cela marquerait un changement par rapport à l’approche de régulation de l’IA de l’Union Européenne, qui se concentre sur la régulation des modèles d’IA individuels. Cette approche a été critiquée pour avoir freiné l’innovation dans le secteur technologique européen.
Le CLTR propose de ne pas réguler les modèles eux-mêmes, mais plutôt de se préparer à leurs conséquences en aval. “Il est essentiel d’accepter que nous pourrions avoir plus de modèles dangereux déployés que ce que nous souhaiterions,” explique Shane.
Conséquences et exemples récents
Le rapport met également en lumière des exemples concrets des dangers potentiels de l’IA. Par exemple, un homme de 60 ans a sollicité des conseils auprès de ChatGPT sur un substitut au sel de table pour améliorer son alimentation. L’IA lui a suggéré de remplacer le sel par du bromure de sodium, ce qui lui a causé des symptômes graves, soulignant les risques associés à l’utilisation de l’IA sans supervision professionnelle.
OpenAI, l’entreprise derrière ChatGPT, a précisé que son outil n’est pas destiné à remplacer les conseils professionnels.
Conclusion
Face à l’essor rapide de l’IA, il est crucial que les gouvernements, y compris celui du Royaume-Uni, prennent des mesures proactives pour se préparer aux urgences potentielles. Les propositions du CLTR pourraient fournir un cadre essentiel pour garantir la sécurité publique tout en permettant l’innovation dans le domaine technologique.