Les Britanniques souhaitent interdire l’IA « plus intelligente qu’un humain »
Alors que la Silicon Valley s’efforce de développer des modèles d’intelligence artificielle (IA) toujours plus puissants, l’opinion publique de l’autre côté de l’Atlantique reste résolument sceptique quant à l’influence des PDG de la technologie sur la réglementation du secteur. La grande majorité des Britanniques s’inquiètent de la sûreté des nouveaux systèmes d’IA.
Les préoccupations, mises en lumière par un nouveau sondage, surviennent alors que des dirigeants mondiaux et des responsables du secteur technologique se préparent à se réunir à Paris pour discuter des développements rapides de l’IA.
Un soutien massif pour la réglementation
Selon le sondage, 87% des Britanniques soutiendraient une loi exigeant que les développeurs d’IA prouvent la sûreté de leurs systèmes avant leur mise sur le marché. De plus, 60% des répondants sont en faveur d’une interdiction du développement de modèles d’IA « plus intelligents qu’un humain ». À peine 9% d’entre eux font confiance aux PDG de la technologie pour agir dans l’intérêt public en matière de réglementation de l’IA.
Les résultats reflètent une anxiété publique croissante concernant le développement de systèmes d’IA capables de rivaliser, voire de surpasser les humains dans la plupart des tâches. Bien que cette technologie n’existe pas actuellement, son développement est l’objectif explicite de grandes entreprises d’IA telles qu’OpenAI, Google, Anthropic et Meta.
Risques potentiels et réglementation
En fait, plusieurs PDG de la technologie s’attendent à ce que ces systèmes deviennent une réalité dans les années à venir. Dans ce contexte, 75% des Britanniques interrogés ont déclaré que des lois devraient explicitement interdire le développement de systèmes d’IA capables de s’échapper de leur environnement. De plus, plus de la moitié (63%) se sont prononcés en faveur de l’interdiction de la création de systèmes d’IA capables de s’améliorer eux-mêmes.
Ces constatations correspondent aux résultats de récents sondages aux États-Unis et mettent en évidence un écart croissant entre l’opinion publique et l’action réglementaire en matière d’IA avancée. Même l’AI Act de l’Union européenne, largement considéré comme la législation sur l’IA la plus complète au monde, ne traite pas directement de nombreux risques potentiels posés par les systèmes d’IA qui égalent ou dépassent les capacités humaines.
Un appel à des lois nouvelles
Le sondage a été accompagné d’une déclaration signée par 16 législateurs britanniques provenant des deux principaux partis politiques, appelant le gouvernement à introduire de nouvelles lois sur l’IA ciblant spécifiquement les systèmes d’IA « superintelligents ».
« Les IA spécialisées – comme celles qui avancent la science et la médecine – stimulent la croissance, l’innovation et les services publics. Les systèmes d’IA superintelligents, quant à eux, compromettraient la sûreté nationale et mondiale », indique la déclaration.
Miotti, directeur exécutif de Control AI, affirme que le Royaume-Uni n’a pas à sacrifier sa croissance en imposant des réglementations générales, comme celles contenues dans l’AI Act de l’UE. Il propose plutôt d’appliquer une « réglementation chirurgicale » ciblée qui ne s’applique qu’aux modèles les plus puissants posant ce qu’il considère comme les plus grands risques.
« Ce que le public veut, ce sont des systèmes qui les aident, pas des systèmes qui les remplacent », conclut Miotti. 74% des Britanniques soutiennent également une promesse faite par le Parti travailliste avant les dernières élections, visant à inscrire l’Institut de Sécurité de l’IA du Royaume-Uni dans la loi, lui permettant d’agir en tant que régulateur.