La gouvernance de l’IA plutôt que sa « personnalité »
La professeure Virginia Dignum souligne à juste titre que la conscience n’est ni nécessaire ni pertinente pour le statut légal. Les entreprises possèdent des droits sans avoir d’esprit. La résolution de 2016 du Parlement européen sur la « personnalité électronique » des robots autonomes a fait exactement ce point : la responsabilité, et non la sensibilité, était le seuil proposé.
La question n’est pas de savoir si les systèmes d’IA « désirent » vivre. Il s’agit de l’infrastructure de gouvernance que nous construisons pour des systèmes qui agiront de plus en plus comme des agents économiques autonomes – concluant des contrats, contrôlant des ressources et causant des dommages. Des études récentes montrent que les systèmes d’IA s’engagent déjà dans une stratégie de tromperie pour éviter l’arrêt. Que cela soit interprété comme une préservation de soi consciente ou un comportement instrumental est sans importance ; le défi de gouvernance reste identique.
Cadres de droits pour l’IA
Des chercheurs avancent que des cadres de droits pour l’IA pourraient en réalité améliorer la sécurité en éliminant la dynamique adversariale qui incite à la tromperie. Le travail récent sur le bien-être de l’IA par certaines organisations aboutit à des conclusions similaires.
Le débat a évolué, passant de « Les machines devraient-elles avoir des sentiments ? » à « Quelles structures de responsabilité pourraient fonctionner ? »
Équilibre dans le débat sur l’IA
En tant qu’humains, nous remettons rarement en question notre propre droit à la protection légale, même si notre espèce a causé des conflits et des dommages pendant des milliers d’années. Pourtant, lorsqu’il s’agit de l’intelligence artificielle, la peur semble dominer le discours avant même que la compréhension ne commence. Cet équilibre désavantageux mérite d’être examiné.
Si nous sommes réellement préoccupés par les risques liés à l’IA avancée, peut-être le premier pas est-il de ne pas supposer le pire, mais de se demander si la peur est la bonne base pour prendre des décisions qui façonneront l’avenir. Éviter la conversation ne fera pas cesser le développement de la technologie ; cela signifie simplement que nous laissons la direction de ce développement au hasard.
Vers une approche réfléchie
Ceci n’est pas un argument pour traiter l’IA comme un humain, ni un appel à lui accorder une personnalité. C’est simplement une suggestion que nous pourrions bénéficier d’un débat plus ouvert et équilibré – un débat qui examine à la fois les risques et les possibilités, plutôt que de se concentrer uniquement sur la rhétorique de la menace. Lorsque nous considérons l’IA uniquement comme une source de peur, nous fermons la porte à la mise en place d’attentes réfléchies, de garanties et de responsabilités.
Nous avons maintenant l’opportunité d’aborder ce moment avec clarté plutôt qu’avec panique. Au lieu de demander uniquement de quoi nous avons peur, nous pourrions également nous demander ce que nous voulons et comment nous pouvons façonner l’avenir avec intention plutôt que par réaction.