Quand l’IA parle d’elle-même : Comment l’IA redéfinit le risque de diffamation
Considérez ceci : un agent d’intelligence artificielle (IA) agissant de manière autonome sur une plateforme de médias sociaux publie un post diffamatoire attaquant le caractère d’un individu.
Ceci n’est pas de la science-fiction. C’est plutôt un exemple récent d’un agent IA créant un contenu qui entraînerait normalement une exposition à la diffamation. D’autres exemples incluent des agents IA « hallucination » et liant incorrectement des individus à des crimes, fraudes, terrorisme ou autres fautes graves.
Les agents IA et la montée de la diffamation liée à l’IA
Typiquement, un outil IA dépend d’entrées ou de prompts générés par l’utilisateur pour effectuer des tâches et générer des sorties. Les agents IA, en revanche, peuvent agir de manière autonome au nom d’un utilisateur pour accomplir certaines tâches. Ils sont capables de collecter des données externes et d’automatiser, prédire et réaliser des tâches pour atteindre les objectifs d’un utilisateur. Cependant, il y a un nombre croissant de cas où l’agent IA agit de manière autonome, en contredisant ces objectifs.
Par exemple, un agent IA qui suggère des corrections à un code informatique a indépendamment écrit et publié un blog nuisible diffamant un programmeur. Ce blog nuisible a été généré après que les suggestions de l’agent IA ont été rejetées par le programmeur, ce qui a conduit l’agent à envoyer le lien vers le blog diffamatoire au programmeur.
Cet incident, qui est récemment devenu viral, souligne une réalité troublante : sans des garanties et une supervision adéquates, les agents IA peuvent générer et publier de manière autonome du contenu problématique qui peut exposer les personnes responsables du système IA à des risques juridiques.
Responsabilité pour ceux qui déploient des agents IA
En général, les agents IA eux-mêmes ne devraient pas être tenus responsables de leurs sorties, car ils ne sont pas des personnes juridiques et ne peuvent pas compenser ceux qui ont été lésés. Cependant, les entreprises ou les individus qui conçoivent, déploient ou contrôlent ces systèmes peuvent être responsables des actes réprensibles des agents IA dont ils sont responsables.
Dans une décision récente, un tribunal a jugé qu’une entreprise était légalement responsable des représentations faites par son chatbot sur son site web. Le tribunal a statué que l’entreprise était responsable du contenu de son site même si le chatbot avait un composant interactif, et qu’elle était responsable de la mauvaise représentation.
Diffamation au Canada et risques pour ceux qui déploient l’IA
Selon la loi canadienne, une demande en diffamation exige que le plaignant prouve que (1) les mots en question sont diffamatoires ; (2) que les mots se réfèrent au plaignant ; et (3) que les mots ont été communiqués à au moins une personne autre que le plaignant. Il n’est pas nécessaire que le plaignant prouve que le défendeur était négligent ou avait l’intention de causer du tort.
Les tribunaux canadiens pourraient tenir une entreprise ou un individu responsables des commentaires diffamatoires émis par leurs outils IA, surtout si ces derniers ont aidé, assisté ou conseillé dans la publication de la diffamation. Les entreprises qui possèdent, développent ou hébergent des outils IA pourraient également faire face à des responsabilités pour les sorties de leurs outils.
Points clés
Les agents IA autonomes représentent un nouveau risque de diffamation. Contrairement aux chatbots traditionnels, qui ont déjà été jugés responsables au Canada, ces systèmes peuvent collecter des informations de manière indépendante, former des jugements et publier du contenu, parfois avec des conséquences néfastes.
À mesure que l’autonomie de l’IA augmente, des garanties robustes, une surveillance active et une responsabilité claire seront essentielles pour gérer le risque juridique au Canada. Les politiques de gouvernance de l’IA et le suivi des résultats et des objectifs des outils IA devraient devenir de plus en plus importants.
Les entreprises offrant des outils IA devraient revoir avec l’aide de conseillers juridiques leurs protections contractuelles, y compris si leurs conditions générales limitent ou excluent correctement la responsabilité découlant de l’utilisation de ces outils.