Ottawa tente de réguler les chatbots IA – et le fait de la mauvaise manière
Le ministre de l’IA a convoqué des dirigeants d’une entreprise technologique à Ottawa pour expliquer pourquoi celle-ci avait décliné d’alerter la police sur un compte lié à un tireur. L’entreprise a conclu que l’activité du compte ne répondait pas à ses critères de « risque imminent et crédible de préjudice physique sérieux envers autrui ».
Après cette réunion, le ministre a exprimé sa déception, indiquant que l’entreprise n’avait pas présenté de nouveaux protocoles de sécurité substantiels. Il a été mentionné que des changements seraient attendus, sinon le gouvernement interviendrait pour réguler les entreprises d’intelligence artificielle.
La Loi sur les Dangers en Ligne
La Loi sur les Dangers en Ligne, qui a échoué l’année dernière, pourrait revenir sous une nouvelle forme. Étant donné que cette loi vise à traiter les dangers en ligne, certains proposent qu’elle soit élargie pour couvrir les chatbots IA. Cependant, cette loi a été spécifiquement conçue pour éviter ce que les politiciens souhaitent que les entreprises d’IA fassent, en exemptant expressément les communications privées et la surveillance proactive de son champ d’application.
Appliquer cette loi aux chatbots IA nécessiterait de démanteler les protections de confidentialité fondamentales, ce qui risquerait de raviver des inquiétudes en matière de surveillance qui avaient conduit à revoir la loi précédente.
Limitations de la Loi
La loi a été conçue pour réguler les plateformes de médias sociaux, et non tous les services numériques. Les interactions avec des chatbots, telles que ChatGPT, ne concernent pas la communication entre utilisateurs ou la diffusion publique. Un message adressé à un chatbot est généralement visible uniquement par l’utilisateur et le fournisseur. Il n’y a pas de risque d’exposition à un public, ce qui est le principal souci de la Loi sur les Dangers en Ligne.
En fait, la loi a renforcé cette limitation par une protection de la vie privée explicite. Ce cadre législatif vise à réguler les contenus nuisibles qui peuvent atteindre rapidement de larges audiences. Or, les interactions avec les chatbots ressemblent beaucoup plus à des messages privés qu’à des publications sur les réseaux sociaux.
Implications et Risques
Appliquer la Loi sur les Dangers en Ligne aux conversations avec des chatbots risquerait de rouvrir des questions que les décideurs ont cherché à éviter. En effet, il est difficile de distinguer le contenu soumis à un chatbot de celui d’une recherche en ligne ou d’un message texte. Si la surveillance proactive des recherches est soumise à des protections de la vie privée, il en devrait être de même pour les interactions avec les chatbots IA.
La loi a échoué en grande partie parce qu’elle a tenté de couvrir trop de choses, en mélangeant des éléments du Code criminel et de la Loi sur les droits de la personne. Élargir cette loi pour inclure les chatbots IA entraînerait les mêmes risques. Il existe un besoin de régulation pour les chatbots IA, mais cela ne devrait pas passer par une loi sur les dangers en ligne élargie. Au contraire, le point de départ devrait être une législation spécifique axée sur la transparence, garantissant la divulgation complète des politiques de sécurité des utilisateurs et leur mise en œuvre.