Canada : absence de réglementation significative en matière d’IA
Les décideurs et les leaders de l’industrie ont passé des années à faire de nombreuses promesses sur la façon dont les nouvelles avancées en technologie numérique et en intelligence artificielle vont transformer l’économie et notre vie quotidienne. Le gouvernement fédéral, pour sa part, a proposé « plus de 1 milliard de dollars au cours des cinq prochaines années pour renforcer les écosystèmes d’intelligence artificielle et d’informatique quantique du Canada tout en intégrant plus profondément la technologie IA dans les opérations du gouvernement fédéral ».
Défis de la réglementation
Le Canada fait face à un problème majeur en termes de réglementation du développement et de l’implémentation des technologies d’IA. Bien que les décideurs fédéraux aient élaboré de nombreux cadres non contraignants autour de l’IA, le pays manque de réglementations contraignantes, laissant les Canadiens sans protections adéquates contre les méfaits de l’IA sur la vie privée et les droits humains.
En septembre 2025, le gouvernement fédéral a lancé un groupe de travail sur la stratégie IA et une « course nationale » de 30 jours pour recueillir des contributions du public pour une stratégie IA renouvelée. Cependant, cette initiative continue de rater son objectif. Les organisations de droits humains et les universitaires de premier plan ont souligné dans une lettre ouverte que les Canadiens ne peuvent pas être souverains sur une technologie contre laquelle ils ne sont pas protégés.
Antécédents de politique en matière d’IA
La Loi sur l’intelligence artificielle et les données (AIDA) de 2022 était la première tentative du Canada de réglementer l’IA et d’aborder les préoccupations concernant la vie privée et les droits humains. Elle a tenté d’évaluer les dommages et les biais de l’IA, mais uniquement pour les systèmes d’IA à fort impact. En revanche, la loi pionnière de l’Union européenne sur l’IA a adopté une approche par niveaux de risque, établissant quatre niveaux de risque pour les systèmes d’IA.
De nombreuses critiques ont été émises à l’encontre de la législation de 2022, notamment en raison de son processus de consultation publique excluant, de sa portée vague et de son manque de surveillance réglementaire indépendante. Les experts ont appelé le gouvernement à abandonner la loi, affirmant qu’elle n’avait pas réussi à intégrer une évaluation des impacts sur les droits humains.
Développements récents en matière de politique
Les résultats de la « course nationale » ont été publiés récemment, mettant en évidence de nombreuses préoccupations soulevées par les groupes de droits humains et les experts. Il est urgent de mettre en place des garde-fous législatifs significatifs pour exploiter le potentiel de l’IA et atténuer ses méfaits.
Ce qui est nécessaire
Alors que les technologies d’IA évoluent rapidement, les décideurs doivent adopter une approche plus holistique pour évaluer l’utilisation de l’IA et ses impacts. Le gouvernement fédéral devrait créer un mécanisme de plainte pour les dommages liés à l’IA. En outre, il est crucial de considérer des mécanismes d’enquête et d’application, tels qu’un commissaire à l’IA et aux données, pour évaluer proactivement les dommages liés à l’IA avant qu’ils ne surviennent.
Il est impératif que le gouvernement fédéral introduise des instruments juridiquement contraignants pour protéger les Canadiens et promouvoir une utilisation sûre de l’IA dans les secteurs public et privé. Le Canada devrait également établir une approche par niveaux de risque similaire à celle de l’Union européenne pour mieux évaluer les dangers potentiels de tous les systèmes d’IA.
En conclusion, aucune solution rapide ne permettra d’élaborer une stratégie ou des réglementations en matière d’IA qui puissent efficacement protéger les Canadiens. À mesure que les avancées technologiques en IA s’accélèrent, il est impératif de donner la priorité à des efforts diligents et collaboratifs pour créer et mettre en œuvre des politiques et des réglementations qui placent les droits humains au centre des préoccupations.