La législation canadienne sur la transition de l’IA : Un état des lieux
Introduction
Le Canada n’a pas actuellement de loi complète régissant l’intelligence artificielle (IA) à travers les secteurs. L’utilisation de l’IA est indirectement régie par des lois existantes telles que celles sur la vie privée, les droits humains et le droit administratif.
Analyse des faits
La Loi sur l’intelligence artificielle et les données (AIDA) n’est pas en vigueur, étant donné qu’elle a été proposée dans le cadre du projet de loi C-27 mais n’a pas été adoptée après la prorogation du Parlement. Aucun remplacement équivalent n’a encore été mis en œuvre.
Actuellement, l’IA est déjà utilisée dans les opérations gouvernementales. Les départements fédéraux emploient des systèmes algorithmiques et assistés par l’IA pour des analyses, la détection de fraude, la priorisation des services, la cybersécurité et le soutien à la décision interne, principalement sous l’autorité administrative existante.
La gouvernance de l’IA repose principalement sur des politiques et non sur des lois. Les directives, cadres éthiques et directives internes façonnent l’utilisation de l’IA, mais ces éléments ne sont pas contraignants et ne créent pas de droits ou de sanctions exécutoires.
Les pouvoirs d’exécution concernant l’IA sont limités en l’absence de législation. Sans autorité statutaire explicite, les régulateurs n’ont pas de pouvoir clair pour imposer des audits de l’IA, infliger des amendes ou exiger une transparence normalisée et des contrôles de risque.
Les approches internationales diffèrent considérablement. L’Union européenne a adopté un règlement complet sur l’IA avec des niveaux de risque et des prohibitions, tandis que les États-Unis s’appuient sur une réglementation sectorielle et des actions exécutives. Le Canada occupe une position intermédiaire et transitoire.
Définitions clés
Intelligence Artificielle (IA) : Systèmes informatiques conçus pour effectuer des tâches nécessitant normalement une intelligence humaine, telles que la reconnaissance de motifs, la prédiction, la classification et le soutien à la décision.
Transition de l’IA : Processus par lequel les systèmes d’IA passent d’outils expérimentaux ou assistifs à une utilisation opérationnelle courante dans le gouvernement, les entreprises et la société, influençant les décisions à grande échelle.
IA à fort impact : Catégorie utilisée dans le projet de loi AIDA faisant référence aux systèmes d’IA dont l’utilisation pourrait affecter de manière significative les droits, les opportunités, la sécurité ou l’accès aux services des individus.
Décision administrative : Décisions prises par des fonctionnaires ou des agences gouvernementales sous autorité déléguée, soumises aux principes d’équité procédurale et de raisonnabilité plutôt qu’à une responsabilité politique directe.
Politique (Droit souple) : Règles, directives ou normes non contraignantes émises par des gouvernements ou des institutions pour orienter le comportement sans créer d’obligations juridiques exécutoires.
Législation (Droit dur) : Statuts adoptés par le Parlement créant des obligations contraignantes, des pouvoirs d’exécution, des pénalités et des droits légalement protégés.
Humain dans la boucle : Concept de gouvernance selon lequel les humains conservent l’autorité décisionnelle finale sur les résultats de l’IA, légalement significatif uniquement si l’humain peut réellement comprendre, contester et annuler le système.
Écart de responsabilité : Situation où les résultats sont influencés par des systèmes d’IA, mais où la responsabilité des dommages ne peut être clairement attribuée à une personne ou à une institution.
Implications et risques
La législation n’est pas requise pour chaque avancée technologique. Elle est nécessaire lorsque la technologie commence à influencer systématiquement les décisions administratives, affecte l’accès à des avantages, services ou opportunités, engendre des risques potentiels à grande échelle, ou obscurcit la responsabilité et le raisonnement.
Conclusion
Ce document examine les pressions politiques, économiques et institutionnelles actuellement à l’œuvre au Canada. Il ne plaide pas pour la violence, le trouble, l’activité illégale ou toute action non conforme à la loi. Toute mention d’instabilité est descriptive, non prescriptive. Le changement démocratique se produit par des moyens légaux, pacifiques et constitutionnels, ancrés dans la Charte canadienne des droits et libertés.
L’utilisation de mèmes générés par l’IA utilisant la satire, la parodie, l’humour ou le ridicule constitue une expression artistique légale et n’est pas destinée à induire en erreur ou à tromper.