L’IA et les élections : un risque élevé pour la démocratie

A digital lock

Alerte sur les risques de l’IA dans les campagnes électorales

Un document interne préparé pour le commissaire des élections du Canada classe l’utilisation de l’intelligence artificielle (IA) comme un risque élevé pour la campagne électorale en cours. Ce briefing a été élaboré environ un mois avant le début de la campagne.

Risques potentiels associés à l’IA

Le document indique que la prochaine élection générera probablement des plaintes liées à l’utilisation d’outils d’IA qui pourraient constituer une violation de la Loi électorale du Canada. Bien que l’IA puisse être utilisée à des fins légitimes, il existe des risques qu’elle soit utilisée pour enfreindre les règles électorales.

Il est important de noter que la Loi électorale ne prohibe pas spécifiquement l’utilisation de l’IA, des bots ou des deepfakes. Cependant, certaines dispositions de la loi pourraient s’appliquer si des outils d’IA sont utilisés d’une manière qui enfreint la loi.

Exemples de violations potentielles

Les violations peuvent inclure la diffusion de fausses informations, la publication de fausses informations sur le processus électoral ou l’imitation d’un fonctionnaire électoral. Le directeur du laboratoire de risque et de réglementation de l’IA à l’Université de Victoria a souligné les difficultés à identifier ceux qui utilisent l’IA pour enfreindre les règles électorales.

Préoccupations concernant les deepfakes

Le document met en évidence des préoccupations spécifiques concernant l’utilisation d’outils d’IA et des deepfakes — des vidéos ou audio hyperréalistes falsifiés. Bien qu’il n’y ait pas encore eu d’incidents d’utilisation de deepfakes lors d’élections fédérales canadiennes, il existe de nombreux exemples d’utilisation de deepfakes à l’étranger.

Le briefing note met en garde contre une augmentation de la publicité pour des services de deepfake personnalisés sur le dark web, ce qui pourrait exacerber la situation.

La nécessité d’une réglementation

Le document souligne que le Canada a généralement adopté une approche de régulation autonome en matière d’IA, laissant en grande partie ce domaine à l’industrie technologique. Cependant, l’efficacité de cette régulation est contestée. Un projet de loi visant à réglementer certaines utilisations de l’IA a été introduit lors de la dernière session parlementaire, mais n’a jamais été adopté.

Des acteurs malveillants cherchant à propager de la désinformation ne suivront probablement pas les règles gouvernementales ou de médias sociaux, rendant la régulation encore plus difficile.

Impact sur la confiance du public

Il y a des exemples de l’IA utilisée pour diffuser de la désinformation dans cette campagne, ce qui a conduit à une augmentation de la méfiance envers le contenu en ligne. Les chercheurs soulignent que l’utilisation de l’IA pour des fins bénignes peut également modifier la façon dont les campagnes sont menées, en permettant l’expression d’idées politiques étranges ou la normalisation de contenus irréels.

Dans l’ensemble, le document met en lumière les défis croissants posés par l’IA dans le paysage électoral canadien, soulignant la nécessité d’une vigilance accrue et d’une réglementation adaptée pour protéger l’intégrité des élections.

Articles

Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

Le Chartered Insurance Institute (CII) a appelé à des cadres de responsabilité clairs et à une stratégie de compétences à l'échelle du secteur pour guider l'utilisation de l'intelligence artificielle...

L’essor de la réglementation de l’IA dans la santé en APAC

La réglementation de l'intelligence artificielle (IA) dans la région Asie-Pacifique est encore naissante et repose principalement sur des cadres réglementaires existants. Les techniques d'IA, telles...

Nouveaux défis législatifs pour l’IA à New York

Au début de 2025, New York a rejoint d'autres États pour réglementer l'intelligence artificielle (IA) au niveau de l'État, en introduisant le projet de loi NY AI Act. Ce projet de loi vise à prévenir...

Gérer les Risques de l’Intelligence Artificielle

L'article discute des risques associés aux systèmes d'intelligence artificielle et de l'importance d'une gouvernance responsable. Il souligne que les modèles d'IA doivent être gérés efficacement pour...

Comprendre les enjeux de la loi sur l’intelligence artificielle dans l’UE

L'Union européenne a introduit la loi sur l'intelligence artificielle (AI Act), une réglementation phare conçue pour gérer les risques et les opportunités des technologies d'IA. Cet article fournit un...

La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

La Corée du Sud se positionne en tête de la réglementation de l'IA en Asie avec l'adoption de la loi sur le développement de l'intelligence artificielle et l'établissement de la confiance, ou la loi...

Défis réglementaires de l’IA et résilience opérationnelle

Le règlement sur l'IA de l'UE et la DORA imposent une nouvelle complexité aux entités financières, nécessitant une approche basée sur les risques pour évaluer l'impact financier. Il est essentiel de...

Réguler l’IA : Défis et Perspectives Transatlantiques

L'intelligence artificielle (IA) est devenue l'une des forces technologiques les plus conséquentes de notre époque, capable de redéfinir les économies et les sociétés. Les gouvernements démocratiques...

Révolutionner l’IA en Europe : Vers des Gigafactories Innovantes

La Commission européenne souhaite réduire les obstacles au déploiement de l'intelligence artificielle (IA) afin de mieux préparer les entreprises européennes à la concurrence mondiale. Dans sa...