Peur et politiques : les dangers d’une régulation hâtive de l’IA

A mask

La Panique Électorale liée à l’IA : Comment des Politiques Motivées par la Peur Pourraient Limiter la Liberté d’Expression

Alors que les États-Unis et l’Union européenne façonnent leurs cadres réglementaires concernant l’intelligence artificielle (IA), il est crucial de tirer des leçons des expériences récentes. Le récit alimenté par la peur entourant l’IA, notamment lors des élections récentes où le contenu généré par l’IA a eu un impact limité, devrait inciter les décideurs à ne pas se précipiter dans des lois qui pourraient, sans le vouloir, miner les valeurs démocratiques.

Le Récit de la Désinformation liée à l’IA

Tout au long de 2023 et 2024, des médias de premier plan ont exprimé des inquiétudes concernant l’influence potentielle de l’IA sur les élections. En avril 2024, un grand quotidien a averti ses lecteurs que les deepfakes créés par l’IA menaçaient de bouleverser les élections mondiales. De même, l’Associated Press a partagé des préoccupations, affirmant que l’IA pouvait renforcer la désinformation et perturber les élections de l’UE.

Les inquiétudes du public correspondaient à ces avertissements médiatiques. Une enquête menée par Pew aux États-Unis a révélé que 57% des adultes étaient très préoccupés par la désinformation alimentée par l’IA concernant les élections. De même, 40% des électeurs européens craignaient un usage détourné de l’IA lors des élections.

Cependant, des recherches ont démontré que le récit alarmiste concernant l’IA en 2024 n’était pas soutenu par des preuves solides. L’Institut Alan Turing n’a trouvé aucune preuve significative que l’IA ait altéré les résultats des élections, que ce soit au Royaume-Uni, en France ou aux États-Unis. En fait, une analyse d’78 cas de désinformation politique a montré que le « flot » redouté de la désinformation alimentée par l’IA était bien moins étendu et impactant que prévu.

L’Impact des lois Excessives aux États-Unis et en Europe

En septembre 2024, dix-neuf États américains avaient adopté des lois visant spécifiquement l’utilisation de l’IA dans les campagnes politiques. Au cours de cette période, trois États (Californie, Minnesota et Texas) avaient interdit la création ou la distribution de deepfakes en rapport avec les élections sous certaines conditions.

Les défenseurs de la liberté d’expression ont mis en garde contre les risques de ces lois. Par exemple, la loi du Minnesota criminalise la diffusion de deepfakes avant une élection si cela est fait dans le but d’« nuire » à un candidat ou d’« influencer » le résultat. Ces termes sont à la fois subjectifs et centraux pour la protection du discours politique.

Une Voie Plus Intelligente à Suivre

Le prochain Plan d’Action sur l’IA aux États-Unis devrait être guidé par des preuves disponibles et s’abstenir de promouvoir des interdictions sur les deepfakes politiques. De même, la législation au niveau des États contenant des dispositions comparables devrait être abrogée ou révisée. Des mesures moins restrictives, comme le marquage et l’étiquetage, pourraient offrir une alternative, mais elles soulèvent toujours des préoccupations en matière de liberté d’expression.

Il est également crucial de promouvoir l’alphabétisation médiatique et numérique. Au lieu d’alimenter la peur du public, il est nécessaire de mener des campagnes éducatives qui dotent les individus des connaissances nécessaires pour s’engager de manière critique avec le contenu. Les gouvernements, les entreprises et les organisations de la société civile doivent collaborer pour fournir au public les compétences nécessaires pour évaluer informément le contenu.

En conclusion, une réglementation efficace doit être basée sur des preuves et clairement articulée. Sinon, les décideurs risquent de compromettre la liberté d’expression, la créativité et la satire, qui sont des éléments vitaux d’un discours démocratique sain.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...