Peur et politiques : les dangers d’une régulation hâtive de l’IA

A mask

La Panique Électorale liée à l’IA : Comment des Politiques Motivées par la Peur Pourraient Limiter la Liberté d’Expression

Alors que les États-Unis et l’Union européenne façonnent leurs cadres réglementaires concernant l’intelligence artificielle (IA), il est crucial de tirer des leçons des expériences récentes. Le récit alimenté par la peur entourant l’IA, notamment lors des élections récentes où le contenu généré par l’IA a eu un impact limité, devrait inciter les décideurs à ne pas se précipiter dans des lois qui pourraient, sans le vouloir, miner les valeurs démocratiques.

Le Récit de la Désinformation liée à l’IA

Tout au long de 2023 et 2024, des médias de premier plan ont exprimé des inquiétudes concernant l’influence potentielle de l’IA sur les élections. En avril 2024, un grand quotidien a averti ses lecteurs que les deepfakes créés par l’IA menaçaient de bouleverser les élections mondiales. De même, l’Associated Press a partagé des préoccupations, affirmant que l’IA pouvait renforcer la désinformation et perturber les élections de l’UE.

Les inquiétudes du public correspondaient à ces avertissements médiatiques. Une enquête menée par Pew aux États-Unis a révélé que 57% des adultes étaient très préoccupés par la désinformation alimentée par l’IA concernant les élections. De même, 40% des électeurs européens craignaient un usage détourné de l’IA lors des élections.

Cependant, des recherches ont démontré que le récit alarmiste concernant l’IA en 2024 n’était pas soutenu par des preuves solides. L’Institut Alan Turing n’a trouvé aucune preuve significative que l’IA ait altéré les résultats des élections, que ce soit au Royaume-Uni, en France ou aux États-Unis. En fait, une analyse d’78 cas de désinformation politique a montré que le « flot » redouté de la désinformation alimentée par l’IA était bien moins étendu et impactant que prévu.

L’Impact des lois Excessives aux États-Unis et en Europe

En septembre 2024, dix-neuf États américains avaient adopté des lois visant spécifiquement l’utilisation de l’IA dans les campagnes politiques. Au cours de cette période, trois États (Californie, Minnesota et Texas) avaient interdit la création ou la distribution de deepfakes en rapport avec les élections sous certaines conditions.

Les défenseurs de la liberté d’expression ont mis en garde contre les risques de ces lois. Par exemple, la loi du Minnesota criminalise la diffusion de deepfakes avant une élection si cela est fait dans le but d’« nuire » à un candidat ou d’« influencer » le résultat. Ces termes sont à la fois subjectifs et centraux pour la protection du discours politique.

Une Voie Plus Intelligente à Suivre

Le prochain Plan d’Action sur l’IA aux États-Unis devrait être guidé par des preuves disponibles et s’abstenir de promouvoir des interdictions sur les deepfakes politiques. De même, la législation au niveau des États contenant des dispositions comparables devrait être abrogée ou révisée. Des mesures moins restrictives, comme le marquage et l’étiquetage, pourraient offrir une alternative, mais elles soulèvent toujours des préoccupations en matière de liberté d’expression.

Il est également crucial de promouvoir l’alphabétisation médiatique et numérique. Au lieu d’alimenter la peur du public, il est nécessaire de mener des campagnes éducatives qui dotent les individus des connaissances nécessaires pour s’engager de manière critique avec le contenu. Les gouvernements, les entreprises et les organisations de la société civile doivent collaborer pour fournir au public les compétences nécessaires pour évaluer informément le contenu.

En conclusion, une réglementation efficace doit être basée sur des preuves et clairement articulée. Sinon, les décideurs risquent de compromettre la liberté d’expression, la créativité et la satire, qui sont des éléments vitaux d’un discours démocratique sain.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...