Réguler l’IA : Un impératif urgent

L’intelligence artificielle est sans conteste l’une des technologies les plus révolutionnaires de notre époque, transformant chaque domaine de l’activité humaine. Cependant, cette puissance s’accompagne de risques considérables. L’opacité des algorithmes d’IA exacerbe ces dangers, comme en témoignent de nombreux cas où l’IA a causé des dommages graves à la société.

Les risques vont jusqu’à créer une instabilité systémique, illustrée par des incidents tels que les « flash crashes » financiers alimentés par l’IA. Par exemple, le 6 mai 2010, le Dow Jones a chuté de plus de 1 000 points en seulement 10 minutes, effaçant environ 1 trillion de dollars en capitalisation boursière. Bien que 70 % des pertes aient été récupérées à la fin de la journée, ces événements soulignent la vulnérabilité des marchés face à l’IA.

Violence physique et prise de décision autonome

Le rapport de l’ONU de 2020 a révélé que des drones Kargu-2, fabriqués en Turquie, ont utilisé la reconnaissance d’image basée sur l’IA pour attaquer des combattants humains sans supervision humaine directe, marquant potentiellement le premier incident documenté d’utilisation de force létale autonome. De plus, des rapports en provenance de Gaza en 2023-2024 ont suggéré qu’Israël avait utilisé un système d’IA, surnommé « Lavender », pour générer automatiquement des listes de cibles pour des campagnes de bombardement, ce qui a entraîné des pertes civiles non intentionnelles.

Ces systèmes d’IA sont également sujets à des biais, héritant des préjugés de leurs créateurs. Par exemple, l’algorithme COMPAS, utilisé dans les tribunaux américains, a étiqueté de manière injuste des défendants noirs comme « à haut risque », affectant ainsi le montant des cautionnements et les peines.

Concentration du pouvoir et inégalités

Un autre problème majeur est que quelques grandes entreprises américaines contrôlent la majorité des ressources et de la puissance de calcul en matière d’IA, ce qui crée des risques géopolitiques et renforce les monopoles. L’algorithme de Facebook a joué un rôle dans le génocide des Rohingyas en 2016-2017, en normalisant des contenus haineux et en déshumanisant cette communauté.

Pour les grandes entreprises, le profit prime souvent sur la sécurité, l’éthique et la responsabilité. La sortie de ChatGPT en 2022 a été un signal d’alarme, révélant le potentiel de l’IA à propager la désinformation et à nuire aux processus démocratiques, entraînant des demandes mondiales de réglementation de l’IA.

Initiatives de régulation : L’UE en tête

En août 2024, l’Union européenne a adopté la loi sur l’intelligence artificielle, qui se base sur une approche par risque, catégorisant les applications d’IA de minimale à inacceptable, avec des obligations correspondantes. Les systèmes présentant des risques inacceptables seront prohibés, notamment ceux impliquant la manipulation comportementale cognitive ou la surveillance biométrique en temps réel.

Les systèmes d’IA à haut risque devront faire l’objet d’une surveillance continue. La loi exige également que le contenu généré par l’IA soit clairement identifié comme tel, afin de protéger les citoyens contre la discrimination et les violations de la vie privée.

Défis et perspectives mondiales

Malgré les efforts de l’UE, des critiques estiment que ces règles pourraient freiner l’innovation et imposer des coûts élevés de conformité, désavantageant ainsi les start-ups. Parallèlement, l’administration Trump a mis en œuvre des mesures de déréglementation agressives, affirmant que la loi de l’UE pourrait décourager les investissements dans l’IA.

Au niveau international, la Chine a présenté son Plan d’action pour la gouvernance mondiale de l’IA, promouvant la coopération et la régulation, tandis que le Brésil se prépare à adopter sa propre législation basée sur le risque. En revanche, l’Inde n’a pas encore de loi dédiée à l’IA, bien qu’elle ait lancé l’Institut de sécurité AI et proposé des lignes directrices pour une adoption responsable de l’IA.

En conclusion, l’IA a le potentiel d’avancer le bien-être humain, mais elle peut également causer des dommages illimités. L’établissement de réglementations claires et efficaces est essentiel pour garantir que cette technologie soit utilisée de manière éthique et responsable.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...