Réguler l’IA : Un impératif urgent
L’intelligence artificielle est sans conteste l’une des technologies les plus révolutionnaires de notre époque, transformant chaque domaine de l’activité humaine. Cependant, cette puissance s’accompagne de risques considérables. L’opacité des algorithmes d’IA exacerbe ces dangers, comme en témoignent de nombreux cas où l’IA a causé des dommages graves à la société.
Les risques vont jusqu’à créer une instabilité systémique, illustrée par des incidents tels que les « flash crashes » financiers alimentés par l’IA. Par exemple, le 6 mai 2010, le Dow Jones a chuté de plus de 1 000 points en seulement 10 minutes, effaçant environ 1 trillion de dollars en capitalisation boursière. Bien que 70 % des pertes aient été récupérées à la fin de la journée, ces événements soulignent la vulnérabilité des marchés face à l’IA.
Violence physique et prise de décision autonome
Le rapport de l’ONU de 2020 a révélé que des drones Kargu-2, fabriqués en Turquie, ont utilisé la reconnaissance d’image basée sur l’IA pour attaquer des combattants humains sans supervision humaine directe, marquant potentiellement le premier incident documenté d’utilisation de force létale autonome. De plus, des rapports en provenance de Gaza en 2023-2024 ont suggéré qu’Israël avait utilisé un système d’IA, surnommé « Lavender », pour générer automatiquement des listes de cibles pour des campagnes de bombardement, ce qui a entraîné des pertes civiles non intentionnelles.
Ces systèmes d’IA sont également sujets à des biais, héritant des préjugés de leurs créateurs. Par exemple, l’algorithme COMPAS, utilisé dans les tribunaux américains, a étiqueté de manière injuste des défendants noirs comme « à haut risque », affectant ainsi le montant des cautionnements et les peines.
Concentration du pouvoir et inégalités
Un autre problème majeur est que quelques grandes entreprises américaines contrôlent la majorité des ressources et de la puissance de calcul en matière d’IA, ce qui crée des risques géopolitiques et renforce les monopoles. L’algorithme de Facebook a joué un rôle dans le génocide des Rohingyas en 2016-2017, en normalisant des contenus haineux et en déshumanisant cette communauté.
Pour les grandes entreprises, le profit prime souvent sur la sécurité, l’éthique et la responsabilité. La sortie de ChatGPT en 2022 a été un signal d’alarme, révélant le potentiel de l’IA à propager la désinformation et à nuire aux processus démocratiques, entraînant des demandes mondiales de réglementation de l’IA.
Initiatives de régulation : L’UE en tête
En août 2024, l’Union européenne a adopté la loi sur l’intelligence artificielle, qui se base sur une approche par risque, catégorisant les applications d’IA de minimale à inacceptable, avec des obligations correspondantes. Les systèmes présentant des risques inacceptables seront prohibés, notamment ceux impliquant la manipulation comportementale cognitive ou la surveillance biométrique en temps réel.
Les systèmes d’IA à haut risque devront faire l’objet d’une surveillance continue. La loi exige également que le contenu généré par l’IA soit clairement identifié comme tel, afin de protéger les citoyens contre la discrimination et les violations de la vie privée.
Défis et perspectives mondiales
Malgré les efforts de l’UE, des critiques estiment que ces règles pourraient freiner l’innovation et imposer des coûts élevés de conformité, désavantageant ainsi les start-ups. Parallèlement, l’administration Trump a mis en œuvre des mesures de déréglementation agressives, affirmant que la loi de l’UE pourrait décourager les investissements dans l’IA.
Au niveau international, la Chine a présenté son Plan d’action pour la gouvernance mondiale de l’IA, promouvant la coopération et la régulation, tandis que le Brésil se prépare à adopter sa propre législation basée sur le risque. En revanche, l’Inde n’a pas encore de loi dédiée à l’IA, bien qu’elle ait lancé l’Institut de sécurité AI et proposé des lignes directrices pour une adoption responsable de l’IA.
En conclusion, l’IA a le potentiel d’avancer le bien-être humain, mais elle peut également causer des dommages illimités. L’établissement de réglementations claires et efficaces est essentiel pour garantir que cette technologie soit utilisée de manière éthique et responsable.