Dérégulation de l’IA : un risque financier imminent

A shattered glass globe to signify global market instability.

La déréglementation précipitée de l’IA met les marchés financiers à haut risque

Alors que le Canada s’oriente vers une réglementation plus stricte de l’IA avec le projet de Loi sur l’intelligence artificielle et les données (AIDA), son voisin du sud, les États-Unis, semble adopter une approche inverse.

L’AIDA, qui fait partie du projet de loi C-27, vise à établir un cadre réglementaire pour améliorer la transparence, la responsabilité et la surveillance de l’IA au Canada. Cependant, certains experts estiment que cette loi ne va pas assez loin.

En revanche, le président des États-Unis, Donald Trump, fait pression pour une déréglementation de l’IA. En janvier, il a signé un décret exécutif visant à éliminer les éventuels obstacles réglementaires à l’« innovation américaine en matière d’IA ». Ce décret remplace l’ancien décret sur l’IA de l’ancien président Joe Biden.

Notamment, les États-Unis étaient également l’un des deux pays, avec le Royaume-Uni, à ne pas avoir signé une déclaration mondiale en février visant à garantir que l’IA soit « ouverte, inclusive, transparente, éthique, sûre, sécurisée et digne de confiance ».

Le pouvoir de l’IA sur les marchés financiers

Le potentiel de l’IA dans les marchés financiers est indéniable. Elle peut améliorer l’efficacité opérationnelle, réaliser des évaluations des risques en temps réel, générer des revenus plus élevés et prévoir des changements économiques.

Des recherches ont montré que les modèles d’apprentissage automatique basés sur l’IA surpassent non seulement les approches conventionnelles dans l’identification de la fraude financière, mais aussi dans la détection rapide et efficace des anomalies. En d’autres termes, l’IA peut détecter les signes de mauvaise gestion financière avant qu’ils ne se transforment en catastrophe.

Dans une autre étude, il a été démontré que des modèles d’IA, tels que les réseaux neuronaux artificiels et les arbres de classification et de régression, peuvent prédire le stress financier avec une précision remarquable.

Les réseaux neuronaux artificiels sont des algorithmes inspirés du cerveau. De la même manière que notre cerveau envoie des messages à travers des neurones pour effectuer des actions, ces réseaux traitent les informations à travers des couches de « neurones artificiels » interconnectés, apprenant des modèles à partir des données pour faire des prévisions.

De même, les arbres de classification et de régression sont des modèles de prise de décision qui divisent les données en branches basées sur des caractéristiques importantes pour identifier les résultats.

Nos modèles de réseaux neuronaux ont prédit le stress financier parmi les entreprises cotées à la Bourse de Toronto avec une précision stupéfiante de 98%. Cela suggère l’immense potentiel de l’IA pour fournir des signaux d’alerte précoce qui pourraient aider à éviter les ralentissements financiers avant qu’ils ne commencent.

Cependant, bien que l’IA puisse simplifier les processus manuels et réduire les risques financiers, elle peut également introduire des vulnérabilités qui, si elles ne sont pas contrôlées, pourraient poser des menaces importantes pour la stabilité économique.

Les risques de la déréglementation

La pression exercée par Trump pour la déréglementation pourrait permettre à Wall Street et à d’autres grandes institutions financières de gagner un pouvoir considérable sur les outils de prise de décision alimentés par l’IA, avec peu ou pas de supervision.

Lorsque des modèles d’IA motivés par le profit fonctionnent sans les limites éthiques appropriées, les conséquences pourraient être sévères. Les algorithmes non contrôlés, en particulier dans l’évaluation des crédits et le trading, pourraient aggraver l’inégalité économique et générer des risques financiers systémiques que les cadres réglementaires traditionnels ne peuvent pas détecter.

Les algorithmes formés sur des données biaisées ou incomplètes peuvent renforcer des pratiques de prêt discriminatoires. Par exemple, dans le domaine du prêt, des algorithmes d’IA biaisés peuvent refuser des prêts à des groupes marginalisés, élargissant les écarts de richesse et d’inégalité.

De plus, les bots de trading alimentés par l’IA, capables d’exécuter des transactions rapides, pourraient déclencher des crashs éclair en quelques secondes, perturbant les marchés financiers avant que les régulateurs aient le temps de réagir.

Le crash éclair de 2010 est un exemple phare où des algorithmes de trading à haute fréquence ont réagi agressivement aux signaux du marché, provoquant une chute de 998,5 points de l’indice Dow Jones en quelques minutes.

En outre, des modèles de risque alimentés par l’IA non régulés pourraient négliger des signaux d’alerte économiques, entraînant des erreurs substantielles dans le contrôle monétaire et la politique fiscale.

Établir un équilibre entre innovation et sécurité dépend de la capacité des régulateurs et des décideurs politiques à réduire les dangers associés à l’IA. En tenant compte de la crise financière de 2008, de nombreux modèles de risque — des formes antérieures de l’IA — n’ont pas réussi à anticiper un effondrement du marché immobilier national, ce qui a égaré les régulateurs et les institutions financières, exacerbant la crise.

Un plan pour la stabilité financière

Cette recherche souligne l’importance d’intégrer des méthodes d’apprentissage automatique au sein de systèmes réglementaires solides pour améliorer la surveillance financière, la détection et la prévention de la fraude.

Des cadres réglementaires durables et raisonnables sont nécessaires pour transformer l’IA d’un potentiel perturbateur en une force stabilisatrice. En mettant en œuvre des politiques qui prioritent la transparence et la responsabilité, les décideurs peuvent maximiser les avantages de l’IA tout en minimisant les risques qui y sont associés.

Un organe de surveillance de l’IA réglementé au niveau fédéral aux États-Unis pourrait servir d’arbitre, tout comme la Loi sur la mise en œuvre de la Charte numérique de 2022 du Canada propose l’établissement d’un commissaire à l’IA et aux données.

Agir avec des contrôles et des équilibres inhérents aux structures démocratiques garantirait l’équité dans les algorithmes financiers et mettrait un terme aux politiques de prêt biaisées et à la manipulation du marché cachée.

Les institutions financières seraient tenues d’ouvrir la « boîte noire » des alternatives alimentées par l’IA en imposant la transparence grâce à des normes d’IA explicables — des directives visant à rendre les résultats des systèmes d’IA plus compréhensibles et transparents pour les humains.

Les capacités prédictives de l’apprentissage automatique pourraient aider les régulateurs à identifier les crises financières en temps réel à l’aide de signaux d’alerte précoce.

Cependant, cette vision ne s’arrête pas aux frontières nationales. Au niveau mondial, le Fonds monétaire international et le Conseil de stabilité financière pourraient établir des normes éthiques pour l’IA afin de lutter contre les comportements financiers illicites transfrontaliers.

Prévention des crises ou catalyseur ?

L’IA sera-t-elle toujours la clé pour prévoir et arrêter la prochaine crise économique, ou l’absence de surveillance réglementaire causera-t-elle une catastrophe financière ? Alors que les institutions financières continuent d’adopter des modèles alimentés par l’IA, l’absence de garde-fous réglementaires solides soulève des préoccupations pressantes.

Sans les protections appropriées en place, l’IA n’est pas seulement un outil de prédiction économique — elle pourrait devenir une force imprévisible capable d’accélérer la prochaine crise financière.

Les enjeux sont élevés. Les décideurs doivent agir rapidement pour réglementer l’impact croissant de l’IA avant que la déréglementation n’ouvre la voie à une catastrophe économique.

Sans action décisive, l’adoption rapide de l’IA dans le secteur financier pourrait dépasser les efforts réglementaires, laissant les économies vulnérables à des risques imprévus et, potentiellement, préparant le terrain pour une nouvelle crise financière mondiale.

Articles

L’illusion de l’IA : Quand la rapidité mène à la négligence

Dans un monde obsédé par des résultats plus rapides et moins chers, l'IA a rendu le concept de « suffisant » très tentant en matière de conformité. Cependant, la conformité n'est pas une course...

Nouveau Code de Pratique pour l’IA Générale en Europe

Le 10 juillet 2025, la Commission européenne a publié la version finale du Code de pratique sur l'IA à usage général, trois semaines avant l'entrée en vigueur des obligations relatives aux modèles...

Code de conformité de l’UE pour l’IA : une nouvelle ère pour les entreprises

L'Union européenne a publié un nouveau code de pratique volontaire pour aider les entreprises à se conformer à la prochaine loi sur l'IA, qui régira l'utilisation de l'IA dans les 27 États membres. Ce...

Responsabilité et transparence : repenser l’approvisionnement en IA dans les gouvernements

En 2018, le public a appris que le département de police de la Nouvelle-Orléans utilisait un logiciel de police prédictive de Palantir pour décider où envoyer des agents. Cette situation a mis en...

Cadre SAIL : La nouvelle référence en sécurité pour l’IA

Pillar Security a codifié un cadre de sécurité AI qui représente une avancée significative dans les efforts de l'industrie pour assurer des opérations sécurisées pour l'IA. Ce cadre, connu sous le nom...

Gouvernance de l’IA : Tokio Marine fixe les règles du jeu

Tokio Marine Holdings a introduit un cadre de gouvernance de l'IA pour guider le développement et l'utilisation de l'intelligence artificielle au sein de ses entreprises. La politique met l'accent sur...

L’essor de l’IA clandestine et la nécessité d’une gouvernance agile

L'intelligence artificielle générative (GenAI) est déjà profondément intégrée dans les entreprises, souvent sans approbation ni contrôle formel. Cela a conduit à ce que l'on appelle l'IA de l'ombre...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...