Le mouvement vers la déréglementation de l’IA pourrait mettre en péril les marchés financiers
Alors que le Canada s’oriente vers une réglementation plus stricte de l’IA avec la proposition de la Loi sur l’intelligence artificielle et les données (AIDA), son voisin du sud semble adopter une approche opposée.
AIDA, qui fait partie du projet de loi C-27, vise à établir un cadre réglementaire pour améliorer la transparence, la responsabilité et la surveillance de l’IA au Canada, bien que certains experts aient soutenu qu’elle n’allait pas assez loin.
Pendant ce temps, le président des États-Unis, Donald Trump, pousse pour la déréglementation de l’IA. En janvier, Trump a signé un décret visant à éliminer les barrières réglementaires perçues pour « l’innovation américaine en IA ». Ce décret a remplacé l’ancien décret sur l’IA du président Joe Biden.
Il est à noter que les États-Unis étaient également l’un des deux pays, avec le Royaume-Uni, à ne pas avoir signé une déclaration mondiale en février visant à garantir que l’IA soit « ouverte, inclusive, transparente, éthique, sûre, sécurisée et fiable ».
Éliminer les protections de l’IA rend les institutions financières vulnérables. Cette vulnérabilité peut accroître l’incertitude et, dans le pire des cas, augmenter le risque d’effondrement systémique.
Le pouvoir de l’IA dans les marchés financiers
Le potentiel de l’IA dans les marchés financiers est indéniable. Elle peut améliorer l’efficacité opérationnelle, réaliser des évaluations de risque en temps réel, générer des revenus plus élevés et prévoir des changements économiques prédictifs.
Des recherches ont montré que les modèles d’apprentissage automatique alimentés par l’IA surpassent non seulement les approches conventionnelles dans l’identification de la fraude financière, mais détectent également les anomalies rapidement et efficacement. En d’autres termes, l’IA peut détecter des signes de mauvaise gestion financière avant qu’ils ne dégénèrent en catastrophe.
Dans une autre étude, il a été constaté que des modèles d’IA comme les réseaux neuronaux artificiels et les arbres de classification et de régression peuvent prédire le stress financier avec une précision remarquable.
Nos modèles de réseaux neuronaux ont prédit le stress financier parmi les entreprises cotées à la Bourse de Toronto avec une précision stupéfiante de 98%. Cela suggère l’immense potentiel de l’IA pour fournir des signaux d’alerte précoce qui pourraient aider à éviter les crises financières avant qu’elles ne commencent.
Cependant, bien que l’IA puisse simplifier les processus manuels et réduire les risques financiers, elle peut également introduire des vulnérabilités qui, si elles ne sont pas contrôlées, pourraient poser des menaces significatives à la stabilité économique.
Les risques de la déréglementation
La poussée de Trump pour la déréglementation pourrait entraîner un gain de pouvoir significatif pour Wall Street et d’autres grandes institutions financières sur les outils de décision basés sur l’IA, avec peu ou pas de supervision.
Lorsque des modèles d’IA motivés par le profit fonctionnent sans les frontières éthiques appropriées, les conséquences peuvent être graves. Les algorithmes non contrôlés, en particulier dans l’évaluation de crédit et le trading, pourraient aggraver les inégalités économiques et générer des risques financiers systémiques que les cadres réglementaires traditionnels ne peuvent pas détecter.
Des algorithmes formés sur des données biaisées ou incomplètes peuvent renforcer des pratiques de prêt discriminatoires. Par exemple, dans le domaine du prêt, des algorithmes d’IA biaisés peuvent refuser des prêts à des groupes marginalisés, élargissant ainsi les écarts de richesse et d’inégalité.
De plus, les bots de trading alimentés par l’IA, capables d’exécuter des transactions rapides, pourraient provoquer des crashes boursiers en quelques secondes, perturbant les marchés financiers avant que les régulateurs aient le temps de réagir. Le crash éclair de 2010 en est un exemple, où des algorithmes de trading à haute fréquence ont réagi agressivement aux signaux du marché, provoquant une chute de 998,5 points de l’indice Dow Jones en quelques minutes.
En outre, des modèles de risque basés sur l’IA non régulés pourraient négliger des signaux d’avertissement économiques, entraînant des erreurs substantielles dans le contrôle monétaire et la politique fiscale.
Un plan pour la stabilité financière
Il est essentiel d’intégrer les méthodes d’apprentissage automatique au sein de systèmes réglementaires solides pour améliorer la surveillance financière, la détection et la prévention de la fraude.
Des cadres réglementaires durables et raisonnables sont nécessaires pour transformer l’IA d’un potentiel perturbateur en une force stabilisante. En mettant en œuvre des politiques qui privilégient la transparence et la responsabilité, les décideurs peuvent maximiser les avantages de l’IA tout en réduisant les risques qui y sont associés.
Un organe de surveillance de l’IA réglementé au niveau fédéral aux États-Unis pourrait servir d’arbitre, tout comme la Loi sur la mise en œuvre de la Charte numérique de 2022 du Canada propose l’établissement d’un commissaire à l’IA et aux données. Fonctionnant avec des contrôles et des équilibres inhérents aux structures démocratiques, cela garantirait l’équité dans les algorithmes financiers et mettrait un terme aux politiques de prêt biaisées et à la manipulation de marché cachée.
Les institutions financières seraient tenues d’ouvrir la « boîte noire » des alternatives basées sur l’IA en imposant la transparence grâce à des normes d’IA explicables — des directives visant à rendre les résultats des systèmes d’IA plus compréhensibles et transparents pour les humains.
Les capacités prédictives de l’apprentissage automatique pourraient aider les régulateurs à identifier les crises financières en temps réel en utilisant des signes d’alerte précoce.
Cependant, cette vision ne s’arrête pas aux frontières nationales. Au niveau mondial, le Fonds monétaire international et le Conseil de stabilité financière pourraient établir des normes éthiques en matière d’IA pour freiner la mauvaise conduite financière transfrontalière.
Prévention de crise ou catalyseur ?
L’IA sera-t-elle toujours la clé pour prévoir et stopper la prochaine crise économique, ou le manque de supervision réglementaire provoquera-t-il une catastrophe financière ? À mesure que les institutions financières continuent d’adopter des modèles basés sur l’IA, l’absence de garde-fous réglementaires solides soulève des inquiétudes pressantes.
Sans protections appropriées en place, l’IA n’est pas seulement un outil de prédiction économique — elle pourrait devenir une force imprévisible capable d’accélérer la prochaine crise financière.
Les enjeux sont élevés. Les décideurs doivent agir rapidement pour réglementer l’impact croissant de l’IA avant que la déréglementation n’ouvre la voie à une catastrophe économique.
Sans action décisive, l’adoption rapide de l’IA dans le secteur financier pourrait dépasser les efforts réglementaires, laissant les économies vulnérables à des risques imprévus et potentiellement préparant le terrain pour une autre crise financière mondiale.