Déréglementation de l’IA : un risque pour les marchés financiers ?

A fading dollar sign

Le mouvement vers la déréglementation de l’IA pourrait mettre en péril les marchés financiers

Alors que le Canada s’oriente vers une réglementation plus stricte de l’IA avec la proposition de la Loi sur l’intelligence artificielle et les données (AIDA), son voisin du sud semble adopter une approche opposée.

AIDA, qui fait partie du projet de loi C-27, vise à établir un cadre réglementaire pour améliorer la transparence, la responsabilité et la surveillance de l’IA au Canada, bien que certains experts aient soutenu qu’elle n’allait pas assez loin.

Pendant ce temps, le président des États-Unis, Donald Trump, pousse pour la déréglementation de l’IA. En janvier, Trump a signé un décret visant à éliminer les barrières réglementaires perçues pour « l’innovation américaine en IA ». Ce décret a remplacé l’ancien décret sur l’IA du président Joe Biden.

Il est à noter que les États-Unis étaient également l’un des deux pays, avec le Royaume-Uni, à ne pas avoir signé une déclaration mondiale en février visant à garantir que l’IA soit « ouverte, inclusive, transparente, éthique, sûre, sécurisée et fiable ».

Éliminer les protections de l’IA rend les institutions financières vulnérables. Cette vulnérabilité peut accroître l’incertitude et, dans le pire des cas, augmenter le risque d’effondrement systémique.

Le pouvoir de l’IA dans les marchés financiers

Le potentiel de l’IA dans les marchés financiers est indéniable. Elle peut améliorer l’efficacité opérationnelle, réaliser des évaluations de risque en temps réel, générer des revenus plus élevés et prévoir des changements économiques prédictifs.

Des recherches ont montré que les modèles d’apprentissage automatique alimentés par l’IA surpassent non seulement les approches conventionnelles dans l’identification de la fraude financière, mais détectent également les anomalies rapidement et efficacement. En d’autres termes, l’IA peut détecter des signes de mauvaise gestion financière avant qu’ils ne dégénèrent en catastrophe.

Dans une autre étude, il a été constaté que des modèles d’IA comme les réseaux neuronaux artificiels et les arbres de classification et de régression peuvent prédire le stress financier avec une précision remarquable.

Nos modèles de réseaux neuronaux ont prédit le stress financier parmi les entreprises cotées à la Bourse de Toronto avec une précision stupéfiante de 98%. Cela suggère l’immense potentiel de l’IA pour fournir des signaux d’alerte précoce qui pourraient aider à éviter les crises financières avant qu’elles ne commencent.

Cependant, bien que l’IA puisse simplifier les processus manuels et réduire les risques financiers, elle peut également introduire des vulnérabilités qui, si elles ne sont pas contrôlées, pourraient poser des menaces significatives à la stabilité économique.

Les risques de la déréglementation

La poussée de Trump pour la déréglementation pourrait entraîner un gain de pouvoir significatif pour Wall Street et d’autres grandes institutions financières sur les outils de décision basés sur l’IA, avec peu ou pas de supervision.

Lorsque des modèles d’IA motivés par le profit fonctionnent sans les frontières éthiques appropriées, les conséquences peuvent être graves. Les algorithmes non contrôlés, en particulier dans l’évaluation de crédit et le trading, pourraient aggraver les inégalités économiques et générer des risques financiers systémiques que les cadres réglementaires traditionnels ne peuvent pas détecter.

Des algorithmes formés sur des données biaisées ou incomplètes peuvent renforcer des pratiques de prêt discriminatoires. Par exemple, dans le domaine du prêt, des algorithmes d’IA biaisés peuvent refuser des prêts à des groupes marginalisés, élargissant ainsi les écarts de richesse et d’inégalité.

De plus, les bots de trading alimentés par l’IA, capables d’exécuter des transactions rapides, pourraient provoquer des crashes boursiers en quelques secondes, perturbant les marchés financiers avant que les régulateurs aient le temps de réagir. Le crash éclair de 2010 en est un exemple, où des algorithmes de trading à haute fréquence ont réagi agressivement aux signaux du marché, provoquant une chute de 998,5 points de l’indice Dow Jones en quelques minutes.

En outre, des modèles de risque basés sur l’IA non régulés pourraient négliger des signaux d’avertissement économiques, entraînant des erreurs substantielles dans le contrôle monétaire et la politique fiscale.

Un plan pour la stabilité financière

Il est essentiel d’intégrer les méthodes d’apprentissage automatique au sein de systèmes réglementaires solides pour améliorer la surveillance financière, la détection et la prévention de la fraude.

Des cadres réglementaires durables et raisonnables sont nécessaires pour transformer l’IA d’un potentiel perturbateur en une force stabilisante. En mettant en œuvre des politiques qui privilégient la transparence et la responsabilité, les décideurs peuvent maximiser les avantages de l’IA tout en réduisant les risques qui y sont associés.

Un organe de surveillance de l’IA réglementé au niveau fédéral aux États-Unis pourrait servir d’arbitre, tout comme la Loi sur la mise en œuvre de la Charte numérique de 2022 du Canada propose l’établissement d’un commissaire à l’IA et aux données. Fonctionnant avec des contrôles et des équilibres inhérents aux structures démocratiques, cela garantirait l’équité dans les algorithmes financiers et mettrait un terme aux politiques de prêt biaisées et à la manipulation de marché cachée.

Les institutions financières seraient tenues d’ouvrir la « boîte noire » des alternatives basées sur l’IA en imposant la transparence grâce à des normes d’IA explicables — des directives visant à rendre les résultats des systèmes d’IA plus compréhensibles et transparents pour les humains.

Les capacités prédictives de l’apprentissage automatique pourraient aider les régulateurs à identifier les crises financières en temps réel en utilisant des signes d’alerte précoce.

Cependant, cette vision ne s’arrête pas aux frontières nationales. Au niveau mondial, le Fonds monétaire international et le Conseil de stabilité financière pourraient établir des normes éthiques en matière d’IA pour freiner la mauvaise conduite financière transfrontalière.

Prévention de crise ou catalyseur ?

L’IA sera-t-elle toujours la clé pour prévoir et stopper la prochaine crise économique, ou le manque de supervision réglementaire provoquera-t-il une catastrophe financière ? À mesure que les institutions financières continuent d’adopter des modèles basés sur l’IA, l’absence de garde-fous réglementaires solides soulève des inquiétudes pressantes.

Sans protections appropriées en place, l’IA n’est pas seulement un outil de prédiction économique — elle pourrait devenir une force imprévisible capable d’accélérer la prochaine crise financière.

Les enjeux sont élevés. Les décideurs doivent agir rapidement pour réglementer l’impact croissant de l’IA avant que la déréglementation n’ouvre la voie à une catastrophe économique.

Sans action décisive, l’adoption rapide de l’IA dans le secteur financier pourrait dépasser les efforts réglementaires, laissant les économies vulnérables à des risques imprévus et potentiellement préparant le terrain pour une autre crise financière mondiale.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...