Déréglementation de l’IA : un risque pour les marchés financiers ?

A fading dollar sign

Le mouvement vers la déréglementation de l’IA pourrait mettre en péril les marchés financiers

Alors que le Canada s’oriente vers une réglementation plus stricte de l’IA avec la proposition de la Loi sur l’intelligence artificielle et les données (AIDA), son voisin du sud semble adopter une approche opposée.

AIDA, qui fait partie du projet de loi C-27, vise à établir un cadre réglementaire pour améliorer la transparence, la responsabilité et la surveillance de l’IA au Canada, bien que certains experts aient soutenu qu’elle n’allait pas assez loin.

Pendant ce temps, le président des États-Unis, Donald Trump, pousse pour la déréglementation de l’IA. En janvier, Trump a signé un décret visant à éliminer les barrières réglementaires perçues pour « l’innovation américaine en IA ». Ce décret a remplacé l’ancien décret sur l’IA du président Joe Biden.

Il est à noter que les États-Unis étaient également l’un des deux pays, avec le Royaume-Uni, à ne pas avoir signé une déclaration mondiale en février visant à garantir que l’IA soit « ouverte, inclusive, transparente, éthique, sûre, sécurisée et fiable ».

Éliminer les protections de l’IA rend les institutions financières vulnérables. Cette vulnérabilité peut accroître l’incertitude et, dans le pire des cas, augmenter le risque d’effondrement systémique.

Le pouvoir de l’IA dans les marchés financiers

Le potentiel de l’IA dans les marchés financiers est indéniable. Elle peut améliorer l’efficacité opérationnelle, réaliser des évaluations de risque en temps réel, générer des revenus plus élevés et prévoir des changements économiques prédictifs.

Des recherches ont montré que les modèles d’apprentissage automatique alimentés par l’IA surpassent non seulement les approches conventionnelles dans l’identification de la fraude financière, mais détectent également les anomalies rapidement et efficacement. En d’autres termes, l’IA peut détecter des signes de mauvaise gestion financière avant qu’ils ne dégénèrent en catastrophe.

Dans une autre étude, il a été constaté que des modèles d’IA comme les réseaux neuronaux artificiels et les arbres de classification et de régression peuvent prédire le stress financier avec une précision remarquable.

Nos modèles de réseaux neuronaux ont prédit le stress financier parmi les entreprises cotées à la Bourse de Toronto avec une précision stupéfiante de 98%. Cela suggère l’immense potentiel de l’IA pour fournir des signaux d’alerte précoce qui pourraient aider à éviter les crises financières avant qu’elles ne commencent.

Cependant, bien que l’IA puisse simplifier les processus manuels et réduire les risques financiers, elle peut également introduire des vulnérabilités qui, si elles ne sont pas contrôlées, pourraient poser des menaces significatives à la stabilité économique.

Les risques de la déréglementation

La poussée de Trump pour la déréglementation pourrait entraîner un gain de pouvoir significatif pour Wall Street et d’autres grandes institutions financières sur les outils de décision basés sur l’IA, avec peu ou pas de supervision.

Lorsque des modèles d’IA motivés par le profit fonctionnent sans les frontières éthiques appropriées, les conséquences peuvent être graves. Les algorithmes non contrôlés, en particulier dans l’évaluation de crédit et le trading, pourraient aggraver les inégalités économiques et générer des risques financiers systémiques que les cadres réglementaires traditionnels ne peuvent pas détecter.

Des algorithmes formés sur des données biaisées ou incomplètes peuvent renforcer des pratiques de prêt discriminatoires. Par exemple, dans le domaine du prêt, des algorithmes d’IA biaisés peuvent refuser des prêts à des groupes marginalisés, élargissant ainsi les écarts de richesse et d’inégalité.

De plus, les bots de trading alimentés par l’IA, capables d’exécuter des transactions rapides, pourraient provoquer des crashes boursiers en quelques secondes, perturbant les marchés financiers avant que les régulateurs aient le temps de réagir. Le crash éclair de 2010 en est un exemple, où des algorithmes de trading à haute fréquence ont réagi agressivement aux signaux du marché, provoquant une chute de 998,5 points de l’indice Dow Jones en quelques minutes.

En outre, des modèles de risque basés sur l’IA non régulés pourraient négliger des signaux d’avertissement économiques, entraînant des erreurs substantielles dans le contrôle monétaire et la politique fiscale.

Un plan pour la stabilité financière

Il est essentiel d’intégrer les méthodes d’apprentissage automatique au sein de systèmes réglementaires solides pour améliorer la surveillance financière, la détection et la prévention de la fraude.

Des cadres réglementaires durables et raisonnables sont nécessaires pour transformer l’IA d’un potentiel perturbateur en une force stabilisante. En mettant en œuvre des politiques qui privilégient la transparence et la responsabilité, les décideurs peuvent maximiser les avantages de l’IA tout en réduisant les risques qui y sont associés.

Un organe de surveillance de l’IA réglementé au niveau fédéral aux États-Unis pourrait servir d’arbitre, tout comme la Loi sur la mise en œuvre de la Charte numérique de 2022 du Canada propose l’établissement d’un commissaire à l’IA et aux données. Fonctionnant avec des contrôles et des équilibres inhérents aux structures démocratiques, cela garantirait l’équité dans les algorithmes financiers et mettrait un terme aux politiques de prêt biaisées et à la manipulation de marché cachée.

Les institutions financières seraient tenues d’ouvrir la « boîte noire » des alternatives basées sur l’IA en imposant la transparence grâce à des normes d’IA explicables — des directives visant à rendre les résultats des systèmes d’IA plus compréhensibles et transparents pour les humains.

Les capacités prédictives de l’apprentissage automatique pourraient aider les régulateurs à identifier les crises financières en temps réel en utilisant des signes d’alerte précoce.

Cependant, cette vision ne s’arrête pas aux frontières nationales. Au niveau mondial, le Fonds monétaire international et le Conseil de stabilité financière pourraient établir des normes éthiques en matière d’IA pour freiner la mauvaise conduite financière transfrontalière.

Prévention de crise ou catalyseur ?

L’IA sera-t-elle toujours la clé pour prévoir et stopper la prochaine crise économique, ou le manque de supervision réglementaire provoquera-t-il une catastrophe financière ? À mesure que les institutions financières continuent d’adopter des modèles basés sur l’IA, l’absence de garde-fous réglementaires solides soulève des inquiétudes pressantes.

Sans protections appropriées en place, l’IA n’est pas seulement un outil de prédiction économique — elle pourrait devenir une force imprévisible capable d’accélérer la prochaine crise financière.

Les enjeux sont élevés. Les décideurs doivent agir rapidement pour réglementer l’impact croissant de l’IA avant que la déréglementation n’ouvre la voie à une catastrophe économique.

Sans action décisive, l’adoption rapide de l’IA dans le secteur financier pourrait dépasser les efforts réglementaires, laissant les économies vulnérables à des risques imprévus et potentiellement préparant le terrain pour une autre crise financière mondiale.

Articles

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...

Les risques méconnus de l’IA dans les entreprises

L'IA devient de plus en plus présente dans les lieux de travail, mais de nombreuses entreprises ignorent les risques associés. Il est essentiel d'établir des principes de conformité et de gouvernance...

Investir dans la sécurité de l’IA pour un avenir responsable

La révolution de l'intelligence artificielle est désormais une réalité, transformant les industries et la vie quotidienne. Pour les investisseurs, cela représente une opportunité en or d'exploiter un...

L’impact croissant de l’IA sur la sécurité publique

Les agences de maintien de l'ordre (LEAs) utilisent de plus en plus l'intelligence artificielle (IA) pour améliorer leur fonctionnement, en particulier grâce à des capacités accrues pour la police...

Kenya à l’avant-garde de la gouvernance mondiale de l’IA

Le Kenya a remporté une victoire diplomatique majeure après que les 193 États membres des Nations Unies ont convenu à l'unanimité de créer deux institutions marquantes pour gouverner l'intelligence...

Cadre de gouvernance de l’IA : Un appel à l’action

Les parties prenantes ont appelé au développement d'un cadre de gouvernance de l'intelligence artificielle (IA) pour garantir son déploiement responsable lors de la 17e conférence annuelle de...

Nouvelles recommandations sur l’adoption de l’IA pour les responsables marketing en santé

Avec l'expansion rapide des outils d'intelligence artificielle, les directeurs marketing et autres leaders du secteur de la santé doivent mettre en place des politiques pour l'adoption et la...

Nouveau dialogue mondial sur la gouvernance de l’IA à l’ONU

L'Assemblée générale des Nations Unies a adopté une résolution visant à établir un panel scientifique international indépendant sur l'intelligence artificielle et un dialogue mondial sur la...

Menaces cybernétiques : l’essor de l’IA et ses risques pour la sécurité

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les industries, offrant aux organisations de nouveaux outils pour l'efficacité et la croissance. Cependant, leur adoption...