Les régulateurs financiers doivent intégrer l’éthique dans leurs systèmes d’IA
À mesure que l’intelligence artificielle joue un rôle de plus en plus important dans la régulation des banques et des entreprises de services financiers, les régulateurs doivent s’assurer que ces nouveaux systèmes n’importent pas de vieux préjugés dans la surveillance moderne.
Enjeux
Une IA de supervision non contrôlée menace l’intégrité du marché, l’inclusion financière et la confiance du public.
Citations d’experts
« Les décisions de supervision doivent rester explicables et responsables, nécessitant un « humain dans la boucle » pour toutes les interventions significatives. »
Données soutenantes
Soixante-sept pour cent des agences utilisent l’IA ; 37 % rapportent ne pas avoir de gouvernance formelle ou de cadre éthique.
Plus des deux tiers des autorités financières du monde misent sur l’IA pour gérer nos économies, mais comment est-il possible que plus de la moitié d’entre elles le fassent sans directives éthiques en place ? Moins de 9 % des autorités financières considèrent actuellement le biais algorithmique comme un défi à résoudre. Un paysage financier intensif en technologie peut-il vraiment rester inclusif et transparent si les outils utilisés pour le superviser fonctionnent dans un vide de gouvernance ?
Utilisation croissante de l’IA
Des autorités financières, y compris des banques centrales et des régulateurs de marché, misent de plus en plus sur l’IA pour détecter des schémas complexes de blanchiment d’argent et prédire des chocs systémiques bancaires. Cependant, lorsque la gouvernance est à la traîne de la technologie, les conséquences peuvent inclure une érosion de la confiance, une intégrité du marché affaiblie et des dommages involontaires.
Au cours des dernières années, nous avons observé une transition des feuilles de calcul basées sur papier vers des lacs de données à haute fréquence. Actuellement, 67 % des agences de supervision déploient, pilotent ou explorent l’IA pour divers cas d’utilisation à fort impact.
Déconnexion dans la gouvernance
Les dernières données mettent en lumière une déconnexion frappante entre l’ambition technologique et la supervision institutionnelle. Plus de la moitié des autorités interrogées manquent de structures de gouvernance claires pour la technologie de supervision activée par l’IA.
Plus d’un tiers des agences (37 %) rapportent ne pas avoir de cadre de gouvernance formel pour l’IA en supervision. De plus, seulement 4 % s’alignent explicitement sur des normes internationales telles que les Principes de l’IA de l’OCDE ou la Loi sur l’IA de l’UE.
Risques éthiques
Les chiffres sont alarmants, surtout compte tenu du risque que l’IA amplifie les inégalités existantes. Ces risques peuvent être sous-estimés précisément parce que la gouvernance est peu développée. Sans audits de biais, les risques demeurent invisibles et faciles à rejeter.
De plus, 18 % des agences évoquent des préoccupations concernant le « black box » (l’incapacité d’expliquer les sorties basées sur l’IA) comme un obstacle majeur. Les décisions de supervision doivent rester explicables et responsables, nécessitant un « humain dans la boucle » pour toutes les interventions significatives.
Importance de la gouvernance des données
La gouvernance des données forte est donc un élément central de l’infrastructure éthique. Cela inclut une propriété claire des données, la documentation de la provenance des données, des contrôles de qualité continus et une considération explicite de qui ou quoi pourrait être sous-représenté dans les ensembles de données de supervision.
À mesure que les autorités financières passent à l’IA agentique — des systèmes de plus en plus autonomes et capables d’agir avec peu d’intervention humaine — les enjeux deviennent plus pressants. Ces systèmes promettent efficacité et échelle, mais ils étendent également la surface de risque.
Exemples d’initiatives éthiques
Certaines autorités prouvent qu’il est possible d’intégrer l’éthique. Une autorité a établi un cadre éthique qui exige que chaque cas d’utilisation subisse des évaluations indépendantes avant son déploiement.
Conclusion
Le point de basculement pour la transformation de la supervision n’est plus la disponibilité des outils, mais la gouvernance et la confiance qui les sous-tendent. Nous ne pouvons pas nous permettre d’avoir plus de 60 % des autorités se précipitant vers un avenir piloté par l’IA alors que la majorité manque encore de cadres de responsabilité de base.