Intelligence Artificielle et Données
Introduction
L’année à venir mettra à l’épreuve la capacité des entreprises de services financiers à équilibrer ambition et garde-fous robustes dans leur utilisation de l’intelligence artificielle (IA). Un récent sondage montre que l’appétit pour l’IA reste fort : 94 % des entreprises prévoient d’augmenter leurs investissements dans les 12 prochains mois, dont 39 % s’attendent à une hausse significative.
Défis de l’IA dans les Services Financiers
Les conseils d’administration voient à juste titre l’IA comme une force de transformation puissante. Cependant, le passage de l’expérimentation à l’échelle des cas d’utilisation de l’IA, en particulier dans un environnement réglementaire axé sur les résultats, demeure un défi. Établir une gouvernance efficace de l’IA et rester dans les limites de l’appétit au risque, surtout pour des systèmes plus complexes comme l’IA générative, représente un obstacle particulier. Près d’un tiers des répondants citent la gestion des risques liés à l’IA (29 %) et le respect des obligations réglementaires (28 %) comme les principaux obstacles à la réalisation des retours sur investissement.
Régulation de l’IA
L’environnement réglementaire international pour l’IA reste un mélange de cadres bien établis et encore en évolution. Les normes industrielles internationales, distinctes de la réglementation, jouent également un rôle clé dans la définition des bonnes pratiques en matière de gouvernance et de gestion des risques.
En ce qui concerne les règles spécifiques à l’IA, le Royaume-Uni et l’UE empruntent des chemins différents. Le Royaume-Uni n’a pas de législation dédiée à l’IA pour les services financiers et aucune n’est attendue. Dans l’UE, la mise en œuvre de la loi sur l’IA reste en suspens, avec des propositions de négociation pour retarder les délais de conformité pour les systèmes d’IA à haut risque.
Gouvernance et Responsabilité de l’IA
Une gouvernance efficace de l’IA et la responsabilité détermineront le rythme et l’échelle de l’adoption de l’IA dans les services financiers. Les superviseurs sont d’accord sur un point : l’IA est un outil technologique, et les entreprises restent responsables de son utilisation en toute sécurité et dans le respect de leurs obligations réglementaires.
Alors que les entreprises envisagent de plus en plus d’utiliser l’IA dans des domaines à fort impact tels que l’évaluation des risques de crédit, la gestion du capital et le trading algorithmique, on s’attend à un degré d’examen et de défi plus rigoureux de la part de leur direction et de leurs conseils d’administration. Les superviseurs n’effectueront pas un examen détaillé du code source des modèles d’IA, mais évalueront si les entreprises peuvent démontrer que leur gouvernance de l’IA et leurs contrôles garantissent que les décideurs comprennent les risques de leurs modèles.
Qualité des Données et Résilience Opérationnelle
La gouvernance des données est fondamentale pour le déploiement efficace de l’IA. Des données de haute qualité et bien gérées sous-tendent la transparence, la validation des modèles et l’explicabilité. Cela soutient également la cybersécurité, la résilience opérationnelle et la protection de la vie privée.
La résilience opérationnelle est désormais centrale dans la supervision de l’IA, alimentée par la dépendance de l’industrie des services financiers à un ensemble restreint de fournisseurs de technologie pour la pile d’IA. À partir de 2026, la supervision se resserrera sur deux fronts : une augmentation de l’examen au niveau des entreprises et une surveillance directe des fournisseurs critiques.
Conclusion
Le passage à l’échelle de l’IA de manière sécurisée, en ligne avec l’appétit au risque et les attentes réglementaires, nécessite la mise en place de capacités essentielles. Une gouvernance solide de l’IA, avec une responsabilité claire au niveau du conseil d’administration et des cadres supérieurs, est essentielle pour permettre aux entreprises d’identifier et de prioriser les cas d’utilisation de manière efficace.