Partie II : Comment les régulateurs testent leur manière d’entrer dans la gouvernance de l’IA
Cette partie explore comment les régulateurs répondent aux risques liés à l’IA, pourquoi leurs approches diffèrent et comment les fonctions de test sont devenues le mécanisme d’application pratique de la gouvernance de l’IA.
L’expansion des obligations de test
Les régulateurs ne demandent pas aux banques d’arrêter complètement d’utiliser l’IA. Au lieu de cela, ils demandent aux entreprises de démontrer que les systèmes d’IA sont contrôlés, testables et responsables en pratique. Cette emphase place les équipes QA et de test logiciel au cœur de la conformité réglementaire.
La loi sur l’IA de l’UE représente la tentative la plus ambitieuse de réguler l’intelligence artificielle à l’échelle mondiale. Elle introduit un cadre horizontal basé sur le risque qui s’applique à divers secteurs, y compris la banque et l’assurance. Sous cette loi, de nombreux cas d’utilisation des services financiers, tels que l’évaluation de la solvabilité et la détection de la fraude, sont classés comme à haut risque.
Les systèmes à haut risque doivent respecter des exigences en matière de gestion des risques, de gouvernance des données, de supervision humaine, de robustesse et de surveillance post-commercialisation. Pour les équipes QA, cela élargit la portée de ce que signifie tester.
Gouvernance : de la politique à la pratique
Les régulateurs prennent de plus en plus conscience que les cadres de gouvernance à eux seuls sont insuffisants. Ce qui compte, c’est de savoir si la gouvernance fonctionne dans des systèmes réels. Ce changement se reflète dans l’accent croissant mis sur les contrôles de cycle de vie plutôt que sur la validation ponctuelle.
Les risques les plus graves liés à l’IA émergent souvent après le déploiement, car les systèmes s’adaptent, interagissent avec d’autres modèles ou sont exposés à de nouvelles données. Pour les équipes QA, cela renforce la nécessité de tests et de surveillance continus.
Le passage aux tests en direct
Dans certaines régions, les régulateurs adoptent des approches expérimentales. Au lieu de promulguer des règles d’IA prescriptives, ils lancent des initiatives conçues pour tester les systèmes d’IA dans des conditions réelles sous supervision réglementaire.
Ce changement signifie que l’assurance IA ne consiste plus à soumettre de la documentation à la fin du développement. Il s’agit de démontrer le comportement sous des conditions opérationnelles en direct. Cela reflète une attente réglementaire selon laquelle les artefacts de gouvernance doivent être ancrés dans un comportement observable.
Une gouvernance pragmatique
Dans d’autres régions, les régulateurs adoptent des approches différentes mais complémentaires. Certains pays se positionnent en tant que leaders dans la gouvernance pragmatique de l’IA, en mettant l’accent sur l’humain, la transparence et l’explicabilité tout en évitant des règles rigides et prescriptives.
Alors que l’examen réglementaire s’intensifie, la responsabilité remonte vers les conseils d’administration, avec un accent croissant sur les métriques, les rapports et l’assurance. Les artefacts de test servent de preuves non seulement pour les régulateurs, mais aussi pour les conseils d’administration et la direction supérieure.
Pourquoi les équipes QA deviennent la couche d’application
À travers les juridictions, une conclusion émerge. Les régulateurs ne demandent pas aux équipes QA de devenir des avocats, mais de rendre la gouvernance réelle. Les tests sont l’endroit où les principes réglementaires tels que la robustesse, l’équité, la responsabilité et la résilience sont opérationnalisés.
Lorsque les systèmes d’IA ne peuvent pas être significativement testés ou surveillés, ils deviennent des responsabilités réglementaires, peu importe leurs avantages en termes de performance. Cela explique pourquoi les banques investissent massivement dans les capacités de test, la gouvernance des données synthétiques, la surveillance des modèles et l’ingénierie de la qualité.
Dans la prochaine partie de cette série, nous examinerons pourquoi la gouvernance de l’IA dans le QA est devenue une préoccupation mondiale pour les groupes bancaires internationaux.