Le secteur financier mal préparé à la conformité en matière d’IA, le CCO doit diriger les contrôles
Pour prévenir les accidents liés à l’utilisation de l’intelligence artificielle dans le secteur financier, il est nécessaire de créer un organe décisionnel en matière d’IA dirigé par un président au niveau exécutif, englobant tous les départements concernés. Les responsables des systèmes d’information et de la gestion des risques doivent naturellement être inclus, mais le rôle du Chief Consumer Officer est le plus critique.
Il est recommandé de séparer l’organisation de gestion des risques liés à l’IA des unités de planification et de développement de l’IA afin de résoudre les conflits d’intérêts. Des réglementations sur la gestion des risques couvrant des domaines tels que le développement des systèmes d’IA, la protection des consommateurs et les directives opérationnelles des comités d’éthique de l’IA doivent également être établies comme règles internes de l’entreprise.
Analyse des risques et des implications
Il est impératif d’accélérer les approches systématiques pour prévenir les incidents liés à l’IA, alors que l’IA se propage dans les opérations commerciales. Des violations de sécurité récentes dans le secteur financier ont largement résulté d’une gestion antérieure qui considérait l’investissement en sécurité comme un coût plutôt qu’une nécessité. Les incidents potentiels incluent des clients recevant des informations incorrectes via des consultations d’IA ou des données personnelles dans les ensembles de formation des chatbots exposées dans les réponses.
Le secteur financier—y compris la banque, l’assurance et les valeurs mobilières—est considéré comme celui avec le plus grand potentiel pour l’IA. L’année dernière, il a été projeté que, compte tenu des vastes données et des opérations basées sur le langage de l’industrie, l’efficacité pourrait s’améliorer de 69 à 73 % grâce à l’automatisation et à l’amélioration du travail. Selon un rapport récent, 84 % des institutions financières à l’échelle mondiale ont adopté l’IA générative dans leurs environnement de travail, contre environ 56 % en Corée.
Le plus grand obstacle à l’adoption et à l’expansion de l’IA est l’absence de cadres de gouvernance et de gestion des risques liés à l’IA. De plus, les entreprises financières nationales sont particulièrement déficientes en matière de taux de fourniture de services et d’obligations de conformité concernant l’IA à fort impact—des systèmes qui peuvent affecter ou poser des risques significatifs pour la vie, la sécurité physique ou les droits fondamentaux. Un sondage a révélé qu’à peine 8 % des entreprises financières nationales fournissent des services d’IA à fort impact, beaucoup ne remplissant pas leurs responsabilités dans des domaines tels que les mesures de gestion des risques et de protection des utilisateurs.
Cadre de gestion des risques liés à l’IA
Un cadre de gestion des risques liés à l’IA a été développé pour établir une gouvernance et une gestion des risques en matière d’IA. Ce cadre, structuré autour de trois piliers—gouvernance, évaluation des risques et contrôle des risques—sert de guide pour permettre aux entreprises financières de gérer les risques de manière autonome. Pour l’évaluation des risques, où les entreprises rencontrent le plus de difficultés, le cadre mesure les niveaux de risque en subdivisant quatre principes—légalité, fiabilité, bonne foi et sécurité—en trois à cinq éléments d’évaluation chacun, puis détermine le niveau de contrôle pour les produits ou services en fonction des résultats.
Actuellement, les services d’IA à fort impact dans le secteur financier sont limités aux « prêts par le biais de dépistage sans intervention humaine » dans le secteur bancaire. Cependant, cette portée est susceptible de s’élargir avec les avancées technologiques, une autre raison pour laquelle le secteur financier doit se concentrer sur les mesures de gestion des risques.
Conclusion
Il est primordial que les systèmes de contrôle internes autonomes soient établis, car les réglementations ne peuvent jamais suivre le rythme des avancées technologiques en matière d’IA. Des incidents récents dans les échanges de cryptomonnaies auraient pu être évités si des auto-régulations internes avaient été correctement suivies. Avec l’IA dépassant la réglementation, une croissance durable ne sera possible que lorsque les entreprises financières construiront elles-mêmes des systèmes de gestion des risques responsables.