Préparer le secteur financier à l’IA : Le rôle clé du CCO dans la gestion des risques

A shattered hourglass with digital sand flowing into a circuit board

Le secteur financier mal préparé à la conformité en matière d’IA, le CCO doit diriger les contrôles

Pour prévenir les accidents liés à l’utilisation de l’intelligence artificielle dans le secteur financier, il est nécessaire de créer un organe décisionnel en matière d’IA dirigé par un président au niveau exécutif, englobant tous les départements concernés. Les responsables des systèmes d’information et de la gestion des risques doivent naturellement être inclus, mais le rôle du Chief Consumer Officer est le plus critique.

Il est recommandé de séparer l’organisation de gestion des risques liés à l’IA des unités de planification et de développement de l’IA afin de résoudre les conflits d’intérêts. Des réglementations sur la gestion des risques couvrant des domaines tels que le développement des systèmes d’IA, la protection des consommateurs et les directives opérationnelles des comités d’éthique de l’IA doivent également être établies comme règles internes de l’entreprise.

Analyse des risques et des implications

Il est impératif d’accélérer les approches systématiques pour prévenir les incidents liés à l’IA, alors que l’IA se propage dans les opérations commerciales. Des violations de sécurité récentes dans le secteur financier ont largement résulté d’une gestion antérieure qui considérait l’investissement en sécurité comme un coût plutôt qu’une nécessité. Les incidents potentiels incluent des clients recevant des informations incorrectes via des consultations d’IA ou des données personnelles dans les ensembles de formation des chatbots exposées dans les réponses.

Le secteur financier—y compris la banque, l’assurance et les valeurs mobilières—est considéré comme celui avec le plus grand potentiel pour l’IA. L’année dernière, il a été projeté que, compte tenu des vastes données et des opérations basées sur le langage de l’industrie, l’efficacité pourrait s’améliorer de 69 à 73 % grâce à l’automatisation et à l’amélioration du travail. Selon un rapport récent, 84 % des institutions financières à l’échelle mondiale ont adopté l’IA générative dans leurs environnement de travail, contre environ 56 % en Corée.

Le plus grand obstacle à l’adoption et à l’expansion de l’IA est l’absence de cadres de gouvernance et de gestion des risques liés à l’IA. De plus, les entreprises financières nationales sont particulièrement déficientes en matière de taux de fourniture de services et d’obligations de conformité concernant l’IA à fort impact—des systèmes qui peuvent affecter ou poser des risques significatifs pour la vie, la sécurité physique ou les droits fondamentaux. Un sondage a révélé qu’à peine 8 % des entreprises financières nationales fournissent des services d’IA à fort impact, beaucoup ne remplissant pas leurs responsabilités dans des domaines tels que les mesures de gestion des risques et de protection des utilisateurs.

Cadre de gestion des risques liés à l’IA

Un cadre de gestion des risques liés à l’IA a été développé pour établir une gouvernance et une gestion des risques en matière d’IA. Ce cadre, structuré autour de trois piliers—gouvernance, évaluation des risques et contrôle des risques—sert de guide pour permettre aux entreprises financières de gérer les risques de manière autonome. Pour l’évaluation des risques, où les entreprises rencontrent le plus de difficultés, le cadre mesure les niveaux de risque en subdivisant quatre principes—légalité, fiabilité, bonne foi et sécurité—en trois à cinq éléments d’évaluation chacun, puis détermine le niveau de contrôle pour les produits ou services en fonction des résultats.

Actuellement, les services d’IA à fort impact dans le secteur financier sont limités aux « prêts par le biais de dépistage sans intervention humaine » dans le secteur bancaire. Cependant, cette portée est susceptible de s’élargir avec les avancées technologiques, une autre raison pour laquelle le secteur financier doit se concentrer sur les mesures de gestion des risques.

Conclusion

Il est primordial que les systèmes de contrôle internes autonomes soient établis, car les réglementations ne peuvent jamais suivre le rythme des avancées technologiques en matière d’IA. Des incidents récents dans les échanges de cryptomonnaies auraient pu être évités si des auto-régulations internes avaient été correctement suivies. Avec l’IA dépassant la réglementation, une croissance durable ne sera possible que lorsque les entreprises financières construiront elles-mêmes des systèmes de gestion des risques responsables.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...