Risques et opportunités de l’IA agentique dans les services financiers

A holographic, ever-shifting network of interconnected nodes, each node representing a different financial service, with a central AI entity dynamically adjusting and monitoring the connections in real-time.

Les risques de supervision et les cas d’utilisation de l’IA agentique dans les services financiers

Le 27 janvier, une discussion a été publiée concernant l’IA agentique, décrivant comment certaines entreprises commencent à expérimenter des systèmes d’IA autonomes et identifiant les considérations de supervision associées à ces déploiements précoces.

Il a été noté qu’à la différence des outils d’automatisation traditionnels, les agents d’IA peuvent fonctionner à travers plusieurs systèmes et sources de données avec divers niveaux d’indépendance, soulevant des questions sur l’application des cadres de supervision et de gouvernance existants pour des outils qui peuvent agir sans intervention humaine continue.

Risques associés à l’IA agentique

Sur la base de la surveillance des risques et des interactions avec les entreprises, plusieurs domaines de risque associés à l’utilisation de l’IA agentique ont été identifiés. Les principaux risques soulignés incluent :

  • Risques d’autonomie, de portée et d’autorité. Les agents d’IA peuvent initier des actions sans validation humaine significative ou agir au-delà de leur portée ou de l’autorité de l’utilisateur si les limites et les mécanismes d’approbation ne sont pas clairement définis et appliqués.
  • Défis d’auditabilité et d’explicabilité. Les processus de raisonnement et de décision en plusieurs étapes peuvent rendre le comportement des agents difficile à tracer, à expliquer ou à reconstruire, compliquant ainsi la supervision, les tests et les revues post-incident.
  • Risques liés à la gouvernance des données et à la confidentialité. Les agents opérant à travers des systèmes et des ensembles de données peuvent, de manière involontaire, stocker, explorer, divulguer ou utiliser de manière inappropriée des informations sensibles ou propriétaires.
  • Limitations de conception des modèles et de connaissance du domaine. Les agents à usage général peuvent manquer de l’expertise spécialisée nécessaire pour des tâches complexes dans les services financiers, et des objectifs ou mécanismes de renforcement mal conçus peuvent entraîner des résultats non alignés sur les intérêts des investisseurs ou du marché.
  • Risques persistants liés à l’IA générative. Les biais, les hallucinations et les préoccupations en matière de confidentialité demeurent présents et peuvent être amplifiés lorsque les systèmes d’IA fonctionnent avec une autonomie accrue.

Implications pour les institutions financières

Les observations rappellent que les institutions financières restent responsables de la supervision des activités pilotées par l’IA, même lorsque les outils fonctionnent avec une autonomie significative et sans exigences technologiques spécifiques nouvelles. Les institutions envisageant l’IA agentique devraient évaluer si les contrôles existants en matière de supervision, d’escalade, de documentation et de gouvernance des données sont suffisants pour des systèmes capables de planifier et d’agir de manière indépendante.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...