L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

A safety lock

Les travailleurs du secteur financier au Royaume-Uni adoptent l’IA mais craignent des lacunes en matière de conformité

Une enquête récente a révélé que bien que les outils d’IA soient rapidement adoptés dans les services financiers britanniques, de nombreux employés restent préoccupés par la surveillance et la conformité.

Plus d’un tiers des travailleurs utilisent régulièrement des outils tels que ChatGPT ou Microsoft 365 Copilot, mais 55 % affirment n’avoir reçu aucune formation formelle.

Une adoption croissante de l’IA sans gouvernance adéquate

Cette étude, qui a interrogé 2 000 employés des secteurs des services financiers et de l’assurance, montre une dépendance croissante à l’égard de l’IA sans une gouvernance correspondante. Près de 70 % des répondants ont déclaré qu’ils se sentiraient plus confiants en utilisant l’IA si les résultats étaient capturés et surveillés de manière transparente. Cependant, 38 % ne savent pas si leur entreprise suit l’utilisation de l’IA, et 21 % affirment que leur société ne le fait pas.

Les préoccupations des employés

Le président de l’entreprise a déclaré que « l’adoption de l’IA dans les services financiers s’est accélérée rapidement, les employés adoptant ces outils pour améliorer leur productivité. »

« Mais avec l’innovation vient la responsabilité. Les entreprises doivent établir les bonnes barrières pour prévenir les fuites de données et les comportements inappropriés. La bonne nouvelle est que les employés sont prêts à accueillir un environnement IA sûr et conforme qui renforce la confiance et débloque une croissance à long terme. »

Les agents d’IA et leur utilisation

Le rapport a également révélé des préoccupations concernant l’utilisation des agents d’IA – des outils automatisés gérant le service client et les tâches d’investissement. Près de la moitié des répondants ont affirmé que leur entreprise utilise des agents d’IA dans les communications avec les clients, et 22 % ont déclaré qu’ils étaient utilisés pour des décisions d’investissement. Cependant, un tiers a remis en question la capacité de leur entreprise à appliquer des réglementations à ces outils, et 29 % n’étaient pas sûrs de l’endroit où les données sensibles se retrouvaient.

Les avertissements des experts

Un vice-président de produit a mis en garde : « Utiliser des outils IA publics sans contrôles est une négligence numérique. Vous alimentez effectivement vos joyaux de la couronne dans une boîte noire que vous ne possédez pas, où les données ne peuvent pas être supprimées et la logique ne peut pas être expliquée. C’est imprudent. Les outils privés comme Microsoft 365 Copilot et ChatGPT Enterprise sont un pas dans la bonne direction. Cependant, si les entreprises ne capturent pas et n’auditent pas activement l’utilisation, elles ne sécurisent pas l’innovation – elles dorment dans un cauchemar de conformité. »

Les solutions proposées

Pour répondre à ce besoin, des outils de conformité activés par l’IA, tels que Capture for Microsoft 365 Copilot et ChatGPT Enterprise, sont offerts pour aider les entreprises à utiliser l’IA en toute sécurité tout en maintenant la conformité.

En conclusion, bien que l’IA offre des opportunités passionnantes pour le secteur financier, il est crucial que les entreprises établissent des mesures appropriées pour garantir que l’adoption de ces technologies se fasse de manière responsable et conforme.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...

L’Australie envisage l’IA pour révolutionner les soumissions gouvernementales

Le gouvernement australien pourrait envisager d'utiliser des programmes d'intelligence artificielle pour rédiger des soumissions sensibles au cabinet, malgré les préoccupations concernant la sécurité...