Les travailleurs du secteur financier au Royaume-Uni adoptent l’IA mais craignent des lacunes en matière de conformité
Une enquête récente a révélé que bien que les outils d’IA soient rapidement adoptés dans les services financiers britanniques, de nombreux employés restent préoccupés par la surveillance et la conformité.
Plus d’un tiers des travailleurs utilisent régulièrement des outils tels que ChatGPT ou Microsoft 365 Copilot, mais 55 % affirment n’avoir reçu aucune formation formelle.
Une adoption croissante de l’IA sans gouvernance adéquate
Cette étude, qui a interrogé 2 000 employés des secteurs des services financiers et de l’assurance, montre une dépendance croissante à l’égard de l’IA sans une gouvernance correspondante. Près de 70 % des répondants ont déclaré qu’ils se sentiraient plus confiants en utilisant l’IA si les résultats étaient capturés et surveillés de manière transparente. Cependant, 38 % ne savent pas si leur entreprise suit l’utilisation de l’IA, et 21 % affirment que leur société ne le fait pas.
Les préoccupations des employés
Le président de l’entreprise a déclaré que « l’adoption de l’IA dans les services financiers s’est accélérée rapidement, les employés adoptant ces outils pour améliorer leur productivité. »
« Mais avec l’innovation vient la responsabilité. Les entreprises doivent établir les bonnes barrières pour prévenir les fuites de données et les comportements inappropriés. La bonne nouvelle est que les employés sont prêts à accueillir un environnement IA sûr et conforme qui renforce la confiance et débloque une croissance à long terme. »
Les agents d’IA et leur utilisation
Le rapport a également révélé des préoccupations concernant l’utilisation des agents d’IA – des outils automatisés gérant le service client et les tâches d’investissement. Près de la moitié des répondants ont affirmé que leur entreprise utilise des agents d’IA dans les communications avec les clients, et 22 % ont déclaré qu’ils étaient utilisés pour des décisions d’investissement. Cependant, un tiers a remis en question la capacité de leur entreprise à appliquer des réglementations à ces outils, et 29 % n’étaient pas sûrs de l’endroit où les données sensibles se retrouvaient.
Les avertissements des experts
Un vice-président de produit a mis en garde : « Utiliser des outils IA publics sans contrôles est une négligence numérique. Vous alimentez effectivement vos joyaux de la couronne dans une boîte noire que vous ne possédez pas, où les données ne peuvent pas être supprimées et la logique ne peut pas être expliquée. C’est imprudent. Les outils privés comme Microsoft 365 Copilot et ChatGPT Enterprise sont un pas dans la bonne direction. Cependant, si les entreprises ne capturent pas et n’auditent pas activement l’utilisation, elles ne sécurisent pas l’innovation – elles dorment dans un cauchemar de conformité. »
Les solutions proposées
Pour répondre à ce besoin, des outils de conformité activés par l’IA, tels que Capture for Microsoft 365 Copilot et ChatGPT Enterprise, sont offerts pour aider les entreprises à utiliser l’IA en toute sécurité tout en maintenant la conformité.
En conclusion, bien que l’IA offre des opportunités passionnantes pour le secteur financier, il est crucial que les entreprises établissent des mesures appropriées pour garantir que l’adoption de ces technologies se fasse de manière responsable et conforme.