L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

A safety lock

Les travailleurs du secteur financier au Royaume-Uni adoptent l’IA mais craignent des lacunes en matière de conformité

Une enquête récente a révélé que bien que les outils d’IA soient rapidement adoptés dans les services financiers britanniques, de nombreux employés restent préoccupés par la surveillance et la conformité.

Plus d’un tiers des travailleurs utilisent régulièrement des outils tels que ChatGPT ou Microsoft 365 Copilot, mais 55 % affirment n’avoir reçu aucune formation formelle.

Une adoption croissante de l’IA sans gouvernance adéquate

Cette étude, qui a interrogé 2 000 employés des secteurs des services financiers et de l’assurance, montre une dépendance croissante à l’égard de l’IA sans une gouvernance correspondante. Près de 70 % des répondants ont déclaré qu’ils se sentiraient plus confiants en utilisant l’IA si les résultats étaient capturés et surveillés de manière transparente. Cependant, 38 % ne savent pas si leur entreprise suit l’utilisation de l’IA, et 21 % affirment que leur société ne le fait pas.

Les préoccupations des employés

Le président de l’entreprise a déclaré que « l’adoption de l’IA dans les services financiers s’est accélérée rapidement, les employés adoptant ces outils pour améliorer leur productivité. »

« Mais avec l’innovation vient la responsabilité. Les entreprises doivent établir les bonnes barrières pour prévenir les fuites de données et les comportements inappropriés. La bonne nouvelle est que les employés sont prêts à accueillir un environnement IA sûr et conforme qui renforce la confiance et débloque une croissance à long terme. »

Les agents d’IA et leur utilisation

Le rapport a également révélé des préoccupations concernant l’utilisation des agents d’IA – des outils automatisés gérant le service client et les tâches d’investissement. Près de la moitié des répondants ont affirmé que leur entreprise utilise des agents d’IA dans les communications avec les clients, et 22 % ont déclaré qu’ils étaient utilisés pour des décisions d’investissement. Cependant, un tiers a remis en question la capacité de leur entreprise à appliquer des réglementations à ces outils, et 29 % n’étaient pas sûrs de l’endroit où les données sensibles se retrouvaient.

Les avertissements des experts

Un vice-président de produit a mis en garde : « Utiliser des outils IA publics sans contrôles est une négligence numérique. Vous alimentez effectivement vos joyaux de la couronne dans une boîte noire que vous ne possédez pas, où les données ne peuvent pas être supprimées et la logique ne peut pas être expliquée. C’est imprudent. Les outils privés comme Microsoft 365 Copilot et ChatGPT Enterprise sont un pas dans la bonne direction. Cependant, si les entreprises ne capturent pas et n’auditent pas activement l’utilisation, elles ne sécurisent pas l’innovation – elles dorment dans un cauchemar de conformité. »

Les solutions proposées

Pour répondre à ce besoin, des outils de conformité activés par l’IA, tels que Capture for Microsoft 365 Copilot et ChatGPT Enterprise, sont offerts pour aider les entreprises à utiliser l’IA en toute sécurité tout en maintenant la conformité.

En conclusion, bien que l’IA offre des opportunités passionnantes pour le secteur financier, il est crucial que les entreprises établissent des mesures appropriées pour garantir que l’adoption de ces technologies se fasse de manière responsable et conforme.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...