Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

A shield with a digital pattern

CII appelle à la régulation de l’IA

Le Chartered Insurance Institute (CII) a récemment exprimé la nécessité de mettre en place des cadres de responsabilité clairs et une stratégie de compétences à l’échelle du secteur pour guider l’utilisation de l’intelligence artificielle (IA) dans les services financiers. Cette demande a été formulée dans des recommandations soumises au Treasury Select Committee (TSC).

Représentant plus de 120 000 professionnels, le CII a souligné que tant les individus que les institutions doivent rester responsables des décisions prises par les systèmes d’IA. Les professionnels doivent être prêts à assumer la responsabilité des résultats des applications d’IA, que ce soit par leur conception ou par une surveillance continue.

Responsabilisation et transparence

Le CII a recommandé que les institutions soient tenues responsables des actions de leurs algorithmes, indépendamment de la complexité de l’explication des conclusions atteintes par ces algorithmes. L’institut a plaidé pour une validation et des tests obligatoires visant à évaluer le potentiel de résultats discriminatoires, avec des résultats rendus publics pour promouvoir la transparence.

En outre, le CII a proposé que la surveillance réglementaire de l’IA dans les services financiers adopte une approche proportionnée. Cela inclut la formation de tout le personnel au sein des entreprises régulées sur les opportunités et les risques associés à l’utilisation de l’IA. L’objectif est de permettre aux entreprises de déployer l’IA de manière efficace tout en maintenant des normes de protection des consommateurs.

Développements réglementaires en matière d’IA

La responsabilité dans l’utilisation de l’IA au sein des secteurs de l’assurance et de la réassurance est devenue un point focal pour les régulateurs, les parties prenantes de l’industrie et les décideurs. Cette attention accrue découle de l’intégration rapide des technologies de l’IA dans divers aspects des opérations d’assurance, notamment la souscription, le traitement des sinistres et le service client.

Au niveau international, la loi sur l’intelligence artificielle de l’Union européenne est entrée en vigueur le 1er août 2024, avec une mise en œuvre échelonnée sur les 24 à 36 mois suivants. Cette loi établit un cadre réglementaire et juridique commun pour l’IA au sein de l’UE, classifiant les systèmes d’IA selon des niveaux de risque – inacceptable, élevé, limité et minimal – avec des réglementations strictes appliquées aux technologies d’IA à haut risque utilisées dans des secteurs comme la santé et l’application de la loi.

Au Royaume-Uni, la FCA a également exprimé des préoccupations concernant l’utilisation de l’IA dans l’assurance, qui pourrait entraîner certaines personnes devenant « non assurables » en raison de l’hyper-personnalisation et de la discrimination potentielle.

L’impact de l’IA sur l’assurance

Le CII a fait référence à des résultats de son Public Trust Index, qui s’appuie sur des recherches consommateurs pour évaluer les attitudes envers le secteur de l’assurance. Il a noté que l’IA a le potentiel d’améliorer des domaines clés valorisés par les consommateurs et les PME – en particulier le coût, la protection, l’utilisabilité et la confiance.

Pour soutenir ses recommandations en matière de gouvernance, le CII a mis en avant ses ressources existantes, y compris le Digital Companion to the Code of Ethics et ses directives sur l’Addressing Gender Bias in Artificial Intelligence. Ces outils sont conçus pour aider les professionnels et les organisations à adopter des pratiques d’IA responsables.

Le CII a également créé une suite de ressources d’apprentissage sur l’IA, comprenant un cours d’introduction à la science des données et à l’IA, ainsi que du contenu de développement professionnel continu (CPD) et des documents d’orientation explorant les avantages et les risques des technologies émergentes.

Quelles sont vos réflexions sur cette histoire ? N’hésitez pas à partager vos commentaires ci-dessous.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...