CII appelle à la régulation de l’IA
Le Chartered Insurance Institute (CII) a récemment exprimé la nécessité de mettre en place des cadres de responsabilité clairs et une stratégie de compétences à l’échelle du secteur pour guider l’utilisation de l’intelligence artificielle (IA) dans les services financiers. Cette demande a été formulée dans des recommandations soumises au Treasury Select Committee (TSC).
Représentant plus de 120 000 professionnels, le CII a souligné que tant les individus que les institutions doivent rester responsables des décisions prises par les systèmes d’IA. Les professionnels doivent être prêts à assumer la responsabilité des résultats des applications d’IA, que ce soit par leur conception ou par une surveillance continue.
Responsabilisation et transparence
Le CII a recommandé que les institutions soient tenues responsables des actions de leurs algorithmes, indépendamment de la complexité de l’explication des conclusions atteintes par ces algorithmes. L’institut a plaidé pour une validation et des tests obligatoires visant à évaluer le potentiel de résultats discriminatoires, avec des résultats rendus publics pour promouvoir la transparence.
En outre, le CII a proposé que la surveillance réglementaire de l’IA dans les services financiers adopte une approche proportionnée. Cela inclut la formation de tout le personnel au sein des entreprises régulées sur les opportunités et les risques associés à l’utilisation de l’IA. L’objectif est de permettre aux entreprises de déployer l’IA de manière efficace tout en maintenant des normes de protection des consommateurs.
Développements réglementaires en matière d’IA
La responsabilité dans l’utilisation de l’IA au sein des secteurs de l’assurance et de la réassurance est devenue un point focal pour les régulateurs, les parties prenantes de l’industrie et les décideurs. Cette attention accrue découle de l’intégration rapide des technologies de l’IA dans divers aspects des opérations d’assurance, notamment la souscription, le traitement des sinistres et le service client.
Au niveau international, la loi sur l’intelligence artificielle de l’Union européenne est entrée en vigueur le 1er août 2024, avec une mise en œuvre échelonnée sur les 24 à 36 mois suivants. Cette loi établit un cadre réglementaire et juridique commun pour l’IA au sein de l’UE, classifiant les systèmes d’IA selon des niveaux de risque – inacceptable, élevé, limité et minimal – avec des réglementations strictes appliquées aux technologies d’IA à haut risque utilisées dans des secteurs comme la santé et l’application de la loi.
Au Royaume-Uni, la FCA a également exprimé des préoccupations concernant l’utilisation de l’IA dans l’assurance, qui pourrait entraîner certaines personnes devenant « non assurables » en raison de l’hyper-personnalisation et de la discrimination potentielle.
L’impact de l’IA sur l’assurance
Le CII a fait référence à des résultats de son Public Trust Index, qui s’appuie sur des recherches consommateurs pour évaluer les attitudes envers le secteur de l’assurance. Il a noté que l’IA a le potentiel d’améliorer des domaines clés valorisés par les consommateurs et les PME – en particulier le coût, la protection, l’utilisabilité et la confiance.
Pour soutenir ses recommandations en matière de gouvernance, le CII a mis en avant ses ressources existantes, y compris le Digital Companion to the Code of Ethics et ses directives sur l’Addressing Gender Bias in Artificial Intelligence. Ces outils sont conçus pour aider les professionnels et les organisations à adopter des pratiques d’IA responsables.
Le CII a également créé une suite de ressources d’apprentissage sur l’IA, comprenant un cours d’introduction à la science des données et à l’IA, ainsi que du contenu de développement professionnel continu (CPD) et des documents d’orientation explorant les avantages et les risques des technologies émergentes.
Quelles sont vos réflexions sur cette histoire ? N’hésitez pas à partager vos commentaires ci-dessous.