Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

A shield with a digital pattern

CII appelle à la régulation de l’IA

Le Chartered Insurance Institute (CII) a récemment exprimé la nécessité de mettre en place des cadres de responsabilité clairs et une stratégie de compétences à l’échelle du secteur pour guider l’utilisation de l’intelligence artificielle (IA) dans les services financiers. Cette demande a été formulée dans des recommandations soumises au Treasury Select Committee (TSC).

Représentant plus de 120 000 professionnels, le CII a souligné que tant les individus que les institutions doivent rester responsables des décisions prises par les systèmes d’IA. Les professionnels doivent être prêts à assumer la responsabilité des résultats des applications d’IA, que ce soit par leur conception ou par une surveillance continue.

Responsabilisation et transparence

Le CII a recommandé que les institutions soient tenues responsables des actions de leurs algorithmes, indépendamment de la complexité de l’explication des conclusions atteintes par ces algorithmes. L’institut a plaidé pour une validation et des tests obligatoires visant à évaluer le potentiel de résultats discriminatoires, avec des résultats rendus publics pour promouvoir la transparence.

En outre, le CII a proposé que la surveillance réglementaire de l’IA dans les services financiers adopte une approche proportionnée. Cela inclut la formation de tout le personnel au sein des entreprises régulées sur les opportunités et les risques associés à l’utilisation de l’IA. L’objectif est de permettre aux entreprises de déployer l’IA de manière efficace tout en maintenant des normes de protection des consommateurs.

Développements réglementaires en matière d’IA

La responsabilité dans l’utilisation de l’IA au sein des secteurs de l’assurance et de la réassurance est devenue un point focal pour les régulateurs, les parties prenantes de l’industrie et les décideurs. Cette attention accrue découle de l’intégration rapide des technologies de l’IA dans divers aspects des opérations d’assurance, notamment la souscription, le traitement des sinistres et le service client.

Au niveau international, la loi sur l’intelligence artificielle de l’Union européenne est entrée en vigueur le 1er août 2024, avec une mise en œuvre échelonnée sur les 24 à 36 mois suivants. Cette loi établit un cadre réglementaire et juridique commun pour l’IA au sein de l’UE, classifiant les systèmes d’IA selon des niveaux de risque – inacceptable, élevé, limité et minimal – avec des réglementations strictes appliquées aux technologies d’IA à haut risque utilisées dans des secteurs comme la santé et l’application de la loi.

Au Royaume-Uni, la FCA a également exprimé des préoccupations concernant l’utilisation de l’IA dans l’assurance, qui pourrait entraîner certaines personnes devenant « non assurables » en raison de l’hyper-personnalisation et de la discrimination potentielle.

L’impact de l’IA sur l’assurance

Le CII a fait référence à des résultats de son Public Trust Index, qui s’appuie sur des recherches consommateurs pour évaluer les attitudes envers le secteur de l’assurance. Il a noté que l’IA a le potentiel d’améliorer des domaines clés valorisés par les consommateurs et les PME – en particulier le coût, la protection, l’utilisabilité et la confiance.

Pour soutenir ses recommandations en matière de gouvernance, le CII a mis en avant ses ressources existantes, y compris le Digital Companion to the Code of Ethics et ses directives sur l’Addressing Gender Bias in Artificial Intelligence. Ces outils sont conçus pour aider les professionnels et les organisations à adopter des pratiques d’IA responsables.

Le CII a également créé une suite de ressources d’apprentissage sur l’IA, comprenant un cours d’introduction à la science des données et à l’IA, ainsi que du contenu de développement professionnel continu (CPD) et des documents d’orientation explorant les avantages et les risques des technologies émergentes.

Quelles sont vos réflexions sur cette histoire ? N’hésitez pas à partager vos commentaires ci-dessous.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...