Défis de la Réglementation de l’IA : Comment les Assureurs Peuvent Assurer la Conformité Éthique
Les compagnies d’assurance intègrent de plus en plus l’IA dans leurs processus de souscription, de tarification, de gestion des sinistres et de service client. Cette intégration permet d’accélérer le traitement des données, d’améliorer l’exactitude de l’évaluation des risques et d’optimiser la qualité des interactions avec les assurés. Cependant, avec ces avantages technologiques, les préoccupations réglementaires augmentent.
La pression réglementaire façonne de nouvelles règles du jeu
L’utilisation généralisée des technologies d’intelligence artificielle n’a pas échappé aux régulateurs. Par exemple, aux États-Unis, plusieurs États, dont Californie, Colorado et New York, ont déjà adopté des lois ou des recommandations concernant l’utilisation de l’IA dans l’assurance. De plus, 24 États ont adopté leurs propres versions du modèle de bulletin de l’Association Nationale des Commissaires aux Assurances (NAIC) de 2023 concernant l’utilisation de l’IA par les assureurs.
Les objectifs principaux de ces nouvelles réglementations sont de minimiser les risques de discrimination injuste et d’assurer équité, transparence et responsabilité dans l’utilisation des systèmes intelligents.
Les exigences incluent :
- Création de systèmes pour les tests internes de l’IA ;
- Mise en œuvre de structures de gouvernance et de contrôle ;
- Politiques et procédures écrites obligatoires ;
- Transparence envers les consommateurs ;
- Exigences de certification et de contrôle qualité des algorithmes.
Discrimination équitable et inéquitable : un problème éternel dans un nouveau contexte
Bien que l’utilisation de l’IA ouvre de nouvelles perspectives pour les assureurs, les principes fondamentaux de la réglementation des assurances restent inchangés. L’NAIC insiste sur le fait que l’assurance repose sur le principe de la discrimination objective des risques. Cela signifie que les différences entre les assurés sont permises et même nécessaires, mais uniquement sur la base de données objectives et actuariellement valables.
Cependant, l’introduction de l’IA dans les processus d’assurance introduit de nouveaux risques, notamment ceux liés à la discrimination injuste. Ces situations peuvent survenir lorsque les algorithmes prennent des décisions basées sur des données directement ou indirectement liées aux caractéristiques protégées des assurés, telles que la race, le sexe, l’âge ou l’ethnie.
Les Principes de l’IA adoptés par le NAIC en 2020 fournissent des orientations importantes pour toutes les entités utilisant l’IA dans l’assurance. Les assureurs doivent prendre des décisions en utilisant l’IA de manière juste et éthique, ce qui implique de travailler activement pour minimiser les biais algorithmiques.
Gouvernance d’entreprise : nouvelle littératie en IA
L’introduction de l’intelligence artificielle dans les processus d’assurance nécessite une révision sérieuse du système de gouvernance d’entreprise. Une des attentes pour les conseils d’administration est d’avoir ce qu’on appelle la littératie en IA, qui se réfère aux compétences, aux connaissances et à la conscience des opportunités, des limitations et des risques associés à l’utilisation de systèmes intelligents dans l’assurance.
Il est également crucial de s’assurer que l’utilisation des technologies d’IA est alignée avec les objectifs et les valeurs de l’organisation. Cela implique que, lors de la mise en œuvre de nouvelles solutions, les assureurs doivent considérer non seulement la faisabilité économique, mais aussi la conformité à leurs principes fondamentaux, y compris la protection des intérêts des clients et le respect des normes réglementaires.
En conclusion, alors que le marché de l’assurance se transforme numériquement, la logique juridique fondamentale demeure : la technologie doit servir à renforcer la justice et protéger les intérêts publics, et non à les compromettre.