L’impact des réglementations sur l’IA dans l’insurtech

L’insurtech est profondément ancré dans l’intelligence artificielle (IA), utilisant cette technologie pour améliorer le marketing, les ventes, la souscription, le traitement des sinistres, la détection de fraude, et bien plus encore. Les entreprises d’insurtech n’ont probablement qu’effleuré la surface de ce qui est possible dans ces domaines. Parallèlement, la réglementation de l’IA devrait créer des considérations légales supplémentaires à chaque étape de la conception, du déploiement et de l’exploitation des systèmes d’IA travaillant dans ces contextes.

Considérations légales et exposition à l’IA

Comme avec les réglementations sur la vie privée des données, la réponse à la question « Quelles lois sur l’IA s’appliquent ? » est hautement spécifique aux faits et dépend souvent de l’exposition ou des données d’entrée du modèle. Les lois applicables tendent à se déclencher en fonction des types de données ou de la localisation des individus dont les données sont utilisées pour former les modèles, plutôt qu’en fonction de la localisation du concepteur ou du déployeur. En conséquence, à moins que l’utilisation d’un modèle ne soit strictement limitée à une seule juridiction, il y a probablement une exposition à plusieurs réglementations qui se chevauchent (en plus des préoccupations liées à la vie privée des données) impactant la conception et le déploiement d’un modèle d’IA en insurtech.

Gestion des risques réglementaires dans la conception de l’IA

Étant donné cette complexité, l’ampleur de l’exposition d’un modèle d’IA en insurtech peut être une considération de conception importante. Les entreprises devraient évaluer adéquatement le niveau de risque du point de vue de la limitation d’une surveillance réglementaire inutile ou de la création de potentielles responsabilités réglementaires, telles que des pénalités ou des amendes. Par exemple, une entreprise d’insurtech utilisant l’IA devrait considérer si le modèle en question est destiné à être utilisé uniquement pour des affaires d’assurance domestiques et s’il y a de la valeur à utiliser des données concernant des sujets de données internationaux. Prendre des mesures pour s’assurer que le modèle n’a pas d’exposition à des sujets de données internationaux peut limiter l’application des lois internationales extraterritoriales régissant l’IA et minimiser le risque potentiel d’utilisation d’une solution d’IA. D’autre part, si l’exposition à la plus large gamme possible de données est souhaitable d’un point de vue opérationnel, par exemple, pour augmenter les données d’entraînement, les entreprises doivent être conscientes des conséquences légales de telles décisions avant de les prendre.

Récente législation sur l’IA au niveau des États

En 2024, plusieurs États américains ont adopté des lois sur l’IA régissant l’utilisation de cette technologie, dont plusieurs peuvent impacter les développeurs et déployeurs d’insurtech. Notamment, les projets de loi sur l’IA au niveau des États ne sont pas uniformes. Ces lois varient d’un cadre réglementaire complet, comme la Loi sur l’intelligence artificielle du Colorado, à des lois plus étroites basées sur la divulgation, comme l’AB 2013 de Californie, qui exigera des développeurs d’IA qu’ils publient publiquement des documents détaillant les données de formation de leur modèle. Plusieurs autres projets de loi relatifs à la réglementation de l’IA sont déjà en attente en 2025, y compris :

  • HD 3750 du Massachusetts : Exigerait que les assureurs santé divulguent l’utilisation de l’IA, y compris, mais sans s’y limiter, dans le processus de révision des sinistres et soumettent des rapports annuels concernant les ensembles de formation ainsi qu’une attestation concernant la minimisation des biais.
  • HB 2094 de Virginie : Connue sous le nom de Loi sur les Développeurs et Déployeurs d’IA à Haut Risque, exigerait la mise en œuvre d’une politique et d’un programme de gestion des risques pour les « systèmes d’intelligence artificielle à haut risque », définis comme « tout système d’intelligence artificielle spécifiquement destiné à prendre de manière autonome, ou à être un facteur substantiel dans la prise d’une décision conséquente (sous certaines exceptions). »
  • HB 3506 de l’Illinois : Parmi d’autres choses, ce projet de loi exigerait que les développeurs publient des rapports d’évaluation des risques tous les 90 jours et réalisent des audits tiers annuels.

L’importance croissante de la conformité

Avec le retrait évident du gouvernement fédéral dans la poursuite d’une réglementation globale sur l’IA, les entreprises peuvent s’attendre à ce que les autorités étatiques prennent les devants en matière de réglementation et d’application de l’IA. Étant donné l’utilisation large et souvent conséquente de l’IA dans le contexte de l’insurtech, et l’attente que cette utilisation n’augmente que dans le temps compte tenu de son utilité, les entreprises de ce domaine sont conseillées de garder un œil attentif sur les lois actuelles et à venir sur l’IA afin d’assurer leur conformité. Le non-respect peut augmenter l’exposition non seulement aux régulateurs étatiques chargés de faire respecter ces réglementations, mais aussi potentiellement à des poursuites judiciaires directes de consommateurs. Comme noté dans une précédente note de conseil, être bien positionné pour la conformité est également impératif pour le marché d’un point de vue transactionnel.

Le secteur de l’insurtech se développe parallèlement à l’expansion du patchwork des réglementations américaines sur l’IA. Une croissance prudente dans l’industrie nécessite une sensibilisation aux dynamiques légales associées, y compris les concepts réglementaires émergents à travers le pays.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...