Défi des commissaires aux assurances face à la définition de l’IA

A robot icon

Mise à jour sur l’IA : Les commissaires aux assurances contestent la définition de l’intelligence artificielle dans le One Big Beautiful Bill Act

Le One Big Beautiful Bill Act (OBBA), qui vise à imposer un gel de 10 ans sur les nouvelles réglementations au niveau des États concernant l’intelligence artificielle (IA) et à suspendre l’application des réglementations existantes, est actuellement contesté par plusieurs commissaires aux assurances d’États. Cette contestation repose sur des préoccupations quant à la définition de l’IA proposée dans le projet de loi, jugée trop expansive.

Des inquiétudes sur la portée de la définition de l’IA

Les commissaires aux assurances soutiennent que la langue du projet de loi pourrait s’étendre au-delà des systèmes d’apprentissage automatique pour inclure des outils de données courants et des logiciels régulièrement utilisés par les assureurs. Si elle était adoptée, cette disposition pourrait restreindre la capacité des régulateurs à surveiller et à traiter les problèmes émergents associés à certaines technologies qui ne relèvent pas strictement de la catégorie de l’IA.

Impact sur la transparence et l’équité dans le secteur des assurances

Les commissaires ont également fait valoir que le moratoire prévu par le projet de loi nuirait aux pratiques de supervision reconnues, nécessaires pour maintenir la équité et la transparence dans la tarification et l’underwriting des assurances, afin d’assurer la conformité aux normes de non-discrimination.

Une restriction de la supervision, selon les commissaires, pourrait éroder ces protections à un moment où l’utilisation de l’analytique prédictive devient de plus en plus courante. L’incapacité à adapter les cadres réglementaires en réponse à l’évolution du rôle de l’IA dans le secteur des assurances pourrait entraver la supervision au niveau étatique et les efforts de protection des consommateurs.

Conséquences potentielles du gel de 10 ans

Une lettre des commissaires avertissait également que le gel de 10 ans pourrait perturber le système de réglementation des assurances basé sur les États, entraînant une incertitude pour les assureurs, retardant les initiatives de protection des consommateurs et compliquant les décisions commerciales critiques en raison du manque de clarté concernant la conformité et l’application.

Finalement, le leadership de la NAIC a exhorté les législateurs à supprimer ou à amender la disposition sur l’IA dans le projet de loi proposé. Ils ont également suggéré que si la disposition devait aller de l’avant, le Sénat devrait envisager d’exempter le secteur des assurances.

Défis juridiques potentiels

En outre, les commissaires ont déclaré que, si elle était adoptée, la disposition serait probablement contestée en vertu de la loi McCarran-Ferguson, qui interdit aux lois fédérales de remplacer les réglementations des assurances des États. Cependant, ils ont noté qu’en attendant un jugement légal, les assureurs seraient contraints d’opérer dans des conditions incertaines, avec des attentes réglementaires floues et une exposition potentielle à des litiges.

Contexte législatif

L’OBBA a été adopté par la Chambre des représentants le 22 mai 2025, lors d’un vote largement partisan de 215 à 214.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...