La loi sur l’IA de l’UE arrive en Amérique
Lors du Sommet sur l’Action IA à Paris cette semaine, le Vice-Président J.D. Vance a délivré un message largement optimiste sur l’IA. Il a critiqué l’Union Européenne pour ses réglementations préventives trop rapides et a indiqué que l’administration Trump ne suivrait pas son exemple.
Bien que le Vice-Président ait un message clair et optimiste, des lois similaires à la loi sur l’IA de l’UE sont actuellement mises en œuvre dans plus d’une douzaine d’États américains. Ces lois se concentrent sur la discrimination algorithmique dans les « systèmes de décision automatisée ».
À propos des projets de loi
Que font ces projets de loi ? En général, leur titre indique leur objectif : prévenir la discrimination algorithmique. Ils régulent l’utilisation de l’IA, définie largement pour inclure de nombreux logiciels modernes, dans l’automatisation de la prise de décision dans des cas d’utilisation « à haut risque ».
Plus spécifiquement, ces lois créent des exigences de gestion des risques et de documentation lorsque l’IA est utilisée comme un « facteur substantiel » dans une « décision conséquente », affectant l’accès d’un consommateur à des services dans des domaines comme l’emploi, l’éducation, et les services financiers.
Toute entreprise qui utilise un système d’IA comme facteur substantiel dans une décision conséquente doit rédiger et mettre en œuvre un plan de gestion des risques et créer une évaluation d’impact algorithmique. Les développeurs de produits ou services d’IA qui pourraient être utilisés comme facteurs substantiels sont également soumis à des exigences de transparence et de suivi.
Les défis de la mise en œuvre
La définition de « facteur substantiel » et de « décision conséquente » est cruciale. Par exemple, si un propriétaire d’entreprise utilise un système d’IA pour filtrer des CV, cela constitue-t-il un facteur substantiel dans une décision conséquente ? Le flou autour de ces définitions complique la mise en œuvre des lois.
Le seul État où une version de cette loi a été adoptée est le Colorado, mais même là, la mise en œuvre est problématique. Un comité d’impact de l’IA a été créé pour évaluer et simplifier la loi, qui est actuellement jugée trop complexe.
Origine des lois
Ces lois semblent résulter d’une coordination entre différents acteurs, notamment un groupe à but non lucratif connu sous le nom de Future of Privacy Forum. Ce groupe, financé par de grandes entreprises technologiques, facilite l’exportation des réglementations technologiques européennes vers les législatures américaines.
Il est évident que les préoccupations concernant la discrimination algorithmique ont été un sujet brûlant dans le domaine de la politique de l’IA, soutenu par l’administration Biden et des documents politiques sur l’IA.
Les similitudes avec la loi sur l’IA de l’UE
Tout comme les projets de loi sur la discrimination algorithmique, la loi sur l’IA de l’UE adopte une approche basée sur le risque, soulignant les industries où des étapes de conformité préventives sont nécessaires. Les exigences de documentation et de transparence sont frappantes, et de nombreux termes sont empruntés directement de la loi de l’UE.
La question de la nécessité
Les coûts de conformité liés à ces lois pourraient être significatifs, avec des estimations suggérant qu’ils pourraient représenter jusqu’à 17% des dépenses des entreprises en IA. Cependant, il n’existe pas de preuves solides que la discrimination algorithmique constitue un problème suffisamment grave pour justifier ces dépenses.
En conclusion, l’Amérique semble se diriger vers l’imposition d’une version des politiques de l’IA de l’UE, avec des implications potentielles pour l’innovation et l’écosystème technologique américain. La loi sur l’IA pourrait devenir l’une des réglementations les plus strictes sur une technologie numérique généraliste dans l’histoire américaine.