L’Amérique face à la régulation de l’IA : le modèle européen en question

A magnifying glass illustrating scrutiny and oversight.

L’Acte AI de l’UE arrive en Amérique

Lors du Sommet de l’Action AI à Paris cette semaine, le Vice-Président J.D. Vance a délivré un message largement optimiste sur l’IA. Il a critiqué l’Union Européenne pour avoir agi trop rapidement avec des régulations préventives et a indiqué que l’Administration Trump ne suivrait pas l’exemple de l’UE.

Cependant, il est important de noter qu’actuellement, plus d’une douzaine d’États américains mettent en œuvre des lois qui ressemblent étrangement à l’Acte AI. Ces lois se concentrent sur la discrimination algorithmique dans les « systèmes de décision automatisée ».

À propos des lois

Ces lois ont pour objectif de prévenir la discrimination algorithmique. En termes généraux, elles réglementent l’utilisation de l’IA dans l’automatisation de décisions dans des cas d’utilisation « à haut risque ». Plus spécifiquement, elles établissent des exigences de gestion des risques et de documentation préventive lorsque l’IA est utilisée comme un « facteur substantiel » dans la prise de décisions « conséquentielles ». Cela inclut des décisions qui affectent l’accès d’un consommateur à des services dans des domaines tels que l’emploi, l’éducation, les services juridiques, et plus encore.

Toute entreprise concernée qui utilise un système d’IA comme facteur substantiel dans une décision conséquente doit rédiger et mettre en œuvre un plan de gestion des risques et créer une évaluation d’impact algorithmique pour chaque cas d’utilisation de l’IA.

Les défis de la mise en œuvre

La définition des termes comme « facteur substantiel » et « décision conséquente » est cruciale. Par exemple, si un propriétaire d’entreprise utilise un système d’IA pour filtrer des CV, cela pourrait-il être considéré comme un facteur substantiel dans une décision conséquente ? La réponse est incertaine.

Le seul État où une version de cette loi a été adoptée est le Colorado. Cependant, le processus de mise en œuvre a été complexe et a nécessité la création d’un « Groupe de travail sur l’impact de l’IA du Colorado » pour examiner les recommandations d’amélioration.

Origine des lois

Les préoccupations concernant la discrimination algorithmique ont été soulevées depuis plusieurs années. Les discussions autour de l’IA et de la discrimination ont pris de l’ampleur, en particulier après l’entrée en fonction de l’Administration Biden, qui a fait de cette question une priorité dans ses documents de politique AI.

Un acteur clé dans la diffusion de ces lois à travers les États-Unis est le « Future of Privacy Forum« , qui a facilité l’exportation des réglementations technologiques européennes vers les législatures américaines. Bien qu’ils n’admettent pas de coordination, il est difficile d’ignorer les similitudes entre les lois des différents États.

Les similitudes avec l’Acte AI de l’UE

Tout comme les lois sur la discrimination algorithmique, l’Acte AI adopte une approche basée sur le risque, en soulignant les secteurs et les cas d’utilisation nécessitant des étapes de conformité préventives. Les industries couvertes comprennent les services financiers, l’éducation, l’emploi et plus encore.

Les exigences de l’Acte AI et des lois des États américains montrent de nombreuses similitudes, allant de la nécessité d’un plan de gestion des risques à la réalisation d’une évaluation d’impact. Ces lois pourraient imposer des coûts de conformité significatifs aux entreprises américaines, qui pourraient atteindre 17 % des dépenses totales en IA.

Conclusion

Les États-Unis se dirigent vers l’imposition d’une version de la politique AI de l’UE, avec des implications qui pourraient transformer l’écosystème technologique américain. Il semble que, sans une correction majeure de cap, l’IA deviendra la technologie numérique générale la plus réglementée de l’histoire américaine.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...