Des États américains s’opposent aux régulations craintives sur l’IA

A compass indicating guidance towards responsible AI development.

De plus en plus d’États rejettent la réglementation de l’IA basée sur la peur

Des développements récents en Virginie et au Texas signalent que le débat sur la politique de l’intelligence artificielle (IA) pourrait évoluer vers une direction plus positive et pro-innovation. Moins de trois mois après le début de l’année, plus de 900 propositions législatives liées à l’IA — soit environ 12 par jour — ont déjà été introduites.

La plupart visent à imposer de nouvelles réglementations sur les systèmes algorithmiques. Cela représente un niveau d’intérêt réglementaire sans précédent pour toute technologie émergente.

Le veto de la Virginie

Le 24 mars, le gouverneur républicain de Virginie, Glenn Youngkin, a veto un projet de loi majeur sur la réglementation de l’IA qui aurait compromis la capacité de l’État à continuer de mener l’innovation numérique au niveau des États. Dans sa déclaration de veto concernant le HB 2094, la « Loi sur les développeurs et déployeurs d’IA à haut risque », Youngkin a correctement noté que le projet de loi « nuirait à la création de nouveaux emplois, à l’attraction de nouveaux investissements commerciaux et à la disponibilité de technologies innovantes dans le Commonwealth de Virginie ».

De plus, la Chambre de progrès a estimé que le projet de loi aurait imposé près de 30 millions de dollars en coûts de conformité aux développeurs d’IA, ce qui aurait dévasté les petites startups technologiques de l’État.

Un changement de cap au Texas

Le veto de Youngkin est survenu seulement dix jours après que le représentant républicain du Texas, Giovanni Capriglione, a introduit une version révisée de sa « Loi sur la gouvernance responsable de l’IA du Texas » (TRAIGA), qui réglementait fortement l’innovation en matière d’IA dans l’État et a attiré une opposition largement répandue. Bien que la version originale soit très similaire au projet de loi de Virginie, la nouvelle version, le HB 149, abandonne les éléments les plus contraignants de la mesure précédente.

Un tournant potentiel dans la politique de l’IA

Alors que certains États continuent de poursuivre une approche inspirée de l’Union européenne en matière de réglementation de l’IA, les développements en Virginie et au Texas représentent un tournant potentiellement important dans la politique de l’IA. Ils s’alignent mieux avec une nouvelle attention nationale sur les opportunités et l’investissement dans l’IA, ce qui est particulièrement important à la lumière des avancées majeures chinoises dans ce domaine.

Rejet de l’approche de l’UE

Le projet de loi sur l’IA de Virginie que Youngkin a veto était l’un des nombreux projets de loi formulés de manière similaire poussés par le Groupe de travail des décideurs politiques sur l’IA multilatéraux (MAP-WG), une coalition de législateurs de plus de 45 États tentant de créer un consensus sur un projet de loi sur la « discrimination par IA » qui pourrait être réutilisé dans les législatures des États. Ces projets de loi sont actuellement en attente dans environ une douzaine d’États, y compris le Californie, le Connecticut, et le Massachusetts.

Bien que le Colorado ait été le premier État à adopter l’un de ces projets de loi sur la discrimination par IA, des problèmes sont devenus évidents même avant sa mise en œuvre.

Les défis de la réglementation de l’IA

De nombreux États continuent d’avancer des propositions réglementaires qui imitent les déclarations de politique de Biden, considérant l’IA moins comme une opportunité à saisir qu’un danger à éviter. L’influence du modèle réglementaire européen est largement évidente dans les projets de loi MAP-WG. Ces projets de loi cherchent à réglementer les dommages futurs hypothétiques qui pourraient survenir à partir des systèmes d’IA.

Il est important de noter que si de tels dommages devaient se produire, de nombreuses politiques étatiques et fédérales existantes, y compris les lois sur les droits civils et les réglementations sur les pratiques déloyales et trompeuses, pourraient aborder ces questions. Toutefois, tout comme les réglementations technologiques européennes, ces nouvelles lois anti-discrimination par IA cherchent à réglementer de manière préventive, avant que de tels dommages ne soient prouvés.

Leçons à tirer

Le veto de Youngkin et l’introduction de la loi révisée au Texas signifient que certains législateurs d’États commencent à comprendre les coûts et les complexités de cette réglementation. Cela a également été la leçon de la nouvelle loi sur l’IA du Colorado. Malgré les préoccupations soulevées par les entreprises technologiques, le gouverneur démocrate du Colorado, Jared Polis, a choisi de signer la loi, mais a convenu qu’elle créerait un régime de conformité complexe pour tous les développeurs et déployeurs d’IA.

Les États devraient tirer les leçons de la Virginie et du Texas. Le veto de Youngkin et le projet de loi très révisé du Texas envoient un message clair aux autres législateurs d’États et gouverneurs envisageant des mesures similaires : il serait erroné d’imposer des mandats coûteux et déroutants aux entrepreneurs de l’IA américains en important le modèle réglementaire européen aux États-Unis.

Il existe de meilleures façons pour les États de traiter les préoccupations liées à l’IA qu’une approche réglementaire lourde et bureaucratique. Comme l’a conclu Youngkin dans sa déclaration de veto, « Le rôle du gouvernement dans la protection des pratiques en matière d’IA devrait être de permettre et d’encourager les innovateurs à créer et à se développer, et non de freiner le progrès et d’imposer des charges lourdes à nos nombreux propriétaires d’entreprises ».

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...