Des États américains s’opposent aux régulations craintives sur l’IA

A compass indicating guidance towards responsible AI development.

De plus en plus d’États rejettent la réglementation de l’IA basée sur la peur

Des développements récents en Virginie et au Texas signalent que le débat sur la politique de l’intelligence artificielle (IA) pourrait évoluer vers une direction plus positive et pro-innovation. Moins de trois mois après le début de l’année, plus de 900 propositions législatives liées à l’IA — soit environ 12 par jour — ont déjà été introduites.

La plupart visent à imposer de nouvelles réglementations sur les systèmes algorithmiques. Cela représente un niveau d’intérêt réglementaire sans précédent pour toute technologie émergente.

Le veto de la Virginie

Le 24 mars, le gouverneur républicain de Virginie, Glenn Youngkin, a veto un projet de loi majeur sur la réglementation de l’IA qui aurait compromis la capacité de l’État à continuer de mener l’innovation numérique au niveau des États. Dans sa déclaration de veto concernant le HB 2094, la « Loi sur les développeurs et déployeurs d’IA à haut risque », Youngkin a correctement noté que le projet de loi « nuirait à la création de nouveaux emplois, à l’attraction de nouveaux investissements commerciaux et à la disponibilité de technologies innovantes dans le Commonwealth de Virginie ».

De plus, la Chambre de progrès a estimé que le projet de loi aurait imposé près de 30 millions de dollars en coûts de conformité aux développeurs d’IA, ce qui aurait dévasté les petites startups technologiques de l’État.

Un changement de cap au Texas

Le veto de Youngkin est survenu seulement dix jours après que le représentant républicain du Texas, Giovanni Capriglione, a introduit une version révisée de sa « Loi sur la gouvernance responsable de l’IA du Texas » (TRAIGA), qui réglementait fortement l’innovation en matière d’IA dans l’État et a attiré une opposition largement répandue. Bien que la version originale soit très similaire au projet de loi de Virginie, la nouvelle version, le HB 149, abandonne les éléments les plus contraignants de la mesure précédente.

Un tournant potentiel dans la politique de l’IA

Alors que certains États continuent de poursuivre une approche inspirée de l’Union européenne en matière de réglementation de l’IA, les développements en Virginie et au Texas représentent un tournant potentiellement important dans la politique de l’IA. Ils s’alignent mieux avec une nouvelle attention nationale sur les opportunités et l’investissement dans l’IA, ce qui est particulièrement important à la lumière des avancées majeures chinoises dans ce domaine.

Rejet de l’approche de l’UE

Le projet de loi sur l’IA de Virginie que Youngkin a veto était l’un des nombreux projets de loi formulés de manière similaire poussés par le Groupe de travail des décideurs politiques sur l’IA multilatéraux (MAP-WG), une coalition de législateurs de plus de 45 États tentant de créer un consensus sur un projet de loi sur la « discrimination par IA » qui pourrait être réutilisé dans les législatures des États. Ces projets de loi sont actuellement en attente dans environ une douzaine d’États, y compris le Californie, le Connecticut, et le Massachusetts.

Bien que le Colorado ait été le premier État à adopter l’un de ces projets de loi sur la discrimination par IA, des problèmes sont devenus évidents même avant sa mise en œuvre.

Les défis de la réglementation de l’IA

De nombreux États continuent d’avancer des propositions réglementaires qui imitent les déclarations de politique de Biden, considérant l’IA moins comme une opportunité à saisir qu’un danger à éviter. L’influence du modèle réglementaire européen est largement évidente dans les projets de loi MAP-WG. Ces projets de loi cherchent à réglementer les dommages futurs hypothétiques qui pourraient survenir à partir des systèmes d’IA.

Il est important de noter que si de tels dommages devaient se produire, de nombreuses politiques étatiques et fédérales existantes, y compris les lois sur les droits civils et les réglementations sur les pratiques déloyales et trompeuses, pourraient aborder ces questions. Toutefois, tout comme les réglementations technologiques européennes, ces nouvelles lois anti-discrimination par IA cherchent à réglementer de manière préventive, avant que de tels dommages ne soient prouvés.

Leçons à tirer

Le veto de Youngkin et l’introduction de la loi révisée au Texas signifient que certains législateurs d’États commencent à comprendre les coûts et les complexités de cette réglementation. Cela a également été la leçon de la nouvelle loi sur l’IA du Colorado. Malgré les préoccupations soulevées par les entreprises technologiques, le gouverneur démocrate du Colorado, Jared Polis, a choisi de signer la loi, mais a convenu qu’elle créerait un régime de conformité complexe pour tous les développeurs et déployeurs d’IA.

Les États devraient tirer les leçons de la Virginie et du Texas. Le veto de Youngkin et le projet de loi très révisé du Texas envoient un message clair aux autres législateurs d’États et gouverneurs envisageant des mesures similaires : il serait erroné d’imposer des mandats coûteux et déroutants aux entrepreneurs de l’IA américains en important le modèle réglementaire européen aux États-Unis.

Il existe de meilleures façons pour les États de traiter les préoccupations liées à l’IA qu’une approche réglementaire lourde et bureaucratique. Comme l’a conclu Youngkin dans sa déclaration de veto, « Le rôle du gouvernement dans la protection des pratiques en matière d’IA devrait être de permettre et d’encourager les innovateurs à créer et à se développer, et non de freiner le progrès et d’imposer des charges lourdes à nos nombreux propriétaires d’entreprises ».

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...