Des États américains s’opposent aux régulations craintives sur l’IA

A compass indicating guidance towards responsible AI development.

De plus en plus d’États rejettent la réglementation de l’IA basée sur la peur

Des développements récents en Virginie et au Texas signalent que le débat sur la politique de l’intelligence artificielle (IA) pourrait évoluer vers une direction plus positive et pro-innovation. Moins de trois mois après le début de l’année, plus de 900 propositions législatives liées à l’IA — soit environ 12 par jour — ont déjà été introduites.

La plupart visent à imposer de nouvelles réglementations sur les systèmes algorithmiques. Cela représente un niveau d’intérêt réglementaire sans précédent pour toute technologie émergente.

Le veto de la Virginie

Le 24 mars, le gouverneur républicain de Virginie, Glenn Youngkin, a veto un projet de loi majeur sur la réglementation de l’IA qui aurait compromis la capacité de l’État à continuer de mener l’innovation numérique au niveau des États. Dans sa déclaration de veto concernant le HB 2094, la « Loi sur les développeurs et déployeurs d’IA à haut risque », Youngkin a correctement noté que le projet de loi « nuirait à la création de nouveaux emplois, à l’attraction de nouveaux investissements commerciaux et à la disponibilité de technologies innovantes dans le Commonwealth de Virginie ».

De plus, la Chambre de progrès a estimé que le projet de loi aurait imposé près de 30 millions de dollars en coûts de conformité aux développeurs d’IA, ce qui aurait dévasté les petites startups technologiques de l’État.

Un changement de cap au Texas

Le veto de Youngkin est survenu seulement dix jours après que le représentant républicain du Texas, Giovanni Capriglione, a introduit une version révisée de sa « Loi sur la gouvernance responsable de l’IA du Texas » (TRAIGA), qui réglementait fortement l’innovation en matière d’IA dans l’État et a attiré une opposition largement répandue. Bien que la version originale soit très similaire au projet de loi de Virginie, la nouvelle version, le HB 149, abandonne les éléments les plus contraignants de la mesure précédente.

Un tournant potentiel dans la politique de l’IA

Alors que certains États continuent de poursuivre une approche inspirée de l’Union européenne en matière de réglementation de l’IA, les développements en Virginie et au Texas représentent un tournant potentiellement important dans la politique de l’IA. Ils s’alignent mieux avec une nouvelle attention nationale sur les opportunités et l’investissement dans l’IA, ce qui est particulièrement important à la lumière des avancées majeures chinoises dans ce domaine.

Rejet de l’approche de l’UE

Le projet de loi sur l’IA de Virginie que Youngkin a veto était l’un des nombreux projets de loi formulés de manière similaire poussés par le Groupe de travail des décideurs politiques sur l’IA multilatéraux (MAP-WG), une coalition de législateurs de plus de 45 États tentant de créer un consensus sur un projet de loi sur la « discrimination par IA » qui pourrait être réutilisé dans les législatures des États. Ces projets de loi sont actuellement en attente dans environ une douzaine d’États, y compris le Californie, le Connecticut, et le Massachusetts.

Bien que le Colorado ait été le premier État à adopter l’un de ces projets de loi sur la discrimination par IA, des problèmes sont devenus évidents même avant sa mise en œuvre.

Les défis de la réglementation de l’IA

De nombreux États continuent d’avancer des propositions réglementaires qui imitent les déclarations de politique de Biden, considérant l’IA moins comme une opportunité à saisir qu’un danger à éviter. L’influence du modèle réglementaire européen est largement évidente dans les projets de loi MAP-WG. Ces projets de loi cherchent à réglementer les dommages futurs hypothétiques qui pourraient survenir à partir des systèmes d’IA.

Il est important de noter que si de tels dommages devaient se produire, de nombreuses politiques étatiques et fédérales existantes, y compris les lois sur les droits civils et les réglementations sur les pratiques déloyales et trompeuses, pourraient aborder ces questions. Toutefois, tout comme les réglementations technologiques européennes, ces nouvelles lois anti-discrimination par IA cherchent à réglementer de manière préventive, avant que de tels dommages ne soient prouvés.

Leçons à tirer

Le veto de Youngkin et l’introduction de la loi révisée au Texas signifient que certains législateurs d’États commencent à comprendre les coûts et les complexités de cette réglementation. Cela a également été la leçon de la nouvelle loi sur l’IA du Colorado. Malgré les préoccupations soulevées par les entreprises technologiques, le gouverneur démocrate du Colorado, Jared Polis, a choisi de signer la loi, mais a convenu qu’elle créerait un régime de conformité complexe pour tous les développeurs et déployeurs d’IA.

Les États devraient tirer les leçons de la Virginie et du Texas. Le veto de Youngkin et le projet de loi très révisé du Texas envoient un message clair aux autres législateurs d’États et gouverneurs envisageant des mesures similaires : il serait erroné d’imposer des mandats coûteux et déroutants aux entrepreneurs de l’IA américains en important le modèle réglementaire européen aux États-Unis.

Il existe de meilleures façons pour les États de traiter les préoccupations liées à l’IA qu’une approche réglementaire lourde et bureaucratique. Comme l’a conclu Youngkin dans sa déclaration de veto, « Le rôle du gouvernement dans la protection des pratiques en matière d’IA devrait être de permettre et d’encourager les innovateurs à créer et à se développer, et non de freiner le progrès et d’imposer des charges lourdes à nos nombreux propriétaires d’entreprises ».

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...