Texas et Virginie : un virage vers une régulation de l’IA favorable à l’innovation

A compass

Texas et Virginia : Écarter une Régulation AI de Style Européen

Les récents développements au Texas et en Virginie signalent un tournant potentiellement positif dans le débat sur la politique de l’intelligence artificielle (IA) aux États-Unis. Moins de trois mois après le début de l’année, plus de 900 propositions législatives liées à l’IA ont été introduites, soit environ 12 par jour. La majorité de ces mesures sont à l’échelle des États et visent à imposer de nouvelles régulations sur les systèmes algorithmiques, ce qui représente un niveau d’intérêt réglementaire sans précédent pour une technologie émergente.

Le Veto de la Virginie

Le 24 mars, le gouverneur de Virginie, Glenn Youngkin, a opposé son veto à une mesure réglementaire majeure sur l’IA, la « High-Risk Artificial Intelligence Developer and Deployer Act », qui aurait compromis la capacité du Commonwealth à rester un leader en matière d’innovation numérique. Youngkin a souligné que cette loi aurait nui à la création de nouveaux emplois, à l’attraction d’investissements d’affaires et à la disponibilité de technologies innovantes en Virginie. De plus, la Chambre de Progrès a estimé que cette loi aurait imposé près de 30 millions de dollars en coûts de conformité aux développeurs d’IA, ce qui aurait été dévastateur pour les petites startups technologiques de l’État.

Les Changements au Texas

Le veto de Youngkin est survenu dix jours après que le représentant texan Giovanni Capriglione a introduit une version remaniée de son « Texas Responsible AI Governance Act (TRAIGA) », qui avait initialement été largement critiquée pour ses réglementations strictes sur l’innovation en IA. La nouvelle version, HB 149, abandonne les éléments les plus contraignants de la mesure originale.

Ces développements en Virginie et au Texas montrent une prise de conscience croissante parmi certains législateurs de l’importance d’une approche favorable à l’innovation, surtout face à la pression d’adopter un modèle réglementaire de type Union Européenne. Ces deux États alignent également leur politique de l’IA avec un nouveau focus national sur l’opportunité et l’investissement en IA.

Rejet de la Régulation de l’IA Basée sur la Peur

Le projet de loi sur l’IA en Virginie, qui a été rejeté, fait partie d’un ensemble de mesures similaires poussées par le Multistate AI Policymaker Working Group (MAP-WG), un groupe de législateurs de plus de 45 États cherchant à créer une loi de consensus sur la « discrimination par IA ». Ces propositions sont en cours dans une douzaine d’États, y compris la Californie, le Connecticut et le New York.

Le modèle réglementaire adopté par ces propositions est largement inspiré par la nouvelle AI Act de l’Union Européenne, qui a été critiquée pour sa nature basée sur la peur, considérant les systèmes algorithmiques comme « dangereux » ou « préjudiciables ». Ce type de régulation préventive, visant à réglementer des dommages futurs hypothétiques, pourrait engendrer des coûts et des confusions inutiles.

Le Modèle Défectueux du Colorado

Le veto de Youngkin et les modifications apportées au projet de loi texan montrent que certains législateurs commencent à comprendre les complexités de telles régulations. Le Colorado, par exemple, a récemment introduit une loi sur l’IA qui, malgré les préoccupations exprimées par des entrepreneurs technologiques, a été adoptée sans tenir compte des implications négatives sur l’innovation.

Conclusion

Alors que la préemption fédérale pourrait être difficile à réaliser, il est impératif que le Congrès développe un cadre national pour l’IA afin de surmonter les problèmes associés à la prolifération rapide de réglementations disparates au niveau des États. Les leçons tirées des développements en Virginie et au Texas devraient servir d’avertissement aux législateurs d’autres États : il serait imprudent d’importer le modèle réglementaire de l’Union Européenne et d’imposer des mandats coûteux et déroutants sur les entrepreneurs de l’IA aux États-Unis.

Il existe des moyens plus efficaces pour les États de répondre aux préoccupations concernant les systèmes d’IA sans recourir à un système de régulation rigide, et les gouvernements devraient favoriser un environnement propice à l’innovation plutôt que de freiner le progrès.

Articles

Gouvernance des données : clé de l’IA dans les télécommunications

L'intelligence artificielle (IA) transforme déjà le secteur des télécommunications en révolutionnant la manière dont les opérateurs fonctionnent et offrent de la valeur. Cependant, cette révolution...

Maroc : Leader précoce dans la gouvernance mondiale de l’IA

Le Maroc a pris les devants parmi les acteurs influents pour faire progresser la gouvernance mondiale de l'intelligence artificielle (IA), selon l'ambassadeur Omar Hilale. Le Royaume aspire à...

La bataille pour la régulation de l’IA : enjeux et perspectives

La lutte pour savoir qui régule l'IA est loin d'être terminée, avec des propositions législatives qui pourraient avoir un impact significatif sur la réglementation des modèles et des applications d'IA...

Préparer l’Industrie Pharmaceutique à l’Intelligence Artificielle

L'intelligence artificielle est sur le point de transformer chaque aspect de l'industrie pharmaceutique, de la découverte de molécules aux essais cliniques et au-delà. Cependant, dans un domaine où...

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...