Texas et Virginie : un virage vers une régulation de l’IA favorable à l’innovation

A compass

Texas et Virginia : Écarter une Régulation AI de Style Européen

Les récents développements au Texas et en Virginie signalent un tournant potentiellement positif dans le débat sur la politique de l’intelligence artificielle (IA) aux États-Unis. Moins de trois mois après le début de l’année, plus de 900 propositions législatives liées à l’IA ont été introduites, soit environ 12 par jour. La majorité de ces mesures sont à l’échelle des États et visent à imposer de nouvelles régulations sur les systèmes algorithmiques, ce qui représente un niveau d’intérêt réglementaire sans précédent pour une technologie émergente.

Le Veto de la Virginie

Le 24 mars, le gouverneur de Virginie, Glenn Youngkin, a opposé son veto à une mesure réglementaire majeure sur l’IA, la « High-Risk Artificial Intelligence Developer and Deployer Act », qui aurait compromis la capacité du Commonwealth à rester un leader en matière d’innovation numérique. Youngkin a souligné que cette loi aurait nui à la création de nouveaux emplois, à l’attraction d’investissements d’affaires et à la disponibilité de technologies innovantes en Virginie. De plus, la Chambre de Progrès a estimé que cette loi aurait imposé près de 30 millions de dollars en coûts de conformité aux développeurs d’IA, ce qui aurait été dévastateur pour les petites startups technologiques de l’État.

Les Changements au Texas

Le veto de Youngkin est survenu dix jours après que le représentant texan Giovanni Capriglione a introduit une version remaniée de son « Texas Responsible AI Governance Act (TRAIGA) », qui avait initialement été largement critiquée pour ses réglementations strictes sur l’innovation en IA. La nouvelle version, HB 149, abandonne les éléments les plus contraignants de la mesure originale.

Ces développements en Virginie et au Texas montrent une prise de conscience croissante parmi certains législateurs de l’importance d’une approche favorable à l’innovation, surtout face à la pression d’adopter un modèle réglementaire de type Union Européenne. Ces deux États alignent également leur politique de l’IA avec un nouveau focus national sur l’opportunité et l’investissement en IA.

Rejet de la Régulation de l’IA Basée sur la Peur

Le projet de loi sur l’IA en Virginie, qui a été rejeté, fait partie d’un ensemble de mesures similaires poussées par le Multistate AI Policymaker Working Group (MAP-WG), un groupe de législateurs de plus de 45 États cherchant à créer une loi de consensus sur la « discrimination par IA ». Ces propositions sont en cours dans une douzaine d’États, y compris la Californie, le Connecticut et le New York.

Le modèle réglementaire adopté par ces propositions est largement inspiré par la nouvelle AI Act de l’Union Européenne, qui a été critiquée pour sa nature basée sur la peur, considérant les systèmes algorithmiques comme « dangereux » ou « préjudiciables ». Ce type de régulation préventive, visant à réglementer des dommages futurs hypothétiques, pourrait engendrer des coûts et des confusions inutiles.

Le Modèle Défectueux du Colorado

Le veto de Youngkin et les modifications apportées au projet de loi texan montrent que certains législateurs commencent à comprendre les complexités de telles régulations. Le Colorado, par exemple, a récemment introduit une loi sur l’IA qui, malgré les préoccupations exprimées par des entrepreneurs technologiques, a été adoptée sans tenir compte des implications négatives sur l’innovation.

Conclusion

Alors que la préemption fédérale pourrait être difficile à réaliser, il est impératif que le Congrès développe un cadre national pour l’IA afin de surmonter les problèmes associés à la prolifération rapide de réglementations disparates au niveau des États. Les leçons tirées des développements en Virginie et au Texas devraient servir d’avertissement aux législateurs d’autres États : il serait imprudent d’importer le modèle réglementaire de l’Union Européenne et d’imposer des mandats coûteux et déroutants sur les entrepreneurs de l’IA aux États-Unis.

Il existe des moyens plus efficaces pour les États de répondre aux préoccupations concernant les systèmes d’IA sans recourir à un système de régulation rigide, et les gouvernements devraient favoriser un environnement propice à l’innovation plutôt que de freiner le progrès.

Articles

Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

Le Chartered Insurance Institute (CII) a appelé à des cadres de responsabilité clairs et à une stratégie de compétences à l'échelle du secteur pour guider l'utilisation de l'intelligence artificielle...

L’essor de la réglementation de l’IA dans la santé en APAC

La réglementation de l'intelligence artificielle (IA) dans la région Asie-Pacifique est encore naissante et repose principalement sur des cadres réglementaires existants. Les techniques d'IA, telles...

Nouveaux défis législatifs pour l’IA à New York

Au début de 2025, New York a rejoint d'autres États pour réglementer l'intelligence artificielle (IA) au niveau de l'État, en introduisant le projet de loi NY AI Act. Ce projet de loi vise à prévenir...

Gérer les Risques de l’Intelligence Artificielle

L'article discute des risques associés aux systèmes d'intelligence artificielle et de l'importance d'une gouvernance responsable. Il souligne que les modèles d'IA doivent être gérés efficacement pour...

Comprendre les enjeux de la loi sur l’intelligence artificielle dans l’UE

L'Union européenne a introduit la loi sur l'intelligence artificielle (AI Act), une réglementation phare conçue pour gérer les risques et les opportunités des technologies d'IA. Cet article fournit un...

La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

La Corée du Sud se positionne en tête de la réglementation de l'IA en Asie avec l'adoption de la loi sur le développement de l'intelligence artificielle et l'établissement de la confiance, ou la loi...

Défis réglementaires de l’IA et résilience opérationnelle

Le règlement sur l'IA de l'UE et la DORA imposent une nouvelle complexité aux entités financières, nécessitant une approche basée sur les risques pour évaluer l'impact financier. Il est essentiel de...

Réguler l’IA : Défis et Perspectives Transatlantiques

L'intelligence artificielle (IA) est devenue l'une des forces technologiques les plus conséquentes de notre époque, capable de redéfinir les économies et les sociétés. Les gouvernements démocratiques...

Révolutionner l’IA en Europe : Vers des Gigafactories Innovantes

La Commission européenne souhaite réduire les obstacles au déploiement de l'intelligence artificielle (IA) afin de mieux préparer les entreprises européennes à la concurrence mondiale. Dans sa...