Texas et Virginie : un virage vers une régulation de l’IA favorable à l’innovation

A compass

Texas et Virginia : Écarter une Régulation AI de Style Européen

Les récents développements au Texas et en Virginie signalent un tournant potentiellement positif dans le débat sur la politique de l’intelligence artificielle (IA) aux États-Unis. Moins de trois mois après le début de l’année, plus de 900 propositions législatives liées à l’IA ont été introduites, soit environ 12 par jour. La majorité de ces mesures sont à l’échelle des États et visent à imposer de nouvelles régulations sur les systèmes algorithmiques, ce qui représente un niveau d’intérêt réglementaire sans précédent pour une technologie émergente.

Le Veto de la Virginie

Le 24 mars, le gouverneur de Virginie, Glenn Youngkin, a opposé son veto à une mesure réglementaire majeure sur l’IA, la « High-Risk Artificial Intelligence Developer and Deployer Act », qui aurait compromis la capacité du Commonwealth à rester un leader en matière d’innovation numérique. Youngkin a souligné que cette loi aurait nui à la création de nouveaux emplois, à l’attraction d’investissements d’affaires et à la disponibilité de technologies innovantes en Virginie. De plus, la Chambre de Progrès a estimé que cette loi aurait imposé près de 30 millions de dollars en coûts de conformité aux développeurs d’IA, ce qui aurait été dévastateur pour les petites startups technologiques de l’État.

Les Changements au Texas

Le veto de Youngkin est survenu dix jours après que le représentant texan Giovanni Capriglione a introduit une version remaniée de son « Texas Responsible AI Governance Act (TRAIGA) », qui avait initialement été largement critiquée pour ses réglementations strictes sur l’innovation en IA. La nouvelle version, HB 149, abandonne les éléments les plus contraignants de la mesure originale.

Ces développements en Virginie et au Texas montrent une prise de conscience croissante parmi certains législateurs de l’importance d’une approche favorable à l’innovation, surtout face à la pression d’adopter un modèle réglementaire de type Union Européenne. Ces deux États alignent également leur politique de l’IA avec un nouveau focus national sur l’opportunité et l’investissement en IA.

Rejet de la Régulation de l’IA Basée sur la Peur

Le projet de loi sur l’IA en Virginie, qui a été rejeté, fait partie d’un ensemble de mesures similaires poussées par le Multistate AI Policymaker Working Group (MAP-WG), un groupe de législateurs de plus de 45 États cherchant à créer une loi de consensus sur la « discrimination par IA ». Ces propositions sont en cours dans une douzaine d’États, y compris la Californie, le Connecticut et le New York.

Le modèle réglementaire adopté par ces propositions est largement inspiré par la nouvelle AI Act de l’Union Européenne, qui a été critiquée pour sa nature basée sur la peur, considérant les systèmes algorithmiques comme « dangereux » ou « préjudiciables ». Ce type de régulation préventive, visant à réglementer des dommages futurs hypothétiques, pourrait engendrer des coûts et des confusions inutiles.

Le Modèle Défectueux du Colorado

Le veto de Youngkin et les modifications apportées au projet de loi texan montrent que certains législateurs commencent à comprendre les complexités de telles régulations. Le Colorado, par exemple, a récemment introduit une loi sur l’IA qui, malgré les préoccupations exprimées par des entrepreneurs technologiques, a été adoptée sans tenir compte des implications négatives sur l’innovation.

Conclusion

Alors que la préemption fédérale pourrait être difficile à réaliser, il est impératif que le Congrès développe un cadre national pour l’IA afin de surmonter les problèmes associés à la prolifération rapide de réglementations disparates au niveau des États. Les leçons tirées des développements en Virginie et au Texas devraient servir d’avertissement aux législateurs d’autres États : il serait imprudent d’importer le modèle réglementaire de l’Union Européenne et d’imposer des mandats coûteux et déroutants sur les entrepreneurs de l’IA aux États-Unis.

Il existe des moyens plus efficaces pour les États de répondre aux préoccupations concernant les systèmes d’IA sans recourir à un système de régulation rigide, et les gouvernements devraient favoriser un environnement propice à l’innovation plutôt que de freiner le progrès.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...