Texas et Virginie : un virage vers une régulation de l’IA favorable à l’innovation

A compass

Texas et Virginia : Écarter une Régulation AI de Style Européen

Les récents développements au Texas et en Virginie signalent un tournant potentiellement positif dans le débat sur la politique de l’intelligence artificielle (IA) aux États-Unis. Moins de trois mois après le début de l’année, plus de 900 propositions législatives liées à l’IA ont été introduites, soit environ 12 par jour. La majorité de ces mesures sont à l’échelle des États et visent à imposer de nouvelles régulations sur les systèmes algorithmiques, ce qui représente un niveau d’intérêt réglementaire sans précédent pour une technologie émergente.

Le Veto de la Virginie

Le 24 mars, le gouverneur de Virginie, Glenn Youngkin, a opposé son veto à une mesure réglementaire majeure sur l’IA, la « High-Risk Artificial Intelligence Developer and Deployer Act », qui aurait compromis la capacité du Commonwealth à rester un leader en matière d’innovation numérique. Youngkin a souligné que cette loi aurait nui à la création de nouveaux emplois, à l’attraction d’investissements d’affaires et à la disponibilité de technologies innovantes en Virginie. De plus, la Chambre de Progrès a estimé que cette loi aurait imposé près de 30 millions de dollars en coûts de conformité aux développeurs d’IA, ce qui aurait été dévastateur pour les petites startups technologiques de l’État.

Les Changements au Texas

Le veto de Youngkin est survenu dix jours après que le représentant texan Giovanni Capriglione a introduit une version remaniée de son « Texas Responsible AI Governance Act (TRAIGA) », qui avait initialement été largement critiquée pour ses réglementations strictes sur l’innovation en IA. La nouvelle version, HB 149, abandonne les éléments les plus contraignants de la mesure originale.

Ces développements en Virginie et au Texas montrent une prise de conscience croissante parmi certains législateurs de l’importance d’une approche favorable à l’innovation, surtout face à la pression d’adopter un modèle réglementaire de type Union Européenne. Ces deux États alignent également leur politique de l’IA avec un nouveau focus national sur l’opportunité et l’investissement en IA.

Rejet de la Régulation de l’IA Basée sur la Peur

Le projet de loi sur l’IA en Virginie, qui a été rejeté, fait partie d’un ensemble de mesures similaires poussées par le Multistate AI Policymaker Working Group (MAP-WG), un groupe de législateurs de plus de 45 États cherchant à créer une loi de consensus sur la « discrimination par IA ». Ces propositions sont en cours dans une douzaine d’États, y compris la Californie, le Connecticut et le New York.

Le modèle réglementaire adopté par ces propositions est largement inspiré par la nouvelle AI Act de l’Union Européenne, qui a été critiquée pour sa nature basée sur la peur, considérant les systèmes algorithmiques comme « dangereux » ou « préjudiciables ». Ce type de régulation préventive, visant à réglementer des dommages futurs hypothétiques, pourrait engendrer des coûts et des confusions inutiles.

Le Modèle Défectueux du Colorado

Le veto de Youngkin et les modifications apportées au projet de loi texan montrent que certains législateurs commencent à comprendre les complexités de telles régulations. Le Colorado, par exemple, a récemment introduit une loi sur l’IA qui, malgré les préoccupations exprimées par des entrepreneurs technologiques, a été adoptée sans tenir compte des implications négatives sur l’innovation.

Conclusion

Alors que la préemption fédérale pourrait être difficile à réaliser, il est impératif que le Congrès développe un cadre national pour l’IA afin de surmonter les problèmes associés à la prolifération rapide de réglementations disparates au niveau des États. Les leçons tirées des développements en Virginie et au Texas devraient servir d’avertissement aux législateurs d’autres États : il serait imprudent d’importer le modèle réglementaire de l’Union Européenne et d’imposer des mandats coûteux et déroutants sur les entrepreneurs de l’IA aux États-Unis.

Il existe des moyens plus efficaces pour les États de répondre aux préoccupations concernant les systèmes d’IA sans recourir à un système de régulation rigide, et les gouvernements devraient favoriser un environnement propice à l’innovation plutôt que de freiner le progrès.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...