Réglementations fédérales sur l’IA : un tournant majeur en perspective

A blueprint of a smart city representing the future of AI integration

Le Congrès commence à examiner les premières réglementations fédérales sur l’IA

Dans une des premières étapes majeures pour discuter de réglementations étendues sur la législation de l’intelligence artificielle (IA) au niveau fédéral, des membres de la sous-commission de la Chambre sur le Commerce, la Fabrication et le Commerce se sont réunis mercredi pour discuter de la place des États-Unis dans la course mondiale à l’IA.

Cette audition a eu lieu dans un contexte de pression de la part des républicains de la Chambre pour mettre un terme à la législation sur l’IA au niveau des États pendant la prochaine décennie. La mesure a été avancée la semaine dernière dans le cadre de la proposition de réconciliation budgétaire du Comité de l’Énergie et du Commerce de la Chambre, qui vise à réduire de centaines de milliards de dollars les dépenses gouvernementales, y compris les programmes de sécurité sociale, au cours de la prochaine décennie.

«Nous sommes ici aujourd’hui pour déterminer comment le Congrès peut soutenir la croissance d’une industrie qui est clé pour la compétitivité américaine et les emplois sans perdre la course pour rédiger le livre de règles mondial sur l’IA», a déclaré le représentant de la Floride, Gus Bilirakis, républicain et président de la sous-commission sur l’Innovation, les Données et le Commerce.

Les enjeux de la réglementation fédérale

Au cours d’une audition de deux heures et demie, les membres de la sous-commission ont discuté des moyens de maintenir le leadership des États-Unis en matière d’IA, de l’important Acte sur l’IA de l’Union Européenne qui est entré en vigueur l’année dernière, du patchwork croissant des lois étatiques sur l’IA et de la proposition de moratoire sur ces lois.

Le soutien aux lignes directrices ou à la réglementation fédérales concernant les technologies de l’IA a reçu un soutien bipartisan lors du dernier congrès, et le Groupe de travail bipartisan de la Chambre sur l’intelligence artificielle a publié ses recherches et conclusions en décembre. Cependant, de nombreux républicains qui avaient soutenu ces efforts par le passé changent de cap, arguant qu’un moratoire sur les lois des États pourrait permettre au Congrès de prendre le temps d’adopter un ensemble unifié de lignes directrices fédérales.

Urgence et réglementation étatique

Le représentant Jay Obernolte, républicain de Californie, a déclaré que les plus de 1 000 lois étatiques relatives à l’IA qui ont été introduites cette année ont créé une urgence pour rassembler des lignes directrices fédérales. Les États ont actuellement une «créativité» dans la réglementation de l’IA, a-t-il déclaré.

«Les États ont pris de l’avance sur ce sujet. Ils ressentent une propriété créative sur leurs cadres, et ce sont eux qui nous empêchent de le faire maintenant», a déclaré Obernolte. «C’est une leçon pour nous ici sur pourquoi nous avons besoin d’un moratoire pour prévenir cela.»

Cependant, les critiques du moratoire ont remis en question pourquoi la législation au niveau des États empêcherait la création de lignes directrices fédérales.

La représentante Kim Schrier, démocrate de Washington, a déclaré que priver les États de leur capacité à légiférer sur l’IA sans un cadre fédéral au préalable serait un «gros cadeau aux grandes entreprises technologiques». Le moratoire sur les lois étatiques sur l’IA propose d’arrêter toute législation en cours et d’annuler la législation existante.

Les impacts des lois étatiques sur l’innovation

Les membres de la Chambre qui s’opposent à la législation sur l’IA citent souvent un manque de réglementation comme l’une des raisons pour lesquelles les États-Unis mènent actuellement le marché mondial de l’IA. Les États-Unis se classent premiers, a témoigné Marc Bhargava, directeur au sein de la société de capital-risque General Catalyst, bien que la Chine suive de près en matière de puissance de calcul et de modèles d’IA.

Sean Heather, vice-président senior des affaires réglementaires internationales et de l’antitrust à la Chambre de commerce, a témoigné que la législation qui imite trop étroitement l’Acte sur l’IA de l’Union Européenne, qui est entrée en vigueur l’été dernier, pourrait faire sortir les États-Unis de leur position de tête. Cet acte est complet et impose la responsabilité réglementaire aux développeurs d’IA pour atténuer les risques de dommages.

Le besoin d’un cadre fédéral

Les entreprises d’IA aux États-Unis se gouvernent actuellement elles-mêmes, ce qui signifie qu’elles testent leurs modèles pour certains des risques sociétaux et de cybersécurité que de nombreux législateurs aimeraient voir inscrits dans la loi. La plupart des investisseurs suivent également leur propre stratégie de diligence raisonnable, a déclaré Bhargava.

Il a souligné que les réglementations trop strictes, en particulier celles qui imposent un fardeau réglementaire aux développeurs comme dans l’UE, pourraient écraser les prochaines grandes entreprises technologiques avant qu’elles n’aient la chance de se stabiliser.

Cependant, l’absence totale de législation met les Américains dans une situation dangereuse, a déclaré la représentante Kathy Castor, démocrate de Floride. Elle a cité des préoccupations concernant les interactions des mineurs avec l’IA non réglementée, comme le cas d’un jeune de 14 ans de son État qui s’est donné la mort après avoir formé une relation étroite avec un chatbot.

«Que fait le Congrès ?» a demandé Castor. «Que faites-vous pour protéger les citoyens alors que les États ont agi pour nous protéger ?»

Amba Kak, co-directrice de l’AI Now Institute, qui étudie les implications sociales de l’IA, a exprimé son scepticisme quant à la possibilité de laisser l’industrie se réguler ou à l’IA de croître sans entrave. Elle a affirmé qu’au cours de l’audition, les membres avaient soutenu que les agences existantes ou des règles générales protégeraient les Américains des dangers de l’IA.

«Mais si cela était vrai, nous ne verrions pas la prolifération imprudente d’applications d’IA qui exploitent les enfants de cette manière», a-t-elle déclaré.

Bien que le Congrès soit aux premiers stades de l’examen d’un cadre fédéral, Bhargava a souligné que les États avaient adopté leurs lois existantes sur l’IA avec les «meilleures intentions» en tête.

«Les gens veulent protéger les consommateurs. Ils veulent créer des cadres», a-t-il déclaré. «Et en partie, c’est parce que le gouvernement fédéral n’a pas pris les devants pour établir un cadre que nous laissons aux États le soin de réglementer.»

Bhargava a «fortement» encouragé les membres de la commission à travailler ensemble sur un cadre bipartisan et à incorporer les conclusions du Groupe de travail bipartisan de la Chambre de l’année dernière.

«Je pense vraiment que si nous pouvons transformer cela en politique et l’adopter au niveau fédéral, plutôt que de le laisser aux États, ce serait dans le meilleur intérêt des startups que nous représentons.

Articles

Un législateur de l’Utah à la tête d’une task force nationale sur l’IA

Un législateur de l'Utah a récemment été choisi pour diriger un groupe de travail national afin d'aider à orienter les politiques de l'intelligence artificielle au niveau des États. Le représentant...

La loi texane sur l’intelligence artificielle : un nouveau cadre réglementaire

Le gouverneur du Texas a signé la Texas Responsible Artificial Intelligence Governance Act (TRAIGA) en vertu de laquelle le Texas devient le deuxième État à adopter une réglementation complète sur...

La loi sur l’IA de l’UE entre en vigueur : ce qu’il faut savoir

L'Union européenne a mis en œuvre sa loi sur l'IA, qui introduit des classifications de risque pour les modèles d'intelligence artificielle. Les modèles d'IA présentant des risques inacceptables, tels...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

Risques de conformité liés à l’intégration de l’IA

L'intelligence artificielle devient un élément essentiel des fonctions de conformité des entreprises, mais son intégration présente également des risques réglementaires et opérationnels. Les...

Gouvernance de l’IA : un défi urgent pour les entreprises

Selon une nouvelle recherche, 93 % des entreprises au Royaume-Uni utilisent aujourd'hui l'IA, mais la plupart manquent de cadres pour gérer ses risques. Seul sept pour cent ont intégré des cadres de...

Gouvernance des données : Les enjeux de l’Acte européen sur l’IA

La Loi sur l'intelligence artificielle de l'Union européenne propose un cadre pour réglementer l'IA, en particulier pour les systèmes à "haut risque". L'article 10 se concentre sur les données et la...

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...