Le Congrès pourrait dépouiller les Californiens de leurs protections contre l’IA dans le domaine de la santé, de l’embauche et bien plus encore

La récente proposition de loi des républicains de la Chambre des représentants vise à interdire les réglementations étatiques sur l’intelligence artificielle (IA) pendant une durée de dix ans. Cette initiative suscite des inquiétudes parmi les dirigeants californiens, qui craignent qu’elle n’entrave les efforts de réglementation en matière d’IA déjà en place dans l’État.

Une législation qui menace des lois essentielles

Le projet de loi, inclus dans un vaste budget de réconciliation, rendrait illégale l’application de plus de 20 lois votées par la législature californienne l’année précédente. Parmi ces lois, certaines visent à réglementer l’utilisation de l’IA dans des domaines cruciaux tels que la santé et l’embauche.

La California Privacy Protection Agency a exprimé ses préoccupations dans une lettre adressée au Congrès, avertissant que cette moratoire pourrait priver des millions d’Américains de droits qu’ils détiennent déjà. Cela inclut le droit de refuser l’utilisation de technologies de décision automatisées et la transparence concernant l’utilisation de leurs informations personnelles.

Un impact national potentiel

Si cette loi est adoptée, elle pourrait également stopper les efforts législatifs dans l’ensemble du pays. Des législateurs de 45 États ont envisagé près de 600 projets de loi visant à réglementer l’IA cette année, selon les informations fournies par le Transparency Coalition.

Le projet de loi a été introduit par le congressiste Brett Guthrie, un républicain du Kentucky, qui a déclaré que cette législation était nécessaire pour résoudre un patchwork de réglementations étatiques. Mercredi, les membres du comité de la Chambre ont voté 30-24, suivant des lignes partisanes, pour approuver le projet de budget comprenant le moratoire sur la réglementation étatique de l’IA.

Les préoccupations des défenseurs de la vie privée

Les défenseurs de la vie privée, comme Ben Winters, avocat pour la Consumer Federation of America, estiment que cette législation pourrait entraver les efforts de la California Privacy Protection Agency pour réguler la prise de décision automatisée et empêcher l’application des lois visant à protéger les électeurs contre les deepfakes.

Le sénateur californien Josh Becker a également souligné que les entreprises et les lobbyistes tentent d’utiliser Washington D.C. pour saper le leadership législatif de la Californie en matière d’IA.

Des implications sur les droits des citoyens

Ce moratoire, s’il est adopté, pourrait avoir des conséquences profondes sur la capacité de la Californie à protéger ses citoyens contre des dommages tels que la discrimination et la manipulation des prix algorithmiques.

En effet, des protections essentielles pourraient être perdues, alors que les législateurs californiens cherchent à réglementer l’utilisation de l’IA dans des contextes sensibles.

Un mouvement contre la réglementation de l’IA

La proposition de moratoire s’inscrit dans une tendance plus large visant à limiter la réglementation de l’IA, conformément aux souhaits de certaines entreprises technologiques. Les républicains soutiennent que la réglementation étatique pourrait nuire à l’innovation et à la compétitivité des entreprises américaines sur la scène mondiale.

Le projet de loi de Guthrie arrive à un moment où les États ont intensifié leurs efforts pour réguler l’IA, avec plus de 130 projets de loi adoptés l’année dernière, dont 22 en Californie, le plus grand nombre parmi tous les États.

Conclusion

Alors que le débat sur la réglementation de l’IA s’intensifie, il est crucial que les législateurs reconnaissent l’importance de protéger les droits des citoyens. Un moratoire sur la réglementation de l’IA pourrait entraver les avancées nécessaires pour protéger le public dans un domaine en rapide évolution.

Articles

Un législateur de l’Utah à la tête d’une task force nationale sur l’IA

Un législateur de l'Utah a récemment été choisi pour diriger un groupe de travail national afin d'aider à orienter les politiques de l'intelligence artificielle au niveau des États. Le représentant...

La loi texane sur l’intelligence artificielle : un nouveau cadre réglementaire

Le gouverneur du Texas a signé la Texas Responsible Artificial Intelligence Governance Act (TRAIGA) en vertu de laquelle le Texas devient le deuxième État à adopter une réglementation complète sur...

La loi sur l’IA de l’UE entre en vigueur : ce qu’il faut savoir

L'Union européenne a mis en œuvre sa loi sur l'IA, qui introduit des classifications de risque pour les modèles d'intelligence artificielle. Les modèles d'IA présentant des risques inacceptables, tels...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

Risques de conformité liés à l’intégration de l’IA

L'intelligence artificielle devient un élément essentiel des fonctions de conformité des entreprises, mais son intégration présente également des risques réglementaires et opérationnels. Les...

Gouvernance de l’IA : un défi urgent pour les entreprises

Selon une nouvelle recherche, 93 % des entreprises au Royaume-Uni utilisent aujourd'hui l'IA, mais la plupart manquent de cadres pour gérer ses risques. Seul sept pour cent ont intégré des cadres de...

Gouvernance des données : Les enjeux de l’Acte européen sur l’IA

La Loi sur l'intelligence artificielle de l'Union européenne propose un cadre pour réglementer l'IA, en particulier pour les systèmes à "haut risque". L'article 10 se concentre sur les données et la...

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...