Impact des lois sur l’IA sur la grande technologie américaine

A robot holding a shield

Les mouvements de politique américaine reflètent les enjeux des grandes entreprises technologiques avec les lois étatiques sur l’IA

La récente proposition des Républicains de la Chambre d’un moratoire de dix ans sur les règles étatiques concernant l’intelligence artificielle (IA) souligne les préoccupations des entreprises technologiques face à la croissante mosaïque de lois étatiques sur l’IA et la protection des données.

Les grands acteurs technologiques souhaitent obtenir un allègement de cette complexité réglementaire. Le projet de loi intitulé One Big Beautiful Bill Act du Président Donald Trump propose un moratoire de dix ans sur les lois étatiques sur l’IA, en attendant qu’un nouveau projet de loi fédéral sur la protection des données soit élaboré.

Le passage du projet de loi à la Chambre des Représentants

La Chambre des Représentants des États-Unis a adopté un vaste paquet de lois fiscales et de politiques domestiques, qui sera maintenant examiné par le Sénat. Le vote en faveur du projet de loi a été de 215 contre 214, tous les démocrates de la Chambre votant contre. L’inclusion d’un arrêt de l’application des lois étatiques sur l’IA s’applique à toute loi ou réglementation « limitant, restreignant ou régulant autrement les modèles d’intelligence artificielle, les systèmes d’intelligence artificielle ou les systèmes de décision automatisés mis en commerce interétatique ».

Ce projet de loi représente un changement de politique de l’administration fédérale sur l’IA, selon l’analyste de Gartner, Lydia Clougherty Jones. Bien que la proposition nécessite encore des approbations supplémentaires, elle suggère que le secteur privé devrait se préparer à un avenir plus déréglementé.

La pression des grandes entreprises technologiques

Les grands acteurs du secteur technologique ont plaidé en faveur d’une politique fédérale pour remplacer les lois étatiques sur l’IA. Dans des commentaires soumis au Bureau de la politique scientifique et technologique de la Maison Blanche, OpenAI a qualifié les lois étatiques sur l’IA de trop contraignantes, tandis que Google a décrit la mosaïque croissante comme chaotique. Ces géants technologiques appellent depuis longtemps le Congrès à adopter un cadre fédéral de protection des données qui préempterait les lois étatiques.

Cependant, les deux dernières lois fédérales sur la protection des données introduites au Congrès n’ont pas réussi à être adoptées. Lors d’une audition récente sur la réglementation de l’IA, la députée Lori Trahan (D-Mass.) a ciblé les grandes entreprises technologiques, affirmant que ces dernières avaient fait pression pour arrêter les efforts fédéraux visant à adopter des lois sur la protection des données qui incluraient des mesures qu’elles rejettent, notamment la minimisation de la collecte de données.

Impact des lois étatiques sur la protection des données

Google a récemment conclu un règlement de protection des données avec l’État du Texas pour près de 1,4 milliard de dollars. Le procureur général du Texas, Ken Paxton, a poursuivi Google en 2022 pour avoir suivi illicitement des utilisateurs et collecté des données biométriques, de géolocalisation et de recherches en mode incognito.

Paxton a décrit ce règlement substantiel comme une victoire pour la vie privée des Texans, ajoutant qu’il « dit aux entreprises qu’elles paieront pour avoir abusé de notre confiance ». Il a également obtenu un règlement de 1,4 milliard de dollars avec Meta pour avoir collecté illégalement des données de reconnaissance faciale.

Ce règlement est « d’un ordre de grandeur supérieur » à d’autres règlements de protection des données atteints aux États-Unis et montre que le Texas prend au sérieux la surveillance des grandes entreprises technologiques.

Les défis réglementaires à venir

Alors que plusieurs États américains ont des lois sur la protection des données et les appliquent contre les grandes entreprises technologiques, d’autres – y compris l’Utah, la Californie et le Colorado – ont également promulgué des lois sur l’IA. Comme pour les préoccupations liées à la mosaïque des lois sur la protection des données, la collection des lois étatiques sur l’IA constitue un enjeu que les Républicains du Congrès sont convaincus d’entraver la capacité des entreprises à innover et à construire des technologies compétitives au niveau mondial.

Avec le moratoire sur les lois étatiques sur l’IA, Clougherty Jones a déclaré que les États pourraient ne pouvoir appliquer que certains aspects de leurs réglementations, ou aucun. Elle encourage les entreprises à prêter attention à l’impact potentiel de cette proposition sur leur ambition d’IA pour la prise de décision augmentée.

Faith Bradley, professeur adjoint d’informatique à l’école de commerce de l’Université George Washington, a souligné que le gouvernement fédéral a souvent du retard par rapport aux avancées technologiques. Elle a déclaré que, lorsque de nouvelles technologies sont largement adoptées et que des effets négatifs surviennent, le gouvernement tente de rattraper son retard, soulignant la nécessité de cadres juridiques pour tenir les fournisseurs d’IA responsables.

« Il est très important, lorsqu’il s’agit d’utiliser un outil d’IA, de comprendre s’il existe une possibilité d’abus », a-t-elle déclaré. « Nous devons évaluer le risque. »

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...