Impact des lois sur l’IA sur la grande technologie américaine

A robot holding a shield

Les mouvements de politique américaine reflètent les enjeux des grandes entreprises technologiques avec les lois étatiques sur l’IA

La récente proposition des Républicains de la Chambre d’un moratoire de dix ans sur les règles étatiques concernant l’intelligence artificielle (IA) souligne les préoccupations des entreprises technologiques face à la croissante mosaïque de lois étatiques sur l’IA et la protection des données.

Les grands acteurs technologiques souhaitent obtenir un allègement de cette complexité réglementaire. Le projet de loi intitulé One Big Beautiful Bill Act du Président Donald Trump propose un moratoire de dix ans sur les lois étatiques sur l’IA, en attendant qu’un nouveau projet de loi fédéral sur la protection des données soit élaboré.

Le passage du projet de loi à la Chambre des Représentants

La Chambre des Représentants des États-Unis a adopté un vaste paquet de lois fiscales et de politiques domestiques, qui sera maintenant examiné par le Sénat. Le vote en faveur du projet de loi a été de 215 contre 214, tous les démocrates de la Chambre votant contre. L’inclusion d’un arrêt de l’application des lois étatiques sur l’IA s’applique à toute loi ou réglementation « limitant, restreignant ou régulant autrement les modèles d’intelligence artificielle, les systèmes d’intelligence artificielle ou les systèmes de décision automatisés mis en commerce interétatique ».

Ce projet de loi représente un changement de politique de l’administration fédérale sur l’IA, selon l’analyste de Gartner, Lydia Clougherty Jones. Bien que la proposition nécessite encore des approbations supplémentaires, elle suggère que le secteur privé devrait se préparer à un avenir plus déréglementé.

La pression des grandes entreprises technologiques

Les grands acteurs du secteur technologique ont plaidé en faveur d’une politique fédérale pour remplacer les lois étatiques sur l’IA. Dans des commentaires soumis au Bureau de la politique scientifique et technologique de la Maison Blanche, OpenAI a qualifié les lois étatiques sur l’IA de trop contraignantes, tandis que Google a décrit la mosaïque croissante comme chaotique. Ces géants technologiques appellent depuis longtemps le Congrès à adopter un cadre fédéral de protection des données qui préempterait les lois étatiques.

Cependant, les deux dernières lois fédérales sur la protection des données introduites au Congrès n’ont pas réussi à être adoptées. Lors d’une audition récente sur la réglementation de l’IA, la députée Lori Trahan (D-Mass.) a ciblé les grandes entreprises technologiques, affirmant que ces dernières avaient fait pression pour arrêter les efforts fédéraux visant à adopter des lois sur la protection des données qui incluraient des mesures qu’elles rejettent, notamment la minimisation de la collecte de données.

Impact des lois étatiques sur la protection des données

Google a récemment conclu un règlement de protection des données avec l’État du Texas pour près de 1,4 milliard de dollars. Le procureur général du Texas, Ken Paxton, a poursuivi Google en 2022 pour avoir suivi illicitement des utilisateurs et collecté des données biométriques, de géolocalisation et de recherches en mode incognito.

Paxton a décrit ce règlement substantiel comme une victoire pour la vie privée des Texans, ajoutant qu’il « dit aux entreprises qu’elles paieront pour avoir abusé de notre confiance ». Il a également obtenu un règlement de 1,4 milliard de dollars avec Meta pour avoir collecté illégalement des données de reconnaissance faciale.

Ce règlement est « d’un ordre de grandeur supérieur » à d’autres règlements de protection des données atteints aux États-Unis et montre que le Texas prend au sérieux la surveillance des grandes entreprises technologiques.

Les défis réglementaires à venir

Alors que plusieurs États américains ont des lois sur la protection des données et les appliquent contre les grandes entreprises technologiques, d’autres – y compris l’Utah, la Californie et le Colorado – ont également promulgué des lois sur l’IA. Comme pour les préoccupations liées à la mosaïque des lois sur la protection des données, la collection des lois étatiques sur l’IA constitue un enjeu que les Républicains du Congrès sont convaincus d’entraver la capacité des entreprises à innover et à construire des technologies compétitives au niveau mondial.

Avec le moratoire sur les lois étatiques sur l’IA, Clougherty Jones a déclaré que les États pourraient ne pouvoir appliquer que certains aspects de leurs réglementations, ou aucun. Elle encourage les entreprises à prêter attention à l’impact potentiel de cette proposition sur leur ambition d’IA pour la prise de décision augmentée.

Faith Bradley, professeur adjoint d’informatique à l’école de commerce de l’Université George Washington, a souligné que le gouvernement fédéral a souvent du retard par rapport aux avancées technologiques. Elle a déclaré que, lorsque de nouvelles technologies sont largement adoptées et que des effets négatifs surviennent, le gouvernement tente de rattraper son retard, soulignant la nécessité de cadres juridiques pour tenir les fournisseurs d’IA responsables.

« Il est très important, lorsqu’il s’agit d’utiliser un outil d’IA, de comprendre s’il existe une possibilité d’abus », a-t-elle déclaré. « Nous devons évaluer le risque. »

Articles

Risques de l’IA en matière de conformité

La croissance rapide de l'intelligence artificielle (IA), en particulier de l'IA générative et des chatbots, offre aux entreprises de nombreuses opportunités pour améliorer leur façon de travailler...

Maîtriser l’alphabétisation en IA : un impératif pour les organisations

La Commission de l'UE a souligné l'importance de l'alphabétisation en matière d'IA pour tous les utilisateurs d'IA, notamment les fournisseurs et les déployeurs. Cette obligation d'alphabétisation...

Dilemmes éthiques de l’intelligence artificielle

L'intelligence artificielle (IA) modifie la manière dont les organisations prennent des décisions en analysant d'énormes ensembles de données et en générant des insights. Cependant, son utilisation...

Croatie : Protéger les droits face aux défis de l’IA

L'événement organisé par Politiscope en Croatie a permis de discuter de l'impact des intelligences artificielles (IA) sur les droits humains et d'influencer les futures politiques nationales. Les...

La Personnalité Juridique de l’IA : Défis et Perspectives

L'intelligence artificielle est désormais bien ancrée et évolue plus rapidement que les cadres juridiques qui doivent la régir. La question urgente se pose alors : l'IA devrait-elle se voir accorder...

L’importance de la provenance des données dans la gouvernance de l’IA

L'intelligence artificielle s'est progressivement intégrée aux fonctions essentielles de l'entreprise, mais cette adoption soulève des inquiétudes concernant la sécurité et la conformité. La...

Équilibre nécessaire dans la gouvernance de l’IA aux Philippines

Un législateur aux Philippines appelle à une approche prudente et consultative pour réglementer l'intelligence artificielle (IA), soulignant la nécessité de garantir que les politiques favorisent une...

La Chine et l’avenir de la gouvernance de l’IA : l’approche open-source

La Chine progresse rapidement dans le domaine de l'intelligence artificielle (IA), en mettant l'accent sur la collaboration en open source. Cette approche lui permet de développer des modèles d'IA...

Gouvernance de l’IA : 9 étapes essentielles pour sécuriser vos données

Les organisations doivent intégrer des pratiques de gouvernance de l'IA pour garantir l'intégrité et la sécurité de leurs écosystèmes de données. La gouvernance de l'IA n'est pas seulement une...