Cruz face des défis pour établir des normes fédérales sur l’IA face à l’activité des États

A locked briefcase.

Les obstacles rencontrés par le sénateur Cruz dans sa tentative de préempter les normes de l’IA des États

Le sénateur du Texas, Ted Cruz, se heurte à des difficultés dans sa quête de règles fédérales concernant l’, visant à éviter ce qu’il qualifie de patchwork chaotique de lois étatiques, un mouvement qui est désormais principalement mené par la Californie.

Les enjeux sont élevés, car l’objectif de Cruz et de la Maison Blanche est de maîtriser les initiatives des États. Permettre à la Californie de prendre les devants dans l’établissement de normes pourrait avoir des conséquences majeures pour le gouvernement fédéral, étant donné que cet État est le centre névralgique des technologies aux États-Unis, représentant la plus grande économie technologique du pays.

Les lois sur l’IA en Californie et ailleurs

Actuellement, la Californie est la seule à avoir des lois sur l’IA largement impactantes, mais d’autres États, comme New York avec son Responsible AI Safety and Education Act, et Michigan avec l’AI Transparency Act, commencent à faire surface. Le projet de loi de New York a été adopté en juin et couvre les risques associés aux IA de pointe, en chevauchant le régime de transparence de la Californie.

Après avoir dévoilé son cadre législatif en cinq piliers intitulé « Legislative Framework to Strengthen American AI Leadership » le 10 septembre, Cruz a également introduit son Sandbox Act, visant à renouveler le moratoire de dix ans sur les lois étatiques concernant l’IA. Ce moratoire avait été retiré du « One Big Beautiful Bill » cet été par ses collègues républicains, entraînant des divisions au sein de la base MAGA de Trump au Congrès.

Réactions et soutiens

Actuellement, le projet de loi est en attente d’action par le Comité sénatorial du commerce, des sciences et des transports, présidé par Cruz. Bien qu’aucun co-sponsor ne soit encore associé, il a reçu le soutien de groupes commerciaux de la technologie tels que l’Abundance Institute, la U.S. Chamber of Commerce, et le Information Technology Industry Council.

Lors du Politico AI & Tech Summit, Cruz a souligné que le moratoire n’est « pas du tout mort », affirmant que les normes étatiques fragmentées menacent la compétitivité des États-Unis en matière d’IA.

Les initiatives californiennes

Après l’effondrement dramatique du moratoire fédéral proposé en juillet, les législateurs californiens ont saisi l’opportunité pour avancer dans leur propre agenda réglementaire sur l’IA. Ils ont récemment présenté deux projets de loi au gouverneur Gavin Newsom : le SB 53, visant à établir des normes de transparence et de sécurité pour les développeurs d’IA de pointe, et le SB 243, qui constitue un cadre inédit pour limiter les risques liés aux chatbots d’IA, en particulier pour les mineurs.

Le SB 53 obligerait les grands fabricants de modèles à publier des cadres de risque et des rapports de transparence, tout en notifiant les responsables d’État des incidents critiques de sécurité. En revanche, le SB 243 imposerait des protocoles de prévention du suicide pour les chatbots, interdirait le contenu sexuel pour les mineurs et exigerait que les utilisateurs soient informés que ces bots ne sont pas humains.

Réactions et implications nationales

La Maison Blanche, cependant, reste méfiante quant à l’idée de laisser Sacramento établir le standard national. Lors du sommet Politico, un conseiller politique senior de la Maison Blanche a déclaré qu’ils ne souhaitaient pas que la Californie fixe les règles de l’IA à travers le pays, considérant que les initiatives étatiques pourraient freiner le développement américain face à la concurrence chinoise.

Pour Cruz, son Sandbox Act représente un cas de test immédiat dans sa stratégie de confrontation entre les fédéraux et les États. Ce projet de loi permettrait aux entreprises d’IA de demander des « dérogations de deux ans renouvelables jusqu’à une décennie » concernant certaines règles fédérales, à condition qu’elles divulguent et atténuent les risques de sécurité et de consommation.

Conclusion

Alors que les lois sur l’IA commencent à se multiplier dans certains États, le paysage réglementaire devient de moins en moins hypothétique. Cette situation met Cruz face à un défi stratégique majeur. D’un côté se trouvent les nouvelles normes de transparence et de sécurité de la Californie, et de l’autre, les efforts fédéraux pour maintenir une approche unifiée. L’issue de ce débat pourrait façonner l’avenir réglementaire de l’IA aux États-Unis.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...

L’Australie envisage l’IA pour révolutionner les soumissions gouvernementales

Le gouvernement australien pourrait envisager d'utiliser des programmes d'intelligence artificielle pour rédiger des soumissions sensibles au cabinet, malgré les préoccupations concernant la sécurité...