Congé de réglementation sur l’IA : enjeux et impacts pour les entreprises

A set of gears

Le gel proposé par Trump sur les lois étatiques en matière d’IA : Ce que les CIO doivent savoir

Cette été, le Sénat américain examinera et votera sur un vaste plan fiscal et de dépenses présenté par l’administration Trump, surnommé One Big Beautiful Bill. Cette législation inclut un moratoire de 10 ans sur les lois concernant l’IA au niveau étatique ou local.

Si ce moratoire est adopté, plus de 45 états ayant introduit des projets de loi sur l’IA durant la session législative de l’année dernière et les 31 états ayant adopté des résolutions et promulgué des lois pourraient être affectés. Toutefois, l’interdiction des lois sur l’IA comprend des exceptions pour la législation étatique favorisant le développement et l’adoption de cette technologie.

Conséquences pour les entreprises et les CIO

Cette mesure pourrait également avoir des répercussions sur les entreprises et les CIO qui ont déjà mis à jour leurs pratiques, payé des partenaires externes pour obtenir de l’aide et engagé des conseils spécialisés. Les partisans d’un gel affirment qu’une mosaïque complexe de lois au niveau étatique doit être arrêtée et accueillent la possibilité d’une consistance nationale.

Cependant, les critiques soulignent que le moratoire proposé suscite plus de questions qu’il n’apporte de réponses. Ja-Naé Duane, membre du corps professoral de l’Université Brown, a déclaré que cela pourrait simplifier les choses en surface, mais augmenterait les enjeux pour la surveillance interne et la réflexion à long terme. Pour les CIO, le véritable travail commence maintenant.

Malgré l’approche légère du gouvernement fédéral en matière de réglementation de l’IA, plusieurs experts ont exprimé leur surprise face au potentiel gel des lois au niveau étatique. Niloy Ray, membre de la pratique de l’IA et de la technologie chez Littler, a déclaré qu’il n’avait pas anticipé quelque chose d’aussi drastique.

Réactions des législateurs

Après son entrée en fonction en janvier, l’administration Trump a rapidement révoqué les politiques antérieures sur l’IA et a ordonné aux agences fédérales de supprimer les obstacles à l’innovation. Le Vice-président JD Vance a vanté cette stratégie lors du AI Action Summit à Paris en février, appelant les autres nations à adopter une approche similaire.

Les législateurs au niveau étatique ont également pris note. En mars, le Texas a introduit une version affaiblie de sa loi sur l’IA, tandis que le gouverneur de Virginie, Glenn Youngkin, a aligné sa politique avec cette poussée de déréglementation en opposant son veto à un projet de loi axé sur l’IA.

Impact sur les entreprises

Les grandes entreprises technologiques, telles qu’OpenAI et Google, ont plaidé pour une approche plus centralisée de la gouvernance et accueillent probablement la pause potentielle sur les règles au niveau étatique. Les leaders d’autres fournisseurs d’IA ont également suggéré que les lois existantes sont déjà suffisantes.

Les entreprises qui ont tenté de rester en avance pourraient se retrouver contraintes de revenir à la planche à dessin. Nic Adams, co-fondateur et PDG d’un fournisseur de cybersécurité basé à Indianapolis, a mis en garde que chaque dollar investi dans la conformité à 50 états serait gaspillé si le gel se maintenait.

Anticiper l’imprévisible

Bien que le projet de loi ait déjà franchi une étape, il l’a fait de justesse. La Chambre des représentants a voté 215-214 pour le transmettre au Sénat. Même si ce moratoire devait passer, cela sera soumis à des contestations constitutionnelles.

Les CIO ne devraient pas abandonner leurs efforts en matière de conformité et de gouvernance, quelle que soit l’issue. Les organisations opérant à l’échelle mondiale doivent encore faire face aux règles relatives à l’IA d’autres juridictions, telles que la loi sur l’IA de l’Union Européenne.

Les experts prévoient également que les CIO verront des pratiques éthiques et responsables en matière d’IA comme un facteur de différenciation concurrentielle et un moyen de gagner la confiance des clients et des employés.

Conclusion

Alors que la clarté réglementaire pourrait mettre du temps à se manifester, le risque juridique ne faiblira pas. Les CIO doivent gérer la manière dont ils procèdent à l’approvisionnement et à la gestion des fournisseurs, en veillant à ce que les processus d’approvisionnement en IA incluent des questions sur la transparence des modèles, les sources de données et la planification de la conformité à long terme.

Les experts mettent également en garde contre d’autres pièges potentiels, tels que le retrait de certaines initiatives en espérant obtenir une clarté réglementaire à l’avenir. Les entreprises qui attendent passivement une feuille de route fédérale idéale risquent d’être dépassées par des opérateurs technologiques plus audacieux.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...