Changement de Politique AI de Trump : Promotion de la Dominance Américaine et Déréglementation
Les premières actions de l’administration Trump indiquent un changement fondamental dans la politique américaine en matière d’intelligence artificielle (IA), s’éloignant de l’accent mis par l’administration Biden sur la surveillance, la mitigation des risques et l’équité, vers un cadre centré sur la déréglementation et la promotion de l’innovation en IA comme moyen de maintenir la dominance mondiale des États-Unis.
L’administration estime que ce changement permet aux entreprises technologiques américaines de continuer à dominer le développement de l’IA. Cependant, des défis demeurent pour les entreprises opérant également dans des juridictions étrangères avec des réglementations en matière d’IA plus strictes et dans certains États américains qui ont déjà adopté leurs propres règles réglementaires sur l’IA.
Cette divergence entre la stratégie pro-innovation du gouvernement fédéral et le modèle réglementaire préventif poursuivi par l’UE, la Corée du Sud et certains États souligne la nécessité pour les entreprises opérant à travers les juridictions d’adopter des stratégies de conformité flexibles qui prennent en compte les normes réglementaires variées.
Déréglementation et Dominance
Le vice-président JD Vance a exposé l’engagement de l’administration envers la dominance américaine en matière d’IA lors de son premier discours politique majeur plus tôt ce mois-ci, affirmant que les États-Unis mènent dans le domaine de l’IA et que l’administration prévoit de maintenir cette position.
Lors d’un sommet mondial à Paris, il a déclaré que « l’avenir de l’IA ne sera pas gagné par des préoccupations concernant la sécurité », mais plutôt « sera gagné par la construction », ajoutant que la sur-réglementation découragerait les innovateurs de prendre les risques nécessaires pour réaliser le potentiel de l’IA.
Vance a critiqué les gouvernements étrangers pour avoir « resserré les vis » sur les entreprises technologiques américaines et a encouragé les pays européens à considérer l’IA avec optimisme plutôt qu’avec appréhension. À la fin de l’événement, les États-Unis et le Royaume-Uni ont notamment refusé de signer l’engagement mondial soulignant les engagements envers la sécurité, la durabilité et l’inclusivité de l’IA, approuvé par des dizaines d’autres pays.
Les commentaires de Vance ont confirmé la politique décrite dans le décret exécutif du président Donald Trump du 25 janvier, qui a remplacé le précédent décret exécutif de Joe Biden sur l’IA.
Le décret de Trump cadre explicitement le développement de l’IA comme une question de compétitivité nationale et de force économique, en priorisant les politiques qui éliminent les obstacles réglementaires perçus à l’innovation. Il critique l’influence des « agendas sociaux » dans les systèmes d’IA et cherche à garantir que les technologies de l’IA restent exemptes de préjugés idéologiques.
En revanche, l’ordre de Biden se concentrait sur le développement responsable de l’IA, en mettant un accent particulier sur la gestion des risques tels que le biais, la désinformation et les vulnérabilités en matière de sécurité nationale.
Le décret de Trump mandate spécifiquement une révision immédiate et une éventuelle rescission de toutes les politiques, directives et réglementations établies sous Biden qui pourraient être considérées comme des obstacles à l’innovation en IA. Ce changement entraînera probablement la suppression, ou du moins une révision substantielle, du cadre de surveillance structuré de Biden.
Gouvernance Mondiale de l’IA
L’approche déréglementaire de l’administration Trump intervient alors que d’autres juridictions avancent des cadres réglementaires plus stricts pour l’IA. La Loi sur l’IA de l’UE de 2024 impose des règles complètes sur le développement et l’utilisation des technologies de l’IA, avec un fort accent sur la sécurité, la transparence, la responsabilité et l’éthique.
À l’échelle mondiale, des pays comme le Japon, le Royaume-Uni, la Corée du Sud et l’Australie avancent également des lois sur l’IA, dont beaucoup s’alignent davantage sur l’accent mis par l’UE sur la responsabilité et les considérations éthiques que sur la position pro-innovation des États-Unis.
L’accent mis par l’administration Trump sur la réduction des charges réglementaires contraste vivement avec l’approche de l’UE, qui reflète un principe de précaution mettant en avant les garanties sociétales plutôt que l’innovation rapide. Cette divergence pourrait créer des frictions entre les environnements réglementaires américain et européen, en particulier pour les entreprises mondiales qui doivent naviguer entre les deux systèmes.
Bien que l’UE puisse légèrement assouplir ses positions—comme l’a reconnu la présidente de la Commission européenne, Ursula von der Leyen, lors du sommet AI de Paris, en soulignant la nécessité de faciliter l’innovation et de « réduire la bureaucratie »—l’alignement entre les approches américaine et européenne semble peu probable.
Cadres AI des États
L’approche de l’administration élargit également l’écart entre les systèmes réglementaires fédéraux et étatiques en matière d’IA, car elle présage une déréglementation fédérale de l’IA. Bien que l’ordre de Trump indique un tournant vers la priorité donnée à l’innovation, la nouvelle approche de l’administration en matière d’application réglementaire—y compris sur des questions telles que la protection des données, la concurrence et la protection des consommateurs—deviendra plus claire à mesure que les nouveaux dirigeants des agences fédérales commenceront à mettre en œuvre leurs agendas.
Dans le même temps, des États tels que la Californie, le Colorado et l’Utah ont déjà promulgué des lois sur l’IA avec des portées et des niveaux de surveillance variables. Comme avec les lois de protection des consommateurs des États, une activité accrue au niveau des États en matière d’IA entraînera également probablement une fragmentation réglementaire accrue, les États mettant en œuvre leurs propres règles pour répondre aux préoccupations liées aux applications d’IA à haut risque, à la transparence et à la surveillance sectorielle.
Si le Congrès adopte une loi sur l’IA qui privilégie l’innovation par rapport à la mitigation des risques, des réglementations étatiques plus strictes pourraient faire face à une préemption fédérale, signifiant que le Congrès ou les tribunaux pourraient déclarer que la loi fédérale exclut les lois étatiques conflictuelles. Les organisations doivent surveiller de près les développements internationaux, nationaux et étatiques pour naviguer dans ce paysage réglementaire de l’IA de plus en plus fragmenté.