La Doctrine Incertaine de l’IA de Trump
À l’occasion du récent sommet de Paris sur l’intelligence artificielle (IA), le vice-président JD Vance a déclaré que les États-Unis suivraient leur propre voie en matière d’IA, s’opposant à la réglementation excessive axée sur la sécurité de l’Union européenne (UE) qui, selon lui, étouffe l’innovation. Cette critique est valide. Cependant, à ce moment charnière de la révolution technologique, la manière dont les États-Unis vont promouvoir une innovation rapide sans compromettre la sécurité reste floue.
L’IA progresse plus vite que quiconque ne l’avait imaginé. En 2019, elle peut à peine compter jusqu’à dix. Aujourd’hui, elle surpasse les humains dans des tests de physique, de biologie et de chimie. La course entre les États-Unis et la Chine pour développer une intelligence machine qui dépasse l’intelligence humaine accélère cette avancée. Plus l’IA devient avancée, plus elle sera fondamentale pour la vie moderne et le pouvoir géopolitique. Cependant, avec le potentiel immense de l’IA viennent des risques substantiels.
La peur de ces risques a divisé la communauté technologique, et des sondages montrent que plus de deux tiers des Américains soutiennent le développement responsable de cette technologie.
Le Rôle de Trump dans la Régulation de l’IA
Le président Donald Trump pourrait trouver un équilibre approprié malgré sa volonté de déréglementation et d’innovation, ainsi que son silence sur la surveillance et l’atténuation des risques. Le Congrès soutient l’innovation avec des garde-fous, et le rapport final du groupe de travail sur l’IA de la Chambre des représentants fournit une feuille de route pour les leaders de l’industrie. De plus, mener dans le domaine de l’IA signifie diriger l’innovation tout en maintenant la confiance du public.
La politique de l’IA de Trump, qui sera clarifiée cet été, devra préciser la position et la politique des États-Unis dans le débat mondial évolutif sur la gouvernance de l’IA. Bien que le modèle américain, tolérant au risque et décentralisé, ait été supérieur pour l’innovation, le modèle centralisé de l’UE, axé sur la sécurité, a mis l’Europe en retard.
Défis Uniques de la Réglementation des Modèles de Langage
Les modèles de langage de grande taille (LLM), comme ChatGPT, sont mal compris, même par leurs créateurs. Ils prédisent des séquences de texte basées sur leur exposition à d’énormes ensembles de données, mais leur comportement est façonné par l’apprentissage, pas la programmation. Cela les rend sujets à la hallucination, générant des informations fausses ou trompeuses.
La Stratégie de Trump: Innovation et Sécurité
La pression pour devancer la Chine a intensifié le besoin d’une régulation efficace. L’annonce en janvier 2025 que des laboratoires d’IA chinois ont développé des modèles d’IA de raisonnement qui rivalisent avec leurs concurrents américains à une fraction du coût a choqué l’industrie et l’administration. Les États-Unis doivent prioriser l’innovation tout en atténuant les risques potentiels. Cependant, les cibles de la déréglementation ne semblent pas viser la sécurité de l’ingénierie, mais plutôt l’élimination des programmes de diversité, d’équité et d’inclusion.
Contextes Mondiaux: Modèles de Gouvernance Divergents en Matière d’IA
Alors que les États-Unis luttent avec la régulation de l’IA à domicile, l’UE et la Chine développent leurs propres modèles de gouvernance qui reflètent leurs perspectives culturelles, politiques et économiques distinctes. Le modèle de l’UE est axé sur la sécurité et les droits, tandis que le modèle chinois est une hybridation entre la sécurité centralisée et l’innovation décentralisée.
Il n’existe pas de cadre mondial de gouvernance de l’IA, mais un consensus mondial sur la sécurité de l’IA est en train d’émerger, soutenu par l’UE et la Chine, mais pas par les États-Unis. Cette divergence renforce la probabilité que ces trois modèles de gouvernance coexistent à l’échelle mondiale.
Les Risques d’un Paysage Mondial Fragmenté
Une divergence extrême sur la sécurité de l’IA dans un cadre de gouvernance mondial fragmenté pourrait coûter cher aux États-Unis. Bien que l’Amérique mène largement les dix écosystèmes d’IA les plus réussis au monde, la Chine est en train de rattraper son retard. Si les États-Unis relâchent les modèles d’IA rapidement mais sacrifient la sécurité pour la rapidité, le risque d’incidents augmentera, provoquant un nouveau retour de bâton du public contre Big Tech.
Conclusion: Faire en Sorte que l’IA Travaille pour les Humains
Les États-Unis doivent maintenir leur leadership dans le développement de l’IA tout en assurant la sécurité et la confiance du public. Trouver cet équilibre est une nécessité pratique, essentielle pour le déploiement responsable et généralisé de l’IA aux États-Unis. La gouvernance décentralisée de l’IA favorise l’agilité et l’innovation, mais comporte également le risque de réglementations de sécurité fédérales inadéquates.
En intégrant des garde-fous significatifs dans sa gouvernance de l’IA, les États-Unis peuvent rester compétitifs en innovation tout en sécurisant la confiance du public.