Anthropic et le Pentagone : un concours décisif sur qui fixe les règles de l’IA
Il existe une citation souvent attribuée au révolutionnaire russe Vladimir Lénine qui dit qu’il y a des décennies où rien ne se passe ; et il y a des semaines où des décennies se produisent. Cette semaine a semblé en être une.
Contexte actuel
Dans le contexte du conflit en cours en Iran et des tensions accrues entre l’administration Trump et ses alliés européens traditionnels, on pourrait pardonner à quiconque d’avoir manqué la nouvelle selon laquelle le Pentagone a désigné le géant de l’IA Anthropic comme un « risque de chaîne d’approvisionnement ». Bien que cette décision soit accompagnée d’une période de grâce de six mois, elle empêche effectivement toute agence fédérale et toute entreprise faisant des affaires avec l’armée américaine d’utiliser la technologie d’Anthropic dans le cadre de son travail avec le Département de la Guerre.
Origines de la décision
Cette décision du Pentagone était la conséquence naturelle de semaines de postures publiques après avoir atteint un point mort avec Anthropic. En juillet 2025, le Pentagone a attribué des accords plafonnés à 200 millions de dollars à quatre entreprises d’IA « de pointe », avec Claude d’Anthropic étant le premier modèle approuvé pour une utilisation sur des réseaux classifiés. Cependant, cette lune de miel a pris fin lorsque le Département a insisté sur un standard « à des fins légales », remplaçant ainsi les garde-fous de l’entreprise par une politique gouvernementale.
Le PDG d’Anthropic, Dario Amodei, avait clairement indiqué que ses deux lignes rouges étaient l’utilisation de Claude pour la surveillance de masse des citoyens américains, et dans le déploiement d’armes entièrement autonomes – des armes capables de se déployer sans intervention humaine. Après aucune avancée de part et d’autre, la décision de désigner Anthropic comme un risque de chaîne d’approvisionnement a été prise.
Implications politiques et concurrentielles
Il ne faut pas sous-estimer à quel point cette affaire est devenue personnelle. Le président Trump, prenant la parole sur une plateforme sociale, a attaqué les « gauchistes » chez Anthropic, qualifiant l’entreprise de « radicale », tout en menaçant de lourdes conséquences civiles et pénales. Parallèlement, le Secrétaire à la Guerre a parlé de la « leçon magistrale d’arrogance et de trahison » d’Anthropic, accusant la société d’essayer de contrôler le processus décisionnel de l’armée américaine.
Le principal bénéficiaire de cette situation a été OpenAI, qui était moins hésitant sur ses lignes rouges et a signé avec empressement le contrat de 200 millions de dollars avec le Département de la Guerre. Le patron d’OpenAI, ancien collègue d’Amodei devenu concurrent, a pris un chemin différent en raison de désaccords, notamment sur la sécurité de l’IA.
Perspectives d’avenir
Alors que les négociations entre les responsables américains et Anthropic se poursuivent, il est significatif que le Pentagone continue d’utiliser Anthropic dans ses opérations en Iran. Au cœur de cette saga se trouve la question fondamentale de qui fixe les conditions d’utilisation de l’IA.
Les gouvernements, de par leur responsabilité démocratique, doivent prendre des décisions qu’ils jugent dans l’intérêt national, y compris sur l’utilisation des technologies émergentes. En revanche, personne ne connaît mieux cette technologie que les grandes entreprises technologiques elles-mêmes, qui comprennent ce qu’elle peut et ne peut pas faire.
Il est impossible de séparer la course actuelle vers la super-intelligence artificielle des tensions géopolitiques plus larges entre les États-Unis et la Chine, qui pourraient façonner la prochaine phase du 21ème siècle. L’art de la politique et de la réglementation est lent et délibéré par nature, en contraste frappant avec le rythme du développement de l’IA.
Pour ce qui est de l’avenir, Claude continue d’être utilisé par l’armée américaine dans ses actions au Moyen-Orient, et selon la durée du conflit, cela pourrait nécessiter un retour sur la période de six mois avant que la désignation de risque de chaîne d’approvisionnement d’Anthropic ne prenne pleinement effet. D’un point de vue commercial et en termes de relations publiques, Anthropic semble bien se rassembler et a connu cette semaine une montée en popularité, Claude surpassant ChatGPT sur l’App Store et le nombre d’abonnés payants ayant plus que doublé depuis le début de 2026.
C’est une histoire de personnalités, de principes et de lignes rouges. À l’ère de l’IA, les gouvernements et les entreprises devront de plus en plus travailler ensemble pour naviguer dans ces enjeux, sous peine de voir surgir bien d’autres cas similaires dans les années à venir.