Anthropic et le Pentagone : enjeux et conséquences de la régulation de l’IA

A chessboard with AI-controlled pieces facing off against human-controlled pieces, with a digital code overlay on the board

Anthropic et le Pentagone : un concours décisif sur qui fixe les règles de l’IA

Il existe une citation souvent attribuée au révolutionnaire russe Vladimir Lénine qui dit qu’il y a des décennies où rien ne se passe ; et il y a des semaines où des décennies se produisent. Cette semaine a semblé en être une.

Contexte actuel

Dans le contexte du conflit en cours en Iran et des tensions accrues entre l’administration Trump et ses alliés européens traditionnels, on pourrait pardonner à quiconque d’avoir manqué la nouvelle selon laquelle le Pentagone a désigné le géant de l’IA Anthropic comme un « risque de chaîne d’approvisionnement ». Bien que cette décision soit accompagnée d’une période de grâce de six mois, elle empêche effectivement toute agence fédérale et toute entreprise faisant des affaires avec l’armée américaine d’utiliser la technologie d’Anthropic dans le cadre de son travail avec le Département de la Guerre.

Origines de la décision

Cette décision du Pentagone était la conséquence naturelle de semaines de postures publiques après avoir atteint un point mort avec Anthropic. En juillet 2025, le Pentagone a attribué des accords plafonnés à 200 millions de dollars à quatre entreprises d’IA « de pointe », avec Claude d’Anthropic étant le premier modèle approuvé pour une utilisation sur des réseaux classifiés. Cependant, cette lune de miel a pris fin lorsque le Département a insisté sur un standard « à des fins légales », remplaçant ainsi les garde-fous de l’entreprise par une politique gouvernementale.

Le PDG d’Anthropic, Dario Amodei, avait clairement indiqué que ses deux lignes rouges étaient l’utilisation de Claude pour la surveillance de masse des citoyens américains, et dans le déploiement d’armes entièrement autonomes – des armes capables de se déployer sans intervention humaine. Après aucune avancée de part et d’autre, la décision de désigner Anthropic comme un risque de chaîne d’approvisionnement a été prise.

Implications politiques et concurrentielles

Il ne faut pas sous-estimer à quel point cette affaire est devenue personnelle. Le président Trump, prenant la parole sur une plateforme sociale, a attaqué les « gauchistes » chez Anthropic, qualifiant l’entreprise de « radicale », tout en menaçant de lourdes conséquences civiles et pénales. Parallèlement, le Secrétaire à la Guerre a parlé de la « leçon magistrale d’arrogance et de trahison » d’Anthropic, accusant la société d’essayer de contrôler le processus décisionnel de l’armée américaine.

Le principal bénéficiaire de cette situation a été OpenAI, qui était moins hésitant sur ses lignes rouges et a signé avec empressement le contrat de 200 millions de dollars avec le Département de la Guerre. Le patron d’OpenAI, ancien collègue d’Amodei devenu concurrent, a pris un chemin différent en raison de désaccords, notamment sur la sécurité de l’IA.

Perspectives d’avenir

Alors que les négociations entre les responsables américains et Anthropic se poursuivent, il est significatif que le Pentagone continue d’utiliser Anthropic dans ses opérations en Iran. Au cœur de cette saga se trouve la question fondamentale de qui fixe les conditions d’utilisation de l’IA.

Les gouvernements, de par leur responsabilité démocratique, doivent prendre des décisions qu’ils jugent dans l’intérêt national, y compris sur l’utilisation des technologies émergentes. En revanche, personne ne connaît mieux cette technologie que les grandes entreprises technologiques elles-mêmes, qui comprennent ce qu’elle peut et ne peut pas faire.

Il est impossible de séparer la course actuelle vers la super-intelligence artificielle des tensions géopolitiques plus larges entre les États-Unis et la Chine, qui pourraient façonner la prochaine phase du 21ème siècle. L’art de la politique et de la réglementation est lent et délibéré par nature, en contraste frappant avec le rythme du développement de l’IA.

Pour ce qui est de l’avenir, Claude continue d’être utilisé par l’armée américaine dans ses actions au Moyen-Orient, et selon la durée du conflit, cela pourrait nécessiter un retour sur la période de six mois avant que la désignation de risque de chaîne d’approvisionnement d’Anthropic ne prenne pleinement effet. D’un point de vue commercial et en termes de relations publiques, Anthropic semble bien se rassembler et a connu cette semaine une montée en popularité, Claude surpassant ChatGPT sur l’App Store et le nombre d’abonnés payants ayant plus que doublé depuis le début de 2026.

C’est une histoire de personnalités, de principes et de lignes rouges. À l’ère de l’IA, les gouvernements et les entreprises devront de plus en plus travailler ensemble pour naviguer dans ces enjeux, sous peine de voir surgir bien d’autres cas similaires dans les années à venir.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...