Commentaire d’expert : Le conflit entre le Pentagone et Anthropic reflète des échecs de gouvernance – avec des conséquences allant bien au-delà de Washington
Le 4 mars, le Pentagone a officiellement informé Anthropic qu’il avait été considéré comme un risque pour la chaîne d’approvisionnement en matière de sécurité nationale, une décision sans précédent contre une entreprise américaine.
Cette désignation a suivi le refus d’Anthropic d’accepter un langage contractuel permettant l’utilisation de sa technologie à des « fins licites », le PDG insistant sur la conservation de deux lignes rouges interdisant la surveillance de masse sur le territoire national et les systèmes d’armement entièrement autonomes. Après des négociations intensives, le secrétaire à la Défense a annoncé que le ministère de la Défense (DoD) se détournerait des produits d’Anthropic dans un délai de six mois, bien que des rapports aient révélé que le Pentagone s’appuyait largement sur le modèle Claude d’Anthropic dans sa guerre en cours contre l’Iran.
Conflit entre éthique et sécurité nationale
Le conflit a été largement caractérisé comme un affrontement entre éthique et sécurité nationale. En réalité, il met en lumière des défis structurels plus profonds. Ce conflit révèle des lacunes de gouvernance de longue date dans l’intégration de l’IA dans les opérations militaires et de renseignement — des lacunes qui précèdent cette administration et perdureront au-delà de cette controverse. En l’absence de cadres institutionnels clairs, des entreprises privées comme Anthropic ont tenté d’imposer des limites par le biais de politiques d’utilisation qui définissent comment leurs modèles peuvent être déployés. Cette situation souligne les lacunes de cette approche. Les mécanismes contractuels ne sont pas un substitut aux cadres de gouvernance capables de suivre le rythme des réalités opérationnelles de la guerre habilitée par l’IA.
Application de la loi et implications
Le mécanisme invoqué pour désigner Anthropic comme un risque pour la chaîne d’approvisionnement est un statut de sécurité de la chaîne d’approvisionnement conçu pour traiter des menaces étrangères à l’intégrité des systèmes de défense. Son application à une entreprise américaine représente donc un départ marqué des pratiques passées, et les bases probantes pour traiter un désaccord contractuel sur les termes d’utilisation comme équivalent à un compromis ou un sabotage étranger n’ont pas encore été établies publiquement.
La désignation suggère une tentative de réécrire les termes selon lesquels les entreprises d’IA de pointe peuvent faire affaire avec le gouvernement américain, ce qui pourrait avoir un effet dissuasif sur l’industrie et risquer de nuire aux partenariats public-privé dans le secteur de la défense.
Défis structurels et gouvernance
Le problème plus fondamental que souligne ce conflit est structurel. La législation actuelle présente des lacunes significatives dans la gouvernance des systèmes de surveillance domestique habilités par l’IA et des systèmes d’armement autonomes. Les directives du DoD exigent des systèmes autonomes létaux qu’ils subissent des tests rigoureux avant leur déploiement, mais elles existent en tant que politique interne plutôt qu’en tant que loi. Pendant ce temps, l’utilisation de l’IA dans des systèmes qui contribuent à des effets cinétiques est déjà bien avancée dans les conflits, y compris en Gaza, en Ukraine et en Iran. Ni la politique ni la loi n’ont suffisamment traité les implications de ces réalités opérationnelles sur les dommages civils.
Conséquences pour les alliés et observations
Les gouvernements alliés sont désormais confrontés aux implications du conflit entre le Pentagone et Anthropic. La désignation d’Anthropic comme risque pour la chaîne d’approvisionnement pourrait créer des défis juridiques, opérationnels et financiers pour les partenaires de l’OTAN et des Five Eyes ayant intégré les modèles d’Anthropic dans des plateformes et programmes communs.
Ce conflit est également observé de près par des concurrents stratégiques. Les commentaires d’État chinois ont présenté cet épisode comme une preuve d’instabilité structurelle dans l’écosystème américain de l’IA. La visibilité publique de cette rupture — les annonces de concurrents, les menaces de litige et les contradictions internes de la désignation — fournit une fenêtre détaillée sur les contestations de la gouvernance militaire de l’IA aux États-Unis.
Conclusion
Les États-Unis déploient des technologies de pointe en IA dans des environnements militaires et de renseignement sans les cadres statutaires ou les processus de surveillance nécessaires. Le conflit entre le Pentagone et Anthropic a rendu impossible d’ignorer le fossé de gouvernance entourant l’IA militaire. Les décideurs aux États-Unis et dans les pays alliés doivent désormais déterminer comment cette question sera abordée.