Grok est à la mode, l’éthique est abandonnée dans la nouvelle stratégie d’accélération de l’IA du Pentagone
La troisième stratégie d’accélération de l’IA du Pentagone en quatre ans établit sept « projets de référence » qui « déverrouilleront des facilitateurs fondamentaux critiques » pour d’autres efforts militaires américains. Ce document de six pages oriente également les différentes composantes du département à atteindre un objectif de quatre ans pour rendre leurs données accessibles de manière centralisée pour la formation et l’analyse de l’IA.
Il omet toute mention de l’utilisation éthique de l’IA et suscite des soupçons quant au concept de responsabilité de l’IA, tout en interdisant l’utilisation de modèles intégrant un « ajustement idéologique » lié à la diversité, l’équité et l’inclusion (DEI).
Accès à Grok
Le secrétaire a également annoncé que les réseaux du Pentagone, y compris ceux classifiés, permettraient l’accès à Grok, le chatbot IA détenu par Elon Musk, connu pour son ton partisan et sa volonté de créer des images sexuellement explicites d’enfants.
Différences avec la stratégie précédente
En certains aspects clés, la nouvelle stratégie présente des similitudes avec son prédécesseur de l’administration Biden de 2023, qui mettait également l’accent sur l’adoption rapide de modèles d’IA disponibles commercialement dans l’armée. Cependant, la nouvelle stratégie offre des voies beaucoup plus spécifiques pour cette adoption dans diverses activités militaires. Un projet appelé « Swarms Forge » cherchera à « découvrir, tester et échelonner » de nouvelles manières d’utiliser l’IA dans les combats.
Un autre projet vise à incorporer rapidement l’IA agentique pour « la gestion de bataille et le soutien à la décision, de la planification de campagne à l’exécution de la chaîne de destruction ». Un projet lié au renseignement cherche à « transformer le renseignement en armes en quelques heures, pas en années », tandis qu’un autre vise à rendre la planification de posture plus « dynamique ».
Disponibilité des outils d’IA
Un projet prévoit de rendre les outils d’IA, y compris Grok et Gemini de Google, disponibles au personnel du département à des niveaux de classification « Information Level (IL-5) et supérieurs ».
Élimination des obstacles
Peut-être plus significatif, la nouvelle stratégie impose un mandat pour éliminer les « obstacles » au partage de données au sein du département et instituer des systèmes à architecture ouverte, un mouvement généralement perçu comme favorable aux startups et à l’innovation rapide.
Les considérations d’IA responsable, les considérations éthiques et la DEI ne sont pas prises en compte. Sous une section intitulée « Clarification de l’IA responsable », la stratégie déclare : « La diversité, l’équité et l’inclusion ainsi que l’idéologie sociale n’ont pas leur place au sein du département, nous ne devons donc pas employer des modèles d’IA qui intègrent un ajustement idéologique qui interfère avec leur capacité à fournir des réponses objectivement véridiques. »
Mandat de langage de contrat
La stratégie mandate également que le sous-secrétaire à la recherche et à l’ingénierie du département doit « incorporer un langage de ‘toute utilisation légale’ dans tout contrat par lequel des services d’IA sont acquis dans un délai de 180 jours », signifiant que toute utilisation de l’IA doit seulement respecter le standard légal utilisé par le département pour l’utilisation de la force en général, qu’elle soit humaine ou non.
Cependant, la stratégie ne rescinde pas explicitement la préférence de longue date pour un contrôle humain significatif, ce qui pourrait entraîner des confusions quant à l’interprétation de ce qu’est le contrôle significatif par différents commandants.
Contexte et considérations
Le Pentagone lance cette stratégie à un moment où la Russie et la Chine accélèrent leur propre adoption de l’IA, mais aussi lorsque la confiance du public dans l’IA s’effondre à travers le spectre politique américain. Cela arrive également alors que de nombreux alliés européens se détournent des entreprises technologiques américaines en raison de l’agression de l’administration envers les démocraties.