Stratégie d’accélération de l’IA au Pentagone : l’éthique mise de côté

A shattered hourglass with glowing silicon sand

Grok est à la mode, l’éthique est abandonnée dans la nouvelle stratégie d’accélération de l’IA du Pentagone

La troisième stratégie d’accélération de l’IA du Pentagone en quatre ans établit sept « projets de référence » qui « déverrouilleront des facilitateurs fondamentaux critiques » pour d’autres efforts militaires américains. Ce document de six pages oriente également les différentes composantes du département à atteindre un objectif de quatre ans pour rendre leurs données accessibles de manière centralisée pour la formation et l’analyse de l’IA.

Il omet toute mention de l’utilisation éthique de l’IA et suscite des soupçons quant au concept de responsabilité de l’IA, tout en interdisant l’utilisation de modèles intégrant un « ajustement idéologique » lié à la diversité, l’équité et l’inclusion (DEI).

Accès à Grok

Le secrétaire a également annoncé que les réseaux du Pentagone, y compris ceux classifiés, permettraient l’accès à Grok, le chatbot IA détenu par Elon Musk, connu pour son ton partisan et sa volonté de créer des images sexuellement explicites d’enfants.

Différences avec la stratégie précédente

En certains aspects clés, la nouvelle stratégie présente des similitudes avec son prédécesseur de l’administration Biden de 2023, qui mettait également l’accent sur l’adoption rapide de modèles d’IA disponibles commercialement dans l’armée. Cependant, la nouvelle stratégie offre des voies beaucoup plus spécifiques pour cette adoption dans diverses activités militaires. Un projet appelé « Swarms Forge » cherchera à « découvrir, tester et échelonner » de nouvelles manières d’utiliser l’IA dans les combats.

Un autre projet vise à incorporer rapidement l’IA agentique pour « la gestion de bataille et le soutien à la décision, de la planification de campagne à l’exécution de la chaîne de destruction ». Un projet lié au renseignement cherche à « transformer le renseignement en armes en quelques heures, pas en années », tandis qu’un autre vise à rendre la planification de posture plus « dynamique ».

Disponibilité des outils d’IA

Un projet prévoit de rendre les outils d’IA, y compris Grok et Gemini de Google, disponibles au personnel du département à des niveaux de classification « Information Level (IL-5) et supérieurs ».

Élimination des obstacles

Peut-être plus significatif, la nouvelle stratégie impose un mandat pour éliminer les « obstacles » au partage de données au sein du département et instituer des systèmes à architecture ouverte, un mouvement généralement perçu comme favorable aux startups et à l’innovation rapide.

Les considérations d’IA responsable, les considérations éthiques et la DEI ne sont pas prises en compte. Sous une section intitulée « Clarification de l’IA responsable », la stratégie déclare : « La diversité, l’équité et l’inclusion ainsi que l’idéologie sociale n’ont pas leur place au sein du département, nous ne devons donc pas employer des modèles d’IA qui intègrent un ajustement idéologique qui interfère avec leur capacité à fournir des réponses objectivement véridiques. »

Mandat de langage de contrat

La stratégie mandate également que le sous-secrétaire à la recherche et à l’ingénierie du département doit « incorporer un langage de ‘toute utilisation légale’ dans tout contrat par lequel des services d’IA sont acquis dans un délai de 180 jours », signifiant que toute utilisation de l’IA doit seulement respecter le standard légal utilisé par le département pour l’utilisation de la force en général, qu’elle soit humaine ou non.

Cependant, la stratégie ne rescinde pas explicitement la préférence de longue date pour un contrôle humain significatif, ce qui pourrait entraîner des confusions quant à l’interprétation de ce qu’est le contrôle significatif par différents commandants.

Contexte et considérations

Le Pentagone lance cette stratégie à un moment où la Russie et la Chine accélèrent leur propre adoption de l’IA, mais aussi lorsque la confiance du public dans l’IA s’effondre à travers le spectre politique américain. Cela arrive également alors que de nombreux alliés européens se détournent des entreprises technologiques américaines en raison de l’agression de l’administration envers les démocraties.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...