Banni mais Irremplaçable : Claude utilisé pour détruire la défense de l’Iran +4 mouvements critiques
Merci de lire sur la gouvernance de l’IA, l’éthique et le leadership ! Si vous avez apprécié l’article, n’hésitez pas à l’aimer, à ajouter un commentaire ou à le partager !
Dans un contexte où la conversation publique se concentre sur les tendances de désinstallation de ChatGPT et les pics d’adoption de Claude, une histoire plus conséquente s’est déroulée discrètement. Le 27 février, Claude a été interdit d’utilisation fédérale en raison de préoccupations liées à la chaîne d’approvisionnement. Quelques heures plus tard, des rapports ont indiqué qu’il était néanmoins utilisé dans des flux de travail d’intelligence liés aux frappes en Iran.
Aucun débat parlementaire. Aucune explication publique. Simplement la nécessité opérationnelle qui l’emporte sur les limites politiques énoncées.
La tendance émergente
Ce schéma émerge dans la gouvernance de l’IA : des cadres construits pour l’optique de paix, avec des exceptions créées au moment où la vitesse, la capacité ou l’avantage stratégique sont en jeu. Les citoyens s’attendent de plus en plus à des garde-fous éthiques ; les institutions privilégient de plus en plus la flexibilité opérationnelle. Le retour de bâton que nous observons envers les outils d’IA de consommation est en partie dû au fait que le public remarque cet écart.
En prenant du recul, je reconnais que cette tension n’est pas limitée aux gouvernements. Je vois le même schéma dans les entreprises chaque jour. Le langage des « principes », « valeurs » et « responsabilité » tient jusqu’à ce que la pression opérationnelle arrive. À ce moment-là, le calcul change.
Les mouvements de gouvernance de l’IA cette semaine
Cette semaine, les développements ont obtenu un score de 56, en baisse par rapport à 68 la semaine dernière.
1. Claude interdit d’utilisation fédérale, puis utilisé dans les frappes en Iran
Un décret présidentiel a désigné Anthropic comme un risque pour la chaîne d’approvisionnement et a ordonné aux agences fédérales de cesser d’utiliser Claude ; des rapports ont ensuite indiqué que le Commandement central des États-Unis avait utilisé Claude pour des évaluations de renseignement.
2. OpenAI saisit un contrat avec le Pentagone, s’engage à interdire la surveillance domestique
OpenAI a conclu un accord pour déployer des modèles sur des réseaux classifiés du DoD et a révisé les termes pour interdire explicitement la surveillance domestique de masse.
3. Block annonce environ 4 000 suppressions d’emplois en raison de la restructuration liée à l’IA
Block a annoncé des licenciements touchant environ 4 000 employés, ce qui représente 40 % de sa main-d’œuvre, alors que la direction privilégie une transition vers des équipes plus petites, habilitées par l’AI.
4. Le Massachusetts déploie ChatGPT dans l’ensemble de la branche exécutive
Le gouverneur a annoncé un déploiement progressif d’un assistant alimenté par ChatGPT pour les employés de la branche exécutive de l’État.
5. OpenAI et Microsoft rejoignent une coalition mondiale pour la sécurité de l’IA dirigée par le Royaume-Uni
OpenAI et Microsoft ont promis un soutien financier et technique au projet d’alignement de l’Institut de sécurité de l’IA du Royaume-Uni.
Conclusion
Ce moment tranquille où Claude a été désigné comme un risque pour la chaîne d’approvisionnement et interdit d’utilisation fédérale, seulement pour être utilisé dans les frappes en Iran quelques heures plus tard, illustre où se situe la véritable gouvernance de l’IA. Les gouvernements et les laboratoires veulent théoriquement la même chose (sécurité, alignement, limites), mais seulement si cela n’interfère pas avec la prochaine guerre.
Alors que la pression s’intensifie, il est essentiel de questionner les contradictions et de rester attentif aux impacts de ces décisions sur la société.