Lancement des Spécifications de Sécurité AI Open-Source par Agentik.md Avant les Régulations AI de l’UE et du Colorado en 2026
WellStrategic a lancé le AI Agent Safety Stack — douze spécifications de fichiers Markdown open-source gratuites qui définissent les protocoles d’arrêt, les limites de sécurité et les normes de responsabilité pour les agents AI autonomes. Ces spécifications sont conçues pour aider les organisations à documenter les contrôles de sécurité AI avant les délais d’application des lois AI de l’UE et du Colorado en 2026.
Contexte Réglementaire
Les agents AI autonomes — des systèmes logiciels capables de planifier, décider et agir sans direction humaine continue — s’intègrent rapidement dans les environnements d’entreprise. Les analystes prévoient qu’une proportion significative des applications d’entreprise intégrera des agents AI d’ici la fin de 2026. Cependant, il n’existe actuellement aucun format largement adopté et contrôlé de version pour documenter leurs limites de sécurité parallèlement au code du projet.
Le AI Agent Safety Stack comble cette lacune en fournissant un ensemble de fichiers Markdown en texte brut, chacun abordant une préoccupation de sécurité, pouvant être placés à la racine d’un dépôt de projet. L’approche suit le modèle établi par AGENTS.md, une convention de fichiers pour les instructions de projet AI maintenant utilisée dans plus de 60 000 dépôts open-source.
Les Douze Spécifications
Les spécifications sont organisées en quatre catégories :
Contrôle Opérationnel
THROTTLE.md — Limitation de débit, plafonds de coût et protocoles de ralentissement automatique
ESCALATE.md — Approbation humaine et flux de notification
FAILSAFE.md — États de secours sûrs et procédures de récupération
KILLSWITCH.md — Déclencheurs d’arrêt d’urgence et chemins d’escalade
TERMINATE.md — Arrêt permanent avec conservation des preuves
Sécurité des Données
ENCRYPT.md — Classification des données, gestion des secrets et règles de transmission
ENCRYPTION.md — Normes cryptographiques, gestion des clés et cartographie de conformité
Qualité de Sortie
SYCOPHANCY.md — Détection de biais de sortie et protocoles de désaccord
COMPRESSION.md — Règles de compression contextuelle et vérification de cohérence
COLLAPSE.md — Détection de dérive de modèle et points de contrôle de récupération
Responsabilité
FAILURE.md — Cartographie des modes de défaillance et procédures de réponse aux incidents
LEADERBOARD.md — Évaluation des performances des agents et détection de régression
Disponibilité
Toutes les douze spécifications sont disponibles immédiatement sous la licence MIT. La documentation complète est également fournie.
Conclusion
Le AI Agent Safety Stack est un projet open-source conçu pour aider les organisations à documenter leurs contrôles de sécurité AI dans un format contrôlé de version, auditable et co-localisé avec le code du projet. Bien qu’utile, il ne garantit pas la conformité à la réglementation et ne doit pas être considéré comme un substitut à des conseils juridiques ou de conformité qualifiés.