Yubico s’associe à IBM et Auth0 pour sécuriser l’IA agentique tout en garantissant la confiance et la gouvernance
Yubico a annoncé une collaboration stratégique avec IBM et Auth0 pour aider les organisations à déployer en toute sécurité des agents IA à grande échelle, introduisant un nouveau modèle d’autorisation impliquant l’humain pour des actions automatisées à haut risque.
Évolution des systèmes d’IA agentique
A mesure que les entreprises adoptent rapidement l’automatisation pilotée par l’IA, les systèmes d’IA agentique évoluent au-delà de simples rôles consultatifs pour agir en tant que « travailleurs numériques » capables d’exécuter des transactions, de déployer du code et d’accéder à des systèmes sensibles. Bien que ce changement promette des gains de productivité significatifs, il introduit également de nouveaux défis en matière de gouvernance et de sécurité.
Selon des données récentes du secteur, 87% des organisations signalent une augmentation des risques associés aux vulnérabilités de l’IA, tandis que 77% manquent de pratiques de sécurité fondamentales en matière d’IA.
Une solution conjointe pour atténuer les risques
La solution conjointe de Yubico, IBM et Auth0 répond à ce risque émergent en garantissant que les actions critiques pilotées par l’IA nécessitent une approbation humaine vérifiée cryptographiquement.
Les modèles traditionnels de gestion des identités et des accès étaient conçus pour des actions initiées par des humains. Cependant, à mesure que les agents IA commencent à fonctionner de manière autonome, les organisations doivent prouver non seulement qu’une action a eu lieu, mais aussi qui l’a autorisée.
La nouvelle architecture introduit un modèle d’« Humain dans la boucle » qui permet aux systèmes d’IA d’opérer de manière autonome pour des tâches de routine, tout en escaladant les actions à haut risque pour une approbation humaine sécurisée.
Cas d’utilisation dans les entreprises
Cette approche est conçue pour soutenir une large gamme de cas d’utilisation en entreprise, notamment :
- Transactions financières de grande valeur
- Déploiement de code en production
- Accès à des données sensibles de l’entreprise
- Approbations d’achats et intégration de fournisseurs
- Actions de réponse à la sécurité impactant la disponibilité des systèmes
Confiance matérielle pour des décisions critiques
Au cœur du modèle se trouve l’authentification renforcée par du matériel, assurée par un dispositif d’authentification, garantissant que les approbations pour des actions sensibles sont liées à une identité vérifiée et à une présence physique.
Lorsqu’une action à haut risque est déclenchée, une demande d’approbation sécurisée est initiée via une authentification en arrière-plan, tandis que les agents IA orchestrent le flux de travail. L’utilisateur autorisé doit s’authentifier physiquement, fournissant une preuve cryptographique que :
- La bonne personne a approuvé l’action
- L’approbation ne peut pas être rejouée ou interceptée
- La décision est liée de manière sécurisée à une identité vérifiée
Cela crée une piste de vérification claire et offre une non-répudiation, soutenant les exigences de conformité, de responsabilité financière et de gestion des risques.
Faciliter l’adoption sécurisée de l’IA à grande échelle
Les organisations font face à un moment critique alors que l’IA passe de l’expérimentation à l’exécution. Les agents IA deviennent rapidement une partie intégrante de la main-d’œuvre, capables de prendre des actions réelles dans les systèmes. Le défi consiste à garantir que cette rapidité ne se fasse pas au détriment de la confiance ou de la gouvernance.
En combinant l’authentification renforcée par du matériel avec l’orchestration intelligente des identités, les organisations peuvent sécuriser l’échelle de l’IA tout en s’assurant que les bonnes personnes restent en contrôle des décisions critiques.
Conclusion : Une nouvelle fondation pour l’entreprise autonome
À mesure que l’adoption de l’IA s’accélère dans divers secteurs, les organisations doivent repenser la manière dont elles gouvernent la prise de décision automatisée. Le modèle « Humain dans la boucle » représente un changement d’un contrôle de sécurité réactif à une autorisation proactive, intégrée directement dans les flux de travail de l’IA.
En intégrant une approbation humaine vérifiée cryptographiquement dans les actions à haut risque, les organisations peuvent libérer tout le potentiel de l’automatisation pilotée par l’IA tout en maintenant le contrôle, la transparence et la confiance.