Partenariat Yubico, IBM et Auth0 pour une IA Agentique Sécurisée

A digital hourglass with interlocking gears and a glowing, pulsating core, where the sand flows between two transparent, AI-infused chambers.

Yubico s’associe à IBM et Auth0 pour sécuriser l’IA agentique tout en garantissant la confiance et la gouvernance

Yubico a annoncé une collaboration stratégique avec IBM et Auth0 pour aider les organisations à déployer en toute sécurité des agents IA à grande échelle, introduisant un nouveau modèle d’autorisation impliquant l’humain pour des actions automatisées à haut risque.

Évolution des systèmes d’IA agentique

A mesure que les entreprises adoptent rapidement l’automatisation pilotée par l’IA, les systèmes d’IA agentique évoluent au-delà de simples rôles consultatifs pour agir en tant que « travailleurs numériques » capables d’exécuter des transactions, de déployer du code et d’accéder à des systèmes sensibles. Bien que ce changement promette des gains de productivité significatifs, il introduit également de nouveaux défis en matière de gouvernance et de sécurité.

Selon des données récentes du secteur, 87% des organisations signalent une augmentation des risques associés aux vulnérabilités de l’IA, tandis que 77% manquent de pratiques de sécurité fondamentales en matière d’IA.

Une solution conjointe pour atténuer les risques

La solution conjointe de Yubico, IBM et Auth0 répond à ce risque émergent en garantissant que les actions critiques pilotées par l’IA nécessitent une approbation humaine vérifiée cryptographiquement.

Les modèles traditionnels de gestion des identités et des accès étaient conçus pour des actions initiées par des humains. Cependant, à mesure que les agents IA commencent à fonctionner de manière autonome, les organisations doivent prouver non seulement qu’une action a eu lieu, mais aussi qui l’a autorisée.

La nouvelle architecture introduit un modèle d’« Humain dans la boucle » qui permet aux systèmes d’IA d’opérer de manière autonome pour des tâches de routine, tout en escaladant les actions à haut risque pour une approbation humaine sécurisée.

Cas d’utilisation dans les entreprises

Cette approche est conçue pour soutenir une large gamme de cas d’utilisation en entreprise, notamment :

  • Transactions financières de grande valeur
  • Déploiement de code en production
  • Accès à des données sensibles de l’entreprise
  • Approbations d’achats et intégration de fournisseurs
  • Actions de réponse à la sécurité impactant la disponibilité des systèmes

Confiance matérielle pour des décisions critiques

Au cœur du modèle se trouve l’authentification renforcée par du matériel, assurée par un dispositif d’authentification, garantissant que les approbations pour des actions sensibles sont liées à une identité vérifiée et à une présence physique.

Lorsqu’une action à haut risque est déclenchée, une demande d’approbation sécurisée est initiée via une authentification en arrière-plan, tandis que les agents IA orchestrent le flux de travail. L’utilisateur autorisé doit s’authentifier physiquement, fournissant une preuve cryptographique que :

  • La bonne personne a approuvé l’action
  • L’approbation ne peut pas être rejouée ou interceptée
  • La décision est liée de manière sécurisée à une identité vérifiée

Cela crée une piste de vérification claire et offre une non-répudiation, soutenant les exigences de conformité, de responsabilité financière et de gestion des risques.

Faciliter l’adoption sécurisée de l’IA à grande échelle

Les organisations font face à un moment critique alors que l’IA passe de l’expérimentation à l’exécution. Les agents IA deviennent rapidement une partie intégrante de la main-d’œuvre, capables de prendre des actions réelles dans les systèmes. Le défi consiste à garantir que cette rapidité ne se fasse pas au détriment de la confiance ou de la gouvernance.

En combinant l’authentification renforcée par du matériel avec l’orchestration intelligente des identités, les organisations peuvent sécuriser l’échelle de l’IA tout en s’assurant que les bonnes personnes restent en contrôle des décisions critiques.

Conclusion : Une nouvelle fondation pour l’entreprise autonome

À mesure que l’adoption de l’IA s’accélère dans divers secteurs, les organisations doivent repenser la manière dont elles gouvernent la prise de décision automatisée. Le modèle « Humain dans la boucle » représente un changement d’un contrôle de sécurité réactif à une autorisation proactive, intégrée directement dans les flux de travail de l’IA.

En intégrant une approbation humaine vérifiée cryptographiquement dans les actions à haut risque, les organisations peuvent libérer tout le potentiel de l’automatisation pilotée par l’IA tout en maintenant le contrôle, la transparence et la confiance.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...