Kyndryl souhaite aider les entreprises à maîtriser les agents IA et à éviter les erreurs de conformité coûteuses
Kyndryl a annoncé une nouvelle fonctionnalité appelée « politique en tant que code », visant à aider les organisations à déployer des agents IA dans des environnements complexes et réglementés.
Politique en tant que code
L’objectif est de transformer les règles organisationnelles, les exigences réglementaires et les contrôles opérationnels d’une entreprise en politiques lisibles par machine qui régissent où les agents peuvent et ne peuvent pas opérer.
Les organisations mettent généralement en œuvre la politique en tant que code à travers une combinaison de langages de politique déclarative et de moteurs d’application, ce qui permet d’incorporer les réglementations appropriées et les règles opérationnelles dans un code que les agents IA peuvent lire et doivent respecter. Si c’est dans le code, l’agent IA doit l’exécuter. Et si une instruction n’est pas dans le code, l’agent IA ne peut ni la voir ni agir en conséquence.
Contexte et préoccupations
Cette initiative intervient dans un contexte de préoccupations croissantes concernant la conformité réglementaire pour les entreprises qui intensifient l’adoption des agents IA. Selon Kyndryl, plus de 30 % de ses clients se plaignent que les problèmes de conformité limitent sérieusement leur capacité à développer leurs récents investissements technologiques.
La nouvelle capacité de politique en tant que code vise à définir les limites opérationnelles et à concevoir les actions des agents pour rester explicables, examinables et alignées sur les exigences commerciales et réglementaires définies par les clients.
Fonctionnalités et avantages
Cette fonctionnalité sera directement intégrée dans le cadre Kyndryl Agentic AI, lancé l’été dernier comme un portefeuille d’agents IA spécialisés, autodirigés et autoapprenants.
Les caractéristiques comprennent une exécution déterministe, où les agents n’exécutent que les actions qui ont été autorisées et appliquées à l’avance. Des garde-fous empêchent les actions imprévisibles ou non autorisées, éliminant l’impact opérationnel des hallucinations des agents. Chaque action et décision de l’agent est enregistrée et explicable, soutenant ainsi la conformité et la supervision.
Il est important de noter que les décisions sont soumises à une supervision humaine, les agents exécutant des tâches alignées sur des politiques établies et testables, surveillées via un tableau de bord.
Implications pour les industries réglementées
La politique en tant que code devrait être particulièrement précieuse dans les secteurs fortement réglementés, tels que les services financiers, la santé et le gouvernement. Cela permet à ces industries de réaliser pleinement les avantages de l’IA en réduisant le risque d’échecs de conformité qui nuisent à la réputation et entraînent des pénalités financières lourdes.
En appliquant des règles programmatiques à grande échelle, la politique en tant que code aide à éliminer l’erreur humaine qui peut entraîner l’octroi de permissions inappropriées aux IA, l’interprétation incohérente des règles et réglementations, et l’absence de documentation des exceptions aux opérations standard.