Avenir audacieux de Workday avec une IA agentique responsable
Dans cet article, nous abordons :
- Se concentrer à la fois sur la technologie et les personnes
- Embrasser l’avenir tout en respectant nos valeurs fondamentales
Évolution de l’IA
Alors que l’IA entre dans sa prochaine évolution—les agents—le cadre de gouvernance de l’IA responsable (RAI) continue de guider les décisions concernant le développement des produits. Les agents IA, qui sont des systèmes conçus pour traduire les intentions des utilisateurs en actions coordonnées, ouvrent un monde de potentiel sur le lieu de travail. Avec ces nouvelles capacités, de nouvelles considérations concernant l’IA responsable émergent.
Nous croyons que la véritable innovation signifie apporter une valeur positive réelle à nos clients tout en évitant les dommages. C’est pourquoi notre engagement envers une IA éthique et responsable est plus crucial que jamais. Tout cela revient à nos valeurs fondamentales : Intégrité et Innovation. Ces mêmes principes éthiques de l’IA servent de boussole, guidant chaque décision que nous prenons pour garantir que l’IA que nous construisons est fiable. L’IA responsable n’est pas un ajout pour nous ; elle est au cœur de notre stratégie.
Se concentrer à la fois sur la technologie et les personnes
Notre approche de l’IA responsable est holistique—ce que nous appelons sociotechnique. Cela signifie que nous examinons l’ensemble du tableau : non seulement la technologie sous le capot, mais aussi comment de vraies personnes l’utilisent dans de véritables environnements de travail. Nous concevons nos garde-fous autour de la manière dont l’IA interagit avec les équipes, les processus et l’ensemble de l’organisation.
L’IA agentique introduit une nouvelle dynamique, passant de l’assistance à l’action autonome, et c’est pourquoi nous adaptons notre cadre flexible existant pour évoluer avec les nouveaux risques et capacités.
Considérations techniques
L’IA agentique entraîne un changement technique majeur. Pour la gouverner, nous nous concentrons sur trois domaines clés—des risques qui sont également centraux pour les réglementations émergentes comme la loi sur l’IA de l’UE :
- Autonomie : Nous sommes délibérés quant aux actions que les agents peuvent entreprendre par eux-mêmes. Nous priorisons les droits humains et la sécurité, en veillant à ce que des décisions conséquentes, comme l’embauche, restent toujours entre les mains d’un humain et ne soient jamais automatisées.
- Transparence : Les actions des agents doivent être visibles et traçables. Une piste de vérification est essentielle pour que les clients et les développeurs puissent reconstruire le comportement, repérer les actions mal alignées et garantir responsabilité et conformité.
- Sécurité : Les agents ayant accès aux outils d’entreprise peuvent poser des risques de sécurité. Pour limiter les dommages et protéger la confiance, les agents fonctionnent selon un modèle de « moindre privilège », héritant uniquement des autorisations existantes de l’utilisateur humain.
Considérations sociales
Les garde-fous techniques ne constituent que la moitié de l’histoire. L’autre moitié concerne les humains. Lorsque les organisations adoptent des solutions d’IA agentiques, nous devons repenser comment cela peut impacter les personnes, y compris l’évolution de leurs emplois. De nouveaux risques émergent lorsque les humains et les agents commencent à collaborer. C’est pourquoi le côté social de notre gouvernance se concentre sur trois domaines clés :
- Responsabilité : Il est essentiel de clarifier qui est responsable de quoi. Nous veillons à ce que les humains gardent le contrôle des décisions conséquentes, mais les utilisateurs doivent également comprendre leur rôle dans la compréhension et la supervision de la technologie.
- Évaluations : Nous évaluons au-delà de la simple qualité de sortie. Nous testons le comportement des agents : comment ils interprètent les instructions, prennent des décisions et réagissent lorsque les choses tournent mal. Cela nécessite des évaluations continues basées sur des scénarios en fonction du niveau d’autonomie de l’agent.
- Gestion du changement : Nous croyons en guidant nos employés à travers le parcours de l’IA pour garantir une transition fluide et instaurer la confiance. Nous plaçons des valeurs centrées sur l’humain et des garde-fous de sécurité clairs afin que les employés comprennent à la fois le « pourquoi » et le « comment » d’un partenariat réussi avec l’IA.
Embrasser l’avenir tout en respectant nos valeurs fondamentales
Nous sommes engagés à construire des agents IA responsables et dignes de confiance, ancrés dans nos valeurs fondatrices et nos principes éthiques. Cela est possible grâce à notre solide cadre de gouvernance, qui a été intentionnellement conçu pour l’agilité, permettant à nos principes fondamentaux de s’étendre naturellement et avec confiance à l’espace agentique. Alors que la technologie, la politique et les réglementations continuent d’évoluer, nous sommes sur des bases solides et n’avons pas besoin de repenser fondamentalement notre approche. En restant fidèles à l’intégrité et à l’innovation, nous sommes convaincus que notre approche principielle de l’IA agentique débloquera un potentiel significatif et contribuera à transformer le monde du travail pour le mieux.