Agentic AI obtient un cadre de règles : Singapour insiste sur le fait que les humains doivent rester aux commandes
Alors que les entreprises d’intelligence artificielle (IA) continuent de vanter les avantages des agents IA capables d’automatiser certains flux de travail dans un environnement d’entreprise, le gouvernement de Singapour a publié un nouveau cadre conçu pour protéger contre les risques posés par le déploiement de l’IA agentique et pour garantir le développement responsable de cette technologie.
Le cadre de gouvernance de l’IA modèle pour l’IA agentique a été publié par l’Autorité de développement des médias et de l’informatique de Singapour, avec un accent particulier sur les risques liés à cette technologie et son impact sur les humains dans le milieu de travail.
Évolution du cadre de gouvernance
Le nouveau cadre, publié ce mois-ci, s’appuie sur le cadre de gouvernance de l’IA modèle de Singapour de 2019, qui se concentrait à l’époque sur des principes tels que la transparence, l’équité et l’humanité. Des discussions ont eu lieu concernant les risques de l’IA, en particulier de l’IA agentique et la marche vers l’intelligence générale artificielle (AGI).
Singapour fait partie des pays utilisant l’IA dans les services gouvernementaux, ayant déployé avec succès des assistants virtuels pour son secteur public. Bien d’autres pays ont également suivi cette approche.
Importance de la supervision humaine
Le cadre de l’IA agentique de Singapour souligne que le point de départ des risques avec l’IA agentique réside dans les grands modèles de langage (LLM) sur lesquels ils sont basés. Les menaces sont doubles, comprenant des lacunes inhérentes telles que l’hallucination, le biais, la fuite de données ou les injections de requêtes malveillantes, ainsi que des vulnérabilités logicielles.
Il est clairement indiqué que la supervision humaine reste un élément crucial et obligatoire. Bien que les agents puissent agir de manière autonome, la responsabilité humaine continue de s’appliquer. Une fois le feu vert donné pour déployer l’IA agentique, une organisation doit prendre des mesures immédiates pour rendre les humains significativement responsables.
Évaluation des risques
Les organisations déployant des agents IA doivent avoir des processus techniques et des contrôles en place pour l’ensemble du déploiement de l’IA, y compris des tests de sécurité de base, des garde-fous ainsi qu’une surveillance continue. Ce cadre encourage également les organisations à peser les cas d’utilisation appropriés pour le déploiement d’agents avec une attention particulière aux facteurs spécifiques à chaque agent.
Une étude récente a estimé que les systèmes d’IA agentique pourraient aider à débloquer des valeurs annuelles de 2,6 à 4,4 trillions de dollars à travers plus de 60 cas d’utilisation d’IA générative, y compris le service client, le développement logiciel, l’optimisation de la chaîne d’approvisionnement et la conformité.
Limitation des pouvoirs des agents
Les lignes directrices de Singapour stipulent qu’il est impératif que les organisations veillent à ce que les pouvoirs des agents soient limités afin d’équilibrer les risques potentiels. Il est obligatoire de définir des politiques permettant aux agents d’accéder aux outils et données minimaux nécessaires pour accomplir leurs tâches.
Les agents d’IA nécessiteront également une gestion de l’identité. La gestion des identités et le contrôle d’accès sont des moyens clés permettant de garantir la traçabilité et la responsabilité, même pour les agents.
Conclusion
Le cadre mis en place par Singapour représente une avancée significative dans la gouvernance de l’IA agentique, soulignant l’importance d’un équilibre entre l’autonomie des agents et la responsabilité humaine. La mise en œuvre efficace de ces directives pourrait garantir un avenir où l’IA peut être utilisée de manière sûre et bénéfique dans divers secteurs.