Le Grand Équilibre Algorithmique : Singapour sur le Fil du Rasoir de l’IA
Singapour, prêt à célébrer six décennies de progrès remarquable, se trouve maintenant à un autre type de précipice. À mesure que la nation insulaire dévoile sa Stratégie Nationale de l’IA 2.0 — qui met à jour la version de 2019 avec de nouveaux facilitateurs, des actions concrètes et un accent sur l’IA générative — Singapour se positionne comme un innovateur et régulateur de l’IA.
Cependant, dans l’ombre se cachent les spectres de la vie privée des données, du biais de l’IA, et de ces irritants « hallucinations » — la capacité de l’IA à cracher des absurdités avec la confiance d’un politicien chevronné. Ainsi, une question cruciale pèse lourdement dans l’air humide de ses dynamiques zones d’affaires : l’ambition peut-elle vraiment devancer la bête indomptée de l’IA ?
Le problème de la confiance avec GenAI
Ce facteur de confiance est primordial. Une enquête menée par Salesforce auprès de ses clients a révélé que 50 % d’entre eux n’accordaient pas leur confiance à ce que l’IA faisait de leurs informations. Ce scepticisme n’est pas sans fondement. Les entreprises déployant des systèmes d’IA sans gouvernance adéquate risquent d’exposer des données sensibles, d’incorporer des biais ou de prendre des décisions qui ne peuvent pas être expliquées — autant de mines potentielles dans l’environnement d’affaires hautement régulé de Singapour.
Une étude récente menée par Boomi en collaboration avec MIT Technology Review Insights révèle des chiffres alarmants : 45 % des entreprises freinent leurs projets d’IA en raison de cauchemars liés à la gouvernance, à la sécurité et à la vie privée. Un impressionnant 98 % préférerait attendre pour s’assurer qu’elles ne jouent pas avec les données des gens.
C’est également là que l’approche de Singapour diffère considérablement des régulations strictes de l’Europe. Plutôt que de mesures punitives immédiates, le cadre de Singapour établit des garde-fous tout en favorisant l’innovation.
Le cadre de gouvernance de l’IA de Singapour
Le cadre interconnecte également avec le nouveau Modèle de Cadre de Gouvernance de l’IA pour l’IA Générative (MGF-Gen AI) publié l’année dernière. Alors que le cadre souligne des objectifs clés, le MGF-Gen AI le concrétise en encourageant le développement d’une IA de confiance et l’innovation responsable.
Des initiatives comme la Fondation AI Verify et le pilote d’assurance IA de l’IMDA créent des méthodologies de test pour les applications d’IA générative — une étape cruciale pour les entreprises en difficulté avec leur mise en œuvre.
Les défis uniques de Singapour
Pourtant, Singapour fait face à des défis uniques. En tant que plaque tournante des affaires mondiale où même les PME opèrent à l’international, le cadre doit prendre en compte les complexités transfrontalières aggravées par le manque de directives ou de cadres régionaux solides comme dans l’UE.
« Utiliser un modèle dans un pays avec un ensemble spécifique de problèmes linguistiques, culturels et de données peut donner un résultat très différent d’un autre pays », note l’expert. Cela crée un problème épineux : le biais en Malaisie peut ne pas être le même qu’en Thaïlande, et le cadre de Singapour doit être suffisamment flexible pour s’adapter à ces nuances régionales.
La qualité des données comme fondement
Pour les entreprises cherchant à mettre en œuvre l’IA de manière responsable, la qualité des données reste la base. « Si vous ramenez tout à la base, c’est les données que nous devons d’abord comprendre dans l’organisation, et c’est la qualité des données que nous devons améliorer pour pouvoir fonder ces modèles », explique l’expert.
Mais que se passe-t-il lorsque plusieurs équipes déploient plusieurs solutions d’IA sans coordination ? Le résultat est souvent une sprawl d’IA — différents départements mettant en œuvre des systèmes disparates avec des degrés de gouvernance variés.
Les registres d’agents entrent en jeu — des systèmes de surveillance centralisés qui suivent les déploiements d’IA au sein d’une organisation. « Un registre d’agents consiste à fournir une vue synchronisée de tous les agents en opération au sein de votre organisation, à surveiller leurs activités et à garantir la conformité avec tous les cadres », explique-t-on.
Le dilemme de la responsabilité
Le cadre de Singapour met l’accent sur la responsabilité — un principe qui devient de plus en plus difficile à appliquer à mesure que les systèmes d’IA deviennent plus autonomes. « Seule l’intervention humaine pourra garantir qu’il y a responsabilité pour les décisions que l’IA prend », insiste-t-on. « Jusqu’à ce que l’IA puisse agir de manière autonome sans intervention humaine, nous devrons intervenir. »
Cette capacité d’intervention est précisément ce que Boomi intègre dans sa plateforme de gouvernance de l’IA — un “kill switch” qui désactive les agents lorsque des comportements inappropriés sont détectés.
Mais le cadre de Singapour suppose des modèles d’IA statiques, alors que la réalité est beaucoup plus désordonnée. Les modèles dérivent avec le temps, créant une cible mouvante pour la gouvernance.
Les étapes pragmatiques à suivre
Pour les entreprises de Singapour et de l’ASEAN confrontées à la mise en œuvre de la gouvernance de l’IA, il est conseillé de commencer par des victoires rapides.
« Si vous cherchez à adopter l’IA pour votre entreprise, trouvez où se trouvent ces victoires rapides — où pouvez-vous obtenir un retour sur investissement ? » Deux cas d’utilisation se démarquent : améliorer les chatbots avec la génération augmentée par récupération (RAG) et la résumé de documents.
Cependant, quelle que soit l’application, une gouvernance efficace nécessite une standardisation. « Jusqu’à ce que nous ayons une standardisation entre les agents, la gouvernance sera vraiment difficile », prévient-on.
Alors que la stratégie d’IA de Singapour se déploie, elle offre un chemin intermédiaire entre innovation et réglementation. Mais pour les entreprises coincées entre les systèmes hérités et les impératifs de l’IA, le parcours reste difficile.
« Beaucoup d’entreprises sont encore coincées avec des systèmes hérités et une technologie obsolète », observe-t-on. « Elles se trouvent dans cette dichotomie où l’on leur dit qu’elles doivent adopter l’IA, générer de nouvelles sources de revenus et rester compétitives, mais sont freinées par des systèmes hérités, des silos de données, des silos organisationnels et des ressources limitées. »
Dans cette tension entre ambition et capacité réside le véritable test de la stratégie d’IA de Singapour — non seulement créer des cadres, mais aussi aider les entreprises à se transformer de la base.