Le problème de gouvernance de l’IA
L’intelligence artificielle (IA) façonne déjà des décisions réelles qui affectent les gens. Elle influence la suppression de contenu en ligne, le signalement de comportements nuisibles et la gestion des risques par les agences publiques.
Dans de nombreux contextes, l’IA n’est plus un sujet de test discret. Elle fait partie intégrante du fonctionnement des plateformes et des institutions.
Depuis des années, l’IA responsable était principalement discutée comme une question éthique, mettant l’accent sur l’équité, le biais, la transparence et les valeurs. Bien que ces conversations soient importantes, de nombreux échecs de l’IA ne sont pas seulement dus à des désaccords éthiques ou à des défauts techniques. Ils surviennent parce que la responsabilité est floue, la supervision est faible et l’autorité décisionnelle est répartie entre trop de parties.
Quand les systèmes d’IA échouent, la gouvernance échoue souvent en premier
De nos jours, l’IA est utilisée pour gérer l’échelle. Les plateformes de médias sociaux s’appuient sur des systèmes automatisés pour traiter des millions de publications chaque jour. Les agences publiques utilisent des outils d’IA pour prioriser les affaires, surveiller les dangers en ligne et soutenir le travail d’application.
Lorsque quelque chose tourne mal, la première question posée est souvent de savoir si le modèle était suffisamment précis. Cette question néglige le problème plus profond : dans de nombreux cas, la technologie aurait pu mieux fonctionner, mais la gouvernance environnante a échoué.
Les lacunes courantes en matière de gouvernance comprennent :
- Pas de propriétaire clair pour un système d’IA
- Supervision limitée avant le déploiement
- Faible escalade lorsque des dommages commencent à apparaître
- Responsabilité divisée entre ceux qui construisent les systèmes, ceux qui les déploient et ceux censés les réguler.
Leçons tirées des dommages en ligne et de la modération de contenu
De nombreux défis ont été abordés dans un podcast récent sur la modération de contenu, où des chercheurs et des régulateurs ont discuté des limites de l’IA et de la régulation en pratique. Un message était clair : les outils de modération IA existent déjà et sont largement utilisés. L’apprentissage automatique est essentiel en tant que premier filtre pour le contenu nuisible. Le problème plus difficile réside dans la manière dont ces outils sont gouvernés.
La modération de contenu fonctionne généralement en couches :
- Les systèmes automatisés signalent les dangers potentiels
- Les modérateurs humains examinent les cas complexes ou contestés
- Les régulateurs interviennent lorsque les plateformes échouent à agir.
Les ruptures se produisent lorsque l’une ou plusieurs de ces couches manquent de responsabilité. Les plateformes peuvent ne pas investir suffisamment dans le contexte linguistique et culturel local. La supervision peut s’appuyer sur des plaintes plutôt que sur la prévention. La responsabilité peut être transférée entre les entreprises qui construisent les systèmes, les plateformes qui les déploient et les autorités censées les superviser.
Où la responsabilité se brise
La manière dont la responsabilité est répartie autour des systèmes d’IA utilisés pour la sécurité en ligne et les services publics est complexe. Alors que les développeurs d’IA, les plateformes, les agences publiques et les régulateurs jouent tous un rôle dans la façon dont ces systèmes sont construits et déployés, les enfants et le grand public subissent les conséquences avec le moins de capacité à influencer les décisions.
Ce réseau aide à expliquer pourquoi les dommages causés par l’IA ne résultent pas rarement d’un échec unique. Les systèmes d’IA sont développés par un groupe, déployés par un autre, supervisés à distance et expérimentés le plus directement par le public. Lorsque l’appartenance, la supervision et l’escalade ne sont pas clairement connectées, les dommages tombent dans les lacunes entre les institutions.
La sécurité des enfants montre pourquoi la gouvernance est essentielle
Les risques sont particulièrement évidents lorsque des enfants sont impliqués. Les deepfakes générés par l’IA et les images synthétiques ont facilité la création d’abus en ligne et ont rendu leur détection plus difficile. Des alertes indiquent que l’IA introduit de nouveaux risques pour les enfants qui ne peuvent pas être résolus uniquement par la technologie.
Un exemple récent illustre cela clairement : un chatbot a été critiqué après avoir été signalé pour son potentiel d’utilisation abusive dans la création d’images sexuelles non consensuelles. Cela montre à quel point les dommages peuvent se déplacer rapidement d’outils de niche vers des plateformes grand public. Une capacité qui aurait dû être bloquée au stade de la conception peut se répandre largement avant que les mesures de sécurité ne rattrapent le retard. Cela constitue un échec de la gouvernance, et non simplement un échec de détection.
L’IA dans le secteur public présente des risques cachés
L’IA est également adoptée dans les services publics, de l’éducation et du bien-être à l’application numérique et à la sécurité en ligne. Ces systèmes influencent des résultats réels pour des personnes réelles. Lorsque l’IA du secteur public échoue, l’impact dépasse la performance technique. Il affecte la confiance dans les institutions.
Cependant, la gouvernance est souvent en retard par rapport à l’adoption. Les systèmes d’IA peuvent être introduits sans examen indépendant, sans responsabilité claire pour les résultats et sans moyens transparents pour les citoyens de remettre en question les décisions. Lorsque quelque chose tourne mal, une question simple émerge : Qui est responsable ?
Si les institutions ne peuvent pas répondre à cette question de manière claire, la confiance du public s’érode rapidement.
Ce à quoi ressemble l’IA responsable en pratique
L’IA responsable ne signifie pas éviter l’IA. Cela signifie la gouverner correctement. En pratique, cela implique :
- Une propriété claire de chaque système d’IA
- Des rôles définis pour la supervision et l’examen
- Une documentation des décisions et des évaluations des risques
- Un suivi continu de l’impact dans le monde réel
- La capacité de suspendre ou de retirer des systèmes lorsque des dommages apparaissent.
Il est également important de reconnaître que tous les risques ne peuvent pas être résolus par de meilleurs modèles. Les décisions concernant l’utilisation acceptable, l’escalade et l’application sont des décisions humaines. Elles nécessitent un leadership au niveau senior et du conseil d’administration.
De la discussion à la prise de décision
L’IA responsable est passée de la discussion à la prise de décision. Les questions clés ne sont plus abstraites :
- Qui possède le système ?
- Qui le supervise ?
- Qui agit lorsque des dommages commencent à apparaître ?
Les institutions qui ne peuvent pas répondre clairement à ces questions seront confrontées à des risques réglementaires, réputationnels et de confiance, quelle que soit l’avancée de leur technologie.
À mesure que l’IA devient plus intégrée dans la vie publique, l’IA responsable doit être considérée comme une responsabilité de gouvernance fondamentale. C’est ainsi que la confiance est construite, que les dommages sont réduits et que l’innovation peut se poursuivre d’une manière que la société est prête à accepter.