Le pouvoir de mettre en pratique la gouvernance de l’IA
Pour que l’intelligence artificielle (IA) dans le gouvernement ait un impact positif, elle doit être digne de confiance pour les employés qui l’utilisent et pour les citoyens dont la vie peut en être affectée. La gouvernance de l’IA est impérative pour garantir une utilisation responsable. Mais qu’est-ce que la gouvernance de l’IA et comment doit-elle être abordée et mise en œuvre ?
Un décalage entre l’adoption et la gouvernance de l’IA
Un rapport récent a révélé que, bien que 78 % des organisations du secteur public à l’échelle mondiale affirment faire pleinement confiance à l’IA, seulement 40 % ont investi dans la gouvernance et les mesures de protection nécessaires pour rendre cette confiance fondée. Ce décalage est significatif. L’IA n’est plus réservée aux projets pilotes ou aux expérimentations en arrière-boutique. Elle est de plus en plus intégrée dans les flux de travail gouvernementaux quotidiens, automatisant des tâches autrefois effectuées manuellement par des fonctionnaires. L’IA influence de plus en plus les actions et décisions ayant de réelles conséquences pour les citoyens.
Les enjeux de la confiance
L’automatisation accroît les enjeux liés à la confiance. Les employés peuvent-ils faire confiance aux résultats de l’IA pour prendre des décisions importantes ? Les citoyens peuvent-ils avoir confiance en leurs gouvernements pour utiliser leurs données de manière responsable et déployer l’IA équitablement ? La gouvernance de l’IA existe pour aider les organisations à répondre « oui » à ces questions. Elle constitue le cadre stratégique et opérationnel qui garantit que l’IA est digne de confiance, éthique et conforme.
Au-delà de la conformité
Lorsque les gens entendent parler de gouvernance, ils pensent souvent à des réglementations. Mais la réglementation n’est pas le point de départ pour les gouvernements. La confiance est primordiale. La politique est souvent le mécanisme que les gouvernements utilisent pour instaurer la confiance à grande échelle. La gouvernance ne doit pas être uniquement motivée par des obligations de conformité. Elle doit commencer dès le début, avec une responsabilité claire, une classification des risques et une transparence intégrées dans les systèmes d’IA dès leur conception.
Intentionalité et confiance opérationnelle
Dans le secteur public, les risques de l’IA vont des préjudices personnels, comme des décisions d’attribution de prestations injustes, aux préjudices systémiques, tels que l’érosion de la confiance dans les institutions publiques. La gouvernance de l’IA atténue ces risques en établissant des normes claires, des mécanismes de responsabilité, des exigences de transparence et des structures de supervision multidisciplinaires qui incluent l’éthique, le droit et l’expertise sectorielle.
Culture et littéracie de l’IA
La gouvernance est autant une question de personnes que de technologie. La littéracie en matière d’IA est au cœur de la construction d’une culture d’innovation responsable. Sans une compréhension de base du fonctionnement des systèmes d’IA et de leurs limites, il est difficile pour les leaders, les employés et les décideurs d’acheter, de déployer et de superviser leur IA. Construire une culture qui comprend l’IA et la gouvernance de l’IA permet une prise de décision plus éclairée, réduit les risques et renforce la confiance dans les résultats de l’IA.
Conclusion
Les gouvernements ont un travail important à accomplir pour garantir que leurs systèmes de données et d’IA soient aussi dignes de confiance que leurs employés et citoyens en ont besoin et en attendent. Le moment d’investir dans la gouvernance de l’IA est maintenant.