La Loi sur l’IA de l’UE : Un Cadre pour les Gouvernements et les Technologies Emergentes
Lorsque l’on parle de la Loi sur l’IA de l’UE, les géants de la technologie de la Silicon Valley et les startups européennes viennent souvent à l’esprit. Cependant, un acteur moins discuté mérite également notre attention : l’État lui-même.
En 2020, le système SyRI néerlandais, un algorithme conçu pour détecter la fraude sociale, a été déclaré illégal par un tribunal pour violation des droits de l’homme. Avec la Loi sur l’IA de l’UE, les organismes publics utilisant de tels systèmes seront désormais soumis à des obligations strictes.
Les Gouvernements : Plus Qu’un Simple Règlement
Les gouvernements européens jouent un double rôle : ils supervisent la conformité aux règles de l’IA dans la société tout en déployant eux-mêmes des systèmes d’IA. Cela n’est pas une théorie ; les organismes publics utilisent déjà l’IA pour :
- Contrôle des frontières et de la migration (par exemple, le profilage des risques aux frontières de Schengen)
- Détection de la fraude sociale (comme le scoring des bénéficiaires)
- Alerte prédictive en cas de crise (prévisions stratégiques de conflits)
De nombreuses applications de ces systèmes tombent dans la catégorie des « hauts risques », ce qui signifie qu’elles doivent respecter des exigences strictes en matière de transparence, de gestion des risques, de documentation et de supervision humaine. Les autorités publiques ne bénéficient pas d’une exemption automatique.
Obligations Clés pour les Institutions Publiques
Si un organisme public développe, déploie ou achète un système d’IA, il doit comprendre ses responsabilités en vertu de la loi. Ces obligations varient selon la catégorie de risque.
Si le Système d’IA est de Haut Risque
Les cas d’utilisation dans le secteur public, tels que le contrôle aux frontières ou la détection de fraude au bien-être, sont souvent classés comme hauts risques. Voici les obligations spécifiques :
- Classification des risques : Déterminer si le système est de haut risque. Si l’organisme public est le fournisseur, il doit enregistrer le système dans la base de données de l’IA de l’UE et subir une évaluation de conformité.
- Transparence et information des citoyens : Informer les individus lorsque des décisions sont automatisées, notamment si ces décisions affectent leurs droits (par exemple, éligibilité aux prestations, approbations de visa).
- Gouvernance et documentation : Mettre en œuvre un système de gestion des risques, assurer la qualité et l’impartialité des données d’entraînement, garantir une supervision humaine, et permettre la tenue de registres et de rapports d’incidents.
- Responsabilités d’approvisionnement : Lors de l’acquisition du système, s’assurer que le fournisseur respecte la Loi sur l’IA et que les contrats couvrent la conformité, la responsabilité et les mises à jour.
Si le Système d’IA est de Risque Limité
Les systèmes qui n’impliquent pas de décisions critiques mais interagissent avec les citoyens, tels que la plupart des chatbots, sont considérés comme des risques limités. Les obligations sont limitées à :
- Obligations de transparence : Les citoyens doivent être informés qu’ils interagissent avec une IA, par exemple avec une mention comme « Cette conversation est gérée par un système d’IA. »
- Le contenu généré par l’IA doit être clairement étiqueté comme tel.
Défis pour le Secteur Public
Bien que la Loi sur l’IA fournisse des règles claires, sa mise en œuvre ne sera pas facile pour les institutions publiques :
- Systèmes hérités : De nombreuses agences dépendent de systèmes informatiques obsolètes, rendant l’intégration de l’IA et la surveillance difficiles.
- Décentralisation : Dans des systèmes fédéraux comme l’Allemagne, les responsabilités sont réparties entre plusieurs niveaux, rendant la conformité plus complexe.
- Ressources limitées : La conformité nécessite une expertise, de la documentation, des tests et une surveillance, que de nombreuses municipalités ou agences n’ont pas.
- Dépendance des fournisseurs : De nombreux systèmes d’IA sont développés en externe. En cas de non-conformité, la responsabilité est souvent floue.
Que Va-t-il se Passer Ensuite ?
Malgré son ambition, la Loi sur l’IA soulève des questions critiques :
- Les petites et moyennes institutions publiques seront-elles submergées ? La plupart n’ont pas d’officier d’éthique de l’IA ou d’équipe de conformité.
- Comment l’application fonctionnera-t-elle pour les institutions publiques ? Les régulateurs nationaux auditeront-ils les ministères et quelles seront les conséquences en cas d’échec ?
- La peur des pénalités freinera-t-elle l’innovation ? Les agences pourraient éviter d’utiliser l’IA pour échapper au risque.
- Où sont les ressources ? Sans financement et formation, de nombreux organismes du secteur public auront du mal à répondre aux exigences, même avec les meilleures intentions.
Conclusion : L’État Doit Pratiquer Ce Qu’il Prêche
Depuis des années, le secteur public encourage une IA éthique et responsable dans la société. Désormais, avec la Loi sur l’IA de l’UE, les gouvernements doivent mettre en pratique leurs propres discours.
Les institutions publiques ont maintenant l’occasion de montrer l’exemple. Si elles échouent, elles risquent de compromettre à la fois la conformité et la confiance du public. La Loi mettra à l’épreuve la capacité des gouvernements à appliquer leurs préceptes. S’ils réussissent, l’Europe pourrait établir la norme mondiale pour une IA publique fiable. En revanche, s’ils échouent, cela pourrait non seulement freiner l’innovation, mais aussi éroder la confiance dans la démocratie elle-même.