Robustesse et Réactivité de la Gouvernance de l’IA Essentielles pour Soutenir le Progrès Technologique
Un document récemment publié aborde l’approche adoptée pour construire des systèmes d’intelligence artificielle (IA) sûrs, fiables et favorables à l’innovation. Ce cadre de gouvernance propose un modèle combinant lois, mesures techniques et supervision institutionnelle.
Modèle de Gouvernance
Le cadre de gouvernance proposé est décrit comme une nécessité réglementaire et un préalable pour maintenir l’élan du progrès technologique. Une approche techno-légale est suggérée, intégrant des garanties légales, techniques et institutionnelles dès la conception des systèmes d’IA.
Proposition d’une Base de Données sur les Incidents d’IA
Il est recommandé de créer une base de données nationale pour suivre les problèmes liés à l’IA, tels que les défaillances de sécurité, les résultats biaisés et les violations de sécurité. Cette base de données aiderait à identifier les risques, à suivre les tendances et à guider l’action réglementaire.
Mesures Volontaires et Soutien d’Experts
Le document encourage les entreprises à publier volontairement des rapports de transparence, à tester les systèmes d’IA pour leur équité et leur sécurité, à effectuer des contrôles de sécurité et à réaliser des exercices de stress-test.
Il suggère également la création d’un comité d’experts en technologie et en politique pour soutenir la gouvernance de l’IA.
Équilibre entre Vie Privée, Équité et Performance
La protection de la vie privée tout en assurant l’équité et la performance des systèmes peut s’avérer difficile, surtout dans un pays diversifié. Il est recommandé d’adopter une suppression de données sensible aux impacts plutôt qu’une suppression automatique, afin d’éviter de nuire aux groupes sous-représentés.