Rapport sur la politique de responsabilité de l’IA
Ce rapport aborde l’importance des politiques de responsabilité en matière d’intelligence artificielle (IA) et comment elles peuvent optimiser l’utilisation de cette technologie. Les participants de l’écosystème de l’IA, y compris les policymakers, l’industrie, la société civile, les travailleurs, les chercheurs et les membres des communautés impactées, doivent être habilités à identifier les problèmes et les risques potentiels, ainsi qu’à tenir les entités responsables pour leurs actions.
Responsabilité des développeurs et déployeurs de systèmes IA
Les développeurs et déployeurs de systèmes d’IA doivent mettre en place des mécanismes pour prioriser la sûreté et le bien-être des personnes et de l’environnement. Ils doivent démontrer que leurs systèmes d’IA fonctionnent comme prévu et de manière bienveillante.
La mise en œuvre de politiques de responsabilité peut contribuer à créer un marché de l’IA robuste, innovant et informé, où les acheteurs de systèmes d’IA savent ce qu’ils achètent, les utilisateurs connaissent ce qu’ils consomment, et les sujets des systèmes d’IA, tels que les travailleurs et les communautés, comprennent comment ces systèmes sont déployés.
Transparence et compétition
La transparence sur le marché permet aux entreprises de rivaliser sur des critères de sûreté et de fiabilité, et aide à garantir que l’IA n’est pas déployée de manière nuisible. Une telle compétition, facilitée par l’information, encourage non seulement le respect d’une base minimale mais aussi une amélioration continue au fil du temps.
Évaluation et outils de responsabilité
Pour promouvoir l’innovation et l’adoption d’une IA digne de confiance, il est essentiel d’inciter et de soutenir l’évaluation pré- et post-lancement des systèmes d’IA, et d’exiger plus d’informations à leur sujet lorsque cela est approprié. L’évaluation robuste des capacités, des risques, et de l’aptitude à des fins spécifiques des systèmes d’IA reste un domaine en émergence.
Pour atteindre une réelle responsabilité et tirer parti de tous les avantages de l’IA, il est nécessaire de disposer de nouveaux outils de responsabilité et d’informations, d’un écosystème d’évaluation indépendante des systèmes d’IA, et de conséquences pour ceux qui ne respectent pas leurs engagements ou gèrent mal les risques.
Accès à l’information et évaluation indépendante
L’accès à l’information par des moyens appropriés est crucial tout au long du cycle de vie de l’IA, depuis le développement précoce d’un modèle jusqu’à son déploiement et ses utilisations successives. Cette circulation d’information devrait inclure la documentation concernant les modèles de système d’IA, l’architecture, les données, les performances, les limitations, les usages appropriés et les tests.
Une évaluation indépendante est également essentielle pour garantir la responsabilité des systèmes d’IA. Cela inclut la documentation et l’accès à des composants et processus de systèmes d’IA pour promouvoir une compréhension actionnable suffisante des modèles d’apprentissage automatique.
Conséquences pour les parties responsables
Les conséquences pour les parties responsables nécessiteront l’application et/ou le développement de leviers tels que la réglementation, les pressions de marché, et/ou la responsabilité légale pour tenir les entités d’IA responsables des risques inacceptables ou des allégations non fondées.
Le rapport sur la politique de responsabilité de l’IA envisage la responsabilité comme une chaîne d’inputs liée à des conséquences. Il se concentre sur la manière dont le flux d’information (documentation, divulgations et accès) soutient les évaluations indépendantes, qui à leur tour alimentent les conséquences pour créer une véritable responsabilité.
Recommandations politiques
Sur la base des commentaires recueillis, huit recommandations politiques majeures ont été dérivées, regroupées en trois catégories : Orientation, Soutien, et Exigences réglementaires. Ces recommandations visent à encourager et possiblement exiger des inputs de responsabilité dans l’écosystème de l’IA.
Il est crucial que les policymakers envisagent ces recommandations de manière indépendante, car chacune d’elles contribuerait à mitiger les risques liés au déploiement accéléré des systèmes d’IA. En fournissant une orientation ciblée, un soutien et des réglementations appropriées, nous pouvons établir un écosystème où les développeurs et déployeurs d’IA peuvent être tenus responsables de manière adéquate, favorisant ainsi la gestion appropriée des risques et la création de systèmes d’IA plus fiables.