Politique de Responsabilité en Intelligence Artificielle
La politique de responsabilité en intelligence artificielle (IA) est essentielle pour garantir que les systèmes d’IA soient conçus et utilisés de manière à respecter des normes éthiques et légales. Cette politique vise à établir un écosystème de responsabilité qui permet aux agences gouvernementales et aux autres acteurs concernés d’évaluer si un système d’IA respecte les critères de confiance et les revendications faites à son sujet.
Évaluation des Systèmes d’IA
Les efforts d’assurance concernant l’IA doivent permettre une évaluation rigoureuse des systèmes avant et après leur déploiement. La demande de commentaires (RFC) a examiné les modalités d’évaluation et de certification des systèmes d’IA, ainsi que le rôle approprié du gouvernement fédéral dans ce domaine.
Plus de 1 440 commentaires uniques provenant d’une diversité d’intervenants ont été soumis en réponse à la RFC. Environ 1 250 de ces commentaires provenaient d’individus agissant en leur propre nom, tandis que 175 ont été soumis par des organisations. Parmi ces dernières, 48% représentaient l’industrie, 37% les ONG, et 15% des organisations de recherche.
Engagements de l’Administration
Depuis la publication de la RFC, l’administration Biden-Harris a pris plusieurs mesures pour avancer vers une IA digne de confiance. En mai 2023, des engagements ont été obtenus de la part de développeurs d’IA pour participer à une évaluation publique de leurs systèmes à l’événement DEF CON 31. Des engagements volontaires ont également été sécurisés de la part de développeurs d’IA avancée pour améliorer la transparence et la sécurité.
Cadre Réglementaire
Les agences fédérales ont également avancé des efforts de responsabilité en matière d’IA. Un communiqué conjoint de la Federal Trade Commission et d’autres agences a souligné les risques de résultats discriminatoires découlant de l’IA. De plus, différentes commissions du Congrès ont tenu des audiences et plusieurs projets de loi ont été introduits concernant l’IA.
Collaboration Internationale
Les États-Unis collaborent avec des partenaires internationaux pour élaborer des politiques de responsabilité en matière d’IA. Le Conseil de commerce et de technologie U.S.-UE a lancé un roadmap sur l’IA, qui inclut des groupes d’experts axés sur la surveillance et l’évaluation des risques.
Conclusion
Cette politique de responsabilité en IA met l’accent sur la nécessité de mesures volontaires, réglementaires et autres pour assurer aux parties externes que les systèmes d’IA sont légaux et fiables. Des interventions politiques multiples peuvent être nécessaires pour atteindre cet objectif, notamment la divulgation d’informations sur les données d’entraînement et les caractéristiques des modèles, qui sont cruciales pour la responsabilité des acteurs de l’IA.