Sécurité et Responsabilité de l’IA en Australie — Réponse intérimaire du gouvernement
Le 17 janvier 2024, le Department of Industry Science and Resources (DISR) a publié la réponse intérimaire du gouvernement australien à la consultation du DISR concernant son document de discussion, intitulé « Supporting Responsible AI in Australia ». Ce document, émis le 1er juin 2023, visait à recueillir des avis sur la manière dont le gouvernement australien pourrait atténuer les risques potentiels associés à l’intelligence artificielle (IA) et promouvoir des pratiques de développement de l’IA sécurisées et responsables.
Réponse intérimaire du gouvernement australien
Du 1er juin au 4 août 2023, le gouvernement a engagé des consultations approfondies, recherchant des contributions de divers acteurs tels que le public, des groupes de défense, le milieu académique, l’industrie, des cabinets juridiques et des agences gouvernementales. Bien que les soumissions à la consultation aient exprimé un enthousiasme pour les bénéfices potentiels de l’IA dans des domaines tels que la santé, l’éducation et la productivité, des préoccupations ont été soulevées concernant les dommages potentiels tout au long de son cycle de vie.
Des exemples incluent des violations des lois sur la propriété intellectuelle lors de la collecte de données, des biais affectant les résultats des modèles, des impacts environnementaux lors de l’entraînement, et des problèmes de concurrence affectant les consommateurs. Ces soumissions ont mis en évidence l’insuffisance des cadres réglementaires actuels pour aborder les risques liés à l’IA, entraînant un consensus sur la nécessité de garde-fous réglementaires, en particulier pour les applications d’IA à haut risque.
Principaux enseignements de la réponse intérimaire
Le gouvernement, ayant initié un dialogue avec la communauté australienne à travers un document de discussion, est déterminé à poursuivre cette conversation sur la manière de tirer parti des opportunités offertes par l’IA tout en abordant les risques associés. L’analyse initiale, englobant les soumissions et les discussions mondiales comme le AI Safety Summit, a souligné les principaux points suivants :
- Reconnaissance de l’impact positif de l’IA sur la création d’emplois et la croissance de l’industrie.
- Reconnaissance que toutes les applications de l’IA ne nécessitent pas de réponses réglementaires ; le gouvernement souligne la nécessité d’assurer l’utilisation sans entrave de l’IA à faible risque. En même temps, il reconnaît que le cadre réglementaire existant est insuffisant, notamment pour traiter les risques posés par les applications d’IA à haut risque.
- Les lois existantes sont jugées insuffisantes pour prévenir les dommages induits par l’IA avant qu’ils ne se produisent, nécessitant une réponse renforcée aux dommages post-événement. La rapidité et l’échelle uniques des systèmes d’IA peuvent aggraver les dommages, les rendant parfois irréversibles.
- Le gouvernement envisage d’introduire des obligations obligatoires pour ceux qui développent ou utilisent des systèmes d’IA à haut risque afin d’assurer la sûreté et souligne l’importance de la collaboration internationale pour établir des normes de sécurité.
Principes guidant la réponse intérimaire du gouvernement
Le gouvernement australien s’est engagé à cinq principes pour guider sa réponse intérimaire :
- Approche basée sur le risque : Adoption d’un cadre basé sur le risque pour faciliter l’utilisation sécurisée de l’IA, en adaptant les obligations des développeurs et des utilisateurs en fonction du niveau de risque associé.
- Équilibré et proportionné : Éviter des charges inutiles ou disproportionnées sur les entreprises et la communauté, tout en équilibrant l’innovation avec la protection des intérêts communautaires.
- Collaboratif et transparent : Engagement actif du gouvernement avec des experts pour façonner son approche de l’utilisation sécurisée et responsable de l’IA.
- Partenaire international de confiance : Cohérence avec la Bletchley Declaration et utilisation des capacités domestiques pour soutenir l’action mondiale sur les risques liés à l’IA.
- Communauté d’abord : Mettre les individus et les communautés au cœur des approches réglementaires.
Prochaines étapes pour le gouvernement australien en matière d’IA
Conformément à l’objectif global du gouvernement australien, les prochaines étapes proposées visent à :
a. Prévenir les dommages
En réponse aux préoccupations, le gouvernement vise à explorer des garde-fous réglementaires axés sur les tests, la transparence et la responsabilité. Cela inclut :
- Tests : Tests internes et externes, partage des meilleures pratiques de sécurité, audits continus et mesures de cybersécurité.
- Transparence : Sensibilisation des utilisateurs sur l’utilisation des systèmes d’IA, rapports publics sur les limitations et capacités, et divulgation des détails de traitement des données.
- Responsabilité : Rôles désignés pour la sécurité de l’IA et formation obligatoire pour les développeurs, en particulier dans les environnements à haut risque.
b. Clarifier et renforcer les lois
Pour répondre aux préoccupations soulevées lors des consultations, des efforts substantiels sont en cours pour clarifier et renforcer les lois, notamment :
- Développement de nouvelles lois permettant à l’Australian Communications and Media Authority de lutter contre la désinformation en ligne.
- Révision statutaire de la Online Safety Act 2021 pour s’adapter aux dangers en ligne évolutifs.
- Collaboration avec les gouvernements des États et des territoires pour établir un cadre réglementaire pour les véhicules automatisés.
- Recherche et consultation pour aborder les implications de l’IA sur le droit d’auteur.
- Renforcement des lois sur la concurrence et les consommateurs pour traiter les problèmes liés aux plateformes numériques.
c. Collaboration internationale
L’Australie surveille de près les réponses des autres pays aux défis de l’IA, notamment les efforts initiaux de l’UE, des États-Unis et du Canada. Le gouvernement continuera à travailler avec d’autres pays pour façonner les efforts internationaux dans ce domaine.
d. Maximiser les bénéfices de l’IA
Dans le budget 2023–24, le gouvernement australien a alloué 75,7 millions de dollars pour des initiatives liées à l’IA, en mettant l’accent sur les domaines suivants :
- Programme d’adoption de l’IA : Création de centres pour aider les PME à prendre des décisions éclairées sur l’utilisation de l’IA.
- Expansion du National AI Centre : Élargissement de la portée du centre pour des recherches vitales.
- Programmes de formation pour les diplômés en IA : Financement continu pour attirer et former la prochaine génération de spécialistes de l’IA.
Conclusion
La réponse intérimaire du gouvernement australien démontre un engagement à favoriser les bénéfices de l’IA tout en abordant les risques associés. À travers une approche fondée sur des principes, le gouvernement vise à garantir un développement de l’IA sûr, responsable et orienté vers la communauté, contribuant ainsi à la croissance économique et à l’avancement technologique de l’Australie.