AI Responsable : Vers une Régulation Sécurisée en Australie

A lock

Sécurité et Responsabilité de l’IA en Australie — Réponse intérimaire du gouvernement

Le 17 janvier 2024, le Department of Industry Science and Resources (DISR) a publié la réponse intérimaire du gouvernement australien à la consultation du DISR concernant son document de discussion, intitulé « Supporting Responsible AI in Australia ». Ce document, émis le 1er juin 2023, visait à recueillir des avis sur la manière dont le gouvernement australien pourrait atténuer les risques potentiels associés à l’intelligence artificielle (IA) et promouvoir des pratiques de développement de l’IA sécurisées et responsables.

Réponse intérimaire du gouvernement australien

Du 1er juin au 4 août 2023, le gouvernement a engagé des consultations approfondies, recherchant des contributions de divers acteurs tels que le public, des groupes de défense, le milieu académique, l’industrie, des cabinets juridiques et des agences gouvernementales. Bien que les soumissions à la consultation aient exprimé un enthousiasme pour les bénéfices potentiels de l’IA dans des domaines tels que la santé, l’éducation et la productivité, des préoccupations ont été soulevées concernant les dommages potentiels tout au long de son cycle de vie.

Des exemples incluent des violations des lois sur la propriété intellectuelle lors de la collecte de données, des biais affectant les résultats des modèles, des impacts environnementaux lors de l’entraînement, et des problèmes de concurrence affectant les consommateurs. Ces soumissions ont mis en évidence l’insuffisance des cadres réglementaires actuels pour aborder les risques liés à l’IA, entraînant un consensus sur la nécessité de garde-fous réglementaires, en particulier pour les applications d’IA à haut risque.

Principaux enseignements de la réponse intérimaire

Le gouvernement, ayant initié un dialogue avec la communauté australienne à travers un document de discussion, est déterminé à poursuivre cette conversation sur la manière de tirer parti des opportunités offertes par l’IA tout en abordant les risques associés. L’analyse initiale, englobant les soumissions et les discussions mondiales comme le AI Safety Summit, a souligné les principaux points suivants :

  1. Reconnaissance de l’impact positif de l’IA sur la création d’emplois et la croissance de l’industrie.
  2. Reconnaissance que toutes les applications de l’IA ne nécessitent pas de réponses réglementaires ; le gouvernement souligne la nécessité d’assurer l’utilisation sans entrave de l’IA à faible risque. En même temps, il reconnaît que le cadre réglementaire existant est insuffisant, notamment pour traiter les risques posés par les applications d’IA à haut risque.
  3. Les lois existantes sont jugées insuffisantes pour prévenir les dommages induits par l’IA avant qu’ils ne se produisent, nécessitant une réponse renforcée aux dommages post-événement. La rapidité et l’échelle uniques des systèmes d’IA peuvent aggraver les dommages, les rendant parfois irréversibles.
  4. Le gouvernement envisage d’introduire des obligations obligatoires pour ceux qui développent ou utilisent des systèmes d’IA à haut risque afin d’assurer la sûreté et souligne l’importance de la collaboration internationale pour établir des normes de sécurité.

Principes guidant la réponse intérimaire du gouvernement

Le gouvernement australien s’est engagé à cinq principes pour guider sa réponse intérimaire :

  1. Approche basée sur le risque : Adoption d’un cadre basé sur le risque pour faciliter l’utilisation sécurisée de l’IA, en adaptant les obligations des développeurs et des utilisateurs en fonction du niveau de risque associé.
  2. Équilibré et proportionné : Éviter des charges inutiles ou disproportionnées sur les entreprises et la communauté, tout en équilibrant l’innovation avec la protection des intérêts communautaires.
  3. Collaboratif et transparent : Engagement actif du gouvernement avec des experts pour façonner son approche de l’utilisation sécurisée et responsable de l’IA.
  4. Partenaire international de confiance : Cohérence avec la Bletchley Declaration et utilisation des capacités domestiques pour soutenir l’action mondiale sur les risques liés à l’IA.
  5. Communauté d’abord : Mettre les individus et les communautés au cœur des approches réglementaires.

Prochaines étapes pour le gouvernement australien en matière d’IA

Conformément à l’objectif global du gouvernement australien, les prochaines étapes proposées visent à :

a. Prévenir les dommages

En réponse aux préoccupations, le gouvernement vise à explorer des garde-fous réglementaires axés sur les tests, la transparence et la responsabilité. Cela inclut :

  • Tests : Tests internes et externes, partage des meilleures pratiques de sécurité, audits continus et mesures de cybersécurité.
  • Transparence : Sensibilisation des utilisateurs sur l’utilisation des systèmes d’IA, rapports publics sur les limitations et capacités, et divulgation des détails de traitement des données.
  • Responsabilité : Rôles désignés pour la sécurité de l’IA et formation obligatoire pour les développeurs, en particulier dans les environnements à haut risque.

b. Clarifier et renforcer les lois

Pour répondre aux préoccupations soulevées lors des consultations, des efforts substantiels sont en cours pour clarifier et renforcer les lois, notamment :

  • Développement de nouvelles lois permettant à l’Australian Communications and Media Authority de lutter contre la désinformation en ligne.
  • Révision statutaire de la Online Safety Act 2021 pour s’adapter aux dangers en ligne évolutifs.
  • Collaboration avec les gouvernements des États et des territoires pour établir un cadre réglementaire pour les véhicules automatisés.
  • Recherche et consultation pour aborder les implications de l’IA sur le droit d’auteur.
  • Renforcement des lois sur la concurrence et les consommateurs pour traiter les problèmes liés aux plateformes numériques.

c. Collaboration internationale

L’Australie surveille de près les réponses des autres pays aux défis de l’IA, notamment les efforts initiaux de l’UE, des États-Unis et du Canada. Le gouvernement continuera à travailler avec d’autres pays pour façonner les efforts internationaux dans ce domaine.

d. Maximiser les bénéfices de l’IA

Dans le budget 2023–24, le gouvernement australien a alloué 75,7 millions de dollars pour des initiatives liées à l’IA, en mettant l’accent sur les domaines suivants :

  • Programme d’adoption de l’IA : Création de centres pour aider les PME à prendre des décisions éclairées sur l’utilisation de l’IA.
  • Expansion du National AI Centre : Élargissement de la portée du centre pour des recherches vitales.
  • Programmes de formation pour les diplômés en IA : Financement continu pour attirer et former la prochaine génération de spécialistes de l’IA.

Conclusion

La réponse intérimaire du gouvernement australien démontre un engagement à favoriser les bénéfices de l’IA tout en abordant les risques associés. À travers une approche fondée sur des principes, le gouvernement vise à garantir un développement de l’IA sûr, responsable et orienté vers la communauté, contribuant ainsi à la croissance économique et à l’avancement technologique de l’Australie.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...