AI Responsable : Vers une Régulation Sécurisée en Australie

A lock

Sécurité et Responsabilité de l’IA en Australie — Réponse intérimaire du gouvernement

Le 17 janvier 2024, le Department of Industry Science and Resources (DISR) a publié la réponse intérimaire du gouvernement australien à la consultation du DISR concernant son document de discussion, intitulé « Supporting Responsible AI in Australia ». Ce document, émis le 1er juin 2023, visait à recueillir des avis sur la manière dont le gouvernement australien pourrait atténuer les risques potentiels associés à l’intelligence artificielle (IA) et promouvoir des pratiques de développement de l’IA sécurisées et responsables.

Réponse intérimaire du gouvernement australien

Du 1er juin au 4 août 2023, le gouvernement a engagé des consultations approfondies, recherchant des contributions de divers acteurs tels que le public, des groupes de défense, le milieu académique, l’industrie, des cabinets juridiques et des agences gouvernementales. Bien que les soumissions à la consultation aient exprimé un enthousiasme pour les bénéfices potentiels de l’IA dans des domaines tels que la santé, l’éducation et la productivité, des préoccupations ont été soulevées concernant les dommages potentiels tout au long de son cycle de vie.

Des exemples incluent des violations des lois sur la propriété intellectuelle lors de la collecte de données, des biais affectant les résultats des modèles, des impacts environnementaux lors de l’entraînement, et des problèmes de concurrence affectant les consommateurs. Ces soumissions ont mis en évidence l’insuffisance des cadres réglementaires actuels pour aborder les risques liés à l’IA, entraînant un consensus sur la nécessité de garde-fous réglementaires, en particulier pour les applications d’IA à haut risque.

Principaux enseignements de la réponse intérimaire

Le gouvernement, ayant initié un dialogue avec la communauté australienne à travers un document de discussion, est déterminé à poursuivre cette conversation sur la manière de tirer parti des opportunités offertes par l’IA tout en abordant les risques associés. L’analyse initiale, englobant les soumissions et les discussions mondiales comme le AI Safety Summit, a souligné les principaux points suivants :

  1. Reconnaissance de l’impact positif de l’IA sur la création d’emplois et la croissance de l’industrie.
  2. Reconnaissance que toutes les applications de l’IA ne nécessitent pas de réponses réglementaires ; le gouvernement souligne la nécessité d’assurer l’utilisation sans entrave de l’IA à faible risque. En même temps, il reconnaît que le cadre réglementaire existant est insuffisant, notamment pour traiter les risques posés par les applications d’IA à haut risque.
  3. Les lois existantes sont jugées insuffisantes pour prévenir les dommages induits par l’IA avant qu’ils ne se produisent, nécessitant une réponse renforcée aux dommages post-événement. La rapidité et l’échelle uniques des systèmes d’IA peuvent aggraver les dommages, les rendant parfois irréversibles.
  4. Le gouvernement envisage d’introduire des obligations obligatoires pour ceux qui développent ou utilisent des systèmes d’IA à haut risque afin d’assurer la sûreté et souligne l’importance de la collaboration internationale pour établir des normes de sécurité.

Principes guidant la réponse intérimaire du gouvernement

Le gouvernement australien s’est engagé à cinq principes pour guider sa réponse intérimaire :

  1. Approche basée sur le risque : Adoption d’un cadre basé sur le risque pour faciliter l’utilisation sécurisée de l’IA, en adaptant les obligations des développeurs et des utilisateurs en fonction du niveau de risque associé.
  2. Équilibré et proportionné : Éviter des charges inutiles ou disproportionnées sur les entreprises et la communauté, tout en équilibrant l’innovation avec la protection des intérêts communautaires.
  3. Collaboratif et transparent : Engagement actif du gouvernement avec des experts pour façonner son approche de l’utilisation sécurisée et responsable de l’IA.
  4. Partenaire international de confiance : Cohérence avec la Bletchley Declaration et utilisation des capacités domestiques pour soutenir l’action mondiale sur les risques liés à l’IA.
  5. Communauté d’abord : Mettre les individus et les communautés au cœur des approches réglementaires.

Prochaines étapes pour le gouvernement australien en matière d’IA

Conformément à l’objectif global du gouvernement australien, les prochaines étapes proposées visent à :

a. Prévenir les dommages

En réponse aux préoccupations, le gouvernement vise à explorer des garde-fous réglementaires axés sur les tests, la transparence et la responsabilité. Cela inclut :

  • Tests : Tests internes et externes, partage des meilleures pratiques de sécurité, audits continus et mesures de cybersécurité.
  • Transparence : Sensibilisation des utilisateurs sur l’utilisation des systèmes d’IA, rapports publics sur les limitations et capacités, et divulgation des détails de traitement des données.
  • Responsabilité : Rôles désignés pour la sécurité de l’IA et formation obligatoire pour les développeurs, en particulier dans les environnements à haut risque.

b. Clarifier et renforcer les lois

Pour répondre aux préoccupations soulevées lors des consultations, des efforts substantiels sont en cours pour clarifier et renforcer les lois, notamment :

  • Développement de nouvelles lois permettant à l’Australian Communications and Media Authority de lutter contre la désinformation en ligne.
  • Révision statutaire de la Online Safety Act 2021 pour s’adapter aux dangers en ligne évolutifs.
  • Collaboration avec les gouvernements des États et des territoires pour établir un cadre réglementaire pour les véhicules automatisés.
  • Recherche et consultation pour aborder les implications de l’IA sur le droit d’auteur.
  • Renforcement des lois sur la concurrence et les consommateurs pour traiter les problèmes liés aux plateformes numériques.

c. Collaboration internationale

L’Australie surveille de près les réponses des autres pays aux défis de l’IA, notamment les efforts initiaux de l’UE, des États-Unis et du Canada. Le gouvernement continuera à travailler avec d’autres pays pour façonner les efforts internationaux dans ce domaine.

d. Maximiser les bénéfices de l’IA

Dans le budget 2023–24, le gouvernement australien a alloué 75,7 millions de dollars pour des initiatives liées à l’IA, en mettant l’accent sur les domaines suivants :

  • Programme d’adoption de l’IA : Création de centres pour aider les PME à prendre des décisions éclairées sur l’utilisation de l’IA.
  • Expansion du National AI Centre : Élargissement de la portée du centre pour des recherches vitales.
  • Programmes de formation pour les diplômés en IA : Financement continu pour attirer et former la prochaine génération de spécialistes de l’IA.

Conclusion

La réponse intérimaire du gouvernement australien démontre un engagement à favoriser les bénéfices de l’IA tout en abordant les risques associés. À travers une approche fondée sur des principes, le gouvernement vise à garantir un développement de l’IA sûr, responsable et orienté vers la communauté, contribuant ainsi à la croissance économique et à l’avancement technologique de l’Australie.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...