AI Responsable : Vers une Régulation Sécurisée en Australie

A lock

Sécurité et Responsabilité de l’IA en Australie — Réponse intérimaire du gouvernement

Le 17 janvier 2024, le Department of Industry Science and Resources (DISR) a publié la réponse intérimaire du gouvernement australien à la consultation du DISR concernant son document de discussion, intitulé « Supporting Responsible AI in Australia ». Ce document, émis le 1er juin 2023, visait à recueillir des avis sur la manière dont le gouvernement australien pourrait atténuer les risques potentiels associés à l’intelligence artificielle (IA) et promouvoir des pratiques de développement de l’IA sécurisées et responsables.

Réponse intérimaire du gouvernement australien

Du 1er juin au 4 août 2023, le gouvernement a engagé des consultations approfondies, recherchant des contributions de divers acteurs tels que le public, des groupes de défense, le milieu académique, l’industrie, des cabinets juridiques et des agences gouvernementales. Bien que les soumissions à la consultation aient exprimé un enthousiasme pour les bénéfices potentiels de l’IA dans des domaines tels que la santé, l’éducation et la productivité, des préoccupations ont été soulevées concernant les dommages potentiels tout au long de son cycle de vie.

Des exemples incluent des violations des lois sur la propriété intellectuelle lors de la collecte de données, des biais affectant les résultats des modèles, des impacts environnementaux lors de l’entraînement, et des problèmes de concurrence affectant les consommateurs. Ces soumissions ont mis en évidence l’insuffisance des cadres réglementaires actuels pour aborder les risques liés à l’IA, entraînant un consensus sur la nécessité de garde-fous réglementaires, en particulier pour les applications d’IA à haut risque.

Principaux enseignements de la réponse intérimaire

Le gouvernement, ayant initié un dialogue avec la communauté australienne à travers un document de discussion, est déterminé à poursuivre cette conversation sur la manière de tirer parti des opportunités offertes par l’IA tout en abordant les risques associés. L’analyse initiale, englobant les soumissions et les discussions mondiales comme le AI Safety Summit, a souligné les principaux points suivants :

  1. Reconnaissance de l’impact positif de l’IA sur la création d’emplois et la croissance de l’industrie.
  2. Reconnaissance que toutes les applications de l’IA ne nécessitent pas de réponses réglementaires ; le gouvernement souligne la nécessité d’assurer l’utilisation sans entrave de l’IA à faible risque. En même temps, il reconnaît que le cadre réglementaire existant est insuffisant, notamment pour traiter les risques posés par les applications d’IA à haut risque.
  3. Les lois existantes sont jugées insuffisantes pour prévenir les dommages induits par l’IA avant qu’ils ne se produisent, nécessitant une réponse renforcée aux dommages post-événement. La rapidité et l’échelle uniques des systèmes d’IA peuvent aggraver les dommages, les rendant parfois irréversibles.
  4. Le gouvernement envisage d’introduire des obligations obligatoires pour ceux qui développent ou utilisent des systèmes d’IA à haut risque afin d’assurer la sûreté et souligne l’importance de la collaboration internationale pour établir des normes de sécurité.

Principes guidant la réponse intérimaire du gouvernement

Le gouvernement australien s’est engagé à cinq principes pour guider sa réponse intérimaire :

  1. Approche basée sur le risque : Adoption d’un cadre basé sur le risque pour faciliter l’utilisation sécurisée de l’IA, en adaptant les obligations des développeurs et des utilisateurs en fonction du niveau de risque associé.
  2. Équilibré et proportionné : Éviter des charges inutiles ou disproportionnées sur les entreprises et la communauté, tout en équilibrant l’innovation avec la protection des intérêts communautaires.
  3. Collaboratif et transparent : Engagement actif du gouvernement avec des experts pour façonner son approche de l’utilisation sécurisée et responsable de l’IA.
  4. Partenaire international de confiance : Cohérence avec la Bletchley Declaration et utilisation des capacités domestiques pour soutenir l’action mondiale sur les risques liés à l’IA.
  5. Communauté d’abord : Mettre les individus et les communautés au cœur des approches réglementaires.

Prochaines étapes pour le gouvernement australien en matière d’IA

Conformément à l’objectif global du gouvernement australien, les prochaines étapes proposées visent à :

a. Prévenir les dommages

En réponse aux préoccupations, le gouvernement vise à explorer des garde-fous réglementaires axés sur les tests, la transparence et la responsabilité. Cela inclut :

  • Tests : Tests internes et externes, partage des meilleures pratiques de sécurité, audits continus et mesures de cybersécurité.
  • Transparence : Sensibilisation des utilisateurs sur l’utilisation des systèmes d’IA, rapports publics sur les limitations et capacités, et divulgation des détails de traitement des données.
  • Responsabilité : Rôles désignés pour la sécurité de l’IA et formation obligatoire pour les développeurs, en particulier dans les environnements à haut risque.

b. Clarifier et renforcer les lois

Pour répondre aux préoccupations soulevées lors des consultations, des efforts substantiels sont en cours pour clarifier et renforcer les lois, notamment :

  • Développement de nouvelles lois permettant à l’Australian Communications and Media Authority de lutter contre la désinformation en ligne.
  • Révision statutaire de la Online Safety Act 2021 pour s’adapter aux dangers en ligne évolutifs.
  • Collaboration avec les gouvernements des États et des territoires pour établir un cadre réglementaire pour les véhicules automatisés.
  • Recherche et consultation pour aborder les implications de l’IA sur le droit d’auteur.
  • Renforcement des lois sur la concurrence et les consommateurs pour traiter les problèmes liés aux plateformes numériques.

c. Collaboration internationale

L’Australie surveille de près les réponses des autres pays aux défis de l’IA, notamment les efforts initiaux de l’UE, des États-Unis et du Canada. Le gouvernement continuera à travailler avec d’autres pays pour façonner les efforts internationaux dans ce domaine.

d. Maximiser les bénéfices de l’IA

Dans le budget 2023–24, le gouvernement australien a alloué 75,7 millions de dollars pour des initiatives liées à l’IA, en mettant l’accent sur les domaines suivants :

  • Programme d’adoption de l’IA : Création de centres pour aider les PME à prendre des décisions éclairées sur l’utilisation de l’IA.
  • Expansion du National AI Centre : Élargissement de la portée du centre pour des recherches vitales.
  • Programmes de formation pour les diplômés en IA : Financement continu pour attirer et former la prochaine génération de spécialistes de l’IA.

Conclusion

La réponse intérimaire du gouvernement australien démontre un engagement à favoriser les bénéfices de l’IA tout en abordant les risques associés. À travers une approche fondée sur des principes, le gouvernement vise à garantir un développement de l’IA sûr, responsable et orienté vers la communauté, contribuant ainsi à la croissance économique et à l’avancement technologique de l’Australie.

Articles

L’IA Responsable : Défis et Solutions en Entreprise

Dans cet article, l'auteur discute de l'importance de l'IA responsable dans les applications d'entreprise et des défis liés à son application dans un cadre réel. Il présente également le cadre de...

Directives européennes pour l’IA : vers une régulation des risques systémiques

La Commission européenne a publié des lignes directrices pour aider les modèles d'intelligence artificielle identifiés comme présentant des risques systémiques à se conformer à la réglementation sur...

La gouvernance à l’ère de l’intelligence artificielle

L'intelligence artificielle (IA) transforme la manière dont nous travaillons et gérons les entreprises. Aux Philippines, cette évolution s'accélère, avec des investissements croissants et une...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

La Loi AI du Colorado : Un Modèle de Régulation pour l’Avenir

La récente tentative infructueuse des membres du Congrès de geler les lois sur l'intelligence artificielle au niveau des États a laissé les entreprises américaines avec un patchwork de règles sur la...

Plan d’action AI : Vers une éthique renforcée

Le ministre numérique Gobind Singh Deo a annoncé que le prochain Plan d'action sur l'IA 2026-2030 de la Malaisie renforcera les normes éthiques et les cadres de gouvernance entourant l'utilisation de...

Stratégies et Éthique : Vers une Gouvernance de l’IA Responsable

Le développement de politiques d'intelligence artificielle (IA) responsables et de stratégies globales d'IA doit se faire simultanément plutôt que séquentiellement. Cela a été partagé par un panel...

Risques systémiques des IA : directives pour se conformer aux règles européennes

La Commission européenne a élaboré des lignes directrices pour aider les modèles d'IA présentant des risques systémiques à se conformer à la réglementation de l'IA de l'Union européenne. Les...