AI Responsable : Vers une Régulation Sécurisée en Australie

A lock

Sécurité et Responsabilité de l’IA en Australie — Réponse intérimaire du gouvernement

Le 17 janvier 2024, le Department of Industry Science and Resources (DISR) a publié la réponse intérimaire du gouvernement australien à la consultation du DISR concernant son document de discussion, intitulé « Supporting Responsible AI in Australia ». Ce document, émis le 1er juin 2023, visait à recueillir des avis sur la manière dont le gouvernement australien pourrait atténuer les risques potentiels associés à l’intelligence artificielle (IA) et promouvoir des pratiques de développement de l’IA sécurisées et responsables.

Réponse intérimaire du gouvernement australien

Du 1er juin au 4 août 2023, le gouvernement a engagé des consultations approfondies, recherchant des contributions de divers acteurs tels que le public, des groupes de défense, le milieu académique, l’industrie, des cabinets juridiques et des agences gouvernementales. Bien que les soumissions à la consultation aient exprimé un enthousiasme pour les bénéfices potentiels de l’IA dans des domaines tels que la santé, l’éducation et la productivité, des préoccupations ont été soulevées concernant les dommages potentiels tout au long de son cycle de vie.

Des exemples incluent des violations des lois sur la propriété intellectuelle lors de la collecte de données, des biais affectant les résultats des modèles, des impacts environnementaux lors de l’entraînement, et des problèmes de concurrence affectant les consommateurs. Ces soumissions ont mis en évidence l’insuffisance des cadres réglementaires actuels pour aborder les risques liés à l’IA, entraînant un consensus sur la nécessité de garde-fous réglementaires, en particulier pour les applications d’IA à haut risque.

Principaux enseignements de la réponse intérimaire

Le gouvernement, ayant initié un dialogue avec la communauté australienne à travers un document de discussion, est déterminé à poursuivre cette conversation sur la manière de tirer parti des opportunités offertes par l’IA tout en abordant les risques associés. L’analyse initiale, englobant les soumissions et les discussions mondiales comme le AI Safety Summit, a souligné les principaux points suivants :

  1. Reconnaissance de l’impact positif de l’IA sur la création d’emplois et la croissance de l’industrie.
  2. Reconnaissance que toutes les applications de l’IA ne nécessitent pas de réponses réglementaires ; le gouvernement souligne la nécessité d’assurer l’utilisation sans entrave de l’IA à faible risque. En même temps, il reconnaît que le cadre réglementaire existant est insuffisant, notamment pour traiter les risques posés par les applications d’IA à haut risque.
  3. Les lois existantes sont jugées insuffisantes pour prévenir les dommages induits par l’IA avant qu’ils ne se produisent, nécessitant une réponse renforcée aux dommages post-événement. La rapidité et l’échelle uniques des systèmes d’IA peuvent aggraver les dommages, les rendant parfois irréversibles.
  4. Le gouvernement envisage d’introduire des obligations obligatoires pour ceux qui développent ou utilisent des systèmes d’IA à haut risque afin d’assurer la sûreté et souligne l’importance de la collaboration internationale pour établir des normes de sécurité.

Principes guidant la réponse intérimaire du gouvernement

Le gouvernement australien s’est engagé à cinq principes pour guider sa réponse intérimaire :

  1. Approche basée sur le risque : Adoption d’un cadre basé sur le risque pour faciliter l’utilisation sécurisée de l’IA, en adaptant les obligations des développeurs et des utilisateurs en fonction du niveau de risque associé.
  2. Équilibré et proportionné : Éviter des charges inutiles ou disproportionnées sur les entreprises et la communauté, tout en équilibrant l’innovation avec la protection des intérêts communautaires.
  3. Collaboratif et transparent : Engagement actif du gouvernement avec des experts pour façonner son approche de l’utilisation sécurisée et responsable de l’IA.
  4. Partenaire international de confiance : Cohérence avec la Bletchley Declaration et utilisation des capacités domestiques pour soutenir l’action mondiale sur les risques liés à l’IA.
  5. Communauté d’abord : Mettre les individus et les communautés au cœur des approches réglementaires.

Prochaines étapes pour le gouvernement australien en matière d’IA

Conformément à l’objectif global du gouvernement australien, les prochaines étapes proposées visent à :

a. Prévenir les dommages

En réponse aux préoccupations, le gouvernement vise à explorer des garde-fous réglementaires axés sur les tests, la transparence et la responsabilité. Cela inclut :

  • Tests : Tests internes et externes, partage des meilleures pratiques de sécurité, audits continus et mesures de cybersécurité.
  • Transparence : Sensibilisation des utilisateurs sur l’utilisation des systèmes d’IA, rapports publics sur les limitations et capacités, et divulgation des détails de traitement des données.
  • Responsabilité : Rôles désignés pour la sécurité de l’IA et formation obligatoire pour les développeurs, en particulier dans les environnements à haut risque.

b. Clarifier et renforcer les lois

Pour répondre aux préoccupations soulevées lors des consultations, des efforts substantiels sont en cours pour clarifier et renforcer les lois, notamment :

  • Développement de nouvelles lois permettant à l’Australian Communications and Media Authority de lutter contre la désinformation en ligne.
  • Révision statutaire de la Online Safety Act 2021 pour s’adapter aux dangers en ligne évolutifs.
  • Collaboration avec les gouvernements des États et des territoires pour établir un cadre réglementaire pour les véhicules automatisés.
  • Recherche et consultation pour aborder les implications de l’IA sur le droit d’auteur.
  • Renforcement des lois sur la concurrence et les consommateurs pour traiter les problèmes liés aux plateformes numériques.

c. Collaboration internationale

L’Australie surveille de près les réponses des autres pays aux défis de l’IA, notamment les efforts initiaux de l’UE, des États-Unis et du Canada. Le gouvernement continuera à travailler avec d’autres pays pour façonner les efforts internationaux dans ce domaine.

d. Maximiser les bénéfices de l’IA

Dans le budget 2023–24, le gouvernement australien a alloué 75,7 millions de dollars pour des initiatives liées à l’IA, en mettant l’accent sur les domaines suivants :

  • Programme d’adoption de l’IA : Création de centres pour aider les PME à prendre des décisions éclairées sur l’utilisation de l’IA.
  • Expansion du National AI Centre : Élargissement de la portée du centre pour des recherches vitales.
  • Programmes de formation pour les diplômés en IA : Financement continu pour attirer et former la prochaine génération de spécialistes de l’IA.

Conclusion

La réponse intérimaire du gouvernement australien démontre un engagement à favoriser les bénéfices de l’IA tout en abordant les risques associés. À travers une approche fondée sur des principes, le gouvernement vise à garantir un développement de l’IA sûr, responsable et orienté vers la communauté, contribuant ainsi à la croissance économique et à l’avancement technologique de l’Australie.

Articles

Ingénieurs en IA : Performance ou Responsabilité ?

L'intelligence artificielle a connu une explosion de ses capacités, plaçant les ingénieurs en IA à l'avant-garde de l'innovation. Pendant ce temps, la responsabilité éthique devient cruciale, car les...

L’IA responsable : un impératif incontournable

L'intelligence artificielle responsable n'est plus un simple mot à la mode, mais une nécessité fondamentale, selon Dr Anna Zeiter. Elle souligne l'importance d'établir des systèmes d'IA fiables et...

Intégrer l’IA en toute conformité dans votre entreprise

L'adoption de l'IA dans les entreprises échoue au moins deux fois plus souvent qu'elle ne réussit, selon la Cloud Security Alliance (CSA). Le modèle proposé, appelé Dynamic Process Landscape (DPL)...

Préserver les données générées par l’IA : enjeux et meilleures pratiques

Les outils d'intelligence artificielle générative (GAI) soulèvent des préoccupations juridiques telles que la confidentialité des données et les considérations de privilège. Les organisations doivent...

L’Intelligence Artificielle Responsable : Principes et Avantages

Aujourd'hui, l'IA change la façon dont nous vivons et travaillons, il est donc très important de l'utiliser de manière appropriée. L'IA responsable signifie créer et utiliser une IA qui est juste...

Réussir avec l’IA : Éthique et Gouvernance au cœur de l’Innovation

Il y a vingt ans, personne n'aurait pu prédire que nous compterions sur l'intelligence artificielle (IA) pour prendre des décisions commerciales critiques. Aujourd'hui, les entreprises doivent se...

Régulation de l’IA en Espagne : Pionnière en Europe

L'Espagne est à l'avant-garde de la gouvernance de l'IA avec la création du premier régulateur européen de l'IA (AESIA) et un cadre réglementaire en cours d'élaboration. Un projet de loi national sur...

Réglementation de l’IA : État des lieux et enjeux mondiaux

L'intelligence artificielle (IA) a connu des avancées considérables ces dernières années, ce qui a entraîné des opportunités et des risques potentiels. Les gouvernements et les organismes de...

L’IA dans les jeux d’argent : enjeux et responsabilités

L'article aborde l'impact de l'intelligence artificielle dans l'industrie des jeux d'argent, mettant en lumière les promesses d'efficacité et les risques réglementaires croissants. Les opérateurs...