Gouvernance responsable de l’IA : enjeux cruciaux pour les entreprises australiennes

A magnifying glass

Gouvernance de l’IA responsable : considérations clés pour les organisations australiennes

Avec la productivité à son niveau le plus bas en 60 ans et le gouvernement fédéral ayant récemment engagé 900 millions de dollars supplémentaires pour faire face à ce défi, l’intelligence artificielle (IA) se présente comme une opportunité pour stimuler la croissance économique et favoriser l’innovation, de nombreuses organisations capitalisant déjà sur son potentiel.

Cependant, malgré le potentiel de l’IA pour améliorer la productivité, une enquête IPSOS de 2024 a révélé que 64 % des Australiens sont encore inquiets de son utilisation. Cette hésitation souligne la nécessité pour les organisations d’intégrer une approche responsable de l’IA, qui va au-delà de la conformité légale pour intégrer des principes d’IA éthique dans les stratégies de gouvernance, et mettre en place des sauvegardes pratiques pour s’assurer que la technologie est formée, conçue et déployée de manière sûre, transparente et conforme aux attentes du public.

Réglementation de l’IA dans le monde

L’environnement réglementaire international en matière d’IA continue d’évoluer dans des directions sensiblement différentes.

Union Européenne

L’Union européenne (UE) a introduit l’Acte sur l’IA de l’UE, entré en vigueur le 1er août 2024. Ce règlement adopte un modèle basé sur les risques qui classe les systèmes d’IA par niveaux de risque variés, avec des obligations correspondantes selon la classification de risque du système. Malgré son intention d’assurer une IA sûre et transparente, l’Acte sur l’IA de l’UE a été controversé, de grandes entreprises technologiques le critiquant pour son impact négatif sur l’innovation.

États-Unis

En revanche, l’approche fédérale des États-Unis (US) a évolué vers la déréglementation. Actuellement, les États-Unis n’ont pas de législation fédérale dédiée à l’IA, s’appuyant plutôt sur des cadres existants tels que ceux régissant la propriété intellectuelle, la protection des données et l’emploi. Bien que des propositions pour une législation fédérale aient émergé, l’administration fédérale actuelle adopte une position déréglementaire concernant l’IA, ce qui remet en question la possibilité d’adoption de telles législations.

Royaume-Uni

De même, le Royaume-Uni (UK) ne dispose pas de législation dédiée à l’IA et privilégie une approche légère et « pro-innovation », comme indiqué dans son Plan d’Action sur les Opportunités de l’IA publié en janvier 2025, qui mentionne peu de discussions réglementaires.

République Populaire de Chine

La République Populaire de Chine (Chine) ne dispose pas actuellement d’une réglementation unifiée sur l’IA, mais réglemente des cas d’utilisation spécifiques de l’IA, y compris la technologie de synthèse profonde, les algorithmes de recommandation et l’IA générative.

Singapour

Conformément à la plupart des juridictions, Singapour n’a pas de législation sur l’IA et s’appuie sur des cadres juridiques existants, soutenus par des orientations sectorielles.

Réglementation de l’IA en Australie : l’état des lieux actuel

Avec l’Acte sur l’IA de l’UE comme exception, le manque de contraintes réglementaires globales et le recul de la réglementation aux États-Unis soulèvent des questions sur les perspectives d’introduction d’un cadre législatif australien sur l’IA.

Actuellement, l’Australie n’a pas de législation dédiée à l’IA, créant de l’incertitude pour les organisations sur la manière de gouverner efficacement l’IA sous les lois existantes. Cependant, un document de propositions publié en septembre 2024 a envisagé d’introduire un cadre législatif basé sur les risques pour réglementer l’IA.

Gouvernance responsable de l’IA

Selon un rapport sur l’IA, les Australiens éprouvent une méfiance significative envers l’IA par rapport au reste du monde, avec seulement 37 % d’entre eux croyant que les avantages de l’IA l’emportent sur ses risques. Les fournisseurs de services financiers et le gouvernement figurent parmi les groupes que les Australiens font le moins confiance pour gérer l’IA de manière alignée avec leurs meilleurs intérêts.

Avec l’absence de législation dédiée à l’IA, les organisations doivent agir maintenant pour mettre en œuvre des cadres de gouvernance de l’IA responsable qui abordent à la fois la conformité légale et le déploiement éthique.

Considérations clés pour les organisations

1. Établir des rôles et responsabilités clairs pour la mise en œuvre, la supervision et le suivi des systèmes d’IA.

2. Comprendre le fonctionnement des systèmes d’IA et leurs cas d’utilisation au sein de l’organisation avant leur mise en service.

3. Comprendre les risques posés par l’IA non autorisée par les employés pour des fins professionnelles.

4. Évaluer les décisions relatives au développement ou à l’utilisation de l’IA d’un point de vue éthique.

5. Assurer des tests rigoureux avant tout déploiement d’IA.

6. Surveiller et gouverner les systèmes d’IA avec un haut degré de supervision humaine après leur déploiement.

Toutes ces actions doivent être complétées par une communication transparente avec les clients et d’autres parties prenantes afin de maintenir une compréhension claire et de gérer les attentes.

Conclusion

En l’absence de législation spécifique à l’IA contraignante, les organisations ne devraient pas considérer l’IA responsable comme optionnelle. En intégrant des principes d’IA responsable dans leurs opérations, les organisations peuvent renforcer la confiance des parties prenantes et bénéficier des gains de productivité que l’IA offre.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...