Gouvernance responsable de l’IA : enjeux cruciaux pour les entreprises australiennes

A magnifying glass

Gouvernance de l’IA responsable : considérations clés pour les organisations australiennes

Avec la productivité à son niveau le plus bas en 60 ans et le gouvernement fédéral ayant récemment engagé 900 millions de dollars supplémentaires pour faire face à ce défi, l’intelligence artificielle (IA) se présente comme une opportunité pour stimuler la croissance économique et favoriser l’innovation, de nombreuses organisations capitalisant déjà sur son potentiel.

Cependant, malgré le potentiel de l’IA pour améliorer la productivité, une enquête IPSOS de 2024 a révélé que 64 % des Australiens sont encore inquiets de son utilisation. Cette hésitation souligne la nécessité pour les organisations d’intégrer une approche responsable de l’IA, qui va au-delà de la conformité légale pour intégrer des principes d’IA éthique dans les stratégies de gouvernance, et mettre en place des sauvegardes pratiques pour s’assurer que la technologie est formée, conçue et déployée de manière sûre, transparente et conforme aux attentes du public.

Réglementation de l’IA dans le monde

L’environnement réglementaire international en matière d’IA continue d’évoluer dans des directions sensiblement différentes.

Union Européenne

L’Union européenne (UE) a introduit l’Acte sur l’IA de l’UE, entré en vigueur le 1er août 2024. Ce règlement adopte un modèle basé sur les risques qui classe les systèmes d’IA par niveaux de risque variés, avec des obligations correspondantes selon la classification de risque du système. Malgré son intention d’assurer une IA sûre et transparente, l’Acte sur l’IA de l’UE a été controversé, de grandes entreprises technologiques le critiquant pour son impact négatif sur l’innovation.

États-Unis

En revanche, l’approche fédérale des États-Unis (US) a évolué vers la déréglementation. Actuellement, les États-Unis n’ont pas de législation fédérale dédiée à l’IA, s’appuyant plutôt sur des cadres existants tels que ceux régissant la propriété intellectuelle, la protection des données et l’emploi. Bien que des propositions pour une législation fédérale aient émergé, l’administration fédérale actuelle adopte une position déréglementaire concernant l’IA, ce qui remet en question la possibilité d’adoption de telles législations.

Royaume-Uni

De même, le Royaume-Uni (UK) ne dispose pas de législation dédiée à l’IA et privilégie une approche légère et « pro-innovation », comme indiqué dans son Plan d’Action sur les Opportunités de l’IA publié en janvier 2025, qui mentionne peu de discussions réglementaires.

République Populaire de Chine

La République Populaire de Chine (Chine) ne dispose pas actuellement d’une réglementation unifiée sur l’IA, mais réglemente des cas d’utilisation spécifiques de l’IA, y compris la technologie de synthèse profonde, les algorithmes de recommandation et l’IA générative.

Singapour

Conformément à la plupart des juridictions, Singapour n’a pas de législation sur l’IA et s’appuie sur des cadres juridiques existants, soutenus par des orientations sectorielles.

Réglementation de l’IA en Australie : l’état des lieux actuel

Avec l’Acte sur l’IA de l’UE comme exception, le manque de contraintes réglementaires globales et le recul de la réglementation aux États-Unis soulèvent des questions sur les perspectives d’introduction d’un cadre législatif australien sur l’IA.

Actuellement, l’Australie n’a pas de législation dédiée à l’IA, créant de l’incertitude pour les organisations sur la manière de gouverner efficacement l’IA sous les lois existantes. Cependant, un document de propositions publié en septembre 2024 a envisagé d’introduire un cadre législatif basé sur les risques pour réglementer l’IA.

Gouvernance responsable de l’IA

Selon un rapport sur l’IA, les Australiens éprouvent une méfiance significative envers l’IA par rapport au reste du monde, avec seulement 37 % d’entre eux croyant que les avantages de l’IA l’emportent sur ses risques. Les fournisseurs de services financiers et le gouvernement figurent parmi les groupes que les Australiens font le moins confiance pour gérer l’IA de manière alignée avec leurs meilleurs intérêts.

Avec l’absence de législation dédiée à l’IA, les organisations doivent agir maintenant pour mettre en œuvre des cadres de gouvernance de l’IA responsable qui abordent à la fois la conformité légale et le déploiement éthique.

Considérations clés pour les organisations

1. Établir des rôles et responsabilités clairs pour la mise en œuvre, la supervision et le suivi des systèmes d’IA.

2. Comprendre le fonctionnement des systèmes d’IA et leurs cas d’utilisation au sein de l’organisation avant leur mise en service.

3. Comprendre les risques posés par l’IA non autorisée par les employés pour des fins professionnelles.

4. Évaluer les décisions relatives au développement ou à l’utilisation de l’IA d’un point de vue éthique.

5. Assurer des tests rigoureux avant tout déploiement d’IA.

6. Surveiller et gouverner les systèmes d’IA avec un haut degré de supervision humaine après leur déploiement.

Toutes ces actions doivent être complétées par une communication transparente avec les clients et d’autres parties prenantes afin de maintenir une compréhension claire et de gérer les attentes.

Conclusion

En l’absence de législation spécifique à l’IA contraignante, les organisations ne devraient pas considérer l’IA responsable comme optionnelle. En intégrant des principes d’IA responsable dans leurs opérations, les organisations peuvent renforcer la confiance des parties prenantes et bénéficier des gains de productivité que l’IA offre.

Articles

Intelligence artificielle et recherche UX : vers des workflows éthiques et efficaces

La recherche UX n'est aussi solide que les humains qui la dirigent, et les décisions humaines peuvent souvent introduire des erreurs. L'arrivée de l'IA dans la recherche UX est fascinante, promettant...

L’avenir de l’IA agentique dans le secteur bancaire

L'intelligence artificielle agentique transforme le secteur bancaire en automatisant des processus complexes et en améliorant l'expérience client. Cependant, elle pose des défis en matière de...

La conformité native à l’IA : clé d’une infrastructure crypto évolutive

L'industrie de la cryptographie connaît une croissance explosive, mais fait face à de nombreux défis réglementaires, en particulier dans les opérations transfrontalières. Les plateformes intégrant des...

Gouvernance de l’IA en ASEAN : un chemin semé d’embûches mais prometteur

L'Association des nations de l'Asie du Sud-Est (ASEAN) adopte une approche favorable à l'innovation pour l'intelligence artificielle (IA), visant à faire avancer la région vers une économie numérique...

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...

Les risques méconnus de l’IA dans les entreprises

L'IA devient de plus en plus présente dans les lieux de travail, mais de nombreuses entreprises ignorent les risques associés. Il est essentiel d'établir des principes de conformité et de gouvernance...

Investir dans la sécurité de l’IA pour un avenir responsable

La révolution de l'intelligence artificielle est désormais une réalité, transformant les industries et la vie quotidienne. Pour les investisseurs, cela représente une opportunité en or d'exploiter un...

L’impact croissant de l’IA sur la sécurité publique

Les agences de maintien de l'ordre (LEAs) utilisent de plus en plus l'intelligence artificielle (IA) pour améliorer leur fonctionnement, en particulier grâce à des capacités accrues pour la police...

Kenya à l’avant-garde de la gouvernance mondiale de l’IA

Le Kenya a remporté une victoire diplomatique majeure après que les 193 États membres des Nations Unies ont convenu à l'unanimité de créer deux institutions marquantes pour gouverner l'intelligence...