Gouvernance responsable de l’IA : enjeux cruciaux pour les entreprises australiennes

A magnifying glass

Gouvernance de l’IA responsable : considérations clés pour les organisations australiennes

Avec la productivité à son niveau le plus bas en 60 ans et le gouvernement fédéral ayant récemment engagé 900 millions de dollars supplémentaires pour faire face à ce défi, l’intelligence artificielle (IA) se présente comme une opportunité pour stimuler la croissance économique et favoriser l’innovation, de nombreuses organisations capitalisant déjà sur son potentiel.

Cependant, malgré le potentiel de l’IA pour améliorer la productivité, une enquête IPSOS de 2024 a révélé que 64 % des Australiens sont encore inquiets de son utilisation. Cette hésitation souligne la nécessité pour les organisations d’intégrer une approche responsable de l’IA, qui va au-delà de la conformité légale pour intégrer des principes d’IA éthique dans les stratégies de gouvernance, et mettre en place des sauvegardes pratiques pour s’assurer que la technologie est formée, conçue et déployée de manière sûre, transparente et conforme aux attentes du public.

Réglementation de l’IA dans le monde

L’environnement réglementaire international en matière d’IA continue d’évoluer dans des directions sensiblement différentes.

Union Européenne

L’Union européenne (UE) a introduit l’Acte sur l’IA de l’UE, entré en vigueur le 1er août 2024. Ce règlement adopte un modèle basé sur les risques qui classe les systèmes d’IA par niveaux de risque variés, avec des obligations correspondantes selon la classification de risque du système. Malgré son intention d’assurer une IA sûre et transparente, l’Acte sur l’IA de l’UE a été controversé, de grandes entreprises technologiques le critiquant pour son impact négatif sur l’innovation.

États-Unis

En revanche, l’approche fédérale des États-Unis (US) a évolué vers la déréglementation. Actuellement, les États-Unis n’ont pas de législation fédérale dédiée à l’IA, s’appuyant plutôt sur des cadres existants tels que ceux régissant la propriété intellectuelle, la protection des données et l’emploi. Bien que des propositions pour une législation fédérale aient émergé, l’administration fédérale actuelle adopte une position déréglementaire concernant l’IA, ce qui remet en question la possibilité d’adoption de telles législations.

Royaume-Uni

De même, le Royaume-Uni (UK) ne dispose pas de législation dédiée à l’IA et privilégie une approche légère et « pro-innovation », comme indiqué dans son Plan d’Action sur les Opportunités de l’IA publié en janvier 2025, qui mentionne peu de discussions réglementaires.

République Populaire de Chine

La République Populaire de Chine (Chine) ne dispose pas actuellement d’une réglementation unifiée sur l’IA, mais réglemente des cas d’utilisation spécifiques de l’IA, y compris la technologie de synthèse profonde, les algorithmes de recommandation et l’IA générative.

Singapour

Conformément à la plupart des juridictions, Singapour n’a pas de législation sur l’IA et s’appuie sur des cadres juridiques existants, soutenus par des orientations sectorielles.

Réglementation de l’IA en Australie : l’état des lieux actuel

Avec l’Acte sur l’IA de l’UE comme exception, le manque de contraintes réglementaires globales et le recul de la réglementation aux États-Unis soulèvent des questions sur les perspectives d’introduction d’un cadre législatif australien sur l’IA.

Actuellement, l’Australie n’a pas de législation dédiée à l’IA, créant de l’incertitude pour les organisations sur la manière de gouverner efficacement l’IA sous les lois existantes. Cependant, un document de propositions publié en septembre 2024 a envisagé d’introduire un cadre législatif basé sur les risques pour réglementer l’IA.

Gouvernance responsable de l’IA

Selon un rapport sur l’IA, les Australiens éprouvent une méfiance significative envers l’IA par rapport au reste du monde, avec seulement 37 % d’entre eux croyant que les avantages de l’IA l’emportent sur ses risques. Les fournisseurs de services financiers et le gouvernement figurent parmi les groupes que les Australiens font le moins confiance pour gérer l’IA de manière alignée avec leurs meilleurs intérêts.

Avec l’absence de législation dédiée à l’IA, les organisations doivent agir maintenant pour mettre en œuvre des cadres de gouvernance de l’IA responsable qui abordent à la fois la conformité légale et le déploiement éthique.

Considérations clés pour les organisations

1. Établir des rôles et responsabilités clairs pour la mise en œuvre, la supervision et le suivi des systèmes d’IA.

2. Comprendre le fonctionnement des systèmes d’IA et leurs cas d’utilisation au sein de l’organisation avant leur mise en service.

3. Comprendre les risques posés par l’IA non autorisée par les employés pour des fins professionnelles.

4. Évaluer les décisions relatives au développement ou à l’utilisation de l’IA d’un point de vue éthique.

5. Assurer des tests rigoureux avant tout déploiement d’IA.

6. Surveiller et gouverner les systèmes d’IA avec un haut degré de supervision humaine après leur déploiement.

Toutes ces actions doivent être complétées par une communication transparente avec les clients et d’autres parties prenantes afin de maintenir une compréhension claire et de gérer les attentes.

Conclusion

En l’absence de législation spécifique à l’IA contraignante, les organisations ne devraient pas considérer l’IA responsable comme optionnelle. En intégrant des principes d’IA responsable dans leurs opérations, les organisations peuvent renforcer la confiance des parties prenantes et bénéficier des gains de productivité que l’IA offre.

Articles

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...

Réglementation de l’UE sur l’IA : Vers une conformité stricte pour les modèles à risque

La Commission européenne a publié des directives pour aider les entreprises à se conformer à la loi sur l'intelligence artificielle de l'UE, qui entrera en vigueur le 2 août. Les entreprises doivent...

Risques systémiques des modèles d’IA : se conformer aux règles de l’UE

Les modèles d'IA présentent des risques systémiques qui doivent être pris en compte pour respecter les réglementations de l'UE sur l'IA. Ce document fournit des conseils sur la manière de se conformer...

Musiciens européens unis pour défendre leurs droits face à l’IA

Plus de 30 musiciens européens ont lancé une campagne vidéo unie pour demander à la Commission européenne de préserver l'intégrité de la loi sur l'IA de l'UE. Ils exigent le droit d'être informés et...

Les agents IA : un cauchemar de sécurité pour les entreprises

L'émergence des agents d'IA dans les applications d'entreprise introduit un nouveau type de trafic réseau complexe, rendant la visibilité et la sécurité plus difficiles. Cela souligne la nécessité...

Audit de l’IA en milieu de travail : 11 étapes essentielles

Avec l'intégration croissante des outils d'intelligence artificielle générative dans les opérations quotidiennes, en particulier dans les ressources humaines, les audits d'IA deviennent de plus en...

Certification en conformité AI : un atout pour l’avenir professionnel

La certification en conformité de l'IA prépare les professionnels à comprendre et à mettre en œuvre les exigences réglementaires en constante évolution, ce qui les rend indispensables. Obtenir cette...

Régulations des IA : Les États prennent les devants face à l’inaction du Congrès

Ce mois-ci, le Sénat américain a voté pour annuler une disposition controversée dans le vaste paquet fiscal et de dépenses du président Trump, qui aurait empêché les États et les collectivités locales...

Éthique et durabilité : l’avenir de l’IA en question

Alors que la Journée de l'Appréciation de l'IA approche, les leaders de l'industrie réfléchissent à l'impact croissant de l'intelligence artificielle en Australie et dans le monde. Ils soulignent à la...