Gouvernance de l’IA responsable : considérations clés pour les organisations australiennes
Avec la productivité à son niveau le plus bas en 60 ans et le gouvernement fédéral ayant récemment engagé 900 millions de dollars supplémentaires pour faire face à ce défi, l’intelligence artificielle (IA) se présente comme une opportunité pour stimuler la croissance économique et favoriser l’innovation, de nombreuses organisations capitalisant déjà sur son potentiel.
Cependant, malgré le potentiel de l’IA pour améliorer la productivité, une enquête IPSOS de 2024 a révélé que 64 % des Australiens sont encore inquiets de son utilisation. Cette hésitation souligne la nécessité pour les organisations d’intégrer une approche responsable de l’IA, qui va au-delà de la conformité légale pour intégrer des principes d’IA éthique dans les stratégies de gouvernance, et mettre en place des sauvegardes pratiques pour s’assurer que la technologie est formée, conçue et déployée de manière sûre, transparente et conforme aux attentes du public.
Réglementation de l’IA dans le monde
L’environnement réglementaire international en matière d’IA continue d’évoluer dans des directions sensiblement différentes.
Union Européenne
L’Union européenne (UE) a introduit l’Acte sur l’IA de l’UE, entré en vigueur le 1er août 2024. Ce règlement adopte un modèle basé sur les risques qui classe les systèmes d’IA par niveaux de risque variés, avec des obligations correspondantes selon la classification de risque du système. Malgré son intention d’assurer une IA sûre et transparente, l’Acte sur l’IA de l’UE a été controversé, de grandes entreprises technologiques le critiquant pour son impact négatif sur l’innovation.
États-Unis
En revanche, l’approche fédérale des États-Unis (US) a évolué vers la déréglementation. Actuellement, les États-Unis n’ont pas de législation fédérale dédiée à l’IA, s’appuyant plutôt sur des cadres existants tels que ceux régissant la propriété intellectuelle, la protection des données et l’emploi. Bien que des propositions pour une législation fédérale aient émergé, l’administration fédérale actuelle adopte une position déréglementaire concernant l’IA, ce qui remet en question la possibilité d’adoption de telles législations.
Royaume-Uni
De même, le Royaume-Uni (UK) ne dispose pas de législation dédiée à l’IA et privilégie une approche légère et « pro-innovation », comme indiqué dans son Plan d’Action sur les Opportunités de l’IA publié en janvier 2025, qui mentionne peu de discussions réglementaires.
République Populaire de Chine
La République Populaire de Chine (Chine) ne dispose pas actuellement d’une réglementation unifiée sur l’IA, mais réglemente des cas d’utilisation spécifiques de l’IA, y compris la technologie de synthèse profonde, les algorithmes de recommandation et l’IA générative.
Singapour
Conformément à la plupart des juridictions, Singapour n’a pas de législation sur l’IA et s’appuie sur des cadres juridiques existants, soutenus par des orientations sectorielles.
Réglementation de l’IA en Australie : l’état des lieux actuel
Avec l’Acte sur l’IA de l’UE comme exception, le manque de contraintes réglementaires globales et le recul de la réglementation aux États-Unis soulèvent des questions sur les perspectives d’introduction d’un cadre législatif australien sur l’IA.
Actuellement, l’Australie n’a pas de législation dédiée à l’IA, créant de l’incertitude pour les organisations sur la manière de gouverner efficacement l’IA sous les lois existantes. Cependant, un document de propositions publié en septembre 2024 a envisagé d’introduire un cadre législatif basé sur les risques pour réglementer l’IA.
Gouvernance responsable de l’IA
Selon un rapport sur l’IA, les Australiens éprouvent une méfiance significative envers l’IA par rapport au reste du monde, avec seulement 37 % d’entre eux croyant que les avantages de l’IA l’emportent sur ses risques. Les fournisseurs de services financiers et le gouvernement figurent parmi les groupes que les Australiens font le moins confiance pour gérer l’IA de manière alignée avec leurs meilleurs intérêts.
Avec l’absence de législation dédiée à l’IA, les organisations doivent agir maintenant pour mettre en œuvre des cadres de gouvernance de l’IA responsable qui abordent à la fois la conformité légale et le déploiement éthique.
Considérations clés pour les organisations
1. Établir des rôles et responsabilités clairs pour la mise en œuvre, la supervision et le suivi des systèmes d’IA.
2. Comprendre le fonctionnement des systèmes d’IA et leurs cas d’utilisation au sein de l’organisation avant leur mise en service.
3. Comprendre les risques posés par l’IA non autorisée par les employés pour des fins professionnelles.
4. Évaluer les décisions relatives au développement ou à l’utilisation de l’IA d’un point de vue éthique.
5. Assurer des tests rigoureux avant tout déploiement d’IA.
6. Surveiller et gouverner les systèmes d’IA avec un haut degré de supervision humaine après leur déploiement.
Toutes ces actions doivent être complétées par une communication transparente avec les clients et d’autres parties prenantes afin de maintenir une compréhension claire et de gérer les attentes.
Conclusion
En l’absence de législation spécifique à l’IA contraignante, les organisations ne devraient pas considérer l’IA responsable comme optionnelle. En intégrant des principes d’IA responsable dans leurs opérations, les organisations peuvent renforcer la confiance des parties prenantes et bénéficier des gains de productivité que l’IA offre.