Les risques juridiques et de souveraineté pour la Nouvelle-Zélande face à l’entrée en vigueur des règles de l’IA de l’UE
La Nouvelle-Zélande risque de perdre le contrôle sur l’utilisation de l’intelligence artificielle dans des secteurs critiques tels que la santé, l’éducation et la justice, à moins qu’elle n’introduise sa propre législation contraignante sur l’IA et ne développe des capacités souveraines, selon des experts de l’industrie.
Contexte des nouvelles règles de l’IA
Les nouvelles règles de l’intelligence artificielle commencent à prendre effet en Europe sous l’Acte sur l’intelligence artificielle de l’Union européenne. Bien que certaines dispositions soient déjà en vigueur cette année, les exigences les plus strictes pour les systèmes à haut risque s’appliqueront à partir du 2 août 2026. À partir de cette date, les organisations opérant dans l’UE devront respecter des normes strictes en matière d’évaluation des risques, de transparence, de documentation, de supervision humaine et de responsabilité.
Absence de législation équivalente en Nouvelle-Zélande
À l’heure actuelle, la Nouvelle-Zélande n’a pas de loi sur l’IA autonome équivalente, les risques technologiques étant gérés par la Charte des algorithmes, la loi sur la protection de la vie privée et les protections générales des droits de l’homme. Il n’existe pas d’autorité réglementaire dédiée à l’IA ni de régime de conformité unifié spécifiquement adapté à cette technologie.
Adoption rapide de l’IA et gouvernance insuffisante
L’adoption de l’IA en Nouvelle-Zélande progresse plus rapidement que les structures de gouvernance conçues pour la superviser. Les agences gouvernementales commencent déjà à tester des outils d’IA générative pour rationaliser le traitement des documents et la fourniture de services, notamment dans le domaine de la santé. L’adoption de l’IA dans les secteurs financier et logistique est principalement menée par des entreprises privées.
Problèmes de responsabilité et de standards techniques
Les systèmes d’IA influencent de plus en plus des décisions concrètes, devenant ainsi partie intégrante de l’infrastructure décisionnelle. Les systèmes modernes d’IA génèrent des probabilités plutôt que des certitudes, ce qui nécessite des normes claires pour tester les erreurs et les biais, ainsi qu’une validation contre des ensembles de données reflétant les communautés locales.
Besoins en capacités d’IA souveraine
Pour que les systèmes d’IA reflètent les réalités locales, la Nouvelle-Zélande doit développer ses propres capacités de formation et d’adaptation à l’IA. Une telle infrastructure nationale nécessiterait des investissements significatifs dans l’informatique haute performance, des environnements de données sécurisés et une expertise spécialisée.
Comparaison avec d’autres pays
Des pays comme l’Australie et Singapour investissent massivement dans les capacités d’IA et la réforme réglementaire, tandis que la Nouvelle-Zélande n’a pas de budget dédié à l’IA. Les systèmes critiques hébergés ou traités à l’étranger exposent également la Nouvelle-Zélande à des risques géopolitiques.
Conclusion
Il est essentiel que la Nouvelle-Zélande définisse ses propres attentes législatives et institutionnelles en matière d’IA. Si le pays ne s’adapte pas à ces défis, les systèmes d’IA intégrés dans ses services essentiels pourraient être façonnés par des normes établies ailleurs, compromettant ainsi sa souveraineté.