Paver la voie à une utilisation sûre et innovante de l’IA en Norvège
Le gouvernement norvégien se prépare à la mise en œuvre et à l’application de nouvelles règles concernant l’intelligence artificielle (IA). Le projet KI-Norge, littéralement « IA Norvège », constitue un élément clé du système de gouvernance nationale qui est en train de se mettre en place. L’introduction du Règlement de l’UE sur l’intelligence artificielle, connu sous le nom de AI Act, définit le cadre permettant aux entreprises et au secteur public d’utiliser cette technologie de manière innovante et éthiquement responsable.
La ministre de la Digitalisation et de la Gouvernance publique, Karianne Tung, a annoncé cette initiative lors d’un événement au laboratoire IA de DNB. Un projet de loi sera diffusé pour commentaires avant l’été, avec pour objectif que la loi norvégienne entre en vigueur à partir de l’été 2026.
« Le gouvernement s’assure que la Norvège puisse tirer parti des opportunités offertes par le développement et l’utilisation de l’intelligence artificielle, tout en veillant à instaurer une confiance publique dans l’utilisation de cette technologie. Il est donc crucial que la Norvège dispose d’une structure nationale de gouvernance robuste pour l’application des règles sur l’IA », a déclaré la ministre.
L’intelligence artificielle est déjà largement utilisée et peut fournir des outils pour résoudre de nombreux défis majeurs dans des domaines tels que la santé, l’industrie et l’éducation. Cependant, cette technologie présente également un potentiel d’abus, notamment dans un contexte mondial d’incertitude et de troubles.
« La loi sur l’IA de l’UE facilitera la compétition des entreprises norvégiennes, car nous suivrons les mêmes règles que le reste de l’Europe. Cela garantira à la fois l’innovation et la responsabilité, éléments essentiels pour établir l’expertise et la confiance parmi les clients et les entreprises », a ajouté la ministre du Commerce et de l’Industrie, Cecilie Myrseth.
Établir l’IA Norvège – une arène nationale pour une intelligence artificielle innovante et responsable
Le gouvernement renforce les efforts nationaux de la Norvège dans le domaine de l’intelligence artificielle en créant IA Norvège – une arène nationale pour une intelligence artificielle innovante et responsable. IA Norvège sera établie en tant qu’environnement d’expertise élargi au sein de l’Agence norvégienne de digitalisation (Digdir). IA Norvège agira comme un moteur et un service de conseil, tout en servant de lien et de partenaire entre les principaux acteurs de l’IA dans le secteur public, le commerce et l’industrie, ainsi que dans le secteur de la recherche et de l’académie.
« L’établissement d’IA Norvège marque un changement de cap dans l’utilisation et le développement de l’intelligence artificielle. Un outil central dans ce travail sera le bac à sable IA, où les entreprises norvégiennes pourront expérimenter, développer et former des systèmes d’IA dans un environnement sécurisé. L’objectif est d’augmenter la compétitivité et de créer davantage d’opportunités pour les systèmes d’IA norvégiens, ce qui sera particulièrement bénéfique pour les start-ups et les petites et moyennes entreprises », a déclaré Tung.
Tung a également souligné que l’établissement d’IA Norvège et la collaboration entre l’Agence norvégienne de digitalisation (Digdir), l’Autorité norvégienne des communications (Nkom) et l’Autorité norvégienne de protection des données (Datatilsynet) renforceront et rationaliseront le travail national sur l’intelligence artificielle.
Norsk akkreditering sera l’organisme d’accréditation national conformément aux réglementations de l’UE
Norsk akkreditering (NA) est l’organisme d’accréditation national de la Norvège pour l’accréditation technique, et a maintenant également reçu cette fonction en ce qui concerne le Règlement européen sur l’IA. En confiant ce rôle requis par la loi sur l’IA de l’UE à NA, nous nous basons sur le système déjà en place dans l’administration publique norvégienne.
L’Autorité norvégienne des communications (Nkom) aura la responsabilité de supervision
Le gouvernement a décidé que l’Autorité norvégienne des communications (Nkom) sera l’autorité nationale de coordination pour l’IA, chargée de veiller à ce que les nouvelles règles de l’UE sur l’intelligence artificielle soient appliquées de manière uniforme en Norvège. En collaboration avec les différentes autorités sectorielles responsables, Nkom surveillera la sécurité et la responsabilité des systèmes d’IA utilisés sur le marché norvégien.
Nkom sera également le point de contact national unique avec les organes de l’UE et d’autres pays, et contribuera à garantir que les réglementations soient comprises et appliquées de manière harmonieuse à travers les frontières nationales.
« L’Autorité norvégienne des communications (Nkom) a reçu un rôle important dans la supervision de la conformité avec les règles de l’UE concernant l’intelligence artificielle en Norvège. Il est essentiel que la société puisse avoir confiance dans le développement de l’intelligence artificielle, aligné sur nos valeurs et règles européennes partagées », a déclaré Tung.
Points clés de la loi sur l’IA de l’UE
- La loi sur l’IA de l’UE est la première réglementation complète au monde dans le domaine de l’intelligence artificielle. Elle garantit une harmonisation entre les États membres et facilite la connaissance des exigences pour assurer le développement et l’utilisation de cette technologie de manière sûre et éthique. Elle vise également à promouvoir l’innovation.
- La loi encourage une IA sûre et éthique qui protège la santé, la sécurité, les droits fondamentaux, la démocratie, l’état de droit et la durabilité environnementale. Cela contribuera à renforcer la confiance et la crédibilité du public envers ce type de technologie.
- La loi fixe des exigences différentes pour les systèmes d’IA en fonction du niveau de risque qu’ils présentent.
- Certaines systèmes d’IA représentent des risques inacceptables et ont été interdits dans l’UE à partir du 2 février 2025. Ces systèmes violent des valeurs fondamentales et des droits humains, par exemple en manipulant ou en exploitant les vulnérabilités des individus.
- Les systèmes d’IA à haut risque sont soumis à des exigences strictes. Ce type de systèmes peut avoir un impact significatif sur les droits fondamentaux des individus. Cependant, le besoin général d’innovation dans la société ne sera pas considérablement affecté.
- Les systèmes d’IA à risque limité doivent se conformer à des obligations de transparence. Le but de ces obligations est de garantir que les utilisateurs réalisent qu’ils interagissent avec une IA.
- Les modèles d’IA destinés à un usage public doivent respecter un certain nombre d’exigences spéciales, telles que des obligations de transparence et le respect des règles sur les droits d’auteur. Un exemple de modèles d’IA destinés à un usage public est celui des modèles de langage génératifs de grande taille.
- La plupart des systèmes d’IA présentent un risque minimal, et la loi ne fixe aucune obligation pour ce type de systèmes. Cela offre des opportunités pour un haut degré d’innovation dans plusieurs secteurs, notamment en ce qui concerne les systèmes visant à simplifier et améliorer l’efficacité des processus.