Clarification des systèmes d’intelligence artificielle par la Commission européenne

A magnifying glass

La Commission Européenne Clarifie la Définition des Systèmes d’IA

La Commission Européenne a récemment publié des directives qui clarifient la définition des systèmes d’intelligence artificielle (IA) dans le cadre de la loi sur l’IA. Ces directives analysent chaque composant de la définition, fournissent des exemples et précisent quels systèmes doivent être exclus de cette définition. Bien que non contraignantes, ces orientations constituent un outil utile pour les entreprises afin d’évaluer si elles relèvent du champ d’application de la loi sur l’IA.

Les directives ont été approuvées par la Commission, mais n’ont pas encore été formellement adoptées.

Comment la Loi sur l’IA Définit-elle les Systèmes d’IA ?

L’article 3(1) de la loi sur l’IA définit les systèmes d’IA comme suit : « un système d’IA signifie un système basé sur une machine conçu pour fonctionner avec divers niveaux d’autonomie et qui peut présenter une adaptabilité après son déploiement, et qui, pour des objectifs explicites ou implicites, infère, à partir des entrées qu’il reçoit, comment générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels. » Le considérant 12 de la loi sur l’IA fournit des orientations interprétatives non contraignantes concernant la définition d’un système d’IA, que les directives de la Commission Européenne soutiennent davantage.

Les Sept Composants de la Définition des Systèmes d’IA

1. Les systèmes d’IA sont des systèmes basés sur des machines.

Les directives clarifient que le terme « basé sur des machines » dans le contexte des systèmes d’IA fait référence à l’intégration de composants matériels et logiciels qui permettent à ces systèmes de fonctionner. Cela souligne le fait que ces systèmes doivent être pilotés par ordinateur et basés sur des opérations de machines.

2. Les systèmes d’IA doivent avoir un certain degré d’autonomie.

Le considérant 12 de la loi sur l’IA spécifie que les systèmes d’IA devraient avoir « un certain degré d’indépendance des actions par rapport à l’implication humaine et de capacités à fonctionner sans intervention humaine ». La Commission Européenne précise que la notion de système d’IA exclut donc les systèmes conçus pour fonctionner uniquement avec une intervention humaine manuelle complète.

3. Les systèmes d’IA peuvent s’adapter après déploiement.

La définition d’un système d’IA dans la loi sur l’IA indique qu’un système peut présenter une adaptabilité après son déploiement. Le considérant 12 clarifie que l’« adaptabilité » fait référence aux capacités d’auto-apprentissage, permettant au comportement du système de changer pendant son utilisation.

4. Les systèmes d’IA sont conçus pour fonctionner selon des objectifs.

Les directives spécifient que les objectifs du système peuvent être explicites (c’est-à-dire des buts clairement énoncés que le développeur encode directement dans le système) ou implicites (c’est-à-dire des objectifs non explicitement énoncés mais pouvant être déduits du comportement ou des hypothèses sous-jacentes du système).

5. Les systèmes d’IA doivent être capables d’inférer des sorties.

Ceci est un élément clé de la définition des « systèmes d’IA ». Le considérant 12 indique que la définition vise, en particulier, à distinguer les systèmes d’IA des systèmes logiciels traditionnels plus simples. La Commission Européenne a clarifié ce qui constitue un « système logiciel traditionnel plus simple » suite à une consultation publique lancée en novembre 2024.

6. Les sorties des systèmes d’IA doivent être capables d’influencer des environnements physiques ou virtuels.

La Commission décrit quatre types de sorties listées dans la définition d’un système d’IA (prédictions, création de contenu, recommandations et décisions). Elle précise que les systèmes d’IA peuvent générer des sorties plus nuancées que d’autres systèmes.

7. Les systèmes d’IA doivent pouvoir interagir avec l’environnement.

Ce composant de la définition signifie que les systèmes d’IA sont actifs, pas passifs. Cela signifie qu’un système d’IA peut influencer des objets tangibles, comme un bras robotique, et des environnements virtuels, tels que des espaces numériques, des flux de données et des écosystèmes logiciels.

Quelles Sont les Prochaines Étapes ?

Dans le cadre de leur évaluation pour déterminer si et comment la loi sur l’IA peut s’appliquer à leurs produits et opérations, les organisations doivent évaluer les systèmes d’IA qu’elles développent et/ou utilisent conformément à la définition fournie par la loi et les directives. Cette évaluation, notamment en ce qui concerne la capacité d’inférence, doit être réalisée par des équipes juridiques et techniques.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...