Clarification des systèmes d’intelligence artificielle par la Commission européenne

A magnifying glass

La Commission Européenne Clarifie la Définition des Systèmes d’IA

La Commission Européenne a récemment publié des directives qui clarifient la définition des systèmes d’intelligence artificielle (IA) dans le cadre de la loi sur l’IA. Ces directives analysent chaque composant de la définition, fournissent des exemples et précisent quels systèmes doivent être exclus de cette définition. Bien que non contraignantes, ces orientations constituent un outil utile pour les entreprises afin d’évaluer si elles relèvent du champ d’application de la loi sur l’IA.

Les directives ont été approuvées par la Commission, mais n’ont pas encore été formellement adoptées.

Comment la Loi sur l’IA Définit-elle les Systèmes d’IA ?

L’article 3(1) de la loi sur l’IA définit les systèmes d’IA comme suit : « un système d’IA signifie un système basé sur une machine conçu pour fonctionner avec divers niveaux d’autonomie et qui peut présenter une adaptabilité après son déploiement, et qui, pour des objectifs explicites ou implicites, infère, à partir des entrées qu’il reçoit, comment générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels. » Le considérant 12 de la loi sur l’IA fournit des orientations interprétatives non contraignantes concernant la définition d’un système d’IA, que les directives de la Commission Européenne soutiennent davantage.

Les Sept Composants de la Définition des Systèmes d’IA

1. Les systèmes d’IA sont des systèmes basés sur des machines.

Les directives clarifient que le terme « basé sur des machines » dans le contexte des systèmes d’IA fait référence à l’intégration de composants matériels et logiciels qui permettent à ces systèmes de fonctionner. Cela souligne le fait que ces systèmes doivent être pilotés par ordinateur et basés sur des opérations de machines.

2. Les systèmes d’IA doivent avoir un certain degré d’autonomie.

Le considérant 12 de la loi sur l’IA spécifie que les systèmes d’IA devraient avoir « un certain degré d’indépendance des actions par rapport à l’implication humaine et de capacités à fonctionner sans intervention humaine ». La Commission Européenne précise que la notion de système d’IA exclut donc les systèmes conçus pour fonctionner uniquement avec une intervention humaine manuelle complète.

3. Les systèmes d’IA peuvent s’adapter après déploiement.

La définition d’un système d’IA dans la loi sur l’IA indique qu’un système peut présenter une adaptabilité après son déploiement. Le considérant 12 clarifie que l’« adaptabilité » fait référence aux capacités d’auto-apprentissage, permettant au comportement du système de changer pendant son utilisation.

4. Les systèmes d’IA sont conçus pour fonctionner selon des objectifs.

Les directives spécifient que les objectifs du système peuvent être explicites (c’est-à-dire des buts clairement énoncés que le développeur encode directement dans le système) ou implicites (c’est-à-dire des objectifs non explicitement énoncés mais pouvant être déduits du comportement ou des hypothèses sous-jacentes du système).

5. Les systèmes d’IA doivent être capables d’inférer des sorties.

Ceci est un élément clé de la définition des « systèmes d’IA ». Le considérant 12 indique que la définition vise, en particulier, à distinguer les systèmes d’IA des systèmes logiciels traditionnels plus simples. La Commission Européenne a clarifié ce qui constitue un « système logiciel traditionnel plus simple » suite à une consultation publique lancée en novembre 2024.

6. Les sorties des systèmes d’IA doivent être capables d’influencer des environnements physiques ou virtuels.

La Commission décrit quatre types de sorties listées dans la définition d’un système d’IA (prédictions, création de contenu, recommandations et décisions). Elle précise que les systèmes d’IA peuvent générer des sorties plus nuancées que d’autres systèmes.

7. Les systèmes d’IA doivent pouvoir interagir avec l’environnement.

Ce composant de la définition signifie que les systèmes d’IA sont actifs, pas passifs. Cela signifie qu’un système d’IA peut influencer des objets tangibles, comme un bras robotique, et des environnements virtuels, tels que des espaces numériques, des flux de données et des écosystèmes logiciels.

Quelles Sont les Prochaines Étapes ?

Dans le cadre de leur évaluation pour déterminer si et comment la loi sur l’IA peut s’appliquer à leurs produits et opérations, les organisations doivent évaluer les systèmes d’IA qu’elles développent et/ou utilisent conformément à la définition fournie par la loi et les directives. Cette évaluation, notamment en ce qui concerne la capacité d’inférence, doit être réalisée par des équipes juridiques et techniques.

Articles

Gouvernance de l’IA : Une avancée institutionnelle aux Émirats

Des experts affirment que les Émirats Arabes Unis sont en train de connaître une gouvernance de l'intelligence artificielle institutionnalisée. Cette évolution marque une étape importante dans la...

L’impact de l’AI Act de l’UE sur l’innovation américaine

Les États-Unis souhaitent annuler le code de pratique de l'IA de l'UE, laissant les entreprises développer leurs propres normes de risque. Les critiques affirment que ce code étouffe l'innovation et...

Les attentes des géants de la tech face au plan d’action sur l’IA aux États-Unis

Les grandes entreprises technologiques et les startups en intelligence artificielle ont exprimé leurs souhaits concernant le plan d'action de l'IA du gouvernement américain. Elles demandent notamment...

Czechia et l’Acte sur l’Intelligence Artificielle : Vers une réglementation éclairée

Avec l'essor de l'IA, l'Union européenne a introduit des réglementations pour standardiser certaines règles de son utilisation. La loi sur l'intelligence artificielle interdit notamment l'utilisation...

Anticiper les enjeux du règlement sur l’IA en Europe

L'Acte sur l'IA de l'UE s'applique à toute organisation qui commercialise, utilise ou bénéficie de systèmes d'IA au sein de l'UE. Les entreprises doivent se conformer à ces nouvelles régulations pour...

Innover avec responsabilité à l’ère de l’IA

Alors que l'IA transforme les industries, l'équilibre entre innovation et responsabilité devient crucial. Les cadres de gouvernance et l'évolution des réglementations dans le monde entier sont...

Risques inacceptables de l’abandon de la directive sur la responsabilité liée à l’IA

L'abandon de la directive sur la responsabilité liée à l'IA par la Commission européenne entraîne des risques inacceptables pour les entreprises. Cette décision crée une incertitude juridique qui...

Régulation de l’IA : Équilibre entre innovation et sécurité

La loi sur l'IA de l'UE est entrée en vigueur, avec des règles pour l'IA générative devant s'appliquer à partir d'août 2025. Pendant ce temps, le Royaume-Uni continue d'adopter une approche flexible...

Gouvernance de l’IA : un impératif pour les entreprises

L'intelligence artificielle (IA) transforme rapidement les industries, mais son adoption généralisée pose de nouveaux défis en matière de gouvernance. Une plateforme de gouvernance de l'IA permet aux...