Comprendre la portée de la définition du système d’intelligence artificielle (IA) : points clés des directives de la Commission européenne
Avec l’entrée en vigueur de la loi sur l’IA (Règlement 2024/1689) en août 2024, un cadre pionnier pour l’IA a été établi.
Le 2 février 2025, les premières dispositions de la loi sur l’IA sont devenues applicables, y compris la définition du système d’IA, la littératie en IA et un nombre limité de pratiques d’IA interdites. Conformément à l’article 96 de la loi sur l’IA, la Commission européenne a publié des directives détaillées le 6 février 2025 sur l’application de la définition d’un système d’IA.
Ces directives non contraignantes sont d’une grande pertinence pratique, car elles visent à apporter une clarté juridique à l’un des aspects les plus fondamentaux de la loi : ce qui qualifie un « système d’IA » au sens du droit de l’UE. Leur publication offre des orientations critiques pour les développeurs, fournisseurs, déployeurs et autorités réglementaires cherchant à comprendre la portée de la loi sur l’IA et à évaluer si des systèmes spécifiques y entrent.
Éléments de la définition de « système d’IA »
L’article 3(1) de la loi sur l’IA définit un système d’IA comme un système basé sur une machine conçu pour fonctionner avec des niveaux d’autonomie variables, qui peut faire preuve d’adaptabilité après son déploiement et qui, pour des objectifs explicites ou implicites, déduit des entrées reçues comment générer des résultats, tels que des prévisions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels.
La Commission européenne souligne que cette définition est basée sur une perspective de cycle de vie, couvrant à la fois la phase de construction (pré-déploiement) et la phase d’utilisation (post-déploiement). Il est important de noter que tous les éléments de définition ne doivent pas toujours être présents : certains peuvent n’apparaître qu’à un stade, rendant la définition adaptable à une large gamme de technologies, conformément à l’approche pérenne de la loi sur l’IA.
Système basé sur une machine
Les directives confirment que tous les systèmes d’IA doivent fonctionner par le biais de machines – composées à la fois de matériel (par ex., processeurs, mémoire et interfaces) et de logiciel (par ex., code, algorithmes et modèles). Cela inclut non seulement les systèmes numériques traditionnels, mais aussi des plateformes avancées telles que l’informatique quantique et l’informatique biologique, tant qu’elles possèdent une capacité de calcul.
Autonomie
Une autre exigence essentielle est l’autonomie, décrite comme la capacité d’un système à fonctionner avec un certain degré d’indépendance par rapport au contrôle humain. Cela n’implique pas nécessairement une automatisation complète, mais peut inclure des systèmes capables de fonctionner sur la base d’une entrée humaine indirecte ou d’une supervision.
Adaptabilité
Un système d’IA peut, mais n’est pas tenu de, faire preuve d’adaptabilité – ce qui signifie qu’il peut modifier son comportement après déploiement en fonction de nouvelles données ou expériences. Il est important de noter que l’adaptabilité est optionnelle et que les systèmes sans capacités d’apprentissage peuvent toujours être qualifiés d’IA si d’autres critères sont remplis. Toutefois, cette caractéristique est cruciale pour différencier les systèmes d’IA dynamiques des logiciels statiques.
Objectifs des systèmes
Les systèmes d’IA sont désignés pour atteindre des objectifs spécifiques, qui peuvent être explicites (clairement programmés) ou implicites (dérivés des données d’entraînement ou du comportement du système). Ces objectifs internes diffèrent de l’usage prévu, qui est défini de manière externe par son fournisseur et le contexte d’utilisation.
Capacités d’inférence
La capacité de déduire comment générer des résultats en fonction des données d’entrée définit un système d’IA. Cela les distingue des logiciels traditionnels basés sur des règles ou déterministes. Selon les directives, l’inférence englobe à la fois la phase d’utilisation, où les résultats tels que les prévisions, décisions ou recommandations sont générés, ainsi que la phase de construction, où des modèles ou algorithmes sont dérivés en utilisant des techniques d’IA.
Résultats pouvant influencer des environnements physiques ou virtuels
Le résultat d’un système d’IA (prévisions, contenu, recommandations ou décisions) doit être capable d’influencer des environnements physiques ou virtuels. Cela capture la large fonctionnalité de l’IA moderne, allant des véhicules autonomes et des modèles de langage aux moteurs de recommandation. Les systèmes qui ne traitent ou ne visualisent que des données sans influencer aucun résultat tombent en dehors de la définition.
Interaction avec l’environnement
Enfin, les systèmes d’IA doivent être capables d’interagir avec leur environnement, qu’il soit physique (par ex., systèmes robotiques) ou virtuel (par ex., assistants numériques). Cet élément souligne l’impact pratique des systèmes d’IA et les distingue davantage des logiciels purement passifs ou isolés.
Systèmes exclus de la définition de système d’IA
En plus de l’explication large des éléments de définition des systèmes d’IA, ces directives clarifient ce qui n’est pas considéré comme de l’IA au sens de la loi sur l’IA, même si certains systèmes montrent des traits d’inférence rudimentaires :
- Systèmes d’amélioration de l’optimisation mathématique – Les systèmes, tels que certains outils d’apprentissage automatique, utilisés uniquement pour améliorer les performances computationnelles (par ex., pour améliorer les vitesses de simulation ou l’allocation de bande passante) tombent hors du champ d’application, sauf s’ils impliquent une prise de décision intelligente.
- Outils de traitement de données de base – Les systèmes exécutant des instructions ou calculs pré-définis (par ex., tableurs, tableaux de bord et bases de données) sans apprentissage, raisonnement ou modélisation ne sont pas considérés comme des systèmes d’IA.
- Systèmes heuristiques classiques – Les systèmes de résolution de problèmes basés sur des règles qui n’évoluent pas par des données ou des expériences, tels que les programmes d’échecs basés uniquement sur des algorithmes minimax, sont également exclus.
- Moteurs de prédiction simples – Les outils utilisant des méthodes statistiques de base (par ex., prévision basées sur des moyennes) pour le benchmarking ou les prévisions, sans reconnaissance de motifs complexe ou inférence, ne répondent pas au seuil de la définition.
La Commission européenne conclut en soulignant les aspects suivants :
- Il convient de noter que la définition d’un système d’IA dans la loi sur l’IA est large et doit être évaluée en fonction de la manière dont chaque système fonctionne en pratique.
- Il n’existe pas de liste exhaustive de ce qui est considéré comme de l’IA, chaque cas dépend des caractéristiques du système.
- Tous les systèmes d’IA ne sont pas soumis à des obligations réglementaires et à un contrôle en vertu de la loi sur l’IA.
- Seuls ceux présentant des risques plus élevés, tels que ceux couverts par les règles sur l’IA prohibée ou à haut risque, seront soumis à des obligations légales.
Ces directives jouent un rôle important dans le soutien à la mise en œuvre efficace de la loi sur l’IA. En clarifiant ce qui est entendu par un système d’IA, elles offrent une certitude juridique accrue et aident tous les acteurs concernés, tels que les régulateurs, fournisseurs et utilisateurs, à comprendre comment les règles s’appliquent en pratique. Leur approche fonctionnelle et flexible reflète la diversité des technologies d’IA et offre une base pratique pour distinguer les systèmes d’IA des logiciels traditionnels. En tant que tel, les directives contribuent à une application plus cohérente et fiable de la réglementation à travers l’UE.