Définition des systèmes d’intelligence artificielle : enjeux et clarifications

A data cloud

Comprendre la portée de la définition du système d’intelligence artificielle (IA) : points clés des directives de la Commission européenne

Avec l’entrée en vigueur de la loi sur l’IA (Règlement 2024/1689) en août 2024, un cadre pionnier pour l’IA a été établi.

Le 2 février 2025, les premières dispositions de la loi sur l’IA sont devenues applicables, y compris la définition du système d’IA, la littératie en IA et un nombre limité de pratiques d’IA interdites. Conformément à l’article 96 de la loi sur l’IA, la Commission européenne a publié des directives détaillées le 6 février 2025 sur l’application de la définition d’un système d’IA.

Ces directives non contraignantes sont d’une grande pertinence pratique, car elles visent à apporter une clarté juridique à l’un des aspects les plus fondamentaux de la loi : ce qui qualifie un « système d’IA » au sens du droit de l’UE. Leur publication offre des orientations critiques pour les développeurs, fournisseurs, déployeurs et autorités réglementaires cherchant à comprendre la portée de la loi sur l’IA et à évaluer si des systèmes spécifiques y entrent.

Éléments de la définition de « système d’IA »

L’article 3(1) de la loi sur l’IA définit un système d’IA comme un système basé sur une machine conçu pour fonctionner avec des niveaux d’autonomie variables, qui peut faire preuve d’adaptabilité après son déploiement et qui, pour des objectifs explicites ou implicites, déduit des entrées reçues comment générer des résultats, tels que des prévisions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels.

La Commission européenne souligne que cette définition est basée sur une perspective de cycle de vie, couvrant à la fois la phase de construction (pré-déploiement) et la phase d’utilisation (post-déploiement). Il est important de noter que tous les éléments de définition ne doivent pas toujours être présents : certains peuvent n’apparaître qu’à un stade, rendant la définition adaptable à une large gamme de technologies, conformément à l’approche pérenne de la loi sur l’IA.

Système basé sur une machine

Les directives confirment que tous les systèmes d’IA doivent fonctionner par le biais de machines – composées à la fois de matériel (par ex., processeurs, mémoire et interfaces) et de logiciel (par ex., code, algorithmes et modèles). Cela inclut non seulement les systèmes numériques traditionnels, mais aussi des plateformes avancées telles que l’informatique quantique et l’informatique biologique, tant qu’elles possèdent une capacité de calcul.

Autonomie

Une autre exigence essentielle est l’autonomie, décrite comme la capacité d’un système à fonctionner avec un certain degré d’indépendance par rapport au contrôle humain. Cela n’implique pas nécessairement une automatisation complète, mais peut inclure des systèmes capables de fonctionner sur la base d’une entrée humaine indirecte ou d’une supervision.

Adaptabilité

Un système d’IA peut, mais n’est pas tenu de, faire preuve d’adaptabilité – ce qui signifie qu’il peut modifier son comportement après déploiement en fonction de nouvelles données ou expériences. Il est important de noter que l’adaptabilité est optionnelle et que les systèmes sans capacités d’apprentissage peuvent toujours être qualifiés d’IA si d’autres critères sont remplis. Toutefois, cette caractéristique est cruciale pour différencier les systèmes d’IA dynamiques des logiciels statiques.

Objectifs des systèmes

Les systèmes d’IA sont désignés pour atteindre des objectifs spécifiques, qui peuvent être explicites (clairement programmés) ou implicites (dérivés des données d’entraînement ou du comportement du système). Ces objectifs internes diffèrent de l’usage prévu, qui est défini de manière externe par son fournisseur et le contexte d’utilisation.

Capacités d’inférence

La capacité de déduire comment générer des résultats en fonction des données d’entrée définit un système d’IA. Cela les distingue des logiciels traditionnels basés sur des règles ou déterministes. Selon les directives, l’inférence englobe à la fois la phase d’utilisation, où les résultats tels que les prévisions, décisions ou recommandations sont générés, ainsi que la phase de construction, où des modèles ou algorithmes sont dérivés en utilisant des techniques d’IA.

Résultats pouvant influencer des environnements physiques ou virtuels

Le résultat d’un système d’IA (prévisions, contenu, recommandations ou décisions) doit être capable d’influencer des environnements physiques ou virtuels. Cela capture la large fonctionnalité de l’IA moderne, allant des véhicules autonomes et des modèles de langage aux moteurs de recommandation. Les systèmes qui ne traitent ou ne visualisent que des données sans influencer aucun résultat tombent en dehors de la définition.

Interaction avec l’environnement

Enfin, les systèmes d’IA doivent être capables d’interagir avec leur environnement, qu’il soit physique (par ex., systèmes robotiques) ou virtuel (par ex., assistants numériques). Cet élément souligne l’impact pratique des systèmes d’IA et les distingue davantage des logiciels purement passifs ou isolés.

Systèmes exclus de la définition de système d’IA

En plus de l’explication large des éléments de définition des systèmes d’IA, ces directives clarifient ce qui n’est pas considéré comme de l’IA au sens de la loi sur l’IA, même si certains systèmes montrent des traits d’inférence rudimentaires :

  • Systèmes d’amélioration de l’optimisation mathématique – Les systèmes, tels que certains outils d’apprentissage automatique, utilisés uniquement pour améliorer les performances computationnelles (par ex., pour améliorer les vitesses de simulation ou l’allocation de bande passante) tombent hors du champ d’application, sauf s’ils impliquent une prise de décision intelligente.
  • Outils de traitement de données de base – Les systèmes exécutant des instructions ou calculs pré-définis (par ex., tableurs, tableaux de bord et bases de données) sans apprentissage, raisonnement ou modélisation ne sont pas considérés comme des systèmes d’IA.
  • Systèmes heuristiques classiques – Les systèmes de résolution de problèmes basés sur des règles qui n’évoluent pas par des données ou des expériences, tels que les programmes d’échecs basés uniquement sur des algorithmes minimax, sont également exclus.
  • Moteurs de prédiction simples – Les outils utilisant des méthodes statistiques de base (par ex., prévision basées sur des moyennes) pour le benchmarking ou les prévisions, sans reconnaissance de motifs complexe ou inférence, ne répondent pas au seuil de la définition.

La Commission européenne conclut en soulignant les aspects suivants :

  • Il convient de noter que la définition d’un système d’IA dans la loi sur l’IA est large et doit être évaluée en fonction de la manière dont chaque système fonctionne en pratique.
  • Il n’existe pas de liste exhaustive de ce qui est considéré comme de l’IA, chaque cas dépend des caractéristiques du système.
  • Tous les systèmes d’IA ne sont pas soumis à des obligations réglementaires et à un contrôle en vertu de la loi sur l’IA.
  • Seuls ceux présentant des risques plus élevés, tels que ceux couverts par les règles sur l’IA prohibée ou à haut risque, seront soumis à des obligations légales.

Ces directives jouent un rôle important dans le soutien à la mise en œuvre efficace de la loi sur l’IA. En clarifiant ce qui est entendu par un système d’IA, elles offrent une certitude juridique accrue et aident tous les acteurs concernés, tels que les régulateurs, fournisseurs et utilisateurs, à comprendre comment les règles s’appliquent en pratique. Leur approche fonctionnelle et flexible reflète la diversité des technologies d’IA et offre une base pratique pour distinguer les systèmes d’IA des logiciels traditionnels. En tant que tel, les directives contribuent à une application plus cohérente et fiable de la réglementation à travers l’UE.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...