Définition des systèmes d’intelligence artificielle : enjeux et clarifications

A data cloud

Comprendre la portée de la définition du système d’intelligence artificielle (IA) : points clés des directives de la Commission européenne

Avec l’entrée en vigueur de la loi sur l’IA (Règlement 2024/1689) en août 2024, un cadre pionnier pour l’IA a été établi.

Le 2 février 2025, les premières dispositions de la loi sur l’IA sont devenues applicables, y compris la définition du système d’IA, la littératie en IA et un nombre limité de pratiques d’IA interdites. Conformément à l’article 96 de la loi sur l’IA, la Commission européenne a publié des directives détaillées le 6 février 2025 sur l’application de la définition d’un système d’IA.

Ces directives non contraignantes sont d’une grande pertinence pratique, car elles visent à apporter une clarté juridique à l’un des aspects les plus fondamentaux de la loi : ce qui qualifie un « système d’IA » au sens du droit de l’UE. Leur publication offre des orientations critiques pour les développeurs, fournisseurs, déployeurs et autorités réglementaires cherchant à comprendre la portée de la loi sur l’IA et à évaluer si des systèmes spécifiques y entrent.

Éléments de la définition de « système d’IA »

L’article 3(1) de la loi sur l’IA définit un système d’IA comme un système basé sur une machine conçu pour fonctionner avec des niveaux d’autonomie variables, qui peut faire preuve d’adaptabilité après son déploiement et qui, pour des objectifs explicites ou implicites, déduit des entrées reçues comment générer des résultats, tels que des prévisions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels.

La Commission européenne souligne que cette définition est basée sur une perspective de cycle de vie, couvrant à la fois la phase de construction (pré-déploiement) et la phase d’utilisation (post-déploiement). Il est important de noter que tous les éléments de définition ne doivent pas toujours être présents : certains peuvent n’apparaître qu’à un stade, rendant la définition adaptable à une large gamme de technologies, conformément à l’approche pérenne de la loi sur l’IA.

Système basé sur une machine

Les directives confirment que tous les systèmes d’IA doivent fonctionner par le biais de machines – composées à la fois de matériel (par ex., processeurs, mémoire et interfaces) et de logiciel (par ex., code, algorithmes et modèles). Cela inclut non seulement les systèmes numériques traditionnels, mais aussi des plateformes avancées telles que l’informatique quantique et l’informatique biologique, tant qu’elles possèdent une capacité de calcul.

Autonomie

Une autre exigence essentielle est l’autonomie, décrite comme la capacité d’un système à fonctionner avec un certain degré d’indépendance par rapport au contrôle humain. Cela n’implique pas nécessairement une automatisation complète, mais peut inclure des systèmes capables de fonctionner sur la base d’une entrée humaine indirecte ou d’une supervision.

Adaptabilité

Un système d’IA peut, mais n’est pas tenu de, faire preuve d’adaptabilité – ce qui signifie qu’il peut modifier son comportement après déploiement en fonction de nouvelles données ou expériences. Il est important de noter que l’adaptabilité est optionnelle et que les systèmes sans capacités d’apprentissage peuvent toujours être qualifiés d’IA si d’autres critères sont remplis. Toutefois, cette caractéristique est cruciale pour différencier les systèmes d’IA dynamiques des logiciels statiques.

Objectifs des systèmes

Les systèmes d’IA sont désignés pour atteindre des objectifs spécifiques, qui peuvent être explicites (clairement programmés) ou implicites (dérivés des données d’entraînement ou du comportement du système). Ces objectifs internes diffèrent de l’usage prévu, qui est défini de manière externe par son fournisseur et le contexte d’utilisation.

Capacités d’inférence

La capacité de déduire comment générer des résultats en fonction des données d’entrée définit un système d’IA. Cela les distingue des logiciels traditionnels basés sur des règles ou déterministes. Selon les directives, l’inférence englobe à la fois la phase d’utilisation, où les résultats tels que les prévisions, décisions ou recommandations sont générés, ainsi que la phase de construction, où des modèles ou algorithmes sont dérivés en utilisant des techniques d’IA.

Résultats pouvant influencer des environnements physiques ou virtuels

Le résultat d’un système d’IA (prévisions, contenu, recommandations ou décisions) doit être capable d’influencer des environnements physiques ou virtuels. Cela capture la large fonctionnalité de l’IA moderne, allant des véhicules autonomes et des modèles de langage aux moteurs de recommandation. Les systèmes qui ne traitent ou ne visualisent que des données sans influencer aucun résultat tombent en dehors de la définition.

Interaction avec l’environnement

Enfin, les systèmes d’IA doivent être capables d’interagir avec leur environnement, qu’il soit physique (par ex., systèmes robotiques) ou virtuel (par ex., assistants numériques). Cet élément souligne l’impact pratique des systèmes d’IA et les distingue davantage des logiciels purement passifs ou isolés.

Systèmes exclus de la définition de système d’IA

En plus de l’explication large des éléments de définition des systèmes d’IA, ces directives clarifient ce qui n’est pas considéré comme de l’IA au sens de la loi sur l’IA, même si certains systèmes montrent des traits d’inférence rudimentaires :

  • Systèmes d’amélioration de l’optimisation mathématique – Les systèmes, tels que certains outils d’apprentissage automatique, utilisés uniquement pour améliorer les performances computationnelles (par ex., pour améliorer les vitesses de simulation ou l’allocation de bande passante) tombent hors du champ d’application, sauf s’ils impliquent une prise de décision intelligente.
  • Outils de traitement de données de base – Les systèmes exécutant des instructions ou calculs pré-définis (par ex., tableurs, tableaux de bord et bases de données) sans apprentissage, raisonnement ou modélisation ne sont pas considérés comme des systèmes d’IA.
  • Systèmes heuristiques classiques – Les systèmes de résolution de problèmes basés sur des règles qui n’évoluent pas par des données ou des expériences, tels que les programmes d’échecs basés uniquement sur des algorithmes minimax, sont également exclus.
  • Moteurs de prédiction simples – Les outils utilisant des méthodes statistiques de base (par ex., prévision basées sur des moyennes) pour le benchmarking ou les prévisions, sans reconnaissance de motifs complexe ou inférence, ne répondent pas au seuil de la définition.

La Commission européenne conclut en soulignant les aspects suivants :

  • Il convient de noter que la définition d’un système d’IA dans la loi sur l’IA est large et doit être évaluée en fonction de la manière dont chaque système fonctionne en pratique.
  • Il n’existe pas de liste exhaustive de ce qui est considéré comme de l’IA, chaque cas dépend des caractéristiques du système.
  • Tous les systèmes d’IA ne sont pas soumis à des obligations réglementaires et à un contrôle en vertu de la loi sur l’IA.
  • Seuls ceux présentant des risques plus élevés, tels que ceux couverts par les règles sur l’IA prohibée ou à haut risque, seront soumis à des obligations légales.

Ces directives jouent un rôle important dans le soutien à la mise en œuvre efficace de la loi sur l’IA. En clarifiant ce qui est entendu par un système d’IA, elles offrent une certitude juridique accrue et aident tous les acteurs concernés, tels que les régulateurs, fournisseurs et utilisateurs, à comprendre comment les règles s’appliquent en pratique. Leur approche fonctionnelle et flexible reflète la diversité des technologies d’IA et offre une base pratique pour distinguer les systèmes d’IA des logiciels traditionnels. En tant que tel, les directives contribuent à une application plus cohérente et fiable de la réglementation à travers l’UE.

Articles

Ingénieurs en IA : Performance ou Responsabilité ?

L'intelligence artificielle a connu une explosion de ses capacités, plaçant les ingénieurs en IA à l'avant-garde de l'innovation. Pendant ce temps, la responsabilité éthique devient cruciale, car les...

L’IA responsable : un impératif incontournable

L'intelligence artificielle responsable n'est plus un simple mot à la mode, mais une nécessité fondamentale, selon Dr Anna Zeiter. Elle souligne l'importance d'établir des systèmes d'IA fiables et...

Intégrer l’IA en toute conformité dans votre entreprise

L'adoption de l'IA dans les entreprises échoue au moins deux fois plus souvent qu'elle ne réussit, selon la Cloud Security Alliance (CSA). Le modèle proposé, appelé Dynamic Process Landscape (DPL)...

Préserver les données générées par l’IA : enjeux et meilleures pratiques

Les outils d'intelligence artificielle générative (GAI) soulèvent des préoccupations juridiques telles que la confidentialité des données et les considérations de privilège. Les organisations doivent...

L’Intelligence Artificielle Responsable : Principes et Avantages

Aujourd'hui, l'IA change la façon dont nous vivons et travaillons, il est donc très important de l'utiliser de manière appropriée. L'IA responsable signifie créer et utiliser une IA qui est juste...

Réussir avec l’IA : Éthique et Gouvernance au cœur de l’Innovation

Il y a vingt ans, personne n'aurait pu prédire que nous compterions sur l'intelligence artificielle (IA) pour prendre des décisions commerciales critiques. Aujourd'hui, les entreprises doivent se...

Régulation de l’IA en Espagne : Pionnière en Europe

L'Espagne est à l'avant-garde de la gouvernance de l'IA avec la création du premier régulateur européen de l'IA (AESIA) et un cadre réglementaire en cours d'élaboration. Un projet de loi national sur...

Réglementation de l’IA : État des lieux et enjeux mondiaux

L'intelligence artificielle (IA) a connu des avancées considérables ces dernières années, ce qui a entraîné des opportunités et des risques potentiels. Les gouvernements et les organismes de...

L’IA dans les jeux d’argent : enjeux et responsabilités

L'article aborde l'impact de l'intelligence artificielle dans l'industrie des jeux d'argent, mettant en lumière les promesses d'efficacité et les risques réglementaires croissants. Les opérateurs...