Définition des systèmes d’intelligence artificielle : enjeux et clarifications

A data cloud

Comprendre la portée de la définition du système d’intelligence artificielle (IA) : points clés des directives de la Commission européenne

Avec l’entrée en vigueur de la loi sur l’IA (Règlement 2024/1689) en août 2024, un cadre pionnier pour l’IA a été établi.

Le 2 février 2025, les premières dispositions de la loi sur l’IA sont devenues applicables, y compris la définition du système d’IA, la littératie en IA et un nombre limité de pratiques d’IA interdites. Conformément à l’article 96 de la loi sur l’IA, la Commission européenne a publié des directives détaillées le 6 février 2025 sur l’application de la définition d’un système d’IA.

Ces directives non contraignantes sont d’une grande pertinence pratique, car elles visent à apporter une clarté juridique à l’un des aspects les plus fondamentaux de la loi : ce qui qualifie un « système d’IA » au sens du droit de l’UE. Leur publication offre des orientations critiques pour les développeurs, fournisseurs, déployeurs et autorités réglementaires cherchant à comprendre la portée de la loi sur l’IA et à évaluer si des systèmes spécifiques y entrent.

Éléments de la définition de « système d’IA »

L’article 3(1) de la loi sur l’IA définit un système d’IA comme un système basé sur une machine conçu pour fonctionner avec des niveaux d’autonomie variables, qui peut faire preuve d’adaptabilité après son déploiement et qui, pour des objectifs explicites ou implicites, déduit des entrées reçues comment générer des résultats, tels que des prévisions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels.

La Commission européenne souligne que cette définition est basée sur une perspective de cycle de vie, couvrant à la fois la phase de construction (pré-déploiement) et la phase d’utilisation (post-déploiement). Il est important de noter que tous les éléments de définition ne doivent pas toujours être présents : certains peuvent n’apparaître qu’à un stade, rendant la définition adaptable à une large gamme de technologies, conformément à l’approche pérenne de la loi sur l’IA.

Système basé sur une machine

Les directives confirment que tous les systèmes d’IA doivent fonctionner par le biais de machines – composées à la fois de matériel (par ex., processeurs, mémoire et interfaces) et de logiciel (par ex., code, algorithmes et modèles). Cela inclut non seulement les systèmes numériques traditionnels, mais aussi des plateformes avancées telles que l’informatique quantique et l’informatique biologique, tant qu’elles possèdent une capacité de calcul.

Autonomie

Une autre exigence essentielle est l’autonomie, décrite comme la capacité d’un système à fonctionner avec un certain degré d’indépendance par rapport au contrôle humain. Cela n’implique pas nécessairement une automatisation complète, mais peut inclure des systèmes capables de fonctionner sur la base d’une entrée humaine indirecte ou d’une supervision.

Adaptabilité

Un système d’IA peut, mais n’est pas tenu de, faire preuve d’adaptabilité – ce qui signifie qu’il peut modifier son comportement après déploiement en fonction de nouvelles données ou expériences. Il est important de noter que l’adaptabilité est optionnelle et que les systèmes sans capacités d’apprentissage peuvent toujours être qualifiés d’IA si d’autres critères sont remplis. Toutefois, cette caractéristique est cruciale pour différencier les systèmes d’IA dynamiques des logiciels statiques.

Objectifs des systèmes

Les systèmes d’IA sont désignés pour atteindre des objectifs spécifiques, qui peuvent être explicites (clairement programmés) ou implicites (dérivés des données d’entraînement ou du comportement du système). Ces objectifs internes diffèrent de l’usage prévu, qui est défini de manière externe par son fournisseur et le contexte d’utilisation.

Capacités d’inférence

La capacité de déduire comment générer des résultats en fonction des données d’entrée définit un système d’IA. Cela les distingue des logiciels traditionnels basés sur des règles ou déterministes. Selon les directives, l’inférence englobe à la fois la phase d’utilisation, où les résultats tels que les prévisions, décisions ou recommandations sont générés, ainsi que la phase de construction, où des modèles ou algorithmes sont dérivés en utilisant des techniques d’IA.

Résultats pouvant influencer des environnements physiques ou virtuels

Le résultat d’un système d’IA (prévisions, contenu, recommandations ou décisions) doit être capable d’influencer des environnements physiques ou virtuels. Cela capture la large fonctionnalité de l’IA moderne, allant des véhicules autonomes et des modèles de langage aux moteurs de recommandation. Les systèmes qui ne traitent ou ne visualisent que des données sans influencer aucun résultat tombent en dehors de la définition.

Interaction avec l’environnement

Enfin, les systèmes d’IA doivent être capables d’interagir avec leur environnement, qu’il soit physique (par ex., systèmes robotiques) ou virtuel (par ex., assistants numériques). Cet élément souligne l’impact pratique des systèmes d’IA et les distingue davantage des logiciels purement passifs ou isolés.

Systèmes exclus de la définition de système d’IA

En plus de l’explication large des éléments de définition des systèmes d’IA, ces directives clarifient ce qui n’est pas considéré comme de l’IA au sens de la loi sur l’IA, même si certains systèmes montrent des traits d’inférence rudimentaires :

  • Systèmes d’amélioration de l’optimisation mathématique – Les systèmes, tels que certains outils d’apprentissage automatique, utilisés uniquement pour améliorer les performances computationnelles (par ex., pour améliorer les vitesses de simulation ou l’allocation de bande passante) tombent hors du champ d’application, sauf s’ils impliquent une prise de décision intelligente.
  • Outils de traitement de données de base – Les systèmes exécutant des instructions ou calculs pré-définis (par ex., tableurs, tableaux de bord et bases de données) sans apprentissage, raisonnement ou modélisation ne sont pas considérés comme des systèmes d’IA.
  • Systèmes heuristiques classiques – Les systèmes de résolution de problèmes basés sur des règles qui n’évoluent pas par des données ou des expériences, tels que les programmes d’échecs basés uniquement sur des algorithmes minimax, sont également exclus.
  • Moteurs de prédiction simples – Les outils utilisant des méthodes statistiques de base (par ex., prévision basées sur des moyennes) pour le benchmarking ou les prévisions, sans reconnaissance de motifs complexe ou inférence, ne répondent pas au seuil de la définition.

La Commission européenne conclut en soulignant les aspects suivants :

  • Il convient de noter que la définition d’un système d’IA dans la loi sur l’IA est large et doit être évaluée en fonction de la manière dont chaque système fonctionne en pratique.
  • Il n’existe pas de liste exhaustive de ce qui est considéré comme de l’IA, chaque cas dépend des caractéristiques du système.
  • Tous les systèmes d’IA ne sont pas soumis à des obligations réglementaires et à un contrôle en vertu de la loi sur l’IA.
  • Seuls ceux présentant des risques plus élevés, tels que ceux couverts par les règles sur l’IA prohibée ou à haut risque, seront soumis à des obligations légales.

Ces directives jouent un rôle important dans le soutien à la mise en œuvre efficace de la loi sur l’IA. En clarifiant ce qui est entendu par un système d’IA, elles offrent une certitude juridique accrue et aident tous les acteurs concernés, tels que les régulateurs, fournisseurs et utilisateurs, à comprendre comment les règles s’appliquent en pratique. Leur approche fonctionnelle et flexible reflète la diversité des technologies d’IA et offre une base pratique pour distinguer les systèmes d’IA des logiciels traditionnels. En tant que tel, les directives contribuent à une application plus cohérente et fiable de la réglementation à travers l’UE.

Articles

L’IA Responsable : Défis et Solutions en Entreprise

Dans cet article, l'auteur discute de l'importance de l'IA responsable dans les applications d'entreprise et des défis liés à son application dans un cadre réel. Il présente également le cadre de...

Directives européennes pour l’IA : vers une régulation des risques systémiques

La Commission européenne a publié des lignes directrices pour aider les modèles d'intelligence artificielle identifiés comme présentant des risques systémiques à se conformer à la réglementation sur...

La gouvernance à l’ère de l’intelligence artificielle

L'intelligence artificielle (IA) transforme la manière dont nous travaillons et gérons les entreprises. Aux Philippines, cette évolution s'accélère, avec des investissements croissants et une...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

La Loi AI du Colorado : Un Modèle de Régulation pour l’Avenir

La récente tentative infructueuse des membres du Congrès de geler les lois sur l'intelligence artificielle au niveau des États a laissé les entreprises américaines avec un patchwork de règles sur la...

Plan d’action AI : Vers une éthique renforcée

Le ministre numérique Gobind Singh Deo a annoncé que le prochain Plan d'action sur l'IA 2026-2030 de la Malaisie renforcera les normes éthiques et les cadres de gouvernance entourant l'utilisation de...

Stratégies et Éthique : Vers une Gouvernance de l’IA Responsable

Le développement de politiques d'intelligence artificielle (IA) responsables et de stratégies globales d'IA doit se faire simultanément plutôt que séquentiellement. Cela a été partagé par un panel...

Risques systémiques des IA : directives pour se conformer aux règles européennes

La Commission européenne a élaboré des lignes directrices pour aider les modèles d'IA présentant des risques systémiques à se conformer à la réglementation de l'IA de l'Union européenne. Les...