Définir l’intelligence artificielle : entre ambiguïté et complexité

A light bulb with circuitry patterns

Combien de neurones un système doit-il traiter avant de pouvoir l’appeler IA ? Décryptage des lignes directrices sur la définition de l’intelligence artificielle selon la loi sur l’IA

Le débat sur la définition de l’IA est teinté par des questions philosophiques profondes. Tout comme Bob Dylan s’interrogeait sur le parcours de l’homme, la loi sur l’IA (Règlement 2024/1689 de l’UE) se heurte à un dilemme similaire : quand peut-on considérer un système comme de l’intelligence artificielle ? Pour la Commission, la réponse semble se trouver dans le nombre de neurones qu’un système doit traiter.

Où tracer la ligne ?

Les lignes directrices se concentrent sur la distinction entre les techniques de traitement de l’information. Pourtant, il n’existe pas de différence fondamentale entre les opérations de calcul de base qui sous-tendent les techniques désignées comme IA et celles décrites comme des logiciels traditionnels. Tous reposent sur les mêmes opérations de calcul fondamentales.

Un réseau de neurones est généralement perçu comme de l’IA. Cependant, un unique neurone effectue simplement une opération mathématique élémentaire : multiplication, addition et normalisation. Un modèle de régression linéaire réalise la même opération. Pourtant, la loi sur l’IA classifie ce dernier comme un logiciel traditionnel, tandis qu’un réseau suffisamment grand de neurones interconnectés est soudainement considéré comme un système IA. Pourquoi ?

Le problème de l’inférence : IA vs non-IA

Les lignes directrices définissent l’inférence comme la caractéristique clé séparant l’IA des logiciels traditionnels. Toutefois, de nombreux systèmes non-IA « inférent » également de façon significative :

  • Les systèmes experts basés sur des règles tirent des conclusions à partir de connaissances encodées ;
  • Les modèles bayésiens mettent à jour les probabilités de manière dynamique ;
  • Les modèles de régression prédisent des résultats basés sur des données d’entraînement.

Pour des raisons peu claires, les lignes directrices excluent ces systèmes de la définition de l’IA, tout en incluant les modèles d’apprentissage profond qui effectuent fondamentalement la même fonction à une échelle plus grande. Cela crée un problème de classification arbitraire.

Adaptabilité vs modèles pré-entrainés

Un autre critère de la définition de l’IA est l’« adaptabilité » – la capacité d’un système à apprendre ou à changer de comportement après son déploiement. Cependant, il n’existe pas de « ligne claire » entre les techniques IA modernes et les anciennes méthodes de traitement de l’information. Par exemple :

  • Nombreux systèmes d’IA modernes ne s’adaptent pas après leur déploiement ;
  • D’autres systèmes plus traditionnels s’adaptent dynamiquement aux données traitées.

Si un réseau de neurones statique est considéré comme de l’IA, mais qu’un système non-ML s’ajuste dynamiquement ne l’est pas, alors les lignes directrices échouent à capturer ce qui rend un système véritablement adaptable.

Un accent sur la forme plutôt que sur la fonction

Les lignes directrices tentent également de séparer l’IA des logiciels traditionnels sur la base des techniques plutôt que de la fonctionnalité. Elles classifient :

  • L’apprentissage automatique, l’apprentissage profond et l’IA basée sur la logique comme IA ;
  • Les méthodes statistiques classiques, les heuristiques et certaines techniques d’optimisation comme non-IA.

Cependant, dans les applications réelles, ces techniques sont souvent mélangées. Pourquoi un classificateur d’arbre de décision avancé serait-il considéré comme de l’IA tandis qu’un réseau bayésien complexe ne le serait pas ? Cette distinction impose des charges réglementaires significatives sur les développeurs.

Une approche plus pragmatique : l’IA comme un spectre

Plutôt que d’essayer de définir l’IA par des techniques de calcul spécifiques, une approche réglementaire plus efficace pourrait se concentrer sur des caractéristiques fonctionnelles – spécifiquement, le niveau d’adaptabilité et d’autonomie qu’un système présente. Ce modèle pourrait s’inspirer de la proposition du gouvernement britannique de 2022, qui suggérait que les systèmes IA devraient être évalués selon deux qualités clés :

  1. Adaptabilité – La mesure dans laquelle un système peut modifier son comportement au fil du temps, en particulier de manière imprévisible.
  2. Autonomie – Le degré selon lequel un système peut fonctionner sans supervision humaine directe.

Selon ce modèle, plus un système est adaptable et autonome, plus la préoccupation réglementaire est grande. À l’autre extrême, un système avec une faible ou pas d’adaptabilité et une faible autonomie présente un risque minimal, nécessitant peu ou pas d’intervention réglementaire.

Conclusion : la réponse reste dans le vent

Avant la publication des lignes directrices, la définition de l’IA pourrait être résumée comme englobant tout système de calcul complexe à grande échelle. Après publication, la situation est devenue moins claire. La définition semble toujours englober tout système de calcul complexe, mais avec une série d’exceptions apparemment arbitraires basées sur des techniques spécifiques.

Plutôt que de fournir la clarté nécessaire, les lignes directrices soulèvent plus de questions qu’elles n’en résolvent. Qu’est-ce qui distingue réellement l’IA du non-IA ? Où se situe la ligne entre le « traitement de données de base » et l’« inférence » ? À quel moment un algorithme d’optimisation devient-il de l’IA ? La tentative de la Commission de définir l’IA semble être un exercice consistant à dessiner des frontières où aucune n’existe naturellement.

Articles

Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

Le Chartered Insurance Institute (CII) a appelé à des cadres de responsabilité clairs et à une stratégie de compétences à l'échelle du secteur pour guider l'utilisation de l'intelligence artificielle...

L’essor de la réglementation de l’IA dans la santé en APAC

La réglementation de l'intelligence artificielle (IA) dans la région Asie-Pacifique est encore naissante et repose principalement sur des cadres réglementaires existants. Les techniques d'IA, telles...

Nouveaux défis législatifs pour l’IA à New York

Au début de 2025, New York a rejoint d'autres États pour réglementer l'intelligence artificielle (IA) au niveau de l'État, en introduisant le projet de loi NY AI Act. Ce projet de loi vise à prévenir...

Gérer les Risques de l’Intelligence Artificielle

L'article discute des risques associés aux systèmes d'intelligence artificielle et de l'importance d'une gouvernance responsable. Il souligne que les modèles d'IA doivent être gérés efficacement pour...

Comprendre les enjeux de la loi sur l’intelligence artificielle dans l’UE

L'Union européenne a introduit la loi sur l'intelligence artificielle (AI Act), une réglementation phare conçue pour gérer les risques et les opportunités des technologies d'IA. Cet article fournit un...

La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

La Corée du Sud se positionne en tête de la réglementation de l'IA en Asie avec l'adoption de la loi sur le développement de l'intelligence artificielle et l'établissement de la confiance, ou la loi...

Défis réglementaires de l’IA et résilience opérationnelle

Le règlement sur l'IA de l'UE et la DORA imposent une nouvelle complexité aux entités financières, nécessitant une approche basée sur les risques pour évaluer l'impact financier. Il est essentiel de...

Réguler l’IA : Défis et Perspectives Transatlantiques

L'intelligence artificielle (IA) est devenue l'une des forces technologiques les plus conséquentes de notre époque, capable de redéfinir les économies et les sociétés. Les gouvernements démocratiques...

Révolutionner l’IA en Europe : Vers des Gigafactories Innovantes

La Commission européenne souhaite réduire les obstacles au déploiement de l'intelligence artificielle (IA) afin de mieux préparer les entreprises européennes à la concurrence mondiale. Dans sa...