Combien de neurones un système doit-il traiter avant de pouvoir l’appeler IA ? Décryptage des lignes directrices sur la définition de l’intelligence artificielle selon la loi sur l’IA
Le débat sur la définition de l’IA est teinté par des questions philosophiques profondes. Tout comme Bob Dylan s’interrogeait sur le parcours de l’homme, la loi sur l’IA (Règlement 2024/1689 de l’UE) se heurte à un dilemme similaire : quand peut-on considérer un système comme de l’intelligence artificielle ? Pour la Commission, la réponse semble se trouver dans le nombre de neurones qu’un système doit traiter.
Où tracer la ligne ?
Les lignes directrices se concentrent sur la distinction entre les techniques de traitement de l’information. Pourtant, il n’existe pas de différence fondamentale entre les opérations de calcul de base qui sous-tendent les techniques désignées comme IA et celles décrites comme des logiciels traditionnels. Tous reposent sur les mêmes opérations de calcul fondamentales.
Un réseau de neurones est généralement perçu comme de l’IA. Cependant, un unique neurone effectue simplement une opération mathématique élémentaire : multiplication, addition et normalisation. Un modèle de régression linéaire réalise la même opération. Pourtant, la loi sur l’IA classifie ce dernier comme un logiciel traditionnel, tandis qu’un réseau suffisamment grand de neurones interconnectés est soudainement considéré comme un système IA. Pourquoi ?
Le problème de l’inférence : IA vs non-IA
Les lignes directrices définissent l’inférence comme la caractéristique clé séparant l’IA des logiciels traditionnels. Toutefois, de nombreux systèmes non-IA « inférent » également de façon significative :
- Les systèmes experts basés sur des règles tirent des conclusions à partir de connaissances encodées ;
- Les modèles bayésiens mettent à jour les probabilités de manière dynamique ;
- Les modèles de régression prédisent des résultats basés sur des données d’entraînement.
Pour des raisons peu claires, les lignes directrices excluent ces systèmes de la définition de l’IA, tout en incluant les modèles d’apprentissage profond qui effectuent fondamentalement la même fonction à une échelle plus grande. Cela crée un problème de classification arbitraire.
Adaptabilité vs modèles pré-entrainés
Un autre critère de la définition de l’IA est l’« adaptabilité » – la capacité d’un système à apprendre ou à changer de comportement après son déploiement. Cependant, il n’existe pas de « ligne claire » entre les techniques IA modernes et les anciennes méthodes de traitement de l’information. Par exemple :
- Nombreux systèmes d’IA modernes ne s’adaptent pas après leur déploiement ;
- D’autres systèmes plus traditionnels s’adaptent dynamiquement aux données traitées.
Si un réseau de neurones statique est considéré comme de l’IA, mais qu’un système non-ML s’ajuste dynamiquement ne l’est pas, alors les lignes directrices échouent à capturer ce qui rend un système véritablement adaptable.
Un accent sur la forme plutôt que sur la fonction
Les lignes directrices tentent également de séparer l’IA des logiciels traditionnels sur la base des techniques plutôt que de la fonctionnalité. Elles classifient :
- L’apprentissage automatique, l’apprentissage profond et l’IA basée sur la logique comme IA ;
- Les méthodes statistiques classiques, les heuristiques et certaines techniques d’optimisation comme non-IA.
Cependant, dans les applications réelles, ces techniques sont souvent mélangées. Pourquoi un classificateur d’arbre de décision avancé serait-il considéré comme de l’IA tandis qu’un réseau bayésien complexe ne le serait pas ? Cette distinction impose des charges réglementaires significatives sur les développeurs.
Une approche plus pragmatique : l’IA comme un spectre
Plutôt que d’essayer de définir l’IA par des techniques de calcul spécifiques, une approche réglementaire plus efficace pourrait se concentrer sur des caractéristiques fonctionnelles – spécifiquement, le niveau d’adaptabilité et d’autonomie qu’un système présente. Ce modèle pourrait s’inspirer de la proposition du gouvernement britannique de 2022, qui suggérait que les systèmes IA devraient être évalués selon deux qualités clés :
- Adaptabilité – La mesure dans laquelle un système peut modifier son comportement au fil du temps, en particulier de manière imprévisible.
- Autonomie – Le degré selon lequel un système peut fonctionner sans supervision humaine directe.
Selon ce modèle, plus un système est adaptable et autonome, plus la préoccupation réglementaire est grande. À l’autre extrême, un système avec une faible ou pas d’adaptabilité et une faible autonomie présente un risque minimal, nécessitant peu ou pas d’intervention réglementaire.
Conclusion : la réponse reste dans le vent
Avant la publication des lignes directrices, la définition de l’IA pourrait être résumée comme englobant tout système de calcul complexe à grande échelle. Après publication, la situation est devenue moins claire. La définition semble toujours englober tout système de calcul complexe, mais avec une série d’exceptions apparemment arbitraires basées sur des techniques spécifiques.
Plutôt que de fournir la clarté nécessaire, les lignes directrices soulèvent plus de questions qu’elles n’en résolvent. Qu’est-ce qui distingue réellement l’IA du non-IA ? Où se situe la ligne entre le « traitement de données de base » et l’« inférence » ? À quel moment un algorithme d’optimisation devient-il de l’IA ? La tentative de la Commission de définir l’IA semble être un exercice consistant à dessiner des frontières où aucune n’existe naturellement.