Définir l’intelligence artificielle : entre ambiguïté et complexité

A light bulb with circuitry patterns

Combien de neurones un système doit-il traiter avant de pouvoir l’appeler IA ? Décryptage des lignes directrices sur la définition de l’intelligence artificielle selon la loi sur l’IA

Le débat sur la définition de l’IA est teinté par des questions philosophiques profondes. Tout comme Bob Dylan s’interrogeait sur le parcours de l’homme, la loi sur l’IA (Règlement 2024/1689 de l’UE) se heurte à un dilemme similaire : quand peut-on considérer un système comme de l’intelligence artificielle ? Pour la Commission, la réponse semble se trouver dans le nombre de neurones qu’un système doit traiter.

Où tracer la ligne ?

Les lignes directrices se concentrent sur la distinction entre les techniques de traitement de l’information. Pourtant, il n’existe pas de différence fondamentale entre les opérations de calcul de base qui sous-tendent les techniques désignées comme IA et celles décrites comme des logiciels traditionnels. Tous reposent sur les mêmes opérations de calcul fondamentales.

Un réseau de neurones est généralement perçu comme de l’IA. Cependant, un unique neurone effectue simplement une opération mathématique élémentaire : multiplication, addition et normalisation. Un modèle de régression linéaire réalise la même opération. Pourtant, la loi sur l’IA classifie ce dernier comme un logiciel traditionnel, tandis qu’un réseau suffisamment grand de neurones interconnectés est soudainement considéré comme un système IA. Pourquoi ?

Le problème de l’inférence : IA vs non-IA

Les lignes directrices définissent l’inférence comme la caractéristique clé séparant l’IA des logiciels traditionnels. Toutefois, de nombreux systèmes non-IA « inférent » également de façon significative :

  • Les systèmes experts basés sur des règles tirent des conclusions à partir de connaissances encodées ;
  • Les modèles bayésiens mettent à jour les probabilités de manière dynamique ;
  • Les modèles de régression prédisent des résultats basés sur des données d’entraînement.

Pour des raisons peu claires, les lignes directrices excluent ces systèmes de la définition de l’IA, tout en incluant les modèles d’apprentissage profond qui effectuent fondamentalement la même fonction à une échelle plus grande. Cela crée un problème de classification arbitraire.

Adaptabilité vs modèles pré-entrainés

Un autre critère de la définition de l’IA est l’« adaptabilité » – la capacité d’un système à apprendre ou à changer de comportement après son déploiement. Cependant, il n’existe pas de « ligne claire » entre les techniques IA modernes et les anciennes méthodes de traitement de l’information. Par exemple :

  • Nombreux systèmes d’IA modernes ne s’adaptent pas après leur déploiement ;
  • D’autres systèmes plus traditionnels s’adaptent dynamiquement aux données traitées.

Si un réseau de neurones statique est considéré comme de l’IA, mais qu’un système non-ML s’ajuste dynamiquement ne l’est pas, alors les lignes directrices échouent à capturer ce qui rend un système véritablement adaptable.

Un accent sur la forme plutôt que sur la fonction

Les lignes directrices tentent également de séparer l’IA des logiciels traditionnels sur la base des techniques plutôt que de la fonctionnalité. Elles classifient :

  • L’apprentissage automatique, l’apprentissage profond et l’IA basée sur la logique comme IA ;
  • Les méthodes statistiques classiques, les heuristiques et certaines techniques d’optimisation comme non-IA.

Cependant, dans les applications réelles, ces techniques sont souvent mélangées. Pourquoi un classificateur d’arbre de décision avancé serait-il considéré comme de l’IA tandis qu’un réseau bayésien complexe ne le serait pas ? Cette distinction impose des charges réglementaires significatives sur les développeurs.

Une approche plus pragmatique : l’IA comme un spectre

Plutôt que d’essayer de définir l’IA par des techniques de calcul spécifiques, une approche réglementaire plus efficace pourrait se concentrer sur des caractéristiques fonctionnelles – spécifiquement, le niveau d’adaptabilité et d’autonomie qu’un système présente. Ce modèle pourrait s’inspirer de la proposition du gouvernement britannique de 2022, qui suggérait que les systèmes IA devraient être évalués selon deux qualités clés :

  1. Adaptabilité – La mesure dans laquelle un système peut modifier son comportement au fil du temps, en particulier de manière imprévisible.
  2. Autonomie – Le degré selon lequel un système peut fonctionner sans supervision humaine directe.

Selon ce modèle, plus un système est adaptable et autonome, plus la préoccupation réglementaire est grande. À l’autre extrême, un système avec une faible ou pas d’adaptabilité et une faible autonomie présente un risque minimal, nécessitant peu ou pas d’intervention réglementaire.

Conclusion : la réponse reste dans le vent

Avant la publication des lignes directrices, la définition de l’IA pourrait être résumée comme englobant tout système de calcul complexe à grande échelle. Après publication, la situation est devenue moins claire. La définition semble toujours englober tout système de calcul complexe, mais avec une série d’exceptions apparemment arbitraires basées sur des techniques spécifiques.

Plutôt que de fournir la clarté nécessaire, les lignes directrices soulèvent plus de questions qu’elles n’en résolvent. Qu’est-ce qui distingue réellement l’IA du non-IA ? Où se situe la ligne entre le « traitement de données de base » et l’« inférence » ? À quel moment un algorithme d’optimisation devient-il de l’IA ? La tentative de la Commission de définir l’IA semble être un exercice consistant à dessiner des frontières où aucune n’existe naturellement.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...