Définir l’intelligence artificielle : entre ambiguïté et complexité

A light bulb with circuitry patterns

Combien de neurones un système doit-il traiter avant de pouvoir l’appeler IA ? Décryptage des lignes directrices sur la définition de l’intelligence artificielle selon la loi sur l’IA

Le débat sur la définition de l’IA est teinté par des questions philosophiques profondes. Tout comme Bob Dylan s’interrogeait sur le parcours de l’homme, la loi sur l’IA (Règlement 2024/1689 de l’UE) se heurte à un dilemme similaire : quand peut-on considérer un système comme de l’intelligence artificielle ? Pour la Commission, la réponse semble se trouver dans le nombre de neurones qu’un système doit traiter.

Où tracer la ligne ?

Les lignes directrices se concentrent sur la distinction entre les techniques de traitement de l’information. Pourtant, il n’existe pas de différence fondamentale entre les opérations de calcul de base qui sous-tendent les techniques désignées comme IA et celles décrites comme des logiciels traditionnels. Tous reposent sur les mêmes opérations de calcul fondamentales.

Un réseau de neurones est généralement perçu comme de l’IA. Cependant, un unique neurone effectue simplement une opération mathématique élémentaire : multiplication, addition et normalisation. Un modèle de régression linéaire réalise la même opération. Pourtant, la loi sur l’IA classifie ce dernier comme un logiciel traditionnel, tandis qu’un réseau suffisamment grand de neurones interconnectés est soudainement considéré comme un système IA. Pourquoi ?

Le problème de l’inférence : IA vs non-IA

Les lignes directrices définissent l’inférence comme la caractéristique clé séparant l’IA des logiciels traditionnels. Toutefois, de nombreux systèmes non-IA « inférent » également de façon significative :

  • Les systèmes experts basés sur des règles tirent des conclusions à partir de connaissances encodées ;
  • Les modèles bayésiens mettent à jour les probabilités de manière dynamique ;
  • Les modèles de régression prédisent des résultats basés sur des données d’entraînement.

Pour des raisons peu claires, les lignes directrices excluent ces systèmes de la définition de l’IA, tout en incluant les modèles d’apprentissage profond qui effectuent fondamentalement la même fonction à une échelle plus grande. Cela crée un problème de classification arbitraire.

Adaptabilité vs modèles pré-entrainés

Un autre critère de la définition de l’IA est l’« adaptabilité » – la capacité d’un système à apprendre ou à changer de comportement après son déploiement. Cependant, il n’existe pas de « ligne claire » entre les techniques IA modernes et les anciennes méthodes de traitement de l’information. Par exemple :

  • Nombreux systèmes d’IA modernes ne s’adaptent pas après leur déploiement ;
  • D’autres systèmes plus traditionnels s’adaptent dynamiquement aux données traitées.

Si un réseau de neurones statique est considéré comme de l’IA, mais qu’un système non-ML s’ajuste dynamiquement ne l’est pas, alors les lignes directrices échouent à capturer ce qui rend un système véritablement adaptable.

Un accent sur la forme plutôt que sur la fonction

Les lignes directrices tentent également de séparer l’IA des logiciels traditionnels sur la base des techniques plutôt que de la fonctionnalité. Elles classifient :

  • L’apprentissage automatique, l’apprentissage profond et l’IA basée sur la logique comme IA ;
  • Les méthodes statistiques classiques, les heuristiques et certaines techniques d’optimisation comme non-IA.

Cependant, dans les applications réelles, ces techniques sont souvent mélangées. Pourquoi un classificateur d’arbre de décision avancé serait-il considéré comme de l’IA tandis qu’un réseau bayésien complexe ne le serait pas ? Cette distinction impose des charges réglementaires significatives sur les développeurs.

Une approche plus pragmatique : l’IA comme un spectre

Plutôt que d’essayer de définir l’IA par des techniques de calcul spécifiques, une approche réglementaire plus efficace pourrait se concentrer sur des caractéristiques fonctionnelles – spécifiquement, le niveau d’adaptabilité et d’autonomie qu’un système présente. Ce modèle pourrait s’inspirer de la proposition du gouvernement britannique de 2022, qui suggérait que les systèmes IA devraient être évalués selon deux qualités clés :

  1. Adaptabilité – La mesure dans laquelle un système peut modifier son comportement au fil du temps, en particulier de manière imprévisible.
  2. Autonomie – Le degré selon lequel un système peut fonctionner sans supervision humaine directe.

Selon ce modèle, plus un système est adaptable et autonome, plus la préoccupation réglementaire est grande. À l’autre extrême, un système avec une faible ou pas d’adaptabilité et une faible autonomie présente un risque minimal, nécessitant peu ou pas d’intervention réglementaire.

Conclusion : la réponse reste dans le vent

Avant la publication des lignes directrices, la définition de l’IA pourrait être résumée comme englobant tout système de calcul complexe à grande échelle. Après publication, la situation est devenue moins claire. La définition semble toujours englober tout système de calcul complexe, mais avec une série d’exceptions apparemment arbitraires basées sur des techniques spécifiques.

Plutôt que de fournir la clarté nécessaire, les lignes directrices soulèvent plus de questions qu’elles n’en résolvent. Qu’est-ce qui distingue réellement l’IA du non-IA ? Où se situe la ligne entre le « traitement de données de base » et l’« inférence » ? À quel moment un algorithme d’optimisation devient-il de l’IA ? La tentative de la Commission de définir l’IA semble être un exercice consistant à dessiner des frontières où aucune n’existe naturellement.

Articles

Ingénieurs en IA : Performance ou Responsabilité ?

L'intelligence artificielle a connu une explosion de ses capacités, plaçant les ingénieurs en IA à l'avant-garde de l'innovation. Pendant ce temps, la responsabilité éthique devient cruciale, car les...

L’IA responsable : un impératif incontournable

L'intelligence artificielle responsable n'est plus un simple mot à la mode, mais une nécessité fondamentale, selon Dr Anna Zeiter. Elle souligne l'importance d'établir des systèmes d'IA fiables et...

Intégrer l’IA en toute conformité dans votre entreprise

L'adoption de l'IA dans les entreprises échoue au moins deux fois plus souvent qu'elle ne réussit, selon la Cloud Security Alliance (CSA). Le modèle proposé, appelé Dynamic Process Landscape (DPL)...

Préserver les données générées par l’IA : enjeux et meilleures pratiques

Les outils d'intelligence artificielle générative (GAI) soulèvent des préoccupations juridiques telles que la confidentialité des données et les considérations de privilège. Les organisations doivent...

L’Intelligence Artificielle Responsable : Principes et Avantages

Aujourd'hui, l'IA change la façon dont nous vivons et travaillons, il est donc très important de l'utiliser de manière appropriée. L'IA responsable signifie créer et utiliser une IA qui est juste...

Réussir avec l’IA : Éthique et Gouvernance au cœur de l’Innovation

Il y a vingt ans, personne n'aurait pu prédire que nous compterions sur l'intelligence artificielle (IA) pour prendre des décisions commerciales critiques. Aujourd'hui, les entreprises doivent se...

Régulation de l’IA en Espagne : Pionnière en Europe

L'Espagne est à l'avant-garde de la gouvernance de l'IA avec la création du premier régulateur européen de l'IA (AESIA) et un cadre réglementaire en cours d'élaboration. Un projet de loi national sur...

Réglementation de l’IA : État des lieux et enjeux mondiaux

L'intelligence artificielle (IA) a connu des avancées considérables ces dernières années, ce qui a entraîné des opportunités et des risques potentiels. Les gouvernements et les organismes de...

L’IA dans les jeux d’argent : enjeux et responsabilités

L'article aborde l'impact de l'intelligence artificielle dans l'industrie des jeux d'argent, mettant en lumière les promesses d'efficacité et les risques réglementaires croissants. Les opérateurs...