Neurotechnologies et le Règlement sur l’IA de l’UE : Quand le droit rencontre la science
Alors que le débat sur les neurorights s’intensifie à l’échelle mondiale, le Règlement sur l’intelligence artificielle (IA) de l’Union européenne ajoute une nouvelle dimension à la réglementation des neurotechnologies dans l’UE.
Le Règlement sur l’IA s’applique lorsque un système d’IA, seul ou en tant que partie d’un produit, est mis sur le marché dans l’UE, peu importe où le fournisseur ou le fabricant est basé. Il s’applique également à tout fournisseur ou utilisateur, indépendamment de leur lieu d’établissement, si la sortie produite par le système d’IA est destinée à être utilisée dans l’UE.
Ces obligations s’ajoutent à la législation existante à laquelle les opérateurs peuvent déjà être soumis, comme le Règlement médical de l’UE et le Règlement général sur la protection des données.
Définitions clés
Un système d’IA selon le règlement est défini comme « un système basé sur des machines conçu pour fonctionner avec divers niveaux d’autonomie et qui peut présenter une adaptabilité après déploiement, et qui, pour des objectifs explicites ou implicites, infère, à partir des entrées qu’il reçoit, comment générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels. »
Cette définition inclut des algorithmes d’apprentissage automatique complexes de plus en plus utilisés dans le domaine des neurosciences. Par exemple, des réseaux de neurones convolutifs peuvent être utilisés pour décrypter les intentions d’activité motrice à partir de données d’électroencéphalographie, traduisant ces signaux en mouvements d’un bras robotique.
Interfaces cerveau-ordinateur et techniques subliminales
Le Règlement sur l’IA interdit les systèmes d’IA utilisant des techniques subliminales qui distordent le comportement humain de manière significative et subvertissent le libre choix, causant ou étant susceptibles de causer un dommage significatif à une personne.
Concernant les neurotechnologies, le Considérant 29 suggère que de telles techniques subliminales pourraient être facilitées par des interfaces machine-cerveau ou la réalité virtuelle. Les directives de la Commission européenne ajoutent que « l’IA peut également s’étendre aux interfaces machine-cerveau émergentes et à des techniques avancées comme le piratage de rêves et les logiciels espions cérébraux. »
Piratage de rêves
Des études indiquent qu’il est possible d’induire des rêves lucides par le biais de technologies telles que des masques de sommeil ou des montres intelligentes. Théoriquement, ces systèmes détectent quand une personne est en REM grâce à des mesures telles que les ondes cérébrales EEG, et déclenchent l’état de rêve lucide par des indices sensoriels.
Bien que la recherche soit encore à ses débuts, les défis de déploiement en dehors du laboratoire et l’interprétation des données restent préoccupants. Il n’est pas clair s’il existe actuellement des scénarios de piratage de rêves qui causent un dommage significatif.
Logiciel espion cérébral
Les directives fournissent l’exemple d’un jeu utilisant des neurotechnologies activées par l’IA qui permettent aux utilisateurs de contrôler le jeu avec des casques détectant l’activité cérébrale. Cela soulève des préoccupations quant à la révélation d’informations intrusives sans le consentement des utilisateurs.
Systèmes de reconnaissance des émotions utilisant des neurotechnologies
Les systèmes de reconnaissance des émotions dans le milieu de travail ou les institutions éducatives sont interdits, sauf pour des raisons médicales ou de sécurité. Leur utilisation dans d’autres environnements est classée comme à haut risque.
La loi précise que les émotions incluent « bonheur, tristesse, colère, surprise, dégoût, embarras, excitation, honte, mépris, satisfaction et amusement. » Les systèmes de reconnaissance des émotions (ERS) peuvent inclure des technologies telles que l’EEG pour évaluer l’engagement des employés ou le stress des étudiants.
Catégorisation biométrique
Le Règlement sur l’IA interdit les systèmes de catégorisation biométrique qui classifient les individus sur la base de leurs données biométriques pour déduire des informations sensibles telles que leur race, opinions politiques, ou orientation sexuelle. La combinaison de neurotechnologies avec d’autres modalités peut entraîner des inférences d’informations sensibles.
En conclusion, il est crucial de noter qu’un même système d’IA peut relever de plusieurs catégories à haut risque ou interdites selon le Règlement sur l’IA. Les fournisseurs et déployeurs de neurotechnologies doivent donc évaluer les cas d’utilisation prévus de leurs systèmes d’IA de manière exhaustive.