Neurotechnologies et Réglementation : Défis de l’IA dans l’UE

A robotic prosthetic limb

Neurotechnologies et le Règlement sur l’IA de l’UE : Quand le droit rencontre la science

Alors que le débat sur les neurorights s’intensifie à l’échelle mondiale, le Règlement sur l’intelligence artificielle (IA) de l’Union européenne ajoute une nouvelle dimension à la réglementation des neurotechnologies dans l’UE.

Le Règlement sur l’IA s’applique lorsque un système d’IA, seul ou en tant que partie d’un produit, est mis sur le marché dans l’UE, peu importe où le fournisseur ou le fabricant est basé. Il s’applique également à tout fournisseur ou utilisateur, indépendamment de leur lieu d’établissement, si la sortie produite par le système d’IA est destinée à être utilisée dans l’UE.

Ces obligations s’ajoutent à la législation existante à laquelle les opérateurs peuvent déjà être soumis, comme le Règlement médical de l’UE et le Règlement général sur la protection des données.

Définitions clés

Un système d’IA selon le règlement est défini comme « un système basé sur des machines conçu pour fonctionner avec divers niveaux d’autonomie et qui peut présenter une adaptabilité après déploiement, et qui, pour des objectifs explicites ou implicites, infère, à partir des entrées qu’il reçoit, comment générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels. »

Cette définition inclut des algorithmes d’apprentissage automatique complexes de plus en plus utilisés dans le domaine des neurosciences. Par exemple, des réseaux de neurones convolutifs peuvent être utilisés pour décrypter les intentions d’activité motrice à partir de données d’électroencéphalographie, traduisant ces signaux en mouvements d’un bras robotique.

Interfaces cerveau-ordinateur et techniques subliminales

Le Règlement sur l’IA interdit les systèmes d’IA utilisant des techniques subliminales qui distordent le comportement humain de manière significative et subvertissent le libre choix, causant ou étant susceptibles de causer un dommage significatif à une personne.

Concernant les neurotechnologies, le Considérant 29 suggère que de telles techniques subliminales pourraient être facilitées par des interfaces machine-cerveau ou la réalité virtuelle. Les directives de la Commission européenne ajoutent que « l’IA peut également s’étendre aux interfaces machine-cerveau émergentes et à des techniques avancées comme le piratage de rêves et les logiciels espions cérébraux. »

Piratage de rêves

Des études indiquent qu’il est possible d’induire des rêves lucides par le biais de technologies telles que des masques de sommeil ou des montres intelligentes. Théoriquement, ces systèmes détectent quand une personne est en REM grâce à des mesures telles que les ondes cérébrales EEG, et déclenchent l’état de rêve lucide par des indices sensoriels.

Bien que la recherche soit encore à ses débuts, les défis de déploiement en dehors du laboratoire et l’interprétation des données restent préoccupants. Il n’est pas clair s’il existe actuellement des scénarios de piratage de rêves qui causent un dommage significatif.

Logiciel espion cérébral

Les directives fournissent l’exemple d’un jeu utilisant des neurotechnologies activées par l’IA qui permettent aux utilisateurs de contrôler le jeu avec des casques détectant l’activité cérébrale. Cela soulève des préoccupations quant à la révélation d’informations intrusives sans le consentement des utilisateurs.

Systèmes de reconnaissance des émotions utilisant des neurotechnologies

Les systèmes de reconnaissance des émotions dans le milieu de travail ou les institutions éducatives sont interdits, sauf pour des raisons médicales ou de sécurité. Leur utilisation dans d’autres environnements est classée comme à haut risque.

La loi précise que les émotions incluent « bonheur, tristesse, colère, surprise, dégoût, embarras, excitation, honte, mépris, satisfaction et amusement. » Les systèmes de reconnaissance des émotions (ERS) peuvent inclure des technologies telles que l’EEG pour évaluer l’engagement des employés ou le stress des étudiants.

Catégorisation biométrique

Le Règlement sur l’IA interdit les systèmes de catégorisation biométrique qui classifient les individus sur la base de leurs données biométriques pour déduire des informations sensibles telles que leur race, opinions politiques, ou orientation sexuelle. La combinaison de neurotechnologies avec d’autres modalités peut entraîner des inférences d’informations sensibles.

En conclusion, il est crucial de noter qu’un même système d’IA peut relever de plusieurs catégories à haut risque ou interdites selon le Règlement sur l’IA. Les fournisseurs et déployeurs de neurotechnologies doivent donc évaluer les cas d’utilisation prévus de leurs systèmes d’IA de manière exhaustive.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...