Neurotechnologies et Réglementation : Défis de l’IA dans l’UE

A robotic prosthetic limb

Neurotechnologies et le Règlement sur l’IA de l’UE : Quand le droit rencontre la science

Alors que le débat sur les neurorights s’intensifie à l’échelle mondiale, le Règlement sur l’intelligence artificielle (IA) de l’Union européenne ajoute une nouvelle dimension à la réglementation des neurotechnologies dans l’UE.

Le Règlement sur l’IA s’applique lorsque un système d’IA, seul ou en tant que partie d’un produit, est mis sur le marché dans l’UE, peu importe où le fournisseur ou le fabricant est basé. Il s’applique également à tout fournisseur ou utilisateur, indépendamment de leur lieu d’établissement, si la sortie produite par le système d’IA est destinée à être utilisée dans l’UE.

Ces obligations s’ajoutent à la législation existante à laquelle les opérateurs peuvent déjà être soumis, comme le Règlement médical de l’UE et le Règlement général sur la protection des données.

Définitions clés

Un système d’IA selon le règlement est défini comme « un système basé sur des machines conçu pour fonctionner avec divers niveaux d’autonomie et qui peut présenter une adaptabilité après déploiement, et qui, pour des objectifs explicites ou implicites, infère, à partir des entrées qu’il reçoit, comment générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels. »

Cette définition inclut des algorithmes d’apprentissage automatique complexes de plus en plus utilisés dans le domaine des neurosciences. Par exemple, des réseaux de neurones convolutifs peuvent être utilisés pour décrypter les intentions d’activité motrice à partir de données d’électroencéphalographie, traduisant ces signaux en mouvements d’un bras robotique.

Interfaces cerveau-ordinateur et techniques subliminales

Le Règlement sur l’IA interdit les systèmes d’IA utilisant des techniques subliminales qui distordent le comportement humain de manière significative et subvertissent le libre choix, causant ou étant susceptibles de causer un dommage significatif à une personne.

Concernant les neurotechnologies, le Considérant 29 suggère que de telles techniques subliminales pourraient être facilitées par des interfaces machine-cerveau ou la réalité virtuelle. Les directives de la Commission européenne ajoutent que « l’IA peut également s’étendre aux interfaces machine-cerveau émergentes et à des techniques avancées comme le piratage de rêves et les logiciels espions cérébraux. »

Piratage de rêves

Des études indiquent qu’il est possible d’induire des rêves lucides par le biais de technologies telles que des masques de sommeil ou des montres intelligentes. Théoriquement, ces systèmes détectent quand une personne est en REM grâce à des mesures telles que les ondes cérébrales EEG, et déclenchent l’état de rêve lucide par des indices sensoriels.

Bien que la recherche soit encore à ses débuts, les défis de déploiement en dehors du laboratoire et l’interprétation des données restent préoccupants. Il n’est pas clair s’il existe actuellement des scénarios de piratage de rêves qui causent un dommage significatif.

Logiciel espion cérébral

Les directives fournissent l’exemple d’un jeu utilisant des neurotechnologies activées par l’IA qui permettent aux utilisateurs de contrôler le jeu avec des casques détectant l’activité cérébrale. Cela soulève des préoccupations quant à la révélation d’informations intrusives sans le consentement des utilisateurs.

Systèmes de reconnaissance des émotions utilisant des neurotechnologies

Les systèmes de reconnaissance des émotions dans le milieu de travail ou les institutions éducatives sont interdits, sauf pour des raisons médicales ou de sécurité. Leur utilisation dans d’autres environnements est classée comme à haut risque.

La loi précise que les émotions incluent « bonheur, tristesse, colère, surprise, dégoût, embarras, excitation, honte, mépris, satisfaction et amusement. » Les systèmes de reconnaissance des émotions (ERS) peuvent inclure des technologies telles que l’EEG pour évaluer l’engagement des employés ou le stress des étudiants.

Catégorisation biométrique

Le Règlement sur l’IA interdit les systèmes de catégorisation biométrique qui classifient les individus sur la base de leurs données biométriques pour déduire des informations sensibles telles que leur race, opinions politiques, ou orientation sexuelle. La combinaison de neurotechnologies avec d’autres modalités peut entraîner des inférences d’informations sensibles.

En conclusion, il est crucial de noter qu’un même système d’IA peut relever de plusieurs catégories à haut risque ou interdites selon le Règlement sur l’IA. Les fournisseurs et déployeurs de neurotechnologies doivent donc évaluer les cas d’utilisation prévus de leurs systèmes d’IA de manière exhaustive.

Articles

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Réveil Cybernétique : L’Impact de l’IA sur la Sécurité

Les organisations doivent prendre en compte que l'IA transforme rapidement le paysage des menaces en cybersécurité, tout en offrant des opportunités pour améliorer la détection et la réponse...

Vers une législation éclairée sur l’IA en Thaïlande

M. Sak déclare que la législation à venir vise à protéger les utilisateurs des risques potentiels liés à l'IA et à supprimer les obstacles juridiques que les lois existantes ne peuvent pas traiter. La...

Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

Le Texas a franchi une étape importante dans la réglementation de l'intelligence artificielle (IA) avec l'adoption de la Loi sur la gouvernance responsable de l'IA (TRAIGA), qui établit un cadre pour...

Révolutionner la gouvernance de l’IA pour un avenir responsable

Riskonnect a annoncé le lancement de sa nouvelle solution de gouvernance de l'IA, permettant aux organisations de gérer les risques et les obligations de conformité des technologies d'IA de manière...

L’Alignement de l’IA : Vers une Gouvernance Éthique

Gillian K. Hadfield a été nommée professeure distinguée Bloomberg en alignement et gouvernance de l'IA à l'Université Johns Hopkins. Elle se concentre sur la manière dont les systèmes d'IA peuvent...

Les dangers cachés du porno par échange de visages

La technologie de remplacement de visage, alimentée par l'IA, permet aux utilisateurs de remplacer le visage d'une personne dans une vidéo de manière très réaliste. Cependant, son utilisation abusive...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...