Neurotechnologies et Réglementation : Défis de l’IA dans l’UE

A robotic prosthetic limb

Neurotechnologies et le Règlement sur l’IA de l’UE : Quand le droit rencontre la science

Alors que le débat sur les neurorights s’intensifie à l’échelle mondiale, le Règlement sur l’intelligence artificielle (IA) de l’Union européenne ajoute une nouvelle dimension à la réglementation des neurotechnologies dans l’UE.

Le Règlement sur l’IA s’applique lorsque un système d’IA, seul ou en tant que partie d’un produit, est mis sur le marché dans l’UE, peu importe où le fournisseur ou le fabricant est basé. Il s’applique également à tout fournisseur ou utilisateur, indépendamment de leur lieu d’établissement, si la sortie produite par le système d’IA est destinée à être utilisée dans l’UE.

Ces obligations s’ajoutent à la législation existante à laquelle les opérateurs peuvent déjà être soumis, comme le Règlement médical de l’UE et le Règlement général sur la protection des données.

Définitions clés

Un système d’IA selon le règlement est défini comme « un système basé sur des machines conçu pour fonctionner avec divers niveaux d’autonomie et qui peut présenter une adaptabilité après déploiement, et qui, pour des objectifs explicites ou implicites, infère, à partir des entrées qu’il reçoit, comment générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels. »

Cette définition inclut des algorithmes d’apprentissage automatique complexes de plus en plus utilisés dans le domaine des neurosciences. Par exemple, des réseaux de neurones convolutifs peuvent être utilisés pour décrypter les intentions d’activité motrice à partir de données d’électroencéphalographie, traduisant ces signaux en mouvements d’un bras robotique.

Interfaces cerveau-ordinateur et techniques subliminales

Le Règlement sur l’IA interdit les systèmes d’IA utilisant des techniques subliminales qui distordent le comportement humain de manière significative et subvertissent le libre choix, causant ou étant susceptibles de causer un dommage significatif à une personne.

Concernant les neurotechnologies, le Considérant 29 suggère que de telles techniques subliminales pourraient être facilitées par des interfaces machine-cerveau ou la réalité virtuelle. Les directives de la Commission européenne ajoutent que « l’IA peut également s’étendre aux interfaces machine-cerveau émergentes et à des techniques avancées comme le piratage de rêves et les logiciels espions cérébraux. »

Piratage de rêves

Des études indiquent qu’il est possible d’induire des rêves lucides par le biais de technologies telles que des masques de sommeil ou des montres intelligentes. Théoriquement, ces systèmes détectent quand une personne est en REM grâce à des mesures telles que les ondes cérébrales EEG, et déclenchent l’état de rêve lucide par des indices sensoriels.

Bien que la recherche soit encore à ses débuts, les défis de déploiement en dehors du laboratoire et l’interprétation des données restent préoccupants. Il n’est pas clair s’il existe actuellement des scénarios de piratage de rêves qui causent un dommage significatif.

Logiciel espion cérébral

Les directives fournissent l’exemple d’un jeu utilisant des neurotechnologies activées par l’IA qui permettent aux utilisateurs de contrôler le jeu avec des casques détectant l’activité cérébrale. Cela soulève des préoccupations quant à la révélation d’informations intrusives sans le consentement des utilisateurs.

Systèmes de reconnaissance des émotions utilisant des neurotechnologies

Les systèmes de reconnaissance des émotions dans le milieu de travail ou les institutions éducatives sont interdits, sauf pour des raisons médicales ou de sécurité. Leur utilisation dans d’autres environnements est classée comme à haut risque.

La loi précise que les émotions incluent « bonheur, tristesse, colère, surprise, dégoût, embarras, excitation, honte, mépris, satisfaction et amusement. » Les systèmes de reconnaissance des émotions (ERS) peuvent inclure des technologies telles que l’EEG pour évaluer l’engagement des employés ou le stress des étudiants.

Catégorisation biométrique

Le Règlement sur l’IA interdit les systèmes de catégorisation biométrique qui classifient les individus sur la base de leurs données biométriques pour déduire des informations sensibles telles que leur race, opinions politiques, ou orientation sexuelle. La combinaison de neurotechnologies avec d’autres modalités peut entraîner des inférences d’informations sensibles.

En conclusion, il est crucial de noter qu’un même système d’IA peut relever de plusieurs catégories à haut risque ou interdites selon le Règlement sur l’IA. Les fournisseurs et déployeurs de neurotechnologies doivent donc évaluer les cas d’utilisation prévus de leurs systèmes d’IA de manière exhaustive.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...