Neurotecnologias e o Ato de IA da UE: Desafios Regulatórios

Neurotecnologias sob a Lei de IA da UE: Onde a lei encontra a ciência

Com o debate sobre neurodireitos ganhando força globalmente, a Lei de Inteligência Artificial (IA) da União Europeia (UE) adiciona um novo sabor à regulamentação das neurotecnologias na UE.

De forma resumida, a Lei de IA se aplica quando um sistema de IA, seja por conta própria ou como parte de um produto, é colocado no mercado da UE, independentemente de onde o fornecedor ou fabricante esteja baseado, ou quando é utilizado por um implantador na UE. A lei também se aplica a qualquer fornecedor ou implantador, independentemente de seu local de estabelecimento, se a saída produzida pelo sistema de IA relevante for destinada a ser utilizada na UE.

Essas obrigações são adicionais à legislação existente a que os operadores já podem estar sujeitos, como o Regulamento de Dispositivos Médicos da UE e o Regulamento Geral de Proteção de Dados.

Entretanto, existem exceções, como quando um sistema de IA ou modelo é desenvolvido e utilizado com o único propósito de pesquisa científica, pesquisa pré-comercial e testes — excluindo testes em condições reais — sistemas desenvolvidos exclusivamente para fins militares, de defesa ou de segurança nacional, e usos pessoais ou não profissionais.

O que é um sistema de IA?

Um sistema de IA, segundo a lei, é “um sistema baseado em máquina que é projetado para operar com diferentes níveis de autonomia e que pode exibir adaptabilidade após a implantação, e que, para objetivos explícitos ou implícitos, infere, a partir da entrada que recebe, como gerar saídas como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.”

Essa definição incluiria algoritmos complexos de aprendizado de máquina cada vez mais utilizados no campo da neurociência. Isso é especialmente verdadeiro para a neurociência cognitiva e computacional, que utiliza IA para extrair características de sinais cerebrais e traduzir a atividade cerebral. Por exemplo, redes neurais convolucionais podem ser usadas para decodificar intenções de atividade motora a partir de dados de eletroencefalografia, traduzindo-os em saídas como o movimento de um braço robótico. Em outro exemplo, redes adversariais generativas podem ser utilizadas para reconstruir estímulos visuais a partir da atividade cerebral.

Um sistema de IA pode ser utilizado de forma independente ou como um componente de um produto. Em outras palavras, não importa se o sistema de IA está fisicamente integrado a um produto ou se serve à funcionalidade do produto de forma independente. Para dar um exemplo, um headset de EEG não precisa ter IA embutida em seu hardware. Se o sistema de IA que suporta o headset estiver em um aplicativo conectado ou software em nuvem, ainda assim se qualificaria como um sistema de IA.

No entanto, qualificar-se como um sistema de IA não significa automaticamente estar dentro do escopo — e, portanto, da regulamentação — sob a Lei de IA. Ele ainda precisaria se enquadrar em uma das categorias de risco mencionadas na lei.

Interfaces cérebro-computador como ferramentas para técnicas subliminares

A Lei de IA proíbe sistemas de IA que utilizam técnicas subliminares além da consciência de uma pessoa que distorcem materialmente o comportamento humano e subvertem a livre escolha, causando ou sendo razoavelmente propensas a causar danos significativos a essa pessoa, outra pessoa ou a um grupo de pessoas.

No que diz respeito às neurotecnologias, o Considerando 29 sugere que tais técnicas subliminares poderiam ser “facilitadas, por exemplo, por interfaces máquina-cérebro ou realidade virtual”, com as diretrizes da Comissão Europeia acrescentando que “a IA também pode se estender a interfaces máquina-cérebro emergentes e técnicas avançadas como hackeamento de sonhos e spyware cerebral“.

Hackeamento de sonhos

Existem estudos que afirmam ser possível induzir sonhos lúcidos através de tecnologias como máscaras de sono ou smartwatches conectados a smartphones. Em teoria, esses sistemas detectam quando uma pessoa está em sono REM através de medições como ondas cerebrais EEG, movimentos oculares e frequência cardíaca, e desencadeiam o estado de sonho lúcido por meio de pistas sensoriais como luz ou som. Em um pequeno estudo, indivíduos relataram ter conseguido comunicar-se com o mundo exterior em seus sonhos, respondendo a equações matemáticas simples ou perguntas de sim/não por meio de movimentos oculares ou contrações musculares predefinidas.

Dito isso, a pesquisa ainda está em estágios bastante iniciais e existem desafios com a implantação fora do laboratório e a interpretação dos dados, que podem ser misturados com outras ações durante o sono. Portanto, não está claro se existe um cenário da vida real, atualmente, para hackeamento de sonhos que distorça materialmente o comportamento humano e cause — ou seja, seja razoavelmente propensa a causar — danos significativos.

Spyware cerebral

As diretrizes dão o seguinte exemplo: “um jogo pode aproveitar neurotecnologias habilitadas por IA e interfaces máquina-cérebro que permitem aos usuários controlar (partes de) um jogo com equipamentos que detectam a atividade cerebral. A IA pode ser usada para treinar o cérebro do usuário de forma surreptícia e sem seu conhecimento para revelar ou inferir a partir dos dados neurais informações que podem ser muito intrusivas e sensíveis (por exemplo, informações bancárias pessoais, informações íntimas, etc.) de uma maneira que pode causar danos significativos a eles.”

Sobre informações bancárias pessoais, embora as diretrizes não esclareçam qual modalidade de BCI poderia revelar tais informações, provavelmente se referem a um estudo bem conhecido que sugere que, sob condições muito controladas, hackers poderiam adivinhar as senhas dos usuários a partir de suas ondas cerebrais. No entanto, antes de interpretar isso como “leitura da mente”, nuances em torno dessa técnica precisam ser explicadas.

Atualmente, headsets de realidade virtual com funcionalidade BCI geralmente incorporam EEG. Em termos simples, o EEG mede a atividade elétrica do cérebro e é usado principalmente para mover personagens ou selecionar itens em jogos. Isso significa que pode, em princípio, revelar informações relacionadas a comandos motores, como o cérebro enviando um sinal para o dedo indicador pressionar, ou atenção visual, como verificar onde na tela a pessoa está olhando.

O estudo bem conhecido acima não se relaciona com “treinar o cérebro do indivíduo”, como sugerem as diretrizes, nem é sobre recordar a memória ou o conhecimento de alguém sobre suas informações bancárias pessoais sem seu conhecimento.

Trata-se, na verdade, de hackers aprendendo, por meio da observação passiva das atividades de um indivíduo, qual tipo de onda cerebral corresponde a qual movimento muscular para aquele indivíduo enquanto ele digita sua senha em um teclado. É como ter uma câmera espiã capturando uma pessoa escrevendo sua senha em um pedaço de papel e diz respeito a uma questão de segurança cibernética. Isso exige que a pessoa tenha a intenção de inserir as informações em um teclado, em vez de o cérebro do indivíduo ser treinado de forma surreptícia, o comportamento sendo “materialmente distorcido” ou sua livre escolha sendo subvertida. Portanto, a menos que haja outra pesquisa alinhada, a proibição no Artigo 5(1)(a) provavelmente não se aplicará a esse exemplo nas diretrizes simplesmente porque não atenderia a todos os critérios necessários.

Sistemas de reconhecimento de emoções usando neurotecnologias

A utilização de sistemas de reconhecimento de emoções no local de trabalho ou em instituições educacionais é proibida — exceto por razões médicas ou de segurança — enquanto seu uso em outros ambientes é classificado como de alto risco. Notavelmente, os sistemas de reconhecimento de emoções abrangem a inferência ou identificação tanto de emoções quanto de “intenções”.

De acordo com a lei, exemplos de emoções e intenções incluem “felicidade, tristeza, raiva, surpresa, nojo, embaraço, excitação, vergonha, desprezo, satisfação e diversão.” As diretrizes também acrescentam tédio, agressão, excitação emocional, ansiedade, interesse, atenção e mentira à lista.

Por outro lado, “estados físicos como dor ou fadiga” ou expressões e gestos prontamente disponíveis não são considerados emoção ou intenção, a menos que sejam usados para inferir emoção ou intenção.

Enquanto as diretrizes se referem expressamente ao uso de EEG para sistemas de reconhecimento de emoções, isso poderia se estender a todas as neurotecnologias quando usadas para detectar ou inferir emoções e intenções, por exemplo: neuromarketing usando fMRI ou EEG para inferir o sentimento do consumidor em relação a uma marca e personalizar a publicidade; monitoramento do engajamento ou ansiedade dos funcionários com EEG; avaliação dos níveis de estresse de um aluno durante tarefas de aprendizado; e, em instâncias mais especulativas, usando ondas cerebrais P300 em tribunais como uma ferramenta de detecção de mentiras para evidenciar a familiaridade de um réu com detalhes de uma cena de crime que não eram conhecidos pelo público.

Em algumas circunstâncias, pode ser difícil decidir quando uma neurotecnologia deve ser classificada como um sistema de reconhecimento de emoções e quando não. Por exemplo, a fadiga é classificada como um estado físico e não uma emoção. Assim, a menos que haja uma distinção entre fadiga física e mental na lei, qualquer inferência sendo feita não tornaria a neurotecnologia um sistema de reconhecimento de emoções. Por outro lado, medir a atenção, de acordo com as diretrizes, classificaria a neurotecnologia como um sistema de reconhecimento de emoções. No entanto, essas inferências estão intimamente relacionadas. Quando uma pessoa está cansada, ela também carece de atenção. Portanto, a aplicação das disposições da lei pode ser desafiadora para fornecedores e implantadores na prática.

Categorização biométrica

A Lei de IA proíbe sistemas de categorização biométrica que categorizam indivíduos com base em seus dados biométricos para deduzir ou inferir sua raça, opiniões políticas, filiação a sindicatos, crenças religiosas ou políticas, vida sexual ou orientação sexual, a menos que o sistema de IA seja acessório a outro serviço comercial e estritamente necessário por razões técnicas objetivas.

Quando neurotecnologias são combinadas com outras modalidades, como rastreamento ocular, elas podem, potencialmente, permitir inferir informações sensíveis como excitação. Isso é especialmente importante para headsets de realidade virtual, onde tanto o conteúdo mostrado a um indivíduo quanto sua reação fisiológica a esse conteúdo podem ser observados. Portanto, o uso de neurotecnologias para fazer tais inferências e categorizar indivíduos em tais grupos seria proibido.

Por outro lado, categorizar indivíduos com base em dados de saúde ou genéticos seria classificado como de alto risco. Isso poderia ser relevante, por exemplo, se EEG em combinação com outros dados biométricos fosse usado para inferir a probabilidade de uma pessoa desenvolver a doença de Parkinson, convulsões epilépticas ou seu estado de saúde mental, e eles fossem colocados em grupos com outras pessoas com base nisso.

Finalmente, é importante notar que o mesmo sistema de IA pode se enquadrar em várias categorias de alto risco ou proibidas sob a Lei de IA. Portanto, os fornecedores e implantadores de neurotecnologias devem avaliar os casos de uso pretendidos e razoavelmente previstos de seus sistemas de IA de uma forma ampla.

More Insights

Alfabetização em IA: Diretrizes para Construir Seu Programa

A obrigação de alfabetização em IA do Ato de IA da UE se aplica a todos os que lidam com IA e exige que os provedores e implementadores garantam um nível suficiente de alfabetização em IA entre seus...

Cruzamentos Éticos da Inteligência Artificial

A inteligência artificial (IA) está se tornando cada vez mais influente em processos de tomada de decisão críticos nas indústrias, levantando preocupações sobre possíveis preconceitos e falta de...

Senadora das Filipinas defende equilíbrio na governança da IA

Uma legisladora nas Filipinas está pedindo uma abordagem cautelosa e consultiva para regular a inteligência artificial (IA) no país, destacando a necessidade de garantir que as políticas promovam o...

A China e o Futuro da Governança de IA: Um Modelo de Código Aberto

A rápida evolução da inteligência artificial (IA) na China, liderada por gigantes tecnológicos como Alibaba e Baidu, é impulsionada por uma forte ênfase na colaboração de código aberto. Essa abordagem...