A Lei de IA da UE: Regulando os Riscos da Inteligência Artificial

A Lei de IA da UE – Regulando o Invisível: Aprendendo a Coexistir com a Inteligência Artificial

Nos últimos dois anos, houve um intenso debate sobre as possibilidades e os riscos reais da Inteligência Artificial (IA). A União Europeia foi pioneira no desenvolvimento de uma legislação regulatória baseada em riscos sobre a IA, que entrou em vigor em 1 de agosto de 2024. A primeira e mais importante regulamentação, que proíbe a utilização de sistemas que apresentem riscos inaceitáveis, foi implementada em 2 de fevereiro de 2025.

Diretrizes Éticas Anteriores

A UE já havia tentado controlar a IA com diretrizes éticas que estavam em vigor desde 2019. Essas diretrizes buscavam garantir que o desenvolvimento e a aplicação de tecnologias de IA fossem seguros, éticos e confiáveis. Contudo, a abordagem anterior não focava na essência, ao tentar confinar a tecnologia dentro de limites éticos e morais, o que é uma missão impossível.

É a nossa própria ética e moral humana que precisa ser repensada, considerando a existência da IA.

Missão da Lei de IA

A missão da nova lei é aumentar a conscientização pública sobre a IA e fomentar uma espécie de “consciência digital”. Devemos estar sempre cientes dos riscos associados ao uso de produtos ou serviços que utilizam IA, ajudando a entender as oportunidades e os perigos que ela representa. O objetivo não é moldar a tecnologia às nossas necessidades, mas estabelecer regras que incentivem um uso consciente e baseado em riscos.

O principal objetivo da Lei de IA é construir e manter a confiança na IA, garantindo a transparência e a responsabilidade.

Classificação dos Sistemas de IA

No futuro, as soluções baseadas em IA serão classificadas em quatro categorias. Sistemas que apresentam riscos inaceitáveis serão simplesmente banidos. Para as outras três categorias – alto, limitado e mínimo risco – deverão ser aplicadas medidas proporcionais ao nível de risco.

Essas medidas incluem:

  • Transparência (ex.: geração de relatórios operacionais)
  • Supervisão humana (a IA não deve tomar decisões de forma independente)
  • Requisitos de testes mais rigorosos para aplicações de maior risco

Para classificações de risco mínimo, apenas informar os usuários que estão interagindo com IA será suficiente, e o conteúdo gerado por IA deve ser claramente rotulado.

Exemplo Prático de Classificação de Risco

Um exemplo prático pode ser visto em um sistema de atendimento ao cliente:

  • A IA mínima pode entreter o cliente enquanto ele espera na linha.
  • Se a IA otimiza processos de atendimento ou interage via chatbot, é classificada como risco limitado, exigindo divulgação clara de que o cliente está se comunicando com a IA.
  • Um sistema que utiliza tomada de decisão automatizada ou detecção de emoções é considerado de alto risco.
  • Se a IA é usada para vigilância encoberta ou manipulação, é categorizada como risco inaceitável e será banida.

Monitoramento Estatal e Regulamentações

A Lei de IA da UE proíbe práticas como a pontuação social e a identificação biométrica remota em espaços públicos. Isso significa que, por exemplo, ao entrar em um shopping, o sistema não deve ser capaz de nos identificar.

Outra prática banida é o uso de sistemas de IA que manipulam o comportamento cognitivo dos usuários, como táticas que criam uma sensação de urgência, usando frases como “Último item disponível!” ou “Três pessoas estão visualizando este produto!”

Questões de Privacidade e Direitos

Uma das práticas mais preocupantes é a detecção oculta de emoções em locais de trabalho e instituições educacionais. Ninguém gostaria de trabalhar em uma empresa que analisa suas emoções durante chamadas de vídeo para avaliar níveis de estresse ou satisfação.

As empresas que violarem a lei podem enfrentar multas de até 35 milhões de euros ou 7% de seu faturamento global do ano anterior, o que tem um efeito dissuasor significativo.

A Confiança na IA

A pergunta que surge é: podemos confiar na IA? A questão real não é se podemos confiar na IA, mas se podemos nos dar ao luxo de não confiar nela.

Devemos aprender a coexistir com a IA. A sensibilidade à IA se tornará uma habilidade, não apenas para empresas, mas também para indivíduos. Isso inclui sensibilidade ética, ambiental e social, preparando-nos para as consequências sociais da IA.

Uma coisa é certa: estamos entrando em uma nova era emocionante. Muitas soluções de IA sofisticadas e multimodais estão emergindo e precisamos estar preparados para as mudanças que elas trarão.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...