A Lei de IA da UE – Regulando o Invisível: Aprendendo a Coexistir com a Inteligência Artificial
Nos últimos dois anos, houve um intenso debate sobre as possibilidades e os riscos reais da Inteligência Artificial (IA). A União Europeia foi pioneira no desenvolvimento de uma legislação regulatória baseada em riscos sobre a IA, que entrou em vigor em 1 de agosto de 2024. A primeira e mais importante regulamentação, que proíbe a utilização de sistemas que apresentem riscos inaceitáveis, foi implementada em 2 de fevereiro de 2025.
Diretrizes Éticas Anteriores
A UE já havia tentado controlar a IA com diretrizes éticas que estavam em vigor desde 2019. Essas diretrizes buscavam garantir que o desenvolvimento e a aplicação de tecnologias de IA fossem seguros, éticos e confiáveis. Contudo, a abordagem anterior não focava na essência, ao tentar confinar a tecnologia dentro de limites éticos e morais, o que é uma missão impossível.
É a nossa própria ética e moral humana que precisa ser repensada, considerando a existência da IA.
Missão da Lei de IA
A missão da nova lei é aumentar a conscientização pública sobre a IA e fomentar uma espécie de “consciência digital”. Devemos estar sempre cientes dos riscos associados ao uso de produtos ou serviços que utilizam IA, ajudando a entender as oportunidades e os perigos que ela representa. O objetivo não é moldar a tecnologia às nossas necessidades, mas estabelecer regras que incentivem um uso consciente e baseado em riscos.
O principal objetivo da Lei de IA é construir e manter a confiança na IA, garantindo a transparência e a responsabilidade.
Classificação dos Sistemas de IA
No futuro, as soluções baseadas em IA serão classificadas em quatro categorias. Sistemas que apresentam riscos inaceitáveis serão simplesmente banidos. Para as outras três categorias – alto, limitado e mínimo risco – deverão ser aplicadas medidas proporcionais ao nível de risco.
Essas medidas incluem:
- Transparência (ex.: geração de relatórios operacionais)
- Supervisão humana (a IA não deve tomar decisões de forma independente)
- Requisitos de testes mais rigorosos para aplicações de maior risco
Para classificações de risco mínimo, apenas informar os usuários que estão interagindo com IA será suficiente, e o conteúdo gerado por IA deve ser claramente rotulado.
Exemplo Prático de Classificação de Risco
Um exemplo prático pode ser visto em um sistema de atendimento ao cliente:
- A IA mínima pode entreter o cliente enquanto ele espera na linha.
- Se a IA otimiza processos de atendimento ou interage via chatbot, é classificada como risco limitado, exigindo divulgação clara de que o cliente está se comunicando com a IA.
- Um sistema que utiliza tomada de decisão automatizada ou detecção de emoções é considerado de alto risco.
- Se a IA é usada para vigilância encoberta ou manipulação, é categorizada como risco inaceitável e será banida.
Monitoramento Estatal e Regulamentações
A Lei de IA da UE proíbe práticas como a pontuação social e a identificação biométrica remota em espaços públicos. Isso significa que, por exemplo, ao entrar em um shopping, o sistema não deve ser capaz de nos identificar.
Outra prática banida é o uso de sistemas de IA que manipulam o comportamento cognitivo dos usuários, como táticas que criam uma sensação de urgência, usando frases como “Último item disponível!” ou “Três pessoas estão visualizando este produto!”
Questões de Privacidade e Direitos
Uma das práticas mais preocupantes é a detecção oculta de emoções em locais de trabalho e instituições educacionais. Ninguém gostaria de trabalhar em uma empresa que analisa suas emoções durante chamadas de vídeo para avaliar níveis de estresse ou satisfação.
As empresas que violarem a lei podem enfrentar multas de até 35 milhões de euros ou 7% de seu faturamento global do ano anterior, o que tem um efeito dissuasor significativo.
A Confiança na IA
A pergunta que surge é: podemos confiar na IA? A questão real não é se podemos confiar na IA, mas se podemos nos dar ao luxo de não confiar nela.
Devemos aprender a coexistir com a IA. A sensibilidade à IA se tornará uma habilidade, não apenas para empresas, mas também para indivíduos. Isso inclui sensibilidade ética, ambiental e social, preparando-nos para as consequências sociais da IA.
Uma coisa é certa: estamos entrando em uma nova era emocionante. Muitas soluções de IA sofisticadas e multimodais estão emergindo e precisamos estar preparados para as mudanças que elas trarão.