Desvendando a Lei de IA da UE: Diretrizes e Desafios

A Lei de IA da UE: Proceder com Cuidado nas Diretrizes

A Lei de Inteligência Artificial (IA) da União Europeia, publicada em junho de 2024, estabelece um marco regulatório para o desenvolvimento e uso de sistemas de IA na Europa. No entanto, as diretrizes interpretativas da Comissão Europeia, esperadas para auxiliar desenvolvedores e usuários, só chegarão anos depois. Enquanto isso, as diretrizes devem ser consideradas pelos países da UE ao aplicar a lei e impor penalidades por infrações.

Os primeiros cinco artigos da Lei de IA, que incluem proibições, estão em vigor desde 2 de fevereiro de 2025. É nesse contexto que as diretrizes publicadas pela Comissão Europeia em fevereiro devem ser lidas. Essas diretrizes abordam a definição de um sistema de IA e as proibições estabelecidas pela Lei de IA. Embora busquem melhorar a clareza legal, levantam questões sobre sua eficácia.

Definição de um Sistema de IA

As diretrizes sobre a definição destacam, de forma clara, que planilhas não são sistemas de IA. A definição de um sistema de IA envolve sete elementos principais:

  1. um sistema baseado em máquina;
  2. que é projetado para operar com níveis variados de autonomia;
  3. que pode exibir adaptabilidade após a implementação;
  4. e que, para objetivos explícitos ou implícitos;
  5. infere, a partir das entradas recebidas, como gerar saídas;
  6. tais como previsões, conteúdos, recomendações ou decisões;
  7. que podem influenciar o ambiente físico ou virtual.

Contudo, nem todos esses componentes têm a mesma importância. Enquanto “níveis variados de autonomia” são necessários, a adaptabilidade é opcional. A diretriz não esclarece se “níveis variados” incluem zero autonomia ou a hierarquia de importância dos sete elementos.

De acordo com o Recital 12 da Lei de IA, a “capacidade de inferir” é uma característica chave dos sistemas de IA, transcendendo o processamento básico de dados. Curiosamente, as diretrizes excluem métodos de otimização matemática por não transcenderem o “processamento básico de dados”.

Proibições

As diretrizes sobre proibições são uma melhoria, embora marginal, tanto em extensão quanto em qualidade. Elas afirmam que uma análise caso a caso é necessária para avaliar se um sistema de IA específico é proibido. A Lei de IA inclui oito proibições:

  1. Manipulação e engano;
  2. Exploração de vulnerabilidades;
  3. Classificação social;
  4. Avaliação e previsão de risco criminal individual;
  5. Coleta não direcionada para desenvolver bancos de dados de reconhecimento facial;
  6. Reconhecimento de emoções em locais de trabalho e instituições educacionais;
  7. Categorização biométrica;
  8. Identificação biométrica remota em tempo real.

Essas proibições abrangem o uso de um sistema de IA, não se limitando ao uso pretendido, mas incluindo abusos, independentemente de serem razoavelmente previsíveis.

Um dos pontos diretos nas diretrizes é que as “atividades da Europol e outras agências de segurança da União” estão dentro do escopo da Lei de IA. No entanto, as diretrizes não oferecem orientações adicionais sobre como as agências de segurança podem aplicar essas proibições.

Não Manipular, Enganar e Explorar

A Lei de IA proíbe sistemas de IA que sejam manipulativos, enganosos ou que explorem vulnerabilidades das pessoas para causar danos significativos, mesmo que a intenção não seja essa. Isso pode incluir um sistema de IA que cria mensagens altamente persuasivas com base em dados pessoais, influenciando comportamentos a ponto de causar danos significativos.

Embora as regras para IA de propósito geral (GPAI) entrem em vigor apenas em 2 de agosto de 2025, as proibições já se aplicam a GPAIs que se enquadram no escopo das proibições. Por exemplo, um GPAI na forma de um chatbot que é manipulativo e causa danos significativos seria um sistema de IA proibido.

Conclusão

Além da Lei de IA, sistemas de IA podem ser proibidos por outras leis, como as de anti-discriminação e a GDPR, devido à falta de base legal para o processamento de dados pessoais para treinamento de IA.

As diretrizes sobre proibições, apesar de mencionarem vários direitos fundamentais em risco, falham em indicar o papel dos órgãos de direitos fundamentais, exceto as autoridades de proteção de dados. Este é um ponto surpreendente, já que as proibições estão bem dentro de suas competências.

O aspecto positivo das diretrizes sobre proibições é que podem ser atualizadas. Já as diretrizes sobre a definição de um sistema de IA, por serem não vinculativas, geram incertezas para o setor.

More Insights

Engenheiros de IA e Ética: Construindo Sistemas Inteligentes e Responsáveis

A Inteligência Artificial (IA) explodiu em capacidade, com avanços em aprendizado de máquina, processamento de linguagem natural e visão computacional. Este crescimento coloca os engenheiros de IA na...

A Imperativa da IA Responsável

A Dra. Anna Zeiter, vice-presidente de privacidade e responsabilidade de dados da eBay, afirma que a IA responsável não é apenas uma palavra da moda, mas uma imperativa fundamental. Ela destaca a...

Preservação de Dados em Inteligência Artificial Generativa

Ferramentas de inteligência artificial generativa (GAI) levantam preocupações legais, como privacidade de dados e segurança, e podem ser consideradas informações únicas que devem ser preservadas para...

Inteligência Artificial Responsável: Princípios e Benefícios

A inteligência artificial (IA) está mudando a maneira como vivemos e trabalhamos, tornando essencial seu uso responsável. Isso significa criar e utilizar sistemas de IA que sejam justos, transparentes...

Adotando IA Confiável para o Sucesso Empresarial

Nos últimos anos, a inteligência artificial (IA) se tornou uma ferramenta essencial para a tomada de decisões críticas nos negócios. No entanto, para operar efetivamente com a IA, as organizações...

Inteligência Artificial e o Futuro do Jogo: Desafios e Oportunidades

A aplicação da Inteligência Artificial (IA) na indústria do jogo apresenta oportunidades de eficiência, mas também traz crescentes expectativas regulatórias e riscos de responsabilidade. A...