O Ato de Inteligência Artificial da União Europeia e a Alocação de Responsabilidades em Sistemas de Alto Risco
O Ato de Inteligência Artificial da União Europeia regula sistemas de alto risco alocando responsabilidades a atores designados ao longo da cadeia de valor desses sistemas. Este estudo analisa se o Ato adequadamente distribui essas responsabilidades ao longo do ciclo de vida dos sistemas de IA.
Introdução
Em 2024, a União Europeia adotou o Ato de IA com o objetivo de promover o uso de IA centrada no ser humano e confiável, ao mesmo tempo que protege a saúde, a segurança e os direitos fundamentais das pessoas. O Ato adota uma abordagem baseada em riscos que categoriza sistemas de IA como inaceitável, alto, limitado e baixo risco, além de disposições específicas para modelos de IA de uso geral.
Este estudo foca nos sistemas de IA de alto risco, examinando a adequação da alocação de responsabilidades conforme descrito no Capítulo III do Ato. As funções e obrigações dos atores são alocadas de forma linear em um ambiente regulatório flexível, promovendo transparência, conformidade e responsabilidade.
Decodificando Sistemas de IA de Alto Risco e Seus Principais Atores
Segundo o Artigo 6 do Ato de IA, um sistema de IA é classificado como de alto risco em duas situações:
(1) O sistema de IA é destinado a ser usado como um componente de segurança de um produto coberto por leis da UE mencionadas no Anexo I do Ato e deve passar por uma avaliação de conformidade de terceiros (ex.: dispositivos médicos in vitro, elevadores, brinquedos, etc.); ou
(2) O sistema é mencionado no Anexo III (principalmente lidando com preocupações sobre direitos fundamentais).
No entanto, o parágrafo 3 do Artigo 6 fornece uma isenção a essa categorização, esclarecendo que um sistema de IA mencionado no Anexo III não é considerado de alto risco quando se destina a:
- (a) realizar uma tarefa processual estreita;
- (b) melhorar o resultado de uma atividade humana previamente completada;
- (c) detectar padrões ou desvios na tomada de decisão, sem a intenção de influenciar a avaliação humana anterior sem a devida revisão humana;
- (d) realizar uma tarefa preparatória da avaliação relevante para os casos de uso sob o Anexo III.
Um sistema de IA é isento quando não representa um risco significativo de dano à saúde, segurança ou direitos fundamentais das pessoas. Nesse caso, os fornecedores dos sistemas devem documentar sua avaliação antes que o sistema seja colocado no mercado ou colocado em serviço, e registrar-se e ao sistema em um novo banco de dados da UE.
Conclusão
Embora o Ato de IA da UE busque promover a conformidade e a responsabilidade na designação de funções e obrigações, é necessário um refinamento adicional para abordar melhor a complexidade, opacidade e autonomia dos sistemas de IA. Essas características introduzem questões particulares de responsabilidade que o Ato não aborda completamente. É fundamental apertar essa flexibilidade para garantir uma melhor proteção da segurança, saúde e direitos fundamentais dos indivíduos.