A Responsabilidade na Cadeia de Valor dos Sistemas de IA de Alto Risco

O Ato de Inteligência Artificial da União Europeia e a Alocação de Responsabilidades em Sistemas de Alto Risco

O Ato de Inteligência Artificial da União Europeia regula sistemas de alto risco alocando responsabilidades a atores designados ao longo da cadeia de valor desses sistemas. Este estudo analisa se o Ato adequadamente distribui essas responsabilidades ao longo do ciclo de vida dos sistemas de IA.

Introdução

Em 2024, a União Europeia adotou o Ato de IA com o objetivo de promover o uso de IA centrada no ser humano e confiável, ao mesmo tempo que protege a saúde, a segurança e os direitos fundamentais das pessoas. O Ato adota uma abordagem baseada em riscos que categoriza sistemas de IA como inaceitável, alto, limitado e baixo risco, além de disposições específicas para modelos de IA de uso geral.

Este estudo foca nos sistemas de IA de alto risco, examinando a adequação da alocação de responsabilidades conforme descrito no Capítulo III do Ato. As funções e obrigações dos atores são alocadas de forma linear em um ambiente regulatório flexível, promovendo transparência, conformidade e responsabilidade.

Decodificando Sistemas de IA de Alto Risco e Seus Principais Atores

Segundo o Artigo 6 do Ato de IA, um sistema de IA é classificado como de alto risco em duas situações:

(1) O sistema de IA é destinado a ser usado como um componente de segurança de um produto coberto por leis da UE mencionadas no Anexo I do Ato e deve passar por uma avaliação de conformidade de terceiros (ex.: dispositivos médicos in vitro, elevadores, brinquedos, etc.); ou

(2) O sistema é mencionado no Anexo III (principalmente lidando com preocupações sobre direitos fundamentais).

No entanto, o parágrafo 3 do Artigo 6 fornece uma isenção a essa categorização, esclarecendo que um sistema de IA mencionado no Anexo III não é considerado de alto risco quando se destina a:

  • (a) realizar uma tarefa processual estreita;
  • (b) melhorar o resultado de uma atividade humana previamente completada;
  • (c) detectar padrões ou desvios na tomada de decisão, sem a intenção de influenciar a avaliação humana anterior sem a devida revisão humana;
  • (d) realizar uma tarefa preparatória da avaliação relevante para os casos de uso sob o Anexo III.

Um sistema de IA é isento quando não representa um risco significativo de dano à saúde, segurança ou direitos fundamentais das pessoas. Nesse caso, os fornecedores dos sistemas devem documentar sua avaliação antes que o sistema seja colocado no mercado ou colocado em serviço, e registrar-se e ao sistema em um novo banco de dados da UE.

Conclusão

Embora o Ato de IA da UE busque promover a conformidade e a responsabilidade na designação de funções e obrigações, é necessário um refinamento adicional para abordar melhor a complexidade, opacidade e autonomia dos sistemas de IA. Essas características introduzem questões particulares de responsabilidade que o Ato não aborda completamente. É fundamental apertar essa flexibilidade para garantir uma melhor proteção da segurança, saúde e direitos fundamentais dos indivíduos.

More Insights

Engenheiros de IA e Ética: Construindo Sistemas Inteligentes e Responsáveis

A Inteligência Artificial (IA) explodiu em capacidade, com avanços em aprendizado de máquina, processamento de linguagem natural e visão computacional. Este crescimento coloca os engenheiros de IA na...

A Imperativa da IA Responsável

A Dra. Anna Zeiter, vice-presidente de privacidade e responsabilidade de dados da eBay, afirma que a IA responsável não é apenas uma palavra da moda, mas uma imperativa fundamental. Ela destaca a...

Preservação de Dados em Inteligência Artificial Generativa

Ferramentas de inteligência artificial generativa (GAI) levantam preocupações legais, como privacidade de dados e segurança, e podem ser consideradas informações únicas que devem ser preservadas para...

Inteligência Artificial Responsável: Princípios e Benefícios

A inteligência artificial (IA) está mudando a maneira como vivemos e trabalhamos, tornando essencial seu uso responsável. Isso significa criar e utilizar sistemas de IA que sejam justos, transparentes...

Adotando IA Confiável para o Sucesso Empresarial

Nos últimos anos, a inteligência artificial (IA) se tornou uma ferramenta essencial para a tomada de decisões críticas nos negócios. No entanto, para operar efetivamente com a IA, as organizações...

Inteligência Artificial e o Futuro do Jogo: Desafios e Oportunidades

A aplicação da Inteligência Artificial (IA) na indústria do jogo apresenta oportunidades de eficiência, mas também traz crescentes expectativas regulatórias e riscos de responsabilidade. A...