A Responsabilidade na Cadeia de Valor dos Sistemas de IA de Alto Risco

O Ato de Inteligência Artificial da União Europeia e a Alocação de Responsabilidades em Sistemas de Alto Risco

O Ato de Inteligência Artificial da União Europeia regula sistemas de alto risco alocando responsabilidades a atores designados ao longo da cadeia de valor desses sistemas. Este estudo analisa se o Ato adequadamente distribui essas responsabilidades ao longo do ciclo de vida dos sistemas de IA.

Introdução

Em 2024, a União Europeia adotou o Ato de IA com o objetivo de promover o uso de IA centrada no ser humano e confiável, ao mesmo tempo que protege a saúde, a segurança e os direitos fundamentais das pessoas. O Ato adota uma abordagem baseada em riscos que categoriza sistemas de IA como inaceitável, alto, limitado e baixo risco, além de disposições específicas para modelos de IA de uso geral.

Este estudo foca nos sistemas de IA de alto risco, examinando a adequação da alocação de responsabilidades conforme descrito no Capítulo III do Ato. As funções e obrigações dos atores são alocadas de forma linear em um ambiente regulatório flexível, promovendo transparência, conformidade e responsabilidade.

Decodificando Sistemas de IA de Alto Risco e Seus Principais Atores

Segundo o Artigo 6 do Ato de IA, um sistema de IA é classificado como de alto risco em duas situações:

(1) O sistema de IA é destinado a ser usado como um componente de segurança de um produto coberto por leis da UE mencionadas no Anexo I do Ato e deve passar por uma avaliação de conformidade de terceiros (ex.: dispositivos médicos in vitro, elevadores, brinquedos, etc.); ou

(2) O sistema é mencionado no Anexo III (principalmente lidando com preocupações sobre direitos fundamentais).

No entanto, o parágrafo 3 do Artigo 6 fornece uma isenção a essa categorização, esclarecendo que um sistema de IA mencionado no Anexo III não é considerado de alto risco quando se destina a:

  • (a) realizar uma tarefa processual estreita;
  • (b) melhorar o resultado de uma atividade humana previamente completada;
  • (c) detectar padrões ou desvios na tomada de decisão, sem a intenção de influenciar a avaliação humana anterior sem a devida revisão humana;
  • (d) realizar uma tarefa preparatória da avaliação relevante para os casos de uso sob o Anexo III.

Um sistema de IA é isento quando não representa um risco significativo de dano à saúde, segurança ou direitos fundamentais das pessoas. Nesse caso, os fornecedores dos sistemas devem documentar sua avaliação antes que o sistema seja colocado no mercado ou colocado em serviço, e registrar-se e ao sistema em um novo banco de dados da UE.

Conclusão

Embora o Ato de IA da UE busque promover a conformidade e a responsabilidade na designação de funções e obrigações, é necessário um refinamento adicional para abordar melhor a complexidade, opacidade e autonomia dos sistemas de IA. Essas características introduzem questões particulares de responsabilidade que o Ato não aborda completamente. É fundamental apertar essa flexibilidade para garantir uma melhor proteção da segurança, saúde e direitos fundamentais dos indivíduos.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...