A Responsabilidade na Cadeia de Valor dos Sistemas de IA de Alto Risco

O Ato de Inteligência Artificial da União Europeia e a Alocação de Responsabilidades em Sistemas de Alto Risco

O Ato de Inteligência Artificial da União Europeia regula sistemas de alto risco alocando responsabilidades a atores designados ao longo da cadeia de valor desses sistemas. Este estudo analisa se o Ato adequadamente distribui essas responsabilidades ao longo do ciclo de vida dos sistemas de IA.

Introdução

Em 2024, a União Europeia adotou o Ato de IA com o objetivo de promover o uso de IA centrada no ser humano e confiável, ao mesmo tempo que protege a saúde, a segurança e os direitos fundamentais das pessoas. O Ato adota uma abordagem baseada em riscos que categoriza sistemas de IA como inaceitável, alto, limitado e baixo risco, além de disposições específicas para modelos de IA de uso geral.

Este estudo foca nos sistemas de IA de alto risco, examinando a adequação da alocação de responsabilidades conforme descrito no Capítulo III do Ato. As funções e obrigações dos atores são alocadas de forma linear em um ambiente regulatório flexível, promovendo transparência, conformidade e responsabilidade.

Decodificando Sistemas de IA de Alto Risco e Seus Principais Atores

Segundo o Artigo 6 do Ato de IA, um sistema de IA é classificado como de alto risco em duas situações:

(1) O sistema de IA é destinado a ser usado como um componente de segurança de um produto coberto por leis da UE mencionadas no Anexo I do Ato e deve passar por uma avaliação de conformidade de terceiros (ex.: dispositivos médicos in vitro, elevadores, brinquedos, etc.); ou

(2) O sistema é mencionado no Anexo III (principalmente lidando com preocupações sobre direitos fundamentais).

No entanto, o parágrafo 3 do Artigo 6 fornece uma isenção a essa categorização, esclarecendo que um sistema de IA mencionado no Anexo III não é considerado de alto risco quando se destina a:

  • (a) realizar uma tarefa processual estreita;
  • (b) melhorar o resultado de uma atividade humana previamente completada;
  • (c) detectar padrões ou desvios na tomada de decisão, sem a intenção de influenciar a avaliação humana anterior sem a devida revisão humana;
  • (d) realizar uma tarefa preparatória da avaliação relevante para os casos de uso sob o Anexo III.

Um sistema de IA é isento quando não representa um risco significativo de dano à saúde, segurança ou direitos fundamentais das pessoas. Nesse caso, os fornecedores dos sistemas devem documentar sua avaliação antes que o sistema seja colocado no mercado ou colocado em serviço, e registrar-se e ao sistema em um novo banco de dados da UE.

Conclusão

Embora o Ato de IA da UE busque promover a conformidade e a responsabilidade na designação de funções e obrigações, é necessário um refinamento adicional para abordar melhor a complexidade, opacidade e autonomia dos sistemas de IA. Essas características introduzem questões particulares de responsabilidade que o Ato não aborda completamente. É fundamental apertar essa flexibilidade para garantir uma melhor proteção da segurança, saúde e direitos fundamentais dos indivíduos.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...