Sistemas de IA de Alto Risco: O Que os Empregadores Precisam Saber

Sistemas de IA Riscos: O Que São e O Que os Empregadores Afetados Precisam Fazer?

O Regulamento da IA da UE (o Regulamento) é a primeira legislação em qualquer lugar do mundo que regula a IA. O Regulamento cria obrigações com base no nível de risco associado a usos particulares de sistemas de IA. As disposições relacionadas aos usos mais “arriscados” da IA entraram em vigor em 2 de fevereiro de 2025, e todo o Regulamento estará em vigor até 1 de agosto de 2026. A intenção do Parlamento Europeu é que a regulação e classificação de sistemas de IA dessa forma aumentem a segurança, transparência e sustentabilidade, além de prevenir práticas discriminatórias da IA. É vital que os empregadores tomem medidas proativas para garantir a conformidade com o Regulamento para evitar enfrentarem multas significativas, ações legais ou regulatórias e danos à reputação.

As capacidades da IA aceleraram dramaticamente nos últimos anos, criando desafios legais e éticos. Por exemplo, dados de treinamento incompletos e tendenciosos resultaram em sistemas de IA que avaliam de forma discriminatória currículos, rotulam incorretamente imagens e identificam erroneamente suspeitos. A IA também levanta preocupações de privacidade e transparência, como quando as informações pessoais dos usuários são “coletadas” de sites publicamente disponíveis sem seu conhecimento. A IA generativa pode, de maneira similar, criar imagens perturbadoras, ofensivas e racistas. Em resposta a essas questões, o Parlamento Europeu aprovou o Regulamento para encontrar um equilíbrio entre fomentar a inovação e proteger os usuários e seus direitos.

Isso se Aplica ao Seu Negócio?

O Regulamento se aplica a fornecedores de sistemas de IA para o mercado da UE, independentemente de onde estejam estabelecidos ou localizados, e aos provedores e usuários de sistemas de IA localizados ou estabelecidos fora da UE, se a saída do sistema de IA for utilizada na UE. Portanto, não são apenas as empresas localizadas na UE que precisam estar cientes das implicações do Regulamento. Se, por exemplo, você usar uma ferramenta de recrutamento de IA no Reino Unido para recrutamento em sua empresa na UE, isso se enquadrará no escopo do Regulamento.

Categorias de Risco

O Regulamento tenta fazer isso classificando os usos de IA em várias categorias de risco, aumentando em gravidade de “risco mínimo” e “risco limitado” a “risco alto” e “risco inaceitável”. Sob o Regulamento, sistemas de IA de “risco mínimo” (que incluem a maioria dos sistemas de IA atualmente disponíveis no mercado da UE) permanecerão não regulamentados. Sistemas de “risco limitado” estarão sujeitos a obrigações leves para garantir que os usuários saibam e entendam que estão interagindo com a IA. O Regulamento impõe uma regulação muito mais rigorosa para sistemas de “alto risco” e “risco inaceitável”. A multa máxima por não conformidade é o maior valor entre €35 milhões ou até 7% do faturamento total mundial anual da empresa do ano financeiro anterior.

Sistemas de IA de “Alto Risco”

Sistemas de IA de alto risco incluem aqueles usados para categorizar pessoas com base em seus dados biométricos (por exemplo, IA usada em CFTV); para educação e treinamento (por exemplo, IA usada para detectar comportamentos erráticos de alunos durante exames); na empregabilidade (por exemplo, IA usada na tomada de decisões de RH, ou durante processos de integração ou recrutamento); e para administrar a justiça (por exemplo, IA usada na resolução alternativa de disputas).

Um sistema só se qualificará como alto risco se representar um risco significativo de dano à saúde, segurança ou direitos fundamentais. Um sistema que apenas realiza uma tarefa procedural estreita ou destina-se a melhorar o resultado de uma atividade humana previamente concluída, por exemplo, será considerado como não apresentando um risco significativo de dano e ficará fora da classificação de alto risco.

É claro a partir da lista prescrita acima que muitas das ferramentas de IA que as empresas podem usar em um contexto de RH cairão na categoria de alto risco. Isso incluirá sistemas de IA que ajudam na triagem de currículos e candidaturas e ferramentas de gestão de desempenho de IA.

Os desenvolvedores de IA de alto risco têm até pelo menos 2027 para:

  • criar e atualizar um sistema de gestão de riscos do início ao fim do ciclo de vida do sistema de IA;
  • implementar um sistema de governança de dados;
  • criar um sistema de gestão de qualidade, bem como documentação técnica para mostrar e garantir conformidade com o Regulamento e permitir que as autoridades testem a conformidade;
  • projetar a IA de modo que ela mantenha e atualize automaticamente registros para indicar quaisquer riscos ou mudanças significativas na IA;
  • dar instruções sobre como usar a IA aos seus usuários;
  • e projetar a IA de modo que humanos possam supervisioná-la e que a IA seja segura, funcione corretamente e produza a saída correta.

Sistemas de IA de “Risco Inaceitável”

O Regulamento proibiu sistemas de IA de risco inaceitável desde 2 de fevereiro de 2025. Existem oito sistemas de IA que são banidos sob o Regulamento por representarem uma ameaça significativa aos seus usuários e à sociedade de forma mais ampla. Isso inclui sistemas que envolvem a classificação social de pessoas (por exemplo, classificação de usuários ou grupos de usuários com base em traços de personalidade e resultando em tratamento prejudicial ou desfavorável), reconhecimento de emoções em locais de trabalho ou instituições educacionais, e o uso de informações biométricas para sistemas de categorização que inferem atributos sensíveis (por exemplo, gênero, religião, etnia). A Comissão Europeia recentemente aprovou diretrizes sobre práticas de IA proibidas.

O Que os Empregadores Precisam Fazer?

Se o seu negócio, ou parte dele, está dentro do escopo do Regulamento, você deve agir agora para garantir que cumpre suas obrigações sob o Regulamento:

  • Auditorias: Considere realizar uma auditoria dos sistemas de IA que você atualmente usa, caso eles se enquadrem nas categorias de “risco inaceitável” ou “alto risco”. Se alguma IA dentro dessas categorias for identificada, você deve eliminá-las ou alterá-las imediatamente para evitar as consequências da não conformidade.
  • Políticas: Implemente políticas de governança de IA para delinear claramente como os funcionários devem usar a IA de forma responsável para aderir ao Regulamento.
  • Treinamento: Considere treinamento sobre o uso da IA para ajudar os funcionários a entender os desafios, riscos e oportunidades que a IA apresenta e seu papel e responsabilidades.
  • Conformidade de Fornecedores: Se você usar fornecedores de terceiros para seus sistemas de IA (por exemplo, para IA em recrutamento), garanta que o fornecedor de IA esteja em conformidade com o Regulamento e revise seus contratos de fornecedores para garantir que a responsabilidade por não conformidade recaia sobre eles.

Ao tomar medidas positivas agora para garantir a conformidade com o Regulamento, os empregadores podem manter uma cultura de trabalho centrada nas pessoas e evitar multas substanciais, bem como repercussões reputacionais.

More Insights

Sistema de Gestão de Risco na Lei de IA da UE

O Ato de Inteligência Artificial da União Europeia (UE) estabelece um sistema de gestão de riscos obrigatório para provedores de IA de alto risco, visando proteger a saúde, a segurança e os direitos...

Riscos Ocultos dos Agentes de IA na Governança

Dalen acredita que agora é necessária uma governança específica para a IA para essa nova geração de ferramentas, a fim de garantir que sejam implantadas de forma responsável e tragam valor...