Novas Regras da UE sobre IA: Educação e Risco Inaceitável

Provisões do Ato de IA da UE sobre Alfabetização em IA e Proibição de “Riscos Inaceitáveis”

Em vigor a partir de 2 de fevereiro de 2025, as provisões do Capítulo 1 e 2 do Regulamento da UE nº 2024/1689, que estabelece regras harmonizadas sobre inteligência artificial (“Ato de IA da UE”), relativas à alfabetização em IA e à proibição do uso de sistemas de IA que apresentem riscos inaceitáveis, entraram em vigor.

1. OBRIGAÇÕES DE ALFABETIZAÇÃO EM IA

A partir de 2 de fevereiro de 2025, os fornecedores de sistemas de IA (entidades que desenvolvem, comercializam ou colocam sistemas de IA em serviço sob seu nome ou marca) e os operadores de sistemas de IA (entidades que utilizam sistemas de IA sob sua autoridade em atividades profissionais) têm a obrigação de tomar medidas para garantir, na maior medida possível, um nível suficiente de alfabetização em IA de sua equipe e de outras pessoas que lidam com a operação e uso de sistemas de IA em seu nome. A alfabetização em IA é definida como as habilidades, conhecimentos e compreensão necessários para facilitar a implantação informada de sistemas de IA e para conscientizar sobre as oportunidades e riscos da IA e os possíveis danos que ela pode causar.

No momento, não há sanções específicas previstas para violações das obrigações de alfabetização em IA; no entanto, pode-se razoavelmente esperar que o desempenho ou a não realização dessas obrigações sejam considerados pelas autoridades competentes como um fator ao considerar a sanção apropriada a ser aplicada a um fornecedor ou operador por outras violações do Ato de IA da UE.

2. SISTEMAS DE IA PROIBIDOS

Além disso, a partir de 2 de fevereiro de 2025, os chamados “riscos inaceitáveis”, referindo-se a sistemas de IA que apresentam riscos inaceitáveis aos direitos fundamentais, ao estado de direito e aos valores da União Europeia, são proibidos sob o Capítulo 2 do Ato de IA da UE. As práticas de IA proibidas são as seguintes:

  • Técnicas de manipulação e engano: colocação no mercado, colocação em serviço ou uso de sistemas de IA que empregam técnicas subliminares, manipulativas ou enganosas com o objetivo ou efeito de distorcer materialmente o comportamento humano, comprometendo significativamente sua capacidade de tomar uma decisão informada.
  • Exploração de vulnerabilidades: colocação no mercado, colocação em serviço ou uso de sistemas de IA que exploram vulnerabilidades de pessoas naturais decorrentes de idade, deficiência ou condições socioeconômicas, com o objetivo ou efeito de distorcer materialmente seu comportamento de maneira que cause ou possa causar danos significativos.
  • Classificação social: colocação no mercado, colocação em serviço ou uso de sistemas de IA para realizar a classificação social (ou seja, avaliação ou classificação de pessoas) com base em atributos comportamentais ou pessoais, levando a tratamento prejudicial ou desfavorável em contextos que não estão relacionados aos quais os dados foram coletados ou que são injustificados em relação ao seu comportamento social ou gravidade.
  • Avaliação e previsão de risco de crimes individuais: colocação no mercado, colocação em serviço ou uso de sistemas de IA exclusivamente para perfilagem de indivíduos para avaliar ou prever chances de comportamento criminoso.
  • Bancos de dados de reconhecimento facial não autorizados: colocação no mercado, colocação em serviço ou uso de sistemas de IA que criam ou expandem bancos de dados de reconhecimento facial através de coleta aleatória de imagens faciais da internet ou de filmagens de CCTV.
  • Reconhecimento de emoções em trabalho e educação: colocação no mercado, colocação em serviço ou uso de sistemas de IA utilizados para inferir emoções em ambientes de trabalho ou educacionais é proibido, exceto quando justificado para fins médicos ou de segurança.
  • Categorização biométrica: colocação no mercado, colocação em serviço ou uso de sistemas de IA que categorizam indivíduos com base em dados biométricos para deduzir informações sensíveis, como raça, opiniões políticas, religião, filiação a sindicatos ou orientação sexual, é restrita.
  • Uso pela lei de identificação biométrica em tempo real: O uso de sistemas de identificação biométrica remota em tempo real em espaços públicos é amplamente proibido, a menos que para exceções estritamente definidas.

As sanções por não conformidade com as proibições acima ainda não entraram em vigor, estando adiadas até 2 de agosto de 2025, conforme a abordagem faseada do Ato de IA da UE. Após sua entrada em vigor, as sanções preveem multas administrativas de até o maior valor entre EUR 35.000.000 ou 7% do faturamento anual total mundial da entidade em violação.

3. ISSO SE APLICA A VOCÊ?

O escopo regulatório do Ato de IA da UE é abrangente, abrangendo uma ampla gama de atividades de IA e partes interessadas. Ele se aplica a fornecedores que colocam no mercado da UE sistemas ou modelos de IA, independentemente de seu país de origem, bem como a operadores de sistemas de IA dentro da UE e até mesmo a entidades estabelecidas em países terceiros cujos produtos de sistemas de IA são utilizados dentro da UE.

Organizações envolvidas na importação, distribuição ou fabricação de produtos que integram sistemas de IA também estão sujeitas aos requisitos do Ato de IA da UE. Além disso, o Ato de IA da UE também se aplica a pessoas afetadas que estão localizadas na UE.

More Insights

Alfabetização em IA: Diretrizes para Construir Seu Programa

A obrigação de alfabetização em IA do Ato de IA da UE se aplica a todos os que lidam com IA e exige que os provedores e implementadores garantam um nível suficiente de alfabetização em IA entre seus...

Cruzamentos Éticos da Inteligência Artificial

A inteligência artificial (IA) está se tornando cada vez mais influente em processos de tomada de decisão críticos nas indústrias, levantando preocupações sobre possíveis preconceitos e falta de...

Senadora das Filipinas defende equilíbrio na governança da IA

Uma legisladora nas Filipinas está pedindo uma abordagem cautelosa e consultiva para regular a inteligência artificial (IA) no país, destacando a necessidade de garantir que as políticas promovam o...

A China e o Futuro da Governança de IA: Um Modelo de Código Aberto

A rápida evolução da inteligência artificial (IA) na China, liderada por gigantes tecnológicos como Alibaba e Baidu, é impulsionada por uma forte ênfase na colaboração de código aberto. Essa abordagem...