Resumo da Lei de Inteligência Artificial da UE
A Lei de Inteligência Artificial (IA) da União Europeia (UE) estabelece um quadro regulatório abrangente para o desenvolvimento e a utilização de sistemas de IA, classificando-os de acordo com os riscos que apresentam. O objetivo é garantir a segurança e a proteção dos direitos dos cidadãos europeus.
Classificação de Riscos
A lei categoriza a IA em diferentes níveis de risco:
- Riscos inaceitáveis: sistemas que utilizam técnicas subliminares ou manipulativas são proibidos.
- Sistemas de alto risco: são regulamentados e requerem estritas obrigações de conformidade.
- Risco limitado: sistemas que devem garantir transparência, como chatbots, onde os usuários devem ser informados sobre a interação com IA.
- Risco mínimo: a maioria das aplicações de IA atualmente no mercado, como jogos e filtros de spam, não são regulamentadas.
Obrigações para Fornecedores e Implantadores
A maior parte das obrigações recai sobre os fornecedores de sistemas de IA de alto risco, que incluem:
- Fornecedores que desejam colocar no mercado sistemas de IA de alto risco na UE.
- Fornecedores de países terceiros cujos sistemas são utilizados na UE.
Os implantadores de sistemas de IA, que os utilizam profissionalmente, possuem obrigações reduzidas em comparação aos fornecedores.
Exigências para Sistemas de Alto Risco
Os sistemas de IA considerados de alto risco devem atender a requisitos específicos, como:
- Implementar um sistema de gestão de riscos ao longo do ciclo de vida do sistema.
- Assegurar a governança dos dados, garantindo que os conjuntos de dados sejam relevantes e representativos.
- Fornecer documentação técnica que comprove a conformidade.
- Possuir mecanismos de monitoramento humano para garantir a supervisão das operações de IA.
Sistemas de IA Proibidos
Os seguintes tipos de sistemas de IA são considerados proibidos pela lei:
- Técnicas que manipulam comportamentos e prejudicam a tomada de decisões.
- Exploração de vulnerabilidades sociais e econômicas.
- Sistemas de categorização biométrica que inferem atributos sensíveis.
- Notação social e avaliação de risco criminal baseadas apenas em perfilagem.
IA de Uso Geral (GPAI)
Os modelos de IA de uso geral são definidos como aqueles que demonstram grande generalidade e podem executar uma variedade de tarefas. Os fornecedores de modelos GPAI devem:
- Redigir documentação técnica detalhada sobre o processo de treinamento e avaliação.
- Publicar um resumo do conteúdo utilizado para a formação.
- Cooperar com fornecedores de sistemas de IA de alto risco para garantir a conformidade.
Governança e Implementação
A implementação da lei será supervisionada pelo Office AI, que garantirá a conformidade e a eficácia das regulamentações. O calendário de implementação inclui prazos específicos para diferentes categorias de sistemas de IA:
- 6 meses para sistemas de IA proibidos.
- 12 meses para GPAI.
- 24 meses para sistemas de IA de alto risco da Anexo III.
- 36 meses para sistemas de IA de alto risco da Anexo I.
Essas medidas visam criar um ambiente seguro e ético para o desenvolvimento e a utilização de tecnologias de IA na Europa, protegendo os direitos dos cidadãos e promovendo a inovação responsável.