O Ato de IA da UE – Dez pontos principais a conhecer
O Ato de Inteligência Artificial da União Europeia (o “Ato de IA da UE”) foi publicado no Jornal Oficial da UE em 12 de julho de 2024 e entrou em vigor em 1 de agosto de 2024. Este ato fornece uma estrutura abrangente de regras que regem o desenvolvimento, a implementação e o uso de IA. Diversos Códigos de Prática serão publicados (com prazo até 1 de junho de 2025), que complementarão a interpretação do Ato de IA da UE.
Este artigo fornece um resumo geral e de alto nível dos 10 pontos principais que você precisa saber sobre o Ato de IA da UE.
Ponto Chave Um: O Ato de IA da UE distingue entre Sistemas de IA e Modelos de IA
O Ato de IA da UE contém um conjunto de regras que se aplicam a Sistemas de IA e um conjunto separado que se aplica a Modelos de IA (mais especificamente, Modelos de IA de Uso Geral).
Sistemas de IA
Um Sistema de IA é definido como:
“um sistema baseado em máquina que é projetado para operar com vários níveis de autonomia e que pode exibir adaptabilidade após a implementação, inferindo, a partir da entrada que recebe, como gerar saídas como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.”
Modelos de IA
Intrigantemente, o Ato de IA da UE não define “Modelos de IA”, mas define Modelos de IA de Uso Geral. Estes modelos são aqueles que exibem uma generalidade significativa e são capazes de realizar uma ampla gama de tarefas distintas.
Ponto Chave Dois: O Ato de IA da UE adota uma abordagem em camadas com base no nível de risco percebido
Para os Sistemas de IA, o Ato de IA da UE adota uma abordagem em camadas com base no nível de risco percebido:
- Algumas técnicas de design e casos de uso de IA são proibidas.
- Uma variedade de casos de uso para Sistemas de IA são designados como de alto risco.
- Outros Sistemas de IA são considerados de baixo risco.
Ponto Chave Três: O Ato de IA da UE tem um amplo escopo territorial
O Ato de IA da UE aplicará suas regras não apenas para operadores dentro da UE, mas também para aqueles fora da UE que ofereçam ferramentas de IA a usuários na UE ou cujos resultados sejam utilizados na UE.
Ponto Chave Quatro: O Ato de IA da UE não se aplica em certas instâncias limitadas
O Ato de IA da UE não se aplica a Sistemas de IA utilizados exclusivamente para fins militares, de defesa ou de segurança nacional, nem a atividades de pesquisa e desenvolvimento específicas.
Ponto Chave Cinco: O Ato de IA da UE entra em vigor de forma escalonada
As várias exigências do Ato de IA da UE entrarão em vigor gradualmente ao longo do tempo, com datas chave a serem observadas:
- 2 de fevereiro de 2025: O regime de IA proibida e regras sobre literacia em IA.
- 2 de agosto de 2025: Regras sobre Modelos de IA de Uso Geral.
- 2 de agosto de 2026: Regras sobre Sistemas de IA de alto risco listados no Anexo III do Ato de IA da UE.
- 2 de agosto de 2027: Regras sobre IA integrada a produtos sujeitos a regulamentos de segurança de produtos.
Ponto Chave Seis: Várias regras se aplicam ao longo da cadeia de valor da IA
O Ato de IA da UE cria uma cadeia de valor que mapeia as obrigações de conformidade entre diferentes “operadores”. Determinar seu papel na cadeia de valor da IA é crucial para entender suas obrigações.
Ponto Chave Sete: obrigações de transparência se aplicam de forma mais ampla
Embora a maioria do Ato de IA da UE se concentre em Sistemas de IA de alto risco, obrigações de transparência se aplicam em um nível mais amplo. Fornecedores e, em alguns casos, implementadores terão certas obrigações de transparência independentemente do risco do sistema.
Ponto Chave Oito: O Ato de IA da UE exige um nível de literacia em IA
O Ato de IA da UE contém uma exigência geral para todos os implementadores e fornecedores de sistemas de IA garantirem que seu pessoal tenha um nível suficiente de literacia em IA.
Ponto Chave Nove: IA liberada em código aberto pode não estar sujeita ao Ato
O Ato de IA da UE estabelece que a regulamentação não se aplica a Sistemas de IA liberados sob licenças de código aberto, exceto em circunstâncias específicas.
Ponto Chave Dez: Avaliações de impacto sobre direitos fundamentais (FRIA) serão exigidas em certas circunstâncias
De acordo com o Ato de IA da UE, determinados implementadores de Sistemas de IA de alto risco devem realizar uma FRIA antes de colocar o sistema em uso.