Estudo sobre a Lei nº 132 de 23 de setembro de 2025: A Liderança da Itália na Regulamentação Nacional de IA
Com a aprovação da Lei nº 132 em 23 de setembro de 2025, a Itália se torna o primeiro estado-membro da União Europeia a adotar uma legislação abrangente e específica para cumprir as disposições do Regulamento da UE nº 2024/1689 (o “AI Act”). Essa legislação estabelece um quadro nacional para governança, supervisão e apoio à inovação na área de inteligência artificial (IA).
Contexto
O Projeto de Lei 1146/24 foi submetido a diversas opiniões de autoridades do setor, incluindo o Garante de Proteção de Dados Pessoais e a Comissão Europeia. Em sua opinião de 12 de setembro de 2024, a Comissão destacou a necessidade de maior consistência com o AI Act e uma maior abertura ao uso da inteligência artificial. O texto, parcialmente emendado de acordo com as recomendações recebidas, foi aprovado pelo Parlamento Italiano em 17 de setembro de 2025 e publicado no Diário Oficial nº 223 de 25 de setembro de 2025.
Setores Abrangidos
A primeira seção da Lei, dedicada aos princípios gerais, introduz uma estratégia nacional sobre IA, a ser atualizada a cada dois anos pelo Comitê Interministerial de Transição Digital com o apoio do Departamento de Transformação Digital da Presidência do Conselho de Ministros. Essa estratégia servirá como referência para decisões políticas e regulatórias sobre IA.
A segunda seção contém regras para setores individuais, indicando áreas e métodos de uso da IA. Especificamente, na saúde e na pesquisa científica, a IA é permitida como ferramenta de apoio, mas não pode ser usada para discriminar ou decidir sobre o acesso ao tratamento, mantendo o papel humano central e a responsabilidade final nas decisões.
Emprego
No setor de trabalho, a Lei introduz salvaguardas específicas para a gestão de seleção, avaliação e monitoramento de trabalhadores usando sistemas de IA. Estabelece obrigações de transparência para os empregadores, o direito à informação para os funcionários e a necessidade de avaliações de impacto para prevenir a discriminação algorítmica.
A Lei também estabelece um observatório sobre o impacto da IA no trabalho, visando maximizar os benefícios e mitigar os riscos decorrentes do uso de sistemas de inteligência artificial no ambiente de trabalho e promovendo o treinamento para trabalhadores e empregadores na área de IA.
Justiça
No setor da justiça, a legislação estabelece critérios rigorosos para o uso de sistemas de IA na esfera judicial, tanto para gestão de casos quanto para suporte à decisão. A supervisão humana é fortalecida e o uso de IA para atividades interpretativas é proibido; a análise automática é limitada a fins organizacionais, de simplificação de trabalho e administrativos, garantindo a plena proteção do direito de defesa e da confidencialidade das partes.
Propriedade Intelectual
A Lei especifica que a proteção de direitos autorais também é reconhecida para obras “cridas com a ajuda de inteligência artificial”, desde que resultem do trabalho intelectual do autor. Assim, fica esclarecido que materiais gerados exclusivamente por IA não estão sujeitos à proteção. A reprodução e extração de texto e dados usando IA são permitidas, desde que as fontes sejam legitimamente acessíveis.
Governança
Em termos de governança, a estratégia nacional para IA é atribuída à Presidência do Conselho de Ministros, com a participação da Agência para a Digitalização da Itália (AgID) e da Agência Nacional de Cibersegurança (ACN) como autoridades nacionais, além das autoridades setoriais competentes. A cibersegurança é considerada um pré-requisito essencial em todo o ciclo de vida dos sistemas e modelos de IA.
A coordenação entre autoridades nacionais e o Garante de Proteção de Dados será decisiva para alinhar as avaliações de risco dos sistemas de IA, incluindo do ponto de vista do GDPR e das avaliações de impacto ético.
Interconexões com o AI Act, NIS2 e GDPR
A Lei cobre decisivamente áreas deixadas de fora do AI Act: identifica autoridades de supervisão e poderes, regula inspeções, apoia PMEs e administrações públicas, e define sanções para condutas que não estejam totalmente harmonizadas (como deepfakes). Mesmo dentro das restrições da harmonização europeia, o legislador nacional eleva o padrão em relação às salvaguardas organizacionais e requisitos “procedimentais” (transparência, controles, treinamento, documentação), estendendo-os a casos de baixo risco e setores sensíveis como trabalho, saúde e justiça.
No que diz respeito à IA generativa e deepfake, a Itália adota uma abordagem mais prescritiva, introduzindo crimes e mecanismos para rastreabilidade e autenticidade de conteúdo, enquanto o AI Act favorece obrigações de informação e códigos de conduta (com requisitos ampliados para sistemas que apresentam risco sistêmico). O resultado é um modelo integrado com o GDPR, NIS2 e regras setoriais, que visa traduzir cláusulas gerais europeias em controles operacionais verificáveis.
Conclusões
Em termos concretos, a conformidade dependerá da capacidade de orquestrar a governança e os testes de controle. Entre as prioridades para as empresas, podemos identificar a necessidade de:
- mapear sistemas e classificar riscos;
- integrar DPIAs;
- definir papéis e responsabilidades de desenvolvedores e usuários;
- incluir cláusulas contratuais “prontas para o AI Act” na cadeia de suprimentos;
- implementar medidas técnicas, incluindo mapeamento de conteúdo e gestão de incidentes e relatórios.
Por fim, o monitoramento ativo dos atos executivos europeus e das diretrizes nacionais (incluindo as do Garante de Proteção de Dados Italiano) é necessário, pois esses padrões darão origem a critérios de avaliação, parâmetros técnicos e prioridades de inspeção. Aqueles que agirem agora não apenas reduzirão o risco de sanções, mas também ganharão uma vantagem competitiva: transformar a conformidade em um requisito de qualidade, segurança e confiabilidade dos sistemas de IA.