A liderança da Itália na regulamentação da IA

Estudo sobre a Lei nº 132 de 23 de setembro de 2025: A Liderança da Itália na Regulamentação Nacional de IA

Com a aprovação da Lei nº 132 em 23 de setembro de 2025, a Itália se torna o primeiro estado-membro da União Europeia a adotar uma legislação abrangente e específica para cumprir as disposições do Regulamento da UE nº 2024/1689 (o “AI Act”). Essa legislação estabelece um quadro nacional para governança, supervisão e apoio à inovação na área de inteligência artificial (IA).

Contexto

O Projeto de Lei 1146/24 foi submetido a diversas opiniões de autoridades do setor, incluindo o Garante de Proteção de Dados Pessoais e a Comissão Europeia. Em sua opinião de 12 de setembro de 2024, a Comissão destacou a necessidade de maior consistência com o AI Act e uma maior abertura ao uso da inteligência artificial. O texto, parcialmente emendado de acordo com as recomendações recebidas, foi aprovado pelo Parlamento Italiano em 17 de setembro de 2025 e publicado no Diário Oficial nº 223 de 25 de setembro de 2025.

Setores Abrangidos

A primeira seção da Lei, dedicada aos princípios gerais, introduz uma estratégia nacional sobre IA, a ser atualizada a cada dois anos pelo Comitê Interministerial de Transição Digital com o apoio do Departamento de Transformação Digital da Presidência do Conselho de Ministros. Essa estratégia servirá como referência para decisões políticas e regulatórias sobre IA.

A segunda seção contém regras para setores individuais, indicando áreas e métodos de uso da IA. Especificamente, na saúde e na pesquisa científica, a IA é permitida como ferramenta de apoio, mas não pode ser usada para discriminar ou decidir sobre o acesso ao tratamento, mantendo o papel humano central e a responsabilidade final nas decisões.

Emprego

No setor de trabalho, a Lei introduz salvaguardas específicas para a gestão de seleção, avaliação e monitoramento de trabalhadores usando sistemas de IA. Estabelece obrigações de transparência para os empregadores, o direito à informação para os funcionários e a necessidade de avaliações de impacto para prevenir a discriminação algorítmica.

A Lei também estabelece um observatório sobre o impacto da IA no trabalho, visando maximizar os benefícios e mitigar os riscos decorrentes do uso de sistemas de inteligência artificial no ambiente de trabalho e promovendo o treinamento para trabalhadores e empregadores na área de IA.

Justiça

No setor da justiça, a legislação estabelece critérios rigorosos para o uso de sistemas de IA na esfera judicial, tanto para gestão de casos quanto para suporte à decisão. A supervisão humana é fortalecida e o uso de IA para atividades interpretativas é proibido; a análise automática é limitada a fins organizacionais, de simplificação de trabalho e administrativos, garantindo a plena proteção do direito de defesa e da confidencialidade das partes.

Propriedade Intelectual

A Lei especifica que a proteção de direitos autorais também é reconhecida para obras “cridas com a ajuda de inteligência artificial”, desde que resultem do trabalho intelectual do autor. Assim, fica esclarecido que materiais gerados exclusivamente por IA não estão sujeitos à proteção. A reprodução e extração de texto e dados usando IA são permitidas, desde que as fontes sejam legitimamente acessíveis.

Governança

Em termos de governança, a estratégia nacional para IA é atribuída à Presidência do Conselho de Ministros, com a participação da Agência para a Digitalização da Itália (AgID) e da Agência Nacional de Cibersegurança (ACN) como autoridades nacionais, além das autoridades setoriais competentes. A cibersegurança é considerada um pré-requisito essencial em todo o ciclo de vida dos sistemas e modelos de IA.

A coordenação entre autoridades nacionais e o Garante de Proteção de Dados será decisiva para alinhar as avaliações de risco dos sistemas de IA, incluindo do ponto de vista do GDPR e das avaliações de impacto ético.

Interconexões com o AI Act, NIS2 e GDPR

A Lei cobre decisivamente áreas deixadas de fora do AI Act: identifica autoridades de supervisão e poderes, regula inspeções, apoia PMEs e administrações públicas, e define sanções para condutas que não estejam totalmente harmonizadas (como deepfakes). Mesmo dentro das restrições da harmonização europeia, o legislador nacional eleva o padrão em relação às salvaguardas organizacionais e requisitos “procedimentais” (transparência, controles, treinamento, documentação), estendendo-os a casos de baixo risco e setores sensíveis como trabalho, saúde e justiça.

No que diz respeito à IA generativa e deepfake, a Itália adota uma abordagem mais prescritiva, introduzindo crimes e mecanismos para rastreabilidade e autenticidade de conteúdo, enquanto o AI Act favorece obrigações de informação e códigos de conduta (com requisitos ampliados para sistemas que apresentam risco sistêmico). O resultado é um modelo integrado com o GDPR, NIS2 e regras setoriais, que visa traduzir cláusulas gerais europeias em controles operacionais verificáveis.

Conclusões

Em termos concretos, a conformidade dependerá da capacidade de orquestrar a governança e os testes de controle. Entre as prioridades para as empresas, podemos identificar a necessidade de:

  • mapear sistemas e classificar riscos;
  • integrar DPIAs;
  • definir papéis e responsabilidades de desenvolvedores e usuários;
  • incluir cláusulas contratuais “prontas para o AI Act” na cadeia de suprimentos;
  • implementar medidas técnicas, incluindo mapeamento de conteúdo e gestão de incidentes e relatórios.

Por fim, o monitoramento ativo dos atos executivos europeus e das diretrizes nacionais (incluindo as do Garante de Proteção de Dados Italiano) é necessário, pois esses padrões darão origem a critérios de avaliação, parâmetros técnicos e prioridades de inspeção. Aqueles que agirem agora não apenas reduzirão o risco de sanções, mas também ganharão uma vantagem competitiva: transformar a conformidade em um requisito de qualidade, segurança e confiabilidade dos sistemas de IA.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...