Multas Massivas na Espanha por Não Rotulagem de Conteúdo Gerado por IA
No dia 11 de março de 2025, o governo espanhol aprovou um projeto de lei que impõe multas significativas às empresas que utilizam conteúdo gerado por inteligência artificial (IA) sem rotulá-lo adequadamente. Essa iniciativa visa coibir o uso de “deepfakes”, que são vídeos, fotografias ou áudios editados ou gerados por algoritmos de IA e apresentados como reais.
Diretrizes da União Europeia
O projeto de lei espanhol adota diretrizes do Marco Regulatório de IA da União Europeia, que estabelece obrigações de transparência rigorosas para sistemas de IA considerados de alto risco. O Ministro da Transformação Digital, Oscar Lopez, destacou a necessidade de garantir que a IA seja usada de maneira responsável.
“A IA é uma ferramenta muito poderosa que pode ser usada para melhorar nossas vidas… ou para disseminar desinformação e atacar a democracia”, afirmou Lopez.
Multas e Penalidades
A nova legislação classifica a não conformidade com a rotulagem adequada de conteúdo gerado por IA como uma ofensa grave, sujeita a multas de até 35 milhões de euros (aproximadamente 38,2 milhões de dólares) ou 7% do faturamento global anual da empresa.
A Espanha se junta a outros países da UE que estão implementando regras mais abrangentes, em contraste com o sistema dos Estados Unidos, que depende em grande parte da conformidade voluntária e de uma rede de regulamentações estaduais.
Práticas Proibidas
Além da rotulagem de conteúdo gerado por IA, o projeto de lei também proíbe práticas como o uso de técnicas subliminares — sons e imagens imperceptíveis que manipulam grupos vulneráveis. Lopez citou exemplos como chatbots que incitam pessoas com vícios a jogar ou brinquedos que incentivam crianças a realizar desafios perigosos.
Vigilância e Classificação Biométrica
A legislação impede organizações de classificar indivíduos com base em seus dados biométricos usando IA, avaliando-os com base em seu comportamento ou traços pessoais para concessão de benefícios ou avaliação de risco de cometer crimes. No entanto, as autoridades ainda poderão utilizar vigilância biométrica em tempo real em espaços públicos por razões de segurança nacional.
Agência Supervisora de IA
A aplicação das novas regras será responsabilidade da recém-criada Agência Supervisora de IA (AESIA), exceto em casos específicos relacionados à privacidade de dados, crimes, eleições, classificações de crédito, seguros ou sistemas de mercado de capitais, que serão supervisionados por órgãos reguladores correspondentes.
Essa iniciativa reflete um esforço contínuo para garantir que os sistemas de IA não prejudiquem a sociedade, especialmente após o impacto significativo do lançamento do ChatGPT pela OpenAI no final de 2022, que impressionou os usuários com sua capacidade de envolver conversas semelhantes às humanas.