Estados Membros da UE Enfrentam Escassez de Financiamento para Aplicar a Lei de IA
Recentemente, um conselheiro de políticas da UE, Kai Zenner, alertou que muitos estados membros da União Europeia estão financeiramente sobrecarregados e carecem do pessoal especializado necessário para aplicar a Lei de IA de forma eficaz.
Até o dia 2 de agosto, os países da UE devem finalizar as regras para penalidades e multas sob a Lei de IA, que começou sua implementação gradual neste ano. Esta legislação se aplica não apenas a empresas baseadas na UE, mas também a empresas estrangeiras que realizam negócios no bloco.
Com o início da implementação gradual da Lei de IA, a aplicação da legislação se torna um desafio para nações com recursos financeiros limitados. Zenner enfatizou que muitos estados membros estão quase sem recursos financeiros, o que afeta diretamente as agências de proteção de dados.
Desafios de Financiamento e Talento
Zenner também destacou que os países não estão apenas lutando para financiar suas agências de proteção de dados, mas também estão perdendo talentos em inteligência artificial (IA) para empresas que podem pagar salários significativamente mais altos. Ele afirmou: “Essa combinação de falta de financiamento e também falta de talento será um dos principais desafios para aplicar a Lei de IA.”
Regras para Penalidades e Multas
Os países da União Europeia têm até 2 de agosto para estabelecer regras para penalidades e multas enquanto aplicam a Lei de IA. Empresas não europeias podem ser afetadas pela Lei de IA se tiverem clientes ou realizarem negócios dentro do bloco.
O Que É a Lei de IA da UE?
Em julho de 2024, a UE aprovou sua Lei de IA, que é a legislação mais abrangente de sua natureza no mundo. A implementação começou neste ano.
A Lei de IA da UE é um conjunto de regras para proteger a segurança e os direitos das pessoas, prevenir discriminação ou danos causados pela inteligência artificial e construir confiança na tecnologia. A UE quer garantir que a IA também proteja a privacidade e assegure a segurança.
A Lei de IA da UE é importante porque pode servir de modelo para as regulamentações de IA de outras nações, assim como a Europa liderou o caminho com o GDPR sobre leis de privacidade. Isso é conhecido como o “efeito Bruxelas”.
Sistemas de Risco Inaceitável São Proibidos
Esses sistemas incluem:
- Sistemas de pontuação social, como os usados para classificar cidadãos
- IA que manipula pessoas usando técnicas subliminares
- Reconhecimento facial em tempo real em espaços públicos, com algumas exceções para a aplicação da lei
Sistemas de Alto Risco Enfrentam Regras Estritas
A IA usada em áreas sensíveis, como contratação, educação, saúde ou aplicação da lei, é classificada como “alto risco”. Esses sistemas de IA devem seguir regras estritas: devem ser transparentes, precisos, manter registros de como a IA toma decisões e ser testados e monitorados regularmente.
Por exemplo, se um hospital utiliza IA para ajudar a diagnosticar pacientes, esse sistema de IA deve atender a altos padrões e estar sujeito a inspeções.
Sistemas de Risco Limitado Precisam de Alguma Transparência
Esses são sistemas de risco mais baixo, como chatbots. Eles não precisam de regulamentação pesada, mas devem informar as pessoas de que o conteúdo foi gerado por IA. Por exemplo, uma imagem gerada ou modificada por IA terá que ser divulgada como tal.