Planos em Evolução para a Regulação da IA

Planos em Evolução para Regulamentação de IA

Em abril de 2025, o Ato de IA da União Europeia entrou em vigor, com regras para modelos geradores que serão aplicáveis a partir de agosto de 2025. O Reino Unido, por sua vez, está adotando uma abordagem flexível e baseada em princípios, sem a necessidade de novas estruturas regulatórias no curto prazo. Entretanto, devido a desenvolvimentos geopolíticos, ambas as jurisdições estão reconsiderando o equilíbrio entre competitividade e salvaguardas regulatórias.

Aumento no Uso de IA

Uma pesquisa recente do Banco da Inglaterra e da FCA revelou que 75% das empresas já utilizam alguma forma de IA em suas operações, um aumento em relação a 53% em 2022. Esse crescimento não se deve apenas a ganhos de eficiência, mas também abrange casos de uso significativos, como avaliações de risco de crédito (classificadas como ‘de alto risco’ sob o Ato de IA da UE), negociação algorítmica e gestão de capital.

Para investigar essa tendência, o Comitê do Tesouro lançou uma Chamada para Evidências sobre os impactos do uso crescente de IA em serviços financeiros, incluindo bancos e pensões. Além disso, o Comitê de Política Financeira do Banco da Inglaterra publicou uma avaliação sobre o impacto da IA na estabilidade financeira.

Abordagem do Reino Unido

Atualmente, o governo do Reino Unido continua com sua abordagem baseada em princípios. A FCA incentiva inovadores e outras partes interessadas a se envolverem com suas iniciativas do Laboratório de IA, promovendo um ambiente de inovação. Essa abordagem é reforçada pela pressão para crescimento e competitividade, com a IA sendo vista como um motor-chave para o desenvolvimento econômico.

Durante a Cúpula de Ação de IA em Paris, o Reino Unido e os EUA foram os únicos países a optar por não assinar uma declaração internacional sobre IA “inclusiva e sustentável”. O governo britânico renomeou seu Instituto de Segurança de IA para se concentrar em liberar o crescimento econômico, ao invés de focar em questões como viés ou liberdade de expressão.

Ato de IA da UE

O Ato de IA classifica aplicações de IA em níveis de risco, introduzindo requisitos rigorosos para áreas de alto risco. Os Estados-Membros têm até agosto de 2025 para designar as autoridades competentes que supervisionarão a aplicação das regras do Ato em suas jurisdições. No entanto, espera-se que diferentes tipos de autoridades sejam escolhidos, o que pode levar a desafios na busca de uma linguagem comum e na evitação de fragmentações regulatórias.

Alguns Estados-Membros, como Espanha e Itália, já estão implementando seus próprios códigos nacionais, que precisarão ser monitorados e atualizados para refletir futuras alterações no Ato.

Desafios e Oportunidades

Embora o Ato de IA represente um marco regulatório importante, sua natureza prescritiva pode limitar sua capacidade de se adaptar às rápidas mudanças tecnológicas. Em negociações, o sistema de classificação de risco subjacente teve que ser alterado para acomodar a emergência da IA de propósito geral.

A Code of Practice (Código de Práticas) da UE para IA de Propósito Geral complementa o Ato, oferecendo diretrizes detalhadas para garantir que as empresas mantenham padrões éticos, mesmo para sistemas que não são considerados de alto risco. Se bem-sucedido, o Código pode receber um status legal para que os provedores possam auto-certificar a conformidade.

Conclusão

À medida que as jurisdições individualizadas como o Reino Unido e a UE buscam equilibrar a competitividade, os normatizadores internacionais continuam focando nos riscos associados à IA. A crescente dependência de capital privado para impulsionar o crescimento na área de IA é um sinal de que as regulamentações podem ser simplificadas, mas as empresas ainda precisam garantir que seus frameworks de risco e controle levem em conta o uso de IA.

As empresas que operam na UE devem começar a navegar pelo Ato de IA como uma base, enquanto as empresas do Reino Unido enfrentam o desafio de gerenciar essa tecnologia em rápida evolução sem um conjunto prescritivo de diretrizes. A experiência em integrar novas tecnologias nas operações pode ser um diferencial crucial nesse ambiente em mudança.

More Insights

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...