Construindo uma IA Responsável: O Impacto da Nova Legislação da UE

Construir Uma Vez, Cumprir Duas: A Próxima Fase da Lei de IA da UE Está Chegando

A União Europeia iniciou uma nova era de regulamentação de IA com a Lei de Inteligência Artificial (“a Lei”), que entrou em vigor em 1º de agosto de 2024. Este marco estabelece o primeiro quadro legal abrangente para a inteligência artificial no mundo, reformulando a forma como a IA é desenvolvida, implementada e governada, não apenas na Europa, mas globalmente.

As primeiras obrigações substanciais da Lei começaram a ser aplicadas no início de 2025, e o próximo marco crítico, que impõe obrigações abrangentes para modelos de Inteligência Artificial de Uso Geral (GPAI) e novas estruturas de governança, entra em vigor em 2 de agosto de 2025. Para desenvolvedores, provedores e implementadores de IA, especialmente aqueles que operam além-fronteiras, este marco representa uma mudança fundamental de preparação para implementação.

Implementação Faseada

Para facilitar a transição para este novo regime regulatório, a Lei de IA da UE está sendo implementada em fases. Cada etapa introduz novas obrigações, dando às organizações tempo para adaptar suas operações e infraestrutura técnica.

  • 2 de fevereiro de 2025: Este foi o primeiro grande prazo de conformidade. As proibições da Lei sobre certas práticas de IA consideradas de alto risco ou inaceitáveis tornaram-se aplicáveis. Isso inclui a proibição de técnicas de IA manipulativas, sistemas exploratórios direcionados a grupos vulneráveis e vigilância biométrica em tempo real em espaços públicos.
  • 2 de agosto de 2025: A próxima onda de obrigações entra em vigor, focando na governança e em modelos de GPAI. Esta fase ativa o Escritório Europeu de IA e o Conselho Europeu de Inteligência Artificial (“EAIB”), que supervisionarão a aplicação e a coordenação entre os Estados membros.
  • 2 de agosto de 2026: O quadro mais amplo entrará em plena vigor, incluindo obrigações para a maioria dos sistemas de IA de alto risco.
  • 2 de agosto de 2027: Este será o prazo final de conformidade, quando as obrigações do Artigo 6(1) para sistemas de alto risco serão totalmente aplicáveis.

O Que É a Lei de IA da UE?

A Lei de IA da UE (Regulamento (UE) 2024/1689) estabelece um quadro legal abrangente para regular a inteligência artificial, introduzindo uma abordagem baseada em risco para regulamentação de IA. A Lei classifica os sistemas de IA segundo os riscos associados:

  • Risco Inaceitável: Práticas de IA que representam uma ameaça clara à segurança, à vida ou aos direitos são proibidas. Isso inclui sistemas que manipulam comportamentos ou exploram vulnerabilidades de grupos específicos.
  • Alto Risco: Sistemas de IA que envolvem funções críticas, como identificação biométrica à distância, segurança de infraestrutura e processos democráticos.
  • Risco Limitado: Chatbots de IA geralmente se enquadram nesta categoria e devem atender a certas obrigações de transparência.
  • Risco Mínimo ou Nenhum: A maioria dos sistemas de IA atualmente utilizados na UE se enquadra nesta categoria e não estão sujeitos a obrigações legais adicionais.

Modelos e Sistemas de IA de Uso Geral

A Lei distingue entre modelos de GPAI e sistemas de GPAI. Um modelo de GPAI é a base que pode ser integrada em um sistema de IA. Os provedores de modelos de GPAI estão sujeitos a obrigações de transparência, incluindo a necessidade de preparar e atualizar a documentação técnica do modelo.

Os modelos de GPAI que são considerados de risco sistêmico enfrentam requisitos adicionais, como mitigação de riscos e relatórios de incidentes.

Códigos de Prática

O Artigo 56 da Lei delineia os Códigos de Prática, que devem entrar em vigor em 2 de agosto de 2025. Este conjunto de diretrizes visa assegurar a conformidade com a Lei entre a implementação das obrigações dos provedores de modelos de GPAI e a adoção de normas técnicas harmonizadas.

Alcance Extraterritorial

Um dos recursos definidores da Lei de IA da UE é seu alcance extraterritorial. A Lei se aplica não apenas a entidades estabelecidas na União Europeia, mas também a organizações não pertencentes à UE cujos sistemas de IA são utilizados dentro da UE.

Considerações Estratégicas

A conformidade com as obrigações da Lei é crucial, pois a falha pode resultar em multas administrativas de até €35 milhões ou 7% da receita global anual, o que for maior. Para desenvolvedores de IA dos EUA, considerar o alinhamento com os requisitos da Lei da UE pode oferecer uma vantagem competitiva à medida que os regimes regulatórios convergem globalmente.

As obrigações de transparência, documentação e direitos autorais da Lei destacam considerações complexas de propriedade intelectual, incluindo questões sobre a propriedade e licenciamento dos dados de treinamento.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...