O Ato de IA da UE: Desafios e Oportunidades na Implementação

O Ato de IA da UE: O Que Está (Não) Indo Conforme o Planejado

O Ato de IA da UE está prestes a se tornar a primeira grande regulamentação do mundo focada inteiramente na inteligência artificial. Seu objetivo é garantir que os sistemas de IA utilizados na Europa sejam seguros, justos e respeitem os direitos das pessoas. No entanto, à medida que as regras começam a tomar forma, muitas empresas—especialmente startups e pequenas empresas—perguntam-se: qual é o status atual e o que precisamos fazer para nos preparar?

Cronograma de Implementação

O Ato de IA entrou oficialmente em vigor em 1 de agosto de 2024, mas será implementado em fases. A partir de 2 de fevereiro de 2025, as primeiras disposições, como as proibições de determinadas práticas inaceitáveis de IA e a obrigação de promover a alfabetização em IA, entrarão em vigor. Em seguida, o quadro de governança e as regras para modelos de IA de uso geral começarão a valer em 2 de agosto de 2025. A maior parte da lei, incluindo os principais requisitos para sistemas de IA de alto risco, se aplicará a partir de 2 de agosto de 2026. Para sistemas de IA de alto risco integrados a produtos regulados, como dispositivos médicos ou carros, o prazo é estendido até 2 de agosto de 2027.

Relatório sobre a Implementação do Ato de IA

Um novo relatório apresenta uma visão interna de como o Ato de IA está sendo implementado, com foco em uma de suas partes mais importantes (e complicadas): normas técnicas. As conclusões são resultado de entrevistas qualitativas aprofundadas com 23 empresas de IA líderes na Europa.

O Ato de IA estabelece regras rigorosas para sistemas de IA de “alto risco”—como aqueles usados em saúde, contratação, finanças ou infraestrutura crítica. No entanto, em vez de fornecer instruções passo a passo, a lei mantém-se bastante geral. É aí que entram as normas técnicas.

Essas normas funcionam como manuais de instrução que explicam como as empresas podem atender aos requisitos da lei. Se uma empresa as seguir, presume-se que está em conformidade. Isso as torna essenciais para o desenvolvimento de produtos, segurança jurídica e acesso ao mercado na UE.

Onde Estamos Agora?

A UE pediu a um grupo de especialistas para redigir cerca de 35 normas técnicas que apoiarão o Ato de IA. Essas normas cobrem áreas como gestão de riscos, qualidade de dados e viés, transparência para usuários, supervisão humana, cibersegurança e precisão.

No entanto, a maioria dessas normas ainda está sendo escrita. Originalmente, deveriam estar prontas até abril de 2025, mas atrasos empurraram esse prazo para agosto de 2025—e mesmo esse prazo parece otimista.

Uma vez finalizadas, as normas precisarão ser revisadas e publicadas oficialmente, provavelmente no início de 2026. Isso dá às empresas apenas alguns meses para implementá-las antes que o Ato de IA comece a se aplicar a sistemas de alto risco em agosto de 2026.

Desafios pela Frente

O relatório identifica vários desafios principais para as empresas que se preparam para a conformidade. Primeiro, o cronograma é apertado. Ter apenas seis a oito meses para digerir, implementar e validar dezenas de novas normas técnicas é uma grande preocupação, especialmente para equipes menores que não possuem departamentos legais ou de conformidade.

Em segundo lugar, há a questão do custo. Adquirir acesso a todas as normas relevantes pode facilmente custar milhares de euros, o que pode ser um fardo sério para startups e PMEs. Mesmo saber quais normas se aplicam ao seu sistema de IA pode ser um desafio por si só.

Outra grande preocupação é o acesso às normas. Até recentemente, muitas normas harmonizadas não estavam disponíveis publicamente, mesmo que as empresas fossem esperadas a cumpri-las. Uma decisão recente do Tribunal de Justiça da UE abordou isso ao confirmar que tais normas devem ser liberadas gratuitamente. Embora isso seja um desenvolvimento positivo, gerou resistência de órgãos de normalização internacionais que dependem da venda de acesso a esses documentos.

Por fim, há a questão de quem tem assento à mesa. O processo de normalização tem sido dominado por grandes empresas de tecnologia e consultoria—muitas delas baseadas fora da UE. Enquanto isso, pequenos players europeus, instituições acadêmicas e grupos da sociedade civil têm lutado para participar devido a tempo, financiamento ou expertise limitados. Esse desequilíbrio pode resultar em normas que refletem as prioridades de grandes players da indústria em vez do ecossistema de IA mais amplo.

O Que Pode Ser Feito?

Os autores do relatório sugerem várias maneiras de melhorar o processo:

  • Dar mais tempo às empresas para se adequarem.
  • Tornar as normas disponíveis gratuitamente e mais fáceis de entender.
  • Fornecer ajuda financeira e técnica, especialmente para startups e PMEs.
  • Garantir que uma gama mais ampla de vozes seja incluída na redação das normas.
  • Desenvolver ferramentas digitais (como “normas inteligentes”) para ajudar a automatizar a conformidade.

Se você está construindo ou implementando sistemas de IA na UE, vale a pena revisar se seus casos de uso se enquadram na categoria de alto risco delineada no Ato de IA. Acompanhar o processo de normalização em evolução também é importante, pois esses documentos formarão a espinha dorsal da conformidade futura.

Por último, é um bom momento para começar a pensar sobre seus processos internos: quão transparentes são seus modelos? Que tipo de governança de dados você tem em vigor? Seus sistemas são testados para viés, precisão e cibersegurança?

More Insights

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...