Ireland Publishes Blueprint for National AI Enforcement: What the Regulation of Artificial Intelligence Bill 2026 Means for Your Business
O governo irlandês publicou o Esquema Geral do Projeto de Lei de Regulamentação da Inteligência Artificial de 2026, marcando o desenvolvimento mais significativo na regulamentação de IA na Irlanda até o momento.
Este modelo legislativo transforma o Ato de Inteligência Artificial da UE em um sistema operacional de fiscalização irlandês capaz de impor penalidades que podem chegar a 7% do faturamento mundial para as violações mais graves. Para as empresas que operam na Irlanda como fornecedoras, implantadoras, distribuidoras ou importadoras de sistemas de IA, a publicação oferece a primeira visão detalhada da arquitetura legislativa e regulatória que governará a conformidade com a IA.
Modelo de Fiscalização Distribuída com Coordenação Central
A Irlanda optou por um modelo regulatório distinto que difere das abordagens centralizadas adotadas por alguns outros Estados Membros. Em vez de criar um único regulador de IA, o governo capacitará treze autoridades setoriais existentes para supervisionar sistemas de IA dentro de seus domínios, enquanto estabelece um novo órgão central para coordenar a abordagem nacional. Este modelo distribuído reflete como a IA toca praticamente todos os setores regulamentados. Os reguladores setoriais que já supervisionam essas indústrias possuem a experiência necessária para entender como os sistemas de IA funcionam dentro de seus contextos específicos.
As autoridades relevantes de fiscalização de mercado para diferentes setores incluem:
- O Banco Central da Irlanda supervisionará a IA em serviços financeiros regulamentados.
- A Comissão de Mídia supervisionará a IA em serviços de mídia audiovisual.
- A Comissão de Regulação de Utilidades lidará com aplicações no setor de energia.
- A Comissão de Relações de Trabalho supervisionará sistemas de IA usados em contextos de emprego.
- A Comissão de Proteção de Dados continuará seu papel na proteção dos direitos fundamentais relacionados a dados pessoais.
- O HSE terá responsabilidade de fiscalização de mercado para certos usos de IA de alto risco em serviços públicos essenciais e triagem de emergência.
O Escritório de Inteligência Artificial da Irlanda
Para evitar fragmentação e garantir consistência nesse cenário distribuído, o Esquema propõe a criação de um novo órgão estatutário chamado Oifig Intleachta Shaorga na hÉireann, ou Escritório de Inteligência Artificial da Irlanda. Este órgão terá poderes estatutários independentes, governado por um CEO e um conselho de sete membros nomeados pelo Ministro de Empreendedorismo, Turismo e Emprego. O Escritório servirá como o Ponto Único de Contato da Irlanda sob o Artigo 70(2) do Ato de IA da UE, tornando-se a principal interface entre as empresas baseadas na Irlanda e a Comissão Europeia em questões regulatórias de IA.
As funções estatutárias do Escritório incluem:
- Facilitar a aplicação consistente entre as treze autoridades setoriais;
- Manter um pool centralizado de especialistas técnicos para avaliar sistemas de IA complexos;
- Compilar e compartilhar dados sobre incidentes de IA e questões de conformidade;
- Representar a Irlanda em reuniões do Conselho de IA da UE.
O Escritório também estabelecerá e operará um Sandbox Regulatório Nacional de IA, proporcionando às empresas, particularmente PMEs e startups, um ambiente controlado para testar sistemas de IA inovadores sob supervisão regulatória antes da implantação total no mercado.
Poderes de Fiscalização e Desafios de Classificação
O conjunto de ferramentas de fiscalização fornecido às autoridades de fiscalização de mercado é extenso, espelhando aqueles contidos na Regulamentação de Fiscalização de Mercado da UE.
As autoridades podem:
- Exigir documentação relevante para demonstrar conformidade com o Ato de IA;
- Realizar inspeções anunciadas e não anunciadas;
- Obter amostras de produtos através de operações com “identidade encoberta”;
- Testar sistemas de IA e exigir acesso ao software embutido.
Para distribuição online, as autoridades podem exigir a remoção de conteúdo ou restrição de acesso onde os sistemas de IA apresentem riscos ou violem requisitos regulatórios.
Um aspecto preocupante para os fornecedores de tecnologia é o poder das autoridades de fiscalização de mercado de exigir acesso ao código-fonte, embora não esteja claro se isso inclui parâmetros de modelo, pesos e prompts do sistema, que são criticamente importantes. O Esquema enquadra isso como um último recurso, disponível apenas para sistemas de IA de alto risco onde necessário para avaliar a conformidade e onde outros métodos de avaliação foram esgotados.
As autoridades de fiscalização têm a capacidade de contestar classificações de risco. Quando uma autoridade suspeitar da autoavaliação incorreta de um sistema como não pertencente à categoria de alto risco, poderá exigir uma avaliação formal, o que pode resultar na aplicação total das obrigações de alto risco após a reclassificação. As empresas precisam manter arquivos de classificação defensáveis com documentação alinhada às orientações emergentes da Comissão Europeia.
O Regime de Sanções
O regime de sanções administrativas proposto cria uma exposição financeira que coloca a conformidade com a IA no mesmo nível de risco que a aplicação do GDPR. Para práticas de IA proibidas sob o Artigo 5 do Ato de IA da UE, a multa administrativa máxima chega a 35 milhões de euros ou 7% do faturamento anual total, o que for maior. Para não conformidade com obrigações aplicáveis a sistemas de IA de alto risco, o máximo chega a 15 milhões de euros ou 3% do faturamento mundial. Para o fornecimento de informações incorretas, incompletas ou enganosas às autoridades, o teto é de 7,5 milhões de euros ou 1% do faturamento.
O processo de sanções proporciona salvaguardas processuais substanciais. Os procedimentos de execução começam com um aviso de suspeita de não conformidade, seguido por um período de notificação para representações escritas. Onde os assuntos avancem para adjudicação formal, serão ouvidos por adjudicadores independentes nomeados pelo Escritório de IA e indicados pelo Ministro. As sanções administrativas não entram em vigor até serem confirmadas pelo Tribunal Superior, proporcionando supervisão judicial enquanto mantém a eficiência administrativa.
Implicações Práticas para os Negócios
O modelo regulatório distribuído significa que a primeira questão de conformidade é jurisdicional, exigindo que as empresas compreendam qual autoridade setorial (ou autoridades) supervisionará seu caso de uso de IA.
O poder das autoridades de contestar classificações de risco torna a documentação defensável essencial. As empresas devem manter registros claros demonstrando por que seus sistemas de IA se enquadram ou não nas categorias de alto risco sob o Anexo III do Ato de IA da UE.
Os requisitos de monitoramento pós-mercado e as obrigações de relato de incidentes graves criam responsabilidades de conformidade contínuas que se estendem muito além da implantação inicial do sistema.
O investimento antecipado na construção de capacidades de conformidade antes que as ações de fiscalização comecem é consideravelmente mais econômico do que respostas reativas após a intervenção regulatória.