Quais são os objetivos fundamentais do AI Act da UE?
O AI Act Europeu visa estabelecer regras legais harmonizadas para o desenvolvimento e implementação seguros de IA dentro da UE. A padronização técnica desempenha uma função vital, traduzindo requisitos legais abstratos em diretrizes concretas e acionáveis. Supostamente, isso reduzirá as incertezas legais e fortalecerá a competitividade no mercado interno.
Notavelmente, os padrões visam:
- Estabelecer condições competitivas consistentes.
- Otimizar processos para reduzir os custos de implementação regulatória.
- Facilitar um desenvolvimento e operações de produtos mais eficientes.
Principais Preocupações Regulatórias
O AI Act da UE busca operacionalizar requisitos legais de alto risco, tornando-os mais prescritivos por meio de padrões técnicos. O alinhamento com esses padrões fornece uma ‘presunção de conformidade’, simplificando a conformidade e reduzindo a necessidade de soluções personalizadas e intensivas em recursos. No entanto, exige adesão rigorosa aos requisitos que abrangem áreas como gerenciamento de riscos, governança de dados, transparência e segurança cibernética.
Implicações Práticas
Para concretizar os objetivos do AI Act, é preciso considerar o impacto em vários setores e participantes do mercado. O AI Act pode se tornar um instrumento crucial para implementar padrões técnicos como barreiras de entrada no mercado, impactando particularmente startups e PMEs que carecem de recursos para participar de processos de padronização. Isso poderia remodelar a concorrência de IA e exigir ajustes nas políticas para garantir acesso justo e evitar ônus indevido para os players menores.
Quais são os principais interessados envolvidos no processo de padronização da IA?
O processo global de padronização da IA envolve vários interessados importantes. Estes podem ser classificados principalmente como organismos de padronização, atores da indústria, grupos da sociedade civil e organizações científicas.
Organismos de Padronização
Existem três comitês notáveis focados na padronização da IA:
- ISO/IEC JTC 1/SC 42 (IA) – Organizado pela Organização Internacional de Normalização (ISO) em colaboração com a Comissão Eletrotécnica Internacional (IEC). Publicou 34 normas, com 40 ainda em desenvolvimento.
- IEEE AI Standards Committee – Organizado dentro do Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE). Produziu 12 normas e está trabalhando em 59 normas adicionais.
- CEN-CENELEC JTC 21 (IA) – Um comitê conjunto do Comitê Europeu de Normalização (CEN) e do Comitê Europeu de Normalização Eletrotécnica (CENELEC). Publicou 10 normas, com 33 ainda em desenvolvimento.
Ao nível dos Estados-Membros da UE, os organismos nacionais de normalização instalaram comitês de trabalho espelhando principalmente o trabalho da ISO/IEC JTC 1/SC 42 (IA) e da CEN-CENELEC JTC 21 (IA). Isso ajuda a equilibrar os esforços nacionais com os internacionais abrangentes (por exemplo, europeus) e garante a implementação coordenada das normas europeias em todos os Estados-Membros da UE.
Atores da Indústria e Organizações Científicas
Atores da indústria e organizações científicas contribuem para a padronização da IA, particularmente através de normas da indústria, catálogos de auditoria de IA e estruturas de teste. Exemplos notáveis incluem:
- AI HLEG ALTAI – A Lista de Avaliação do Grupo de Peritos de Alto Nível sobre IA para IA Confiável, operacionalizando as Diretrizes Éticas do AI HLEG.
- NIST AI RMF – A estrutura do Instituto Nacional de Padrões e Tecnologia dos EUA para gerenciar riscos de IA.
- Mission KI Standard – Uma iniciativa alemã desenvolvendo um padrão de qualidade voluntário para aplicações de IA.
- Fraunhofer IAIS catalog – O Catálogo de Avaliação de IA do Instituto Fraunhofer para Análise Inteligente e Sistemas de Informação (IAIS). Oferece uma diretriz estruturada que pode ser usada para definir normas abstratas de qualidade de IA em critérios de avaliação específicos da aplicação, abrangendo seis dimensões de confiabilidade.
- BSI AIC4 – O Catálogo de Conformidade de Serviço de Nuvem de IA do Gabinete Federal Alemão para Segurança da Informação, especificando os requisitos mínimos para aprendizado de máquina seguro em serviços de nuvem.
Quais são as funções principais das normas harmonizadas sob a Lei de IA?
As normas harmonizadas são cruciais para a conformidade eficaz com a Lei de IA da UE. Elas oferecem uma rota acessível para atender aos requisitos regulamentares e reduzir as incertezas legais, impulsionando, em última análise, a concorrência e o crescimento no mercado da UE. Elas visam criar condições equitativas para o design e desenvolvimento de sistemas de IA.
Aqui está uma análise das funções principais:
- Operacionalização de requisitos legais: Os requisitos de alto risco da Lei de IA são deliberadamente abstratos. As normas harmonizadas fornecem as especificações técnicas necessárias para torná-los prescritivos e acionáveis.
- Presunção de conformidade: Atender a essas normas harmonizadas confere aos sistemas de IA uma presunção de conformidade com os requisitos relevantes da Lei de IA.
- Marcação CE e acesso ao mercado: Essas normas preparam o caminho para a marcação CE (conformité européenne), simplificando o acesso ao mercado da UE.
- Redução de custos regulatórios: Normas bem projetadas agilizam os processos, potencialmente evitando a necessidade de P&D personalizado, tornando assim o desenvolvimento de produtos mais eficiente.
O Artigo 40(1) da Lei de IA estabelece as bases para as normas harmonizadas e a presunção de conformidade. Essas normas se aplicam a sistemas de IA de alto risco, conforme definidos no Artigo 6 e nos Anexos I e III da Lei.
A Comissão Europeia encarregou o CEN e o CENELEC de desenvolver estas normas (Artigo 40(2) da Lei de IA). Estas normas servirão como base para a presunção de conformidade, simplificando a conformidade, fornecendo segurança jurídica e, idealmente, reduzindo o fardo administrativo para os fornecedores de IA.
É importante notar que, embora as normas internacionais sejam consideradas, a Lei de IA frequentemente exige novas normas europeias para abordar a proteção dos direitos fundamentais e os impactos sociais, garantindo o alinhamento com os valores da UE.
Como os padrões verticais de IA influenciam a implementação do AI Act?
Embora o AI Act seja projetado para ser uma regulamentação horizontal e independente do setor, a Comissão Europeia considerou especificações verticais específicas para determinados setores. Aqui está o ponto crucial de como esses padrões verticais impactam o lançamento do AI Act:
O alinhamento do setor é fundamental: O envolvimento de stakeholders de setores com requisitos técnicos existentes – como máquinas, dispositivos médicos, aviação, automotivo e financeiro – é fundamental para o desenvolvimento bem-sucedido de padrões harmonizados sob o AI Act. Essa abordagem colaborativa garante que as novas regulamentações sejam bem informadas e praticamente implementáveis.
Atos Delegados Incorporarão os Requisitos do AI Act: O artigo 102 e seguintes do AI Act determina que seus requisitos de IA de alto risco sejam integrados às regulamentações existentes de acesso ao mercado para setores como automotivo, aviação e ferroviário. Como isso será feito? Por meio de atos delegados que alavancarão especificações técnicas. Espere que os órgãos de padronização sejam encarregados de adicionar estipulações do AI Act aos padrões específicos do setor existentes relacionados à homologação.
Padrões Específicos do Setor Estão Surgindo: Embora a maioria dos setores atualmente careça de padrões específicos de IA, alguns estão inovando. Os exemplos incluem BS 30440:2023 do British Standards Institute (BSI) para IA em assistência médica e ISO/PAS 8800 para sistemas de IA de segurança crítica em veículos rodoviários. Este último pode ser fundamental na incorporação dos requisitos do AI Act por meio da Lei de Aprovação de Tipo (Regulamento (UE) nº 168/2013), conforme o Artigo 104 do AI Act. Da mesma forma, a Society of Automotive Engineers (SAE) está desenvolvendo SAE ARP6983 para produtos de segurança aeronáutica orientados por IA.
Considerações do Setor de Defesa: Embora amplamente excluído do escopo direto do AI Act (Art. 2(3) AI Act), o setor de defesa reconhece a necessidade de padrões de IA específicos do setor e está trabalhando ativamente para alcançá-los.
Conformidade Voluntária: Setores não diretamente abrangidos pelos padrões do AI Act ou padrões de IA específicos do setor estão mostrando interesse. Alguns pretendem cumprir voluntariamente os padrões correspondentes, antecipando que seus clientes possam se tornar sujeitos aos requisitos de IA de alto risco do AI Act no futuro.
Efeitos Indiretos
Tanto os setores de mobilidade/automotivo quanto os de defesa, embora parcialmente fora do escopo direto do AI Act (conforme definido pelo Art. 103 e seguintes do AI Act), antecipam grandes implicações do AI Act. Os provedores de IA em mobilidade veem os padrões como uma faca de dois gumes, oferecendo ganhos de transparência e segurança, mas impondo encargos operacionais significativos, especialmente para sistemas complexos que exigem explicabilidade avançada e recursos de segurança cibernética.
As empresas de defesa, embora explicitamente excluídas por razões de segurança nacional, enfrentam pressão indireta por meio de impactos no ecossistema e considerações de uso duplo. Essas empresas monitoram de perto o impacto do AI Act na disponibilidade de modelos de IA de código aberto e padrões gerais de IA, muitas vezes aderindo a padrões de segurança estritos comparáveis a aplicações civis.
Algumas empresas de mobilidade estão considerando mercados com menores encargos regulatórios devido a desafios financeiros e operacionais. As empresas de defesa, ao contrário, veem potenciais vantagens competitivas na adoção de padrões de alto risco, promovendo a colaboração civil-militar e a confiança em sistemas de colaboração IA-humano.
Quais são os principais desafios no cronograma para a padronização do AI Act?
As normas técnicas são cruciais para a conformidade com o AI Act, mas o processo de padronização enfrenta pressões críticas de cronograma, dinâmicas complexas de stakeholders e preocupações com o custo e a operacionalização.
Compressão Crítica do Cronograma
O prazo inicial para o desenvolvimento de normas era abril de 2025, mas é provável que seja estendido para agosto de 2025. Mesmo com esta extensão, o cronograma permanece apertado, potencialmente deixando apenas 6-8 meses para que as empresas cumpram após a publicação das normas no Jornal Oficial da União Europeia, prevista para o início de 2026. Isto é significativamente menos do que os 12 meses mínimos que a maioria das empresas, especialmente startups e PMEs, dizem necessitar para uma implementação eficaz.
Desequilíbrio na Representação dos Stakeholders
A composição dos comités de normalização, como o CEN-CENELEC JTC 21, é fortemente enviesada para as grandes empresas, com as principais empresas de tecnologia e consultoria dos EUA a deterem frequentemente uma presença maioritária. Isto cria um desequilíbrio, limitando a participação e a influência das PMEs, startups, organizações da sociedade civil e academia. Esta disparidade pode levar a normas que não abordam adequadamente as necessidades e preocupações dos participantes menores do mercado, criando potencialmente barreiras desproporcionais à entrada.
Preocupações com Custos
As empresas também enfrentam desafios relacionados com o custo de compreensão e implementação das normas técnicas aplicáveis. O caso “Malamud” do Tribunal de Justiça Europeu destacou se as normas harmonizadas devem ser livremente acessíveis, levantando questões sobre direitos de autor e monetização. Dependendo de futuros casos judiciais, a normalização europeia poderá perder contribuições críticas de organismos de normalização internacionais. Se as empresas não puderem pagar a compra das normas técnicas relevantes, correm o risco de uma “presunção negativa de conformidade”, o que significa que os seus esforços alternativos de conformidade poderão ser vistos com viés pelas autoridades de supervisão. A não conformidade pode resultar em multas pesadas (até 35 milhões de euros), acesso restrito ao mercado e danos à reputação.
Obstáculos à Operacionalização
Um desafio significativo é a necessidade de uma maior operacionalização das normas técnicas. Atualmente, estas normas estão principalmente disponíveis como PDFs, exigindo interpretação e aplicação manual. Abordando isto, os organismos de normalização alemães, como o DIN e o DKE, estão a trabalhar no sentido de “Normas SMART” legíveis por máquina, interpretáveis por máquina, executáveis por máquina e controláveis por máquina. O sucesso deste objetivo poderá determinar a possibilidade de redução de custos associada à aplicação das normas.
Como a dinâmica das partes interessadas afeta o processo de padronização do AI Act?
Os esforços de padronização para o AI Act envolvem mais de 1.000 especialistas em comitês espelho nacionais, revelando um desafio estrutural na representação das partes interessadas. Predominantemente, grandes empresas, incluindo as principais empresas de tecnologia e consultoria dos EUA, dominam esses comitês. Isso cria uma disparidade, impactando PMEs, startups, sociedade civil, instituições independentes e academia.
A participação na definição de padrões oferece às empresas vantagens estratégicas por meio da transferência de conhecimento e da construção de relacionamentos. No entanto, a sub-representação de partes interessadas menores decorre dos recursos necessários para a participação no comitê. Associações industriais surgiram como intermediárias, agregando e representando os interesses dessas partes interessadas dentro dos órgãos de padronização.
Esse desequilíbrio estrutural gera vantagens competitivas para as empresas maiores no mercado da UE, permitindo que influenciem o desenvolvimento de padrões técnicos. A influência substancial das empresas dos EUA também levanta preocupações sobre a representação dos valores e perspectivas da UE. A participação limitada de entidades menores exclui potencialmente conhecimentos cruciais, comprometendo o desenvolvimento abrangente da segurança.
Desafios na Dinâmica das Partes Interessadas:
- Participação Assimétrica: Os players menores são frequentemente ofuscados por grandes corporações.
- Restrições de Recursos: PMEs e startups lutam para alocar os recursos necessários para a participação.
- Representação de Valores: Existem preocupações sobre a representação adequada dos valores da UE, dada a influência das empresas dos EUA.
A falta de inclusão ressalta a necessidade de processos de padronização mais equilibrados que incorporem efetivamente diversas perspectivas e conhecimentos para evitar padrões que afetem desproporcionalmente os participantes menores do mercado.
Quais são as potenciais implicações financeiras relacionadas ao acesso aos padrões de IA?
O cenário dos padrões de IA não se resume apenas a especificações técnicas; ele está profundamente entrelaçado com considerações financeiras que podem impactar significativamente os fornecedores de IA, particularmente startups e PME. Aqui está uma análise das principais implicações financeiras:
Custos Diretos de Conformidade
Embora os próprios documentos de padrões devam ser gratuitos, graças a uma decisão do mais alto tribunal da Europa, o custo para implementar esses padrões está longe de ser insignificante. As empresas preveem encargos financeiros significativos:
- Pessoal Dedicado: As empresas podem precisar alocar cerca de € 100.000 anualmente para pessoal dedicado à conformidade.
- Tempo de Gerenciamento: Fundadores e gerentes podem gastar 10-20% de seu tempo em assuntos relacionados a padrões.
- Custos de Certificação: Algumas estimativas colocam as despesas de certificação do sistema de IA acima de € 200.000.
Custos Indiretos e Acesso ao Mercado
As ramificações financeiras vão além do óbvio:
- Potencial impacto no tempo de lançamento no mercado e na participação competitiva no mercado
Empresas que não cumprirem os prazos de conformidade correm o risco de multas de até 7% do faturamento global ou € 35 milhões, o que pode ser paralisante, especialmente para empresas menores. A não conformidade também pode restringir o acesso ao mercado da UE, colocando as empresas em conformidade em uma posição mais forte.
Risco Reputacional
Além das penalidades financeiras diretas, existe o risco de danos à reputação. A cobertura negativa da mídia e a perda da confiança do cliente podem colocar em risco os relacionamentos comerciais de longo prazo, especialmente em setores avessos ao risco.
Participação Assimétrica na Padronização
As empresas menores geralmente não têm os recursos para participar efetivamente dos comitês de padronização. As empresas maiores podem influenciar o desenvolvimento de padrões para sua vantagem, potencialmente levando a custos de conformidade mais altos para as PME:
- Influência: Jogadores maiores podem “incorporar” padrões técnicos que favorecem seus objetivos de negócios.
- Conhecimento: A influência assimétrica pode significar que perspectivas cruciais são deixadas de fora dos padrões que definem o mercado.
O Caso Malamud e a Acessibilidade aos Padrões
O caso “Malamud” exige que os padrões harmonizados sejam livremente acessíveis. No entanto, a ISO e a IEC estão contestando isso no tribunal, levantando preocupações sobre a potencial monetização dos padrões técnicos. Isso levantou grandes preocupações sobre a sustentabilidade financeira das Organizações Europeias de Normas que dependem da receita das vendas das normas para apoiar suas operações.
Qual é a importância da operacionalização de normas técnicas no contexto da Lei de IA?
A Lei de IA da UE, enquanto o primeiro conjunto abrangente de regras que regem o desenvolvimento e a implantação de IA, depende da normalização técnica como uma ferramenta fundamental de implementação. Os requisitos de IA de alto risco na Lei de IA são deliberadamente abstratos, tornando difícil para as organizações implementá-los diretamente. As normas técnicas são vitais para operacionalizar esses requisitos legais, transformando-os em diretrizes mais prescritivas e acionáveis.
Normas Harmonizadas e Presunção de Conformidade
As normas harmonizadas, desenvolvidas por organizações europeias de normalização como CEN, CENELEC e ETSI com base em pedidos da Comissão Europeia, representam um quadro crítico para a conformidade com a Lei de IA. Essas normas, após publicação no Jornal Oficial da União Europeia (JOUE), fornecem uma “presunção de conformidade” para sistemas de IA de alto risco que as cumprem. Isso simplifica a conformidade, oferece segurança jurídica e, idealmente, reduz o fardo administrativo sobre os fornecedores de IA.
Impacto no Acesso ao Mercado e na Concorrência
Normas técnicas devidamente concebidas e implementadas podem ajudar a:
- Estabelecer um campo de atuação equitativo para o design e desenvolvimento de sistemas de IA.
- Reduzir os custos de implementação regulatória.
- Simplificar processos e potencialmente eliminar a necessidade de soluções personalizadas de P&D.
- Tornar o desenvolvimento de produtos e as operações mais eficientes.
No entanto, a ascensão das normas de IA também remodela a concorrência global de IA e pode aumentar as barreiras de entrada no mercado, particularmente para startups e pequenas e médias empresas (PMEs).
Desafios e Preocupações
Embora as normas técnicas sejam projetadas para facilitar a conformidade com a Lei de IA, vários desafios precisam ser abordados:
- Pressão de Tempo: O cronograma atual para o desenvolvimento e implementação de normas pode ser muito ambicioso, deixando aos fornecedores tempo insuficiente para se ajustarem.
- Representação das Partes Interessadas: Grandes empresas, incluindo empresas de tecnologia e consultoria dos EUA, muitas vezes dominam os comitês de normalização, resultando em sub-representação de PMEs, startups e sociedade civil.
- Acessibilidade e Custo: O custo de identificar as normas técnicas aplicáveis e acessá-las pode colocar as empresas menores em desvantagem. Um caso pendente no Tribunal de Justiça Europeu pode mudar se as normas harmonizadas devem ser livremente acessíveis.
- Operacionalização: As normas técnicas precisam ser mais operacionalizadas para simplificar a conformidade e garantir que as organizações possam aplicar eficientemente as normas aos seus casos de uso específicos.
Qual é o status atual do processo de padronização da Lei de IA?
O pedido de padronização da Comissão Europeia para a Lei de IA delineou dez entregas essenciais abordando os principais requisitos regulamentares. Essas entregas são a base para o trabalho de padronização no CEN-CENELEC JTC 21, com a maioria dos itens de trabalho em andamento focados no cumprimento deste mandato. Sempre que possível, os itens de trabalho são baseados ou co-desenvolvidos com as normas ISO/IEC (aproximadamente 2/3 dos itens de trabalho).
Áreas-Chave de Padronização
O trabalho de padronização se baseia em cerca de 35 normas, com a maioria abordando as entregas individuais do pedido de padronização. Outras entregas, como a Estrutura de Confiabilidade da Inteligência Artificial e as normas de apoio sobre terminologia, abordam múltiplas entregas de SR. Essas normas formarão uma estrutura integrada através de várias inter-relações, como integração hierárquica ou dependências operacionais.
Aqui está uma discriminação do status do trabalho de padronização em rascunho como estava no final de 2024:
- Gestão de Risco: ISO/IEC 23894 já publicada, mas uma norma europeia de Gestão de Risco de IA “caseira” está em desenvolvimento (WI: JT021024), com uma data de votação prevista para 30 de setembro de 2026. Esta norma europeia abordará as deficiências da outra, especialmente no que diz respeito à conformidade com a Lei de IA.
- Governança e Qualidade de Conjuntos de Dados: Seis itens de trabalho estão em andamento, incluindo tanto as normas ISO/IEC quanto as normas europeias. As normas ainda em fase de redação/aprovação se concentrarão em medidas quantificáveis de qualidade de dados e propriedades estatísticas ao longo do ciclo de vida do sistema de IA.
- Manutenção de Registros: Dois itens de trabalho estão em execução: ISO/IEC 24970 sobre Registro do Sistema de IA e a Estrutura Europeia de Confiabilidade da Inteligência Artificial (WI: JT021008).
- Transparência e Informação aos Usuários: Dois itens de trabalho do CEN-CENELEC JTC 21 estão planejados. ISO/IEC 12792 já em processo de consulta.
- Supervisão Humana: Abordada apenas pela Estrutura de Confiabilidade da Inteligência Artificial (WI: JT021008).
- Especificações de Precisão para Sistemas de IA: Sete itens de trabalho estão em andamento, incluindo normas ISO/IEC e “caseiras”, que estabelecerão requisitos além das métricas básicas de desempenho.
- Especificações de Robustez para Sistemas de IA: CEN-CENELEC JTC 21 atribuiu quatro itens de trabalho à IA e às normas europeias.
- Especificações de Cibersegurança para Sistemas de IA: Com (pelo menos) duas normas “caseiras” planejadas.
- Sistema de Gestão da Qualidade: Refere-se aos requisitos do Art. 17 da Lei de IA (Sistema de Gestão da Qualidade) e espera-se que seja concluído com 2 normas.
- Avaliação de Conformidade para Sistemas de IA: Com uma liberação prevista de 5 normas ou documentos, esta entrega completa o trabalho existente com as especificidades solicitadas na Lei de IA da UE.
No entanto, vale a pena notar que alguns itens de trabalho tinham datas de votação previstas em meados de 2026, excedendo o prazo original do pedido de padronização em mais de um ano.
Desafios e Críticas
A Comissão Europeia já expressou críticas em relação ao trabalho de padronização do CEN-CENELEC, particularmente no que diz respeito ao escopo e ao número de normas referenciadas. O status do trabalho sublinha a natureza ambiciosa do processo de padronização da Lei de IA e os desafios em cumprir os prazos estabelecidos. Avaliações mais recentes são esperadas no Verão e Outono de 2025.
Qual é a intenção central das normas que abordam a gestão de risco?
À medida que a Lei de IA da UE se prepara para entrar em vigor, os fornecedores de IA estão lidando com seus requisitos de gestão de risco. As normas harmonizadas estão no cerne desta regulamentação, oferecendo um caminho para estabelecer a conformidade e reduzir as incertezas jurídicas. Mas qual é a intenção central por trás dessas normas, particularmente ao gerenciar o risco?
Conformidade com a Lei de IA
A intenção é traduzir os requisitos amplos e juridicamente vinculativos da Lei de IA em procedimentos acionáveis e tecnicamente definidos. Essas normas visam:
- Garantir a Proteção dos Direitos Individuais: Enfatizar a proteção dos direitos individuais através de uma abordagem centrada no produto, alinhando-se com o foco da Lei de IA na salvaguarda da saúde, segurança e direitos fundamentais.
- Fornecer uma Estrutura Clara: Oferecer especificações para um sistema de gestão de risco adaptado aos sistemas de IA.
- Obrigar a Testes: Tornar obrigatório o teste de sistemas de IA, conforme declarado no Artigo 9(6) e 9(8) da Lei de IA.
O esforço envolve duas normas principais:
- ISO/IEC 23894: Esta norma fornece orientações gerais de gestão de risco em relação à IA, mas é limitada pela sua visão centrada na organização e por uma definição de risco que está desalinhada com o Artigo 3 da Lei de IA.
- Gestão de Risco de IA (WI: JT021024): Esta é uma norma “caseira” atualmente em desenvolvimento para abordar especificamente as deficiências das normas existentes, fornecendo uma abordagem centrada no produto alinhada com a Lei de IA. A conclusão está prevista para setembro de 2026.
As organizações que pretendem cumprir a Lei de IA precisam entender as nuances dessas normas, garantindo que suas práticas de gestão de risco reflitam a ênfase da Lei nos direitos individuais e na segurança.
Qual é o propósito da padronização em relação à governança e qualidade de dados?
A padronização desempenha um papel crucial para garantir uma governança robusta e dados de alta qualidade dentro de sistemas de IA. As normas técnicas oferecem um caminho claro e acessível para atender às exigências regulatórias e mitigar ambiguidades legais, fortalecendo a competitividade e promovendo o crescimento dentro do mercado interno.
O Regulamento da UE sobre IA enfatiza a validação estatística e a prevenção de viés quando se trata de governar os dados e garantir sua qualidade. Os requisitos estão detalhados no Art. 10 do Regulamento da IA (Dados e Governança de Dados) e abordam o tratamento de vieses indesejados e garantem a qualidade dos dados.
O CEN-CENELEC JTC 21, em colaboração com a ISO/IEC, estabelece o caminho para abordar a governança de dados com IA:
- ISO/IEC/TS 12791 fornece suporte tecnológico para tratar vieses indesejados para tarefas de aprendizado de máquina de classificação e regressão.
- ISO/IEC 8183 estabelece as bases para o Framework do Ciclo de Vida de Dados de IA.
- ISO/IEC 5259-1 – 5259-4 fornecem orientações sobre Qualidade de Dados para Analytics e Aprendizado de Máquina (ML).
O caminho continua com padrões “caseiros”:
- IA – Conceitos, Medidas e Requisitos para Gerenciar Vieses em Sistemas de IA (WI: JT021036)
- IA – Qualidade e Governança de Conjuntos de Dados em IA (WI: JT021037)
- CEN/CLC/TR 18115 Governança e Qualidade de Dados para IA no Contexto Europeu.
Além disso, as normas ainda em elaboração/aprovação se concentrarão em medidas quantificáveis de qualidade de dados e propriedades estatísticas ao longo do ciclo de vida do sistema de IA. Particularmente significativo é o Art. 10 do Regulamento da IA, requisito para validação empírica de técnicas de mitigação de viés e a capacidade de demonstrar a eficácia das medidas de garantia de qualidade.
Essa ênfase em resultados mensuráveis representa uma mudança metodológica da padronização descritiva para a prescritiva, exigindo que as organizações implementem controles verificáveis para representatividade, correção e integridade dos dados.
Como as normas abordam os requisitos para manutenção de registros?
A Lei Europeia de IA exige a manutenção de registros para sistemas de IA de alto risco, focando especificamente na rastreabilidade e na captura de eventos que possam impactar o desempenho do sistema ou apresentar riscos.
O cenário de normas está abordando este requisito através de dois principais itens de trabalho:
- ISO/IEC 24970 – Registro de Sistemas de IA: Esta norma, atualmente em desenvolvimento em colaboração com a ISO/IEC, concentra-se na definição de requisitos para planos de registro. Esses planos precisam encontrar um equilíbrio entre a captura abrangente de eventos e a eficiência operacional, acomodando diferentes arquiteturas de sistema e demandas de desempenho. Por exemplo, sistemas de negociação de alta frequência, onde o registro de transações em nível de milissegundos é crítico, terão requisitos diferentes de aplicações menos sensíveis ao tempo.
- Estrutura de Confiança em Inteligência Artificial (WI: JT021008): Esta estrutura fornece uma estrutura abrangente que complementa a norma ISO/IEC.
A norma ISO/IEC fornecerá especificações mais granulares, enfatizando a necessidade de definir requisitos que permitam as necessidades específicas do sistema. Isso é crítico para capacidades de verificação consistentes entre diferentes aplicações de IA.
Aqui estão os pontos de dados críticos para as normas de manutenção de registros:
- Objetivo: Rastreabilidade das operações/desempenho do sistema de IA.
- Status: Norma ISO/IEC em elaboração.
- Equilíbrio: Entre captura de eventos e eficiência operacional.
- Flexibilidade: acomodar as necessidades específicas do setor para garantir capacidades de verificação confiáveis.
Quais são as principais características das normas relacionadas com a transparência para os utilizadores de sistemas de IA?
Estão a ser desenvolvidas normas técnicas para apoiar os requisitos do Artigo 13.º do Regulamento da UE relativo à IA, que se centra na transparência e no fornecimento de informações aos utilizadores. Os esforços de normalização visam resolver o problema da “caixa negra”, em que os processos internos de tomada de decisão dos sistemas de IA são opacos.
Normas-chave em desenvolvimento
- ISO/IEC 12792 (Taxonomia da Transparência de Sistemas de IA): Esta norma estabelece requisitos para artefactos de transparência para garantir que as informações relacionadas sejam abrangentes, significativas, acessíveis e compreensíveis para os públicos-alvo.
- Estrutura de Confiabilidade da Inteligência Artificial (WI: JT021008): Esta estrutura fornece um quadro geral para os requisitos de confiabilidade e transparência.
Para a ISO/IEC 12792, é dada atenção específica aos requisitos regulamentares europeus. Estas normas visam tornar as saídas dos sistemas de IA compreensíveis para os utilizadores, especificando quais informações devem ser reveladas e quão acessíveis devem ser.
Qual é o papel das normas para garantir a supervisão humana de sistemas de IA?
As normas desempenham um papel fundamental na especificação dos requisitos do Artigo 14 do Regulamento de IA da UE, que se concentra na supervisão humana de sistemas de IA. Estas normas são abordadas principalmente pelo Quadro de Confiança da Inteligência Artificial (Item de Trabalho: JT021008) em desenvolvimento pelo CEN-CENELEC JTC 21.
Segue uma análise dos principais aspetos:
O objetivo geral é garantir o controlo humano eficaz sobre os sistemas de IA em diversos contextos operacionais:
- Na produção, as normas devem permitir a intervenção humana sem sacrificar a eficiência da produção.
- Nas finanças, os mecanismos de supervisão são cruciais para sistemas algorítmicos que operam a velocidades além dos tempos de reação humanos. Isto envolve a criação de interfaces de monitorização e mecanismos de controlo, bem como medidas organizacionais como protocolos de formação.
Mais especificamente, estas normas devem estabelecer critérios claros para a seleção de medidas de supervisão adequadas que estejam alinhadas com o uso pretendido de um sistema de IA e os riscos identificados.
As principais considerações incluem:
- Medidas técnicas: interfaces de monitorização e mecanismos de controlo.
- Medidas organizacionais: protocolos de formação.
- Procedimentos de verificação: garantir que os mecanismos de supervisão humana são eficazes.
As normas também devem definir resultados verificáveis relativamente à supervisão do sistema. As pessoas singulares devem ser capazes de manter efetivamente o controlo operacional e intervir quando necessário, mesmo com sistemas de IA cada vez mais complexos e rápidos.
Em suma, as normas visam fornecer um quadro para garantir que os humanos mantenham controlo significativo e capacidades de intervenção sobre os sistemas de IA, independentemente da sua aplicação ou complexidade.
Qual é o foco das especificações de precisão em sistemas de IA?
As especificações de precisão dentro dos sistemas de IA, conforme exigido pelo Artigo 15(1) e (3) da Lei de IA da UE, não se resumem a atingir benchmarks de desempenho. O foco está em garantir que essas medições sejam demonstrativamente apropriadas e eficazes para atender aos objetivos regulatórios da Lei.
Aqui está o que isso significa em termos práticos:
Definindo Métricas e Limiares Adequados
As empresas podem esperar que os padrões ofereçam instruções precisas sobre a seleção de métricas de precisão e a definição de limiares claros. Espere protocolos de teste rigorosos e práticas de documentação detalhadas.
Benchmarking para Uso Geral
Os padrões emergentes especificam processos e estruturas de avaliação para avaliar modelos de IA em relação a tarefas padronizadas, particularmente em áreas como benchmarking geral, o que pode impactar significativamente a aplicabilidade prática e reduzir as incertezas regulatórias.
Métricas e Mitigação de Riscos
A chave, à medida que esses padrões tomam forma, será vincular demonstrativamente as métricas de precisão às estratégias de mitigação de riscos. Isso envolve selecionar, medir e validar métricas com base no uso pretendido e nos riscos identificados do sistema de IA.
Atualmente, o CEN-CENELEC JTC 21, o comitê conjunto que trabalha em padrões de IA, alocou sete itens de trabalho para este resultado. Estes incluem vários padrões que estão sendo co-desenvolvidos com a ISO/IEC, bem como vários padrões “caseiros”. Espera-se que estes padrões sejam finalizados no final de 2025 ou início de 2026.
Quais são os principais focos das especificações de robustez para sistemas de IA?
As especificações de robustez para sistemas de IA são um foco fundamental do AI Act da UE, visando garantir que esses sistemas sejam resistentes a vários tipos de riscos e vulnerabilidades. Os artigos 15(1) e (4) do AI Act ditam os requisitos que os esforços de padronização devem abordar para aumentar a resiliência da IA.
O CEN-CENELEC JTC 21, encarregado de desenvolver normas harmonizadas, atribuiu quatro itens de trabalho para tratar dessas especificações de robustez:
- Normas Internacionais:
- ISO/IEC 24029-2, -3, -5 – IA – Avaliação da Robustez de Redes Neurais (parcialmente preliminar, sem data de votação prevista)
- ISO/IEC/TR 24029-1 – IA – Avaliação da Robustez de Redes Neurais (Publicada)
- Normas “Caseiras”:
- IA – Conceitos, Medidas e Requisitos para Gerenciar Vieses em Sistemas de IA (WI: JT021036) (em redação; votação prevista: 3 de junho de 2024)
- Estrutura de Confiabilidade da Inteligência Artificial (WI: JT021008)
Para alinhar-se totalmente às exigências regulatórias, é necessário um guia complementar à série ISO/IEC 24029. O objetivo é definir métricas práticas, limites e métodos adaptados a casos de uso específicos. Portanto, as normas adicionais estão estendendo as considerações de robustez além de testes e medições para incluir princípios de design, particularmente para sistemas que evoluem após a implantação.
Aqui estão os principais insights por trás dessas especificações:
- Além dos Testes: As normas devem evoluir além de meros testes e medições para incorporar considerações de robustez diretamente nos princípios de design.
- Princípios de Design e Sistemas em Evolução: As normas devem levar em conta os sistemas que continuam a evoluir após a implantação.
- Métricas e Limites Práticos: É importante definir métricas práticas, limites e métodos adaptados a casos de uso específicos.
Qual é o propósito das especificações de cibersegurança para sistemas de IA?
Os sistemas de IA, especialmente aqueles classificados como de alto risco pelo Regulamento de IA da UE, são cada vez mais vulneráveis a ciberataques sofisticados que podem comprometer sua integridade, confiabilidade e segurança. Reconhecendo essa crescente ameaça, o Regulamento de IA da UE exige especificações de cibersegurança para proteger esses sistemas contra interferência maliciosa.
O propósito dessas especificações, de acordo com os esforços de padronização em andamento, é multifacetado:
Objetivos Principais
- Definindo requisitos de segurança: Estabelecer padrões claros e objetivos para implementar uma avaliação de risco de segurança robusta e um plano de mitigação especificamente adaptado para sistemas de IA de alto risco.
- Abordando vulnerabilidades específicas de IA: As normas visam capturar proativamente aspectos relacionados a ameaças específicas de IA, como envenenamento de dados, envenenamento de modelos, evasão de modelos e ataques de confidencialidade — áreas frequentemente negligenciadas pelas estruturas tradicionais de cibersegurança.
- Definindo abordagens técnicas e organizacionais: As especificações abrangerão tanto as medidas técnicas quanto os procedimentos organizacionais necessários para estabelecer uma postura de segurança resiliente para sistemas de IA.
- Estabelecendo métodos de verificação: Definir objetivos de segurança específicos a serem alcançados e verificados por meio de testes é crucial, especialmente no nível do sistema, quando as medidas de mitigação para vulnerabilidades no nível do componente podem não ser totalmente eficazes.
À medida que o cenário de padronização evolui, o trabalho em andamento está começando a abordar ameaças específicas de IA, principalmente sob a forma de orientação. No entanto, como novas ameaças e contramedidas surgem constantemente, um objetivo fundamental da nova padronização em cibersegurança de IA será definir os requisitos essenciais para implementar uma avaliação de risco de segurança e um plano de mitigação para sistemas de IA de alto risco.
Cumprir essas especificações de cibersegurança não é meramente marcar uma caixa; trata-se de construir confiança e garantir a implantação responsável de sistemas de IA que podem ter um impacto profundo em indivíduos e na sociedade. Empresas que não cumprirem esses requisitos correm o risco de multas significativas (até 35 milhões de euros ou 7% do faturamento global) e acesso restrito ao mercado da UE.
Qual é a principal intenção das normas de sistemas de gestão da qualidade?
As normas de sistemas de gestão da qualidade, particularmente no contexto do AI Act (Regulamento de IA) da UE, visam garantir que os fornecedores de sistemas de IA cumpram benchmarks de qualidade específicos. Estas normas não são apenas sobre qualidade geral; são especificamente concebidas para abordar os riscos associados à IA, garantindo que os sistemas de alto risco são fiáveis, robustos e seguros para os utilizadores.
Eis o que a intenção se resume:
-
Conformidade Regulatória: As normas são concebidas para operacionalizar os requisitos legais de alto risco do AI Act. O cumprimento destas normas oferece uma presunção de conformidade, simplificando a conformidade e, idealmente, reduzindo a carga administrativa para os fornecedores de IA.
-
Mitigação de Riscos: As normas enfatizam uma abordagem centrada no produto para a gestão de riscos com o objetivo de promover a proteção dos direitos individuais.
-
Acesso ao Mercado: A conformidade simplifica o processo de marcação CE (conformité européenne), facilitando o acesso ao mercado europeu.
-
Estabelecimento de condições equitativas: As normas apoiam o estabelecimento de condições iguais de concorrência e um campo de jogo equitativo para a conceção e desenvolvimento técnicos de sistemas de IA.
A norma mais relevante nesta área é a ISO/IEC 42001, complementada por uma norma “caseira”, AI – Quality Management System for Regulatory Purposes (IA – Sistema de Gestão da Qualidade para Fins Regulatórios). Esta última norma baseia-se em múltiplas normas ISO/IEC e centra-se na conformidade regulatória e nos riscos específicos abordados pelo AI Act do ponto de vista centrado no produto.
Como as normas de avaliação da conformidade apoiam o AI Act?
As normas de avaliação da conformidade são cruciais para navegar pelos requisitos complexos do AI Act. Estas normas, principalmente em desenvolvimento pelo CEN-CENELEC JTC 21, visam especificar como os sistemas de IA podem ser avaliados para garantir que cumprem as obrigações do Ato. Isto inclui a definição de requisitos para organismos que realizam auditorias e certificações de sistemas de gestão de IA.
O papel das ISO/IEC 42006 e 29119-11
As ISO/IEC 42006 (Requisitos para Organismos que Realizam Auditorias e Certificação de Sistemas de Gestão de IA) e ISO/IEC 29119-11 (Testes de Sistemas de IA) existentes servem como ponto de partida. No entanto, são necessárias novas normas para abordar as vulnerabilidades específicas da IA e a avaliação da conformidade.
Áreas com normas em desenvolvimento
Os principais esforços em curso incluem:
- Requisitos de Competência: Desenvolvimento de normas para os requisitos de competência de auditores e profissionais de sistemas de IA.
- Estrutura de Avaliação da Conformidade da IA: Criação de uma estrutura especificamente para avaliar a conformidade da IA. (Item de Trabalho: JT021038)
- Abordagem das Vulnerabilidades Específicas da IA: Avaliação das soluções técnicas para abordar as vulnerabilidades específicas da IA.
A importância das normas harmonizadas
Uma vez que estas normas estejam harmonizadas (publicadas no Jornal Oficial da União Europeia), elas criam uma “presunção de conformidade.” Isto significa que os sistemas de IA que aderem a estas normas são automaticamente considerados conformes com os requisitos relevantes do AI Act, simplificando a conformidade e reduzindo o ónus administrativo para os fornecedores de IA.
Desafios na implementação e avaliação das normas
No entanto, vários desafios permanecem:
- Alinhamento: Estas normas aproveitam o trabalho existente, como a caixa de ferramentas ISO CASCO, que fornece uma base para princípios genéricos e orientação sobre avaliação da conformidade. No entanto, também precisarão de definir como estas estruturas de avaliação da conformidade devem ser adaptadas e aplicadas especificamente às características únicas dos sistemas de IA de alto risco.
- Atraso na Implementação: Uma grande preocupação é o curto período de tempo que as empresas terão para implementar estas normas após a sua finalização e publicação (provavelmente no início de 2026). Isto pode deixar apenas 6-8 meses antes que os requisitos de alto risco do AI Act se tornem aplicáveis.
- Coordenação: É necessária uma estreita coordenação entre os itens de trabalho de normalização paralelos para garantir que as normas resultantes sejam complementares e adequadas para apoiar a implementação do quadro regulamentar.
Em última análise, o sucesso do AI Act depende do desenvolvimento e da implementação eficaz destas normas de avaliação da conformidade. As partes interessadas devem envolver-se ativamente para garantir que as normas sejam práticas, abrangentes e alinhadas com os objetivos regulamentares.
Portuguese
Quais são os desafios comuns de implementação intersetorial dos padrões de IA?
Em vários setores, o cumprimento das normas emergentes de IA apresenta várias dificuldades partilhadas. Startups de IA em стадии de crescimento em setores de alto risco já começaram a alinhar-se com os padrões esperados, enquanto empresas mais jovens estão a ter dificuldades devido a prazos pouco claros e à falta de orientação específica.
Um obstáculo primordial é a ambiguidade interpretativa destas normas. Definir a conformidade pode ser obscuro, especialmente quando os sistemas integram vários componentes ou dependem de modelos de terceiros. Leis de sigilo divergentes entre os Estados-Membros da UE acrescentam outra camada de complexidade, criando conflitos operacionais para setores como o legal tech. Além disso, mesmo veteranos de setores altamente regulamentados como o da saúde lutam para conciliar os requisitos da Lei de IA com os regulamentos existentes, particularmente ao combinar técnicas de IA como o processamento de imagem e a análise de linguagem.
Apesar da expectativa de que as normas técnicas em si sejam gratuitas, os fornecedores de IA estão cautelosos com os custos indiretos substanciais. A conformidade pode exigir investimentos anuais de, aproximadamente, €100.000 a €300.000 anuais, mais o tempo dedicado de figuras-chave da gestão. Mesmo os fornecedores não considerados de “alto risco” podem sentir-se pressionados a cumprir voluntariamente para limitar a sua responsabilidade, potencialmente incorrendo em despesas excessivas.
A análise dos fornecedores de IA entrevistados pinta um quadro matizado de como a Lei de IA impacta a inovação, distinguindo entre empresas bem estabelecidas e emergentes. A tendência mostra que, para empresas em setores onde já existe regulamentação, como o da saúde, a adaptação é facilitada através da sua experiência prévia com acordos semelhantes. Enquanto que, para aqueles sem experiência prévia em regulamentação, a implementação da conformidade é muito mais difícil.
Relativamente à integração de quadros jurídicos. Muitos relatam que as discrepâncias entre os quadros na UE já atrasam a entrada no mercado da UE, tornando os EUA uma opção mais razoável para começar. Também cria problemas para quadros já estabelecidos como o RGPD, e é ainda mais problematizado por leis nacionais e locais conflitantes que variam em diferentes Estados-Membros.
A maioria das empresas acha que agosto de 2026 é impraticável. Isto é enfatizado estimando que levará um ano para cumprir apenas uma norma técnica (por exemplo, ISO/IEC 27001). Mesmo com apoio especializado. Uma melhor opção seria uma introdução faseada, especialmente para as PMEs, para permitir períodos de adaptação mais práticos.
Participação Assimétrica no Processo de Definição de Normas
A participação em reuniões do JTC 21, grupos de trabalho e comités espelho dos Estados-Membros pareceu muito pouca em comparação com a quantidade de fornecedores. A maioria dos pequenos e médios fornecedores admitiu que estão “raramente” ou “irregularmente” envolvidos em atividades destinadas à normalização devido ao conhecimento e recursos mínimos. A normalização favoreceu grandes empresas e o desequilíbrio está a criar um ambiente desproporcional para empresas menores, dizem vários fornecedores.
Como a complexidade da conformidade com a IA afeta o mercado?
A complexidade da conformidade com a IA, particularmente sob a Lei de IA da UE, está definida para remodelar significativamente o cenário do mercado. Os desafios emergentes, decorrentes de ambiguidades nos limites da conformidade, requisitos de sigilo divergentes e regras de classificação complexas, exigem uma compreensão mais granular de como esses fatores impactam diferentes atores.
Principais Desafios de Conformidade
Aqui está uma análise dos principais desafios de conformidade identificados pelos provedores de IA:
- Ambiguidade Interpretativa: Definir os limites da conformidade é complexo, especialmente quando os sistemas de IA integram múltiplos componentes ou modelos de terceiros.
- Divergências Setoriais: Requisitos de sigilo divergentes entre os estados membros da UE criam conflitos operacionais. Conciliar as leis de sigilo profissional com os requisitos de registro regulamentar está se mostrando difícil.
- Incerteza de Classificação: Incerteza sobre como a classificação de risco se aplica em diferentes casos, destacando preocupações sobre tecnologias de uso duplo.
- Complexidades de Integração: Alinhar os requisitos da Lei de IA com as regulamentações existentes pode ser difícil quando os sistemas combinam múltiplas modalidades de IA, como processamento de imagem e modelos de linguagem.
- Incerteza de Aplicação: A ambiguidade em relação às evidências específicas necessárias para demonstrar conformidade, particularmente em relação aos testes de viés e à robustez do modelo, está causando inquietação.
Impacto nas Empresas
Os dados das entrevistas sugerem uma perspectiva preocupante sobre como a Lei de IA está afetando a inovação, destacando particularmente uma divisão entre empresas estabelecidas e emergentes.
- Custos Adicionais: Custos substanciais relacionados aos requisitos da Lei de IA são antecipados, levando as empresas a se preocuparem com custos indiretos.
- Requisitos de Pessoal: Os fluxos de trabalho de conformidade com a Lei de IA podem exigir a dedicação de recursos de pessoal dedicados muito significativos. Isso se traduz em custos operacionais contínuos além dos investimentos iniciais em conformidade.
- Barreiras à Inovação: As PMEs temem que os requisitos de conformidade afetem desproporcionalmente suas capacidades de escalonamento.
- Pressões Competitivas: Os encargos regulatórios da UE podem perder terreno para jurisdições como os EUA, onde encargos regulatórios menores permitem ciclos de inovação mais rápidos e mais flexibilidade.
Por outro lado, os provedores de tecnologia jurídica e de saúde parecem mais bem posicionados para se adaptar devido à sua experiência com as estruturas existentes, portanto, veem a regulamentação como potencialmente benéfica para a confiança do mercado.
Também vale a pena notar que a fragmentação entre as jurisdições leva a atrasos nas entradas no mercado da UE.
Impacto na Padronização
Existe um padrão de participação assimétrica no processo de desenvolvimento de padrões. O processo de padronização pode estar favorecendo as grandes corporações.<
No geral, estes fatores têm o potencial de tornar a padronização muito difícil para o jogador médio.
Quais recursos são necessários para alcançar a conformidade com a IA?
Alcançar a conformidade com a IA, particularmente sob a Lei de IA da UE, exige uma abordagem multifacetada envolvendo recursos significativos e planejamento estratégico. O desafio não é meramente entender a regulamentação; é sobre operacionalizar requisitos abstratos em práticas tangíveis.
Pessoal e Expertise
Uma área chave é a alocação de pessoal qualificado. Os responsáveis pela conformidade são fundamentais, mas, cada vez mais, as organizações exigem expertise jurídica-tecnológica específica para IA e um profundo entendimento do comportamento do modelo de IA. A equipe técnica precisa adaptar ferramentas de gerenciamento de risco de IA, sistemas de qualidade e monitoramento pós-mercado robusto. As organizações entrevistadas relatam alocar pessoal especificamente para a conformidade com a Lei de IA. O nível de expertise internamente ou os recursos usados para adquirir suporte externo precisam ser considerados no custo dos recursos.
O custo da expertise é ainda mais agravado pelo estado atual da padronização da IA. Isso fica evidente quando as organizações lutam para definir os limites de conformidade ao integrar vários componentes ou confiar em modelos de terceiros.
Considerações Financeiras
Implementar e manter sistemas de IA em conformidade com a Lei de IA criará um fardo financeiro para as organizações. Os custos incluem pessoal de conformidade dedicado, tempo de executivos dedicado a questões de conformidade e custos de certificação. Startups e PMEs com menos de 20 funcionários serão drasticamente afetadas pelas alocações de custos, com estimativas de dedicação de € 100.000 anuais para manter a conformidade. Com esses custos indiretos, os provedores de IA relatam custos anuais de conformidade previstos de cerca de € 100.000 para pessoal de conformidade dedicado e 10-20% do tempo do fundador/gerenciamento gasto em assuntos padrão.
Mesmo as empresas preparadas para implementar e manter custos, como empresas de tecnologia médica, estimam que os custos de certificação podem exceder € 200.000, e as empresas de tecnologia jurídica relatam um custo anual estimado entre € 200.000 e € 300.000.
Navegando pela Ambiguidade e Incerteza
Um recurso chave final é a capacidade de investir em suporte regulatório e jurídico para navegar proativamente pela ambiguidade. Com interpretações divergentes de sigilo profissional versus requisitos de registro entre as leis nacionais e da UE, estas são todas as áreas a serem consideradas no planejamento.
As empresas também devem esperar custos no desenvolvimento e implementação de protocolos de verificação claros para comprovar a conformidade. Para demonstrar a conformidade, as evidências precisam mostrar o trabalho relativo ao teste de viés e à robustez do modelo.
Qual é o impacto da Lei de IA na reputação do mercado e na inovação?
O impacto da Lei de IA na reputação do mercado e na inovação é uma questão complexa, particularmente para as pequenas e médias empresas (PMEs). Enquanto empresas estabelecidas em setores como o da saúde e tecnologia jurídica veem a regulamentação como um potencial impulsionador da confiança do mercado, empresas de IA emergentes expressam preocupações sobre as barreiras à inovação ligadas a esses novos padrões.
Barreiras à Inovação para PMEs
- Capacidade de Escalonamento: A maioria das PMEs classificadas como de alto risco sob a Lei de IA teme que o cumprimento afete desproporcionalmente sua capacidade de escalonamento.
- Incerteza na Classificação de Risco: As empresas enfrentam incerteza sobre a classificação de risco ao fazer a transição do suporte ao design para os sistemas operacionais.
- Desvantagem Competitiva: Existe preocupação em perder terreno para jurisdições mais flexíveis, como os EUA, onde encargos regulatórios mais baixos permitem ciclos de inovação mais rápidos.
Confiança no Mercado e Preparação do Setor
Empresas em setores já regulamentados, como o da saúde, parecem mais bem preparadas para se adaptar devido à sua experiência com frameworks existentes, como o Regulamento de Dispositivos Médicos (RDM). Em contraste, empresas em setores anteriormente não regulamentados enfrentam desafios de adaptação mais acentuados, lutando para interpretar e implementar os padrões de IA sem experiência regulatória prévia.
Limitações de Experimentação
Empresas em fase inicial estão particularmente frustradas por condições intransparentes e burocráticas que limitam a experimentação.
Participação Assimétrica na Definição de Padrões
Os dados da entrevista revelam um padrão de participação limitada no processo de desenvolvimento de padrões do JTC 21, seus grupos de trabalho e comitês espelho nos estados membros. Entre os provedores entrevistados, apenas uma pequena fração relata engajamento ativo nos esforços de padronização de IA ou consultas formais, com níveis de participação notavelmente baixos entre as empresas menores.
- Restrições de Recursos: A maioria dos pequenos e médios provedores reconhece estar ‘raramente’ ou ‘irregularmente’ envolvida em atividades de padronização, citando restrições de recursos e lacunas de conhecimento como principais barreiras.
- Favoritismo aos Grandes Players: Vários entrevistados caracterizam o processo de padronização como favorecendo as grandes corporações, descrevendo as discussões como “unilaterais”. Múltiplos provedores expressam preocupação com o fato de este desequilíbrio poder levar a padrões que criam barreiras desproporcionais para os participantes menores do mercado.
- Falta de Mecanismos de Apoio: Embora algumas empresas indiquem interesse em participação futura, elas enfatizam a necessidade de mecanismos de apoio estruturados.
Como a participação na definição de padrões influencia a concorrência?
A participação na definição de padrões pode ser uma faca de dois gumes para empresas de IA, impactando profundamente o cenário competitivo, de acordo com um relatório recente. Embora aparentemente técnicos, esses padrões têm implicações de longo alcance, especialmente para startups e PMEs que navegam na Lei de IA da UE.
Vantagens Estratégicas da Participação
O envolvimento ativo na padronização oferece vantagens estratégicas distintas:
- Transferência de Conhecimento: Fazer parte do processo de desenvolvimento de padrões permite que as empresas compreendam intimamente as nuances técnicas da conformidade.
- Construção de Relacionamentos: A participação promove relacionamentos cruciais, que vão além do simples lobbying, e facilita uma conformidade técnica mais suave no futuro.
No entanto, as condições de concorrência não são equitativas.
A Assimetria de Influência
Os comitês de padronização são frequentemente dominados por grandes empresas, incluindo as principais empresas de tecnologia e consultoria dos EUA. Isso cria uma disparidade significativa, deixando PMEs, startups, sociedade civil e academia sub-representadas. O relatório destaca que esse desequilíbrio leva a:
- Vantagens Competitivas para Grandes Empresas: Empresas maiores têm os recursos para moldar os padrões a seu favor, obtendo vantagens tanto de conhecimento quanto de implementação.
- Preocupações com os Valores da UE: A influência substancial de empresas dos EUA levanta preocupações sobre a representação adequada dos valores da UE, especialmente em relação à proteção dos direitos fundamentais. Os padrões exigem um equilíbrio desses direitos orientado a valores, potencialmente revisado pelo Tribunal de Justiça da União Europeia.
- Exclusão de Conhecimento Crucial: A participação limitada de entidades menores significa que o conhecimento essencial é excluído dos padrões que definirão o acesso ao mercado, potencialmente comprometendo a segurança abrangente.
A questão se resume a recursos. A participação eficaz exige um investimento substancial, tornando difícil para as organizações menores priorizá-la ao lado das atividades operacionais principais. As associações da indústria geralmente intervêm, mas sua capacidade de representar totalmente os diversos interesses de todas as partes interessadas é limitada.
O Caminho Adiante
Para uma concorrência justa, um processo de padronização mais inclusivo é crucial. Isso significa incorporar diversas perspectivas e conhecimentos especializados para garantir que os padrões resultantes sejam robustos e equitativos. Intervenções políticas são necessárias para nivelar o campo de atuação e evitar que os padrões se tornem uma barreira à entrada para pequenos inovadores de IA.
De que forma a fragmentação regulamentar cria desafios de conformidade?
A fragmentação regulamentar coloca desafios de conformidade significativos para os fornecedores de IA, particularmente aqueles que operam em várias jurisdições. Isso decorre de vários problemas principais:
Divergência nos Requisitos de Sigilo: Diferentes estados membros da UE têm leis de sigilo variáveis, criando conflitos operacionais para setores como a tecnologia jurídica. Isso dificulta o estabelecimento de práticas de conformidade consistentes além-fronteiras.
Ambiguidade na Classificação: O escopo da Lei de IA pode não ser claro, especialmente para empresas que operam em vários setores. As tecnologias de dupla utilização, servindo propósitos regulamentados e não regulamentados, criam incerteza sobre a classificação de risco. O mesmo se aplica aos modelos de IA de Propósito Geral (GPAI).
Sobreposição de Marcos Regulatórios: As empresas enfrentam conflitos operacionais devido à sobreposição de leis da UE e de nível nacional. Variações nas interpretações de requisitos semelhantes em todos os estados membros complicam a implementação, semelhante a experiências anteriores com o PSD2.
Prontidão dos Órgãos Reguladores da UE: Existem preocupações sobre a prontidão dos órgãos reguladores da UE para gerir as certificações de forma consistente. Atrasos e inconsistências no processo de certificação podem interromper o acesso ao mercado, mesmo para sistemas de IA conformes. Interpretações fragmentadas e processos de certificação representam problemas notáveis para startups que não têm recursos para navegá-los.
Como os prazos de implementação impactam as empresas?
A vindoura Lei de IA da UE introduz padrões harmonizados de IA, mas crescem as preocupações sobre a viabilidade de cumprir os prazos de conformidade, particularmente para startups e PMEs. Como o desenvolvimento de padrões está atrasado, com as principais entregas esperadas para o início de 2026, restam apenas 6 a 8 meses antes que a conformidade se torne obrigatória em agosto de 2026. Este prazo comprimido, especialmente considerando o volume potencial de cerca de 35 padrões técnicos, levanta sérias questões sobre a capacidade de adaptação das empresas.
Pesquisas da indústria sugerem que as empresas normalmente precisam de pelo menos 12 meses para a conformidade com um único padrão, apontando para atrasos significativos no acesso ao mercado para recém-chegados que se aventuram no espaço da IA. Além disso, organizações maiores com experiência prévia em setores regulamentados estão em melhor posição, aumentando a divisão entre grandes empresas e startups inovadoras. Startups e PMEs enfrentam desvantagens desproporcionais e podem perder terreno competitivo se não conseguirem responder proativamente.
Prazos de implementação curtos acarretam sérios riscos:
- Penalidades Financeiras: A não conformidade pode resultar em multas de até € 35 milhões ou 7% do faturamento global, representando uma séria ameaça para as empresas menores.
- Restrições de Acesso ao Mercado: Atrasos na conformidade podem limitar o acesso ao mercado da UE, dando às empresas em conformidade uma vantagem.
- Danos à Reputação: A cobertura negativa da mídia pode levar à perda da confiança do cliente e prejudicar as relações comerciais.
Para resolver esses problemas de prazo, várias medidas são recomendadas:
- Adiar a Legislação: O legislador da UE precisa adiar os prazos de implementação da Lei de IA para permitir que as organizações tenham tempo suficiente para a conformidade baseada em padrões.
- Publicação de Normas: A publicação rápida de normas quase finais pode permitir que as empresas comecem a se adaptar bem antes dos prazos obrigatórios.
- Acesso Transparente: A criação de um portal online central onde as empresas pudessem monitorar o desenvolvimento de normas e requisitos criaria transparência e incentivaria o feedback.
- Abordagem Orientada a Serviços: O Gabinete de IA e as autoridades nacionais precisam se envolver em um diálogo contínuo, orientado a serviços, com as empresas afetadas.
Quais são as implicações setoriais da implementação de normas horizontais?
A implementação das normas horizontais do Regulamento de IA da UE terá diversas implicações, dependendo da maturidade regulatória existente de um setor e da natureza de suas aplicações de IA.
Saúde e MedTech
Embora o equilíbrio entre privacidade, precisão e qualidade do atendimento seja frequentemente discutido, as organizações com experiência regulatória existente no setor de saúde estão encontrando soluções práticas, aproveitando sua conformidade com o Regulamento de Dispositivos Médicos (MDR). Este setor se beneficia das normas do Regulamento de IA, potencialmente aprimorando a interoperabilidade e integrando perfeitamente ferramentas de IA em sistemas existentes, enquanto se concentra na precisão clínica e na confiança pública.
Manufatura
O setor de manufatura antecipa um alinhamento próximo entre as normas técnicas e as estruturas estabelecidas (ISO 9001, ISO 31000 e protocolos da Indústria 4.0). Essa integração oferece chances de melhorar o controle de qualidade e padronizar o processamento de dados. No entanto, surgem desafios na manutenção de documentação abrangente para decisões orientadas por IA, especialmente em contextos de produção de alta velocidade. Além disso, testes extensivos de pré-implantação podem retardar a adoção de soluções de automação em tempo real, afetando os fabricantes menores que podem ter dificuldades com os custos de conformidade.
Tecnologia Jurídica (Legal Tech)
As empresas de tecnologia jurídica estão preocupadas com o uso intensivo de recursos para manter trilhas de auditoria para saídas de IA, especificamente ao lidar com dados confidenciais de clientes. A integração de regulamentos, incluindo o GDPR, exige atualizações técnicas e consideração cuidadosa da governança de dados. No entanto, essas empresas veem a conformidade como uma oportunidade para se estabelecerem como líderes em práticas éticas de IA e aumentar a confiança do cliente em mercados regulamentados.
FinTech
O setor FinTech teme que requisitos excessivamente prescritivos possam favorecer instituições estabelecidas em detrimento de startups. Esses entrevistados traçam paralelos com suas experiências com o PSD2. Embora a padronização possa catalisar a confiança e a clareza em áreas como a autenticação do cliente, as empresas temem que requisitos de conformidade complexos possam sobrecarregar desproporcionalmente as empresas menores, como em regulamentos anteriores do setor financeiro.
Mobilidade (Automotiva) e Defesa
Embora esses setores possam ficar parcialmente fora do escopo do Regulamento de IA, eles ainda enfrentarão implicações dos requisitos de IA de alto risco derivados das normas harmonizadas. Os provedores de IA no setor de mobilidade veem essas normas como aprimorando a transparência e a segurança, ao mesmo tempo em que impõem encargos operacionais, particularmente para sistemas complexos que precisam de explicabilidade e medidas de segurança cibernética. O setor de defesa, embora explicitamente excluído por razões de segurança nacional, experimentará pressão indireta por meio de impactos no ecossistema e considerações de uso duplo, especialmente em relação a sistemas autônomos operando em ambientes de alto risco.
Como os padrões de IA têm efeitos indiretos em diferentes setores?
A implementação de padrões de IA, impulsionada em grande parte pelo EU AI Act, está causando repercussões em diversos setores, mesmo aqueles que não estão diretamente dentro do escopo da regulamentação. Enquanto setores como saúde e finanças lidam com a conformidade direta, outros estão sentindo a pressão indireta e antecipando efeitos de longo alcance. Vamos detalhar como isso está se desenrolando.
Mobilidade e Automotivo
O setor de mobilidade apresenta um caso fascinante. Dados de entrevistas sugerem que as empresas veem os padrões de IA como uma faca de dois gumes. Por um lado, maior transparência e segurança são atraentes. Por outro, encargos operacionais substanciais são previstos, especialmente em relação a sistemas complexos que exigem explicabilidade avançada e segurança cibernética robusta. Uma descoberta chave é a amplitude com que o rótulo de IA de “alto risco” se aplica. Os provedores de mobilidade estão percebendo que processos aparentemente rotineiros, como o planejamento de rotas, podem se enquadrar nessa classificação devido à sua natureza dinâmica e dependência de múltiplos pontos de dados. Isso cria obstáculos operacionais e de conformidade significativos.
Defesa
O setor de defesa, amplamente excluído do AI Act devido a preocupações de segurança nacional, está experimentando pressão indireta através de efeitos de ecossistema e considerações de “uso dual” – tecnologias com aplicações civis e militares. Embora não sejam diretamente regulamentadas, as empresas de defesa estão monitorando de perto o AI Act porque ele afeta a disponibilidade de modelos de IA de código aberto e os padrões gerais de IA. Uma percepção surpreendente? O setor geralmente adere a padrões de segurança rigorosos comparáveis aos de aplicações civis, um fator que pode impulsionar o alinhamento voluntário com os requisitos do AI Act.
A integração de padrões de IA de alto risco, como explicabilidade, gerenciamento de riscos e estruturas de transparência, pode aumentar a segurança e a interoperabilidade dos sistemas de IA de defesa, particularmente sistemas autônomos que funcionam em ambientes de alto risco, como zonas de combate urbano ou resposta a desastres. Os dados da entrevista sugerem que algumas empresas estão considerando adotar voluntariamente alguns dos padrões de IA de alto risco porque acreditam que isso permitirá uma maior colaboração civil-militar e promoverá a confiança em sistemas de colaboração IA-humano.
Desafios Financeiros e do Mundo Real
Essas implicações intersetoriais estão levando a respostas variadas. Algumas empresas de mobilidade estão considerando mercados alternativos com menores encargos regulatórios, citando desafios financeiros e operacionais. Em contraste, empresas de defesa veem potenciais vantagens competitivas na adoção de padrões de alto risco. O fio condutor? Ambos os setores reconhecem que o alinhamento com essas diretrizes para transparência e interoperabilidade é, em última análise, benéfico, apesar dos obstáculos iniciais de implementação.
Essencialmente, mesmo os setores além do alcance direto do EU AI Act estão enfrentando o desafio de navegar por padrões de IA rigorosos. À medida que a IA se torna mais generalizada, esses efeitos indiretos tendem a se expandir, remodelando as operações e potencialmente influenciando a concorrência no mercado. Isso torna a compreensão e a adaptação aos padrões de IA cruciais para as empresas, independentemente de onde operem.
Como Otimizar o Cronograma de Implementação da Lei de IA?
O ambicioso objetivo da União Europeia de regular a IA através da Lei de IA da UE enfrenta desafios devido aos prazos de implementação apertados, à dinâmica complexa das partes interessadas e aos custos de implementação. Veja como o cronograma pode ser otimizado, de acordo com informações do setor:
Ajustando os Prazos de Implementação
O ritmo atual de desenvolvimento de padrões de IA levanta preocupações. A lacuna entre a publicação esperada dos padrões (início de 2026) e o prazo de conformidade (agosto de 2026) oferece apenas 6 a 8 meses para a implementação. As organizações relatam precisar de pelo menos 12 meses por padrão. As opções incluem:
- Ação Legislativa: O legislador da UE deve considerar adiar os prazos de implementação para se alinhar com os cronogramas de adoção realistas.
- Reduzir o Escopo Padrão: Diminuir a quantidade e a complexidade dos 35 padrões técnicos que estão sendo desenvolvidos.
- Publicação Antecipada: Publicar padrões quase finais antecipadamente, mas reconhecer que estes podem mudar.
- Portal de Transparência: Criar uma plataforma online para acesso gratuito a projetos de padrões e fornecer um sistema de feedback, especialmente para PMEs.
- Diálogo Contínuo: O Escritório de IA e as autoridades nacionais devem se envolver em um diálogo contínuo com as empresas durante a implementação, semelhante às autoridades de supervisão financeira.
Reduzindo as Barreiras à Participação
A representação das partes interessadas nos comitês de padronização é desigual, com as grandes empresas frequentemente dominando. De acordo com a decisão Malamud do Tribunal de Justiça da União Europeia (TJUE), os padrões harmonizados devem ser acessíveis aos cidadãos da UE gratuitamente. Estratégias adicionais para um melhor engajamento são:
- Redes de Especialistas: A Comissão Europeia ou CEN-CENELEC devem construir redes de especialistas específicos do setor para orientar a conformidade específica do setor.
- Apoio Financeiro: Estabelecer mecanismos de financiamento substanciais nos níveis da UE e federal para subsidiar a participação de PMEs, excluindo grandes corporações que possuem recursos suficientes. Concentrar o financiamento com base nas despesas reais de pessoal do envolvimento no comitê.
- Programas de Mentoria: Implementar programas de mentoria que emparelhem especialistas com representantes de startups e PMEs.
- Acessibilidade do Comitê: Transformar os comitês de padronização de IA em órgãos transparentes que forneçam informações e agilizem os processos de entrada. Membros experientes podem então orientar os recém-chegados.
Ajuda Prática para Implementação
Fornecer ferramentas de orientação pragmáticas para a conformidade com a Lei de IA, com o Escritório de IA da UE e as autoridades subsequentes se concentrando nas PMEs:
- Orientação Pragmática: Estabelecer orientação interpretativa regular, dicas de implementação concretas e suporte direto através de pessoas de contato designadas, especificamente projetadas para PMEs.
- Documentação de Orientação Específica: Fornecer documentos de orientação específicos do setor, exemplos do mundo real e guias de implementação passo a passo, bem como fornecer atualizações consistentes do setor, dados os desenvolvimentos de IA.
- Comunicação Operacional: Para permitir a compreensão dos desafios e necessidades e garantir que o suporte atenda às necessidades reais do mercado, um sistema de comunicação prático deve ser implementado entre os reguladores e as principais indústrias.
- Estruturas de Avaliação: Criar tal estrutura para medir o progresso, garantir a responsabilização e rastrear melhorias através de métricas quantificáveis.
Considerações Adicionais
Além do acima, os “regulatory sandboxes” estipulados no Art. 57 da Lei de IA podem facilitar a comunicação e a colaboração entre a comunidade de desenvolvimento de IA de alto risco e os reguladores da UE.
Ao abordar as restrições de tempo acima mencionadas, o desequilíbrio de padronização e os altos custos de conformidade com a IA, os ajustes de política para a Implementação da Lei de IA da UE são otimizados.
Como a participação no desenvolvimento de padrões de IA pode ser aprimorada?
A ambiciosa Lei de IA da UE depende de padrões técnicos, tornando seu desenvolvimento eficaz crucial. No entanto, a participação em comitês de padronização é tendenciosa para empresas maiores, frequentemente com representação significativa de gigantes da tecnologia dos EUA. Esse desequilíbrio deixa as PMEs, startups, sociedade civil e academia sub-representadas, o que pode levar a padrões que não atendem às suas necessidades e desafios específicos.
Para nivelar o campo de atuação e promover uma participação mais ampla, várias medidas acionáveis podem ser tomadas:
Apoio Financeiro
Estabelecer mecanismos robustos de financiamento da UE e nacionais para subsidiar a participação de PMEs e startups nesses comitês. Esse apoio deve cobrir os custos reais de dedicar pessoal ao trabalho de padronização, garantindo que eles possam contribuir de forma significativa.
Programas de Mentoria
Implementar programas de mentoria conectando especialistas experientes em padronização com representantes de PMEs e startups. Isso forneceria orientação e apoio inestimáveis, ajudando-os a navegar pelo processo complexo.
Simplificar o Acesso ao Comitê
Reformular a acessibilidade dos comitês de padronização, criando uma plataforma centralizada e amigável, com informações transparentes e processos de entrada simplificados. Um sistema de “guia de padronização”, onde membros experientes auxiliam os recém-chegados, facilitaria ainda mais o processo de integração e promoveria uma colaboração mais ativa entre diferentes partes interessadas.
É crucial que a indústria e, especialmente, as empresas de fora da comunidade Safe AI participem ativamente do desenvolvimento de padrões. A colaboração ativa entre grandes e pequenas empresas deve ser incentivada pelos órgãos de padronização para promover uma padronização colaborativa multifacetada.
Ao abordar essas barreiras práticas, podemos garantir que o desenvolvimento de padrões de IA seja mais inclusivo, equilibrado e, em última análise, mais eficaz no fomento à inovação responsável em IA em toda a paisagem europeia.
Como pode ser aprimorado o suporte prático para a implementação de IA?
Para os fornecedores de IA que pretendem navegar pelas demandas de padronização da Lei de IA da UE, uma estratégia multifacetada focada em orientação acessível, assistência financeira e abordagens colaborativas é essencial. As recomendações a seguir abordam os principais desafios identificados por meio de entrevistas com organizações em vários setores.
Ajustando os Prazos e o Escopo da Implementação
O cronograma atual para a implementação da Lei de IA apresenta um desafio concreto. É necessário integrar expertise técnica aos comitês de normas. Há uma necessidade de atrasar o prazo da Lei em, no mínimo, 12 meses, para que mais empresas possam alcançar a conformidade.
- Reduzir o grande volume de normas técnicas imaginadas como entregas.
- Fornecer acesso antecipado a rascunhos quase finais de normas, reconhecendo o risco de mudanças subsequentes.
- Estabelecer um portal online centralizado que ofereça acesso gratuito a rascunhos de normas e um sistema de feedback de baixo limiar.
- Promover um diálogo contínuo entre o Gabinete de IA, as autoridades nacionais e as empresas afetadas, emulando práticas regulatórias orientadas para o serviço.
Reduzindo as Barreiras à Participação na Padronização
A participação de PMEs na padronização precisa ser financeiramente apoiada, por exemplo, pela Comissão Europeia, devido à falta de recursos das PMEs e startups. Promover o que as startups podem ganhar ao participar de tais comitês – influência direta na formação das regulamentações que regem suas tecnologias.
- Estabelecer mecanismos de financiamento em níveis da UE e nacional para subsidiar a participação de PMEs em comitês de normas.
- Implementar programas de mentoria, unindo especialistas experientes em padronização com representantes de startups e PMEs para fornecer orientação e suporte.
- Reformar a acessibilidade dos comitês de normas por meio de uma plataforma centralizada e amigável, processos transparentes e prioridades claras.
Fornecendo Ajuda Prática para a Implementação
A seguir estão algumas ferramentas de orientação pragmáticas e pontos de ação que auxiliarão na conformidade com a Lei de IA, com foco nas PMEs. Isso inclui orientação interpretativa regular, dicas de implementação concretas e suporte direto por meio de pessoas de contato dedicadas que mantêm relacionamentos contínuos com a comunidade de fornecedores de IA.
- A Comissão Europeia e os estados membros da UE devem criar programas para startups pré-receita, a fim de buscar a conformidade com a Lei de IA.
- A Comissão Europeia e o Gabinete de IA poderiam fornecer diretrizes práticas e específicas do setor para ajudar as partes a determinar se elas se enquadram nas categorias de alto risco da Lei de IA.
- Para eficiência, os requisitos baseados em limite devem ser mais fortemente considerados para padronização. Além disso, o acesso digital mais fácil é crucial.
Integração Estruturada de PMEs na Implementação
O fórum consultivo e o painel científico, conforme mencionado no Art. 67 da Lei de IA, devem incluir representação de startups e PMEs para garantir que seus desafios sejam considerados nas orientações de implementação. Além disso, deve haver canais de consulta direta entre pequenas empresas e órgãos reguladores, além das estruturas consultivas formais.
Alinhamento de Normas
Os órgãos de padronização devem alinhar todas as normas industriais existentes com a Lei de IA para simplificar a conformidade. As normas de IA europeias e internacionais também devem ser alinhadas para simplificar os esforços de conformidade para as organizações.
- Deve haver ação antecipada para as indústrias garantirem que estão seguindo os requisitos futuros.
- Os órgãos de padronização internacionais, europeus e nacionais devem aumentar seus níveis de cooperação uns com os outros.
Como pode ser melhorada a integração estruturada das PMEs na implementação de IA?
As pequenas e médias empresas (PMEs) que desenvolvem e implementam sistemas de IA enfrentam obstáculos únicos no cumprimento do Regulamento da UE sobre IA. Os desafios decorrem de prazos de implementação apertados, dinâmicas complexas das partes interessadas e custos de conformidade significativos. Portanto, uma abordagem estruturada para integrar as PMEs é crucial para fomentar a inovação e garantir condições de concorrência equitativas.
Principais Desafios para as PMEs:
- Temporal: A lacuna entre a publicação esperada de normas harmonizadas (início de 2026) e o prazo de conformidade (agosto de 2026) deixa apenas uma estreita janela para implementação, insuficiente para a maioria das PMEs.
- Estrutural: A participação limitada no processo de desenvolvimento de normas (CEN-CENELEC JTC 21) impede as PMEs de moldar regulamentos que impactam diretamente suas operações.
- Operacional: Custos de conformidade significativos (estimados entre 100.000 e 300.000 euros anualmente) e complexidades regulatórias representam um fardo desproporcional, particularmente para entidades menores.
Recomendações de Políticas para Melhorar a Integração das PMEs:
Para enfrentar esses desafios, várias recomendações de políticas podem ser implementadas:
Ajustar os Prazos de Implementação
O legislador da UE deve considerar estender o cronograma de implementação do Regulamento da IA para mitigar o gargalo causado pelos atrasos no desenvolvimento de normas harmonizadas. Isso restauraria o equilíbrio e permitiria que as empresas escolhessem sua abordagem de conformidade ideal, seja por meio de normas harmonizadas, especificações comuns ou pareceres de especialistas.
Reduzir as Barreiras à Participação
O acesso aos comitês de normalização deve ser financeiramente mais apoiado para as PMEs menores e startups, permitindo apoio especializado para os requisitos da indústria e abordando efetivamente os desafios de conformidade específicos do setor.
A Comissão Europeia ou o CEN-CENELEC devem construir redes de especialistas específicas do setor ao nível da UE que possam fornecer orientação direcionada para os desafios de conformidade específicos do setor.
Reformular a acessibilidade dos comitês de normalização por meio de uma plataforma centralizada e de fácil utilização, processos e prioridades.
Ajuda Prática para Implementação
Estabelecer ferramentas de orientação pragmáticas para a conformidade com o Regulamento da IA, com foco particular nas PMEs. Isso estaria alinhado com a obrigação do Gabinete de IA do Art. 62 do Regulamento da IA, cobrindo especificamente modelos padronizados, uma plataforma de informação única e campanhas de comunicação.
Criar programas de apoio financeiro destinados a startups pré-receita que buscam a conformidade com o Regulamento da IA. Esses programas forneceriam financiamento direto para cobrir os custos relacionados à conformidade antes que as startups estabeleçam fluxos de receita.
Os reguladores, incluindo o Gabinete de IA e as autoridades nacionais, devem atuar como prestadores de serviços, monitorando e analisando sistematicamente como as organizações implementam as normas técnicas.
Integração Estruturada das PMEs
Estabelecer e equipar rapidamente o fórum consultivo e o painel científico, conforme descrito no Art. 67 do Regulamento da IA. Esses órgãos devem incluir representação de startups e PMEs e conhecimento da indústria setorial.
Construir canais de consulta direta entre startups/PMEs de IA e órgãos reguladores, apoiados por pontos de contato claros ao nível da UE e que se estendam para além das estruturas consultivas formais.
Alinhamento de Normas
Os organismos de normalização (especialmente ISO/IEC e CEN-CENELEC) devem alinhar as normas verticais específicas da indústria com o Artigo 40 do Regulamento da IA para sistemas de IA de alto risco. Esta abordagem está alinhada com as conclusões de que alguns setores, como a saúde e a produção, já estão alavancando a experiência regulatória existente para enfrentar os desafios da IA.
Os encargos de conformidade podem ser reduzidos alavancando sistematicamente as normas existentes para consistência e interoperabilidade e facilitar a entrada nos mercados internacionais.
Ao desenvolver e implementar normas harmonizadas, é crucial evitar a criação de uma presunção de conformidade negativa, que pode aumentar significativamente o ónus de conformidade para os prestadores.
Ao implementar estas recomendações, os decisores políticos podem garantir uma integração estruturada das PMEs na implementação da IA, fomentando a inovação e promovendo o desenvolvimento ético da IA na UE.
Como os padrões devem ser alinhados para facilitar a conformidade?
Para simplificar a conformidade e reduzir o fardo sobre os provedores de IA, especialmente PMEs e startups, é crucial que os órgãos de normalização alinhem os padrões verticais específicos da indústria com os requisitos horizontais do Regulamento da UE sobre IA (Art. 40). Como o Artigo 103 e seguintes provavelmente exigirão este alinhamento, a ação antecipada pode preparar as indústrias para futuras obrigações.
Esta abordagem é apoiada pela observação de que setores como o da saúde e o da manufatura já estão alavancando sua experiência regulatória existente para navegar pelos desafios relacionados à IA. Alinhar os padrões europeus e internacionais de IA o mais próximo possível irá simplificar ainda mais os esforços de conformidade.
Aspectos Chave do Alinhamento de Padrões:
Os organismos de normalização europeus e internacionais devem cooperar mais estreitamente, garantindo, ao mesmo tempo, que essa cooperação respeite os valores europeus. Ao desenvolver e implementar normas harmonizadas, é crucial evitar uma presunção de conformidade negativa. Uma presunção de conformidade negativa – onde o não cumprimento integral das normas técnicas implica automaticamente o não cumprimento da Lei de IA – precisa ser cuidadosamente evitada. Embora a adesão às normas possa simplificar a demonstração de conformidade com os requisitos do Regulamento da IA, um grau de flexibilidade deve permanecer para levar em conta as realidades tecnológicas e evitar barreiras à entrada baseadas em normas.
Aqui estão algumas melhores práticas:
- Aproveitar as Normas Existentes: Usar sistematicamente as normas existentes para promover a consistência e a interoperabilidade, facilitando o acesso a mercados internacionais mais amplos.
- Harmonização é Fundamental: Isto se aplica às indústrias que operam na periferia do escopo direto do Regulamento da IA, como defesa e automotivo.
- Adaptar Estruturas Existentes: Em vez de criar regulamentações ou normas totalmente novas, modificar as estruturas existentes nos níveis federal e da UE para incorporar os requisitos de conformidade com a IA.
Ao promover uma normalização estratégica e direcionada, os formuladores de políticas podem evitar esforços redundantes, manter a consistência entre os setores e promover um cenário de conformidade mais simplificado e acessível para todas as partes interessadas.