O Que os Construtores de Máquinas Precisam Saber Sobre a Lei de IA da UE

O que os construtores de máquinas precisam saber sobre a Lei de IA da UE

A Lei de IA da UE define quatro níveis de risco para sistemas de IA. A legislação, publicada no ano passado, pode ter implicações significativas para os construtores de máquinas. A IA está se tornando uma realidade e começa a impactar nossas vidas pessoais e profissionais. Os construtores de máquinas já estão considerando o uso de IA para diversas tarefas, incluindo controle de sistemas para automação e robótica.

Dependendo de como os sistemas de IA são implantados, podem haver implicações de segurança. Por exemplo, a IA pode determinar como um robô reage quando uma pessoa entra em sua zona de operação. Se a ideia de usar IA para sistemas de controle relacionados à segurança parece far-fetched, é importante lembrar a ceticismo generalizado quando os sistemas eletrônicos programáveis de segurança (PESs) foram introduzidos. Muitos engenheiros relutaram em confiar no software para funções de segurança, mas esses sistemas agora são comprovados e comuns.

A Comissão Europeia decidiu legislar com o objetivo de promover a adoção de IA que seja centrada no ser humano e confiável. A Lei de IA, também conhecida como Regulamento de IA, refere-se à proteção de direitos fundamentais e princípios éticos. Certos tipos de sistemas de IA que apresentam riscos inaceitáveis estão sendo proibidos, como aqueles que exploram vulnerabilidades individuais e aqueles que utilizam técnicas subliminares para distorcer comportamentos.

Datas Chave

No dia 1 de agosto de 2024, o Regulamento de Inteligência Artificial (UE) 2024/1689 entrou em vigor como a Lei de IA, e a maioria da legislação se aplica a partir de 2 de agosto de 2026. Contudo, a data de maior interesse para os construtores de máquinas é 2 de agosto de 2027, porque é quando os sistemas de IA de alto risco usados como componentes de segurança se tornam regulamentados.

No Reino Unido, o governo não está introduzindo legislação de IA, pois acredita que as leis existentes são suficientes. No entanto, a situação será mantida sob revisão enquanto o governo aguarda o desenvolvimento de riscos e oportunidades.

Enquanto isso, os construtores de máquinas do Reino Unido que fornecem máquinas para a UE terão que cumprir a Lei de IA. Se um sistema de IA opera fora da UE e seu resultado impacta pessoas dentro da UE, ele também precisa estar em conformidade – embora essa situação seja improvável para sistemas de IA usados como componentes de segurança em máquinas.

Passos para a Conformidade

Antes que um sistema de IA seja colocado no mercado ou utilizado pela primeira vez na UE, ele precisa ser marcado CE. Isso é verdade se um sistema de IA é fornecido sozinho ou embutido em um produto, como uma máquina. Se um sistema de IA é embutido em um produto, o fabricante do produto se torna responsável pelo sistema de IA e assume as obrigações de um “fornecedor”.

A Lei de IA diferencia entre “fornecedores” e “implantadores”. Por exemplo, um construtor de máquinas seria o fornecedor de um sistema de IA, enquanto o usuário final seria o implantador.

O processo de marcação CE apresenta várias semelhanças com a marcação CE segundo a Diretiva de Máquinas. A maioria das etapas para a conformidade será, portanto, familiar para quem já marcou uma máquina segundo a Diretiva de Máquinas.

A Lei de IA define várias categorias de sistemas de IA. Para os construtores de máquinas, a categoria de interesse são os sistemas de IA de alto risco usados como componentes de segurança. Esses sistemas são aqueles com potencial para ter um impacto significativo na saúde, segurança ou direitos fundamentais das pessoas. Grande parte da Lei de IA se aplica a outros tipos de sistemas de IA, portanto, nem todas as 144 páginas do Regulamento (UE) 2024/1689 são relevantes para os construtores de máquinas.

Assim como na Diretiva de Máquinas, a Lei de IA estabelece procedimentos a serem seguidos para a avaliação de conformidade. A lei abrange tanto a auto-certificação quanto o uso de organismos de avaliação de terceiros (Organismos Notificados). Felizmente, a auto-certificação deve ser adequada para sistemas de IA usados como componentes de segurança. No entanto, se um Organismo Notificado certifica a conformidade, a certificação expira após cinco anos e o sistema de IA precisará ser reavaliado e recertificado.

A maneira mais fácil de demonstrar conformidade com os requisitos da Lei de IA é aplicar normas que sejam harmonizadas com a Lei. Até agora, as normas ainda não foram escritas ou harmonizadas, mas devem estar prontas até agora (final de abril de 2025).

Se normas adequadas não estiverem disponíveis ou se a Comissão Europeia as considerar inadequadas, a Lei de IA permite “Atos de Implementação” para estabelecer especificações comuns. Cumprir essas especificações comuns fornecerá uma presunção de conformidade da mesma forma que cumprir normas harmonizadas.

Além das normas harmonizadas e/ou especificações comuns, a Comissão Europeia publicará diretrizes sobre a aplicação da Lei de IA.

Declaração de Conformidade

Uma vez que um sistema de IA tenha sido avaliado como estando em conformidade com os requisitos da Lei, uma Declaração de Conformidade (DoC) pode ser elaborada. Se um sistema de IA estiver embutido em outro produto, como uma máquina, a DoC pode ser incorporada à DoC da Diretiva de Máquinas da máquina. Da mesma forma, a documentação técnica compilada para atender à Lei de IA pode ser incorporada àquela relacionada à Diretiva de Máquinas.

Para indicar a conformidade reivindicada, os sistemas de IA de alto risco devem ter um marca CE física aplicada. Onde isso não for possível, a marca deve ser aplicada à embalagem ou documentação acompanhante. A marca física pode ser complementada por uma marca CE digital.

Para sistemas de IA de alto risco que são fornecidos apenas digitalmente, deve ser utilizada uma marca CE digital. Se uma máquina marcada CE incluir um sistema de IA de alto risco embutido usado como componente de segurança, então a marcação CE da máquina deve indicar conformidade tanto com a Diretiva de Máquinas quanto com a Lei de IA.

Um ponto importante a notar para fornecedores localizados fora da UE é que a Lei de IA exige a nomeação de um Representante Autorizado (AR). O AR deve ser uma pessoa natural ou jurídica na UE e deve possuir um mandato do fornecedor para realizar certas tarefas sob a Lei de IA. Tanto as instruções quanto a DoC devem mostrar a identidade e os detalhes de contato do AR.

Outro ponto a ser observado sobre os detalhes da Lei de IA é que os sistemas de IA de alto risco devem ser projetados de forma que as pessoas possam supervisionar seu funcionamento. Para um sistema de IA usado como componente de segurança, será interessante ver como os construtores de máquinas cumprirão esse requisito.

Obrigações Contínuas

Após um sistema de IA de alto risco ser colocado no mercado, o fornecedor é obrigado a realizar monitoramento pós-mercado durante a vida útil do sistema. Se ocorrerem incidentes graves, estes devem ser reportados à autoridade de vigilância do mercado relevante.

Os sistemas de IA de alto risco usados como componentes de segurança devem ter registro automático de eventos, o que auxiliará na vigilância pós-mercado.

Se um sistema de IA passar por uma modificação substancial, sua conformidade deve ser reavaliada. “Modificação substancial” inclui usar um sistema de IA para um propósito para o qual não foi originalmente destinado.

Dentro da Lei de IA, existem regras que governam penalidades por não conformidade, incluindo a falha em fornecer às autoridades relevantes informações ou acesso quando solicitado. As penalidades podem ser aplicadas a fornecedores, implantadores, importadores, distribuidores e representantes autorizados, bem como a organismos notificados.

As penalidades assumem a forma de multas que podem chegar até €15 milhões ou 3% do faturamento anual mundial de uma organização. Multas relacionadas a sistemas de IA proibidos são substancialmente mais altas.

More Insights

Colaboração Crucial entre Privacidade e TI na Adoção de IA

A adoção de IA está rapidamente transformando as dinâmicas entre profissionais de privacidade e TI, exigindo uma colaboração mais próxima para evitar riscos. Especialistas destacam a importância de...

DeepSeek: A Revolução da Governança Social na China

O DeepSeek é um novo modelo de linguagem que está sendo utilizado na China para guiar a opinião pública e garantir a estabilidade social, enquanto propaga a linha do Partido Comunista. Embora tenha...

Carolina do Norte Nomeia I-Sah Hsieh como Líder em Governança de IA

A Carolina do Norte nomeou I-Sah Hsieh como o primeiro líder de governança e política de IA do estado, com o objetivo de promover o avanço ético da tecnologia. Hsieh, com 25 anos de experiência na...

Caminhos para a Governança da IA no Fórum de Xangai 2025

Especialistas de todo o mundo discutiram os desafios de governança decorrentes do avanço rápido da inteligência artificial durante o subfórum do Fórum de Xangai 2025. Eles enfatizaram a importância de...

Construindo uma Malásia Preparada para IA: A Importância da Governança de Dados

A inteligência artificial (IA) está revolucionando indústrias em todo o mundo, e a Malásia não é exceção. Para garantir uma adoção ética e segura da IA, é crucial estabelecer estruturas robustas de...

Universidades como Protagonistas no Futuro da IA

A inteligência artificial se tornou a nova linha de falha geopolítica, e as universidades estão no centro dessa questão. Elas devem navegar nas complexas políticas nacionais de IA para proteger sua...