Impactos da Lei de IA da UE nas Empresas e Esforços de Simplificação

O Impacto da Lei de IA da UE nas Empresas: Esforços de Simplificação

A Lei de Inteligência Artificial (IA) da União Europeia já está causando um impacto significativo nos negócios, tanto dentro quanto fora do bloco econômico. Entre os efeitos estão o aumento da complexidade, desafios de adaptação e custos de conformidade.

No entanto, há também alguns aspectos positivos, conforme especialistas em negócios citados pela mídia financeira. A UE demonstrou uma aplicação rigorosa das regras em relação a empresas estrangeiras de IA que operam em seu mercado, incluindo a proibição de aplicativos e o lançamento de investigações sobre privacidade. Essas ações de aplicação demonstram que a UE está preocupada com a treinamento de dados opaco, o que pode levar a regras internacionais de transferência de dados mais rigorosas.

As implicações da Lei de IA são mais significativas para desenvolvedores de IA europeus menores, uma vez que grandes empresas de tecnologia já possuem controles rigorosos para seus produtos de IA. No entanto, a regulamentação também criará oportunidades para empresas que se especializam em IA confiável, explicabilidade e segurança da IA. Empresas europeias grandes podem se beneficiar de soluções de IA que são compliant e impulsionadas por regulamentações.

Ainda há muita incerteza sobre como a regulamentação de IA mais abrangente do mundo será aplicada e aplicada. O impacto dependerá da aplicação em todos os membros da UE, o que pode não ser igual. A Lei de IA também provavelmente será debatida como parte das negociações comerciais com os EUA.

A UE Considerando a Simplificação da Lei de IA

Enquanto o setor empresarial debate os possíveis efeitos da Lei de IA, os burocratas europeus já estão propondo a simplificação da regulamentação com base nas contribuições do setor. A UE deseja que a IA se torne o “modelo de inovação” e um instrumento para ajudar “todas as empresas”, disse Roberto Viola, diretor do departamento digital da Comissão Europeia, esta semana.

“Estamos muito determinados a simplificar – quando necessário – as regras,” afirma Viola. “Ouvimos atentamente sobre o risco potencial de haver mais um fardo sobre as empresas, especialmente em termos de obrigações de relato, e de como poderia ser complicado cumprir uma ou outra disposição da Lei de IA.”

Uma das áreas que pode ser simplificada é a obrigação de relato. De acordo com o regulamento, os provedores e usuários de sistemas de IA devem informar qualquer pessoa exposta a ele, a menos que isso seja óbvio a partir do contexto. Espera-se que os estados membros da UE comecem consultas sobre a simplificação da lei na próxima semana.

Viola também destacou a importância de padrões para a abordagem da UE em relação à IA, incluindo aqueles que medem, avaliam ou realizam avaliações de conformidade de terceiros. No entanto, os padrões técnicos ainda têm um longo caminho a percorrer antes de serem oficialmente reconhecidos.

O Reino Unido e a Avaliação de Segurança da IA

No Reino Unido, o governo está adotando uma abordagem mais distante em relação à regulamentação da IA. O Instituto de Segurança de IA do Reino Unido (UK AISI), a agência governamental encarregada da segurança da IA, afirma que as avaliações de risco da IA são uma “ciência emergente” e não suficientemente maduras para emitir certificados de segurança.

As opiniões foram compartilhadas esta semana pelo diretor do instituto, Oliver Ilott, durante a Cúpula Global de Normas de IA em Londres. “As avaliações que estamos realizando não cobrem todos os riscos, e as avaliações são uma ciência emergente,” afirma Ilott. “Acreditamos que não é suficientemente madura para que se possa emitir um certificado de segurança.”

Atualmente, não há regulamentação no Reino Unido que exija que os desenvolvedores de modelos de IA testem seus modelos pré-implantação através de órgãos como o UK AISI. O instituto também não fornece um certificado de segurança na conclusão, segundo o MLex.

Uma vez que o instituto não pode forçar os testes, a cooperação dos desenvolvedores é baseada no desejo deles de descobrir problemas na tecnologia que criaram, afirma Ilott. Padrões maduros para aplicações de IA atuais também não devem ser esperados porque os desenvolvedores estão concentrando seus esforços na criação de tecnologias ainda mais disruptivas, acrescenta.

More Insights

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...