O Impacto da Lei de IA da UE nas Empresas: Esforços de Simplificação
A Lei de Inteligência Artificial (IA) da União Europeia já está causando um impacto significativo nos negócios, tanto dentro quanto fora do bloco econômico. Entre os efeitos estão o aumento da complexidade, desafios de adaptação e custos de conformidade.
No entanto, há também alguns aspectos positivos, conforme especialistas em negócios citados pela mídia financeira. A UE demonstrou uma aplicação rigorosa das regras em relação a empresas estrangeiras de IA que operam em seu mercado, incluindo a proibição de aplicativos e o lançamento de investigações sobre privacidade. Essas ações de aplicação demonstram que a UE está preocupada com a treinamento de dados opaco, o que pode levar a regras internacionais de transferência de dados mais rigorosas.
As implicações da Lei de IA são mais significativas para desenvolvedores de IA europeus menores, uma vez que grandes empresas de tecnologia já possuem controles rigorosos para seus produtos de IA. No entanto, a regulamentação também criará oportunidades para empresas que se especializam em IA confiável, explicabilidade e segurança da IA. Empresas europeias grandes podem se beneficiar de soluções de IA que são compliant e impulsionadas por regulamentações.
Ainda há muita incerteza sobre como a regulamentação de IA mais abrangente do mundo será aplicada e aplicada. O impacto dependerá da aplicação em todos os membros da UE, o que pode não ser igual. A Lei de IA também provavelmente será debatida como parte das negociações comerciais com os EUA.
A UE Considerando a Simplificação da Lei de IA
Enquanto o setor empresarial debate os possíveis efeitos da Lei de IA, os burocratas europeus já estão propondo a simplificação da regulamentação com base nas contribuições do setor. A UE deseja que a IA se torne o “modelo de inovação” e um instrumento para ajudar “todas as empresas”, disse Roberto Viola, diretor do departamento digital da Comissão Europeia, esta semana.
“Estamos muito determinados a simplificar – quando necessário – as regras,” afirma Viola. “Ouvimos atentamente sobre o risco potencial de haver mais um fardo sobre as empresas, especialmente em termos de obrigações de relato, e de como poderia ser complicado cumprir uma ou outra disposição da Lei de IA.”
Uma das áreas que pode ser simplificada é a obrigação de relato. De acordo com o regulamento, os provedores e usuários de sistemas de IA devem informar qualquer pessoa exposta a ele, a menos que isso seja óbvio a partir do contexto. Espera-se que os estados membros da UE comecem consultas sobre a simplificação da lei na próxima semana.
Viola também destacou a importância de padrões para a abordagem da UE em relação à IA, incluindo aqueles que medem, avaliam ou realizam avaliações de conformidade de terceiros. No entanto, os padrões técnicos ainda têm um longo caminho a percorrer antes de serem oficialmente reconhecidos.
O Reino Unido e a Avaliação de Segurança da IA
No Reino Unido, o governo está adotando uma abordagem mais distante em relação à regulamentação da IA. O Instituto de Segurança de IA do Reino Unido (UK AISI), a agência governamental encarregada da segurança da IA, afirma que as avaliações de risco da IA são uma “ciência emergente” e não suficientemente maduras para emitir certificados de segurança.
As opiniões foram compartilhadas esta semana pelo diretor do instituto, Oliver Ilott, durante a Cúpula Global de Normas de IA em Londres. “As avaliações que estamos realizando não cobrem todos os riscos, e as avaliações são uma ciência emergente,” afirma Ilott. “Acreditamos que não é suficientemente madura para que se possa emitir um certificado de segurança.”
Atualmente, não há regulamentação no Reino Unido que exija que os desenvolvedores de modelos de IA testem seus modelos pré-implantação através de órgãos como o UK AISI. O instituto também não fornece um certificado de segurança na conclusão, segundo o MLex.
Uma vez que o instituto não pode forçar os testes, a cooperação dos desenvolvedores é baseada no desejo deles de descobrir problemas na tecnologia que criaram, afirma Ilott. Padrões maduros para aplicações de IA atuais também não devem ser esperados porque os desenvolvedores estão concentrando seus esforços na criação de tecnologias ainda mais disruptivas, acrescenta.