Simplificando o GDPR e a Lei de IA para uma Europa Forte
O Regulamento Geral sobre a Proteção de Dados (GDPR) complica o uso necessário e desejável de dados e IA. Já vivenciamos como a tecnologia de IA pode ser utilizada para resolver grandes desafios sociais. Portanto, as empresas envolvidas no desenvolvimento e uso de novas soluções de IA precisam de um quadro regulatório mais razoável para que possamos aproveitar o potencial da IA de maneira segura e eficiente.
Por muitos anos, tem sido considerado um sinal de sucesso político dentro da UE a adoção de pacotes regulatórios massivos relacionados a novos fenômenos digitais (a Lei de IA, a Lei de Dados, a Lei de Serviços Digitais, entre outras). Essas iniciativas regulatórias são frequentemente baseadas em uma análise de problemas correta, mas seu design prático cria dificuldades para que empresas legítimas cumpram todas as regras. Além disso, há uma relutância em revisar e aprimorar reformas legais existentes, como o GDPR, mesmo quando necessário para evitar obstáculos injustificados ao uso da IA. O resultado é que a Europa fica para trás no desenvolvimento tecnológico global, enquanto os EUA e a China avançam rapidamente.
Não é exagero afirmar que a competitividade sueca depende da capacidade das empresas de desenvolver e utilizar IA, para desenvolvimento de produtos e análises, segurança aprimorada e aumento da eficiência, para citar alguns. Para empresas que não estão na vanguarda do desenvolvimento tecnológico, a capacidade de usar soluções de IA desenvolvidas por outras é um fator crucial de sucesso.
Desafios e Oportunidades
Como notou a Comissão de IA do governo sueco, existem vários desafios para as empresas que desejam aproveitar essas novas oportunidades. Isso é especialmente verdadeiro para os desafios associados às regulamentações sobre o uso de dados e IA. Para que a Europa seja competitiva em IA, várias medidas são necessárias, algumas das quais são particularmente urgentes:
- Simplificar as possibilidades de uso de dados pessoais para treinar e adaptar sistemas e modelos de IA, desde que sejam tomadas medidas de mitigação de riscos simultaneamente. O acesso a (grandes volumes de) dados de alta qualidade é essencial para criar modelos e sistemas de IA precisos. Muitas vezes, é necessário usar dados pessoais, mesmo que o objetivo do processo de treinamento não seja obter informações sobre indivíduos, mas sim usar esses dados para treinar modelos e sistemas. Diretrizes emitidas por autoridades de proteção de dados ilustram que o GDPR muitas vezes impede ou complica significativamente o desenvolvimento de soluções de IA, mesmo que os riscos para os indivíduos sejam limitados se medidas apropriadas forem tomadas durante o processo de treinamento.
- Não fechar a porta para a tomada de decisões automatizadas. As regras do GDPR sobre a tomada de decisões automatizadas limitam significativamente a capacidade das empresas de usar IA em decisões que envolvem clientes. É claro que existem riscos associados à permissão para que sistemas de IA tomem decisões automatizadas, e tal tomada de decisão não é adequada em todos os contextos, mas a regulamentação atual é injustificadamente restritiva e não considera plenamente os benefícios e riscos em cada caso individual.
- Remover regulamentações sobrepostas e tornar a regulamentação mais baseada em riscos. As leis relacionadas a novos fenômenos digitais são frequentemente sobrepostas ao longo do tempo, criando um quadro regulatório complexo que, na prática, dificulta a inovação e os negócios. Uma solução para o problema descrito no ponto anterior seria remover a regulamentação do GDPR sobre decisões automatizadas e, em vez disso, governá-la totalmente com base no nível de risco sob a Lei de IA.
- Uma revisão geral da Lei de IA é necessária com o objetivo de simplificar a regulamentação. A ambição de criar uma regulamentação baseada em riscos era totalmente correta, mas a regulamentação final tornou-se, em muitos aspectos, um quadro burocrático e inadministrável.
A IA não deve ser, e nunca foi, não regulamentada. Seu desenvolvimento e uso já são regidos por várias áreas do direito, como segurança de produtos, responsabilidade e discriminação. Particularmente importantes são as regras rígidas sobre o processamento de dados pessoais encontradas no GDPR. No ano passado, uma nova e abrangente Lei de IA também foi adotada. A regulamentação impõe requisitos abrangentes tanto para empresas que desenvolvem novos sistemas e modelos de IA quanto para aquelas que usam sistemas de IA em suas operações.
É claro que é totalmente apropriado que requisitos legais, por exemplo, em relação ao tratamento de dados pessoais, também se apliquem no desenvolvimento e uso de IA. Como o uso de IA envolve riscos, uma regulamentação específica sobre IA pode ser justificada. No entanto, o ônus regulatório geral, juntamente com a falta de clareza e a injustificada restritividade de certas regras, cria grandes desafios para empresas suecas sérias e responsáveis que investem em IA.
Após o relatório de Mario Draghi sobre os desafios de competitividade da UE no ano passado, os ventos estão mudando, e a necessidade de um ônus regulatório mais razoável está agora sendo discutida seriamente. Esta discussão é há muito esperada, mas para realmente beneficiar o setor empresarial, deve ser seguida por ações concretas, especialmente no que diz respeito às condições para o uso da IA.
Implementar as novas ambições de aliviar o ônus regulatório sobre as empresas é necessário para uma capacidade tecnológica bem-sucedida e bem equipada na Suécia e na Europa.