Navegando a interseção entre a proteção de dados e a regulamentação da IA
A proteção de dados e a regulamentação da inteligência artificial (IA) são temas cada vez mais relevantes no cenário tecnológico atual. A inteligência artificial é alimentada por dados, e sem eles, a eficácia dos sistemas de IA é comprometida.
Regulamentações de proteção de dados
As versões do Regulamento Geral sobre a Proteção de Dados (GDPR) do Reino Unido e da UE se aplicam a diversos setores e vão além das fronteiras do Reino Unido e da UE. Organizações que utilizam qualquer sistema de IA para processar dados pessoais devem cumprir o GDPR, ou outras leis de proteção de dados aplicáveis. Violações podem resultar em multas significativas. Em 2023, por exemplo, a autoridade de proteção de dados da Itália iniciou uma investigação contra a OpenAI, resultando em multas de €15 milhões por violação das obrigações do GDPR relacionadas ao uso de dados pessoais.
Regras de proteção de dados: Na lista de vigilância regulatória
Para ajudar as empresas a se adequarem, o Escritório do Comissário de Informação (ICO) do Reino Unido e o Conselho Europeu de Proteção de Dados emitiram uma série de materiais orientadores. Essas orientações abordam as Avaliações de Impacto sobre a Proteção de Dados (DPIAs), que permitem a análise dos fluxos de dados e a identificação de danos potencialmente discriminatórios, como o uso de ferramentas de IA que discriminam com base em gênero.
Lawrence Brown, parceiro da Simmons & Simmons, ressalta que as organizações não podem simplesmente se afastar da “caixa preta da IA” e alegar que não sabem o que está acontecendo. Elas devem ser capazes de explicar, de maneira transparente, como as decisões e resultados da IA são gerados, as inferências feitas pelo sistema de IA e os direitos dos indivíduos sobre os dados modificados.
A Lei de IA da UE: um divisor de águas global
A IA, assim como a internet e outras inovações tecnológicas, está sujeita a regras que são neutras em tecnologia. Entretanto, a influência monumental da IA levou à criação de sua própria legislação específica. A Lei de IA da UE, que entrou em vigor em agosto de 2023, é a primeira coleção abrangente de leis específicas sobre IA. Sua aplicação é de risco claro e as multas por violações podem chegar a €35 milhões ou 7% do faturamento global.
A Lei categoriza a IA de acordo com o risco, proibindo práticas como a pontuação social e manipulação subliminar. Sistemas de IA de alto risco, como os usados em biometria ou aplicação da lei, possuem obrigações rigorosas.
Andrew Joint, parceiro especializado em tecnologia, observa as dificuldades de legislar sobre uma tecnologia que se desenvolve rapidamente. Ele menciona um guia pós-aplicação de 140 páginas sobre a definição de sistemas de IA proibidos, indicando os desafios enfrentados nesse ambiente complexo.
Prioridades de conformidade para usuários de IA
As empresas estão se acostumando a acomodar as obrigações do GDPR, mas agora devem também cumprir a Lei de IA da UE. Algumas recomendações para se preparar para a conformidade incluem:
- Planejar uma devida diligência apropriada sobre fornecedores que utilizam IA para processar dados pessoais.
- Buscar proteções contratuais adequadas em negociações com provedores de sistemas de IA.
- Exigir envolvimento humano e supervisão nas decisões da IA.
- Praticar a privacidade desde a concepção, incorporando considerações de proteção de dados desde o início do desenvolvimento do sistema de IA.
- Realizar DPIAs regulares para identificar riscos e formas de mitigá-los.
- Acompanhar as regras de proteção de dados e as leis de IA em evolução.
As empresas estão apenas começando a experimentar a IA e enfrentam uma convergência massiva de legislação e orientações. No entanto, é essencial que permaneçam ágeis e proativas em suas estratégias de conformidade para garantir que estão prontas para se adaptar a novas regulamentações e avanços tecnológicos.