Legislação da UE Após a Lei de IA: Bruxelas Considera Novas Regras de Responsabilidade
A União Europeia (UE) iniciou uma consulta sobre um proposta de Diretiva de Responsabilidade da IA (AILD). Esta diretiva estabeleceria um regime de responsabilidade para desenvolvedores e usuários de IA.
Algumas das questões principais que a consulta irá explorar incluem a necessidade de tal diretiva e se a nova legislação deve obrigar a contratação de seguro de responsabilidade para IA.
Contexto da AILD
Com a Lei de IA da UE agora oficialmente em vigor, os legisladores voltaram sua atenção para a próxima proposta legislativa voltada para a tecnologia de inteligência artificial. A AILD, proposta pela primeira vez em 2022, visa criar uma estrutura de responsabilidade civil unificada em toda a UE para danos causados por sistemas de IA.
No entanto, a consulta lançada em 3 de fevereiro aponta para opiniões divididas sobre a legislação proposta.
É Necessário Mais Regras de IA na UE?
Quando a Comissão Europeia inicialmente propôs a AILD, a IA era regulamentada por um emaranhado de leis nacionais e da UE, muitas escritas em contextos tecnológicos completamente diferentes.
Desde então, a Lei de IA harmonizou a estrutura regulatória que cobre o uso e desenvolvimento da tecnologia. Em 2024, a UE também atualizou a Diretiva de Responsabilidade do Produto (PLD) para adaptá-la à era digital, incorporando uma nova seção sobre “software e sistemas de IA” que descreve as responsabilidades dos desenvolvedores para com os usuários.
Opiniões Diversificadas
Alguns interessados argumentam que a PLD cobre adequadamente todos os cenários potenciais de responsabilidade da IA, tornando a AILD desnecessária. No entanto, uma avaliação de impacto do Parlamento Europeu concluiu que várias questões permanecem sem resposta pela PLD revisada.
A PLD atualmente estabelece responsabilidade apenas para usuários de IA profissionais ou corporativos, deixando um “vácuo regulatório” em relação aos danos causados por usuários de IA não profissionais.
Além disso, a PLD especifica uma gama estreita de danos elegíveis para compensação, o que, segundo a avaliação de impacto, cria “lacunas significativas” na cobertura. Por exemplo, a diretiva não cobre casos em que a IA leva a resultados discriminatórios, violações do direito à privacidade e dignidade das pessoas ou questões relativas ao impacto ambiental e climático dos sistemas de IA.
Considerações sobre Seguro de Responsabilidade da IA
Uma das questões propostas pela consulta da AILD é se a diretiva deve incluir uma obrigação de assegurar contra riscos de responsabilidade da IA. A posição da Comissão Europeia é que todos os operadores de sistemas de IA de alto risco devem possuir seguro de responsabilidade.
Isso pode impor custos adicionais significativos às empresas que criam tecnologia considerada de alto risco sob o Artigo 6 da Lei de IA. Por exemplo, desenvolvedores de ferramentas de vigilância biométrica podem ser obrigados a garantir contra o risco de identificação falsa.
Conforme descrito na consulta, a perspectiva de exigir seguro de responsabilidade da IA levanta a questão de se as seguradoras possuem dados suficientes para subescrever riscos de IA de forma eficaz. Um relatório recente da Deloitte identificou uma escassez global de produtos de seguro relacionados à IA, observando que “a falta de dados históricos sobre o desempenho dos modelos de IA e a rapidez com que estão evoluindo podem dificultar a avaliação e precificação de riscos”.
Próximos Passos da Diretiva de Responsabilidade da IA
Após a consulta de seis semanas, o relator da AILD do Parlamento Europeu, Axel Voss, apresentará as conclusões em junho. Ele abrirá então uma segunda consulta de doze semanas.
O Parlamento e a Comissão Europeia realizarão negociações sobre a diretiva proposta entre setembro e dezembro. A Comissão de Assuntos Jurídicos deve votar o documento final em janeiro de 2026, antes de uma sessão plenária final em fevereiro.