A Lei de IA e a Indústria Automotiva – Para onde o caminho leva?
A Lei de IA da União Europeia (UE) não apenas impulsiona avanços em tecnologias que tornam a condução automatizada e assistida mais confortável, segura e sustentável, como também introduz uma série de riscos que podem impactar os direitos e liberdades dos indivíduos, incluindo preocupações significativas de segurança quando aplicada nas estradas.
A Lei de IA visa abordar esses riscos. Enquanto a Lei estabelece regulamentações neutras em relação a setores para o uso de IA, desenvolvimentos futuros introduzirão diretrizes específicas para a indústria automotiva.
Qual é o quadro legal atual para a IA na indústria automotiva?
Veículos autônomos e automatizados (AVs) na UE estão sujeitos a uma série de quadros regulatórios. Alguns, como o Regulamento de Quadro de Aprovação de Tipo (TAFR) — que abrange o Regulamento (UE) 2018/858 e o Regulamento (UE) 2019/2144 — focam especificamente em padrões automotivos, incluindo aprovação de veículos e vigilância do mercado. Estes são apoiados por normas internacionais, como as da Comissão Econômica para a Europa das Nações Unidas (UNECE), que estão integradas à legislação da UE.
Sob o TAFR, os veículos devem passar por um processo de aprovação de tipo para garantir conformidade antes de serem comercializados. Regulamentações adicionais, como o Regulamento Geral de Segurança de Produtos (GPSR), abordam preocupações mais amplas de segurança do produto.
Esse conjunto de regulamentações garante que os veículos atendam a padrões de segurança, ambientais e técnicos em toda a UE antes de sua entrada no mercado. Embora abranjam questões tradicionais de segurança, incluindo aspectos do uso de IA, atualmente não abordam explicitamente os riscos específicos da IA.
O que a Lei de IA regula?
A Lei de IA da UE entrou em vigor em 1º de agosto de 2024 e será implementada ao longo de um período de três anos. Ela introduz uma abordagem baseada em riscos para regular a IA. Sistemas de IA que apresentam riscos inaceitáveis — como a pontuação social ou certos tipos de vigilância em tempo real — são proibidos.
O Capítulo III aborda sistemas de IA de alto risco (HRAI), que podem ter efeitos adversos graves se falharem. Esses sistemas devem atender a requisitos rigorosos de segurança de dados, transparência, supervisão humana e robustez, e passar por uma avaliação de conformidade obrigatória antes da entrada no mercado, com monitoramento contínuo ao longo de seu ciclo de vida.
Como isso afeta o uso de IA na indústria automotiva?
A IA é cada vez mais integral aos produtos e serviços na indústria automotiva. Em sistemas autônomos e de assistência ao motorista, a IA melhora a inteligência, segurança e eficiência do veículo, analisando dados de diversos cenários de condução para tomar decisões informadas sobre a condução, aprender com as condições da estrada e monitorar a aptidão e alerta do motorista.
O papel da IA no controle da funcionalidade do veículo pode impactar significativamente os direitos e liberdades individuais. Falhas do sistema podem levar a acidentes, danos a propriedades ou ferimentos pessoais.
À primeira vista, a maioria dos sistemas autônomos e de assistência movidos por IA deve ser classificada como HRAI, dada a natureza crítica da tomada de decisões dentro do veículo. Outras aplicações de IA, como recursos de entretenimento ou conveniência, podem se enquadrar na classificação LRAI.
Para alinhar com os requisitos específicos da indústria e normas de segurança da UE harmonizadas, a Lei de IA classifica certos sistemas de IA como HRAI se forem regulamentados por outra legislação de harmonização específica (Artigo 2(2)), como o TAFR e o GPSR, que exigem avaliações de conformidade prévias e aprovação.
Quais são os requisitos de conformidade para os casos de uso de IA na indústria automotiva?
Embora os detalhes específicos das regulamentações revisadas relacionadas ao TAFR e ao GPSR ainda estejam pendentes, sem rascunhos disponíveis, as disposições HRAI e LRAI na Lei de IA fornecem uma indicação inicial das exigências regulatórias que a indústria enfrentará.
Sob a classificação de alto risco da Lei de IA, as empresas devem adotar extensa documentação, monitoramento e procedimentos de mitigação de riscos no desenvolvimento de IA. Isso inclui testes rigorosos para identificar e eliminar potenciais preconceitos, registros de transparência para rastreabilidade de decisões e garantia de qualidade abrangente ao longo do ciclo de vida do veículo.
Além disso, equipes dedicadas, incluindo auditores externos, serão necessárias para realizar avaliações de risco e garantir a conformidade contínua, tornando os requisitos da Lei de IA tecnicamente complexos, dispendiosos e intensivos em recursos.
Qual é o impacto sobre empresas não pertencentes à UE?
A Lei de IA se aplica amplamente a sistemas de IA introduzidos ou utilizados na UE ou no EEE, incluindo modelos de uso geral, independentemente da localização do fornecedor. Esse alcance se estende a operadores não pertencentes à UE/EEE cujas saídas de IA, como previsões ou recomendações, são utilizadas nessas regiões.
Como resultado, empresas não pertencentes à UE, como aquelas baseadas nos EUA, China, Coreia do Sul ou Japão, devem cumprir a Lei de IA se comercializarem sistemas de IA ou utilizarem saídas geradas por IA na UE.
Esse escopo extraterritorial exige que qualquer fabricante automotivo ou prestador de serviços que entre no mercado da UE aborde requisitos regulatórios sobrepostos. Por exemplo, uma empresa com sede nos EUA pode precisar cumprir os rigorosos requisitos de IA de alto risco da UE, enquanto também adere a regulamentos diferentes ou menos rigorosos em seu país de origem.
Assim, muitas empresas podem optar por adotar os altos padrões da UE globalmente, potencialmente levando a uma harmonização gradual dos padrões de segurança de IA em todo o mundo, se outros mercados importantes se alinharem com os princípios da UE.