Revisões Minuciosas das Capacidades de IA dos Alvos: Um Estudo sobre a Nova Legislação da UE
Com a entrada em vigor das novas obrigações do Regulamento de Inteligência Artificial da União Europeia (EU AI Act) programada para agosto, torna-se crucial para os envolvidos no mercado de fusões e aquisições (M&A) considerar como essas regulamentações afetarão suas decisões. A legislação se aplica a modelos de IA de uso geral (GPAI) e traz implicações significativas para organizações que desenvolvem ou implementam sistemas de IA.
Obrigações Significativas no Contexto de M&A
O AI Act introduz obrigações que exigem que organizações que fornecem e implantam certos sistemas de IA realizem uma due diligence aprimorada. Isso significa que os negociadores precisam garantir que o alvo tenha um inventário claro de seus modelos GPAI e sistemas de IA, compreendendo como são utilizados e quais passos estão sendo tomados em direção à conformidade. Essa análise formará a base da proteção contratual necessária no acordo de compra e influenciará a conformidade contínua do alvo após a conclusão do negócio.
Abordagem do Regulamento em Relação à IA
O AI Act adota uma abordagem baseada em riscos. Quanto maior o risco que um sistema de IA representa, mais rigorosas serão as obrigações impostas. Por exemplo, práticas de IA que criam bancos de dados de reconhecimento facial através da coleta não direcionada de imagens faciais da internet são proibidas. Além disso, sistemas de IA considerados de alto risco, como aqueles que funcionam como componentes de segurança em dispositivos médicos, têm obrigações materiais impostas a desenvolvedores e usuários.
Uso de Recursos de IA em Materiais de Vendas
Atualmente, a presença de recursos de IA nos materiais de vendas é considerada não prevalente. Observa-se que os compradores estão liderando a diligência, em vez de os vendedores destacarem esses recursos. É fundamental que uma revisão minuciosa das capacidades de IA ocorra no início do processo de due diligence, uma vez que a natureza dessas tecnologias pode influenciar sua conformidade com a legislação aplicável.
Aplicação do AI Act a Entidades Fora da UE
O AI Act se aplica a “fornecedores e implantadores de sistemas de IA localizados em países terceiros, onde a saída produzida pelo sistema de IA é utilizada na União”. Por exemplo, se uma empresa com sede na UE contrata uma externa para realizar uma tarefa usando um sistema de IA de alto risco, o regulamento ainda se aplica, mesmo que o sistema não seja diretamente utilizado na UE.
Identificação de Saídas de Sistemas de IA
A identificação da saída será relativamente simples quando visível e marcada, como no caso de imagens ou vídeos sintéticos. No entanto, pode ser desafiador quando a saída é invisível, como em um componente de segurança que controla funcionalidades de um produto. As autoridades podem identificar o sistema de IA por outros meios, como a divulgação durante uma avaliação de conformidade.
Penas por Não Conformidade
As penalidades máximas por não conformidade podem chegar a €35 milhões ou 7% do faturamento anual mundial, o que é mais rigoroso do que as penalidades do Regulamento Geral sobre a Proteção de Dados (GDPR). Embora existam fatores a serem considerados ao decidir sobre multas administrativas, é difícil prever a aplicação das penalidades, uma vez que dependerá das circunstâncias individuais de cada caso.
Considerações para Investidores de Private Equity
Os patrocinadores de Private Equity podem ser responsabilizados por qualquer violação do AI Act por suas empresas portfólio. Reguladores e tribunais podem aplicar critérios semelhantes aos utilizados para determinar a responsabilidade parental em violações das regras de concorrência da UE, analisando se o investidor teve influência decisiva sobre a empresa.
Reflexões Finais sobre o Uso Interno de IA
Os investidores devem considerar como o AI Act se aplica ao uso interno de IA, avaliando sistemas disponíveis no mercado que possam acelerar processos decisórios e melhorar análises de dados. A conformidade com o regulamento deve ser uma análise contínua, não um evento isolado.
Além disso, é essencial que os interessados estejam cientes das obrigações impostas a provedores e implantadores de sistemas de IA de alto risco e modelos GPAI. À medida que as obrigações começam a se aplicar, as empresas devem se preparar com antecedência e adaptar suas práticas de acordo para evitar complicações futuras.