Impactos do Novo Regulamento de IA da UE nas Fusões e Aquisições

Revisões Minuciosas das Capacidades de IA dos Alvos: Um Estudo sobre a Nova Legislação da UE

Com a entrada em vigor das novas obrigações do Regulamento de Inteligência Artificial da União Europeia (EU AI Act) programada para agosto, torna-se crucial para os envolvidos no mercado de fusões e aquisições (M&A) considerar como essas regulamentações afetarão suas decisões. A legislação se aplica a modelos de IA de uso geral (GPAI) e traz implicações significativas para organizações que desenvolvem ou implementam sistemas de IA.

Obrigações Significativas no Contexto de M&A

O AI Act introduz obrigações que exigem que organizações que fornecem e implantam certos sistemas de IA realizem uma due diligence aprimorada. Isso significa que os negociadores precisam garantir que o alvo tenha um inventário claro de seus modelos GPAI e sistemas de IA, compreendendo como são utilizados e quais passos estão sendo tomados em direção à conformidade. Essa análise formará a base da proteção contratual necessária no acordo de compra e influenciará a conformidade contínua do alvo após a conclusão do negócio.

Abordagem do Regulamento em Relação à IA

O AI Act adota uma abordagem baseada em riscos. Quanto maior o risco que um sistema de IA representa, mais rigorosas serão as obrigações impostas. Por exemplo, práticas de IA que criam bancos de dados de reconhecimento facial através da coleta não direcionada de imagens faciais da internet são proibidas. Além disso, sistemas de IA considerados de alto risco, como aqueles que funcionam como componentes de segurança em dispositivos médicos, têm obrigações materiais impostas a desenvolvedores e usuários.

Uso de Recursos de IA em Materiais de Vendas

Atualmente, a presença de recursos de IA nos materiais de vendas é considerada não prevalente. Observa-se que os compradores estão liderando a diligência, em vez de os vendedores destacarem esses recursos. É fundamental que uma revisão minuciosa das capacidades de IA ocorra no início do processo de due diligence, uma vez que a natureza dessas tecnologias pode influenciar sua conformidade com a legislação aplicável.

Aplicação do AI Act a Entidades Fora da UE

O AI Act se aplica a “fornecedores e implantadores de sistemas de IA localizados em países terceiros, onde a saída produzida pelo sistema de IA é utilizada na União”. Por exemplo, se uma empresa com sede na UE contrata uma externa para realizar uma tarefa usando um sistema de IA de alto risco, o regulamento ainda se aplica, mesmo que o sistema não seja diretamente utilizado na UE.

Identificação de Saídas de Sistemas de IA

A identificação da saída será relativamente simples quando visível e marcada, como no caso de imagens ou vídeos sintéticos. No entanto, pode ser desafiador quando a saída é invisível, como em um componente de segurança que controla funcionalidades de um produto. As autoridades podem identificar o sistema de IA por outros meios, como a divulgação durante uma avaliação de conformidade.

Penas por Não Conformidade

As penalidades máximas por não conformidade podem chegar a €35 milhões ou 7% do faturamento anual mundial, o que é mais rigoroso do que as penalidades do Regulamento Geral sobre a Proteção de Dados (GDPR). Embora existam fatores a serem considerados ao decidir sobre multas administrativas, é difícil prever a aplicação das penalidades, uma vez que dependerá das circunstâncias individuais de cada caso.

Considerações para Investidores de Private Equity

Os patrocinadores de Private Equity podem ser responsabilizados por qualquer violação do AI Act por suas empresas portfólio. Reguladores e tribunais podem aplicar critérios semelhantes aos utilizados para determinar a responsabilidade parental em violações das regras de concorrência da UE, analisando se o investidor teve influência decisiva sobre a empresa.

Reflexões Finais sobre o Uso Interno de IA

Os investidores devem considerar como o AI Act se aplica ao uso interno de IA, avaliando sistemas disponíveis no mercado que possam acelerar processos decisórios e melhorar análises de dados. A conformidade com o regulamento deve ser uma análise contínua, não um evento isolado.

Além disso, é essencial que os interessados estejam cientes das obrigações impostas a provedores e implantadores de sistemas de IA de alto risco e modelos GPAI. À medida que as obrigações começam a se aplicar, as empresas devem se preparar com antecedência e adaptar suas práticas de acordo para evitar complicações futuras.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...