Bruxelas à Espera do Terceiro Rascunho do Código de Prática GPAI

Calma Antes da Tempestade: Bruxelas Aguarda o Terceiro Rascunho do Código de Prática GPAI

A antecipação paira como uma névoa sobre a bolha da inteligência artificial em Bruxelas, uma vez que ainda não foi publicado o terceiro rascunho das diretrizes para os provedores de sistemas GPAI, como o ChatGPT, originalmente programado para a semana de 17 de fevereiro.

Tensões estão altas, com as grandes empresas de tecnologia ameaçando não assinar o Código de Prática (CoP), a Comissão pressionando por simplificações, e algumas organizações da sociedade civil se sentindo tão ignoradas que desejam se retirar para não legitimar o processo.

“A verdadeira batalha provavelmente começará uma vez que o terceiro rascunho seja publicado”, afirmou um representante da sociedade civil.

Uma Luta Global: Versão Três

Não é a primeira vez que a indústria, a sociedade civil, organizações de direitos e reguladores se enfrentam sobre como regular a GPAI. A Lei de IA foi elaborada antes do advento do ChatGPT, sem disposições direcionadas para os modelos GPAI, que se tornaram repentinamente onipresentes.

A lei focou em casos de uso específicos, mas os modelos GPAI são flexíveis, permitindo que um único modelo seja integrado em diversos casos de uso, potencialmente apresentando riscos sistêmicos.

Após a introdução das regras GPAI, uma coalizão franco-alemã-italiana liderada pela desafiadora francesa Mistral AI quase conseguiu removê-las, temendo que isso impedisse a concorrência da UE.

Não foi bem recebido, quando a Mistral anunciou sua parceria com a Microsoft, levantando questões sobre quem realmente se beneficiaria de requisitos GPAI mais fracos. A parceria continuou, mas a Mistral ainda é vista como a principal concorrente GPAI da Europa.

Em agosto, foi reportado sobre a intensa disputa em torno de um polêmico projeto de lei de IA na Califórnia, que especialistas acreditavam que poderia complementar e melhorar a regulamentação de IA da UE para modelos GPAI.

A Lei Califórnia de IA

Especialistas acreditam que um polêmico projeto de lei de inteligência artificial (IA) que regula os modelos de IA mais poderosos poderia fortalecer e complementar a regulamentação da IA da UE se aprovado. Contudo, à medida que entra na fase final legislativa, o projeto enfrenta oposição tanto da indústria quanto dos democratas no Congresso.

Apesar de uma sólida maioria nas câmaras do Senado do estado da Califórnia e do apoio público, o projeto foi, no final, vetado pelo governador Gavin Newsom, após pressão maciça da indústria, dos democratas no Congresso e da Câmara de Comércio dos EUA.

Cronograma

O terceiro rascunho é o último rascunho antes de uma versão final do Código ser circulada, prevista para o dia 2 de maio. Após isso, o Código é aprovado pelo Escritório de IA da Comissão, pelos Estados membros através do conselho de IA e, por fim, implementado pela Comissão antes do dia 2 de agosto.

O cronograma da Comissão agora indica “fevereiro-março” para o terceiro rascunho, com reuniões de grupos de trabalho, reuniões do subgrupo do conselho de IA e uma plenária de resumo com os presidentes liderando a redação, esperadas para “março”, com uma reunião do conselho de IA marcada para o dia 11.

Na quinta-feira, o Escritório de IA informou aos participantes que um workshop intitulado “Perspectivas da CSO sobre o Código de Prática”, planejado para o dia 7 de março, será reprogramado para permitir tempo suficiente para revisar o rascunho e fornecer um feedback significativo.

Linhas de Batalha

Três grandes linhas de batalha emergiram ao longo do processo: Testes de terceiros obrigatórios, a taxonomia de risco do Código e questões de transparência relacionadas ao copyright.

Uma coalizão focada em “Segurança de IA” argumenta que nenhuma conformidade real é garantida se as empresas realizarem seus próprios testes.

Uma coalizão focada em direitos humanos afirma que os riscos aos direitos fundamentais estão sendo diluídos no Código, especialmente devido à falta de inclusão na taxonomia de riscos. Eles apoiam testes de terceiros, mas se preocupam com outros riscos além da coalizão de segurança.

Os detentores de direitos lutam pela aplicação rigorosa das regras de copyright e pela exigência de que as empresas GPAI publiquem resumos detalhados de seus dados de treinamento.

A indústria argumenta que os requisitos de testes de terceiros e copyright vão além da Lei de IA, e que o CoP é apenas uma ferramenta de conformidade para seguir a lei. Eles se preocupam que a taxonomia de risco seja muito vaga e não esteja bem fundamentada em riscos documentados do mundo real.

Enquanto essas preocupações são frequentemente defendidas por lobbies de grandes empresas de tecnologia que representam grandes empresas dos EUA em Bruxelas, um cluster de IA da Polônia recentemente enviou uma carta ao chefe de tecnologia da UE, Henna Virkkunen, alertando que a UE “corre o risco de criar um monstro burocrático” com o CoP atual.

Todos os lados estão reclamando que não estão sendo suficientemente ouvidos no processo de redação, com a indústria reclamando que os provedores de GPAI representam apenas 5% dos envolvidos, e outros dizendo que a indústria é influente demais.

Treze especialistas, principalmente acadêmicos, estão tentando equilibrar essas preocupações. Eles também trazem suas próprias opiniões, com Yoshua Bengio tendo experimentado uma amarga derrota com o projeto de lei da Califórnia, e Marietje Schaake tendo recentemente escrito um livro intitulado A Revolução Tecnológica: Como Salvar a Democracia do Vale do Silício.

Ainda assim, a Comissão e os Estados membros têm a palavra final. E as empresas podem decidir contratar advogados em vez de se inscrever no Código. A Meta já afirmou que não assinará na forma atual do Código, e o Google está ameaçando fazer o mesmo.

O terceiro rascunho do CoP, que deve ser publicado a qualquer momento, moldará a próxima onda de controvérsias.

More Insights

Governo Britânico Sob Crítica pela Implementação de Reconhecimento Facial

O governo do Reino Unido tem sido criticado pela implementação de tecnologia de reconhecimento facial sem um quadro legal abrangente. O Instituto Ada Lovelace alertou que o uso crescente do...

A Explosão de Startups de Governança na Era da Inteligência Artificial

Com o crescimento da tecnologia de inteligência artificial (IA), as soluções de governança estão em alta demanda. A indústria global de governança de IA, avaliada em 890 milhões de dólares no ano...

O Papel dos Tribunais na Regulação da Inteligência Artificial

A regulação da inteligência artificial (IA) é desigual em todo o mundo, com algumas jurisdições já possuindo regulamentações abrangentes, enquanto outras resistem à legislação vinculativa. Os...

A Liderança Legal na Governança da IA: Agindo Antes que seja Tarde

Neste artigo da Help Net Security, Brooke Johnson, Conselheira Jurídica Chefe da Ivanti, discute as responsabilidades legais na governança da IA e a importância da colaboração entre departamentos para...

Mudança nas Regras da IA: Implicações e Desafios

A Câmara dos Representantes recentemente aprovou um grande projeto de lei que impede os estados de regular modelos de inteligência artificial por 10 anos. Isso preocupa os legisladores estaduais, que...