GPT-5 e as Regras da UE: Estamos em Conformidade?

Conformidade do ChatGPT com as Regras da UE para IA

Não está claro se a OpenAI está cumprindo os requisitos de divulgação de dados de treinamento da Lei de IA da UE para o GPT-5, o mais novo modelo que alimenta seu popular chatbot. Contudo, a UE não começará a aplicar a regra até o próximo ano.

Requisitos da Lei de IA da UE

A Lei de IA da UE estabelece uma série de requisitos para desenvolvedores de modelos de IA de uso geral (GPAIs), como o GPT-5 da OpenAI. Um desses requisitos é a publicação de resumos dos dados utilizados para treiná-los.

Em julho, o AI Office – o órgão da UE que supervisiona os desenvolvedores de GPAI – publicou um modelo que descreve as informações que devem ser fornecidas. A ferramenta de conformidade exige um resumo dos “nomes de domínio mais relevantes” rastreados para coletar dados de treinamento, bem como os nomes de quaisquer conjuntos de dados disponíveis publicamente utilizados.

Enquanto os modelos lançados antes de 2 de agosto de 2025 têm até 2027 para cumprir as divulgações, os modelos lançados após essa data devem cumprir imediatamente.

Contexto do Lançamento do GPT-5

As datas são importantes, pois a OpenAI lançou o GPT-5 em 7 de agosto de 2025 – cinco dias após o prazo da UE. Até agora, a OpenAI não parece ter produzido o resumo necessário dos dados de treinamento do GPT-5. O Euractiv não conseguiu encontrar essas informações em seu site e a OpenAI não respondeu a perguntas repetidas sobre a conformidade do modelo com os requisitos da Lei de IA ou onde encontrar informações sobre os dados de treinamento do GPT-5.

“Até o momento, a OpenAI não publicou um resumo dos dados de treinamento ou uma política de direitos autorais para o GPT-5”, afirmou Petar Tsankov, CEO da empresa de conformidade em IA, LatticeFlow.

Assinatura do Código de Prática da UE

Apesar disso, a OpenAI assinou o código de prática da UE para desenvolvedores de modelos de IA de uso geral, que incentiva os signatários a pelo menos publicar a política de direitos autorais que devem elaborar para seus modelos. No entanto, até o momento, o criador do ChatGPT não parece ter feito isso.

Risco Sistêmico

Além disso, segundo Tsankov, o GPT-5 “quase certamente” excede o limite para ser considerado um modelo de risco sistêmico sob a Lei de IA. Isso significaria que a OpenAI deve realizar avaliações de modelo “de última geração” e lidar com possíveis riscos sistêmicos. “Novamente, nenhuma evidência pública foi compartilhada sobre essas etapas”, observou.

Embora seja importante notar que não há exigência legal para a OpenAI fazer uma divulgação pública de quaisquer avaliações de risco sistêmico que ela seja obrigada a realizar sob a Lei.

Posição da Comissão Europeia

Quando perguntada se o GPT-5 está cumprindo as divulgações de dados de treinamento da Lei de IA, a Comissão Europeia respondeu que isso depende de se a tecnologia é considerada um novo modelo de acordo com as regras da lei.

Ela acrescentou que o AI Office ainda está analisando se este é o caso com base em vários detalhes técnicos não públicos.

Marketing do GPT-5

A OpenAI comercializou o GPT-5 como um novo modelo. O chefe da empresa, Sam Altman, até elevou as expectativas em torno da IA ao compará-la ao Projeto Manhattan – uma referência ao programa militar-científico secreto dos EUA para pesquisar e desenvolver a bomba atômica durante a Segunda Guerra Mundial.

Implicações Futuras

Se o AI Office da UE decidir que o GPT-5 é, de fato, um novo modelo – e, portanto, que as regras da Lei já se aplicam a ele – a OpenAI ainda poderá evitar complicações, pois não precisará se preocupar com a conformidade imediatamente; o AI Office só começará a aplicação disso em agosto de 2026.

“Pense nisso como um sinal de limite de velocidade que já está em vigor, mas sem fiscalização ainda”, explicou Tsankov. “Se você exceder o limite, está tecnicamente em violação – mas não terá problemas até que a fiscalização comece.”

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...