Conformidade do ChatGPT com as Regras da UE para IA
Não está claro se a OpenAI está cumprindo os requisitos de divulgação de dados de treinamento da Lei de IA da UE para o GPT-5, o mais novo modelo que alimenta seu popular chatbot. Contudo, a UE não começará a aplicar a regra até o próximo ano.
Requisitos da Lei de IA da UE
A Lei de IA da UE estabelece uma série de requisitos para desenvolvedores de modelos de IA de uso geral (GPAIs), como o GPT-5 da OpenAI. Um desses requisitos é a publicação de resumos dos dados utilizados para treiná-los.
Em julho, o AI Office – o órgão da UE que supervisiona os desenvolvedores de GPAI – publicou um modelo que descreve as informações que devem ser fornecidas. A ferramenta de conformidade exige um resumo dos “nomes de domínio mais relevantes” rastreados para coletar dados de treinamento, bem como os nomes de quaisquer conjuntos de dados disponíveis publicamente utilizados.
Enquanto os modelos lançados antes de 2 de agosto de 2025 têm até 2027 para cumprir as divulgações, os modelos lançados após essa data devem cumprir imediatamente.
Contexto do Lançamento do GPT-5
As datas são importantes, pois a OpenAI lançou o GPT-5 em 7 de agosto de 2025 – cinco dias após o prazo da UE. Até agora, a OpenAI não parece ter produzido o resumo necessário dos dados de treinamento do GPT-5. O Euractiv não conseguiu encontrar essas informações em seu site e a OpenAI não respondeu a perguntas repetidas sobre a conformidade do modelo com os requisitos da Lei de IA ou onde encontrar informações sobre os dados de treinamento do GPT-5.
“Até o momento, a OpenAI não publicou um resumo dos dados de treinamento ou uma política de direitos autorais para o GPT-5”, afirmou Petar Tsankov, CEO da empresa de conformidade em IA, LatticeFlow.
Assinatura do Código de Prática da UE
Apesar disso, a OpenAI assinou o código de prática da UE para desenvolvedores de modelos de IA de uso geral, que incentiva os signatários a pelo menos publicar a política de direitos autorais que devem elaborar para seus modelos. No entanto, até o momento, o criador do ChatGPT não parece ter feito isso.
Risco Sistêmico
Além disso, segundo Tsankov, o GPT-5 “quase certamente” excede o limite para ser considerado um modelo de risco sistêmico sob a Lei de IA. Isso significaria que a OpenAI deve realizar avaliações de modelo “de última geração” e lidar com possíveis riscos sistêmicos. “Novamente, nenhuma evidência pública foi compartilhada sobre essas etapas”, observou.
Embora seja importante notar que não há exigência legal para a OpenAI fazer uma divulgação pública de quaisquer avaliações de risco sistêmico que ela seja obrigada a realizar sob a Lei.
Posição da Comissão Europeia
Quando perguntada se o GPT-5 está cumprindo as divulgações de dados de treinamento da Lei de IA, a Comissão Europeia respondeu que isso depende de se a tecnologia é considerada um novo modelo de acordo com as regras da lei.
Ela acrescentou que o AI Office ainda está analisando se este é o caso com base em vários detalhes técnicos não públicos.
Marketing do GPT-5
A OpenAI comercializou o GPT-5 como um novo modelo. O chefe da empresa, Sam Altman, até elevou as expectativas em torno da IA ao compará-la ao Projeto Manhattan – uma referência ao programa militar-científico secreto dos EUA para pesquisar e desenvolver a bomba atômica durante a Segunda Guerra Mundial.
Implicações Futuras
Se o AI Office da UE decidir que o GPT-5 é, de fato, um novo modelo – e, portanto, que as regras da Lei já se aplicam a ele – a OpenAI ainda poderá evitar complicações, pois não precisará se preocupar com a conformidade imediatamente; o AI Office só começará a aplicação disso em agosto de 2026.
“Pense nisso como um sinal de limite de velocidade que já está em vigor, mas sem fiscalização ainda”, explicou Tsankov. “Se você exceder o limite, está tecnicamente em violação – mas não terá problemas até que a fiscalização comece.”