OpenAI discute alegação de violação da nova lei de segurança de IA da Califórnia com o lançamento do último modelo
A OpenAI pode ter violado a nova lei de segurança de IA da Califórnia com o lançamento de seu mais recente modelo de codificação, segundo alegações de um grupo de vigilância de IA.
Uma violação poderia expor a empresa a multas que podem chegar a milhões de dólares, e o caso pode se tornar um teste pioneiro das disposições da nova lei.
Controvérsia em torno do modelo GPT-5.3-Codex
A controvérsia gira em torno do GPT-5.3-Codex, o mais novo modelo de codificação da OpenAI, que foi lançado na semana passada. Este modelo faz parte de um esforço da OpenAI para recuperar sua liderança em codificação impulsionada por IA e, segundo dados de referência divulgados pela empresa, mostra um desempenho significativamente superior em tarefas de codificação em comparação com versões anteriores e concorrentes.
No entanto, o modelo também levantou preocupações sem precedentes em relação à cibersegurança. O CEO afirmou que o modelo foi classificado como de “alto” risco para cibersegurança em um sistema interno de classificação de riscos utilizado pela empresa. Isso significa que a OpenAI está essencialmente classificando o modelo como capaz de facilitar danos cibernéticos significativos.
Compromissos de segurança e alegações do Midas Project
O Midas Project, um grupo de vigilância de IA, alega que a OpenAI não cumpriu seus próprios compromissos de segurança, que agora são legalmente vinculativos sob a lei da Califórnia, com o lançamento do novo modelo de alto risco.
A lei SB 53 da Califórnia, que entrou em vigor em janeiro, exige que grandes empresas de IA publiquem e sigam seus próprios frameworks de segurança, detalhando como evitar riscos catastróficos. A lei também proíbe essas empresas de fazer declarações enganosas sobre conformidade.
O framework de segurança da OpenAI exige salvaguardas especiais para modelos com alto risco de cibersegurança. No entanto, segundo o Midas Project, essas salvaguardas não foram implementadas antes do lançamento do GPT-5.3-Codex, apesar da classificação de “alto risco”.
A OpenAI contesta a interpretação do Midas Project, afirmando que a redação de seu framework é “ambígua” e que busca esclarecer a intenção da redação em seu relatório de segurança. A empresa sustenta que salvaguardas extras são necessárias somente quando o alto risco de cibersegurança ocorre “em conjunto com” autonomia de longo alcance, a capacidade de operar de forma independente por longos períodos.
Implicações e riscos
Se uma investigação for aberta e as alegações se mostrarem precisas, a SB 53 permite penalidades substanciais por violações, que podem chegar a milhões de dólares, dependendo da gravidade e duração da não conformidade. Um representante do escritório do procurador-geral da Califórnia afirmou que o departamento está “comprometido em fazer cumprir as leis do estado”.
Conclusão
A situação destaca os desafios em torno da regulamentação da IA e as responsabilidades das empresas em relação à segurança de seus modelos. O desfecho deste caso poderá ter implicações significativas para o futuro da legislação de IA e a confiança do público nas tecnologias emergentes.