OpenAI em Conflito com a Nova Lei de Segurança de IA da Califórnia

OpenAI discute alegação de violação da nova lei de segurança de IA da Califórnia com o lançamento do último modelo

A OpenAI pode ter violado a nova lei de segurança de IA da Califórnia com o lançamento de seu mais recente modelo de codificação, segundo alegações de um grupo de vigilância de IA.

Uma violação poderia expor a empresa a multas que podem chegar a milhões de dólares, e o caso pode se tornar um teste pioneiro das disposições da nova lei.

Controvérsia em torno do modelo GPT-5.3-Codex

A controvérsia gira em torno do GPT-5.3-Codex, o mais novo modelo de codificação da OpenAI, que foi lançado na semana passada. Este modelo faz parte de um esforço da OpenAI para recuperar sua liderança em codificação impulsionada por IA e, segundo dados de referência divulgados pela empresa, mostra um desempenho significativamente superior em tarefas de codificação em comparação com versões anteriores e concorrentes.

No entanto, o modelo também levantou preocupações sem precedentes em relação à cibersegurança. O CEO afirmou que o modelo foi classificado como de “alto” risco para cibersegurança em um sistema interno de classificação de riscos utilizado pela empresa. Isso significa que a OpenAI está essencialmente classificando o modelo como capaz de facilitar danos cibernéticos significativos.

Compromissos de segurança e alegações do Midas Project

O Midas Project, um grupo de vigilância de IA, alega que a OpenAI não cumpriu seus próprios compromissos de segurança, que agora são legalmente vinculativos sob a lei da Califórnia, com o lançamento do novo modelo de alto risco.

A lei SB 53 da Califórnia, que entrou em vigor em janeiro, exige que grandes empresas de IA publiquem e sigam seus próprios frameworks de segurança, detalhando como evitar riscos catastróficos. A lei também proíbe essas empresas de fazer declarações enganosas sobre conformidade.

O framework de segurança da OpenAI exige salvaguardas especiais para modelos com alto risco de cibersegurança. No entanto, segundo o Midas Project, essas salvaguardas não foram implementadas antes do lançamento do GPT-5.3-Codex, apesar da classificação de “alto risco”.

A OpenAI contesta a interpretação do Midas Project, afirmando que a redação de seu framework é “ambígua” e que busca esclarecer a intenção da redação em seu relatório de segurança. A empresa sustenta que salvaguardas extras são necessárias somente quando o alto risco de cibersegurança ocorre “em conjunto com” autonomia de longo alcance, a capacidade de operar de forma independente por longos períodos.

Implicações e riscos

Se uma investigação for aberta e as alegações se mostrarem precisas, a SB 53 permite penalidades substanciais por violações, que podem chegar a milhões de dólares, dependendo da gravidade e duração da não conformidade. Um representante do escritório do procurador-geral da Califórnia afirmou que o departamento está “comprometido em fazer cumprir as leis do estado”.

Conclusão

A situação destaca os desafios em torno da regulamentação da IA e as responsabilidades das empresas em relação à segurança de seus modelos. O desfecho deste caso poderá ter implicações significativas para o futuro da legislação de IA e a confiança do público nas tecnologias emergentes.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...