Desafios e Oportunidades na Governança da IA na Califórnia

Senador Wiener Responde ao Relatório Final de Especialistas sobre o Quadro de Governança de IA

Em 17 de junho de 2025, o Grupo de Trabalho Conjunto de Políticas da Califórnia sobre Modelos de Fronteira de IA divulgou seu relatório final, apresentando um quadro para a governança de modelos de IA na Califórnia. Este grupo foi convocado pelo Governador Gavin Newsom após seu veto ao projeto de lei SB 1047 do senador Scott Wiener.

O senador Wiener, em resposta à liberação do relatório interim, declarou: “Este relatório afirma o que nossas mentes mais brilhantes em IA têm claramente declarado: que, embora a IA apresente oportunidades massivas para entregar um futuro de abundância e prosperidade ampla, o imenso poder desses modelos exige que os legisladores ajam com urgência para estabelecer guardrails de segurança eficazes.”

Importância dos Guardrails

Wiener ressaltou a importância de estabelecer proteções básicas contra questões como deepfake, viés algorítmico nas decisões de saúde e roubo de propriedade intelectual. Ele observou que essas proteções são acordadas por todos os que estão atentos ao rápido avanço das capacidades de IA.

O Papel da Califórnia

O senador afirmou que a Califórnia ainda tem um papel vital a desempenhar na estabelecimento de salvaguardas para a IA, sugerindo que o estado pode estabelecer um padrão a ser seguido por outros. As recomendações do relatório buscam um equilíbrio entre a necessidade de salvaguardas e o apoio à inovação.

Wiener declarou que seu escritório está considerando quais recomendações incorporar no projeto de lei SB 53 e convidou todos os stakeholders relevantes a se envolverem de forma produtiva nesse processo.

Contexto e Composição do Grupo de Trabalho

O Grupo de Trabalho foi convocado no final da última sessão legislativa para reunir evidências e recomendações dos principais pesquisadores e especialistas em políticas de IA do estado, ajudando os legisladores da Califórnia a desenvolver guardrails viáveis para a implantação de sistemas avançados de IA. O grupo inclui:

  • Dr. Fei-Fei Li, Co-Diretor do Instituto de IA Centrada no Humano da Stanford
  • Dr. Jennifer Tour Chayes, Reitora da Faculdade de Computação, Ciência de Dados e Sociedade da UC Berkeley
  • Tino Cuéllar, Presidente do Carnegie Endowment for International Peace

More Insights

Aliança Escocesa de IA Destaca Ética em Inteligência Artificial

A Scottish AI Alliance lançou seu Relatório de Impacto 2024/2025, destacando um ano transformador de progresso na promoção de inteligência artificial confiável, ética e inclusiva na Escócia. O...

Controles de IA de Trump: Oportunidades e Desafios para o Mercado

A administração Trump está se preparando para novas restrições nas exportações de chips de IA para a Malásia e Tailândia, visando impedir que processadores avançados cheguem à China por meio de...

LLMOps: Potencializando IA Responsável com Python

Neste ambiente altamente competitivo, não é suficiente apenas implantar Modelos de Linguagem de Grande Escala (LLMs) — é necessário um robusto framework LLMOps para garantir a confiabilidade e o...

Fortalecendo a Proteção de Dados e a Governança de IA em Cingapura

Cingapura está respondendo proativamente aos desafios evolutivos impostos pelo uso de dados na era da inteligência artificial (IA), afirmou a Ministra de Comunicações e Informação, Josephine Teo. O...

Vigilância por IA e a Lacuna de Governança na Ásia-Pacífico

A tecnologia de vigilância alimentada por IA, especialmente o reconhecimento facial, é um exemplo clássico de tecnologias de uso duplo, promovidas como ferramentas de prevenção ao crime, mas...