Utah Move para Estender Regras de Segurança Infantil às Tecnologias de IA
Os legisladores de Utah estão mais uma vez avançando no campo da regulação tecnológica, desta vez focando em sistemas avançados de inteligência artificial e segurança pública.
Introdução do Projeto de Lei
O representante local apresentou um projeto de lei que exige que as maiores empresas de IA que operam no estado divulguem publicamente como avaliam e mitigam os riscos sérios associados aos seus sistemas, incluindo danos que afetam crianças.
Exigências do Projeto de Lei
O projeto de lei exige que as empresas de IA abrangidas:
- Escrevam e publiquem planos de segurança pública e proteção infantil que expliquem como avaliam e mitigam riscos severos relacionados à IA.
- Sigam esses planos na prática, ao invés de tratá-los como compromissos voluntários.
- Relatem incidentes significativos de segurança da IA.
- Não retenham ou tomem represálias contra funcionários que levantem preocupações internas ou divulguem falhas.
Justificativa para o Projeto
A proposta é vista como uma forma de fechar uma lacuna regulatória. Embora muitas empresas de IA tenham adotado estruturas de segurança internas, Utah atualmente não exige que documentem ou divulguem esses esforços.
Abordagem de Transparência
O projeto de lei se concentra na transparência, forçando as empresas a explicarem publicamente como lidam com os riscos de segurança à medida que os sistemas de IA se tornam mais capazes e amplamente implantados.
Impacto nas Políticas de Tecnologia Infantil
Utah já se posicionou como líder nacional na regulação de tecnologia focada em crianças, especialmente em relação às plataformas de mídia social. Medidas anteriores têm sido descritas como liderança nacional na proteção de jovens online.
Apoio Público e Preocupações
Um levantamento estadual mostrou ampla preocupação entre os eleitores sobre a supervisão da IA. A maioria apoia a exigência de que desenvolvedores de IA implementem protocolos de segurança para proteger crianças.
Definição e Execução
O projeto de lei aplica-se apenas a “grandes desenvolvedores de fronteira”, definidos como empresas que treinaram modelos de IA avançados utilizando um número significativo de operações computacionais e que reportaram alta receita anual.
A aplicação da lei ficará a cargo do procurador-geral do estado, que poderá tomar ações civis contra empresas que violarem a legislação, com penalidades que podem chegar a milhões de dólares.
Próximos Passos
O projeto de lei está agendado para sua primeira grande avaliação em comitê relevante. Se aprovado, seguirá para votação na câmara, abrindo espaço para debate sobre a responsabilidade pública dos desenvolvedores de IA quanto aos riscos à segurança.