Medidas de Segurança para IA Surgem para a Juventude na Califórnia
Uma nova proposta de medida eleitoral em todo o estado da Califórnia visa fortalecer as proteções para crianças e adolescentes que utilizam inteligência artificial (IA). Os criadores esperam que essa medida tenha sucesso onde legislações semelhantes falharam no ano passado.
Objetivos da Proposta
A medida proposta, apresentada durante uma coletiva de imprensa virtual, estabelece requisitos em torno da verificação de idade, proteção de dados, controles parentais e auditorias de segurança independentes para produtos de IA usados por menores. Embora ainda não tenha sido introduzida como um projeto de lei na Assembleia Legislativa do estado, a proposta é uma resposta às preocupações crescentes dos pais e às lições aprendidas de um esforço legislativo anterior.
Histórico da Legislação Anterior
O projeto de lei anterior, que tinha como objetivo proteger a juventude em relação à IA, foi aprovado na Assembleia Legislativa, mas não recebeu a assinatura do governador. A principal preocupação expressa foi que o projeto resultaria em uma proibição do uso de chatbots por menores, ao invés de permitir que os jovens aprendessem a interagir com sistemas de IA de maneira segura.
Novos Requisitos Propostos
A nova proposta impõe padrões mais rigorosos para sistemas de IA utilizados por menores, incluindo ferramentas cada vez mais comercializadas como tutores e assistentes de escrita. A verificação de idade é um dos principais focos, exigindo que as empresas de IA determinem se um usuário tem menos de 18 anos e apliquem proteções infantis quando a idade não puder ser confirmada com certeza.
Além disso, a proposta proíbe publicidade direcionada a crianças e restringe a venda de dados de menores sem consentimento dos pais, expandindo as proteções para todos os usuários com menos de 18 anos. Isso pode impactar diretamente os fornecedores de tecnologia educacional que dependem fortemente da personalização e da análise de engajamento.
Implicações para o Bem-Estar dos Estudantes
A proposta também inclui requisitos de segurança para garantir o bem-estar dos estudantes. As empresas de IA seriam obrigadas a implementar salvaguardas para evitar que sistemas de IA gerem ou promovam conteúdos relacionados à autoagressão, distúrbios alimentares, violência e atos sexualmente explícitos. Além disso, controles parentais eficazes seriam exigidos, permitindo que os pais monitorem e limitem o uso da IA, além de receberem alertas quando sinais de autoagressão forem detectados.
Próximos Passos
A proposta delineia um quadro regulatório que pode moldar como os distritos avaliam ferramentas de IA e como a segurança dos estudantes é equilibrada nas salas de aula em todo o estado. A busca por uma ação legislativa continua, com a possibilidade de uma iniciativa de voto, se necessário.
Os defensores da medida enfatizam que a necessidade de proteções sérias para crianças e adolescentes é um assunto que transcende questões partidárias, reconhecendo que todos os pais e eleitores reconhecem a importância de garantir a segurança da juventude em um mundo cada vez mais digital.