Shapiro quer que a Pensilvânia regule chatbots de IA. Como isso funcionaria?
O governador da Pensilvânia está direcionando agências estaduais a desenvolver regulamentações mais rígidas para chatbots de inteligência artificial, que, segundo ele, podem ser enganosos e prejudiciais para crianças. Novas restrições poderiam colocar a Pensilvânia em uma lista crescente de estados que buscam impor limites à medida que mais crianças usam chatbots de IA.
“Este espaço está evoluindo rapidamente”, disse o governador. “Precisamos agir rapidamente para proteger nossas crianças.”
Embora a maioria dos adolescentes nos EUA use chatbots, um em cada três relatou usá-los para interação social e relacionamentos. Esses adolescentes relataram usar chatbots para prática de conversação, apoio emocional, jogos de interpretação, amizades e interações românticas. Sem regulamentação, crianças e outros poderiam estar vulneráveis a danos emocionais.
Desafios da Regulamentação
O governador pediu que a Pensilvânia exija verificação de idade, consentimento dos pais e proíba chatbots de produzir conteúdo sexualmente explícito ou violento envolvendo crianças. Ele também apoia a exigência de que as empresas direcionem usuários que mencionem automutilação ou violência às autoridades apropriadas e lembrem periodicamente os usuários de que não estão interagindo com um ser humano real.
Entretanto, a execução desses novos requisitos levanta questões sobre sua viabilidade. “O diabo está nos detalhes”, disse uma especialista em ética e tecnologias computacionais. “Podemos concordar com os objetivos gerais, mas a questão de se algumas dessas medidas são realmente alcançáveis precisa ser trabalhada.”
A verificação de idade, apesar das advertências de especialistas sobre sua ineficácia e riscos à privacidade, ganhou popularidade entre os reguladores como uma medida para proteger crianças de sites inadequados. A especialista observa que os mesmos problemas de verificação de idade podem surgir com chatbots.
Conteúdo Inadequado e Riscos
Quanto a garantir que um chatbot não produza conteúdo violento ou sexualmente explícito envolvendo crianças, as empresas de IA estão explorando como bloquear a criação de materiais que abusem de crianças. No entanto, as salvaguardas atuais podem ser contornadas facilmente.
O governador também desafiou os legisladores a desenvolverem legislações para proteger crianças e outros usuários vulneráveis dos riscos associados ao uso de chatbots. Um projeto de lei bipartidário no Senado estadual estabeleceria “padrões apropriados para a idade” e exigiria salvaguardas contra conteúdo que encoraje automutilação, suicídio ou violência.
Implicações e Conclusão
Enquanto os governos estaduais continuam a tomar medidas para regular IA e bots acompanhantes, a situação atual resulta em um sistema fragmentado que pode ser difícil para as empresas de IA seguirem. Sem uma política federal clara sobre IA, estados como Califórnia e Nova York provavelmente definirão o tom para a regulamentação. A administração atual está tomando uma postura responsável, tentando desenvolver regulamentações em diálogo com as partes interessadas e especialistas, o que pode ser um passo importante para uma regulamentação eficaz.