A Regulamentação dos Chatbots na Pensilvânia

Shapiro quer que a Pensilvânia regule chatbots de IA. Como isso funcionaria?

O governador da Pensilvânia está direcionando agências estaduais a desenvolver regulamentações mais rígidas para chatbots de inteligência artificial, que, segundo ele, podem ser enganosos e prejudiciais para crianças. Novas restrições poderiam colocar a Pensilvânia em uma lista crescente de estados que buscam impor limites à medida que mais crianças usam chatbots de IA.

“Este espaço está evoluindo rapidamente”, disse o governador. “Precisamos agir rapidamente para proteger nossas crianças.”

Embora a maioria dos adolescentes nos EUA use chatbots, um em cada três relatou usá-los para interação social e relacionamentos. Esses adolescentes relataram usar chatbots para prática de conversação, apoio emocional, jogos de interpretação, amizades e interações românticas. Sem regulamentação, crianças e outros poderiam estar vulneráveis a danos emocionais.

Desafios da Regulamentação

O governador pediu que a Pensilvânia exija verificação de idade, consentimento dos pais e proíba chatbots de produzir conteúdo sexualmente explícito ou violento envolvendo crianças. Ele também apoia a exigência de que as empresas direcionem usuários que mencionem automutilação ou violência às autoridades apropriadas e lembrem periodicamente os usuários de que não estão interagindo com um ser humano real.

Entretanto, a execução desses novos requisitos levanta questões sobre sua viabilidade. “O diabo está nos detalhes”, disse uma especialista em ética e tecnologias computacionais. “Podemos concordar com os objetivos gerais, mas a questão de se algumas dessas medidas são realmente alcançáveis precisa ser trabalhada.”

A verificação de idade, apesar das advertências de especialistas sobre sua ineficácia e riscos à privacidade, ganhou popularidade entre os reguladores como uma medida para proteger crianças de sites inadequados. A especialista observa que os mesmos problemas de verificação de idade podem surgir com chatbots.

Conteúdo Inadequado e Riscos

Quanto a garantir que um chatbot não produza conteúdo violento ou sexualmente explícito envolvendo crianças, as empresas de IA estão explorando como bloquear a criação de materiais que abusem de crianças. No entanto, as salvaguardas atuais podem ser contornadas facilmente.

O governador também desafiou os legisladores a desenvolverem legislações para proteger crianças e outros usuários vulneráveis dos riscos associados ao uso de chatbots. Um projeto de lei bipartidário no Senado estadual estabeleceria “padrões apropriados para a idade” e exigiria salvaguardas contra conteúdo que encoraje automutilação, suicídio ou violência.

Implicações e Conclusão

Enquanto os governos estaduais continuam a tomar medidas para regular IA e bots acompanhantes, a situação atual resulta em um sistema fragmentado que pode ser difícil para as empresas de IA seguirem. Sem uma política federal clara sobre IA, estados como Califórnia e Nova York provavelmente definirão o tom para a regulamentação. A administração atual está tomando uma postura responsável, tentando desenvolver regulamentações em diálogo com as partes interessadas e especialistas, o que pode ser um passo importante para uma regulamentação eficaz.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...