Regulação de Chatbots de IA: Uma Abordagem Problemática
Recentemente, houve um esforço para regular os chatbots de inteligência artificial, mas a abordagem adotada pode ser inadequada. O governo expressou sua insatisfação com as empresas de IA após um incidente em que um serviço não alertou as autoridades sobre uma conta suspeita. Isso gerou discussões sobre a necessidade de implementação de novos protocolos de segurança.
O Ato de Danos Online
Uma das propostas para a regulação é a reintrodução do Ato de Danos Online, que teve sua versão anterior rejeitada. Este ato, que foi elaborado para lidar com plataformas de mídia social, não se aplica bem a chatbots de IA. As interações com chatbots são mais semelhantes a mensagens privadas do que a comunicações públicas, o que dificulta a aplicação das mesmas regras.
Limitações do Ato de Danos Online
O Ato possui salvaguardas de privacidade que explicitamente excluem comunicações privadas. Qualquer tentativa de regular chatbots sob este ato exigiria a remoção ou modificação dessas proteções. Isso levantaria preocupações sobre vigilância, uma questão que já levou a críticas anteriormente.
Consequências e Riscos
Se o Ato de Danos Online for aplicado a interações de chatbots, isso poderá abrir a porta para a vigilância excessiva e a monitorização de conteúdo que o governo havia previamente evitado. Tal abordagem poderia criar um incentivo para a sobre-reportagem e um monitoramento ampliado da expressão legal.
Conclusão
A regulação de chatbots de IA é necessária, mas não deve ser feita através de uma expansão do Ato de Danos Online. Em vez disso, é fundamental que se desenvolvam legislações específicas que se concentrem na transparência e na segurança dos usuários, garantindo que haja uma divulgação clara das políticas de segurança e como elas são implementadas.