Investigações sobre Plataformas de IA – O Marco da Lei de Segurança Online
Desde a entrada em vigor da Lei de Segurança Online (OSA), há menos de um ano, foram lançadas investigações em mais de 90 plataformas, resultando em seis multas por não conformidade. Isso inclui penalidades contra um site de nudez por falhas em ter verificações de idade robustas. Recentemente, duas novas investigações foram abertas em relação a serviços de IA generativa.
Como os Chatbots de IA se Encaixam na Lei de Segurança Online
Com o aumento do uso da tecnologia de chatbots, cresce também o potencial para danos. Sob a OSA, um chatbot que atende às definições de um serviço regulado está sujeito às regras da lei. Qualquer conteúdo gerado por IA compartilhado em um serviço de usuário para usuário é classificado como conteúdo gerado pelo usuário e regulado da mesma forma que o conteúdo criado por humanos.
No entanto, alguns chatbots não estão cobertos pela OSA. Eles estão fora da regulamentação se apenas permitem que os usuários interajam com o próprio chatbot, não pesquisam vários sites ou bancos de dados ao responder e não podem gerar conteúdo pornográfico.
A Investigação sobre o X e o Grok
Uma investigação formal foi aberta em relação a um chatbot que estava sendo usado para gerar e compartilhar conteúdo preocupante, incluindo imagens íntimas não consensuais e material de abuso sexual infantil. A investigação se concentra em várias disposições principais da OSA, incluindo:
- Avaliações de Risco de Conteúdo Ilegal: Os serviços regulados devem realizar uma avaliação de risco de conteúdo ilegal adequada e suficiente. A investigação examina se houve falha na avaliação do risco de usuários encontrarem conteúdo ilegal antes de introduzir ou modificar o recurso do chatbot.
- Deveres de Segurança de Conteúdo Ilegal: Os serviços devem tomar medidas proporcionais para prevenir que indivíduos encontrem conteúdo ilegal prioritário. A investigação está avaliando se as medidas de proteção à privacidade foram adequadas.
- Proteção de Crianças: Serviços que são acessíveis a crianças devem realizar uma avaliação de risco adequada e implementar sistemas efetivos de verificação de idade. A investigação também examina se houve falha em implementar medidas adequadas de verificação de idade.
A Investigação sobre a Novi Ltd
Uma investigação separada foi anunciada em relação a um serviço de IA generativa, focando em falhas potenciais nas medidas de verificação de idade. A investigação inclui:
- Avaliações de Acesso Infantil: Os provedores devem manter um registro escrito de uma avaliação de acesso infantil para determinar se o serviço pode ser acessado por crianças.
- Proteção de Crianças: A investigação está examinando se houve falhas em implementar medidas eficazes para prevenir que crianças acessem conteúdo pornográfico.
Implicações e Riscos
Os incidentes geraram chamadas por proteções legais mais fortes. Muitos acreditam que uma mudança fundamental na abordagem é necessária, já que a regulamentação que foca apenas em remediar danos após sua ocorrência sempre ficará atrás da tecnologia. A questão crítica é se a OSA, projetada principalmente para conteúdo gerado por usuários tradicionais, é realmente adequada para enfrentar os desafios distintos do abuso gerado por IA.
Conclusão
As investigações demonstram que, por enquanto, a OSA está sendo aplicada com a mesma rigidez a serviços impulsionados por IA como às plataformas tradicionais. Provedores de serviços de IA generativa devem garantir que suas avaliações de risco e sistemas de moderação de conteúdo atendam aos padrões exigidos pela lei. Contudo, com o aumento das chamadas por mudanças sistêmicas, tanto reguladores quanto a indústria devem estar preparados para a possibilidade de que uma legislação específica para IA possa ser necessária no futuro.