Pesquisadores Alertam 7,5% dos Sistemas de IA de Código Aberto para Uso Criminal Potencial
Pesquisadores estão alertando que um número crescente de modelos de inteligência artificial de código aberto está sendo implantado fora dos controles de segurança das principais plataformas tecnológicas, criando uma camada de potencial uso criminoso amplamente invisível.
Análise de Implantação
Os resultados, compartilhados por empresas de cibersegurança, são baseados em uma análise de implantações acessíveis ao público de modelos de linguagem de código aberto realizada ao longo de um período de 293 dias. Os pesquisadores afirmaram que muitos dos sistemas observados estavam rodando em computadores expostos à internet com proteção limitada ou inexistente, tornando-os vulneráveis a abusos por hackers e outros atores maliciosos.
Riscos Associados
Modelos de IA autohospedados podem ser reutilizados para gerar conteúdo de phishing, automatizar operações de spam, apoiar campanhas de desinformação e auxiliar em outras atividades ilícitas. Ao contrário das plataformas de IA comerciais, que operam sob regras e monitoramento centralizados, modelos de código aberto permitem que os operadores modifiquem instruções do sistema e removam completamente as salvaguardas.
Descobertas da Análise
A análise revelou que, embora existam milhares de variantes de modelos de linguagem de código aberto, uma grande parte das implantações acessíveis na internet era baseada em modelos bem conhecidos. Em centenas de casos, os pesquisadores identificaram configurações onde os controles de segurança foram explicitamente desativados.
Os pesquisadores conseguiram visualizar os prompts do sistema, instruções que moldam o comportamento de um modelo, em aproximadamente um quarto das implantações examinadas. Desses, cerca de 7,5% foram avaliados como potencialmente habilitando atividades prejudiciais, incluindo fraudes, assédio e roubo de dados.
Implicações para a Governança de IA
Discutindo o assunto, especialistas em governança de IA ressaltaram os limites das medidas de segurança baseadas em plataformas. A responsabilidade pela gestão de riscos se torna compartilhada uma vez que os modelos são liberados, incluindo obrigações para os desenvolvedores documentarem danos previsíveis e fornecerem orientações de mitigação.
Desafios para Reguladores
Os resultados apontam para um desafio crescente para os reguladores à medida que o uso de IA se expande além das plataformas centralizadas para ambientes autohospedados, que são mais difíceis de monitorar e controlar.