Perigos do Uso de IA de Código Aberto: 7,5% em Risco de Uso Criminal

Pesquisadores Alertam 7,5% dos Sistemas de IA de Código Aberto para Uso Criminal Potencial

Pesquisadores estão alertando que um número crescente de modelos de inteligência artificial de código aberto está sendo implantado fora dos controles de segurança das principais plataformas tecnológicas, criando uma camada de potencial uso criminoso amplamente invisível.

Análise de Implantação

Os resultados, compartilhados por empresas de cibersegurança, são baseados em uma análise de implantações acessíveis ao público de modelos de linguagem de código aberto realizada ao longo de um período de 293 dias. Os pesquisadores afirmaram que muitos dos sistemas observados estavam rodando em computadores expostos à internet com proteção limitada ou inexistente, tornando-os vulneráveis a abusos por hackers e outros atores maliciosos.

Riscos Associados

Modelos de IA autohospedados podem ser reutilizados para gerar conteúdo de phishing, automatizar operações de spam, apoiar campanhas de desinformação e auxiliar em outras atividades ilícitas. Ao contrário das plataformas de IA comerciais, que operam sob regras e monitoramento centralizados, modelos de código aberto permitem que os operadores modifiquem instruções do sistema e removam completamente as salvaguardas.

Descobertas da Análise

A análise revelou que, embora existam milhares de variantes de modelos de linguagem de código aberto, uma grande parte das implantações acessíveis na internet era baseada em modelos bem conhecidos. Em centenas de casos, os pesquisadores identificaram configurações onde os controles de segurança foram explicitamente desativados.

Os pesquisadores conseguiram visualizar os prompts do sistema, instruções que moldam o comportamento de um modelo, em aproximadamente um quarto das implantações examinadas. Desses, cerca de 7,5% foram avaliados como potencialmente habilitando atividades prejudiciais, incluindo fraudes, assédio e roubo de dados.

Implicações para a Governança de IA

Discutindo o assunto, especialistas em governança de IA ressaltaram os limites das medidas de segurança baseadas em plataformas. A responsabilidade pela gestão de riscos se torna compartilhada uma vez que os modelos são liberados, incluindo obrigações para os desenvolvedores documentarem danos previsíveis e fornecerem orientações de mitigação.

Desafios para Reguladores

Os resultados apontam para um desafio crescente para os reguladores à medida que o uso de IA se expande além das plataformas centralizadas para ambientes autohospedados, que são mais difíceis de monitorar e controlar.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...