Estudo alerta sobre lacunas de segurança e governança em IA
Um recente estudo indica que muitas organizações estão implementando IA generativa sem as devidas medidas de segurança e governança. A pesquisa revelou que 52% das empresas já adotaram total ou parcialmente essa tecnologia.
Lacuna de Governança
Apenas uma em cada cinco empresas atingiu o que o estudo descreve como maturidade em IA na segurança, onde a IA é totalmente implantada nas atividades de segurança e os riscos são avaliados. Quase 8 em cada 10 organizações (79%) não alcançaram esse estágio.
A adoção de políticas específicas para IA também é limitada. Apenas 41% das organizações possuem políticas de privacidade de dados voltadas para IA, enquanto 43% adotaram uma abordagem de governança baseada em riscos, abordando questões como viés, ameaças de segurança e preocupações éticas.
O relatório indica que o ritmo da implementação está superando os controles internos. Quase seis em cada dez entrevistados (59%) afirmaram que a IA dificulta a conformidade com regulamentos de privacidade e segurança, mas a maioria das organizações não introduziu regras de privacidade dedicadas para sistemas de IA.
Preocupações Operacionais
As preocupações operacionais também foram destacadas. Cinquenta e oito por cento dos entrevistados afirmaram que riscos relacionados a prompts ou entradas, como respostas enganosas ou prejudiciais, eram muito ou extremamente difíceis de minimizar. Mais da metade (56%) relatou desafios em gerenciar riscos de usuários, incluindo a propagação não intencional de desinformação.
Questões de Confiança
O estudo também examinou se os sistemas de IA estão entregando os benefícios esperados nas operações de segurança. Apenas 51% dos entrevistados acreditam que a IA é eficaz na redução do tempo necessário para detectar anomalias ou ameaças emergentes.
A confiança foi ainda menor para usos mais avançados. Menos da metade, ou 48%, avaliou a IA como eficaz para a detecção de ameaças e na busca de insights mais profundos, reduzindo o trabalho manual.
Desafios de Viés e Confiabilidade
Viés e confiabilidade continuam sendo obstáculos significativos. Quase dois terços dos entrevistados (62%) afirmaram que é muito ou extremamente difícil minimizar os riscos de viés e modelo, incluindo saídas injustas ou discriminatórias.
Outras barreiras estão relacionadas à forma como os sistemas de IA são construídos e utilizados. Quarenta e cinco por cento citaram erros nas regras de decisão da IA como um problema principal, enquanto 40% apontaram erros nos dados alimentados aos sistemas de IA.
Conclusão
Para muitas empresas, a IA totalmente autônoma ainda parece estar distante. Apenas 47% afirmaram que seus modelos de IA podem aprender normas robustas e tomar decisões seguras de forma autônoma, enquanto 51% disseram que a supervisão humana é necessária na governança da IA devido à rápida adaptação dos atacantes.
É fundamental que a maturidade em IA vá além da adoção de ferramentas, integrando também responsabilidade desde o início. Quando segurança e governança são incorporadas nos sistemas de IA desde o começo, as organizações podem operar com maior transparência, monitorar os sistemas continuamente e confiar nos resultados entregues pela IA.