Governança de Dados Zero-Trust para Proteger Modelos de IA

Governança de Dados de Confiança Zero Necessária para Proteger Modelos de IA

Organizações precisam ser menos confiantes em dados, dado o quanto deles é gerado por IA, segundo novas pesquisas.

À medida que mais empresas adotam a IA generativa, cresce o risco de que futuros modelos de linguagem de larga escala (LLMs) sejam treinados com saídas de modelos anteriores, aumentando o perigo do chamado colapso de modelo.

Recomendações para Mitigar Riscos

Para evitar isso, recomenda-se que as empresas façam mudanças para gerenciar o risco de dados não verificados. Isso inclui a nomeação de um líder em governança de IA para trabalhar em estreita colaboração com equipes de dados e análises; melhorar a colaboração entre departamentos com grupos multifuncionais que incluem representantes de cibersegurança, dados e análises; e atualizar as políticas existentes de segurança e gerenciamento de dados para abordar riscos provenientes de dados gerados por IA.

Projeções Futuras

Prevê-se que, até 2028, 50% das organizações terão que adotar uma postura de confiança zero para a governança de dados como resultado deste aumento de dados não verificados gerados por IA.

“As organizações não podem mais confiar implicitamente nos dados ou assumir que foram gerados por humanos”, afirmou um executivo. “À medida que os dados gerados por IA se tornam predominantes e indistinguíveis dos dados criados por humanos, uma postura de confiança zero que estabelece medidas de autenticação e verificação é essencial para proteger os resultados comerciais e financeiros.”

Desafios e Abordagens Governamentais

O que torna a situação ainda mais complicada são as diferentes abordagens que os governos podem adotar em relação à IA. “Os requisitos podem diferir significativamente entre geografias, com algumas jurisdições buscando impor controles mais rigorosos sobre conteúdo gerado por IA, enquanto outras podem adotar uma abordagem mais flexível”, foi destacado.

Um exemplo notável de como a IA pode causar problemas de governança de dados foi quando uma empresa teve que reembolsar parte de uma taxa de contrato governamental após erros gerados por IA, incluindo citações legais inexistentes, serem incluídos em seu relatório final.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...