Adoção de Agentes de IA e Desafios de Segurança em Crescimento

Microsoft: Adoção de Agentes de IA Acelerando à Frente dos Controles de Segurança

Pesquisas recentes revelam que a implementação de agentes de IA autônomos em organizações do Reino Unido disparou no último ano, trazendo ganhos de produtividade e desafios de segurança crescentes.

Aumento na Adoção e Risco Emergente

O estudo, que entrevistou 1.000 tomadores de decisão sêniores no Reino Unido, demonstra que, embora as empresas estejam adotando agentes de IA em um ritmo notável, os frameworks de governança que deveriam regulá-los não estão acompanhando essa evolução.

O aumento na adoção de agentes de IA foi quase triplo em apenas doze meses, saltando de 22% para 62%. Além disso, 68% das organizações esperam que os agentes de IA estejam totalmente integrados em seus sistemas dentro dos próximos 12 meses.

No entanto, à medida que a adoção cresce, também surgem “agentes duplos”: agentes de IA introduzidos em ambientes de negócios sem supervisão formal de TI ou segurança, possuindo permissões excessivas ou origens desconhecidas. 84% dos líderes sêniores identificaram esses agentes não sancionados como um risco crescente de segurança.

Os líderes reconhecem que os agentes de IA introduzem desafios de segurança e conformidade que os frameworks existentes não foram projetados para lidar. 85% acreditam que a implementação está avançando mais rápido do que as abordagens tradicionais de supervisão podem suportar, e 80% expressam preocupação com a complexidade de gerenciar agentes em larga escala.

O Que as Empresas Devem Fazer

Além de destacar as preocupações de segurança trazidas pelo crescimento dos agentes, recomendações são oferecidas às organizações para abordar esses desafios crescentes.

A mensagem central é que os agentes de IA devem ser tratados com a mesma rigorosidade aplicada a qualquer outra identidade em um ambiente empresarial, seja humano ou máquina. Isso inclui aplicar princípios de zero trust, garantindo acesso de menor privilégio, definindo permissões claras e assegurando total auditabilidade das atividades dos agentes.

As equipes de segurança identificaram três prioridades imediatas à medida que a adoção avança: manter visibilidade sobre onde os agentes estão operando, integrá-los de forma segura aos sistemas existentes e atender aos requisitos de conformidade e auditoria à medida que a atividade autônoma se expande.

Conclusão

A pesquisa reflete um padrão mais amplo que provavelmente se intensificará. À medida que a IA se torna mais capaz e mais integrada nas operações empresariais, os desafios de segurança que ela introduz crescerão proporcionalmente. A chegada de agentes autônomos não será a última vez que a adoção de tecnologia ultrapassará os frameworks destinados a governá-la.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...