Gestão de Risco no Uso de IA no Local de Trabalho

Uso de IA no Local de Trabalho: O que os Empregadores Devem Fazer Agora para Gerenciar Riscos

Ferramentas de inteligência artificial, particularmente a IA generativa, estão sendo cada vez mais utilizadas no ambiente de trabalho, muitas vezes através de uma adoção informal impulsionada pelos próprios funcionários, em vez de decisões de implantação em nível empresarial. Embora a regulamentação abrangente da inteligência artificial ainda esteja indefinida, o trabalho assistido por IA já é uma realidade para muitos empregadores, frequentemente sem orientações, supervisão ou documentação formal. Como resultado, os empregadores podem carecer de insights sobre como essas ferramentas estão sendo utilizadas, quais dados estão sendo compartilhados e quem é responsável pelos resultados assistidos por IA, criando exposição antes que um problema surja.

Como a Inteligência Artificial Está Sendo Usada no Local de Trabalho

Ao longo de diversas indústrias, os funcionários estão utilizando ferramentas habilitadas por IA para auxiliar tanto em atividades rotineiras quanto substanciais. Os usos comuns incluem a redação de comunicações escritas, políticas e documentação de desempenho; triagem ou resumo de candidaturas e currículos; preparação de materiais de avaliação; geração de conteúdo de treinamento ou orientações internas; e assistência na documentação disciplinar ou de rescisão. Muitas dessas ferramentas estão disponíveis publicamente ou incorporadas em plataformas de software existentes. Em muitas organizações, as ferramentas de IA estão sendo usadas sem coordenação com as funções jurídicas, de recursos humanos ou de tecnologia da informação. Enquanto tal uso pode aumentar a eficiência, ele também pode introduzir riscos onde os empregadores carecem de parâmetros claros que governem o uso aceitável, supervisão apropriada e responsabilidade.

Áreas de Risco Relacionadas ao Emprego

O uso não gerenciado da IA pode implicar várias áreas da legislação trabalhista e riscos no local de trabalho, especialmente quando os resultados assistidos por IA influenciam decisões de emprego.

Privacidade e Confidencialidade de Dados

Os funcionários podem inserir informações sensíveis em ferramentas de IA, incluindo dados de empregados e candidatos, detalhes de compensação, informações médicas ou dados confidenciais de negócios. Dependendo da ferramenta e sua configuração, essas informações podem ser retidas, processadas ou usadas de maneiras que não são totalmente transparentes para o empregador, aumentando os riscos de privacidade, confidencialidade e conformidade.

Decisões de Contratação, Promoção e Disciplina

A triagem, avaliação ou redação assistida por IA relacionada a decisões de emprego pode levantar preocupações sobre viés, impacto desigual e precisão da documentação. Esses riscos são aumentados quando ferramentas de IA são usadas para influenciar ou apoiar decisões de contratação, promoção, disciplina ou rescisão sem padrões claros, transparência em relação aos insumos, revisão humana independente e responsabilidade pelas decisões finais.

Precisão e Confiabilidade do Conteúdo Gerado por IA

O conteúdo gerado por IA é inerentemente suscetível a imprecisões, incluindo as chamadas alucinações: saídas que parecem autoritativas ou plausíveis, mas são imprecisas, incompletas ou fabricadas. Quando os empregadores dependem de conteúdo gerado por IA sem uma verificação humana significativa, eles podem não ser capazes de defender credivelmente a precisão ou a base desse conteúdo se ele for posteriormente contestado. O uso de saídas não verificadas de IA em arquivos de pessoal, decisões de emprego ou comunicações externas pode aumentar significativamente a exposição a litígios e regulamentações.

Considerações sobre Litígios e Descobertas

O uso de ferramentas de IA pode complicar significativamente as obrigações de descoberta e criar exposição a litígios uma vez que uma disputa surja. Os empregadores podem ser obrigados a identificar quais ferramentas de IA foram usadas em conexão com decisões de emprego contestadas, produzir comandos ou insumos inseridos em sistemas de IA, explicar como as saídas geradas por IA foram revisadas e incorporadas nas decisões finais, demonstrar que houve supervisão humana e preservar o conteúdo gerado por IA relevante para a disputa. A credibilidade de um empregador pode ser prejudicada se não puder articular claramente como as ferramentas de IA foram usadas, quem exerceu julgamento e se as decisões foram impulsionadas por raciocínio humano ou saída automatizada.

Observações da Prática Atual: Uma Lacuna de Governança

Através das organizações, uma lacuna de governança consistente está emergindo em torno do uso de IA no local de trabalho. Os funcionários frequentemente usam ferramentas de IA generativa sem aprovação, orientação ou treinamento, e frequentemente não há clareza organizacional sobre quais informações podem ou não ser inseridas em sistemas de IA. As práticas de uso de IA geralmente variam entre departamentos dentro da mesma organização, com pouca coordenação ou supervisão centralizada. Os funcionários geralmente recebem treinamento limitado sobre limitações da IA, riscos associados ou a necessidade de verificação humana das saídas geradas por IA. Também frequentemente não há uma responsabilidade clara pelo produto de trabalho assistido por IA, e a documentação limitada sobre quais ferramentas de IA estão em uso ou como estão sendo implantadas. Essas lacunas não são teóricas; elas frequentemente se tornam visíveis apenas quando um empregador precisa defender uma decisão de emprego e explicar que papel, se houver, a IA desempenhou nessa decisão.

Elementos de uma Política Eficaz de Uso de IA

Uma política de uso de IA bem elaborada serve a múltiplas funções de gerenciamento de riscos. Ela estabelece limites claros para o uso aceitável, cria responsabilidade pelo produto de trabalho assistido por IA e ajuda a gerar documentação que pode ser crítica para defender decisões de emprego. Não existe um modelo único que se encaixe em todas as organizações, mas políticas eficazes abordam consistentemente um conjunto central de questões. Essas questões geralmente incluem a definição do escopo das ferramentas de IA cobertas e recursos habilitados por IA; a especificação de usos permitidos e proibidos; a restrição dos tipos de dados que podem ser inseridos em sistemas de IA, incluindo dados pessoais de funcionários e informações confidenciais de negócios; e a exigência de revisão humana significativa antes que saídas assistidas por IA sejam utilizadas. Políticas eficazes também abordam os limites para o uso de IA em decisões de contratação, promoção, disciplina e rescisão; supervisão da funcionalidade de IA incorporada em plataformas de terceiros; expectativas de diligência com fornecedores; e responsabilidade pelo produto de trabalho assistido por IA. As políticas são mais eficazes quando são práticas, claramente escritas e alinhadas com a forma como os funcionários realizam seu trabalho.

Passos que os Empregadores Devem Considerar Tomar Agora

Os empregadores não precisam resolver todas as questões relacionadas à IA imediatamente, mas vários passos a curto prazo podem reduzir significativamente o risco. Os empregadores devem começar identificando como as ferramentas de IA estão sendo usadas atualmente dentro da organização, incluindo a funcionalidade de IA incorporada em plataformas de terceiros. Os empregadores também devem considerar a adoção de orientações políticas básicas que definem usos permitidos, proíbem categorias específicas de insumos e exigem supervisão humana significativa antes que saídas assistidas por IA sejam utilizadas. Treinamento direcionado para pessoal de recursos humanos, gerentes e outros usuários é frequentemente essencial para garantir implementação consistente e reforçar expectativas de verificação. Por fim, os empregadores podem desejar revisar processos de contratação, promoção, gestão de desempenho e disciplina para determinar se ferramentas de IA estão sendo usadas e se controles apropriados estão em vigor. A coordenação entre funções jurídicas, de recursos humanos, tecnologia da informação, conformidade e aquisição pode ajudar a monitorar termos de fornecedores, manter documentação e atualizar orientações internas à medida que os requisitos legais e as práticas empresariais evoluem.

Olhando para o Futuro

As ferramentas de inteligência artificial continuarão a evoluir, assim como o cenário legal e regulatório que governa seu uso no local de trabalho. Empregadores que adotam uma abordagem ponderada e prática agora, com foco em governança, responsabilidade e treinamento, estarão melhor posicionados para se adaptar à medida que as expectativas continuem a se desenvolver.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...