Política de IA: Antecipando Desafios no Corpo de Bombeiros

Como um Departamento de Incêndio Desenvolveu uma Política de IA Antes que a Tecnologia Superasse a Governança

A inteligência artificial (IA) começou a fazer parte das operações de departamentos de incêndio locais, superando as políticas existentes de forma que pode representar riscos para qualquer agência. Em resposta, um departamento de incêndio buscou desenvolver uma política de uso de IA antes que essa utilização ultrapassasse a governança.

Atraso na Adoção

Frequentemente, somos lentos para adotar, entender ou abraçar tecnologias emergentes. Contudo, à medida que a plataforma de IA se popularizou, ficou claro que a hesitação no desenvolvimento de políticas poderia colocar a agência em risco. O uso independente de IA pelos membros para auxiliar na redação de relatórios de incêndio e médicos rapidamente se tornou uma preocupação organizacional.

Construindo a Política

Após a decisão de gerenciar o uso de chatbots de IA, era necessário fornecer os recursos exigidos aos membros. A política focou na plataforma ChatGPT, que exigiu uma assinatura paga, visto que as versões pagas não são utilizadas no treinamento de modelos futuros. A política também proíbe estritamente o uso de informações pessoalmente identificáveis (PII) ou informações de saúde protegidas (PHI) no chatbot.

Embora a proteção de PHI seja comum, é importante considerar como informações aparentemente benignas podem se tornar PII. Por exemplo, a inclusão de endereços ou informações básicas de chamadas poderia se conectar a indivíduos específicos. Os membros podem usar integrações de escrita de relatórios de um fornecedor atual, mas não podem usar chatbots não nativos para ajudar na redação de relatórios de incidentes ou pacientes.

Para não limitar excessivamente os processos, a política permite o uso de IA que foi integrada a sistemas de software previamente aprovados, bem como aceita integrações amplamente utilizadas. A política sugere, mas não define completamente, situações em que um chatbot pode ser usado, como na escrita de propostas, avaliações de pessoal, gerenciamento de projetos, análise de dados e comunicações diárias.

Além disso, a política enfatiza que o produto final é responsabilidade do usuário, já que muitos chatbots podem fornecer informações imprecisas. Qualquer produto de chatbot deve ser revisado minuciosamente pelo funcionário, incluindo a verificação da validade das informações de origem.

Ação Precoce

À medida que o departamento adota essa tecnologia, foram percebidos benefícios em eficiência e comunicação, embora haja uma curva de aprendizado que se espera continuar no futuro. Algumas dicas simples podem ajudar os usuários a minimizar essa curva, como realizar cursos introdutórios gratuitos oferecidos pela empresa do chatbot e preencher as configurações de personalização no sistema.

Conforme a IA evolui, departamentos de incêndio que se envolverem em desenvolvimento colaborativo e aberto de políticas estarão melhor posicionados para guiar seu uso de maneiras que protejam tanto o pessoal da agência quanto as organizações que servem.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...