Como um Departamento de Incêndio Desenvolveu uma Política de IA Antes que a Tecnologia Superasse a Governança
A inteligência artificial (IA) começou a fazer parte das operações de departamentos de incêndio locais, superando as políticas existentes de forma que pode representar riscos para qualquer agência. Em resposta, um departamento de incêndio buscou desenvolver uma política de uso de IA antes que essa utilização ultrapassasse a governança.
Atraso na Adoção
Frequentemente, somos lentos para adotar, entender ou abraçar tecnologias emergentes. Contudo, à medida que a plataforma de IA se popularizou, ficou claro que a hesitação no desenvolvimento de políticas poderia colocar a agência em risco. O uso independente de IA pelos membros para auxiliar na redação de relatórios de incêndio e médicos rapidamente se tornou uma preocupação organizacional.
Construindo a Política
Após a decisão de gerenciar o uso de chatbots de IA, era necessário fornecer os recursos exigidos aos membros. A política focou na plataforma ChatGPT, que exigiu uma assinatura paga, visto que as versões pagas não são utilizadas no treinamento de modelos futuros. A política também proíbe estritamente o uso de informações pessoalmente identificáveis (PII) ou informações de saúde protegidas (PHI) no chatbot.
Embora a proteção de PHI seja comum, é importante considerar como informações aparentemente benignas podem se tornar PII. Por exemplo, a inclusão de endereços ou informações básicas de chamadas poderia se conectar a indivíduos específicos. Os membros podem usar integrações de escrita de relatórios de um fornecedor atual, mas não podem usar chatbots não nativos para ajudar na redação de relatórios de incidentes ou pacientes.
Para não limitar excessivamente os processos, a política permite o uso de IA que foi integrada a sistemas de software previamente aprovados, bem como aceita integrações amplamente utilizadas. A política sugere, mas não define completamente, situações em que um chatbot pode ser usado, como na escrita de propostas, avaliações de pessoal, gerenciamento de projetos, análise de dados e comunicações diárias.
Além disso, a política enfatiza que o produto final é responsabilidade do usuário, já que muitos chatbots podem fornecer informações imprecisas. Qualquer produto de chatbot deve ser revisado minuciosamente pelo funcionário, incluindo a verificação da validade das informações de origem.
Ação Precoce
À medida que o departamento adota essa tecnologia, foram percebidos benefícios em eficiência e comunicação, embora haja uma curva de aprendizado que se espera continuar no futuro. Algumas dicas simples podem ajudar os usuários a minimizar essa curva, como realizar cursos introdutórios gratuitos oferecidos pela empresa do chatbot e preencher as configurações de personalização no sistema.
Conforme a IA evolui, departamentos de incêndio que se envolverem em desenvolvimento colaborativo e aberto de políticas estarão melhor posicionados para guiar seu uso de maneiras que protejam tanto o pessoal da agência quanto as organizações que servem.