Come è stata sviluppata una politica sull’IA prima che la tecnologia superasse la governance
L’intelligenza artificiale è entrata nelle operazioni locali dei vigili del fuoco e sta superando le nostre politiche in un modo che può rappresentare un rischio per qualsiasi agenzia. In risposta, è stato deciso di sviluppare una politica sull’uso dell’IA prima che l’uso superasse la governance.
Inseguire il ritardo
Spesso, siamo lenti ad adottare, comprendere o abbracciare le tecnologie emergenti. Tuttavia, con l’ingresso di piattaforme di IA come ChatGPT, è diventato sempre più chiaro che l’indecisione nello sviluppo delle politiche potrebbe mettere a rischio l’agenzia. Ci si è resi conto che alcuni membri stavano utilizzando il software per assisterli nella redazione di rapporti di incendio e medici.
È evidente che i vigili del fuoco non trovano soddisfacente la parte amministrativa della professione. Pertanto, si è visto un’evoluzione naturale nell’uso di questo software per semplificare il lavoro. Tuttavia, non avere un modo per gestire, controllare o fornire aspettative ha creato un vuoto amministrativo che doveva essere affrontato rapidamente.
La sfida principale era creare un documento di governance applicabile a tutti i dipartimenti della città, sufficientemente flessibile da evolversi senza necessitare di aggiornamenti costanti, ma fornendo al contempo una chiara direzione per i dipendenti.
Costruzione della nostra politica
Una volta presa la decisione di gestire l’uso dei chatbot IA, è stato necessario fornire le risorse necessarie ai membri. Si è dato priorità alla piattaforma ChatGPT, imponendo l’uso di un abbonamento aziendale a pagamento, poiché la versione gratuita non contribuisce all’addestramento dei modelli futuri.
La politica stabilisce anche che le informazioni identificabili personalmente (PII) o le informazioni sanitarie protette (PHI) non possono essere utilizzate nel chatbot. È fondamentale considerare come l’inserimento di informazioni apparentemente innocue possa diventare PII. Si è dovuto determinare se i membri potessero inserire indirizzi, informazioni di chiamata di base e risultati degli incidenti.
La politica consente l’uso di IA integrata nei sistemi software precedentemente approvati, come RMS e Microsoft Office, senza vincolare i processi in un modo irrealistico. Viene anche accettato l’uso di integrazioni ampiamente utilizzate come Google.
Inoltre, la politica suggerisce, senza definirlo completamente, i casi in cui è possibile utilizzare un chatbot, come nella scrittura di sovvenzioni, valutazioni del personale, gestione dei progetti, analisi dei dati e comunicazioni quotidiane. Un’altra risorsa utile è la connessione del chatbot a una cartella condivisa che consente ricerche conversazionali tra tutti i documenti.
Infine, la politica sottolinea che il risultato finale è responsabilità dell’utente. Poiché molti chatbot utilizzano modelli predittivi, possono fornire informazioni inaccurate. Qualsiasi prodotto chatbot deve essere attentamente esaminato dall’impiegato, assicurandosi che le informazioni alla base siano valide.
Prendere azioni precoci
Con l’adozione di questa tecnologia, si sono riscontrati benefici in termini di efficienza e comunicazione, ma c’è anche una curva di apprendimento che ci si aspetta continui nel futuro. Alcuni semplici consigli per aiutare gli utenti a minimizzare questa curva includono la partecipazione ai corsi introduttivi offerti dalla società del chatbot e la personalizzazione delle impostazioni del sistema.
Con l’evoluzione continua dell’IA, i dipartimenti dei vigili del fuoco che intraprendono uno sviluppo politico precoce, collaborativo e aperto saranno meglio posizionati per guidarne l’uso in modi che proteggano sia il personale dell’agenzia che le organizzazioni che servono. Non si tratta di un esercizio tecnico, ma piuttosto di una responsabilità di leadership in cui il dipartimento deve svolgere un ruolo attivo.