Comment une politique d’IA a été élaborée avant que la technologie ne dépasse la gouvernance
La technologie de l’intelligence artificielle (IA) a été intégrée dans les opérations des services d’incendie locaux, dépassant nos politiques d’une manière qui peut poser un risque pour toute agence. En réponse, un département de pompiers a cherché à développer une politique d’utilisation de l’IA avant que son utilisation ne dépasse la gouvernance.
Un retard à combler
Souvent, nous sommes lents à adopter, comprendre ou embrasser les technologies émergentes. Cependant, avec l’arrivée de plateformes d’IA, il est devenu de plus en plus clair que notre hésitation à développer des politiques pourrait mettre notre agence en danger. Ce qui a commencé par des membres intégrant indépendamment l’IA dans leur travail est rapidement devenu un sujet de préoccupation organisationnelle.
Le principal défi administratif a été de créer un document de gouvernance applicable à tous les départements de la ville, suffisamment flexible pour évoluer sans nécessiter des mises à jour constantes, tout en fournissant une direction claire pour les employés.
Élaboration de notre politique
Une fois la décision prise que l’organisation gérerait l’utilisation des chatbots d’IA, il était nécessaire de fournir les ressources requises aux membres. La ville s’est concentrée sur une plateforme d’IA en particulier et a imposé l’utilisation d’un abonnement commercial payant, afin d’éviter que les informations personnelles ne soient utilisées dans la formation de futurs modèles.
La politique stipule également que les informations personnelles identifiables ou les informations de santé protégées ne doivent en aucun cas être utilisées dans le chatbot. Il a été crucial de déterminer quels types d’informations pouvaient être entrés, afin d’éviter de relier des données apparemment banales à des individus spécifiques.
La politique inclut également des dispositions permettant l’utilisation de l’IA intégrée à des systèmes logiciels déjà approuvés, tout en acceptant des intégrations largement utilisées.
Implications et risques
La politique suggère des situations où un chatbot peut être utilisé, comme la rédaction de subventions, les évaluations de personnel, la gestion de projets, l’analyse de données et les communications quotidiennes. Un outil utile est la connexion du chatbot à un dossier partagé, permettant des recherches documentaires conversationnelles.
Enfin, la politique souligne que le produit final est de la responsabilité de l’utilisateur, car les chatbots peuvent parfois fournir des informations inexactes. Chaque produit chatbot doit être soigneusement examiné par l’employé pour garantir la validité des informations sources.
Conclusion
Alors que le département adopte cette technologie, les avantages en matière d’efficacité et de communication sont visibles. Toutefois, une courbe d’apprentissage est attendue. Des conseils simples peuvent aider les utilisateurs à minimiser cette courbe, comme suivre des cours d’introduction gratuits et remplir les paramètres de personnalisation dans le système.
À mesure que l’IA continue d’évoluer, les départements de pompiers qui s’engagent dans un développement précoce, collaboratif et ouvert des politiques seront mieux placés pour orienter son utilisation de manière à protéger le personnel de l’agence et les organisations qu’ils servent. Cela nécessite une responsabilité de leadership active de la part du département de pompiers.