Le nouveau modèle de gouvernance de l’IA qui met en garde contre l’IA fantômeh2>
Les outils d’intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la manière dont les tâches quotidiennes sont exécutées. Des équipes de marketing rédigeant des campagnes dans b>ChatGPTb> aux ingénieurs logiciels expérimentant avec des générateurs de code, l’IA pénètre discrètement chaque recoin des opérations commerciales. Cependant, beaucoup de ces utilisations de l’IA se font sous le radar, sans aucune supervision ni gouvernance.p>
En conséquence, l’IA fantôme est devenue un nouveau point aveugle en matière de sécurité. Les cas d’utilisation non gérée et non autorisée de l’IA continueront d’augmenter jusqu’à ce que les organisations repensent leur approche des politiques de l’IA.p>
Établir des gouvernances et des garde-foush3>
Pour anticiper les risques liés à l’IA, les organisations ont besoin de politiques qui encouragent l’utilisation de l’IA avec parcimonie, en accord avec leur appétit pour le risque. Toutefois, cela ne peut se faire avec des modèles de gouvernance obsolètes et des outils non adaptés pour détecter et surveiller l’utilisation de l’IA au sein de l’entreprise.p>
Identifier le bon cadreh3>
Il existe déjà plusieurs cadres et ressources, notamment les directives du b>Department for Science, Innovation and Technology (DSIT)b>, le b>AI Playbook for Governmentb>, le b>Information Commissioner’s Office (ICO)b>, et le b>AI Standards Hubb>. Ces ressources peuvent aider les organisations à construire un cadre responsable et robuste pour l’adoption de l’IA, tout en complétant les normes internationales des organismes tels que l’b>ISO/IECb> et l’b>OCDEb>.p>
Investir dans des outils de visibilitéh3>
Alors qu’une entreprise établit sa feuille de route pour la gestion des risques liés à l’IA, il est crucial que l’équipe de direction en matière de sécurité commence à évaluer ce à quoi ressemble réellement l’utilisation de l’IA dans leur organisation. Cela signifie investir dans des outils de visibilité capables d’examiner les accès et les comportements afin de détecter l’utilisation de l’IA générative dans tous les recoins de l’organisation.p>
Établir un conseil de l’IAh3>
Avec ces informations, le b>CISOb> devrait envisager de créer un conseil de l’IA composé de parties prenantes de toute l’organisation – y compris des équipes informatique, sécurité, juridique et de la direction – pour discuter des risques, des problèmes de conformité et des avantages découlant des outils autorisés et non autorisés qui commencent à s’immiscer dans les environnements d’affaires. Ce conseil peut commencer à façonner des politiques qui répondent aux besoins de l’entreprise de manière gérée en matière de risques.p>
Par exemple, le conseil peut remarquer un outil d’IA fantôme qui a pris de l’ampleur mais qui pourrait ne pas être sûr, alors qu’une alternative plus sûre existe. Une politique peut être établie pour interdire explicitement l’outil dangereux tout en suggérant l’utilisation de l’autre. Souvent, ces politiques devront être accompagnées d’investissements non seulement dans des contrôles de sécurité, mais aussi dans ces outils d’IA alternatifs. Le conseil peut aussi aider à créer une méthode pour que les employés soumettent de nouveaux outils d’IA pour évaluation et approbation à mesure que des avancées apparaissent sur le marché.p>
Mettre à jour la formation sur les politiques de l’IAh3>
Impliquer et former les employés jouera un rôle crucial pour obtenir l’adhésion organisationnelle afin de maintenir l’IA fantôme à distance. Avec de meilleures politiques en place, les employés auront besoin d’une orientation sur les nuances d’une utilisation responsable de l’IA, sur les raisons pour lesquelles certaines politiques existent et sur les risques liés à la gestion des données. Cette formation peut les aider à devenir des partenaires actifs dans une innovation sécurisée.p>
Dans certains secteurs, l’utilisation de l’IA sur le lieu de travail a souvent été un sujet tabou. En définissant clairement les meilleures pratiques pour une utilisation responsable de l’IA et les raisons derrière les politiques et processus d’une organisation, on peut éliminer l’incertitude et atténuer les risques.p>
Gouverner l’avenir de l’IAh3>
L’IA fantôme n’est pas prête de disparaître. À mesure que les outils génératifs s’intègrent plus profondément dans le travail quotidien, le défi ne fera que croître. Les dirigeants doivent décider s’ils voient l’IA fantôme comme une menace incontrôlable ou comme une opportunité de repenser la gouvernance à l’ère de l’IA. Les organisations qui prospéreront seront celles qui embrassent l’innovation avec des garde-fous clairs, rendant l’IA à la fois sûre et transformative.p>