Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

A traffic light to illustrate the need for clear guidelines and regulations in managing AI technologies.

Le nouveau modèle de gouvernance de l’IA qui met en garde contre l’IA fantômeh2>

Les outils d’intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la manière dont les tâches quotidiennes sont exécutées. Des équipes de marketing rédigeant des campagnes dans b>ChatGPTb> aux ingénieurs logiciels expérimentant avec des générateurs de code, l’IA pénètre discrètement chaque recoin des opérations commerciales. Cependant, beaucoup de ces utilisations de l’IA se font sous le radar, sans aucune supervision ni gouvernance.p>

En conséquence, l’IA fantôme est devenue un nouveau point aveugle en matière de sécurité. Les cas d’utilisation non gérée et non autorisée de l’IA continueront d’augmenter jusqu’à ce que les organisations repensent leur approche des politiques de l’IA.p>

Établir des gouvernances et des garde-foush3>

Pour anticiper les risques liés à l’IA, les organisations ont besoin de politiques qui encouragent l’utilisation de l’IA avec parcimonie, en accord avec leur appétit pour le risque. Toutefois, cela ne peut se faire avec des modèles de gouvernance obsolètes et des outils non adaptés pour détecter et surveiller l’utilisation de l’IA au sein de l’entreprise.p>

Identifier le bon cadreh3>

Il existe déjà plusieurs cadres et ressources, notamment les directives du b>Department for Science, Innovation and Technology (DSIT)b>, le b>AI Playbook for Governmentb>, le b>Information Commissioner’s Office (ICO)b>, et le b>AI Standards Hubb>. Ces ressources peuvent aider les organisations à construire un cadre responsable et robuste pour l’adoption de l’IA, tout en complétant les normes internationales des organismes tels que l’b>ISO/IECb> et l’b>OCDEb>.p>

Investir dans des outils de visibilitéh3>

Alors qu’une entreprise établit sa feuille de route pour la gestion des risques liés à l’IA, il est crucial que l’équipe de direction en matière de sécurité commence à évaluer ce à quoi ressemble réellement l’utilisation de l’IA dans leur organisation. Cela signifie investir dans des outils de visibilité capables d’examiner les accès et les comportements afin de détecter l’utilisation de l’IA générative dans tous les recoins de l’organisation.p>

Établir un conseil de l’IAh3>

Avec ces informations, le b>CISOb> devrait envisager de créer un conseil de l’IA composé de parties prenantes de toute l’organisation – y compris des équipes informatique, sécurité, juridique et de la direction – pour discuter des risques, des problèmes de conformité et des avantages découlant des outils autorisés et non autorisés qui commencent à s’immiscer dans les environnements d’affaires. Ce conseil peut commencer à façonner des politiques qui répondent aux besoins de l’entreprise de manière gérée en matière de risques.p>

Par exemple, le conseil peut remarquer un outil d’IA fantôme qui a pris de l’ampleur mais qui pourrait ne pas être sûr, alors qu’une alternative plus sûre existe. Une politique peut être établie pour interdire explicitement l’outil dangereux tout en suggérant l’utilisation de l’autre. Souvent, ces politiques devront être accompagnées d’investissements non seulement dans des contrôles de sécurité, mais aussi dans ces outils d’IA alternatifs. Le conseil peut aussi aider à créer une méthode pour que les employés soumettent de nouveaux outils d’IA pour évaluation et approbation à mesure que des avancées apparaissent sur le marché.p>

Mettre à jour la formation sur les politiques de l’IAh3>

Impliquer et former les employés jouera un rôle crucial pour obtenir l’adhésion organisationnelle afin de maintenir l’IA fantôme à distance. Avec de meilleures politiques en place, les employés auront besoin d’une orientation sur les nuances d’une utilisation responsable de l’IA, sur les raisons pour lesquelles certaines politiques existent et sur les risques liés à la gestion des données. Cette formation peut les aider à devenir des partenaires actifs dans une innovation sécurisée.p>

Dans certains secteurs, l’utilisation de l’IA sur le lieu de travail a souvent été un sujet tabou. En définissant clairement les meilleures pratiques pour une utilisation responsable de l’IA et les raisons derrière les politiques et processus d’une organisation, on peut éliminer l’incertitude et atténuer les risques.p>

Gouverner l’avenir de l’IAh3>

L’IA fantôme n’est pas prête de disparaître. À mesure que les outils génératifs s’intègrent plus profondément dans le travail quotidien, le défi ne fera que croître. Les dirigeants doivent décider s’ils voient l’IA fantôme comme une menace incontrôlable ou comme une opportunité de repenser la gouvernance à l’ère de l’IA. Les organisations qui prospéreront seront celles qui embrassent l’innovation avec des garde-fous clairs, rendant l’IA à la fois sûre et transformative.p>

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...

L’Australie envisage l’IA pour révolutionner les soumissions gouvernementales

Le gouvernement australien pourrait envisager d'utiliser des programmes d'intelligence artificielle pour rédiger des soumissions sensibles au cabinet, malgré les préoccupations concernant la sécurité...