Les Risques Ignorés de l’Adoption de l’IA en Entreprise
Dans un monde où l’intelligence artificielle devient omniprésente, les entreprises se précipitent pour l’adopter. Cependant, il est crucial de s’arrêter un instant pour réfléchir à la manière de gérer l’IA en toute sécurité. Cet article examine les risques majeurs que les entreprises semblent ignorer lors de l’intégration de l’IA dans leurs processus.
Quand l’IA devient votre prochain employé
Le rapport « Future of Work » de Microsoft souligne un changement fondamental : les agents d’IA ne sont plus de simples outils, mais deviennent des collègues numériques. Ces agents sont appelés à être « gérés » comme des employés, réalisant des tâches de manière autonome tout en nécessitant une supervision humaine. Cela soulève des questions cruciales : si un agent d’IA commet une erreur, qui en est responsable ?
Reena Richtermeyer, partenaire chez CM Law, insiste sur l’importance d’établir des principes de conformité et de gouvernance au sein de l’organisation. Elle souligne que les structures internes, et non seulement les lois externes, déterminent la sécurité de l’IA déployée. Malheureusement, ces structures sont souvent incomplètes ou absentes.
Une gouvernance par conjecture
Bien que l’IA puisse sembler utile au départ, elle peut rapidement devenir un passif si personne ne surveille son utilisation. Carolyn Troyan, PDG de Leadership 360, souligne que les modèles d’IA doivent être formés et gérés par des humains. La responsabilité de la formation des modèles repose sur les dirigeants qui doivent s’assurer que les agents sont utilisés de manière efficace.
Les parties prenantes doivent être impliquées dès le départ dans le processus d’implémentation de l’IA, afin que les objectifs et les résultats attendus soient clairs. Cependant, une enquête de KPMG de 2023 révèle que seulement 6 % des entreprises disposent d’une équipe dédiée à l’évaluation des risques liés à l’IA.
Lorsque l’IA échoue publiquement
Des entreprises apprennent ces leçons à leurs dépens. Klarna, une entreprise suédoise de technologie financière, a remplacé 700 agents de service à la clientèle par un assistant IA en 2024, mais a dû revenir en arrière après des retours négatifs des clients. Cela montre l’importance d’une supervision humaine dans l’utilisation de l’IA.
Katrina Young, consultante en transformation numérique, note que l’absence de règles claires peut mener à des abus, y compris des implications légales. L’IA doit être utilisée avec prudence pour éviter des problèmes potentiels.
L’essor de l’IA clandestine
Le rapport de Microsoft met également en lumière un phénomène préoccupant : près de 80 % des utilisateurs d’IA introduisent leurs outils sur le lieu de travail de manière non régulée, ce qui complique encore plus la gestion de l’IA au sein des entreprises. Cela rend difficile l’élaboration de politiques cohérentes.
Un leadership redéfini
À mesure que l’IA transforme le monde du travail, les dirigeants doivent apprendre à gérer des technologies qu’ils ne comprennent pas toujours pleinement. Troyan souligne que la capacité à décider quelles tâches peuvent être réalisées par l’IA et lesquelles nécessitent une intervention humaine est essentielle.
Les entreprises doivent également réfléchir à l’impact de l’automatisation sur le développement de la main-d’œuvre. La formation des futurs employés doit être une priorité, surtout si certains postes disparaissent à cause de l’IA.
La responsabilité n’est pas optionnelle
En définitive, même avec des outils avancés, les systèmes d’IA nécessitent toujours une supervision humaine. Young affirme que l’IA ne peut jamais remplacer complètement l’humain. La responsabilité doit être intégrée dès le début, sinon les entreprises risquent de se retrouver à devoir justifier des erreurs face aux régulateurs, clients et employés.