Les Risques Ignorés de l’Adoption de l’IA en Entreprise

Dans un monde où l’intelligence artificielle devient omniprésente, les entreprises se précipitent pour l’adopter. Cependant, il est crucial de s’arrêter un instant pour réfléchir à la manière de gérer l’IA en toute sécurité. Cet article examine les risques majeurs que les entreprises semblent ignorer lors de l’intégration de l’IA dans leurs processus.

Quand l’IA devient votre prochain employé

Le rapport « Future of Work » de Microsoft souligne un changement fondamental : les agents d’IA ne sont plus de simples outils, mais deviennent des collègues numériques. Ces agents sont appelés à être « gérés » comme des employés, réalisant des tâches de manière autonome tout en nécessitant une supervision humaine. Cela soulève des questions cruciales : si un agent d’IA commet une erreur, qui en est responsable ?

Reena Richtermeyer, partenaire chez CM Law, insiste sur l’importance d’établir des principes de conformité et de gouvernance au sein de l’organisation. Elle souligne que les structures internes, et non seulement les lois externes, déterminent la sécurité de l’IA déployée. Malheureusement, ces structures sont souvent incomplètes ou absentes.

Une gouvernance par conjecture

Bien que l’IA puisse sembler utile au départ, elle peut rapidement devenir un passif si personne ne surveille son utilisation. Carolyn Troyan, PDG de Leadership 360, souligne que les modèles d’IA doivent être formés et gérés par des humains. La responsabilité de la formation des modèles repose sur les dirigeants qui doivent s’assurer que les agents sont utilisés de manière efficace.

Les parties prenantes doivent être impliquées dès le départ dans le processus d’implémentation de l’IA, afin que les objectifs et les résultats attendus soient clairs. Cependant, une enquête de KPMG de 2023 révèle que seulement 6 % des entreprises disposent d’une équipe dédiée à l’évaluation des risques liés à l’IA.

Lorsque l’IA échoue publiquement

Des entreprises apprennent ces leçons à leurs dépens. Klarna, une entreprise suédoise de technologie financière, a remplacé 700 agents de service à la clientèle par un assistant IA en 2024, mais a dû revenir en arrière après des retours négatifs des clients. Cela montre l’importance d’une supervision humaine dans l’utilisation de l’IA.

Katrina Young, consultante en transformation numérique, note que l’absence de règles claires peut mener à des abus, y compris des implications légales. L’IA doit être utilisée avec prudence pour éviter des problèmes potentiels.

L’essor de l’IA clandestine

Le rapport de Microsoft met également en lumière un phénomène préoccupant : près de 80 % des utilisateurs d’IA introduisent leurs outils sur le lieu de travail de manière non régulée, ce qui complique encore plus la gestion de l’IA au sein des entreprises. Cela rend difficile l’élaboration de politiques cohérentes.

Un leadership redéfini

À mesure que l’IA transforme le monde du travail, les dirigeants doivent apprendre à gérer des technologies qu’ils ne comprennent pas toujours pleinement. Troyan souligne que la capacité à décider quelles tâches peuvent être réalisées par l’IA et lesquelles nécessitent une intervention humaine est essentielle.

Les entreprises doivent également réfléchir à l’impact de l’automatisation sur le développement de la main-d’œuvre. La formation des futurs employés doit être une priorité, surtout si certains postes disparaissent à cause de l’IA.

La responsabilité n’est pas optionnelle

En définitive, même avec des outils avancés, les systèmes d’IA nécessitent toujours une supervision humaine. Young affirme que l’IA ne peut jamais remplacer complètement l’humain. La responsabilité doit être intégrée dès le début, sinon les entreprises risquent de se retrouver à devoir justifier des erreurs face aux régulateurs, clients et employés.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...