Qui doit gérer les agents AI : IT ou RH ?

A bridge

Qui gère les agents d’IA : l’informatique ou les ressources humaines ?

Avec l’intégration croissante des agents d’IA dans les opérations commerciales, les organisations sont confrontées à un nouveau défi pressant : qui devrait gérer ces systèmes pilotés par l’IA – l’informatique ou les ressources humaines ?

L’IA n’est plus limitée à l’automatisation en arrière-plan ; elle participe désormais activement au service client, au recrutement, à l’analyse des données et même à la prise de décisions stratégiques. Avec l’influence croissante de l’IA sur l’efficacité opérationnelle et la culture du lieu de travail, les entreprises doivent déterminer quel département est le mieux placé pour superviser sa performance, ses considérations éthiques et son optimisation continue.

LE CAS POUR L’INFORMATIQUE : LES ARCHITECTES DE L’IA

Historiquement, l’informatique a été l’épine dorsale de la mise en œuvre et de la maintenance technologique, en veillant à ce que les systèmes restent sécurisés, efficaces et conformes. Étant donné que les agents d’IA sont fondamentalement des entités pilotées par des logiciels, l’informatique assume naturellement la responsabilité de leur infrastructure, de leur sécurité et de la conformité réglementaire.

Les équipes informatiques jouent un rôle crucial dans :

  • Maintenir la fiabilité et la précision de l’IA : Les modèles d’IA doivent être surveillés et ajustés pour prévenir la dégradation des performances au fil du temps. L’informatique peut garantir une intégration transparente avec les systèmes d’entreprise et les bases de données existantes.
  • Gérer les risques de sécurité : L’IA interagit avec d’énormes quantités de données sensibles, allant des dossiers clients aux analyses financières. L’informatique doit protéger contre les menaces de cybersécurité, les accès non autorisés et la désinformation générée par l’IA.
  • Assurer la conformité réglementaire : La gouvernance de l’IA doit s’aligner sur les lois évolutives comme le RGPD et les politiques éthiques d’entreprise en matière d’IA. L’informatique peut suivre et appliquer les protocoles de conformité pour atténuer les risques juridiques.

Cependant, bien que l’informatique assure le bon fonctionnement de l’IA, elle ne traite pas toujours l’impact humain de l’IA dans le lieu de travail. C’est là que les ressources humaines interviennent.

LE CAS POUR LES RESSOURCES HUMAINES : LES ARCHITECTES DES PERSONNES ET DE LA CULTURE

Les ressources humaines ont traditionnellement été responsables de la gestion des employés, mais que se passe-t-il lorsque des agents d’IA commencent à agir comme des collègues numériques et influencent les décisions d’embauche, la distribution des charges de travail et même les évaluations des employés ? À mesure que l’IA interagit de plus en plus avec la main-d’œuvre, les ressources humaines devraient intervenir pour superviser son rôle dans la dynamique du lieu de travail.

Les responsabilités des ressources humaines dans la gouvernance de l’IA comprennent :

  • Prévenir les biais de l’IA dans l’embauche et l’évaluation des performances : Les outils de recrutement pilotés par l’IA ont été trouvés pour présenter des biais de genre et raciaux s’ils ne sont pas soigneusement gérés. Les ressources humaines doivent garantir l’équité et la prise de décision éthique pilotée par l’IA.
  • Faciliter la collaboration homme-IA : Les employés doivent s’adapter à travailler aux côtés des outils d’IA. Les ressources humaines peuvent diriger des programmes de formation pour garantir que l’IA améliore, plutôt que remplace, les compétences humaines.
  • Évaluer l’impact de l’IA sur la culture d’entreprise : Si l’IA dicte les métriques de productivité des employés ou gère les interactions avec les clients, les ressources humaines doivent s’assurer qu’elle s’aligne sur les valeurs de l’entreprise et améliore, plutôt que diminue, le moral au travail.

UNE RESPONSABILITÉ PARTAGÉE : LA CONVERGENCE DE LA SURVEILLANCE DE L’IA

La réalité est que la gestion de l’IA n’est pas une question de choix exclusif. Au contraire, c’est une responsabilité partagée entre l’informatique et les ressources humaines. Tout comme les ressources humaines collaborent avec l’informatique lors de la mise en œuvre de logiciels de gestion des employés, la surveillance de l’IA nécessite une approche interfonctionnelle.

Les organisations visionnaires forment des comités de gouvernance de l’IA, qui réunissent des leaders de l’informatique, des ressources humaines, du juridique et des opérations pour établir des politiques et des lignes directrices éthiques en matière d’IA, auditer régulièrement les décisions de l’IA pour détecter les biais et les conséquences involontaires, et définir les meilleures pratiques pour la collaboration homme-IA.

Par exemple, Microsoft a établi un Comité sur l’Éthique et les Effets de l’IA dans l’Ingénierie et la Recherche (AETHER), qui comprend des experts de plusieurs disciplines pour garantir que l’IA s’aligne sur des principes éthiques tout en respectant les normes de performance technique.

QUEL AVENIR ? L’ÉMERGENCE DE RÔLES DE GESTION DE L’IA

À mesure que les agents d’IA deviennent une partie permanente de la main-d’œuvre, de nouveaux rôles de leadership sont susceptibles d’émerger pour combler le fossé entre la supervision technique de l’informatique et l’accent mis par les ressources humaines sur l’impact sur le lieu de travail.

Les entreprises peuvent introduire des postes tels que :

  • Directeur de l’Éthique de l’IA : Responsable de garantir que les décisions pilotées par l’IA s’alignent sur des normes éthiques et des valeurs d’entreprise.
  • Responsable de la Main-d’œuvre IA : Supervise comment l’IA interagit avec les employés humains pour garantir l’équité et la productivité.
  • Directeur de la Gouvernance de l’IA : Développe des politiques qui équilibrent les avantages de l’IA avec les risques potentiels.

En définissant proactivement les responsabilités de gestion de l’IA dès aujourd’hui, les entreprises peuvent façonner l’IA comme une force d’innovation, d’efficacité et de pratiques commerciales éthiques.

LA PLUS GRANDE QUESTION : STRUCTURER LA SURVEILLANCE DE L’IA POUR L’AVENIR

La question n’est pas seulement « L’informatique ou les ressources humaines devraient-elles gérer les agents d’IA ? » mais « Comment les entreprises devraient-elles structurer la surveillance de l’IA pour maximiser ses avantages tout en atténuant les risques ? » Les entreprises qui établissent dès maintenant des stratégies claires de gouvernance de l’IA sont les plus susceptibles de diriger l’avenir du travail.

Articles

Nouvelles règles européennes sur l’IA : un code de pratique attendu d’ici fin 2025

Un code de pratique conçu pour aider des milliers d'entreprises à se conformer aux règles sur l'intelligence artificielle de l'Union européenne pourrait ne s'appliquer qu'à la fin de 2025. La...

Crise de responsabilité de l’IA : Les entreprises face à l’échec

L'intelligence artificielle a atteint un point d'inflexion, où de nombreuses initiatives ne parviennent jamais à être mises en production, exposant les organisations à des risques cachés. Sans une...

Grace période pour la conformité au Code de l’IA

La Commission envisage d'offrir aux entreprises un délai de grâce pour se conformer au code de l'IA. Cette initiative vise à faciliter l'adoption des nouvelles régulations par les sociétés concernées...

Texas innove avec une législation sur l’intelligence artificielle

Le 22 juin 2025, le Texas a adopté la loi sur la gouvernance de l'intelligence artificielle responsable, faisant de l'État le deuxième à mettre en œuvre une législation complète sur l'IA. Cette loi...

Texas innove avec une législation sur l’intelligence artificielle

Le 22 juin 2025, le Texas a adopté la loi sur la gouvernance de l'intelligence artificielle responsable, faisant de l'État le deuxième à mettre en œuvre une législation complète sur l'IA. Cette loi...

Les lois européennes face à la montée des deepfakes

Le Danemark a adopté une loi qui accorde aux citoyens le droit d'auteur sur leur propre image afin de lutter contre les vidéos "deepfake". D'autres pays européens, comme la France et le Royaume-Uni...

Stratégies pour une IA éthique et durable au Canada

Le gouvernement fédéral souhaite dynamiser la productivité en lançant l'intelligence artificielle (IA) "à grande échelle". Cela inclut la modernisation du service public avec des outils d'IA, mais il...

Réglementation de l’IA : un nouveau défi pour les assureurs

Le 1er juillet 2025, le Sénat des États-Unis a voté massivement pour rejeter un moratoire proposé de dix ans sur la réglementation de l'intelligence artificielle au niveau des États. Cette décision...

Réglementation de l’IA : un nouveau défi pour les assureurs

Le 1er juillet 2025, le Sénat des États-Unis a voté massivement pour rejeter un moratoire proposé de dix ans sur la réglementation de l'intelligence artificielle au niveau des États. Cette décision...