Gouverner l’utilisation interne de l’intelligence artificielle – Considérations clés
De nombreuses études indiquent que plus de 70 % des entreprises utilisent l’intelligence artificielle (IA) en interne. Dans certains cas, cela signifie le développement d’un outil agentique ou d’un chatbot orienté client pour améliorer l’efficacité d’un flux de travail particulier. Dans d’autres cas, cela peut être des utilisations plus générales par des employés d’outils IA largement disponibles.
Bien que ces outils puissent créer des efficacités et réduire les coûts, gérer leur utilisation au sein d’une organisation est crucial. Par leur nature fondamentale, leur utilisation, même de manière informelle, par les entreprises et leurs employés peut introduire des risques significatifs qui ne sont pas immédiatement apparents. Ce bulletin identifie plusieurs de ces risques et fournit des suggestions pour leur gestion.
La menace pour les droits légaux établis
Dans de nombreux cas, l’utilisation d’outils IA nécessite que des informations soient transmises par l’utilisateur à un tiers pour traitement, avec le produit résultant retourné à l’utilisateur. Cet élément — la transmission de données en dehors d’une organisation — peut entrer en conflit avec les meilleures pratiques traditionnelles pour préserver la confidentialité des informations ainsi qu’avec les exigences légales pour maintenir des droits précieux.
Par exemple, pour breveter une technologie, il est nécessaire que l’idée n’ait pas été divulguée publiquement auparavant. Par conséquent, la transmission d’informations confidentielles à un tiers par le biais d’un outil IA pourrait compromettre la brevetabilité d’une idée. Il est donc essentiel de contrôler attentivement les informations fournies à tout outil IA externe.
Un problème similaire se pose en ce qui concerne la préservation du privilège avocat-client. Le traitement confidentiel des informations partagées entre une personne ou une entreprise et leur avocat est un principe fondamental du droit, mais ce droit existe seulement tant que l’information n’est pas partagée avec d’autres parties.
De plus, il existe des préoccupations quant à la perte de confidentialité en général, ce qui présente à la fois le risque pour une entreprise de perdre le traitement confidentiel d’informations propriétaires ainsi que le risque de violation d’un contrat où les informations ont été fournies par un tiers sous les termes d’un accord de confidentialité ou de non-divulgation. Il est donc crucial que les entreprises restreignent et surveillent activement l’utilisation de ces outils par les employés.
La menace pour les informations personnelles et les mesures de sécurité
Il existe des préoccupations croissantes concernant les failles de sécurité qui surviennent lors de l’introduction de technologies non testées dans un écosystème informatique existant. Par exemple, sans mesures de sécurité solides, il pourrait être possible pour des acteurs malveillants d’accéder à des systèmes où le traitement d’un nouvel outil IA est connecté à Internet. Assurer que tous les services sont soigneusement examinés est vital pour protéger les entreprises contre des dommages imprévus.
Il existe également des préoccupations selon lesquelles la fourniture de certaines informations, telles que des informations personnelles, peut constituer une violation des lois régissant l’utilisation et la divulgation de ces informations. Il est anticipé que la réglementation gouvernant l’utilisation des informations personnelles avec les outils IA s’étendra dans un avenir proche.
La nécessité de transparence et de supervision humaine
Alors que les cadres réglementaires autour de l’IA continuent de se développer, un élément commun dans les discussions politiques est l’importance de la transparence. Les entreprises doivent veiller à respecter toutes les exigences de divulgation associées à leur utilisation des systèmes IA. De plus, il existe de nombreux rapports d’entreprises produisant des rapports « hallucinés » pour les clients, où les citations sous-jacentes ne sont pas basées sur des informations réelles.
La nécessité de responsabilité et de gouvernance au niveau du conseil
Bien que l’IA présente de nombreuses opportunités passionnantes, ses risques doivent être soigneusement gérés. Cela signifie que les directeurs et les dirigeants doivent adapter les pratiques de gouvernance traditionnelles pour assurer une supervision appropriée de l’utilisation de l’IA.
Les entreprises devraient adopter une politique de gouvernance de l’IA appropriée qui fournit un cadre continu pour la supervision de cette technologie en évolution rapide, y compris une politique d’utilisation de l’IA pour établir clairement les attentes pour les employés, prestataires de services, consultants et autres personnels.
Les outils IA offrent aux utilisateurs la possibilité de réaliser d’importantes économies d’efficacité. Ce bulletin ne suggère pas que leur utilisation entraînera inévitablement des problèmes significatifs ; plutôt, il note certains des risques impliqués dans l’application de ces nouveaux outils en évolution rapide et les approches pour les gouverner qui peuvent aider à gérer ces préoccupations.