Considérations clés pour l’utilisation interne de l’intelligence artificielle

A digital hourglass filled with binary code

Gouverner l’utilisation interne de l’intelligence artificielle – Considérations clés

De nombreuses études indiquent que plus de 70 % des entreprises utilisent l’intelligence artificielle (IA) en interne. Dans certains cas, cela signifie le développement d’un outil agentique ou d’un chatbot orienté client pour améliorer l’efficacité d’un flux de travail particulier. Dans d’autres cas, cela peut être des utilisations plus générales par des employés d’outils IA largement disponibles.

Bien que ces outils puissent créer des efficacités et réduire les coûts, gérer leur utilisation au sein d’une organisation est crucial. Par leur nature fondamentale, leur utilisation, même de manière informelle, par les entreprises et leurs employés peut introduire des risques significatifs qui ne sont pas immédiatement apparents. Ce bulletin identifie plusieurs de ces risques et fournit des suggestions pour leur gestion.

La menace pour les droits légaux établis

Dans de nombreux cas, l’utilisation d’outils IA nécessite que des informations soient transmises par l’utilisateur à un tiers pour traitement, avec le produit résultant retourné à l’utilisateur. Cet élément — la transmission de données en dehors d’une organisation — peut entrer en conflit avec les meilleures pratiques traditionnelles pour préserver la confidentialité des informations ainsi qu’avec les exigences légales pour maintenir des droits précieux.

Par exemple, pour breveter une technologie, il est nécessaire que l’idée n’ait pas été divulguée publiquement auparavant. Par conséquent, la transmission d’informations confidentielles à un tiers par le biais d’un outil IA pourrait compromettre la brevetabilité d’une idée. Il est donc essentiel de contrôler attentivement les informations fournies à tout outil IA externe.

Un problème similaire se pose en ce qui concerne la préservation du privilège avocat-client. Le traitement confidentiel des informations partagées entre une personne ou une entreprise et leur avocat est un principe fondamental du droit, mais ce droit existe seulement tant que l’information n’est pas partagée avec d’autres parties.

De plus, il existe des préoccupations quant à la perte de confidentialité en général, ce qui présente à la fois le risque pour une entreprise de perdre le traitement confidentiel d’informations propriétaires ainsi que le risque de violation d’un contrat où les informations ont été fournies par un tiers sous les termes d’un accord de confidentialité ou de non-divulgation. Il est donc crucial que les entreprises restreignent et surveillent activement l’utilisation de ces outils par les employés.

La menace pour les informations personnelles et les mesures de sécurité

Il existe des préoccupations croissantes concernant les failles de sécurité qui surviennent lors de l’introduction de technologies non testées dans un écosystème informatique existant. Par exemple, sans mesures de sécurité solides, il pourrait être possible pour des acteurs malveillants d’accéder à des systèmes où le traitement d’un nouvel outil IA est connecté à Internet. Assurer que tous les services sont soigneusement examinés est vital pour protéger les entreprises contre des dommages imprévus.

Il existe également des préoccupations selon lesquelles la fourniture de certaines informations, telles que des informations personnelles, peut constituer une violation des lois régissant l’utilisation et la divulgation de ces informations. Il est anticipé que la réglementation gouvernant l’utilisation des informations personnelles avec les outils IA s’étendra dans un avenir proche.

La nécessité de transparence et de supervision humaine

Alors que les cadres réglementaires autour de l’IA continuent de se développer, un élément commun dans les discussions politiques est l’importance de la transparence. Les entreprises doivent veiller à respecter toutes les exigences de divulgation associées à leur utilisation des systèmes IA. De plus, il existe de nombreux rapports d’entreprises produisant des rapports « hallucinés » pour les clients, où les citations sous-jacentes ne sont pas basées sur des informations réelles.

La nécessité de responsabilité et de gouvernance au niveau du conseil

Bien que l’IA présente de nombreuses opportunités passionnantes, ses risques doivent être soigneusement gérés. Cela signifie que les directeurs et les dirigeants doivent adapter les pratiques de gouvernance traditionnelles pour assurer une supervision appropriée de l’utilisation de l’IA.

Les entreprises devraient adopter une politique de gouvernance de l’IA appropriée qui fournit un cadre continu pour la supervision de cette technologie en évolution rapide, y compris une politique d’utilisation de l’IA pour établir clairement les attentes pour les employés, prestataires de services, consultants et autres personnels.

Les outils IA offrent aux utilisateurs la possibilité de réaliser d’importantes économies d’efficacité. Ce bulletin ne suggère pas que leur utilisation entraînera inévitablement des problèmes significatifs ; plutôt, il note certains des risques impliqués dans l’application de ces nouveaux outils en évolution rapide et les approches pour les gouverner qui peuvent aider à gérer ces préoccupations.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...