Risques juridiques des outils de réunion AI en vertu de la BIPA en Illinois

A shattered digital hourglass with AI circuitry exposed

Les outils de réunion AI : la dernière cible des actions collectives BIPA en Illinois – 6 mesures à prendre pour éviter les litiges

La récente action collective liée à la BIPA rappelle que les applications de prise de notes alimentées par l’IA et autres outils d’écoute peuvent enfreindre la stricte loi sur la vie privée de l’État. Une plainte allègue qu’un fournisseur populaire d’assistant de réunion AI a violé la Loi sur la protection des informations biométriques de l’Illinois (BIPA) en collectant et stockant des empreintes vocales lors d’une réunion virtuelle sans fournir d’avis approprié, de consentement ou de politique de conservation des données conforme.

Ce qui s’est passé : un scénario familier de milieu de travail

Les faits allégués dans la plainte peuvent sembler familiers à de nombreux employeurs. Une résidente de l’Illinois a rejoint une réunion virtuelle de routine sans avoir accepté l’utilisation d’un assistant de réunion AI. L’outil de prise de notes AI a automatiquement rejoint la réunion à la demande d’un des participants. Il a enregistré la discussion, identifié les intervenants et généré des transcriptions attribuant les déclarations à des participants individuels.

Selon la plainte, ce processus impliquait la création et le stockage d’« empreintes vocales », qui peuvent être considérées comme des « identifiants biométriques » au sens de la BIPA. La plainte allègue que le fournisseur AI n’a pas respecté les exigences de la BIPA, notamment en omettant de fournir un avis écrit sur la collecte de données biométriques, la durée de conservation et le consentement écrit.

Pourquoi cela importe aux employeurs en Illinois

Les employeurs pourraient estimer que ce procès ne les concerne pas directement. Pourtant, cela serait une supposition risquée. Les poursuites contre les fournisseurs de technologie précèdent souvent des actions contre leurs clients. La BIPA de l’Illinois est particulièrement stricte et s’applique principalement via des poursuites privées.

Les employeurs peuvent être impliqués dans des litiges BIPA de différentes manières, notamment : l’autorisation ou le déploiement des outils, l’utilisation par les employés lors de réunions professionnelles, ou le bénéfice des résultats générés par ces outils IA.

6 étapes que les employeurs devraient suivre dès maintenant

Les employeurs n’ont pas besoin d’abandonner la prise de notes AI, mais doivent la gérer avec rigueur. Voici six étapes pratiques à envisager :

  1. Inventorier les outils de réunion AI en cours d’utilisation

    Identifiez les plateformes et assistants automatiques utilisés dans votre organisation.

  2. Comprendre ce que l’outil collecte réellement

    Ne vous fiez pas uniquement aux discours marketing. Vérifiez si l’outil effectue une reconnaissance des intervenants ou d’autres fonctions pouvant impliquer des données biométriques.

  3. Clarifier qui peut activer l’enregistrement ou les assistants AI

    Envisagez de restreindre l’activation des outils de prise de notes AI lors des réunions aux personnes autorisées.

  4. Mettre à jour (et appliquer) les politiques de réunion et d’enregistrement

    Assurez-vous que vos politiques précisent clairement l’utilisation des outils AI et les notifications aux participants.

  5. Coordonner avec les fournisseurs, mais ne pas externaliser la conformité

    Les garanties des fournisseurs sont utiles, mais ne remplacent pas votre propre évaluation des risques.

  6. Former les employés sur l’« hygiène des réunions »

    Les employés doivent comprendre que l’activation d’un assistant AI n’est pas un acte neutre et comporte des implications.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...