Riesgos legales de los asistentes de reuniones por IA: lecciones prácticas para la transcripción

Demanda en Illinois contra asistentes de notas IA: lecciones prácticas para la transcripción de reuniones

Una nueva demanda colectiva destaca los riesgos legales potenciales asociados con los asistentes de reuniones basados en inteligencia artificial. La denuncia alega que una herramienta de transcripción de reuniones graba, analiza y almacena las voces de los participantes, incluidos aquellos que no son usuarios de la herramienta, sin el aviso, consentimiento escrito y las salvaguardias de retención requeridas por la Ley de Privacidad de Información Biométrica de Illinois (BIPA).

Se menciona la funcionalidad de “reconocimiento de hablantes” de la herramienta, argumentando que crea y retiene huellas vocales, que están cubiertas bajo la BIPA, mientras carece de una política pública disponible sobre retención y destrucción, y no informa a los participantes de la reunión sobre la recolección biométrica.

Por qué es importante

Los asistentes de reuniones basados en inteligencia artificial pueden ofrecer aumentos de productividad, pero también introducen una serie de riesgos legales y operativos:

  • Más datos para entregar en litigios: las grabaciones y resúmenes pueden volverse descubribles.
  • Conversaciones sensibles o privilegiadas: pueden ser guardadas y compartidas cuando, de otra manera, no lo serían.
  • Errores de IA: la IA puede cometer errores, como identificar incorrectamente a los hablantes o simplificar en exceso lo que se dijo.
  • Reglas de aviso y consentimiento: varían, especialmente para invitados externos o participantes de diferentes países.
  • Retención: debe alinearse con las retenciones legales para que la eliminación rutinaria no se considere destrucción de pruebas.
  • Uso indebido de grabaciones: si el proveedor de herramientas de IA utiliza grabaciones para sus propios fines sin el aviso y consentimiento adecuados, puede violar leyes de interceptación y similares.

Poniéndolo en práctica

Este caso recuerda que implementar herramientas de transcripción y resumen de IA requiere más que simplemente activar una función. Es necesario pensar más allá de avisos genéricos. Por ejemplo, se debe realizar una diligencia debida con los proveedores, evitar el uso de la herramienta en reuniones sensibles, notificar claramente a los participantes y obtener su consentimiento desde el comienzo, considerar la revisión humana y las restricciones de acceso donde sea apropiado, y establecer períodos de retención claros alineados con las retenciones legales.

Para asegurar que los empleados sean conscientes de la variedad de problemas con los asistentes de notas basados en IA, es importante abordar esto en la política de IA de la organización.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...