Privilegios legales y el impacto de la IA en los procesos judiciales

Privilegio Abogado-Cliente y Producto de Trabajo en la Era de la IA: Fallos Divergentes en el Distrito Este de Michigan y el Distrito Sur de Nueva York

Los tribunales enfrentan cada vez más la decisión de si la información que los litigantes comparten con servicios de inteligencia artificial (IA) públicos y los resultados generados por la IA (juntos, materiales de IA) pueden estar protegidos por el privilegio abogado-cliente o por la doctrina del producto de trabajo. Dos decisiones recientes del Distrito Este de Michigan y del Distrito Sur de Nueva York han llegado a conclusiones opuestas, resaltando que los litigantes y empleadores deben tener cuidado para no renunciar potencialmente a estas protecciones mediante el uso de servicios de IA.

Decisión del Distrito Este de Michigan

En una acción del Distrito Este de Michigan, el tribunal sostuvo que la doctrina del producto de trabajo protegía los materiales generados por un demandante pro se usando un servicio de IA público. El demandante utilizó el servicio de IA para cargar documentos del caso, redactar presentaciones y responder preguntas legales. El tribunal consideró que los materiales de IA estaban protegidos por la doctrina del producto de trabajo, al calificarlos como el análisis interno y las impresiones mentales del demandante. Críticamente, el tribunal encontró que el uso del servicio de IA no renunció a las protecciones del producto de trabajo porque, aunque compartir el contenido con el servicio de IA lo divulgó a este y, potencialmente, a sus administradores, eso no reveló los materiales a un adversario ni de una manera que probablemente llegara a manos de un adversario.

Decisión del Distrito Sur de Nueva York

Por el contrario, en el caso del Distrito Sur de Nueva York, el tribunal sostuvo que un demandado con abogado no puede reclamar privilegio sobre intercambios de chat entre él y un servicio de IA público en una investigación penal pendiente, incluso cuando introdujo información recibida de su abogado y compartió los resultados generados por la IA con sus abogados para discusión. El tribunal enfatizó que, en la medida en que los materiales de IA contenían información que el demandado aprendió de su equipo legal durante su representación, el demandado renunció al privilegio abogado-cliente al divulgarlo al proveedor de IA de terceros, cuyos términos establecían expresamente que cualquier material enviado no era confidencial.

La opinión del Distrito Sur de Nueva York sostuvo que los materiales de IA no estaban protegidos por privilegio por razones que generalmente serán aplicables a discusiones con muchas, si no todas, las plataformas de IA:

No son comunicaciones entre un cliente y su abogado. El privilegio protege las comunicaciones con abogados, no las comunicaciones con no abogados, como una herramienta de IA, incluso si un cliente encuentra útil el contenido generado por IA para discusiones posteriores con su abogado.

No son confidenciales. Los materiales de IA generalmente no serán confidenciales porque las políticas de privacidad de las plataformas de IA comerciales permiten la recolección, uso y divulgación (incluida a autoridades gubernamentales y terceros) de los insumos que los usuarios proporcionan y de los resultados que los servicios de IA generan.

No con el propósito de obtener asesoría legal. No se puede afirmar que los materiales de IA se crean con el propósito de obtener asesoría legal de un abogado, cuando los términos de la herramienta de IA declaran ese propósito. Por ejemplo, bajo los términos de uso de una conocida plataforma de IA, los usuarios aceptan que no dependerán de su salida «como un sustituto del asesoramiento profesional».

Implicaciones y Riesgos

Estas opiniones señalan un nuevo campo de posibles renuncias de privilegio dañinas en la era de la IA. A medida que las personas se acostumbran cada vez más a plantear preguntas importantes a las herramientas de IA, los demandados y empleados seguramente se verán tentados a usar la IA para ayudarles a entender los riesgos que enfrentan. Pero ceder a esa tentación arriesga la producción de documentos no privilegiados y descubribles.

Para adelantarse a estos riesgos, las empresas y sus abogados deberían considerar las siguientes mejores prácticas:

  1. Revisar las políticas legales, de cumplimiento, de investigaciones internas y de respuesta a incidentes para prohibir a los empleados plantear preguntas legales o solicitudes que contengan hechos relevantes a cualquier herramienta de IA sin la aprobación del abogado interno.
  2. Agregar contenido a los programas de capacitación regular que enseñe a los empleados a no introducir información sensible en las solicitudes de IA.
  3. Informar al personal clave involucrado en investigaciones o litigios sobre la importancia de no usar herramientas de IA, incluyendo la discusión de avisos de retención y las obligaciones de retención de documentos.
  4. Advertir a los clientes en litigio sobre no usar herramientas de IA, incluyendo la introducción de preguntas legales, estrategias o consejos de su abogado, y discutir cualquier uso de IA con su abogado antes de actuar.
  5. Que si las herramientas de IA se usan en el trabajo legal, dicho uso debe efectuarse a través del abogado interno o externo y restringirse a herramientas que ofrezcan protección estricta de confidencialidad.
  6. Que si los empleados o demandados crean accidentalmente contenido de IA no privilegiado sobre un tema legal sensible, no deben enviarlo por correo y deben notificar inmediatamente a su abogado.

Este aviso proporciona orientación general sobre cómo prepararse para los nuevos desafíos que la tecnología de IA trae a la descubribilidad en asuntos penales y civiles.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...