AI, Privilegio y Producto de Trabajo: Decisiones Federales Conflictivas Crean un Nuevo Riesgo
Dos decisiones recientes de tribunales federales, emitidas con una semana de diferencia, alcanzan conclusiones divergentes sobre si los materiales generados mediante plataformas de inteligencia artificial (IA) están protegidos por el privilegio abogado-cliente o la doctrina del producto de trabajo.
Análisis de las Decisiones Judiciales
En el caso de United States v. Heppner, un juez del Tribunal de Distrito de EE. UU. sostuvo que los intercambios con una herramienta de IA, utilizada por un demandado criminal de forma independiente a su abogado, no estaban protegidos. El tribunal determinó que la herramienta no es un abogado y que la política de privacidad de la plataforma, que permite la recopilación de datos y la divulgación a terceros, destruyó cualquier expectativa razonable de confidencialidad. Además, se concluyó que los materiales creados sin la dirección del abogado no calificaban para protección como producto de trabajo.
Por otro lado, en Warner v. Gilbarco, un juez magistrado llegó a una conclusión opuesta, negando la solicitud de los demandados para obligar la producción de materiales asistidos por ChatGPT de un demandante que se representaba a sí mismo. Este tribunal argumentó que las plataformas de IA son «herramientas, no personas», y que una renuncia a las protecciones del producto de trabajo requiere divulgación a una parte adversaria, no a un software. Este análisis no abordó directamente el privilegio abogado-cliente, ya que el demandante actuaba pro se.
Implicaciones y Riesgos
Estas decisiones subrayan que la legislación sobre el uso de IA en litigios es incierta y sensible a los hechos. Las partes litigantes, los asesores legales y los equipos de cumplimiento deben actuar con cuidado al desplegar IA en investigaciones y disputas, considerando las cuestiones de privilegio y producto de trabajo.
Puntos Clave a Considerar
- Tratar las interacciones con IA como potencialmente descubribles. Se debe asumir que los inputs y outputs son registrados en servidores de terceros y pueden estar sujetos a citaciones o solicitudes de descubrimiento.
- Evitar introducir información privilegiada o confidencial en herramientas de IA de consumo. Las organizaciones deben establecer políticas que prohíban estrictamente el uso de herramientas de IA no empresariales para información privilegiada.
- Realizar una revisión legal obligatoria de los términos de la plataforma antes de su uso. Evaluar si las entradas están excluidas del entrenamiento del modelo y cuáles son los compromisos de seguridad y retención.
- Preferir configuraciones de IA empresarial con protecciones contractuales más fuertes. Los sistemas comerciales de IA cerrados están diseñados para abordar la privacidad a través de entornos de datos segregados y controles de acceso personalizables.
- Usar IA bajo la dirección del abogado y documentar el flujo de trabajo. Es crucial que el uso de IA esté dirigido por un abogado para fortalecer los argumentos de producto de trabajo.
- Preservar los argumentos del producto de trabajo de manera distinta al privilegio. Aunque las comunicaciones de IA sean consideradas no confidenciales, la protección del producto de trabajo puede seguir aplicándose a donde los materiales reflejen estrategias de litigio.
- Estar preparado para resistir descubrimientos intrusivos relacionados con IA. Las partes deben argumentar que las solicitudes amplias son desproporcionadas e irrelevantes.
- Establecer una gobernanza interdepartamental. Los líderes legales, de cumplimiento, de TI y de negocio deben supervisar conjuntamente los protocolos de IA y adaptarse a las tecnologías y el entorno legal en evolución.
Conclusión
Los tribunales están lidiando activamente con cómo las doctrinas de privilegio tradicionales se aplican a la IA generativa. La cuestión ya no es si el uso de IA implica privilegio, sino cómo se utiliza y si esa utilización preserva las condiciones estructurales necesarias para el privilegio. Hasta que los tribunales de apelación y las barras estatales proporcionen una guía más clara, las partes litigantes deben asumir que el trabajo asistido por IA puede ser tratado de manera diferente en distintas jurisdicciones.