Consecuencias de compartir asesoría privilegiada en herramientas públicas de IA

¿Debería introducir consejos privilegiados en una herramienta de IA pública y puedo mantener el privilegio al hacerlo?

No, existe el riesgo de que un tribunal considere que ese consejo fue publicado para el mundo y podría constituir una violación de cualquier deber regulatorio aplicable. En la práctica, hacerlo puede resultar en una pérdida teórica más que real de confidencialidad, pero se aconseja ejercer precaución.

¿Cuál es la posición legal?

Para que una comunicación esté protegida por privilegio, debe ser (y permanecer) confidencial. Esto implica que la información que es «propiedad pública y conocimiento público» no puede considerarse confidencial. La confidencialidad de las comunicaciones depende de la interacción entre las personas involucradas y el uso de la información compartida dentro de la comunicación misma.

¿Cómo se aplica eso a los sistemas de IA?

La respuesta depende, en parte, del sistema de IA utilizado, así como de los términos del acuerdo entre el usuario y el sistema de IA:

  • Sistemas de IA públicos: Versiones gratuitas de sistemas de IA populares donde los datos pueden ser utilizados para entrenar el modelo subyacente para un uso más amplio y que pueden procesar y almacenar entradas según sus términos de servicio estándar. Los usuarios generalmente no pueden negociar los términos de servicio o la licencia.
  • Sistemas de IA a medida: Sistemas de IA que ofrecen protección contractual personalizada en torno a la privacidad de datos, confidencialidad y seguridad. Tal protección puede ser ajustada según el acuerdo entre el proveedor y el usuario e incluir términos que limitan o prohíben la capacidad del sistema de IA para usar entradas para mejorar o entrenar su modelo.

Los términos de un sistema de IA pública pueden prometer o garantizar la privacidad de sus usuarios, y por lo tanto puede ser tentador introducir información confidencial y/o privilegiada en un sistema de IA pública. Sin embargo, aunque los tribunales son claros en que la confidencialidad no es un concepto binario, la confidencialidad y la privacidad no deben usarse indistintamente. La promesa de «privacidad» no garantiza la confidencialidad.

La extensión de la cual la información introducida en un «sistema de IA generativa» pierde su naturaleza confidencial (y, por lo tanto, la posible protección de privilegio) es una cuestión de hecho y grado. Por lo tanto, la divulgación completa de una comunicación privilegiada a un sistema de IA generativa es más probable que resulte en una pérdida o renuncia de privilegio que una referencia a la misma.

¿Existen excepciones?

La jurisprudencia previa ha sostenido que solo porque la información se haya vuelto pública, eso no significa que haya sido realmente accesible para el público en general. La información confidencial introducida en un sistema de IA pública puede no perder su carácter confidencial, ya que las entradas pueden no ser accesibles para otros usuarios del sistema o solo accesibles en circunstancias muy limitadas.

Sin embargo, en ausencia de un caso de prueba sobre el tema, es factible que una «búsqueda intensa» mediante el uso de indicaciones detalladas y precisas pueda resultar en que cierta información confidencial se vuelva pública. A medida que los sistemas de IA continúan evolucionando en sofisticación y accesibilidad, el riesgo de divulgación no intencionada de información confidencial (y/o sensible) que se vuelva disponible para el mundo se incrementa. Este riesgo se ve incrementado por la posibilidad de que los sistemas de IA puedan ser manipulados o explotados por actores maliciosos que buscan una ventaja competitiva o que intentan extraer datos confidenciales para fines dañinos.

Mejores prácticas

No se debe introducir información confidencial y privilegiada en un sistema de IA pública. Si un abogado lo hace sin el permiso expreso de su cliente, puede estar en violación de sus deberes. Los abogados, como individuos regulados, deben estar al tanto de cualquier desarrollo regulatorio y legal en esta área, en particular en lo que respecta a la jurisprudencia y posibles reformas a las reglas de procedimiento civil en el contexto del litigio.

Donde sea posible, se recomienda crear, difundir y supervisar políticas de uso consistentes sobre sistemas de IA internamente.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...