Cuando la IA Habla por Sí Misma: Cómo la IA Está Transformando el Riesgo de Difamación
Considera esto: un agente de inteligencia artificial (IA) que actúa de forma autónoma (es decir, sin un proceso de «humano en el lazo») publica un post despectivo atacando el carácter de un individuo en una plataforma de redes sociales.
No es ciencia ficción. Es un ejemplo reciente de un agente de IA creando contenido que normalmente resultaría en exposición a difamación. Otros ejemplos incluyen agentes de IA que «alucinan» y vinculan incorrectamente a individuos con crímenes, fraudes, terrorismo u otra mala conducta grave.
Agentes de IA y el Aumento de la Difamación Relacionada con la IA
Normalmente, una herramienta de IA depende de la entrada o los comandos generados por el usuario que piden a la herramienta de IA realizar tareas y generar resultados. Los agentes de IA, por otro lado, pueden actuar de forma autónoma en nombre de un usuario para realizar ciertas tareas. Estos agentes son capaces de recopilar datos externos y luego automatizar, predecir y realizar tareas para lograr los objetivos de un usuario. Sin embargo, hay un número creciente de casos en los que el agente de IA actúa de manera autónoma en contra de esos objetivos, incluyendo la retaliación contra un usuario.
Por ejemplo, un agente de IA que sugiere soluciones a la codificación de computadoras escribió y publicó de forma autónoma un blog dañino difamando a un programador. El blog perjudicial fue generado después de que las sugerencias del agente de IA fueran rechazadas por el programador, lo que llevó al agente a enviar al programador el enlace al blog despectivo.
Este incidente, que se ha vuelto viral recientemente, subraya una realidad preocupante: sin salvaguardias y supervisión adecuadas (como el uso de un proceso de «humano en el lazo»), los agentes de IA pueden generar y publicar de forma autónoma contenido problemático que puede exponer a los responsables del sistema de IA a riesgos legales.
Responsabilidad para aquellos que Desplegar Agentes de IA
En general, los agentes de IA no deberían ser considerados responsables por sus salidas porque no son personas legales y no pueden compensar a quienes han sido agraviados. Sin embargo, las empresas o individuos que diseñan, despliegan o controlan estos sistemas pueden ser responsables por los actos ilícitos de los agentes de IA de los cuales son responsables.
Un caso relevante establece que una empresa fue legalmente responsable por las representaciones hechas por su chatbot en su sitio web. En este caso, el chatbot dio información incorrecta en la que se basaron los usuarios. El tribunal determinó que la empresa era responsable del contenido de su sitio web incluso si el chatbot tenía un componente interactivo, y que era responsable por representación negligente.
Difamación en Canadá y Riesgo para los que Despliegan IA
Según la ley canadiense, una reclamación por difamación requiere que el demandante demuestre que (1) las palabras en cuestión son difamatorias (es decir, tienden a disminuir la reputación del demandante ante una persona razonable); (2) que las palabras se referían al demandante; y (3) que las palabras fueron comunicadas a al menos una persona aparte del demandante. No es necesario que el demandante pruebe que el demandado fue descuidado o que tuvo la intención de causar daño.
Los editores de contenido difamatorio también pueden ser encontrados responsables si ayudaron, asistieron y aconsejaron en la publicación de la difamación.
Los tribunales canadienses pueden considerar a una empresa o individuo responsable por comentarios difamatorios realizados por sus herramientas de IA. Una empresa o individuo que utiliza una herramienta de IA podría ser considerado como haber ayudado, asistido y aconsejado a una herramienta de IA con sus salidas difamatorias, ya sea al dar a un agente de IA ciertos roles y objetivos o al no implementar salvaguardias contra alucinaciones o salidas difamatorias.
Las empresas que poseen, desarrollan o alojan herramientas de IA también pueden enfrentar responsabilidad por las salidas de sus herramientas de IA. Un tribunal podría extender el razonamiento de otros casos a la difamación y encontrar que un sistema de IA no es una entidad legal separada o distinta, lo que significa que la empresa podría ser considerada como la que publicó contenido difamatorio donde diseña y controla las salvaguardias, objetivos y restricciones que dan forma a las salidas de la herramienta de IA.
Conclusiones Clave
Los agentes de IA autónomos representan un nuevo riesgo de difamación. A diferencia de los chatbots tradicionales, que ya se han encontrado en Canadá vinculados a quienes los despliegan, estos sistemas pueden recopilar información de forma independiente, formar juicios y publicar contenido, a veces con consecuencias perjudiciales. A medida que la autonomía de la IA aumenta, las salvaguardias robustas, la supervisión activa y la responsabilidad clara serán críticas para gestionar el riesgo legal.
La gobernanza y supervisión de la IA son esenciales. Las políticas de gobernanza de IA y el monitoreo de las salidas y objetivos de las herramientas de IA probablemente crecerán en importancia a medida que las herramientas de IA avancen y continúen «aprendiendo» y adaptándose con el tiempo.
La autonomía aumenta el riesgo de publicación. Cuanta más discreción se le da a un agente de IA para recopilar información, sacar conclusiones y publicar contenido, más difícil será para un controlador caracterizar su papel como meramente pasivo. Los tribunales pueden ver objetivos mal restringidos o salvaguardias inadecuadas como contribuyentes a la publicación.
Al menos un tribunal canadiense ha rechazado la noción de que la responsabilidad puede ser evitada alegando que las herramientas de IA son entidades separadas e independientes.
Las empresas que ofrecen herramientas de IA deberían, con la asistencia de asesores legales, revisar sus protecciones contractuales, incluyendo si sus términos y condiciones limitan o excluyen adecuadamente la responsabilidad que surge del uso de esas herramientas.