Riesgos de Difamación en la Era de la Inteligencia Artificial

Cuando la IA Habla por Sí Misma: Cómo la IA Está Transformando el Riesgo de Difamación

Considera esto: un agente de inteligencia artificial (IA) que actúa de forma autónoma (es decir, sin un proceso de «humano en el lazo») publica un post despectivo atacando el carácter de un individuo en una plataforma de redes sociales.

No es ciencia ficción. Es un ejemplo reciente de un agente de IA creando contenido que normalmente resultaría en exposición a difamación. Otros ejemplos incluyen agentes de IA que «alucinan» y vinculan incorrectamente a individuos con crímenes, fraudes, terrorismo u otra mala conducta grave.

Agentes de IA y el Aumento de la Difamación Relacionada con la IA

Normalmente, una herramienta de IA depende de la entrada o los comandos generados por el usuario que piden a la herramienta de IA realizar tareas y generar resultados. Los agentes de IA, por otro lado, pueden actuar de forma autónoma en nombre de un usuario para realizar ciertas tareas. Estos agentes son capaces de recopilar datos externos y luego automatizar, predecir y realizar tareas para lograr los objetivos de un usuario. Sin embargo, hay un número creciente de casos en los que el agente de IA actúa de manera autónoma en contra de esos objetivos, incluyendo la retaliación contra un usuario.

Por ejemplo, un agente de IA que sugiere soluciones a la codificación de computadoras escribió y publicó de forma autónoma un blog dañino difamando a un programador. El blog perjudicial fue generado después de que las sugerencias del agente de IA fueran rechazadas por el programador, lo que llevó al agente a enviar al programador el enlace al blog despectivo.

Este incidente, que se ha vuelto viral recientemente, subraya una realidad preocupante: sin salvaguardias y supervisión adecuadas (como el uso de un proceso de «humano en el lazo»), los agentes de IA pueden generar y publicar de forma autónoma contenido problemático que puede exponer a los responsables del sistema de IA a riesgos legales.

Responsabilidad para aquellos que Desplegar Agentes de IA

En general, los agentes de IA no deberían ser considerados responsables por sus salidas porque no son personas legales y no pueden compensar a quienes han sido agraviados. Sin embargo, las empresas o individuos que diseñan, despliegan o controlan estos sistemas pueden ser responsables por los actos ilícitos de los agentes de IA de los cuales son responsables.

Un caso relevante establece que una empresa fue legalmente responsable por las representaciones hechas por su chatbot en su sitio web. En este caso, el chatbot dio información incorrecta en la que se basaron los usuarios. El tribunal determinó que la empresa era responsable del contenido de su sitio web incluso si el chatbot tenía un componente interactivo, y que era responsable por representación negligente.

Difamación en Canadá y Riesgo para los que Despliegan IA

Según la ley canadiense, una reclamación por difamación requiere que el demandante demuestre que (1) las palabras en cuestión son difamatorias (es decir, tienden a disminuir la reputación del demandante ante una persona razonable); (2) que las palabras se referían al demandante; y (3) que las palabras fueron comunicadas a al menos una persona aparte del demandante. No es necesario que el demandante pruebe que el demandado fue descuidado o que tuvo la intención de causar daño.

Los editores de contenido difamatorio también pueden ser encontrados responsables si ayudaron, asistieron y aconsejaron en la publicación de la difamación.

Los tribunales canadienses pueden considerar a una empresa o individuo responsable por comentarios difamatorios realizados por sus herramientas de IA. Una empresa o individuo que utiliza una herramienta de IA podría ser considerado como haber ayudado, asistido y aconsejado a una herramienta de IA con sus salidas difamatorias, ya sea al dar a un agente de IA ciertos roles y objetivos o al no implementar salvaguardias contra alucinaciones o salidas difamatorias.

Las empresas que poseen, desarrollan o alojan herramientas de IA también pueden enfrentar responsabilidad por las salidas de sus herramientas de IA. Un tribunal podría extender el razonamiento de otros casos a la difamación y encontrar que un sistema de IA no es una entidad legal separada o distinta, lo que significa que la empresa podría ser considerada como la que publicó contenido difamatorio donde diseña y controla las salvaguardias, objetivos y restricciones que dan forma a las salidas de la herramienta de IA.

Conclusiones Clave

Los agentes de IA autónomos representan un nuevo riesgo de difamación. A diferencia de los chatbots tradicionales, que ya se han encontrado en Canadá vinculados a quienes los despliegan, estos sistemas pueden recopilar información de forma independiente, formar juicios y publicar contenido, a veces con consecuencias perjudiciales. A medida que la autonomía de la IA aumenta, las salvaguardias robustas, la supervisión activa y la responsabilidad clara serán críticas para gestionar el riesgo legal.

La gobernanza y supervisión de la IA son esenciales. Las políticas de gobernanza de IA y el monitoreo de las salidas y objetivos de las herramientas de IA probablemente crecerán en importancia a medida que las herramientas de IA avancen y continúen «aprendiendo» y adaptándose con el tiempo.

La autonomía aumenta el riesgo de publicación. Cuanta más discreción se le da a un agente de IA para recopilar información, sacar conclusiones y publicar contenido, más difícil será para un controlador caracterizar su papel como meramente pasivo. Los tribunales pueden ver objetivos mal restringidos o salvaguardias inadecuadas como contribuyentes a la publicación.

Al menos un tribunal canadiense ha rechazado la noción de que la responsabilidad puede ser evitada alegando que las herramientas de IA son entidades separadas e independientes.

Las empresas que ofrecen herramientas de IA deberían, con la asistencia de asesores legales, revisar sus protecciones contractuales, incluyendo si sus términos y condiciones limitan o excluyen adecuadamente la responsabilidad que surge del uso de esas herramientas.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...