Los riesgos de las alucinaciones y el uso indebido de la inteligencia artificial generativa ante los tribunales franceses
Los tribunales franceses están comenzando a enfrentar alucinaciones creadas por la inteligencia artificial (IA), que se presentan en forma de referencias erróneas a la jurisprudencia en los escritos de las partes, o el uso indebido de la IA en sus reclamaciones. Aunque hasta ahora no se han impuesto sanciones en Francia, a diferencia de numerosas decisiones en los Estados Unidos, el uso irresponsable o poco razonable de la IA puede tener consecuencias significativas para los abogados y sus clientes.
El contexto actual de la IA en el ámbito legal
En la actualidad, el uso y las funcionalidades de la IA están en constante evolución, y su transformación es notable entre quienes están involucrados en el sistema legal. Existen numerosas herramientas legales de IA diseñadas para redactar documentos contractuales o procesales, analizar y resumir documentos, y realizar investigaciones sobre jurisprudencia. Según una encuesta realizada en 2026, más del 90% de los profesionales legales utilizan al menos una herramienta de IA como parte de su actividad.
Alucinaciones de la IA y referencias erróneas
La aparición de jurisprudencia relacionada con las alucinaciones de la IA proviene del deseo claro de los jueces de advertir sobre el uso de referencias a la jurisprudencia que son inexactas o inexistentes en los escritos de las partes. Esto puede incluir casos donde no existe jurisprudencia con el número de referencia indicado, donde el fallo no fue emitido en la fecha indicada, o donde el alcance de la jurisprudencia no está relacionado con el argumento que se apoya.
En este contexto, el juez puede invitar a la parte involucrada y/o a su abogado a «verificar en el futuro que las referencias encontradas en motores de búsqueda o inteligencia artificial no sean ‘alucinaciones'». Los tribunales franceses a veces solo responsabilizan el uso de la IA a los abogados en lugar de a sus clientes, destacando la necesidad de verificar la jurisprudencia citada antes de presentar el asunto ante el juez.
Documentos redactados por herramientas de IA generativa
Los tribunales también se enfrentan a mociones y escritos redactados por herramientas de IA generativa. Los tribunales administrativos fueron los primeros en verse afectados por este fenómeno, ya que la representación legal no siempre es obligatoria y los reclamantes a veces no son conscientes de los riesgos inherentes a estas herramientas. No obstante, los jueces han sido menos estrictos con los reclamantes no representados que abusan de la IA.
Los tribunales han notado una «falta de claridad» en las presentaciones, a menudo resultado de un borrador redactado con herramientas de IA generativa, lo que impacta la calidad legal del contenido producido.
Consecuencias del uso de IA generativa en el razonamiento judicial
El uso de herramientas de IA generativa no es en sí mismo punible, ya que no hay una norma que prohíba su uso para apoyar argumentos legales. Sin embargo, las alucinaciones de la IA pueden llevar a los reclamantes a presentar argumentos erróneos o infundados que serán rechazados por el juez. Se han dado casos en los que tribunales han rechazado mociones claramente redactadas con herramientas de IA por no proporcionar los detalles necesarios para evaluar su mérito.
Generación de evidencia falsa por IA
Aunque los tribunales franceses aún no han tratado casos de evidencia falsa generada por IA, el riesgo aumenta a medida que estas herramientas se vuelven más sofisticadas. La posibilidad de que un cliente proporcione un documento falso para obtener un resultado favorable podría dar lugar a nuevas demandas contra abogados o partes que produzcan evidencia generada por IA de manera imprudente.
Sanciones contra abogados
Hasta la fecha, los tribunales franceses no han impuesto sanciones a los abogados que han confiado en alucinaciones de IA en sus argumentos, limitándose a advertirles que verifiquen las referencias citadas. A diferencia de la legislación estadounidense, que permite sanciones severas, en Francia los abogados deben cumplir con los principios de competencia, diligencia y prudencia. La utilización de sistemas de IA implica que los abogados deben verificar la fiabilidad de los resultados obtenidos.
La Asociación de Abogados de París ha instado a la cautela en su Guía sobre Inteligencia Artificial, afirmando que la responsabilidad civil profesional de un abogado puede verse comprometida por información errónea proveniente de sistemas de IA. Recientemente, la Asociación Nacional de Abogados de Francia adoptó una guía sobre Ética e Inteligencia Artificial, confirmando que un abogado que use contenido generado por IA sin la debida verificación podría enfrentarse a procedimientos disciplinarios.
Conclusión
Los abogados que utilizan herramientas de IA deben recordar que, aunque estas son herramientas efectivas, no pueden reemplazar completamente la supervisión humana. La verificación de los razonamientos legales generados por IA es esencial para evitar errores que puedan afectar la argumentación de los reclamantes.