Nuevas reglas de uso de IA para los tribunales en Qatar
Los abogados en Qatar han sido advertidos sobre la necesidad de verificar sus fuentes si se utiliza inteligencia artificial (IA) en la preparación de casos, tras un incidente en el que un abogado fue considerado en desacato por citar referencias creadas por IA.
El Centro Internacional de Resolución de Disputas de Qatar ha emitido una nueva directiva procesal que se aplicará a todos los litigantes y representantes que comparezcan ante los tribunales del país desde el inicio de este año.
Incidente de desacato
Este cambio de normativa llega después de que un abogado, cuya identidad no ha sido revelada, fuera encontrado culpable de citar varios casos que no existían durante una reclamación laboral presentada el año pasado. Los casos fueron descubiertos como invenciones generadas por herramientas de IA utilizadas en la preparación de los materiales para el caso, siendo esta la primera instancia de su tipo en llegar ante el tribunal.
A pesar de que el abogado fue sancionado por desacato y por violar el artículo 35.2 del Centro Financiero de Qatar al citar casos falsos, su identidad fue protegida para evitar una «penalización desproporcionada» por su error. Sin embargo, el tribunal ha advertido que no garantizará el anonimato en futuros incidentes similares.
Expectativas sobre el uso de IA
Ahora, el Centro ha establecido expectativas claras para que los representantes legales verifiquen cualquier contenido generado mediante herramientas de IA. Reconociendo que el uso de inteligencia artificial puede ser beneficioso para reducir costos y promover una mayor efectividad, se subraya que quienes comparecen ante el tribunal tienen la responsabilidad de asegurar la precisión de lo que presentan.
La directiva indica que, aunque no se requiere una declaración preventiva sobre el uso de IA en los casos a menos que el tribunal lo solicite, su divulgación puede ser necesaria para otras partes en interés de la equidad y la buena fe.
Requisitos de identificación y verificación
Los documentos que contengan contenido generado por IA deben ser identificables, y los representantes deben poder explicar cómo se verificó la salida, siendo potencialmente requerida una declaración jurada. Cualquier evidencia de video o audio que utilice IA debe ser declarada ante el tribunal o podría ser excluida.
Además, se advierte que los representantes no deben confiar únicamente en la IA para la preparación de materiales y que la información confidencial o privilegiada no debe ser ingresada en herramientas de IA a menos que se garantice su privacidad y seguridad.