Nuevas reglas sobre el uso de IA en los tribunales de Qatar

Nuevas reglas de uso de IA para los tribunales en Qatar

Los abogados en Qatar han sido advertidos sobre la necesidad de verificar sus fuentes si se utiliza inteligencia artificial (IA) en la preparación de casos, tras un incidente en el que un abogado fue considerado en desacato por citar referencias creadas por IA.

El Centro Internacional de Resolución de Disputas de Qatar ha emitido una nueva directiva procesal que se aplicará a todos los litigantes y representantes que comparezcan ante los tribunales del país desde el inicio de este año.

Incidente de desacato

Este cambio de normativa llega después de que un abogado, cuya identidad no ha sido revelada, fuera encontrado culpable de citar varios casos que no existían durante una reclamación laboral presentada el año pasado. Los casos fueron descubiertos como invenciones generadas por herramientas de IA utilizadas en la preparación de los materiales para el caso, siendo esta la primera instancia de su tipo en llegar ante el tribunal.

A pesar de que el abogado fue sancionado por desacato y por violar el artículo 35.2 del Centro Financiero de Qatar al citar casos falsos, su identidad fue protegida para evitar una «penalización desproporcionada» por su error. Sin embargo, el tribunal ha advertido que no garantizará el anonimato en futuros incidentes similares.

Expectativas sobre el uso de IA

Ahora, el Centro ha establecido expectativas claras para que los representantes legales verifiquen cualquier contenido generado mediante herramientas de IA. Reconociendo que el uso de inteligencia artificial puede ser beneficioso para reducir costos y promover una mayor efectividad, se subraya que quienes comparecen ante el tribunal tienen la responsabilidad de asegurar la precisión de lo que presentan.

La directiva indica que, aunque no se requiere una declaración preventiva sobre el uso de IA en los casos a menos que el tribunal lo solicite, su divulgación puede ser necesaria para otras partes en interés de la equidad y la buena fe.

Requisitos de identificación y verificación

Los documentos que contengan contenido generado por IA deben ser identificables, y los representantes deben poder explicar cómo se verificó la salida, siendo potencialmente requerida una declaración jurada. Cualquier evidencia de video o audio que utilice IA debe ser declarada ante el tribunal o podría ser excluida.

Además, se advierte que los representantes no deben confiar únicamente en la IA para la preparación de materiales y que la información confidencial o privilegiada no debe ser ingresada en herramientas de IA a menos que se garantice su privacidad y seguridad.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...