Abogado admite errores al usar IA en audiencia disciplinaria

El abogado admite el uso de IA y la verificación insuficiente de resultados en la audiencia del Tribunal de la Sociedad Legal

La División de Audiencia del Tribunal de la Sociedad Legal de Ontario no encontró sesgo en su respuesta a los problemas derivados del uso de inteligencia artificial (IA) generativa por parte de un abogado en los procedimientos en los que buscó variar o eliminar la suspensión interlocutoria de su licencia.

Un post en LinkedIn de una profesora de derecho describió este caso como “la primera instancia reportada (al menos en Canadá) de un abogado presentando materiales problemáticos generados por IA en el contexto de una audiencia disciplinaria.”

Contexto del caso

En el caso Mazaheri v Sociedad Legal de Ontario, el solicitante era un abogado cuya licencia había sido suspendida de manera interlocutoria. El 12 de noviembre de 2024, intentó variar o eliminar dicha suspensión. En una moción de admisibilidad y sesgo, buscó:

  • Excluir evidencia presentada por la Sociedad Legal de Ontario en respuesta a su moción para eliminar la suspensión.
  • Recusar a los miembros del tribunal por considerar que no podían emitir un juicio imparcial, dado que habían revisado evidencia a la que se opuso.
  • Recusar a los miembros ya que lo criticaron en una audiencia de gestión de casos, interrumpieron sus presentaciones y plantearon problemas de conducta profesional sin autoridad.

Uso de IA en la presentación de materiales

El tribunal observó que el solicitante presentó materiales de moción producidos con la asistencia de una herramienta de IA generativa que estaba «alucinando». Se proporcionó una tabla con ejemplos de autoridades inexistentes y engañosas en los materiales.

El 30 de noviembre de 2025, el solicitante admitió ante el tribunal que había confiado en la IA generativa en su investigación y redacción de documentos, y que no verificó adecuadamente sus materiales, los cuales contenían numerosas inexactitudes en citas, hipervínculos y la aplicación de las reglas del tribunal.

El solicitante se disculpó, asumió la responsabilidad y se comprometió a no utilizar IA generativa al preparar materiales adicionales.

Decisión del tribunal

La División de Audiencia del Tribunal de la Sociedad Legal desestimó la moción de admisibilidad y sesgo por falta de fundamentos. El tribunal consideró que los documentos de la sociedad legal eran admisibles y relevantes, dado que las reglas de evidencia para las mociones de suspensiones interlocutorias y variaciones eran menos estrictas que las reglas de evidencia civil.

No se encontró sesgo en la revisión de evidencia disputada por parte del panel antes de determinar su admisibilidad. El tribunal añadió que no trató al solicitante de una manera que generara una razonable aprensión de sesgo.

Además, el tribunal no encontró sesgo derivado de la audiencia de gestión de casos. Se observó que el solicitante tergiversó la discusión que ocurrió durante la audiencia. Tras revisar la transcripción, el tribunal notó que los miembros del panel:

  • Indicaron que el tribunal tenía un interés independiente en proteger la integridad de su proceso.
  • Declararon que abordarían el uso de IA por parte del solicitante, incluso si retiraba sus mociones sobre admisibilidad y sesgo.
  • Aún no habían tomado decisiones sobre las consecuencias derivadas de su admisión sobre el uso de IA y la presentación de materiales sin verificar su precisión adecuadamente.

El tribunal informó al solicitante que podría considerar los errores derivados de su uso de IA y le dio la oportunidad de consultar a un abogado y prepararse para la siguiente etapa de los procedimientos.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...