La IA en el sistema judicial: desafíos y oportunidades

Los ataques no han aniquilado la regla de IA del poder judicial, podrían fortalecerla

Los asesores del poder judicial federal se enfrentaron el jueves a la oposición más extensa hasta ahora en su campaña para garantizar la fiabilidad de la evidencia que utiliza la inteligencia artificial. Sin embargo, las críticas parecieron ser constructivas, lo que podría aumentar las probabilidades de una adición a las reglas de los tribunales de EE. UU. en la era digital.

Propuesta de enmienda de regla

Una enmienda propuesta que requeriría que los abogados certifiquen que el contenido generado por IA en sus presentaciones judiciales es preciso sobrevivió a una votación del comité del martes. Los jueces del comité asesor parecieron favorecer el compromiso en lugar de la eliminación, a pesar de horas de debate y más de una docena de comentarios públicos que abogaban por cambios significativos.

La Regla 26, por ejemplo, exige a los abogados que «certifiquen que la presentación es sustancialmente verdadera y precisa» o «es sustancialmente verdadera y precisa según el mejor conocimiento, información y creencia del firmante».

Opiniones de abogados y académicos

Los miembros del Comité Asesor sobre las Reglas de Evidencia escucharon a varios abogados y académicos que argumentaron que el comité debería requerir a los abogados que «afirmaran» o «atestiguaran» la precisión del contenido generado por IA en sus presentaciones judiciales, en lugar del lenguaje más suave de «certificar» que había propuesto el comité.

Algunos comentaristas también argumentaron que los abogados deberían indicar en sus presentaciones cuando se utilizó IA para generar contenido, mientras que otros sugirieron que el comité debería posponer la enmienda hasta que la tecnología de IA se estandarice más.

Decisiones del comité

El comité finalmente decidió avanzar con su lenguaje propuesto, aunque con algunas modificaciones. Esa oposición, que provino de varias asociaciones de abogados, abogados en ejercicio y académicos, pareció ser constructiva, aumentando las probabilidades de una adición a las reglas de los tribunales de EE. UU. en los próximos años.

Un abogado que habló el jueves mencionó que «el comité parece estar señalando que reconoce los desafíos asociados con la IA en el litigio, pero también indica que está dispuesto a comprometerse en la búsqueda de un equilibrio».

Preocupaciones sobre la Regla 26

Decenas de comentaristas expresaron su preocupación de que la propuesta de la Regla 26 no abordaría adecuadamente los riesgos de la desinformación generada por IA. Otros argumentaron que los tribunales deberían tener más flexibilidad en cómo manejar la evidencia generada por IA.

Un miembro del comité afirmó: «No deberíamos sofocar la innovación, pero también necesitamos asegurar que la integridad del proceso judicial se mantenga».

Revisión de la Regla 702

En otro desarrollo, el comité revisó una propuesta para cambiar la Regla 702 de las Reglas Federales de Evidencia, que rige la admisibilidad del testimonio de expertos. La enmienda propuesta aclararía que la regla se aplica al testimonio basado en evidencia generada por IA, pero no requeriría que los abogados certifiquen la precisión de dicha evidencia.

Sin embargo, se espera que el comité continúe las discusiones sobre esa propuesta, y podría pasar varios meses antes de que se tomen decisiones finales.

Conclusión

El comité también escuchó a abogados que argumentaron que la propuesta de la Regla 26 impondría una carga excesiva a los abogados, particularmente aquellos en firmas más pequeñas o con recursos limitados. Varios jueces del comité expresaron su preocupación de que la propuesta de la Regla 26 no sería suficiente para prevenir el mal uso de la IA en el litigio.

El comité finalmente decidió avanzar con su lenguaje propuesto, pero lo hizo con una mayor comprensión de los desafíos involucrados. «No estamos tratando de sofocar la innovación, pero también necesitamos asegurar que la integridad del proceso judicial se mantenga», dijo un miembro del comité. Se espera que la enmienda de la regla sea presentada ante la Corte Suprema de EE. UU. en la primavera.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...