Más Allá de la Regulación: Lo que 500 Casos Revelan sobre el Futuro de la IA en los Tribunales
La regulación de la inteligencia artificial (IA) en todo el mundo es desigual. Mientras que algunas jurisdicciones ya cuentan con regulaciones completas, otras se enfocan solo en normas específicas de sectores, y otras más resisten o retrasan la regulación por completo. Por ejemplo, la reciente Ley de IA de la Unión Europea proporciona un modelo horizontal basado en riesgos que atraviesa sectores y tecnologías. En contraste, en los Estados Unidos, persiste la resistencia a una legislación vinculante, incluidas las solicitudes de un moratorio sobre la regulación estatal de IA que se extendería durante una década.
Estos dinámicas han moldeado la conversación global en torno a la gobernanza de la IA como un asunto de legislación prospectiva y diseño de políticas. Sin embargo, este énfasis oscurece un hecho crítico y poco examinado: los tribunales ya están regulando la IA. En todo el mundo, jueces, autoridades de protección de datos y tribunales administrativos están resolviendo activamente disputas en las que los sistemas de IA juegan un papel central, ya sea en decisiones automatizadas de inmigración, vigilancia biométrica o procesamiento de datos para el entrenamiento de modelos. Al hacerlo, están estableciendo reglas, límites y precedentes de facto que afectan directamente cómo se desarrollan, despliegan y desafían las tecnologías de IA.
Proyecto IA en Juicio
Este artículo presenta hallazgos de un proyecto empírico original titulado IA en Juicio, que tiene como objetivo sacar a la luz este dominio pasado por alto. El proyecto sigue y categoriza litigios que involucran tecnologías de IA en diversas jurisdicciones, destacando las formas en que los cuerpos judiciales y administrativos funcionan como actores normativos en la gobernanza de la IA. Esto abarca contextos en los que los tribunales están interpretando la regulación misma hasta aquellos en los que las respuestas legislativas o regulatorias son inexistentes, fragmentadas, lentas o disputadas.
La versión actual del conjunto de datos de IA en Juicio incluye 500 casos de 39 países y jurisdicciones, abarcando tanto decisiones judiciales como fallos administrativos. Estos casos provienen de una amplia gama de dominios legales y involucran actores que van desde individuos privados y corporaciones hasta agencias gubernamentales y plataformas transnacionales. Para ser incluidos en el conjunto de datos, un caso debe involucrar un uso directo o materialmente significativo de la IA, en lugar de meras menciones. Cada caso fue clasificado y codificado manualmente por jurisdicción, autoridad judicial o administrativa, problema relacionado con la IA (por ejemplo, sesgo, transparencia, propiedad intelectual, etc.) y año. También se anotó un breve resumen del caso y extractos de las principales decisiones.
Categorías de Litigios
A través de los 500 casos analizados en el conjunto de datos de IA en Juicio, tres categorías de problemas concentran solas el 39.4% de todas las disputas: casos que conciernen a la profesión legal (92 casos), propiedad intelectual (56 casos) y uso administrativo de la IA (49 casos). Estas categorías no solo son cuantitativamente dominantes; representan los puntos de fricción más visibles entre los sistemas de IA y los marcos legales que buscan gobernarlos.
El crecimiento del litigio en la categoría de la profesión legal es particularmente notable. De solo tres casos registrados en 2021, el número saltó a 32 en 2024, con otros 28 ya documentados a principios de 2025. Estos casos involucran tanto el uso de IA por actores legales como su cita en el razonamiento judicial. Un ejemplo claro es Ross v. United States (2025), en el que la Corte de Apelaciones de DC citó a ChatGPT de OpenAI en opiniones mayoritarias y disidentes para ayudar a interpretar el concepto de «conocimiento común» en un caso de crueldad animal. En Brasil, un abogado presentó una petición que contenía 43 precedentes fabricados por un modelo de IA generativa, lo que llevó a la desestimación del caso y una investigación disciplinaria.
Las disputas de propiedad intelectual también han aumentado. De menos de cinco casos anuales antes de 2022, el problema alcanzó un pico de 27 casos en 2024, principalmente relacionado con el auge de la IA generativa. Estas disputas comúnmente involucran reclamos de que los datos de entrenamiento fueron extraídos sin autorización, infringiendo derechos de autor o derechos morales. En Getty Images v. Stability AI, actualmente pendiente en múltiples jurisdicciones, los demandantes argumentan que el uso de millones de imágenes protegidas por derechos de autor en el entrenamiento de modelos viola la ley de propiedad intelectual.
Uso Administrativo de la IA
El uso administrativo de la IA representa un área de litigio de más larga data, pero no menos importante. Los casos en esta categoría se remontan a 2014, pero vieron un aumento significativo entre 2019 y 2023, alcanzando un pico de 13 casos en 2023. Estos a menudo conciernen a la automatización en los servicios públicos, como inmigración, beneficios o aplicación regulatoria. En Haghshenas v. Canada (2023), el demandante impugnó una negativa de visa influenciada por la herramienta Chinook utilizada para agilizar el procesamiento de inmigración. Mientras que el tribunal mantuvo el proceso sobre la base de que un oficial humano retuvo la discreción final, el caso reveló la confusión de la toma de decisiones híbrida y la dificultad de señalar la responsabilidad en sistemas donde los humanos dependen en gran medida de resúmenes generados por máquinas.
Conclusión
Estas tendencias revelan no solo dónde está ocurriendo el litigio, sino también cómo los sistemas judiciales están siendo arrastrados a las primeras líneas de la gobernanza de la IA. En cada una de las tres categorías principales, los tribunales no solo están reaccionando a los daños; están construyendo nuevos límites legales para las tecnologías emergentes, definiendo qué cuenta como un proceso justo o una innovación lícita en contextos donde la orientación legal previa es a menudo ambigua o inexistente. Si queremos gobernar la IA de una manera que refleje las realidades sociales en lugar de principios abstractos, no podemos permitirnos tratar la sala del tribunal como una nota al pie. La ley ya está hablando. La tarea ahora es escuchar con atención y asegurarnos de que sus juicios sean parte de la conversación que estamos construyendo sobre el futuro de la tecnología y la democracia.