Riesgos y responsabilidades en la era de la IA

Riesgos y responsabilidades: explorando las responsabilidades de la IA

La inteligencia artificial (IA) se está volviendo cada vez más omnipresente en los negocios y la vida social. Desde ChatGPT hasta chatbots, nos estamos acostumbrando a sus diversas aplicaciones que simplifican los procesos de trabajo, manejan tareas mundanas y toman decisiones de manera progresiva.

A pesar de que la IA ofrece un potencial enorme tanto para empresas como para individuos, su creciente uso también conlleva riesgos significativos. El sesgo algorítmico, la discriminación, los deepfakes, las preocupaciones de privacidad y la falta de transparencia pueden erosionar la confianza en la IA y en las organizaciones que la utilizan.

Entidades como la Unión Europea, a través de iniciativas como la Ley de IA de la UE, están trabajando para fomentar la adopción de una IA centrada en el ser humano y de confianza. Su objetivo es garantizar una protección robusta para la salud, la seguridad, los derechos fundamentales, la democracia y el estado de derecho frente a los posibles daños de los sistemas de IA, al tiempo que se fomenta la innovación y se apoya la funcionalidad del mercado interno.

Cambios regulatorios en la UE

La IA es un tema extremadamente complejo, y la responsabilidad asociada a la IA aún más. Actualmente no existen soluciones fáciles para estos problemas. Según Katie Chandler, socia de Taylor Wessing, las características únicas de los sistemas de IA plantean preguntas novedosas sobre la responsabilidad, y no está claro si los regímenes actuales serán adecuados para compensar los daños sufridos cuando los sistemas de IA fallen.

“Las enmiendas a la Directiva de Responsabilidad por Productos (PLD) de la UE buscan abordar algunos de estos problemas e incluir los sistemas de IA en el régimen de responsabilidad por productos estricta”, explica. “Esta nueva legislación amplía el alcance de las reclamaciones para cubrir sistemas de IA y software independiente. Pero estamos en una etapa muy temprana en cuanto a la consideración de la IA y la responsabilidad. No se han establecido precedentes legales, y necesitamos ver cómo los tribunales interpretarán, por ejemplo, la nueva PLD y cómo aplicarán las leyes existentes como la negligencia a las cuestiones de responsabilidad.”

“Esta nueva legislación facilitará a los consumidores presentar reclamaciones con respecto a los sistemas de IA que fallen en el mercado de la UE, y las nuevas presunciones de defecto y causación aumentan significativamente el riesgo de responsabilidad para los desarrolladores y desplegadores de IA”, continúa. “La naturaleza opaca de esta tecnología significa que las rutas de responsabilidad no se ajustan fácilmente a las reglas existentes, y esto hará que la responsabilidad sea difícil de evaluar.”

El paradigma de la ‘caja negra’

Uno de los mayores desafíos con la IA, desde una perspectiva de responsabilidad, es la naturaleza ‘caja negra’ de estos sistemas. La opacidad plantea problemas evidenciales significativos al tratar de determinar la causa de un mal funcionamiento o qué parte es responsable del daño causado.

“No poder ver cómo el sistema de IA ha tomado su decisión, ha aprendido de manera continua o ha sido entrenado, y si esto puede rastrearse hasta el fabricante o desarrollador, y por lo tanto un defecto de diseño, o al desplegador o usuario final, significa que será muy difícil determinar la causa raíz del daño alegado y quién es responsable por ello”, señala Chandler. “Este es un problema que la nueva PLD busca abordar, de tal manera que no sería un obstáculo para una reclamación del consumidor si no pueden leer lo que hay dentro de la caja negra.”

Además, la generación actual de modelos de IA avanzados incluye redes neuronales y modelos de lenguaje grande (LLMs), ambos difíciles de interpretar. “A diferencia del software tradicional, los errores a menudo no se pueden rastrear hasta líneas específicas de código, ya que los modelos de IA generan resultados basados en relaciones probabilísticas complejas, en lugar de reglas determinísticas”, dice Storm. “Esto hace que la carga de la prueba sea el tema clave en el litigio.”

Enfoques para mitigar riesgos de IA

A medida que el panorama de la IA avanza rápidamente, las empresas deben prepararse para los riesgos potenciales asociados con fallas de IA. Para gestionar y mitigar la responsabilidad, pueden tomar medidas proactivas para abordar cuestiones pertinentes.

Douglas McMahon, socio de McCann FitzGerald, describe tres formas clave en que las empresas pueden gestionar los riesgos de responsabilidad asociados con las fallas de IA.

Primero, a través de protecciones contractuales. Al adquirir sistemas de IA de terceros, las empresas pueden negociar promesas contractuales sobre la funcionalidad del sistema y buscar daños si estas promesas se rompen. La efectividad de este enfoque depende de la capacidad para negociar protecciones, la capacidad del proveedor para cumplir con las reclamaciones y los riesgos del litigio.

En segundo lugar, gestionando la responsabilidad hacia sus propios clientes. En contextos de negocio a negocio, la asignación de riesgos es flexible, pero trasladar el riesgo de falla de IA a los clientes depende del contexto específico. Las leyes de protección al consumidor pueden limitar la asignación de riesgos a los consumidores.

Y en tercer lugar, mediante la implementación de sistemas internos para reducir los riesgos de falla de IA y identificar rápidamente los problemas. Este enfoque, aunque desafiante, es preferible a depender únicamente de protecciones contractuales y ayuda a mitigar los riesgos de manera más efectiva.

Las organizaciones también deben implementar y documentar sus medidas de gestión de riesgos a lo largo del ciclo de vida de la IA. “Los sistemas de IA no se volverán menos complejos, y por lo tanto identificar un fallo específico seguirá siendo problemático”, dice Storm. “En tales ecosistemas complejos, la defensa radica en el diseño de la tecnología y poder evidenciar que se han implementado todas las medidas razonables de gestión de riesgos en este contexto.”

En resumen, a medida que la IA siga evolucionando, las empresas y los reguladores deben prepararse para los desafíos que presenta la responsabilidad asociada a estos sistemas.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...