Riesgos y responsabilidades: explorando las responsabilidades de la IA
La inteligencia artificial (IA) se está volviendo cada vez más omnipresente en los negocios y la vida social. Desde ChatGPT hasta chatbots, nos estamos acostumbrando a sus diversas aplicaciones que simplifican los procesos de trabajo, manejan tareas mundanas y toman decisiones de manera progresiva.
A pesar de que la IA ofrece un potencial enorme tanto para empresas como para individuos, su creciente uso también conlleva riesgos significativos. El sesgo algorítmico, la discriminación, los deepfakes, las preocupaciones de privacidad y la falta de transparencia pueden erosionar la confianza en la IA y en las organizaciones que la utilizan.
Entidades como la Unión Europea, a través de iniciativas como la Ley de IA de la UE, están trabajando para fomentar la adopción de una IA centrada en el ser humano y de confianza. Su objetivo es garantizar una protección robusta para la salud, la seguridad, los derechos fundamentales, la democracia y el estado de derecho frente a los posibles daños de los sistemas de IA, al tiempo que se fomenta la innovación y se apoya la funcionalidad del mercado interno.
Cambios regulatorios en la UE
La IA es un tema extremadamente complejo, y la responsabilidad asociada a la IA aún más. Actualmente no existen soluciones fáciles para estos problemas. Según Katie Chandler, socia de Taylor Wessing, las características únicas de los sistemas de IA plantean preguntas novedosas sobre la responsabilidad, y no está claro si los regímenes actuales serán adecuados para compensar los daños sufridos cuando los sistemas de IA fallen.
“Las enmiendas a la Directiva de Responsabilidad por Productos (PLD) de la UE buscan abordar algunos de estos problemas e incluir los sistemas de IA en el régimen de responsabilidad por productos estricta”, explica. “Esta nueva legislación amplía el alcance de las reclamaciones para cubrir sistemas de IA y software independiente. Pero estamos en una etapa muy temprana en cuanto a la consideración de la IA y la responsabilidad. No se han establecido precedentes legales, y necesitamos ver cómo los tribunales interpretarán, por ejemplo, la nueva PLD y cómo aplicarán las leyes existentes como la negligencia a las cuestiones de responsabilidad.”
“Esta nueva legislación facilitará a los consumidores presentar reclamaciones con respecto a los sistemas de IA que fallen en el mercado de la UE, y las nuevas presunciones de defecto y causación aumentan significativamente el riesgo de responsabilidad para los desarrolladores y desplegadores de IA”, continúa. “La naturaleza opaca de esta tecnología significa que las rutas de responsabilidad no se ajustan fácilmente a las reglas existentes, y esto hará que la responsabilidad sea difícil de evaluar.”
El paradigma de la ‘caja negra’
Uno de los mayores desafíos con la IA, desde una perspectiva de responsabilidad, es la naturaleza ‘caja negra’ de estos sistemas. La opacidad plantea problemas evidenciales significativos al tratar de determinar la causa de un mal funcionamiento o qué parte es responsable del daño causado.
“No poder ver cómo el sistema de IA ha tomado su decisión, ha aprendido de manera continua o ha sido entrenado, y si esto puede rastrearse hasta el fabricante o desarrollador, y por lo tanto un defecto de diseño, o al desplegador o usuario final, significa que será muy difícil determinar la causa raíz del daño alegado y quién es responsable por ello”, señala Chandler. “Este es un problema que la nueva PLD busca abordar, de tal manera que no sería un obstáculo para una reclamación del consumidor si no pueden leer lo que hay dentro de la caja negra.”
Además, la generación actual de modelos de IA avanzados incluye redes neuronales y modelos de lenguaje grande (LLMs), ambos difíciles de interpretar. “A diferencia del software tradicional, los errores a menudo no se pueden rastrear hasta líneas específicas de código, ya que los modelos de IA generan resultados basados en relaciones probabilísticas complejas, en lugar de reglas determinísticas”, dice Storm. “Esto hace que la carga de la prueba sea el tema clave en el litigio.”
Enfoques para mitigar riesgos de IA
A medida que el panorama de la IA avanza rápidamente, las empresas deben prepararse para los riesgos potenciales asociados con fallas de IA. Para gestionar y mitigar la responsabilidad, pueden tomar medidas proactivas para abordar cuestiones pertinentes.
Douglas McMahon, socio de McCann FitzGerald, describe tres formas clave en que las empresas pueden gestionar los riesgos de responsabilidad asociados con las fallas de IA.
Primero, a través de protecciones contractuales. Al adquirir sistemas de IA de terceros, las empresas pueden negociar promesas contractuales sobre la funcionalidad del sistema y buscar daños si estas promesas se rompen. La efectividad de este enfoque depende de la capacidad para negociar protecciones, la capacidad del proveedor para cumplir con las reclamaciones y los riesgos del litigio.
En segundo lugar, gestionando la responsabilidad hacia sus propios clientes. En contextos de negocio a negocio, la asignación de riesgos es flexible, pero trasladar el riesgo de falla de IA a los clientes depende del contexto específico. Las leyes de protección al consumidor pueden limitar la asignación de riesgos a los consumidores.
Y en tercer lugar, mediante la implementación de sistemas internos para reducir los riesgos de falla de IA y identificar rápidamente los problemas. Este enfoque, aunque desafiante, es preferible a depender únicamente de protecciones contractuales y ayuda a mitigar los riesgos de manera más efectiva.
Las organizaciones también deben implementar y documentar sus medidas de gestión de riesgos a lo largo del ciclo de vida de la IA. “Los sistemas de IA no se volverán menos complejos, y por lo tanto identificar un fallo específico seguirá siendo problemático”, dice Storm. “En tales ecosistemas complejos, la defensa radica en el diseño de la tecnología y poder evidenciar que se han implementado todas las medidas razonables de gestión de riesgos en este contexto.”
En resumen, a medida que la IA siga evolucionando, las empresas y los reguladores deben prepararse para los desafíos que presenta la responsabilidad asociada a estos sistemas.