Nuevas Reglas de Responsabilidad en la Legislación de la UE tras la Ley de IA

Legislación de la UE Después de la Ley de IA: Bruselas Considera Nuevas Normas de Responsabilidad

La Unión Europea ha abierto una consulta sobre la propuesta de la Directiva de Responsabilidad de IA (AILD), que establece un régimen de responsabilidad para los desarrolladores y usuarios de inteligencia artificial (IA).

Los puntos clave que se explorarán en la consulta incluyen la necesidad de dicha directiva y si cualquier nueva legislación debería exigir un seguro de responsabilidad de IA.

¿Necesita la UE Más Normas de IA?

Cuando la Comisión Europea propuso inicialmente la AILD, la IA estaba regulada por un mosaico de leyes de la UE y nacionales, muchas de las cuales fueron redactadas con contextos tecnológicos completamente diferentes en mente.

Desde entonces, la Ley de IA ha armonizado el marco regulatorio que cubre el uso y desarrollo de la tecnología.

En 2024, la UE también actualizó la Directiva de Responsabilidad por Productos (PLD) para adaptarla a la era digital, incorporando una nueva sección sobre «software y sistemas de IA» que detalla las responsabilidades de los desarrolladores hacia los usuarios.

Algunos interesados argumentan que la PLD cubre adecuadamente todos los escenarios potenciales de responsabilidad de IA y que la AILD ya no es necesaria. Sin embargo, una evaluación de impacto del Parlamento Europeo concluyó que varios asuntos siguen sin ser abordados por la PLD revisada.

Por ejemplo, la PLD solo establece responsabilidad para usuarios de IA profesionales o corporativos, dejando un «vacío regulatorio» en lo que respecta al daño causado por usuarios no profesionales de IA. Además, la PLD especifica actualmente un rango limitado de daños elegibles para compensación, lo que crea «lagunas significativas» en la cobertura.

Los Legisladores Consideran Mandatar un Seguro de Responsabilidad de IA

Una de las preguntas propuestas por la consulta de la AILD es si la directiva debería incluir una obligación de asegurarse contra los riesgos de responsabilidad de IA. La posición de la Comisión Europea es que todos los operadores de sistemas de IA de alto riesgo deberían poseer seguro de responsabilidad.

Esto podría imponer costos adicionales significativos a las empresas que crean tecnología considerada de alto riesgo según el Artículo 6 de la Ley de IA. Por ejemplo, los desarrolladores de herramientas de vigilancia biométrica podrían verse obligados a asegurarse contra el riesgo de identificación falsa.

La consulta también plantea la cuestión de si las aseguradoras tienen suficientes datos para suscribir eficazmente los riesgos de IA. En un informe reciente, Deloitte identificó una escasez global de productos de seguro relacionados con la IA, señalando que «la falta de datos históricos sobre el rendimiento de los modelos de IA y la velocidad a la que están evolucionando pueden dificultar la evaluación y el establecimiento de precios de los riesgos».

Próximos Pasos de la Directiva de Responsabilidad de IA

Tras la consulta de seis semanas, el rapporteur de la AILD en el Parlamento Europeo, Axel Voss, presentará los hallazgos en junio. Luego, abrirá una segunda consulta de doce semanas.

El Parlamento y la Comisión Europea llevarán a cabo negociaciones sobre la propuesta de directiva entre septiembre y diciembre. Se espera que el Comité de Asuntos Jurídicos vote sobre el documento final en enero de 2026, antes de una sesión plenaria final en febrero.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...