Legislación de la UE Después de la Ley de IA: Bruselas Considera Nuevas Normas de Responsabilidad
La Unión Europea ha abierto una consulta sobre la propuesta de la Directiva de Responsabilidad de IA (AILD), que establece un régimen de responsabilidad para los desarrolladores y usuarios de inteligencia artificial (IA).
Los puntos clave que se explorarán en la consulta incluyen la necesidad de dicha directiva y si cualquier nueva legislación debería exigir un seguro de responsabilidad de IA.
¿Necesita la UE Más Normas de IA?
Cuando la Comisión Europea propuso inicialmente la AILD, la IA estaba regulada por un mosaico de leyes de la UE y nacionales, muchas de las cuales fueron redactadas con contextos tecnológicos completamente diferentes en mente.
Desde entonces, la Ley de IA ha armonizado el marco regulatorio que cubre el uso y desarrollo de la tecnología.
En 2024, la UE también actualizó la Directiva de Responsabilidad por Productos (PLD) para adaptarla a la era digital, incorporando una nueva sección sobre «software y sistemas de IA» que detalla las responsabilidades de los desarrolladores hacia los usuarios.
Algunos interesados argumentan que la PLD cubre adecuadamente todos los escenarios potenciales de responsabilidad de IA y que la AILD ya no es necesaria. Sin embargo, una evaluación de impacto del Parlamento Europeo concluyó que varios asuntos siguen sin ser abordados por la PLD revisada.
Por ejemplo, la PLD solo establece responsabilidad para usuarios de IA profesionales o corporativos, dejando un «vacío regulatorio» en lo que respecta al daño causado por usuarios no profesionales de IA. Además, la PLD especifica actualmente un rango limitado de daños elegibles para compensación, lo que crea «lagunas significativas» en la cobertura.
Los Legisladores Consideran Mandatar un Seguro de Responsabilidad de IA
Una de las preguntas propuestas por la consulta de la AILD es si la directiva debería incluir una obligación de asegurarse contra los riesgos de responsabilidad de IA. La posición de la Comisión Europea es que todos los operadores de sistemas de IA de alto riesgo deberían poseer seguro de responsabilidad.
Esto podría imponer costos adicionales significativos a las empresas que crean tecnología considerada de alto riesgo según el Artículo 6 de la Ley de IA. Por ejemplo, los desarrolladores de herramientas de vigilancia biométrica podrían verse obligados a asegurarse contra el riesgo de identificación falsa.
La consulta también plantea la cuestión de si las aseguradoras tienen suficientes datos para suscribir eficazmente los riesgos de IA. En un informe reciente, Deloitte identificó una escasez global de productos de seguro relacionados con la IA, señalando que «la falta de datos históricos sobre el rendimiento de los modelos de IA y la velocidad a la que están evolucionando pueden dificultar la evaluación y el establecimiento de precios de los riesgos».
Próximos Pasos de la Directiva de Responsabilidad de IA
Tras la consulta de seis semanas, el rapporteur de la AILD en el Parlamento Europeo, Axel Voss, presentará los hallazgos en junio. Luego, abrirá una segunda consulta de doce semanas.
El Parlamento y la Comisión Europea llevarán a cabo negociaciones sobre la propuesta de directiva entre septiembre y diciembre. Se espera que el Comité de Asuntos Jurídicos vote sobre el documento final en enero de 2026, antes de una sesión plenaria final en febrero.