Nuevas Reglas de Responsabilidad en la Legislación de la UE tras la Ley de IA

Legislación de la UE Después de la Ley de IA: Bruselas Considera Nuevas Normas de Responsabilidad

La Unión Europea ha abierto una consulta sobre la propuesta de la Directiva de Responsabilidad de IA (AILD), que establece un régimen de responsabilidad para los desarrolladores y usuarios de inteligencia artificial (IA).

Los puntos clave que se explorarán en la consulta incluyen la necesidad de dicha directiva y si cualquier nueva legislación debería exigir un seguro de responsabilidad de IA.

¿Necesita la UE Más Normas de IA?

Cuando la Comisión Europea propuso inicialmente la AILD, la IA estaba regulada por un mosaico de leyes de la UE y nacionales, muchas de las cuales fueron redactadas con contextos tecnológicos completamente diferentes en mente.

Desde entonces, la Ley de IA ha armonizado el marco regulatorio que cubre el uso y desarrollo de la tecnología.

En 2024, la UE también actualizó la Directiva de Responsabilidad por Productos (PLD) para adaptarla a la era digital, incorporando una nueva sección sobre «software y sistemas de IA» que detalla las responsabilidades de los desarrolladores hacia los usuarios.

Algunos interesados argumentan que la PLD cubre adecuadamente todos los escenarios potenciales de responsabilidad de IA y que la AILD ya no es necesaria. Sin embargo, una evaluación de impacto del Parlamento Europeo concluyó que varios asuntos siguen sin ser abordados por la PLD revisada.

Por ejemplo, la PLD solo establece responsabilidad para usuarios de IA profesionales o corporativos, dejando un «vacío regulatorio» en lo que respecta al daño causado por usuarios no profesionales de IA. Además, la PLD especifica actualmente un rango limitado de daños elegibles para compensación, lo que crea «lagunas significativas» en la cobertura.

Los Legisladores Consideran Mandatar un Seguro de Responsabilidad de IA

Una de las preguntas propuestas por la consulta de la AILD es si la directiva debería incluir una obligación de asegurarse contra los riesgos de responsabilidad de IA. La posición de la Comisión Europea es que todos los operadores de sistemas de IA de alto riesgo deberían poseer seguro de responsabilidad.

Esto podría imponer costos adicionales significativos a las empresas que crean tecnología considerada de alto riesgo según el Artículo 6 de la Ley de IA. Por ejemplo, los desarrolladores de herramientas de vigilancia biométrica podrían verse obligados a asegurarse contra el riesgo de identificación falsa.

La consulta también plantea la cuestión de si las aseguradoras tienen suficientes datos para suscribir eficazmente los riesgos de IA. En un informe reciente, Deloitte identificó una escasez global de productos de seguro relacionados con la IA, señalando que «la falta de datos históricos sobre el rendimiento de los modelos de IA y la velocidad a la que están evolucionando pueden dificultar la evaluación y el establecimiento de precios de los riesgos».

Próximos Pasos de la Directiva de Responsabilidad de IA

Tras la consulta de seis semanas, el rapporteur de la AILD en el Parlamento Europeo, Axel Voss, presentará los hallazgos en junio. Luego, abrirá una segunda consulta de doce semanas.

El Parlamento y la Comisión Europea llevarán a cabo negociaciones sobre la propuesta de directiva entre septiembre y diciembre. Se espera que el Comité de Asuntos Jurídicos vote sobre el documento final en enero de 2026, antes de una sesión plenaria final en febrero.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...