Irlanda impulsa leyes más estrictas contra el uso de IA para crear imágenes íntimas no consensuadas

Irlanda debe usar su presidencia de la UE para impulsar leyes más estrictas contra deepfakes de IA

Irlanda debería aprovechar su presidencia de la Unión Europea para promover leyes más estrictas contra el uso de inteligencia artificial para generar y compartir imágenes íntimas no consensuadas, según las recomendaciones dirigidas al gobierno.

Recomendaciones del Consejo Asesor de IA

El Consejo Asesor de IA ha presentado sus recomendaciones sobre la creación y difusión pública de imágenes íntimas generadas por IA sin consentimiento, incluyendo material de abuso sexual infantil (CSAM). Estas recomendaciones surgen tras un escándalo internacional relacionado con imágenes generadas mediante un chatbot de IA, aunque el documento no busca establecer hechos específicos en dicho caso.

Robustez de la legislación irlandesa

Según el Consejo Asesor, la legislación irlandesa «es suficientemente robusta para abordar la compartición no consensuada de imágenes íntimas generadas por IA y la producción y/o compartición de CSAM generado por IA». Sin embargo, señala que «la respuesta más efectiva ante la aparición de tecnologías que permiten la producción y publicación masiva de imágenes íntimas y CSAM es un enfoque armonizado a nivel de la UE».

Propuestas para la legislación de la UE

El Consejo considera que el gobierno irlandés debe aprovechar su presidencia de la UE en la segunda mitad de 2026 para trabajar con otros estados miembros en una enmienda al Artículo 5 de la Ley de IA, prohibiendo las prácticas de IA que permiten a los usuarios generar imágenes íntimas no consensuadas y CSAM.

Taxonomía nacional de daños en línea

Además, se propone crear una taxonomía nacional de daños en línea, incluyendo una categoría explícita de «daño facilitado y automatizado por IA», para estandarizar los informes y las políticas relacionadas.

Apoyo a las víctimas

Otras recomendaciones incluyen mejorar el apoyo a la presentación de informes por parte de las víctimas, la preservación de evidencia y la realización de campañas informativas dirigidas al público.

Conclusión

El Consejo Asesor de IA, establecido por el gobierno en enero de 2024, reúne a expertos legales y tecnológicos destacados en inteligencia artificial. La aplicación de estas recomendaciones podría tener un impacto significativo en la regulación del uso de tecnologías de IA para la creación de contenido sensible y potencialmente dañino.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...