España impone multas millonarias por contenido generado por IA sin etiquetar

España impondrá multas masivas por no etiquetar contenido generado por IA

El gobierno español ha aprobado un proyecto de ley que impone multas significativas a las empresas que utilicen contenido generado por inteligencia artificial (IA) sin etiquetarlo correctamente. Esta medida busca frenar el uso de «deepfakes», que son contenidos manipulados o creados a través de algoritmos de IA pero presentados como reales.

Detalles de la Ley

La ley establece multas de hasta 35 millones de euros (aproximadamente 38 millones de dólares) o el 7% de los ingresos anuales globales de las empresas que no cumplan con las regulaciones de etiquetado. Esta legislación se alinea con el AI Act de la Unión Europea, que impone estrictas obligaciones de transparencia a los sistemas de IA considerados de alto riesgo.

El Ministro de Transformación Digital, Oscar López, comentó: «La IA es una herramienta muy poderosa que puede usarse para mejorar nuestras vidas… o para difundir desinformación y atacar la democracia.»

Implementación y Supervisión

España se posiciona como uno de los primeros países de la UE en implementar estas normas, que son consideradas más completas que el sistema de los Estados Unidos, el cual se basa en la cumplimiento voluntario y un mosaico de regulaciones estatales.

El proyecto de ley, que aún necesita ser aprobado por la cámara baja, clasifica la falta de cumplimiento con el etiquetado adecuado de contenido generado por IA como una ofensa grave.

Prácticas Prohibidas

Además de las multas, la ley prohibirá otras prácticas perjudiciales, como el uso de técnicas subliminales para manipular a grupos vulnerables. Ejemplos citados incluyen chatbots que incitan a personas con adicciones a jugar o juguetes que alientan a los niños a realizar desafíos peligrosos.

La ley también prohibirá la clasificación de personas a través de sus datos biométricos utilizando IA, así como otorgarles calificaciones basadas en su comportamiento o rasgos personales para acceder a beneficios o evaluar su riesgo de cometer un delito.

Agencia Supervisora de IA

La aplicación de las nuevas reglas estará a cargo de la recién creada agencia supervisora de IA AESIA, salvo en casos específicos que involucren privacidad de datos, crimen, elecciones, calificaciones crediticias, seguros o sistemas de mercado de capitales, los cuales serán supervisados por sus respectivas autoridades.

La necesidad de asegurar que los sistemas de IA no perjudiquen a la sociedad ha sido una prioridad para los reguladores desde que OpenAI lanzó ChatGPT a finales de 2022, sorprendiendo a los usuarios con su capacidad de mantener conversaciones similares a las humanas.

Con estas nuevas regulaciones, España busca establecer un marco claro y riguroso para el uso de la IA, promoviendo la transparencia y prohibiendo prácticas nocivas que podrían poner en peligro a los ciudadanos.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...