España impone multas millonarias por contenido generado por IA sin etiquetar

España impondrá multas masivas por no etiquetar contenido generado por IA

El gobierno español ha aprobado un proyecto de ley que impone multas significativas a las empresas que utilicen contenido generado por inteligencia artificial (IA) sin etiquetarlo correctamente. Esta medida busca frenar el uso de «deepfakes», que son contenidos manipulados o creados a través de algoritmos de IA pero presentados como reales.

Detalles de la Ley

La ley establece multas de hasta 35 millones de euros (aproximadamente 38 millones de dólares) o el 7% de los ingresos anuales globales de las empresas que no cumplan con las regulaciones de etiquetado. Esta legislación se alinea con el AI Act de la Unión Europea, que impone estrictas obligaciones de transparencia a los sistemas de IA considerados de alto riesgo.

El Ministro de Transformación Digital, Oscar López, comentó: «La IA es una herramienta muy poderosa que puede usarse para mejorar nuestras vidas… o para difundir desinformación y atacar la democracia.»

Implementación y Supervisión

España se posiciona como uno de los primeros países de la UE en implementar estas normas, que son consideradas más completas que el sistema de los Estados Unidos, el cual se basa en la cumplimiento voluntario y un mosaico de regulaciones estatales.

El proyecto de ley, que aún necesita ser aprobado por la cámara baja, clasifica la falta de cumplimiento con el etiquetado adecuado de contenido generado por IA como una ofensa grave.

Prácticas Prohibidas

Además de las multas, la ley prohibirá otras prácticas perjudiciales, como el uso de técnicas subliminales para manipular a grupos vulnerables. Ejemplos citados incluyen chatbots que incitan a personas con adicciones a jugar o juguetes que alientan a los niños a realizar desafíos peligrosos.

La ley también prohibirá la clasificación de personas a través de sus datos biométricos utilizando IA, así como otorgarles calificaciones basadas en su comportamiento o rasgos personales para acceder a beneficios o evaluar su riesgo de cometer un delito.

Agencia Supervisora de IA

La aplicación de las nuevas reglas estará a cargo de la recién creada agencia supervisora de IA AESIA, salvo en casos específicos que involucren privacidad de datos, crimen, elecciones, calificaciones crediticias, seguros o sistemas de mercado de capitales, los cuales serán supervisados por sus respectivas autoridades.

La necesidad de asegurar que los sistemas de IA no perjudiquen a la sociedad ha sido una prioridad para los reguladores desde que OpenAI lanzó ChatGPT a finales de 2022, sorprendiendo a los usuarios con su capacidad de mantener conversaciones similares a las humanas.

Con estas nuevas regulaciones, España busca establecer un marco claro y riguroso para el uso de la IA, promoviendo la transparencia y prohibiendo prácticas nocivas que podrían poner en peligro a los ciudadanos.

More Insights

Flujos de trabajo de IA responsable para la investigación en UX

La investigación de UX solo es tan sólida como las decisiones humanas que la guían, y los sesgos cognitivos pueden distorsionar los hallazgos. Este artículo explora cómo integrar la inteligencia...

La Revolución de la IA Agente en la Banca

La IA agentiva está revolucionando el sector bancario al automatizar procesos complejos y mejorar la experiencia del cliente. A pesar de sus ventajas, presenta desafíos significativos en términos de...

Cumpliendo con la Regulación: La Clave de la Infraestructura Cripto Escalable

El crecimiento explosivo de la industria de las criptomonedas ha traído consigo una serie de desafíos regulatorios, especialmente en operaciones transfronterizas. La clave para asegurar las carteras...

Camino hacia la Gobernanza de IA en ASEAN: Avances y Desafíos

La Asociación de Naciones del Sudeste Asiático (ASEAN) ha adoptado un enfoque favorable a la innovación en inteligencia artificial (IA) para avanzar hacia una economía digital. Sin embargo, los...

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...