España impondrá multas masivas por no etiquetar contenido generado por IA
El gobierno español ha aprobado un proyecto de ley que impone multas significativas a las empresas que utilicen contenido generado por inteligencia artificial (IA) sin etiquetarlo correctamente. Esta medida busca frenar el uso de «deepfakes», que son contenidos manipulados o creados a través de algoritmos de IA pero presentados como reales.
Detalles de la Ley
La ley establece multas de hasta 35 millones de euros (aproximadamente 38 millones de dólares) o el 7% de los ingresos anuales globales de las empresas que no cumplan con las regulaciones de etiquetado. Esta legislación se alinea con el AI Act de la Unión Europea, que impone estrictas obligaciones de transparencia a los sistemas de IA considerados de alto riesgo.
El Ministro de Transformación Digital, Oscar López, comentó: «La IA es una herramienta muy poderosa que puede usarse para mejorar nuestras vidas… o para difundir desinformación y atacar la democracia.»
Implementación y Supervisión
España se posiciona como uno de los primeros países de la UE en implementar estas normas, que son consideradas más completas que el sistema de los Estados Unidos, el cual se basa en la cumplimiento voluntario y un mosaico de regulaciones estatales.
El proyecto de ley, que aún necesita ser aprobado por la cámara baja, clasifica la falta de cumplimiento con el etiquetado adecuado de contenido generado por IA como una ofensa grave.
Prácticas Prohibidas
Además de las multas, la ley prohibirá otras prácticas perjudiciales, como el uso de técnicas subliminales para manipular a grupos vulnerables. Ejemplos citados incluyen chatbots que incitan a personas con adicciones a jugar o juguetes que alientan a los niños a realizar desafíos peligrosos.
La ley también prohibirá la clasificación de personas a través de sus datos biométricos utilizando IA, así como otorgarles calificaciones basadas en su comportamiento o rasgos personales para acceder a beneficios o evaluar su riesgo de cometer un delito.
Agencia Supervisora de IA
La aplicación de las nuevas reglas estará a cargo de la recién creada agencia supervisora de IA AESIA, salvo en casos específicos que involucren privacidad de datos, crimen, elecciones, calificaciones crediticias, seguros o sistemas de mercado de capitales, los cuales serán supervisados por sus respectivas autoridades.
La necesidad de asegurar que los sistemas de IA no perjudiquen a la sociedad ha sido una prioridad para los reguladores desde que OpenAI lanzó ChatGPT a finales de 2022, sorprendiendo a los usuarios con su capacidad de mantener conversaciones similares a las humanas.
Con estas nuevas regulaciones, España busca establecer un marco claro y riguroso para el uso de la IA, promoviendo la transparencia y prohibiendo prácticas nocivas que podrían poner en peligro a los ciudadanos.