España aprueba una ley para regular el contenido de IA y combatir los deepfakes
El gobierno español ha dado un paso significativo al aprobar una nueva legislación destinada a regular el contenido generado por inteligencia artificial (IA) y a imponer sanciones severas a las empresas que no etiqueten adecuadamente dicho contenido. Esta medida se enmarca en un esfuerzo más amplio para abordar el uso indebido de deepfakes, que son medios manipulados que pueden inducir a error a los espectadores.
Detalles de la legislación
Según el nuevo proyecto de ley, la falta de etiquetado correcto del contenido generado por IA se clasifica como un delito grave. Las empresas que incumplan esta norma podrían enfrentar multas de hasta €35 millones (aproximadamente $38.2 millones) o el 7% de su facturación anual global. Esta regulación es considerada más rigurosa que el marco regulatorio existente en Estados Unidos, donde el cumplimiento es, en gran medida, voluntario y varía según el estado.
Durante el anuncio de la ley, el Ministro de Transformación Digital y Función Pública de España, Óscar López, destacó la vulnerabilidad generalizada a los ataques de deepfake, que pueden involucrar videos, imágenes o audios alterados presentados como genuinos. “La IA es una herramienta muy poderosa que puede utilizarse para mejorar nuestras vidas … o para difundir desinformación y atacar la democracia”, afirmó López.
Prohibiciones y restricciones
La legislación también prohíbe el uso de técnicas subliminales que podrían manipular a individuos susceptibles. Se mencionaron ejemplos como chatbots que podrían fomentar la adicción al juego o juguetes que incitan a los niños a comportamientos de riesgo. Además, se restringe a las organizaciones de utilizar IA para clasificar a individuos basándose en datos biométricos, comportamiento o características personales para determinar el acceso a beneficios o evaluar la probabilidad de actividad delictiva.
No obstante, la ley permite el uso de vigilancia biométrica en tiempo real en espacios públicos por razones de seguridad nacional.
Supervisión de la implementación
La reciente creación de la Agencia de Supervisión de Inteligencia Artificial de España (AESIA) será responsable de supervisar la implementación de estas nuevas regulaciones. Sin embargo, áreas específicas como la privacidad de datos, el crimen, las elecciones, las calificaciones crediticias, el seguro y los mercados de capital serán gestionadas por los organismos reguladores pertinentes. Esta movida se alinea con los esfuerzos más amplios de la Unión Europea para estandarizar las regulaciones en torno a la IA.
Acta de IA de la UE: Mejora de los estándares de seguridad e impulso a la innovación
En agosto de 2024, la Comisión Europea (CE) implementó oficialmente el Acta de IA de la UE. Este acto tiene como objetivo asegurar que los sistemas de IA desarrollados y utilizados dentro de la UE cumplan con estándares de seguridad y ética diseñados para proteger los derechos fundamentales. La regulación busca crear un mercado interno unificado para la IA en toda la UE, promoviendo la adopción de tecnologías de IA mientras se fomenta un entorno propicio para la innovación y la inversión.
Como parte de su estrategia digital, la UE aspira a regular la IA para establecer mejores condiciones para el desarrollo y la aplicación de esta tecnología. La ejecución del Acta de IA estará supervisada por la Oficina de IA de la Comisión a nivel europeo, y se requerirá que los estados miembros designen autoridades nacionales antes del 2 de agosto de 2025 para garantizar el cumplimiento y realizar la vigilancia del mercado.