Nueva propuesta de ley de responsabilidad en IA para combatir los deepfakes y los medios sintéticos
La legislación propuesta busca regular las crecientes amenazas que plantea la inteligencia artificial generativa (GenAI) y los medios sintéticos, incluidos los deepfakes. Esta ley establece un marco integral para supervisar el contenido generado por IA.
Provisiones clave de la ley
La ley requiere la inclusión de marcadores digitales en imágenes, audio y video generados por IA para garantizar la transparencia. Además, se ofrecerán herramientas gratuitas para verificar la autenticidad del contenido y el fiscal general podrá imponer sanciones por violaciones.
Algunas de las disposiciones principales incluyen:
- Marcadores digitales obligatorios: Los proveedores de servicios GenAI deben incrustar marcadores imperceptibles en el contenido sintético.
- Herramientas de detección de procedencia: Las empresas deben ofrecer herramientas gratuitas para detectar contenido generado por IA.
- Aplicación civil: El fiscal general puede investigar violaciones y imponer multas de hasta $15,000 por infracción.
- Penalizaciones criminales mejoradas: Usar GenAI para cometer delitos podría aumentar la pena de prisión en un año adicional.
- Responsabilidad civil: Las personas que difundan contenido sintético malicioso podrían enfrentar demandas.
Relevancia local
Las comunidades han expresado preocupaciones sobre los deepfakes, especialmente con la accesibilidad de herramientas de IA que facilitan su uso indebido. La legislación podría proporcionar herramientas para que las fuerzas del orden y los residentes combatan contenido engañoso.
Conclusión
Esta propuesta representa un paso proactivo para salvaguardar a los ciudadanos mientras se fomenta un desarrollo responsable de la IA. A medida que la legislatura se convoque, el enfoque en la marcación y la aplicación refleja tendencias emergentes en la regulación de los medios sintéticos.