Nueva Ley de Responsabilidad AI en Nuevo México para Combatir Deepfakes

Nueva propuesta de ley de responsabilidad en IA para combatir los deepfakes y los medios sintéticos

La legislación propuesta busca regular las crecientes amenazas que plantea la inteligencia artificial generativa (GenAI) y los medios sintéticos, incluidos los deepfakes. Esta ley establece un marco integral para supervisar el contenido generado por IA.

Provisiones clave de la ley

La ley requiere la inclusión de marcadores digitales en imágenes, audio y video generados por IA para garantizar la transparencia. Además, se ofrecerán herramientas gratuitas para verificar la autenticidad del contenido y el fiscal general podrá imponer sanciones por violaciones.

Algunas de las disposiciones principales incluyen:

  • Marcadores digitales obligatorios: Los proveedores de servicios GenAI deben incrustar marcadores imperceptibles en el contenido sintético.
  • Herramientas de detección de procedencia: Las empresas deben ofrecer herramientas gratuitas para detectar contenido generado por IA.
  • Aplicación civil: El fiscal general puede investigar violaciones y imponer multas de hasta $15,000 por infracción.
  • Penalizaciones criminales mejoradas: Usar GenAI para cometer delitos podría aumentar la pena de prisión en un año adicional.
  • Responsabilidad civil: Las personas que difundan contenido sintético malicioso podrían enfrentar demandas.

Relevancia local

Las comunidades han expresado preocupaciones sobre los deepfakes, especialmente con la accesibilidad de herramientas de IA que facilitan su uso indebido. La legislación podría proporcionar herramientas para que las fuerzas del orden y los residentes combatan contenido engañoso.

Conclusión

Esta propuesta representa un paso proactivo para salvaguardar a los ciudadanos mientras se fomenta un desarrollo responsable de la IA. A medida que la legislatura se convoque, el enfoque en la marcación y la aplicación refleja tendencias emergentes en la regulación de los medios sintéticos.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...