Nuevas Normativas sobre Etiquetado de Contenido Generado por IA

¿Qué ha establecido el gobierno sobre el etiquetado de la IA?

La historia hasta ahora: El Ministerio de Electrónica y Tecnología de la Información ha notificado recientemente una enmienda a las Reglas de TI de 2021, que requerirá a los usuarios y plataformas de redes sociales etiquetar el contenido generado por IA, además de acortar los plazos para la eliminación de contenido, no solo para las publicaciones generadas por IA, de 24-36 horas a dos o tres horas. Las reglas entrarán en vigor el 20 de febrero.

¿Qué pasa con el contenido generado por IA?

Las nuevas Reglas de Enmienda de TI (Directrices para Intermediarios y Código de Ética de Medios Digitales) de 2026 requieren que las plataformas de redes sociales etiqueten «de manera prominente» el contenido «sintéticamente generado», es decir, imágenes y videos generados por IA. Este requisito, propuesto por primera vez en octubre del año pasado, se notificó esta semana. Las plataformas de redes sociales con más de cinco millones de usuarios deberán obtener una «declaración del usuario [para contenido generado por IA] y [realizar] verificación técnica antes de publicar [contenido generado por IA]».

El Ministerio explicó que este requisito se introdujo para contrarrestar «deepfakes, desinformación y otro contenido ilegal capaz de engañar a los usuarios, causarles daño, violar la privacidad o amenazar la integridad nacional», y que es importante que los usuarios sean conscientes de si lo que están viendo es inauténtico.

La definición preliminar de “Información Sintéticamente Generada” (SGI) era más amplia, abarcando cualquier contenido audiovisual que hubiera sido modificado o generado por IA. Sin embargo, las reglas finales excluyen ciertas excepciones, como las fotos tomadas con smartphones que son retocadas automáticamente por la aplicación de la cámara y los efectos especiales en películas.

Las reglas también prohíben ciertos tipos de SGI, como material de explotación y abuso sexual infantil, documentos falsificados, información sobre el desarrollo de explosivos y deepfakes que representan falsamente a una persona real.

¿Cómo se puede detectar el contenido generado por IA?

El gobierno ha solicitado a las grandes plataformas que “implementen medidas técnicas razonables y apropiadas para prevenir SGI ilegal, y para garantizar los requisitos de etiquetado, procedencia e identificador para SGI permisible”. Un alto funcionario del Ministerio de TI afirmó que las grandes plataformas ya cuentan con herramientas sofisticadas para detectar SGI, y que este requisito solo les exige realizar una detección que ya están llevando a cabo. Además, algunas empresas y plataformas de IA han participado en la Coalición por la Procedencia y Autenticidad del Contenido (C2PA), que ofrece estándares técnicos para etiquetar invisiblemente el contenido generado por IA de manera que pueda ser leído por otras plataformas, en caso de que la detección basada en IA falle.

¿Cómo han cambiado los plazos?

Las Reglas de TI permiten que algunas autoridades gubernamentales y funcionarios de policía emitan avisos de eliminación bajo la Regla 3(1)(b), y que los usuarios presenten quejas por categorías de contenido “ilícitas” enumeradas en las Reglas de TI, como la desinformación, la desnudez y las amenazas a la soberanía. Tanto para los avisos de eliminación emitidos por el gobierno como por la corte, los plazos se han reducido a 2-3 horas, mientras que para todas las demás categorías de quejas de usuarios (como la difamación y la desinformación), los plazos de respuesta se han recortado de dos semanas a una semana. Los plazos para responder a los informes de usuarios sobre contenido “sensible” también se han reducido de 72 horas a 36 horas. El gobierno argumentó que los límites anteriores permitían que se causara mucho daño incluso dentro de esos plazos, por lo que se requirió una revisión del tiempo que las plataformas tienen para actuar.

¿Qué otros cambios se han realizado?

Los usuarios ahora recibirán recordatorios de los términos y condiciones de las plataformas con mayor frecuencia. “Las enmiendas incluyen revisiones a la Regla 3(1)(c) de las Reglas de Intermediarios, aumentando la frecuencia de las notificaciones a los usuarios de una vez al año a al menos una vez cada tres meses, y ampliando el contenido de tales notificaciones para aclarar las posibles consecuencias de la no conformidad y las obligaciones de reporte.”

Las reglas también requieren que las plataformas adviertan específicamente a los usuarios que los deepfakes dañinos y otro contenido generado por IA ilegal podrían exponerlos a acciones legales, incluida la divulgación de su identidad a las agencias de seguridad y “la desactivación inmediata del acceso o eliminación de tal contenido, suspensión o terminación de cuentas de usuario”.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...