¿Qué ha establecido el gobierno sobre el etiquetado de la IA?
La historia hasta ahora: El Ministerio de Electrónica y Tecnología de la Información ha notificado recientemente una enmienda a las Reglas de TI de 2021, que requerirá a los usuarios y plataformas de redes sociales etiquetar el contenido generado por IA, además de acortar los plazos para la eliminación de contenido, no solo para las publicaciones generadas por IA, de 24-36 horas a dos o tres horas. Las reglas entrarán en vigor el 20 de febrero.
¿Qué pasa con el contenido generado por IA?
Las nuevas Reglas de Enmienda de TI (Directrices para Intermediarios y Código de Ética de Medios Digitales) de 2026 requieren que las plataformas de redes sociales etiqueten «de manera prominente» el contenido «sintéticamente generado», es decir, imágenes y videos generados por IA. Este requisito, propuesto por primera vez en octubre del año pasado, se notificó esta semana. Las plataformas de redes sociales con más de cinco millones de usuarios deberán obtener una «declaración del usuario [para contenido generado por IA] y [realizar] verificación técnica antes de publicar [contenido generado por IA]».
El Ministerio explicó que este requisito se introdujo para contrarrestar «deepfakes, desinformación y otro contenido ilegal capaz de engañar a los usuarios, causarles daño, violar la privacidad o amenazar la integridad nacional», y que es importante que los usuarios sean conscientes de si lo que están viendo es inauténtico.
La definición preliminar de “Información Sintéticamente Generada” (SGI) era más amplia, abarcando cualquier contenido audiovisual que hubiera sido modificado o generado por IA. Sin embargo, las reglas finales excluyen ciertas excepciones, como las fotos tomadas con smartphones que son retocadas automáticamente por la aplicación de la cámara y los efectos especiales en películas.
Las reglas también prohíben ciertos tipos de SGI, como material de explotación y abuso sexual infantil, documentos falsificados, información sobre el desarrollo de explosivos y deepfakes que representan falsamente a una persona real.
¿Cómo se puede detectar el contenido generado por IA?
El gobierno ha solicitado a las grandes plataformas que “implementen medidas técnicas razonables y apropiadas para prevenir SGI ilegal, y para garantizar los requisitos de etiquetado, procedencia e identificador para SGI permisible”. Un alto funcionario del Ministerio de TI afirmó que las grandes plataformas ya cuentan con herramientas sofisticadas para detectar SGI, y que este requisito solo les exige realizar una detección que ya están llevando a cabo. Además, algunas empresas y plataformas de IA han participado en la Coalición por la Procedencia y Autenticidad del Contenido (C2PA), que ofrece estándares técnicos para etiquetar invisiblemente el contenido generado por IA de manera que pueda ser leído por otras plataformas, en caso de que la detección basada en IA falle.
¿Cómo han cambiado los plazos?
Las Reglas de TI permiten que algunas autoridades gubernamentales y funcionarios de policía emitan avisos de eliminación bajo la Regla 3(1)(b), y que los usuarios presenten quejas por categorías de contenido “ilícitas” enumeradas en las Reglas de TI, como la desinformación, la desnudez y las amenazas a la soberanía. Tanto para los avisos de eliminación emitidos por el gobierno como por la corte, los plazos se han reducido a 2-3 horas, mientras que para todas las demás categorías de quejas de usuarios (como la difamación y la desinformación), los plazos de respuesta se han recortado de dos semanas a una semana. Los plazos para responder a los informes de usuarios sobre contenido “sensible” también se han reducido de 72 horas a 36 horas. El gobierno argumentó que los límites anteriores permitían que se causara mucho daño incluso dentro de esos plazos, por lo que se requirió una revisión del tiempo que las plataformas tienen para actuar.
¿Qué otros cambios se han realizado?
Los usuarios ahora recibirán recordatorios de los términos y condiciones de las plataformas con mayor frecuencia. “Las enmiendas incluyen revisiones a la Regla 3(1)(c) de las Reglas de Intermediarios, aumentando la frecuencia de las notificaciones a los usuarios de una vez al año a al menos una vez cada tres meses, y ampliando el contenido de tales notificaciones para aclarar las posibles consecuencias de la no conformidad y las obligaciones de reporte.”
Las reglas también requieren que las plataformas adviertan específicamente a los usuarios que los deepfakes dañinos y otro contenido generado por IA ilegal podrían exponerlos a acciones legales, incluida la divulgación de su identidad a las agencias de seguridad y “la desactivación inmediata del acceso o eliminación de tal contenido, suspensión o terminación de cuentas de usuario”.