Reglas de contenido de IA de MeitY: 8 cambios clave para usuarios de redes sociales

Nuevas reglas de contenido de IA de MeitY: 8 cambios clave que los usuarios de redes sociales deben conocer

El Ministerio de Electrónica y Tecnología de la Información ha implementado un marco de cumplimiento más estricto para el contenido generado por inteligencia artificial en las plataformas de redes sociales, endureciendo significativamente los plazos y las normas de responsabilidad tanto para los usuarios como para las empresas tecnológicas. Esta medida se toma en medio de crecientes preocupaciones sobre los deepfakes, la suplantación de identidad y el uso indebido de medios sintéticos para engañar al público.

1. Motivos de la acción gubernamental

El gobierno ha señalado un aumento en el uso indebido de contenido generado por IA, particularmente videos, imágenes y audios sintéticos diseñados para desinformar o difamar a individuos. Los funcionarios argumentan que, aunque las herramientas de IA están avanzando rápidamente, las medidas de control en su uso deben evolucionar para prevenir daños, desinformación y afectaciones a la reputación.

2. Qué se considera medios sintéticos

Bajo el nuevo marco, los medios sintéticos se refieren al contenido generado o manipulado por IA que puede imitar convincentemente a personas reales, voces, eventos o situaciones de manera que podría engañar a los espectadores haciéndoles creer que es auténtico. Esto incluye videos deepfake realistas, clips de audio fabricados e imágenes hiperrealistas.

3. Ediciones rutinarias no requieren etiquetado de IA

Se ha aclarado que las ediciones digitales cotidianas no requerirán una etiqueta de «generado por IA». Actividades como aplicar filtros de fotos, comprimir videos para subir, transcribir o traducir contenido, limpiar ruido de fondo, generar presentaciones, formatear documentos o crear gráficos y diagramas utilizando herramientas de IA se consideran asistencia rutinaria, no medios sintéticos.

4. Declaración obligatoria de contenido generado por IA

Las plataformas de redes sociales deben garantizar que los usuarios declaren claramente cuando su contenido es generado por IA. Una vez identificado como sintético, la plataforma debe adjuntar una etiqueta visible para informar a los espectadores que el contenido no fue creado de manera orgánica.

5. Advertencias trimestrales para usuarios

Las plataformas están obligadas a notificar a los usuarios cada tres meses sobre sus responsabilidades legales. Estas notificaciones deben aclarar que el contenido ilegal puede conllevar la eliminación de publicaciones, suspensión de cuentas y posibles informes a las autoridades legales.

6. Posición firme sobre deepfakes y suplantación de identidad

Las empresas deben advertir explícitamente a los usuarios sobre la creación de deepfakes, contenido de suplantación de identidad o imágenes íntimas no consensuadas. Las violaciones podrían resultar en la eliminación rápida del contenido, acciones contra la cuenta y procedimientos legales bajo las leyes aplicables.

7. Tiempos de cumplimiento más cortos para eliminaciones

Uno de los cambios más significativos es la drástica reducción de los plazos de cumplimiento. Si el gobierno emite una directiva de eliminación a las 11 a.m., las plataformas deben cumplir a las 2 p.m., reduciendo la ventana anterior de 36 horas a solo tres horas. Tales órdenes pueden ser emitidas por oficiales de policía del rango de Inspector General Adjunto o superior.

8. Prohibiciones para empresas de IA

Las empresas de IA tienen prohibido producir deepfakes sexualmente explícitos sin consentimiento, contenido que viole la privacidad corporal, documentos de identificación gubernamentales falsificados, cartas de nombramiento falsas, registros financieros manipulados o contenido instructivo relacionado con explosivos. También están restringidas en la creación de deepfakes de figuras políticas o públicas, incluyendo discursos fabricados de candidatos electorales, falsos respaldos de celebridades, entrevistas simuladas y visuales de noticias sintéticas que representen disturbios, ataques o accidentes que nunca ocurrieron.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...