Novas Regras de TI: Impacto da IA no Conteúdo Digital

Governo altera regras de TI com foco no conteúdo gerado por IA

As alterações do governo nas regras de Tecnologia da Informação, notificadas na quarta-feira, definiram e trouxeram o conteúdo gerado por inteligência artificial (IA) para o âmbito legal, exigindo requisitos de rotulagem para conteúdos de IA e novas obrigações tanto para usuários quanto para plataformas. As mudanças também impactaram significativamente a indústria de mídias sociais ao reduzir o prazo para remoção de conteúdos ilegais sinalizados para três horas após a notificação, em vez do prazo anterior de 36 horas.

Novas regras e prazos

As novas regras de TI, que entrarão em vigor em 20 de fevereiro, também encurtaram o tempo mínimo dado às plataformas para resolver queixas de usuários para sete dias, reduzido de 15 dias anteriormente, enquanto a remoção de imagens íntimas não consensuais (NCII) deve ocorrer em até duas horas, ao invés de 24 horas antes. Essa compressão do cronograma de conformidade foi necessária devido a casos em que conteúdos ilegais se tornaram virais em questão de horas após a publicação.

Definições de conteúdo ilegal

As regras de TI definem uma ampla gama de informações como conteúdo ilegal, incluindo aquelas proibidas sob qualquer lei relacionada à soberania nacional, integridade, segurança do estado, relações amistosas com países estrangeiros, ordem pública, decência ou moralidade, desprezo ao tribunal, difamação e incitação a um delito, entre outros.

Desafios e considerações

Sobre a capacidade das plataformas de cumprir com prazos tão curtos, um especialista da indústria destacou que é uma área onde a indústria e o governo precisarão trabalhar juntos. Ele expressou preocupações sobre a viabilidade técnica das obrigações legais, enfatizando que a implementação bem-sucedida dessas regras dependerá de uma colaboração mais próxima entre todos os envolvidos.

Rotulagem de IA

Além disso, as regras atualizadas exigem uma declaração obrigatória de todos os usuários de mídias sociais ao postar conteúdo gerado ou modificado por IA, e obrigam as plataformas a adotar medidas técnicas para verificar e rotular de forma proeminente tanto imagens quanto áudios gerados por IA. A cada três meses, as intermediárias tecnológicas também devem informar seus usuários sobre as regulamentações de IA.

Conclusão

As novas medidas foram introduzidas para combater o aumento de casos de material de abuso sexual infantil (CSAM), deepfakes direcionados a mulheres e NCII nas plataformas. Embora as novas provisões tenham sido bem recebidas pela indústria, o prazo de 10 dias para implementá-las pode representar um desafio significativo. As regras visam, assim, garantir que o conteúdo gerado por IA seja tratado com a devida responsabilidade e transparência, refletindo a necessidade urgente de regulação nesse campo em rápida evolução.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...