Lei da Coreia pode conter crimes de deepfake enquanto Grok enfrenta críticas

Lei da Coreia pode conter crimes de deepfake enquanto Grok enfrenta críticas

Com a empresa de inteligência artificial de Elon Musk enfrentando críticas devido à disseminação de imagens deepfake, a Lei de Estrutura sobre o Desenvolvimento da Inteligência Artificial da Coreia está prestes a entrar em vigor na próxima semana. Todos os olhos estão voltados para a eficácia desta legislação — a primeira regulamentação abrangente sobre IA do mundo.

Desafios e Ceticismo

No entanto, cresce o ceticismo sobre a eficácia da lei, com muitos prevendo que enfrentará obstáculos práticos na tentativa de bloquear os serviços de deepfake da empresa ou restringir o acesso. Fontes da indústria afirmam que o modelo de IA, Grok, continua oferecendo recursos na plataforma de mídia social de Musk que transformam fotos comuns em imagens deepfake sexualmente explícitas.

Enquanto países como a Malásia e a Indonésia restringiram o acesso à plataforma, outras nações iniciaram investigações legais, levando a empresa a limitar o recurso apenas para assinantes pagos. As preocupações persistem.

Objetivos da Lei

A lei, que entra em vigor em 22 de janeiro, foi criada para fortalecer as responsabilidades dos operadores de IA e estabelecer uma base que visa fomentar a confiança em uma sociedade impulsionada pela inteligência artificial. A prevenção de crimes relacionados a deepfake foi citada como um dos principais objetivos.

A legislação se aplica a operadores estrangeiros e exige que designem agentes locais para cumprir obrigações legais. Contudo, a obrigação de transparência para rotular deepfakes não está especificamente incluída nas responsabilidades desses agentes, o que pode atrasar a prevenção ou a resposta ao se comunicar com operadores estrangeiros.

Requisitos e Consequências

A lei determina que o conteúdo gerado por IA deve ser rotulado, exigindo marcas d’água visíveis em conteúdos deepfake que sejam difíceis de distinguir da realidade. Violações podem resultar em uma ordem de correção, e o não cumprimento pode acarretar uma multa de até 30 milhões de won.

De acordo com essas regras, as imagens deepfake do Grok devem ter marcas d’água. No entanto, como a lei inclui um período de carência mínimo de um ano, a aplicação imediata é impossível.

Analistas afirmam que mesmo após o término do período de carência, bloquear ou restringir diretamente os serviços de IA estrangeiros será um desafio contínuo.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...