Lei da Coreia pode conter crimes de deepfake enquanto Grok enfrenta críticas
Com a empresa de inteligência artificial de Elon Musk enfrentando críticas devido à disseminação de imagens deepfake, a Lei de Estrutura sobre o Desenvolvimento da Inteligência Artificial da Coreia está prestes a entrar em vigor na próxima semana. Todos os olhos estão voltados para a eficácia desta legislação — a primeira regulamentação abrangente sobre IA do mundo.
Desafios e Ceticismo
No entanto, cresce o ceticismo sobre a eficácia da lei, com muitos prevendo que enfrentará obstáculos práticos na tentativa de bloquear os serviços de deepfake da empresa ou restringir o acesso. Fontes da indústria afirmam que o modelo de IA, Grok, continua oferecendo recursos na plataforma de mídia social de Musk que transformam fotos comuns em imagens deepfake sexualmente explícitas.
Enquanto países como a Malásia e a Indonésia restringiram o acesso à plataforma, outras nações iniciaram investigações legais, levando a empresa a limitar o recurso apenas para assinantes pagos. As preocupações persistem.
Objetivos da Lei
A lei, que entra em vigor em 22 de janeiro, foi criada para fortalecer as responsabilidades dos operadores de IA e estabelecer uma base que visa fomentar a confiança em uma sociedade impulsionada pela inteligência artificial. A prevenção de crimes relacionados a deepfake foi citada como um dos principais objetivos.
A legislação se aplica a operadores estrangeiros e exige que designem agentes locais para cumprir obrigações legais. Contudo, a obrigação de transparência para rotular deepfakes não está especificamente incluída nas responsabilidades desses agentes, o que pode atrasar a prevenção ou a resposta ao se comunicar com operadores estrangeiros.
Requisitos e Consequências
A lei determina que o conteúdo gerado por IA deve ser rotulado, exigindo marcas d’água visíveis em conteúdos deepfake que sejam difíceis de distinguir da realidade. Violações podem resultar em uma ordem de correção, e o não cumprimento pode acarretar uma multa de até 30 milhões de won.
De acordo com essas regras, as imagens deepfake do Grok devem ter marcas d’água. No entanto, como a lei inclui um período de carência mínimo de um ano, a aplicação imediata é impossível.
Analistas afirmam que mesmo após o término do período de carência, bloquear ou restringir diretamente os serviços de IA estrangeiros será um desafio contínuo.