Projeto de Lei de IA do Japão Promove Pesquisa e Coordenação em vez de Penalidades
O Japão está adotando uma abordagem diferente na regulamentação da inteligência artificial (IA) em comparação com outras nações, especialmente em relação à União Europeia. Em vez de impor restrições severas ou definir categorias de risco, o país aprovou uma nova lei que visa apoiar a pesquisa, desenvolvimento e uso da IA.
Conteúdo da Lei de Promoção da IA do Japão
O Japão está adotando uma abordagem estruturada e liderada pelo governo para a IA. A legislação descreve como se espera que a IA seja desenvolvida e governada. Para guiar esse plano, a lei de IA exige a criação de um Gabinete de Estratégia de IA, estabelecido pelo gabinete do país e presidido pelo Primeiro-Ministro. A lei define a IA como uma tecnologia que imita habilidades cognitivas humanas, como raciocínio, tomada de decisão e aprendizado.
Prioridades da Lei
- Suporte à pesquisa e desenvolvimento: Desde a pesquisa básica até a aplicação no mundo real.
- Promoção da IA: Em setores públicos e industriais.
- Prevenção de abusos: Garantindo transparência e alinhamento com normas internacionais.
- Participação ativa: Na formulação internacional de normas.
- Desenvolvimento de habilidades: Por meio da educação e treinamento em IA.
Distribuição de Responsabilidades
As responsabilidades são distribuídas entre os stakeholders:
- Governo Central: Lidera a política e fornece apoio financeiro e legislativo para o desenvolvimento da IA.
- Governos locais: Devem promover o uso específico da IA em suas regiões.
- Universidades e Institutos de Pesquisa: Realizam pesquisas interdisciplinares abrangentes relacionadas à IA.
- Empresas: São incentivadas a construir sistemas de IA responsáveis que se alinhem com normas internacionais e previnam usos prejudiciais.
- Cidadãos: Espera-se que aprendam sobre e se engajem com a IA de forma responsável.
Diferentemente da abordagem regulamentar da UE, a lei japonesa não introduz novas penalidades para o uso inadequado da IA. Em vez disso, utiliza estruturas legais existentes, como o Código Penal e a Lei de Direitos Autorais, para lidar com riscos.
Desafios e Considerações
A lei permite que o governo nomeie publicamente as empresas envolvidas em usos prejudiciais ou inadequados de IA, como aqueles que levam ao uso criminoso, vazamentos de dados ou violações de direitos. Embora isso adicione uma responsabilidade pública, não está respaldada por penalidades específicas ou um mecanismo de aplicação dedicado.
Além disso, a legislação sobre direitos autorais do Japão permite que desenvolvedores de IA utilizem materiais protegidos sem aprovação prévia, desde que o uso seja não-expressivo, como treinamento de algoritmos ou análise de dados. Isso reduz a fricção de conformidade para a indústria, mas também limita as proteções de direitos autorais sem adicionar novas salvaguardas.
Comparação com a Lei de IA da UE
Em março de 2024, a UE aprovou sua Lei de Inteligência Artificial, uma legislação abrangente que regulamenta o uso de IA em seus estados membros. A lei utiliza um sistema em camadas para regular a IA com base no nível de risco que representa para a segurança pública, direitos fundamentais ou saúde.
- Proibido: Sistemas que manipulam comportamentos ou permitem identificação biométrica ao vivo são banidos.
- Alto Risco: IA utilizada em áreas críticas, como saúde e aplicação da lei, é permitida, mas sujeita a supervisão rigorosa.
- IA de Uso Geral (GPAI): Ferramentas como o ChatGPT devem divulgar resumos dos dados de treinamento e cumprir com as leis de direitos autorais da UE.
- Risco Mínimo: Inclui todos os outros sistemas de IA que não se enquadram nas categorias acima, como filtros de spam.
Implicações para a Índia
A Índia ainda não traçou uma estratégia bem definida para a governança da IA. Embora o governo tenha aprovado a Missão IndiaAI em março de 2024, com um orçamento de Rs. 10.371,92 crore, a iniciativa está focada principalmente na promoção da pesquisa e desenvolvimento em IA, em vez de regulamentação.
As recentes políticas da Índia, como a preocupação com deepfakes e discriminação algorítmica, sinalizam uma preferência por abordar resultados prejudiciais em vez de regulamentar sistemas de IA como um todo. No entanto, à medida que aumentam as preocupações sobre perfis, desinformação e violação de direitos autorais, essa abordagem leve pode ser pressionada.
Considerações Finais
O modelo do Japão pode ser digno de exploração, priorizando coordenação e parceria, elementos que podem ajudar a Índia a aumentar seus recursos computacionais e a engajar a academia. A questão é atingir isso sem sacrificar as salvaguardas regulatórias. Por outro lado, a UE mostra o que uma regulação proativa pode parecer, abordando legalmente os riscos da IA desde o início.
A Índia agora enfrenta uma decisão crucial: deve seguir um modelo baseado em confiança, como o do Japão, ou construir um framework legal e institucional semelhante ao da UE? Uma abordagem equilibrada que apoie a inovação enquanto protege os direitos pode ser o melhor caminho a seguir.