Regulação da IA no Nepal: Desafios e Oportunidades

Regulamentação da IA no Nepal: Além de um Rascunho de Política Vago

Imaginar um cenário onde a Polícia Nacional emite mandados de busca ou realiza prisões com a assistência de ferramentas de IA é alarmante. Questões éticas são levantadas: serão respeitadas salvaguardas adequadas nesse processo? Haverá controle humano sobre a decisão final de agir em busca de justiça?

Na UE, a Lei de IA entrou em vigor em agosto de 2024, estabelecendo legislações claras sobre o uso da inteligência artificial por agências de segurança. Por exemplo, o uso de reconhecimento facial em tempo real em locais públicos é proibido, exceto para agências de aplicação da lei em circunstâncias específicas. No entanto, a lei enfrenta críticas por permitir muitas lacunas para o uso policial.

O ato implementou uma abordagem baseada em riscos com quatro níveis de risco, incluindo proibições em casos de riscos inaceitáveis. Esse movimento pioneiro visa atualizar e revisar as regulamentações para que se mantenham eficazes diante do potencial ilimitado da tecnologia. A complexidade em encontrar um equilíbrio entre o uso efetivo da IA e a implementação de guardrails éticos é um desafio que deve ser enfrentado.

A recente aquisição de softwares de IA pela polícia do Nepal e a capacitação de seus funcionários no uso dessas ferramentas são preocupantes. Em um cenário de rápido desenvolvimento da IA, onde há muitas discussões sobre regulamentações, o recente rascunho de uma política de IA pelo governo é um passo positivo. O rascunho apresenta objetivos de política valiosos, destacando que o desenvolvimento e uso da IA devem focar na criação de impactos positivos para a sociedade.

Entretanto, existem preocupações sobre a falta de especificidades em relação à implementação das futuras regulamentações de IA. É fundamental que qualquer política de IA seja contextualizada com a necessidade urgente de leis de proteção de dados, privacidade, cibersegurança e infraestrutura digital no Nepal, que ainda não estão adequadamente estabelecidas.

A finalização da política de IA requer, como sugerido por grupos como Direitos Digitais Nepal e Associação de IA do Nepal, a criação de um quadro robusto para garantir a conduta adequada em relação aos direitos de proteção de dados e privacidade. Estes são desafios cruciais para o Nepal e para a comunidade internacional, como destacado no relatório Governing AI for Humanity do ONU.

Uma deficiência significativa do rascunho é sua abordagem generalizada e sem prazos. Por exemplo, a legislação de um quadro de proteção de dados exigirá um esforço monumental e complexo, demandando urgência por parte dos legisladores e poderes executivos. Além disso, a proposta de um Conselho Regulador de IA, presidido pelo Ministro de Comunicações e Tecnologia da Informação, levanta questões sobre a eficácia desse corpo, já que muitos conselhos de alto nível enfrentam dificuldades para se reunir.

Em contraste, a proposta de um Centro Nacional de IA que regulamente o desenvolvimento e uso da IA no nível nacional e coordene a avaliação do desenvolvimento de IA é mais viável. A criação de um Escritório Europeu de IA, que possui amplos poderes de fiscalização e implementação, é um exemplo a ser considerado.

Discussões em eventos como o RightsCon 2025 enfatizaram a necessidade de inclusão, ética e responsabilidade na governança e desenvolvimento da IA. Questões sobre o papel da sociedade civil na formulação de políticas de IA, especialmente na Ásia e América Latina, foram abordadas, assim como a integração de perspectivas globais para uma IA responsável.

Para o Nepal se tornar um centro emergente de TI, como vislumbrado pelo governo, é necessário acelerar o ritmo de regulamentação da IA. Um quadro abrangente de IA, fundamentado em fortes pilares de direitos de dados e privacidade, é essencial. Com guardrails éticos, o Nepal pode estabelecer um sistema ágil que assegure a segurança e a conformidade da IA com os direitos humanos.

Estudando práticas globais e adaptando-as ao contexto local, o Nepal pode desenvolver uma estrutura de IA ética e que promova a inovação.

Qualquer uso de ferramentas de IA por agências estatais, incluindo a aplicação da lei, deve ser interrompido até que tal quadro seja estabelecido.

More Insights

Aliança Escocesa de IA Destaca Ética em Inteligência Artificial

A Scottish AI Alliance lançou seu Relatório de Impacto 2024/2025, destacando um ano transformador de progresso na promoção de inteligência artificial confiável, ética e inclusiva na Escócia. O...

Controles de IA de Trump: Oportunidades e Desafios para o Mercado

A administração Trump está se preparando para novas restrições nas exportações de chips de IA para a Malásia e Tailândia, visando impedir que processadores avançados cheguem à China por meio de...

LLMOps: Potencializando IA Responsável com Python

Neste ambiente altamente competitivo, não é suficiente apenas implantar Modelos de Linguagem de Grande Escala (LLMs) — é necessário um robusto framework LLMOps para garantir a confiabilidade e o...

Fortalecendo a Proteção de Dados e a Governança de IA em Cingapura

Cingapura está respondendo proativamente aos desafios evolutivos impostos pelo uso de dados na era da inteligência artificial (IA), afirmou a Ministra de Comunicações e Informação, Josephine Teo. O...

Vigilância por IA e a Lacuna de Governança na Ásia-Pacífico

A tecnologia de vigilância alimentada por IA, especialmente o reconhecimento facial, é um exemplo clássico de tecnologias de uso duplo, promovidas como ferramentas de prevenção ao crime, mas...