Índia Propõe um Quadro de Governança Tecno-Jurídica para IA
O Escritório do Principal Conselheiro Científico da Índia lançou um documento que delineia como o país pretende governar a inteligência artificial (IA) por meio de um quadro denominado “tecno-jurídico”. Em vez de propor uma lei de IA isolada, o documento argumenta que a governança deve operar dentro dos próprios sistemas de IA, por meio de controles técnicos aplicados ao longo do ciclo de vida do sistema e ancorados em instrumentos legais e regulatórios existentes.
Modelo “Law-Plus”
O documento avança um modelo “law-plus”. Sob essa abordagem, regras setoriais específicas, legislação subordinada, orientações regulatórias, padrões e mecanismos de aplicação técnica preenchem lacunas na governança de IA, complementando as leis existentes. Esse modelo distingue a Índia de jurisdições que buscam atos abrangentes de IA, recontextualizando a governança de IA como uma responsabilidade que começa na fase de design e implantação, em vez de ser um exercício de conformidade posterior.
Justificativa do Quadro
No prefácio, o Conselheiro Científico Principal observa que, embora a IA ofereça um potencial transformador significativo, riscos e danos não geridos podem minar a confiança e desacelerar a adoção. Nesse contexto, a abordagem da Índia se insere em um ambiente global onde os governos continuam a experimentar com regulamentação baseada em riscos, estruturas orientadas por princípios e modelos de governança baseados em padrões.
Governança Tecno-Jurídica
O núcleo do documento reside na mudança de como a governança é concebida. O quadro tecno-jurídico é definido como a integração de instrumentos legais, condicionamento baseado em regras, supervisão regulatória e mecanismos de aplicação técnica diretamente nos sistemas de IA por design. Assim, a governança não funciona como uma restrição externa imposta após a implantação, mas como uma característica intrínseca dos sistemas de IA, capaz de responder a riscos em evolução.
Ciclo de Vida da Governança
O documento começa com a premissa de que os riscos da IA não emergem em um único ponto, mas se acumulam ao longo do ciclo de vida de um sistema de IA. Para abordar esses desafios, o quadro distingue entre “usuários de IA” e “sujeitos de IA”. Essa distinção é considerada especialmente importante no contexto indiano e justifica salvaguardas ao longo de todo o ciclo de vida.
Estágios do Ciclo de Vida da IA
A governança é organizada em torno de cinco estágios do ciclo de vida da IA:
- Coleta de Dados
Identificam-se riscos relacionados à privacidade, segurança, propriedade intelectual e justiça. O documento propõe estruturas de governança de dados, avaliações de impacto e validação de fontes.
- Proteção de Dados em Uso
Esta fase é considerada sensível, com riscos como acesso não autorizado e violações de propriedade intelectual. O quadro sugere tecnologias que preservam a privacidade e controles de rastreamento de dados.
- Treinamento e Avaliação de Modelos
Os riscos nesta fase incluem privacidade e segurança. O documento propõe uma tomada de decisão consciente dos impactos e controles como avaliação de riscos de modelos.
- Inferência Segura
A fase de inferência é exposta a riscos como divulgação não intencional de informações sensíveis. O quadro sugere monitoramento em tempo real e classificação de riscos.
- Sistemas de IA Confiáveis e Autônomos
À medida que os sistemas de IA ganham autonomia, aumentam os riscos de governança. O documento propõe controles como monitoramento contínuo e registro de comportamento.
Estrutura Institucional
Para operacionalizar o quadro, o documento propõe uma arquitetura institucional de múltiplas camadas, incluindo um Grupo de Governança de IA que coordenará entre ministérios e reguladores.
Infraestrutura Digital Pública
Uma característica definidora do quadro é sua dependência da Infraestrutura Digital Pública da Índia, que facilita o acesso baseado em consentimento e a verificabilidade de identidade.
Limitações do Quadro
O documento não esclarece limites de aplicação quando falhas de IA cruzam reguladores. Também não especifica como os sujeitos de IA podem contestar danos, deixando questões sobre a viabilidade da implementação de monitoramento contínuo e auditorias.
Conclusão
O quadro tecno-jurídico não resolve todos os conflitos, mas posiciona a governança como uma abordagem incremental que incorpora salvaguardas nos sistemas, enquanto preserva a flexibilidade regulatória à medida que a adoção da IA se expande.