A Política de IA da Índia Falta Salvaguardas Específicas para Crianças: Especialistas
Recentemente, especialistas alertaram que a abordagem atual de governança de IA na Índia não aborda adequadamente como as crianças são prejudicadas na prática. A pesquisa apresentada por uma organização focada na segurança infantil destacou que a segurança não deve se limitar ao design de produtos, mas deve incluir monitoramento, resposta rápida e linhas de apoio para crianças.
Por que é necessária uma governança de IA específica para crianças
Os especialistas apresentaram várias razões interligadas que justificam a necessidade de uma governança de IA voltada para crianças:
- Escala do dano: Em 2024, foi calculado que mais de 300 milhões de crianças em todo o mundo foram vítimas de algum tipo de abuso ou exploração facilitados pela tecnologia.
- Aumento acentuado no abuso habilitado por IA: Nos últimos anos, houve um aumento de 1.325% na produção de material de abuso sexual gerado por IA.
- Natureza em evolução da exploração: A inteligência artificial está sendo usada para criar tanto material real quanto sintético de abuso sexual infantil.
- Percepção das crianças sobre a IA: Embora as crianças reconheçam os benefícios da IA, apenas uma em cada quatro afirma que se sente segura ao usá-la.
- Desigualdade de segurança de gênero: As jovens são mais propensas a descrever os espaços online como inseguros e estressantes.
- Responsabilidade percebida: Quase metade dos entrevistados acredita que a responsabilidade pela segurança online recai principalmente sobre as empresas de tecnologia.
Recomendações propostas
Uma mudança na terminologia de “segurança infantil” para “bem-estar infantil” foi sugerida como uma abordagem mais abrangente que reflete tanto os riscos quanto os benefícios da IA. As medidas propostas incluem:
- Observatório de Soluções de Segurança Infantil: Um centro para agregar inovações e melhores práticas em segurança infantil habilitada por IA.
- Grupo de Trabalho Global do Sul sobre bem-estar infantil: Para moldar narrativas e soluções de políticas adaptadas a contextos como o da Índia.
- Sandbox de inovação em segurança infantil: Para testar intervenções e salvaguardas contra danos digitais.
- Conselho Consultivo de Segurança Juvenil: Para garantir a participação significativa das crianças no design e na governança de políticas.
- Fortalecimento do arcabouço legal: Para abordar explicitamente o material de abuso sexual infantil gerado por IA.
- Avaliações de impacto de direitos infantis e segurança: Para sistemas de IA de alta interação utilizados por crianças.
- Investimento em resiliência digital e alfabetização em IA: Para crianças, pais e educadores como infraestrutura preventiva.
Desafios e Implicações
Os representantes de plataformas destacaram salvaguardas em nível de design, mas reconheceram suas limitações. Existem preocupações sobre como as estruturas de segurança atuais lidam com danos comportamentais e relacionais, que são complexos e muitas vezes se manifestam fora das plataformas digitais.
Os especialistas enfatizaram que a segurança infantil não pode ser vista como um problema de conformidade transacional. As estruturas de governança devem abordar não apenas a proteção das crianças, mas também a responsabilidade por comportamentos prejudiciais que podem emergir entre elas.
Conclusão
A discussão revelou uma tensão central na governança de IA na Índia: enquanto as plataformas continuam a aprimorar salvaguardas de design, as vítimas dependem de remédios ad hoc, enquanto a regulamentação permanece em grande parte reativa. Sem obrigações específicas para crianças e avaliações de impacto, os danos continuarão a ser tratados apenas após ocorrerem.