La Política de IA de India Carece de Salvaguardas Específicas para Niños: Expertos
“La seguridad no puede detenerse solo en el diseño del producto y la seguridad por diseño. Debe continuar a través de la monitorización, la respuesta rápida, las líneas de ayuda para niños y la compensación para los supervivientes, porque algo saldrá mal”, advirtieron expertos sobre la actual gobernanza de la IA en India, señalando que no aborda cómo los niños son perjudicados en la práctica.
Durante una cumbre sobre el impacto de la IA, se discutió cómo el marco de políticas emergente de India responde a los riesgos que enfrentan los niños al usar sistemas de IA generativa y de alta interacción. A pesar de contar con regulaciones digitales horizontales, India aún carece de un marco legal específico para gobernar los daños mediados por IA que afectan a los niños.
La Necesidad de una Gobernanza de IA Específica para Niños
Los expertos presentaron múltiples razones por las cuales se propone una gobernanza de IA específica para niños:
- Escala de daño: Más de 300 millones de niños en todo el mundo fueron víctimas de algún tipo de abuso o explotación facilitada por la tecnología en 2024.
- Aumento del abuso habilitado por IA: Se ha visto un incremento del 1,325% en el material de abuso sexual generado por IA en el último año.
- Naturaleza evolutiva de la explotación: La IA se está utilizando cada vez más para crear material de abuso sexual infantil, tanto real como sintético.
- Percepción de los niños sobre la IA: Los niños ven la IA como útil pero no segura por defecto.
- Brecha de seguridad de género: Las jóvenes son más propensas a describir los espacios en línea como inseguros y estresantes.
- Responsabilidad: Casi la mitad de los encuestados consideran que la responsabilidad principal de la seguridad en línea recae en las empresas tecnológicas.
Recomendaciones para un Enfoque de Bienestar Infantil
Se propuso un cambio de “seguridad infantil” a “bienestar infantil”, argumentando que la seguridad es un concepto limitado. Se deben considerar tanto los riesgos como los beneficios que la IA puede crear para los niños.
Las recomendaciones incluyen:
- Establecimiento de un Observatorio de Soluciones de Seguridad Infantil para agregar innovaciones y mejores prácticas sobre la seguridad y el bienestar infantil habilitado por IA.
- Grupo de Trabajo del Sur Global sobre el Bienestar Infantil para dar forma a narrativas y soluciones políticas en contextos como India.
- Sandbox de Innovación en Seguridad Infantil para probar intervenciones y salvaguardas contra daños digitales y habilitados por IA.
- Consejo Asesor de Seguridad Juvenil para asegurar la participación significativa de los niños en el diseño de políticas y gobernanza.
- Fortalecimiento del marco legal para abordar explícitamente el material de abuso sexual infantil generado por IA.
- Evaluaciones de impacto sobre derechos y seguridad infantil para sistemas de IA de alta interacción utilizados por niños.
- Mayor inversión en resiliencia digital y alfabetización en IA para niños, padres y educadores como infraestructura preventiva.
Desafíos de la Seguridad Infantil y la Responsabilidad Legal
Los representantes de plataformas destacaron las salvaguardas a nivel de diseño, pero reconocieron sus limitaciones. Se enfatizó que los daños a los niños no son un problema transaccional, sino que implican daños conductuales y relacionales en el mundo real, lo que complica su abordaje con modelos de cumplimiento existentes.
En conclusión, la discusión revela una tensión central en la gobernanza de la IA en India: las plataformas continúan iterando sobre salvaguardas de diseño mientras las víctimas dependen de remedios ad hoc, y sin obligaciones específicas para los niños, los daños continuarán abordándose solo después de que ocurran.