La politique de l’IA en Inde manque de protections spécifiques pour les enfants : des experts alertent
La sécurité ne peut pas se limiter à la conception et à la sécurité des produits. Elle doit se poursuivre à travers le suivi, la réponse rapide, les lignes d’assistance pour les enfants et l’indemnisation des survivants, car quelque chose peut toujours mal se passer.
Des recherches sur la sécurité des enfants ont été présentées lors d’un sommet sur l’impact de l’IA, où il a été souligné que l’approche actuelle de la gouvernance de l’IA en Inde ne prend pas en compte comment les enfants sont réellement victimes.
Pourquoi les experts demandent une gouvernance spécifique à l’IA pour les enfants
- Échelle des dommages : Plus de 300 millions d’enfants dans le monde ont été victimes d’abus facilités par la technologie.
- Augmentation des abus facilités par l’IA : Une hausse de 1 325 % des matériaux d’abus sexuels générés par l’IA a été observée au cours de la dernière année.
- Nature évolutive de l’exploitation : L’IA est utilisée pour créer des matériaux d’abus sexuels réels et synthétiques, ainsi que pour permettre de nouvelles formes d’exploitation.
- Perception des enfants sur l’IA : Les jeunes en Inde perçoivent l’IA comme puissante et bénéfique, mais pas sûre par défaut.
- Écart de sécurité genré : Les jeunes femmes décrivent souvent les espaces en ligne comme dangereux et stressants.
- Responsabilité perçue : Près de la moitié des jeunes interrogés estiment que la responsabilité principale de la sécurité en ligne incombe aux entreprises technologiques.
Recommandations proposées
Un groupe d’experts a été constitué pour examiner les risques liés aux systèmes d’IA et recommander des mesures de gouvernance. Il a été suggéré de passer de la « sécurité des enfants » au « bien-être des enfants », car la sécurité seule est considérée comme trop restrictive.
- Un observatoire des solutions de sécurité des enfants pour agréger les innovations et les meilleures pratiques sur la sécurité et le bien-être des enfants.
- Un groupe de travail sur le bien-être des enfants pour façonner des récits politiques adaptés au contexte indien.
- Un espace d’innovation pour la sécurité des enfants pour tester des interventions et des protections contre les dommages facilités par l’IA.
- Un conseil consultatif sur la sécurité des jeunes pour assurer la participation significative des enfants dans la conception des politiques.
- Renforcement du cadre légal pour aborder explicitement les matériaux d’abus sexuels d’enfants générés par l’IA.
- Investissements accrus dans la résilience numérique et l’alphabétisation en IA pour les enfants.
Conception de la plateforme et responsabilité légale
Des représentants de plateformes ont souligné l’importance des mesures de sécurité au niveau de la conception, tout en reconnaissant leurs limites. La conception des produits a un impact significatif sur l’expérience de l’utilisateur, mais les risques évoluent souvent plus rapidement que les protections.
Que se passe-t-il lorsque des dommages surviennent ?
Il est crucial de ne pas traiter la sécurité des enfants comme un simple problème de conformité transactionnelle. Les dommages en ligne peuvent avoir des répercussions dans la vie réelle, ce qui complique leur traitement par les régulations actuelles.
Les cadres de sécurité des enfants doivent aussi tenir compte des dommages causés par les enfants eux-mêmes, car de nombreux incidents sont souvent minimisés.
En conclusion, la discussion a mis en lumière une tension fondamentale dans la gouvernance de l’IA en Inde : sans obligations spécifiques pour les enfants et évaluations d’impact, les dommages continueront d’être abordés uniquement après leur survenue.