La Politica dell’IA in India Manca di Salvaguardie Specifiche per i Bambini: Esperti
La sicurezza non può fermarsi solo alla progettazione del prodotto e alla sicurezza by design. Deve continuare attraverso il monitoraggio, la risposta rapida, le linee telefoniche per i bambini e il risarcimento per i sopravvissuti, perché qualcosa andrà storto, “avvertono gli esperti, sottolineando che l’attuale approccio indiano alla governance dell’IA non affronta come i bambini vengono danneggiati nella pratica.
Durante un incontro che esaminava come il quadro politico emergente dell’IA in India risponde ai rischi affrontati dai bambini che utilizzano sistemi IA generativi e ad alta interazione, è emerso che, sebbene l’India abbia regolamenti digitali orizzontali, manca di un quadro legale specifico per governare i danni mediati dall’IA.
Perché gli esperti dicono che è necessaria una governance dell’IA specifica per i bambini
Gli esperti hanno presentato diverse ragioni per cui si propone una governance dell’IA specifica per i bambini:
- Scala del danno: Nel 2024, oltre 300 milioni di bambini nel mondo sono stati vittime di qualche forma di abuso o sfruttamento facilitato dalla tecnologia.
- Aumento dell’abuso abilitato dall’IA: Si è registrato un aumento del 1.325% dei materiali di abuso sessuale generati dall’IA nell’ultimo anno.
- Natura in evoluzione dello sfruttamento: L’IA viene utilizzata per creare materiale di abuso sessuale infantile reale e sintetico, inclusi nudificazione e deepfake.
- I bambini vedono l’IA come utile, ma non sicura: Un sondaggio ha rivelato che i bambini riconoscono sia i benefici che i rischi dell’IA.
- Divario di sicurezza di genere: Le giovani donne sono più propense a descrivere gli spazi online come insicuri e stressanti.
- Dove risiede la responsabilità: Il 48% dei giovani intervistati attribuisce la responsabilità principale della sicurezza online alle aziende tecnologiche.
Cosa viene raccomandato
Si suggerisce di passare da “sicurezza dei bambini” a “benessere dei bambini”. Un gruppo di esperti è stato costituito per esaminare i rischi per i bambini dai sistemi IA e raccomandare misure di governance.
Misure istituzionali e politiche proposte
Le misure proposte includono:
- Osservatorio sulle Soluzioni per la Sicurezza dei Bambini per aggregare innovazioni e migliori pratiche.
- Gruppo di Lavoro del Sud Globale per plasmare narrazioni politiche radicate nel contesto.
- Sandbox di innovazione per la sicurezza dei bambini per testare interventi e salvaguardie.
- Consiglio Consultivo per la Sicurezza dei Giovani per garantire la partecipazione significativa dei bambini nella progettazione delle politiche.
- Rafforzare il quadro legale per affrontare esplicitamente il materiale di abuso sessuale infantile generato dall’IA.
- Investire nella resilienza digitale e nell’alfabetizzazione dell’IA per bambini, genitori e educatori.
Cosa succede quando si verifica un danno?
La sicurezza dei bambini non può essere trattata come un problema di conformità transazionale. I danni facilitati dall’IA spesso si riversano nella vita offline e persistono oltre la piattaforma in cui originano.
Le strutture di sicurezza per i bambini devono anche considerare i danni causati dai bambini stessi. È importante mantenere i bambini al sicuro, ma anche proteggere gli altri da comportamenti dannosi da parte loro.
In conclusione, la discussione ha rivelato una tensione centrale nella governance dell’IA in India: le piattaforme continuano a migliorare le salvaguardie di design mentre le vittime si affidano a rimedi ad hoc. Senza obblighi specifici per i bambini, i danni continueranno ad essere affrontati solo dopo che si sono verificati.