Sezione 230 e Piattaforme Guidate da AI
Il chatbot AI Grok, progettato da xAI, è attualmente sotto scrutinio globale dopo aver generato immagini sessualmente esplicite di utenti non consenzienti. Gli sforzi per ritenere la piattaforma responsabile si basano sull’interpretazione della Sezione 230 del Communications Decency Act.
La Sezione 230 generalmente protegge le piattaforme dalla responsabilità civile per contenuti di terzi. Ad esempio, secondo la Sezione 230, una piattaforma come Meta non sarebbe generalmente ritenuta responsabile per discorsi illegali che incitano alla violenza pubblicati da un utente.
Ambiguità della Sezione 230 con l’Intelligenza Artificiale
Tuttavia, l’intelligenza artificiale non si inserisce facilmente in questa dicotomia tra utente e host. L’AI interrompe l’applicazione tradizionale della Sezione 230 in due modi principali: come generatore di contenuti e come curatore di contenuti.
Primo, sebbene un utente possa richiedere un output specifico e nuovo, il contenuto generato dall’AI non può essere attribuito esclusivamente a quell’utente. Allo stesso modo, il chatbot generativo non può essere considerato l’unico “parlante”, poiché i dati di addestramento non provengono dalla piattaforma e gli output generati dipendono dagli input degli utenti. Questa ambiguità sull’identità del “parlante” mina le basi della responsabilità basata sull’identità della Sezione 230.
Anche quando gli utenti creano contenuti, gli algoritmi AI spesso determinano la portata e l’impatto di quel contenuto sulla piattaforma di social media host. Ad esempio, il feed “Per Te” di TikTok o il sistema di raccomandazione di YouTube possono amplificare rapidamente determinati post a enormi audience in base all’engagement previsto con il contenuto.
L’assunzione sottostante alla Sezione 230—che le piattaforme agiscano come condotti neutri di informazione—diventa discutibile quando le piattaforme progettano e implementano attivamente algoritmi di raccomandazione che promuovono o sopprimono il discorso.
Regolamentazione e Responsabilità
Alcune piattaforme ora utilizzano bot AI come moderatori della piattaforma. I moderatori AI, come Grok, sia controllano che contribuiscono al contenuto della piattaforma come progettato dai loro sviluppatori.
Sebbene le piattaforme non abbiano l’obbligo di monitorare i contenuti ai sensi della Sezione 230, una legge federale degli Stati Uniti recentemente firmata impone responsabilità per il mancato ritiro di immagini intime dopo una notifica esplicita da parte della Federal Trade Commission.
Recenti discussioni accademiche si concentrano sull’applicazione della Sezione 230 a piattaforme che impiegano intelligenza artificiale generativa o algoritmi di raccomandazione.
Opinioni Accademiche
Vari esperti avvertono che il contenzioso sull’AI generativa costringerà i tribunali a riesaminare le immunità offerte dalla Sezione 230 alle piattaforme di contenuto internet. Si prevede che i tribunali non estenderanno le immunità della Sezione 230 all’AI generativa dove contribuisce materialmente allo sviluppo del contenuto.
Altri studiosi sostengono un approccio “valori-primo”, in cui la comunità legale dovrebbe definire i valori sociali che i regolatori e i progettisti di AI cercano di promuovere prima di regolare gli output dell’AI generativa.
Alcuni esperti mettono in discussione l’ambiguità della Sezione 230, suggerendo che le interpretazioni giudiziarie che restringono le immunità potrebbero indurre il Congresso a chiarire la propria intenzione, migliorando la responsabilità e la legittimità.
Conclusione
La discussione sulla Sezione 230 e le piattaforme AI è complessa e in continua evoluzione. Mentre le tecnologie avanzano, è fondamentale che le normative si adattino per garantire che le piattaforme siano responsabili e che gli utenti siano protetti.