Come l’AI agentica potrebbe distruggere i social media: la necessità di una governance proattiva
Ho già visto questo scenario. Nel 2000, ho creato un chatbot che poteva comunicare con altri bot attraverso le reti. Lo chiamavamo “botnet”, quando numerosi bot eseguivano azioni coordinate su una o più reti. Immaginate un messaggio in una chatroom che innesca una risposta in un’altra chatroom o persino su un server diverso, molto prima che esistessero le API o strumenti di automazione come Hootsuite, Zapier o N8N. Si impostava una regola riguardo a un comando, un evento che attivava una risposta automatica se un certo tipo di messaggio arrivava, e il sistema agiva.
Venticinque anni dopo, l’AI agentica si basa sullo stesso presupposto, solo su scala cloud. I sistemi ora monitorano eventi, formulano giudizi e prendono decisioni con poca supervisione umana. Se non governano correttamente questo strato, rischiamo di trasformare Internet pubblico in un circuito chiuso di macchine che comunicano tra loro.
Da testo ad azione
Dove l’AI generativa scrive, l’AI agentica esegue. Può redigere, pubblicare, rispondere, acquistare, pianificare e ottimizzare senza attendere approvazione. Un’indagine di McKinsey del 2025 ha rilevato che metà delle imprese sta già testando flussi di lavoro autonomi. Ma la governance sta rimanendo indietro rispetto all’adozione. Uno studio globale di KPMG sulla fiducia nell’AI ha scoperto che quasi tre quarti delle persone non sono sicuri di quale contenuto online sia genuino. L’illusione di engagement è una minaccia per la comunicazione reale.
Ci stiamo muovendo verso una situazione assurda che poche organizzazioni sembrano considerare. Un agente AI può generare un post sui social media. Altri agenti AI possono amplificarlo. Ulteriori agenti possono commentare, reagire e ottimizzare. Una chiamata all’azione viene cliccata, un incontro viene prenotato, e la persona che partecipa a quella chiamata viene accolta da un agente di vendita AI. All’esterno, tutto sembra positivo. L’engagement è aumentato. L’attività è aumentata. La produttività sembra più alta. Sembra che venga creato valore. Ma se rallentiamo, questi sistemi stanno principalmente solo parlando tra loro.
Il nuovo divario di fiducia
I social media erano già saturi di rumori prodotti dalle persone. L’AI agentica amplifica questo su scala cloud, con una velocità senza precedenti. I marchi e gli influencer stanno automatizzando reazioni e commenti per favorire gli algoritmi. Quei guadagni si erodono man mano che la fiducia diminuisce. Quando gli utenti non riescono a capire se un account, un articolo o un commento provengano da una persona, aumenta il loro scetticismo esistente e ispira nuovo scetticismo in coloro che di solito sono ricettivi alla comunicazione.
Problemi persistenti di affidabilità nell’AI generativa continuano a minare la fiducia. PwC evidenzia un divario di fiducia in espansione poiché le organizzazioni adottano l’AI più velocemente di quanto possano governarla con la trasparenza, la responsabilità e il controllo appropriati.
La governance come codice, non solo politica
I leader non possono risolvere questo problema con dichiarazioni audaci, né una politica sulla privacy o sulla sicurezza delle informazioni può affrontare i pericoli dell’AI non governata. La governance deve vivere all’interno dell’architettura amministrativa, operativa e tecnica delle soluzioni che utilizzano l’AI. Le organizzazioni che hanno successo sono quelle che scrivono l’intento nel sistema stesso. Ciò significa controlli auditabili, prompt versionati, approvazione umana prima che vengano eseguite azioni esterne e registri di attività che possano resistere in tribunale.
Il regolamento dell’AI dell’UE, che sta aumentando gradualmente la sua forza, richiederà esplicitamente documentazione e tracciabilità per i sistemi AI ad alto rischio. Gli Stati Uniti avevano un ordine esecutivo del 2024 sull’AI responsabile, ma la nuova amministrazione lo ha revocato. Il modello regolatorio del Regno Unito e la nuova legge sulla protezione dei dati stanno spingendo verso più innovazione, proteggendo comunque i soggetti dei dati come enfatizzato dal GDPR.
La responsabilità del consiglio
Mentre molti imprenditori vedono come l’AI agentica possa aiutare con marketing, vendite o IT, è molto una questione da affrontare a livello di consiglio, come la sicurezza informatica o la conformità. I consigli ben governati definiscono cosa è permesso, stabiliscono protocolli di escalation e richiedono prove di controllo. I professionisti dei consigli consultivi con competenze in AI possono aggiungere valore identificando i rischi specifici legati all’AI.
Disciplina di sicurezza e consegna
L’AI agentica introduce ogni rischio che i professionisti della sicurezza a livello esecutivo sono addestrati a gestire, ma richiede anche disciplina operativa a livello esecutivo. I progetti necessitano di proprietà definita, controllo delle modifiche e chiusura. Ogni agente dovrebbe avere un file di costruzione, un registro di test e un piano di rollback. I registri dovrebbero essere immutabili. Le autorizzazioni dovrebbero scadere.
Cosa viene dopo
La regolamentazione sta recuperando terreno, sebbene in modo disomogeneo. L’applicazione dell’UE è già iniziata nel 2025, con ulteriori applicazioni previste per il 2026. L’Office of Management and Budget degli Stati Uniti richiede ora agli enti federali di riportare tutti i casi d’uso dell’AI. Il segnale complessivo è chiaro: i giorni di “implementa ora, governa dopo” stanno per finire.
Le aziende che si adattano precocemente saranno quelle che trattano l’AI agentica come una disciplina operativa. Ciò significa applicare rigorosità nella gestione dei progetti, architettura di sicurezza e revisione legale prima del lancio. Significa documentare ogni azione automatizzata che tocca il pubblico. E significa comprendere che l’automazione non è una soluzione rapida, richiede attenzione e conformità.
L’AI dovrebbe rendere le persone più veloci, non invisibili. L’obiettivo non è eliminare il giudizio umano; è amplificarlo. I sistemi agentici sono inevitabili. La domanda è se serviranno l’intento umano o lo sommergeranno. La governance che vive nel codice, nei contratti e nella cultura determina se i sistemi agentici estendono le capacità umane o le sostituiscono.