AI Sta Prendendo il Controllo dei Luoghi di Lavoro—Ecco i Rischi Che Molte Aziende Ignorano
Nel 2024, il fornitore di software contabile ha sospeso il suo assistente AI generativo dopo che gli utenti hanno segnalato fughe di dati finanziari sensibili tra i conti. Sebbene fosse progettato per semplificare le operazioni delle piccole imprese, lo strumento ha messo in evidenza quanto fragile possa diventare la conformità quando manca la supervisione.
Tutti corrono ad adottare l’AI, ma le organizzazioni dovrebbero prima chiedersi come gestirla in modo sicuro.
Cosa succede quando l’AI diventa il tuo prossimo assunto?
Il rapporto sul Futuro del Lavoro di Microsoft evidenzia un cambiamento cruciale: gli agenti AI non sono più solo strumenti, ma colleghi digitali. Il rapporto prevede che gli agenti AI saranno presto “gestiti” come dipendenti, svolgendo compiti in modo autonomo ma richiedendo comunque supervisione umana.
Questo cambia tutto. Se un agente AI commette un errore, chi ne è responsabile? La responsabilità ricade prima sull’organizzazione per stabilire principi di conformità e governance, piuttosto che su un quadro normativo.
Governance per Congettura
L’AI può iniziare come utile, ma può rapidamente diventare una responsabilità se non si presta attenzione. È fondamentale che un essere umano gestisca la formazione e l’implementazione dell’AI. La formazione dei modelli comporta una certa responsabilità.
La dinamica di leader che gestiscono software decisionali significa che la supervisione inizia molto prima del lancio. Gli stakeholder devono essere coinvolti fin dall’inizio per stabilire obiettivi e risultati anticipati.
Secondo un sondaggio del 2023, solo il 6% delle organizzazioni riporta di avere un team dedicato alla valutazione dei rischi e all’implementazione di strategie di mitigazione dei rischi.
Quando l’AI va Sbagliata in Pubblico
Alcune aziende stanno imparando queste lezioni nel modo difficile. Un’azienda fintech ha fatto notizia globale nel 2024 quando ha sostituito 700 operatori di servizio clienti con un assistente AI. Questo sembrava un modo intelligente per aumentare la produttività, ma i clienti si sono rapidamente frustrati.
La misutilizzazione dell’AI, sia intenzionale che negligente, può superare le linee legali.
La Crescita dell’AI Ombra
Il rapporto di Microsoft evidenzia una tendenza che rende la supervisione ancora più difficile: quasi l’80% degli utenti di AI porta i propri strumenti sul posto di lavoro. Questo fenomeno, noto come “Bring Your Own AI”, significa che l’adozione dell’AI non avviene sempre a livello organizzativo.
Leadership Ridefinita
Con l’AI che rimodella il modo in cui lavoriamo, molti leader devono imparare a gestire tecnologie che non comprendono completamente. Decidere quale lavoro può essere svolto meglio da un agente rispetto a una persona è una delle competenze più importanti da apprendere.
Le aziende devono anche considerare come l’automazione influenzerà lo sviluppo della forza lavoro futura.
La Responsabilità Non È Facoltativa
In definitiva, indipendentemente da quanto siano avanzati gli strumenti, i sistemi AI necessitano ancora di supervisione umana. Non si può aggiungere responsabilità in un secondo momento; deve far parte del sistema fin dall’inizio.
Le aziende che non pianificano ora la conformità potrebbero trovarsi a dover spiegare gli errori a regolatori, clienti, investitori e dipendenti, ma a quel punto potrebbe essere troppo tardi.