Integrare l’IA nei quadri di sostenibilità: un imperativo attuale
Con le istituzioni finanziarie e i fornitori di rating ESG e sostenibilità che si confrontano con crescenti requisiti normativi e di dati, l’intelligenza artificiale (IA) emerge come un potente abilitante ma anche come un potenziale rischio.
Dalla capacità di aumentare l’efficienza nella reportistica di sostenibilità all’emergere di nuovi dilemmi etici e preoccupazioni di governance, l’IA sta rimodellando il modo in cui vengono implementati, monitorati e governati gli ESG e la sostenibilità.
Per gli investitori sostenibili e le società di investimento, l’IA deve diventare un’area di reale interesse e intrigo nei prossimi anni.
Efficienza: Scalare l’ESG senza compromettere gli standard
L’IA sta diventando sempre più strumentale nell’aiutare le aziende finanziarie a soddisfare la complessità della reportistica ESG e di sostenibilità. Con regolamenti come la Direttiva sulla Reportistica di Sostenibilità Aziendale (CSRD) dell’Unione Europea, che si applicherà a quasi 50.000 aziende entro il 2026, le aziende devono raccogliere, convalidare e divulgare dati molto più dettagliati, spesso attraverso migliaia di fornitori.
Gli strumenti basati sull’IA possono automatizzare il lavoro pesante, facilitando la conformità in modo più rapido ed economico con i regimi di divulgazione in evoluzione. L’IA sta già migliorando la raccolta di dati ESG e di sostenibilità, consentendo una scalabilità senza sacrificare la qualità. L’automazione supporta l’estrazione, la classificazione e la convalida tempestive delle informazioni attraverso classi di attività e geografie, aiutando i clienti a mantenere il passo con un perimetro normativo in espansione.
Tuttavia, questi guadagni comportano un costo ambientale. L’addestramento di modelli IA di grandi dimensioni e il funzionamento dei centri dati consumano enormi quantità di energia e acqua, contribuendo alle emissioni e allo stress sulle risorse.
Di conseguenza, i regolatori stanno prestando attenzione. La Commissione Europea, ad esempio, sta considerando requisiti specifici per le aziende per riportare l’impronta ambientale del loro utilizzo dell’IA.
Etica: Allineare l’intelligenza all’impatto
L’IA apre nuove possibilità per gli investimenti etici e ad impatto. Gli algoritmi avanzati possono monitorare continuamente i portafogli per allinearsi con le preferenze ESG, adattarsi a nuove controversie e regolare dinamicamente le esposizioni, portando maggiore personalizzazione e reattività alle strategie di investimento sostenibile.
Tuttavia, l’IA introduce anche rischi etici. Senza una governance solida, i modelli possono consolidare pregiudizi sistemici, perpetuare l’esclusione o generare risultati opachi che minano la fiducia.
La legge sull’Intelligenza Artificiale dell’UE, adottata nel 2024, classifica ora molte applicazioni finanziarie dell’IA—come la valutazione del credito o la costruzione automatizzata di portafogli—come “ad alto rischio”, richiedendo rigide trasparenze, governance dei dati e supervisione umana.
Nel frattempo, l’Autorità di Condotta Finanziaria del Regno Unito (FCA) ha identificato il pregiudizio algoritmico come un rischio diretto per la protezione dei consumatori e l’integrità del mercato.
Governance: Costruire fiducia nella finanza guidata dall’IA
La governance è al centro dell’approccio europeo alla regolamentazione dell’IA. La legge sull’IA dell’UE richiede che gli strumenti dei servizi finanziari che utilizzano l’IA soddisfino standard rigorosi riguardo alla qualità dei dati, alla spiegabilità e alla gestione dei rischi. Ciò include gli strumenti focalizzati sugli ESG—come le piattaforme di rating e analisi guidate dall’IA—che necessitano di una chiara documentazione su come l’IA viene applicata, verificata e supervisionata.
Dal 2026, i fornitori di rating ESG e di sostenibilità nell’UE saranno anche soggetti al Regolamento sulla Trasparenza e l’Integrità delle Attività di Rating ESG (UE 2024/3005). Questo regolamento introduce la divulgazione obbligatoria delle metodologie basate sull’IA, la tracciabilità delle fonti dei dati e requisiti per la mitigazione dei conflitti di interesse, rafforzando ulteriormente il legame tra integrità tecnologica e credibilità della sostenibilità.
I regolatori del Regno Unito sono allineati in linea di principio. La FCA ora si aspetta che le aziende implementino la responsabilità a livello di consiglio per i sistemi di IA, con una chiara comprensione degli output e dei rischi dei modelli. Le aziende che non possono spiegare o monitorare il funzionamento dei loro strumenti di IA potrebbero non soddisfare le aspettative normative e affrontare sanzioni.
Conclusione: Una doppia trasformazione
L’intersezione tra IA e ESG sta guidando una doppia trasformazione—espandendo ciò che è possibile nella finanza sostenibile mentre richiede simultaneamente maggiore attenzione su come viene impiegata la tecnologia. Per le istituzioni finanziarie, il messaggio è chiaro: la governance degli ESG e la governance dell’IA non possono più essere trattate in isolamento.
Per avere successo, le aziende devono integrare l’IA nei quadri di sostenibilità—non solo per migliorare la reportistica ESG e i risultati di sostenibilità, ma anche per garantire che i mezzi utilizzati per raggiungere questi obiettivi siano responsabili quanto i fini.