Riconoscimento Emotivo: Rischi e Regole nel Luogo di Lavoro

Legge UE sull’IA – Sguardo ai Sistemi di Riconoscimento Emotivo sul Posto di Lavoro

Il riconoscimento emotivo mediante intelligenza artificiale (IA emotiva) si riferisce all’IA che utilizza vari set di dati biometrici e altri dati, come espressioni facciali, battute di tasti, tono di voce e maniere comportamentali per identificare, inferire e analizzare le emozioni. Basata sul calcolo affettivo, con origini negli anni ’90, questo campo multidisciplinare riunisce studi di elaborazione del linguaggio naturale, psicologia e sociologia.

Negli ultimi anni, l’IA emotiva ha beneficiato di livelli senza precedenti di potenza di calcolo. La tecnologia dei sensori sofisticati, onnipresente in dispositivi e IoT, consente di valutare enormi quantità di dati. Si stima che il mercato dell’IA emotiva crescerà da 3 miliardi di USD nel 2024 a 7 miliardi di USD nei prossimi cinque anni.

Applicazioni dell’IA Emotiva

L’IA emotiva viene sempre più impiegata in vari contesti, inclusa la rilevazione di conflitti, crimini o danni in spazi pubblici come stazioni ferroviarie o cantieri. È utilizzata anche nei settori tecnologico e dei beni di consumo, dove dettagliate analisi dei clienti, vendite iper-personalizzate e segmentazione di mercato sfumata sono considerati il sacro graal.

Diverse organizzazioni cercano di offrire ai clienti la chiave per prevedere cosa vogliono realmente, inclusi start-up australiani che stanno testando ‘il primo modello linguistico emotivo al mondo’, mirato a monitorare le emozioni in tempo reale. Altri stanno lanciando chatbot terapeutici utilizzando l’IA emotiva per migliorare la salute mentale delle persone.

Regolamentazione dell’IA Emotiva

Tuttavia, poiché l’IA emotiva è ora una tecnologia fortemente regolamentata, le organizzazioni che sviluppano e utilizzano queste applicazioni devono rimanere conformi alla legge. A partire dal 1 agosto 2024, la Legge UE sull’IA impone requisiti robusti attorno all’IA emotiva, classificandola nelle categorie di “alto rischio” e “uso proibito”, a seconda del contesto.

Le applicazioni di IA emotiva che rientrano nella categoria Proibita sono già effettivamente bandite nell’UE. A partire dal 2 febbraio 2025, l’Articolo 5(1)(f) della Legge UE sull’IA vieta “la messa in commercio, l’immissione in servizio per questo specifico scopo, o l’uso di sistemi di IA per inferire emozioni di una persona naturale nei settori del posto di lavoro e delle istituzioni educative, … eccetto dove l’uso è destinato a motivi medici o di sicurezza”.

Linee Guida della Commissione Europea

La Commissione Europea ha pubblicato il 4 febbraio 2025 le “Linee Guida sulle pratiche di intelligenza artificiale proibite” per fornire maggiori dettagli sui parametri delle varie definizioni. In questo articolo, approfondiamo due applicazioni pratiche dei sistemi di IA emotiva in contesti lavorativi per illustrare l’impatto di queste nuove regole.

Case Study 1: Analisi del Sentiment nelle Chiamate di Vendita

Il primo caso studio coinvolge l’uso dell’analisi del sentiment nelle chiamate di vendita. Consideriamo un team di vendita impegnato in una società tecnologica che cerca di raggiungere il suo obiettivo di fine mese in termini di contatti con nuovi clienti e chiusure di affari. Il Chief Revenue Officer di questa azienda globale, basato negli Stati Uniti, cerca di implementare un nuovo software per consentire una formazione uniforme per il personale a livello globale.

Il software evidenzierà le caratteristiche delle chiamate effettuate dai migliori performer, confrontandole con i risultati dei performer meno riusciti. L’intero team di vendita viene classificato mensilmente, con i migliori venditori celebrati dall’azienda.

L’implementazione di software di registrazione e analisi delle chiamate è considerata preziosa per determinare il segreto del successo in tali chiamate, e in ultima analisi, per i ricavi dell’azienda. Il software monitora metriche come il numero di scambi di dialogo, il rapporto parlato-ascoltato e il tempo ottimale in cui discutere i prezzi, oltre a come il linguaggio positivo o negativo indica la disponibilità all’acquisto.

Case Study 2: Assunzione e Interviste Remote

Il secondo caso studio coinvolge una società di consulenza che desidera ampliare la sua rete di reclutamento per accogliere coloro che desiderano candidarsi a ruoli completamente remoti, tramite un processo di candidatura e onboarding interamente remoto. La società spera di adottare un software che consenta di pianificare colloqui utilizzando una piattaforma con funzionalità innovative basate su IA.

Implementando l’IA, intende mitigare il potenziale bias degli intervistatori umani affinché il processo risulti più obiettivamente equo. Le interviste vengono registrate, vengono forniti trascritti e vengono forniti approfondimenti per numerosi decisori in tutta l’organizzazione. La tecnologia include una funzione che valuta le espressioni facciali dei candidati, il tono della voce e altri segnali non verbali per identificare entusiasmo, fiducia, stress o disinteresse.

Conclusione – Cosa Fare Adesso?

L’introduzione della Legge UE sull’IA implica che la maggior parte delle aziende dovrà aumentare la propria vigilanza riguardo alle pratiche di IA, in particolare per le applicazioni utilizzate in relazione ai dipendenti o ai candidati. Sistemi di governance appropriati, inclusi formazione interna ed educazione, nonché audit rigorosi, saranno fondamentali per le organizzazioni nella conformità alla legge.

Le conseguenze di fornire o utilizzare sistemi di IA proibiti nell’UE attireranno il massimo livello di multe, pari al maggiore tra 35 milioni di EUR o il 7% del fatturato annuo totale dell’organizzazione. Dato che questa multa potrebbe essere combinata con una multa secondo il GDPR, un’organizzazione potrebbe affrontare una multa fino all’11% del fatturato totale.

È quindi essenziale agire ora sulla costruzione della governance dell’IA.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...