Riconoscimento Emotivo: Rischi e Regole nel Luogo di Lavoro

Legge UE sull’IA – Sguardo ai Sistemi di Riconoscimento Emotivo sul Posto di Lavoro

Il riconoscimento emotivo mediante intelligenza artificiale (IA emotiva) si riferisce all’IA che utilizza vari set di dati biometrici e altri dati, come espressioni facciali, battute di tasti, tono di voce e maniere comportamentali per identificare, inferire e analizzare le emozioni. Basata sul calcolo affettivo, con origini negli anni ’90, questo campo multidisciplinare riunisce studi di elaborazione del linguaggio naturale, psicologia e sociologia.

Negli ultimi anni, l’IA emotiva ha beneficiato di livelli senza precedenti di potenza di calcolo. La tecnologia dei sensori sofisticati, onnipresente in dispositivi e IoT, consente di valutare enormi quantità di dati. Si stima che il mercato dell’IA emotiva crescerà da 3 miliardi di USD nel 2024 a 7 miliardi di USD nei prossimi cinque anni.

Applicazioni dell’IA Emotiva

L’IA emotiva viene sempre più impiegata in vari contesti, inclusa la rilevazione di conflitti, crimini o danni in spazi pubblici come stazioni ferroviarie o cantieri. È utilizzata anche nei settori tecnologico e dei beni di consumo, dove dettagliate analisi dei clienti, vendite iper-personalizzate e segmentazione di mercato sfumata sono considerati il sacro graal.

Diverse organizzazioni cercano di offrire ai clienti la chiave per prevedere cosa vogliono realmente, inclusi start-up australiani che stanno testando ‘il primo modello linguistico emotivo al mondo’, mirato a monitorare le emozioni in tempo reale. Altri stanno lanciando chatbot terapeutici utilizzando l’IA emotiva per migliorare la salute mentale delle persone.

Regolamentazione dell’IA Emotiva

Tuttavia, poiché l’IA emotiva è ora una tecnologia fortemente regolamentata, le organizzazioni che sviluppano e utilizzano queste applicazioni devono rimanere conformi alla legge. A partire dal 1 agosto 2024, la Legge UE sull’IA impone requisiti robusti attorno all’IA emotiva, classificandola nelle categorie di “alto rischio” e “uso proibito”, a seconda del contesto.

Le applicazioni di IA emotiva che rientrano nella categoria Proibita sono già effettivamente bandite nell’UE. A partire dal 2 febbraio 2025, l’Articolo 5(1)(f) della Legge UE sull’IA vieta “la messa in commercio, l’immissione in servizio per questo specifico scopo, o l’uso di sistemi di IA per inferire emozioni di una persona naturale nei settori del posto di lavoro e delle istituzioni educative, … eccetto dove l’uso è destinato a motivi medici o di sicurezza”.

Linee Guida della Commissione Europea

La Commissione Europea ha pubblicato il 4 febbraio 2025 le “Linee Guida sulle pratiche di intelligenza artificiale proibite” per fornire maggiori dettagli sui parametri delle varie definizioni. In questo articolo, approfondiamo due applicazioni pratiche dei sistemi di IA emotiva in contesti lavorativi per illustrare l’impatto di queste nuove regole.

Case Study 1: Analisi del Sentiment nelle Chiamate di Vendita

Il primo caso studio coinvolge l’uso dell’analisi del sentiment nelle chiamate di vendita. Consideriamo un team di vendita impegnato in una società tecnologica che cerca di raggiungere il suo obiettivo di fine mese in termini di contatti con nuovi clienti e chiusure di affari. Il Chief Revenue Officer di questa azienda globale, basato negli Stati Uniti, cerca di implementare un nuovo software per consentire una formazione uniforme per il personale a livello globale.

Il software evidenzierà le caratteristiche delle chiamate effettuate dai migliori performer, confrontandole con i risultati dei performer meno riusciti. L’intero team di vendita viene classificato mensilmente, con i migliori venditori celebrati dall’azienda.

L’implementazione di software di registrazione e analisi delle chiamate è considerata preziosa per determinare il segreto del successo in tali chiamate, e in ultima analisi, per i ricavi dell’azienda. Il software monitora metriche come il numero di scambi di dialogo, il rapporto parlato-ascoltato e il tempo ottimale in cui discutere i prezzi, oltre a come il linguaggio positivo o negativo indica la disponibilità all’acquisto.

Case Study 2: Assunzione e Interviste Remote

Il secondo caso studio coinvolge una società di consulenza che desidera ampliare la sua rete di reclutamento per accogliere coloro che desiderano candidarsi a ruoli completamente remoti, tramite un processo di candidatura e onboarding interamente remoto. La società spera di adottare un software che consenta di pianificare colloqui utilizzando una piattaforma con funzionalità innovative basate su IA.

Implementando l’IA, intende mitigare il potenziale bias degli intervistatori umani affinché il processo risulti più obiettivamente equo. Le interviste vengono registrate, vengono forniti trascritti e vengono forniti approfondimenti per numerosi decisori in tutta l’organizzazione. La tecnologia include una funzione che valuta le espressioni facciali dei candidati, il tono della voce e altri segnali non verbali per identificare entusiasmo, fiducia, stress o disinteresse.

Conclusione – Cosa Fare Adesso?

L’introduzione della Legge UE sull’IA implica che la maggior parte delle aziende dovrà aumentare la propria vigilanza riguardo alle pratiche di IA, in particolare per le applicazioni utilizzate in relazione ai dipendenti o ai candidati. Sistemi di governance appropriati, inclusi formazione interna ed educazione, nonché audit rigorosi, saranno fondamentali per le organizzazioni nella conformità alla legge.

Le conseguenze di fornire o utilizzare sistemi di IA proibiti nell’UE attireranno il massimo livello di multe, pari al maggiore tra 35 milioni di EUR o il 7% del fatturato annuo totale dell’organizzazione. Dato che questa multa potrebbe essere combinata con una multa secondo il GDPR, un’organizzazione potrebbe affrontare una multa fino all’11% del fatturato totale.

È quindi essenziale agire ora sulla costruzione della governance dell’IA.

More Insights

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è...

Etica dell’IA: Progresso e Inclusività in Scozia

L'Allianza Scozzese per l'IA ha pubblicato il suo Rapporto di Impatto 2024/2025, evidenziando un anno di progressi nella promozione di un'intelligenza artificiale etica e inclusiva in Scozia. Il...

L’Urgenza del Regolamento sull’IA: Preparati al Cambiamento

L'annuncio della Commissione UE venerdì scorso che non ci sarà un ritardo nell'Atto sull'IA dell'UE ha suscitato reazioni contrastanti. È tempo di agire e ottenere alcuni fatti, poiché le scadenze di...

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...

La pausa sull’AI Act dell’UE: opportunità o rischio?

Il 8 luglio 2025, la Commissione Europea ha ribadito il proprio impegno per rispettare il calendario dell'AI Act, nonostante le richieste di rinvio da parte di alcune aziende. Il Primo Ministro...

Controlli Trump sull’IA: Rischi e Opportunità nel Settore Tecnologico

L'amministrazione Trump si sta preparando a nuove restrizioni sulle esportazioni di chip AI verso Malesia e Thailandia, al fine di prevenire l'accesso della Cina a processori avanzati. Le nuove...

Governance AI: Fondamenti per un Futuro Etico

La governance dell'intelligenza artificiale e la governance dei dati sono diventate cruciali per garantire lo sviluppo di soluzioni AI affidabili ed etiche. Questi framework di governance sono...

LLMOps: Potenziare l’IA Responsabile con Python

In un panorama ipercompetitivo, non è sufficiente distribuire modelli di linguaggio di grandi dimensioni (LLM); è necessario un robusto framework LLMOps per garantire affidabilità e conformità...