Riconoscimento Emotivo: Rischi e Regole nel Luogo di Lavoro

Legge UE sull’IA – Sguardo ai Sistemi di Riconoscimento Emotivo sul Posto di Lavoro

Il riconoscimento emotivo mediante intelligenza artificiale (IA emotiva) si riferisce all’IA che utilizza vari set di dati biometrici e altri dati, come espressioni facciali, battute di tasti, tono di voce e maniere comportamentali per identificare, inferire e analizzare le emozioni. Basata sul calcolo affettivo, con origini negli anni ’90, questo campo multidisciplinare riunisce studi di elaborazione del linguaggio naturale, psicologia e sociologia.

Negli ultimi anni, l’IA emotiva ha beneficiato di livelli senza precedenti di potenza di calcolo. La tecnologia dei sensori sofisticati, onnipresente in dispositivi e IoT, consente di valutare enormi quantità di dati. Si stima che il mercato dell’IA emotiva crescerà da 3 miliardi di USD nel 2024 a 7 miliardi di USD nei prossimi cinque anni.

Applicazioni dell’IA Emotiva

L’IA emotiva viene sempre più impiegata in vari contesti, inclusa la rilevazione di conflitti, crimini o danni in spazi pubblici come stazioni ferroviarie o cantieri. È utilizzata anche nei settori tecnologico e dei beni di consumo, dove dettagliate analisi dei clienti, vendite iper-personalizzate e segmentazione di mercato sfumata sono considerati il sacro graal.

Diverse organizzazioni cercano di offrire ai clienti la chiave per prevedere cosa vogliono realmente, inclusi start-up australiani che stanno testando ‘il primo modello linguistico emotivo al mondo’, mirato a monitorare le emozioni in tempo reale. Altri stanno lanciando chatbot terapeutici utilizzando l’IA emotiva per migliorare la salute mentale delle persone.

Regolamentazione dell’IA Emotiva

Tuttavia, poiché l’IA emotiva è ora una tecnologia fortemente regolamentata, le organizzazioni che sviluppano e utilizzano queste applicazioni devono rimanere conformi alla legge. A partire dal 1 agosto 2024, la Legge UE sull’IA impone requisiti robusti attorno all’IA emotiva, classificandola nelle categorie di “alto rischio” e “uso proibito”, a seconda del contesto.

Le applicazioni di IA emotiva che rientrano nella categoria Proibita sono già effettivamente bandite nell’UE. A partire dal 2 febbraio 2025, l’Articolo 5(1)(f) della Legge UE sull’IA vieta “la messa in commercio, l’immissione in servizio per questo specifico scopo, o l’uso di sistemi di IA per inferire emozioni di una persona naturale nei settori del posto di lavoro e delle istituzioni educative, … eccetto dove l’uso è destinato a motivi medici o di sicurezza”.

Linee Guida della Commissione Europea

La Commissione Europea ha pubblicato il 4 febbraio 2025 le “Linee Guida sulle pratiche di intelligenza artificiale proibite” per fornire maggiori dettagli sui parametri delle varie definizioni. In questo articolo, approfondiamo due applicazioni pratiche dei sistemi di IA emotiva in contesti lavorativi per illustrare l’impatto di queste nuove regole.

Case Study 1: Analisi del Sentiment nelle Chiamate di Vendita

Il primo caso studio coinvolge l’uso dell’analisi del sentiment nelle chiamate di vendita. Consideriamo un team di vendita impegnato in una società tecnologica che cerca di raggiungere il suo obiettivo di fine mese in termini di contatti con nuovi clienti e chiusure di affari. Il Chief Revenue Officer di questa azienda globale, basato negli Stati Uniti, cerca di implementare un nuovo software per consentire una formazione uniforme per il personale a livello globale.

Il software evidenzierà le caratteristiche delle chiamate effettuate dai migliori performer, confrontandole con i risultati dei performer meno riusciti. L’intero team di vendita viene classificato mensilmente, con i migliori venditori celebrati dall’azienda.

L’implementazione di software di registrazione e analisi delle chiamate è considerata preziosa per determinare il segreto del successo in tali chiamate, e in ultima analisi, per i ricavi dell’azienda. Il software monitora metriche come il numero di scambi di dialogo, il rapporto parlato-ascoltato e il tempo ottimale in cui discutere i prezzi, oltre a come il linguaggio positivo o negativo indica la disponibilità all’acquisto.

Case Study 2: Assunzione e Interviste Remote

Il secondo caso studio coinvolge una società di consulenza che desidera ampliare la sua rete di reclutamento per accogliere coloro che desiderano candidarsi a ruoli completamente remoti, tramite un processo di candidatura e onboarding interamente remoto. La società spera di adottare un software che consenta di pianificare colloqui utilizzando una piattaforma con funzionalità innovative basate su IA.

Implementando l’IA, intende mitigare il potenziale bias degli intervistatori umani affinché il processo risulti più obiettivamente equo. Le interviste vengono registrate, vengono forniti trascritti e vengono forniti approfondimenti per numerosi decisori in tutta l’organizzazione. La tecnologia include una funzione che valuta le espressioni facciali dei candidati, il tono della voce e altri segnali non verbali per identificare entusiasmo, fiducia, stress o disinteresse.

Conclusione – Cosa Fare Adesso?

L’introduzione della Legge UE sull’IA implica che la maggior parte delle aziende dovrà aumentare la propria vigilanza riguardo alle pratiche di IA, in particolare per le applicazioni utilizzate in relazione ai dipendenti o ai candidati. Sistemi di governance appropriati, inclusi formazione interna ed educazione, nonché audit rigorosi, saranno fondamentali per le organizzazioni nella conformità alla legge.

Le conseguenze di fornire o utilizzare sistemi di IA proibiti nell’UE attireranno il massimo livello di multe, pari al maggiore tra 35 milioni di EUR o il 7% del fatturato annuo totale dell’organizzazione. Dato che questa multa potrebbe essere combinata con una multa secondo il GDPR, un’organizzazione potrebbe affrontare una multa fino all’11% del fatturato totale.

È quindi essenziale agire ora sulla costruzione della governance dell’IA.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...