Riconoscimento Emotivo: Rischi e Regole nel Luogo di Lavoro

Legge UE sull’IA – Sguardo ai Sistemi di Riconoscimento Emotivo sul Posto di Lavoro

Il riconoscimento emotivo mediante intelligenza artificiale (IA emotiva) si riferisce all’IA che utilizza vari set di dati biometrici e altri dati, come espressioni facciali, battute di tasti, tono di voce e maniere comportamentali per identificare, inferire e analizzare le emozioni. Basata sul calcolo affettivo, con origini negli anni ’90, questo campo multidisciplinare riunisce studi di elaborazione del linguaggio naturale, psicologia e sociologia.

Negli ultimi anni, l’IA emotiva ha beneficiato di livelli senza precedenti di potenza di calcolo. La tecnologia dei sensori sofisticati, onnipresente in dispositivi e IoT, consente di valutare enormi quantità di dati. Si stima che il mercato dell’IA emotiva crescerà da 3 miliardi di USD nel 2024 a 7 miliardi di USD nei prossimi cinque anni.

Applicazioni dell’IA Emotiva

L’IA emotiva viene sempre più impiegata in vari contesti, inclusa la rilevazione di conflitti, crimini o danni in spazi pubblici come stazioni ferroviarie o cantieri. È utilizzata anche nei settori tecnologico e dei beni di consumo, dove dettagliate analisi dei clienti, vendite iper-personalizzate e segmentazione di mercato sfumata sono considerati il sacro graal.

Diverse organizzazioni cercano di offrire ai clienti la chiave per prevedere cosa vogliono realmente, inclusi start-up australiani che stanno testando ‘il primo modello linguistico emotivo al mondo’, mirato a monitorare le emozioni in tempo reale. Altri stanno lanciando chatbot terapeutici utilizzando l’IA emotiva per migliorare la salute mentale delle persone.

Regolamentazione dell’IA Emotiva

Tuttavia, poiché l’IA emotiva è ora una tecnologia fortemente regolamentata, le organizzazioni che sviluppano e utilizzano queste applicazioni devono rimanere conformi alla legge. A partire dal 1 agosto 2024, la Legge UE sull’IA impone requisiti robusti attorno all’IA emotiva, classificandola nelle categorie di “alto rischio” e “uso proibito”, a seconda del contesto.

Le applicazioni di IA emotiva che rientrano nella categoria Proibita sono già effettivamente bandite nell’UE. A partire dal 2 febbraio 2025, l’Articolo 5(1)(f) della Legge UE sull’IA vieta “la messa in commercio, l’immissione in servizio per questo specifico scopo, o l’uso di sistemi di IA per inferire emozioni di una persona naturale nei settori del posto di lavoro e delle istituzioni educative, … eccetto dove l’uso è destinato a motivi medici o di sicurezza”.

Linee Guida della Commissione Europea

La Commissione Europea ha pubblicato il 4 febbraio 2025 le “Linee Guida sulle pratiche di intelligenza artificiale proibite” per fornire maggiori dettagli sui parametri delle varie definizioni. In questo articolo, approfondiamo due applicazioni pratiche dei sistemi di IA emotiva in contesti lavorativi per illustrare l’impatto di queste nuove regole.

Case Study 1: Analisi del Sentiment nelle Chiamate di Vendita

Il primo caso studio coinvolge l’uso dell’analisi del sentiment nelle chiamate di vendita. Consideriamo un team di vendita impegnato in una società tecnologica che cerca di raggiungere il suo obiettivo di fine mese in termini di contatti con nuovi clienti e chiusure di affari. Il Chief Revenue Officer di questa azienda globale, basato negli Stati Uniti, cerca di implementare un nuovo software per consentire una formazione uniforme per il personale a livello globale.

Il software evidenzierà le caratteristiche delle chiamate effettuate dai migliori performer, confrontandole con i risultati dei performer meno riusciti. L’intero team di vendita viene classificato mensilmente, con i migliori venditori celebrati dall’azienda.

L’implementazione di software di registrazione e analisi delle chiamate è considerata preziosa per determinare il segreto del successo in tali chiamate, e in ultima analisi, per i ricavi dell’azienda. Il software monitora metriche come il numero di scambi di dialogo, il rapporto parlato-ascoltato e il tempo ottimale in cui discutere i prezzi, oltre a come il linguaggio positivo o negativo indica la disponibilità all’acquisto.

Case Study 2: Assunzione e Interviste Remote

Il secondo caso studio coinvolge una società di consulenza che desidera ampliare la sua rete di reclutamento per accogliere coloro che desiderano candidarsi a ruoli completamente remoti, tramite un processo di candidatura e onboarding interamente remoto. La società spera di adottare un software che consenta di pianificare colloqui utilizzando una piattaforma con funzionalità innovative basate su IA.

Implementando l’IA, intende mitigare il potenziale bias degli intervistatori umani affinché il processo risulti più obiettivamente equo. Le interviste vengono registrate, vengono forniti trascritti e vengono forniti approfondimenti per numerosi decisori in tutta l’organizzazione. La tecnologia include una funzione che valuta le espressioni facciali dei candidati, il tono della voce e altri segnali non verbali per identificare entusiasmo, fiducia, stress o disinteresse.

Conclusione – Cosa Fare Adesso?

L’introduzione della Legge UE sull’IA implica che la maggior parte delle aziende dovrà aumentare la propria vigilanza riguardo alle pratiche di IA, in particolare per le applicazioni utilizzate in relazione ai dipendenti o ai candidati. Sistemi di governance appropriati, inclusi formazione interna ed educazione, nonché audit rigorosi, saranno fondamentali per le organizzazioni nella conformità alla legge.

Le conseguenze di fornire o utilizzare sistemi di IA proibiti nell’UE attireranno il massimo livello di multe, pari al maggiore tra 35 milioni di EUR o il 7% del fatturato annuo totale dell’organizzazione. Dato che questa multa potrebbe essere combinata con una multa secondo il GDPR, un’organizzazione potrebbe affrontare una multa fino all’11% del fatturato totale.

È quindi essenziale agire ora sulla costruzione della governance dell’IA.

More Insights

Fiducia e Rischio nell’Era dell’AI

Per i marketer, l'IA promette un salto in produttività, ma solo se guidata da una strategia chiara e supervisione umana. La questione non è se utilizzare l'IA, ma come usarla in modo responsabile ed...

Governanza Cloud: Rilanciare l’Innovazione nell’Era dell’AI

Molti si concentrano sulle ultime innovazioni dell'IA, ma pochi prestano attenzione a un gap critico: i modelli di governance del cloud obsoleti. Questi modelli non sono stati costruiti per il ritmo...

Guida pratica per un’adozione responsabile dell’IA

Con l'intelligenza artificiale (IA) che diventa una parte fondamentale delle moderne attività commerciali, la Confederazione dell'Industria Indiana (CII) ha pubblicato una nuova guida per aiutare i...

Automazione Intelligente e Sicurezza: Rischi e Opportunità nel DevSecOps

L'adozione rapida dell'automazione alimentata dall'IA nel DevSecOps introduce opportunità e sfide significative. Sebbene l'automazione possa migliorare l'efficienza, è fondamentale garantire che le...

Centro di Eccellenza per l’Intelligenza Artificiale: La Nuova Frontiera del Diritto

In un importante sviluppo che pone l'India in prima linea nel dibattito globale sulla regolamentazione dell'intelligenza artificiale (AI), è stato annunciato l'istituzione del Centro Cyril Shroff per...

Politica AI: Semplificare la Governance per le Agenzie Pubbliche

Darwin ha annunciato il lancio del suo AI Policy Wizard, uno strumento gratuito e interattivo progettato per aiutare i governi locali e le agenzie pubbliche a creare politiche AI pratiche e conformi...

Riconquistare la Fiducia nell’Intelligenza Artificiale con la Governance

Le minacce poco chiare e il comportamento imprevedibile complicano la fiducia globale nell'IA. È essenziale utilizzare misure di governance come il Regolamento sull'IA dell'UE per stabilire una...

Cultura e AI: Costruire Fiducia nel Futuro Tecnologico

Questo rapporto esamina le soluzioni che enfatizzano gli accordi collaborativi e le iniziative interorganizzative per creare un input diversificato di idee. È fondamentale che la governance dell'IA...

La conformità al copyright nell’era dell’IA generativa

Una delle sfide principali nella formazione dei modelli di intelligenza artificiale generativa è garantire la conformità alle leggi sul copyright. L'AI Act dell'UE sottolinea la necessità di...