Riconoscimento Emotivo: Nuove Regole per il Lavoro

Legge Europea sull’IA – Focus sui Sistemi di Riconoscimento Emotivo nel Luogo di Lavoro

La Legge Europea sull’IA impone requisiti rigorosi riguardo ai sistemi di riconoscimento emotivo, categorizzandoli come “Ad Alto Rischio” o “Uso Proibito”, a seconda del contesto. A partire dal 2 febbraio 2025, è vietato “mettere sul mercato, mettere in servizio per questo specifico scopo o utilizzare sistemi di IA per inferire le emozioni di una persona naturale nel contesto del lavoro e delle istituzioni educative, … tranne nei casi in cui l’uso sia destinato a motivi medici o di sicurezza”.

Cos’è l’IA Emotiva?

L’IA emotiva, nota anche come Emotion AI, si riferisce all’intelligenza artificiale che utilizza vari set di dati biometrici e altri dati, come espressioni facciali, pressioni dei tasti, tono di voce e maniere comportamentali, per identificare, inferire e analizzare le emozioni. Questo campo multidisciplinare attinge agli studi di elaborazione del linguaggio naturale, psicologia e sociologia.

Recentemente, l’IA emotiva ha beneficiato di un aumento senza precedenti della potenza di calcolo. La tecnologia dei sensori sofisticati in dispositivi e IoT consente di valutare enormi quantità di dati. Si prevede che il mercato dell’IA emotiva crescerà da 3 miliardi di USD nel 2024 a 7 miliardi di USD nei prossimi cinque anni.

Applicazioni dell’IA Emotiva

L’IA emotiva è sempre più utilizzata in vari contesti, inclusi spazi pubblici come stazioni ferroviarie e cantieri, per rilevare potenziali conflitti, crimini o danni. È anche utilizzata nei settori tecnologici e dei beni di consumo, dove le informazioni dettagliate sui clienti, le vendite iper-personalizzate e la segmentazione di mercato sfumata sono obiettivi fondamentali.

Un esempio notevole è rappresentato da una startup australiana, attualmente in fase di beta testing, che ha sviluppato un modello di linguaggio emotivo per monitorare le emozioni in tempo reale. Altri stanno lanciando chatbot terapeutici che utilizzano l’IA emotiva per migliorare la salute mentale delle persone.

Regolamentazione e Normative

Poiché l’IA emotiva è una tecnologia fortemente regolamentata, le organizzazioni che sviluppano e utilizzano tali applicazioni devono rispettare la legge. La Commissione Europea ha pubblicato le “Linee Guida sulle pratiche di intelligenza artificiale proibite” il 4 febbraio 2025, per fornire ulteriori dettagli sui parametri delle varie definizioni.

Esempi di Applicazione dell’IA Emotiva

Primo caso studio: Analisi del sentiment nelle chiamate di vendita. In un’azienda tecnologica, il Chief Revenue Officer cerca di implementare un software di analisi delle chiamate per uniformare la formazione del personale. Questo software evidenzierà le caratteristiche delle chiamate dei migliori performer, confrontandole con quelle dei più scarsi, per determinare i fattori di successo.

Secondo caso studio: Un’agenzia di consulenza desidera espandere la propria rete di reclutamento per accogliere candidati per ruoli completamente remoti. Intende utilizzare un software che registri le interviste e fornisca trascrizioni e approfondimenti, valutando le espressioni facciali e il tono di voce per identificare entusiasmo o stress.

Conclusione

Con l’introduzione della Legge Europea sull’IA, le aziende devono aumentare la loro vigilanza riguardo alle pratiche relative all’IA, in particolare quelle applicate ai dipendenti o ai candidati. È fondamentale implementare sistemi di governance appropriati, tra cui formazione interna e audit robusti, per identificare eventuali usi proibiti dell’IA.

Le conseguenze per l’uso di sistemi di IA proibiti nell’UE possono comportare multe elevate, fino a 35 milioni di EUR o il 7% del fatturato mondiale annuale dell’organizzazione. Inoltre, potrebbe esserci un impatto reputazionale significativo per eventuali violazioni. Pertanto, è essenziale agire ora per costruire una governance dell’IA efficace.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...