Legge Europea sull’IA – Focus sui Sistemi di Riconoscimento Emotivo nel Luogo di Lavoro
La Legge Europea sull’IA impone requisiti rigorosi riguardo ai sistemi di riconoscimento emotivo, categorizzandoli come “Ad Alto Rischio” o “Uso Proibito”, a seconda del contesto. A partire dal 2 febbraio 2025, è vietato “mettere sul mercato, mettere in servizio per questo specifico scopo o utilizzare sistemi di IA per inferire le emozioni di una persona naturale nel contesto del lavoro e delle istituzioni educative, … tranne nei casi in cui l’uso sia destinato a motivi medici o di sicurezza”.
Cos’è l’IA Emotiva?
L’IA emotiva, nota anche come Emotion AI, si riferisce all’intelligenza artificiale che utilizza vari set di dati biometrici e altri dati, come espressioni facciali, pressioni dei tasti, tono di voce e maniere comportamentali, per identificare, inferire e analizzare le emozioni. Questo campo multidisciplinare attinge agli studi di elaborazione del linguaggio naturale, psicologia e sociologia.
Recentemente, l’IA emotiva ha beneficiato di un aumento senza precedenti della potenza di calcolo. La tecnologia dei sensori sofisticati in dispositivi e IoT consente di valutare enormi quantità di dati. Si prevede che il mercato dell’IA emotiva crescerà da 3 miliardi di USD nel 2024 a 7 miliardi di USD nei prossimi cinque anni.
Applicazioni dell’IA Emotiva
L’IA emotiva è sempre più utilizzata in vari contesti, inclusi spazi pubblici come stazioni ferroviarie e cantieri, per rilevare potenziali conflitti, crimini o danni. È anche utilizzata nei settori tecnologici e dei beni di consumo, dove le informazioni dettagliate sui clienti, le vendite iper-personalizzate e la segmentazione di mercato sfumata sono obiettivi fondamentali.
Un esempio notevole è rappresentato da una startup australiana, attualmente in fase di beta testing, che ha sviluppato un modello di linguaggio emotivo per monitorare le emozioni in tempo reale. Altri stanno lanciando chatbot terapeutici che utilizzano l’IA emotiva per migliorare la salute mentale delle persone.
Regolamentazione e Normative
Poiché l’IA emotiva è una tecnologia fortemente regolamentata, le organizzazioni che sviluppano e utilizzano tali applicazioni devono rispettare la legge. La Commissione Europea ha pubblicato le “Linee Guida sulle pratiche di intelligenza artificiale proibite” il 4 febbraio 2025, per fornire ulteriori dettagli sui parametri delle varie definizioni.
Esempi di Applicazione dell’IA Emotiva
Primo caso studio: Analisi del sentiment nelle chiamate di vendita. In un’azienda tecnologica, il Chief Revenue Officer cerca di implementare un software di analisi delle chiamate per uniformare la formazione del personale. Questo software evidenzierà le caratteristiche delle chiamate dei migliori performer, confrontandole con quelle dei più scarsi, per determinare i fattori di successo.
Secondo caso studio: Un’agenzia di consulenza desidera espandere la propria rete di reclutamento per accogliere candidati per ruoli completamente remoti. Intende utilizzare un software che registri le interviste e fornisca trascrizioni e approfondimenti, valutando le espressioni facciali e il tono di voce per identificare entusiasmo o stress.
Conclusione
Con l’introduzione della Legge Europea sull’IA, le aziende devono aumentare la loro vigilanza riguardo alle pratiche relative all’IA, in particolare quelle applicate ai dipendenti o ai candidati. È fondamentale implementare sistemi di governance appropriati, tra cui formazione interna e audit robusti, per identificare eventuali usi proibiti dell’IA.
Le conseguenze per l’uso di sistemi di IA proibiti nell’UE possono comportare multe elevate, fino a 35 milioni di EUR o il 7% del fatturato mondiale annuale dell’organizzazione. Inoltre, potrebbe esserci un impatto reputazionale significativo per eventuali violazioni. Pertanto, è essenziale agire ora per costruire una governance dell’IA efficace.