Come le Risorse Umane possono Navigare nell’EU AI Act
L’adozione dell’AI nelle risorse umane porta con sé un vasto potenziale per semplificare i processi, migliorare il processo decisionale e stimolare l’innovazione. Tuttavia, realizzare questi benefici significa affrontare le complessità dell’EU AI Act, navigando la rapida divergenza tra gli approcci normativi dell’UE e degli Stati Uniti.
Per qualsiasi azienda che gestisce dati attraverso l’Atlantico – che nella realtà moderna riguarda la maggior parte delle aziende – questa divergenza evidenzia l’enorme necessità di una solida governance dell’AI e di salvaguardie per garantire un’adozione etica e sicura oltre confine.
Ciò che è accettabile negli Stati Uniti potrebbe violare le normative europee non appena sono coinvolti dati riguardanti cittadini dell’UE o del Regno Unito. Anche negli Stati Uniti, la mancanza di una regolamentazione specifica sull’AI non significa mancanza di rischio. Ci sono ancora molti stati con normative locali sulla protezione dei dati e sull’AI, e c’è sempre il rischio di contenzioso per violazioni della proprietà intellettuale, discriminazione e pratiche ingannevoli.
È quindi fondamentale prestare attenzione al proprio utilizzo dell’AI, indipendentemente dall’esistenza di una regola specifica che lo richieda. I seguenti passaggi aiuteranno a prosperare in un ambiente normativo che richiede sia agilità che responsabilità, permettendo di preparare la propria strategia AI per il futuro.
1. Comprendere i livelli di rischio
L’EU AI Act classifica gli strumenti di AI in quattro livelli di rischio: minimale, limitato, alto e inaccettabile. Ogni livello comporta specifici obblighi di conformità, in particolare quello ad alto rischio, che comprende le tecnologie utilizzate nel processo di reclutamento e gestione dei dipendenti.
Questi sistemi sono spesso scrutinati per il loro potenziale impatto sulla vita delle persone, richiedendo misure rigorose per garantire trasparenza, mitigare i pregiudizi e garantire una solida governance dei dati.
È quindi necessario effettuare un audit completo dei sistemi AI attuali e pianificati per determinare il loro livello di rischio. È anche importante stabilire se la propria organizzazione qualifichi come un “fornitore di AI”, il che comporta ulteriori responsabilità ai sensi dell’Act.
2. Condurre audit continui
A differenza del software tradizionale, che si installa e poi si dimentica, gli strumenti di AI sono per loro natura non deterministici e il loro comportamento è probabile che cambi nel tempo e nelle circostanze. Nuove tipologie di dati in input producono risposte inaspettate e possono creare nuove forme di pregiudizio o rischi per la protezione dei dati e della sicurezza delle informazioni.
Quindi, la valutazione continua dei sistemi AI è cruciale per evitare di compromettere gli utenti o creare una situazione che potrebbe danneggiare la reputazione dell’azienda.
3. Formare i team HR
La governance dell’AI non è solo una sfida tecnica; è anche una questione culturale ed educativa. Fornire formazione sulla governance e sull’etica dell’AI dà il potere ai professionisti delle risorse umane di implementare l’AI in modo responsabile.
I programmi di formazione dovrebbero essere adattati alle esigenze uniche dei professionisti delle risorse umane, dotandoli per agire come custodi informati dei sistemi AI, non solo come utenti passivi di un altro software.
4. Costruire fiducia attraverso la trasparenza
Chiare divulgazioni sull’uso dell’AI nel reclutamento e nella gestione della forza lavoro costruiscono fiducia tra i dipendenti e i candidati. La fiducia è ulteriormente migliorata quando si dimostra un impegno verso pratiche etiche nell’AI, rafforzando la reputazione come datore di lavoro equo e lungimirante.
Inoltre, i membri dello staff che comprendono come l’AI impatti le loro interazioni con l’organizzazione sono più propensi ad abbracciare i suoi benefici e contribuire al suo miglioramento continuo. Assicurati di comunicare regolarmente riguardo a:
- come vengono prese e monitorate le decisioni basate sull’AI;
- quali passi vengono intrapresi per migliorare l’accuratezza e l’equità di questi sistemi;
- quali meccanismi sono in atto per affrontare errori o preoccupazioni.
5. Monitorare l’ambiente normativo
Come si suol dire, l’unica cosa certa è il cambiamento. Questo è particolarmente vero nell’ambiente normativo dell’AI, considerando l’ampiezza con cui la conformità all’AI è diventata una questione politica. Collabora con i tuoi team legali, di protezione dei dati e di sicurezza delle informazioni per rimanere aggiornato sulle novità e considera di adottare sistemi AI con funzionalità di conformità integrate per semplificare i loro futuri aggiustamenti normativi.
È anche importante osservare attentamente cosa stanno facendo gli altri, per imparare dai loro buoni esempi e dai loro errori.
Come prassi, dovresti:
- mantenere registri dettagliati delle operazioni e delle misure di conformità dei sistemi AI;
- interagire con i regolatori e gli organi di settore per rimanere informati riguardo a cambiamenti imminenti;
- allineare le iniziative AI con obiettivi organizzativi più ampi per garantire che forniscano un valore misurabile.
È opportuno considerare di esternalizzare parte di questo, il che può aiutare ad accelerare il ritmo del cambiamento, gestire il rischio e guidare un vantaggio competitivo.