Deploying AI Responsably: Lezioni dall’EU AI Act
Il scientifico di ricerca deve contribuire allo sviluppo e all’implementazione di nuovi progetti di ricerca, promuovendo nel contempo i progetti di ricerca esistenti nell’organizzazione.
Perché le linee guida sono importanti nell’IA responsabile
L’EU AI Act ha stabilito un insieme di pratiche “proibite” chiare, applicabili dal febbraio 2025, che riguardano l’uso dell’IA che comporta rischi significativi per i diritti fondamentali, inclusi quelli per la privacy e la sicurezza. Queste preoccupazioni non sono solo teoriche; sono ora vietate legalmente e si basano su principi internazionali dei diritti umani.
In questo articolo, vengono delineate le pratiche vietate dall’EU AI Act e si esplora cosa significano per i clienti che stanno intraprendendo la propria conformità all’interno delle aziende o con gli utenti finali. La speranza è che i clienti possano trarre da questo blog una comprensione pratica di queste restrizioni e un’abilitazione su come allineare la propria attività di conseguenza.
Pratiche vietate dall’EU AI Act
L’EU AI Act vieta una serie di pratiche di IA che pongono rischi inaccettabili ai diritti fondamentali, come la manipolazione subliminale, lo scoring sociale, il policing predittivo e la surveillance biometrica indiscriminata. Ad esempio, l’atto limita l’uso del riconoscimento facciale negli spazi pubblici a causa di gravi preoccupazioni relative alla privacy, all’accuratezza e al potenziale abuso.
Un esempio è la decisione di Salesforce di non consentire l’uso dei propri prodotti per il riconoscimento facciale, una proibizione che rimane in vigore e sottolinea il proprio impegno a uno sviluppo responsabile dell’IA.
5 raccomandazioni per un’implementazione responsabile dell’IA
Potresti pensare: “Bene, cosa significa questo per me? Queste pratiche sono piuttosto lontane da qualsiasi cosa io o i miei dipendenti faremmo.” E questo è vero; queste pratiche vietate non sono le attività quotidiane che intraprenderesti per costruire maggiori efficienze nel tuo pipeline di opportunità o per unificare meglio i dati per la crescita delle vendite. Tuttavia, comprenderle ti aiuterà ad evitare rischi man mano che la tua impronta IA cresce.
Considera di seguire questi passi per valutare l’uso dell’IA nella tua azienda. Queste cinque raccomandazioni provengono dalle nostre esperienze nell’allineamento con le normative internazionali e gli impegni volontari per un’IA etica e sicura:
1. Rivedi il tuo uso dell’IA
Effettua un’analisi delle lacune confrontando l’uso attuale dell’IA nella tua azienda con le normative come l’EU AI Act per confermare l’allineamento e identificare eventuali lacune che potrebbero necessitare attenzione.
Passaggi d’azione:
- Documenta tutti i sistemi IA attualmente utilizzati dalla tua azienda
- Confronta ciascun sistema con i requisiti normativi pertinenti
- Identifica eventuali lacune
- Prioritizza l’affrontare le lacune identificate in base al livello di rischio, impatto e necessità normativa
2. Stabilisci un quadro di governance dell’IA
Crea un organo di supervisione multifunzionale che riveda regolarmente il modo in cui la tua azienda sta implementando l’IA. Ciò servirà a rafforzare la conformità continua ai requisiti normativi e ai valori aziendali.
Passaggi d’azione:
- Stabilisci un organo di governance dell’IA
- Definisci metriche per monitorare il suo successo
- Implementa revisioni regolari per l’implementazione dell’IA
- Crea percorsi di escalation per nuovi rischi e casi limite
3. Sfrutta i guardrail integrati di Salesforce
Approfitta dei guardrail di Salesforce come il nostro Einstein Trust Layer e le politiche di contenimento predefinite. Assicurati che il personale pertinente sia a conoscenza e integri le nostre salvaguardie predefinite.
Passaggi d’azione:
- Mappa i rischi identificati dal tuo registro di rischio alle salvaguardie disponibili
- Assicurati che i team siano formati sull’uso dei guardrail integrati
- Documenta come ogni salvaguardia affronta specifici requisiti normativi e rischi particolari
4. Costruisci la consapevolezza dell’IA in tutta l’azienda
I nostri moduli di Responsible AI Trailhead e le nostre certificazioni AI Associate e AI Specialist sono un ottimo punto di partenza. Considera di sviluppare risorse di formazione sull’IA per tutti i dipendenti.
Passaggi d’azione:
- Sviluppa risorse di formazione di base sull’IA per tutti i dipendenti
- Crea linee guida e percorsi di apprendimento specifici per ruolo
- Condurre esercizi collaborativi per affrontare dilemmi complessi legati all’IA
5. Migliora la trasparenza complessiva
Comunica proattivamente le tue scoperte e pratiche ai tuoi clienti e ai tuoi dipendenti per aumentare la trasparenza e aiutare tutti a crescere insieme.
Passaggi d’azione:
- Identifica i luoghi appropriati per condividere le divulgazioni sull’IA con i clienti
- Sviluppa un linguaggio semplice e accessibile per le divulgazioni
- Comunica chiaramente le aspettative dei tuoi clienti per un uso accettabile dell’IA
Ricorda, l’IA responsabile non riguarda solo il rispetto dei requisiti normativi: si tratta di allineare la tecnologia con i valori della tua organizzazione e costruire sistemi che siano sicuri, trasparenti e centrati sull’essere umano. È uno sforzo collettivo e siamo impegnati a collaborare con te nel tuo percorso verso un’IA responsabile.
Nota: Questo articolo è fornito solo a scopo informativo e non costituisce consulenza legale. Si invita a consultare un legale per familiarizzare con i requisiti che governano le situazioni specifiche.