Responsabilità nell’Intelligenza Artificiale: Insegnamenti dall’Atto UE

Deploying AI Responsably: Lezioni dall’EU AI Act

Il scientifico di ricerca deve contribuire allo sviluppo e all’implementazione di nuovi progetti di ricerca, promuovendo nel contempo i progetti di ricerca esistenti nell’organizzazione.

Perché le linee guida sono importanti nell’IA responsabile

L’EU AI Act ha stabilito un insieme di pratiche “proibite” chiare, applicabili dal febbraio 2025, che riguardano l’uso dell’IA che comporta rischi significativi per i diritti fondamentali, inclusi quelli per la privacy e la sicurezza. Queste preoccupazioni non sono solo teoriche; sono ora vietate legalmente e si basano su principi internazionali dei diritti umani.

In questo articolo, vengono delineate le pratiche vietate dall’EU AI Act e si esplora cosa significano per i clienti che stanno intraprendendo la propria conformità all’interno delle aziende o con gli utenti finali. La speranza è che i clienti possano trarre da questo blog una comprensione pratica di queste restrizioni e un’abilitazione su come allineare la propria attività di conseguenza.

Pratiche vietate dall’EU AI Act

L’EU AI Act vieta una serie di pratiche di IA che pongono rischi inaccettabili ai diritti fondamentali, come la manipolazione subliminale, lo scoring sociale, il policing predittivo e la surveillance biometrica indiscriminata. Ad esempio, l’atto limita l’uso del riconoscimento facciale negli spazi pubblici a causa di gravi preoccupazioni relative alla privacy, all’accuratezza e al potenziale abuso.

Un esempio è la decisione di Salesforce di non consentire l’uso dei propri prodotti per il riconoscimento facciale, una proibizione che rimane in vigore e sottolinea il proprio impegno a uno sviluppo responsabile dell’IA.

5 raccomandazioni per un’implementazione responsabile dell’IA

Potresti pensare: “Bene, cosa significa questo per me? Queste pratiche sono piuttosto lontane da qualsiasi cosa io o i miei dipendenti faremmo.” E questo è vero; queste pratiche vietate non sono le attività quotidiane che intraprenderesti per costruire maggiori efficienze nel tuo pipeline di opportunità o per unificare meglio i dati per la crescita delle vendite. Tuttavia, comprenderle ti aiuterà ad evitare rischi man mano che la tua impronta IA cresce.

Considera di seguire questi passi per valutare l’uso dell’IA nella tua azienda. Queste cinque raccomandazioni provengono dalle nostre esperienze nell’allineamento con le normative internazionali e gli impegni volontari per un’IA etica e sicura:

1. Rivedi il tuo uso dell’IA

Effettua un’analisi delle lacune confrontando l’uso attuale dell’IA nella tua azienda con le normative come l’EU AI Act per confermare l’allineamento e identificare eventuali lacune che potrebbero necessitare attenzione.

Passaggi d’azione:

  • Documenta tutti i sistemi IA attualmente utilizzati dalla tua azienda
  • Confronta ciascun sistema con i requisiti normativi pertinenti
  • Identifica eventuali lacune
  • Prioritizza l’affrontare le lacune identificate in base al livello di rischio, impatto e necessità normativa

2. Stabilisci un quadro di governance dell’IA

Crea un organo di supervisione multifunzionale che riveda regolarmente il modo in cui la tua azienda sta implementando l’IA. Ciò servirà a rafforzare la conformità continua ai requisiti normativi e ai valori aziendali.

Passaggi d’azione:

  • Stabilisci un organo di governance dell’IA
  • Definisci metriche per monitorare il suo successo
  • Implementa revisioni regolari per l’implementazione dell’IA
  • Crea percorsi di escalation per nuovi rischi e casi limite

3. Sfrutta i guardrail integrati di Salesforce

Approfitta dei guardrail di Salesforce come il nostro Einstein Trust Layer e le politiche di contenimento predefinite. Assicurati che il personale pertinente sia a conoscenza e integri le nostre salvaguardie predefinite.

Passaggi d’azione:

  • Mappa i rischi identificati dal tuo registro di rischio alle salvaguardie disponibili
  • Assicurati che i team siano formati sull’uso dei guardrail integrati
  • Documenta come ogni salvaguardia affronta specifici requisiti normativi e rischi particolari

4. Costruisci la consapevolezza dell’IA in tutta l’azienda

I nostri moduli di Responsible AI Trailhead e le nostre certificazioni AI Associate e AI Specialist sono un ottimo punto di partenza. Considera di sviluppare risorse di formazione sull’IA per tutti i dipendenti.

Passaggi d’azione:

  • Sviluppa risorse di formazione di base sull’IA per tutti i dipendenti
  • Crea linee guida e percorsi di apprendimento specifici per ruolo
  • Condurre esercizi collaborativi per affrontare dilemmi complessi legati all’IA

5. Migliora la trasparenza complessiva

Comunica proattivamente le tue scoperte e pratiche ai tuoi clienti e ai tuoi dipendenti per aumentare la trasparenza e aiutare tutti a crescere insieme.

Passaggi d’azione:

  • Identifica i luoghi appropriati per condividere le divulgazioni sull’IA con i clienti
  • Sviluppa un linguaggio semplice e accessibile per le divulgazioni
  • Comunica chiaramente le aspettative dei tuoi clienti per un uso accettabile dell’IA

Ricorda, l’IA responsabile non riguarda solo il rispetto dei requisiti normativi: si tratta di allineare la tecnologia con i valori della tua organizzazione e costruire sistemi che siano sicuri, trasparenti e centrati sull’essere umano. È uno sforzo collettivo e siamo impegnati a collaborare con te nel tuo percorso verso un’IA responsabile.

Nota: Questo articolo è fornito solo a scopo informativo e non costituisce consulenza legale. Si invita a consultare un legale per familiarizzare con i requisiti che governano le situazioni specifiche.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...