Responsabilità nell’Intelligenza Artificiale: Insegnamenti dall’Atto UE

Deploying AI Responsably: Lezioni dall’EU AI Act

Il scientifico di ricerca deve contribuire allo sviluppo e all’implementazione di nuovi progetti di ricerca, promuovendo nel contempo i progetti di ricerca esistenti nell’organizzazione.

Perché le linee guida sono importanti nell’IA responsabile

L’EU AI Act ha stabilito un insieme di pratiche “proibite” chiare, applicabili dal febbraio 2025, che riguardano l’uso dell’IA che comporta rischi significativi per i diritti fondamentali, inclusi quelli per la privacy e la sicurezza. Queste preoccupazioni non sono solo teoriche; sono ora vietate legalmente e si basano su principi internazionali dei diritti umani.

In questo articolo, vengono delineate le pratiche vietate dall’EU AI Act e si esplora cosa significano per i clienti che stanno intraprendendo la propria conformità all’interno delle aziende o con gli utenti finali. La speranza è che i clienti possano trarre da questo blog una comprensione pratica di queste restrizioni e un’abilitazione su come allineare la propria attività di conseguenza.

Pratiche vietate dall’EU AI Act

L’EU AI Act vieta una serie di pratiche di IA che pongono rischi inaccettabili ai diritti fondamentali, come la manipolazione subliminale, lo scoring sociale, il policing predittivo e la surveillance biometrica indiscriminata. Ad esempio, l’atto limita l’uso del riconoscimento facciale negli spazi pubblici a causa di gravi preoccupazioni relative alla privacy, all’accuratezza e al potenziale abuso.

Un esempio è la decisione di Salesforce di non consentire l’uso dei propri prodotti per il riconoscimento facciale, una proibizione che rimane in vigore e sottolinea il proprio impegno a uno sviluppo responsabile dell’IA.

5 raccomandazioni per un’implementazione responsabile dell’IA

Potresti pensare: “Bene, cosa significa questo per me? Queste pratiche sono piuttosto lontane da qualsiasi cosa io o i miei dipendenti faremmo.” E questo è vero; queste pratiche vietate non sono le attività quotidiane che intraprenderesti per costruire maggiori efficienze nel tuo pipeline di opportunità o per unificare meglio i dati per la crescita delle vendite. Tuttavia, comprenderle ti aiuterà ad evitare rischi man mano che la tua impronta IA cresce.

Considera di seguire questi passi per valutare l’uso dell’IA nella tua azienda. Queste cinque raccomandazioni provengono dalle nostre esperienze nell’allineamento con le normative internazionali e gli impegni volontari per un’IA etica e sicura:

1. Rivedi il tuo uso dell’IA

Effettua un’analisi delle lacune confrontando l’uso attuale dell’IA nella tua azienda con le normative come l’EU AI Act per confermare l’allineamento e identificare eventuali lacune che potrebbero necessitare attenzione.

Passaggi d’azione:

  • Documenta tutti i sistemi IA attualmente utilizzati dalla tua azienda
  • Confronta ciascun sistema con i requisiti normativi pertinenti
  • Identifica eventuali lacune
  • Prioritizza l’affrontare le lacune identificate in base al livello di rischio, impatto e necessità normativa

2. Stabilisci un quadro di governance dell’IA

Crea un organo di supervisione multifunzionale che riveda regolarmente il modo in cui la tua azienda sta implementando l’IA. Ciò servirà a rafforzare la conformità continua ai requisiti normativi e ai valori aziendali.

Passaggi d’azione:

  • Stabilisci un organo di governance dell’IA
  • Definisci metriche per monitorare il suo successo
  • Implementa revisioni regolari per l’implementazione dell’IA
  • Crea percorsi di escalation per nuovi rischi e casi limite

3. Sfrutta i guardrail integrati di Salesforce

Approfitta dei guardrail di Salesforce come il nostro Einstein Trust Layer e le politiche di contenimento predefinite. Assicurati che il personale pertinente sia a conoscenza e integri le nostre salvaguardie predefinite.

Passaggi d’azione:

  • Mappa i rischi identificati dal tuo registro di rischio alle salvaguardie disponibili
  • Assicurati che i team siano formati sull’uso dei guardrail integrati
  • Documenta come ogni salvaguardia affronta specifici requisiti normativi e rischi particolari

4. Costruisci la consapevolezza dell’IA in tutta l’azienda

I nostri moduli di Responsible AI Trailhead e le nostre certificazioni AI Associate e AI Specialist sono un ottimo punto di partenza. Considera di sviluppare risorse di formazione sull’IA per tutti i dipendenti.

Passaggi d’azione:

  • Sviluppa risorse di formazione di base sull’IA per tutti i dipendenti
  • Crea linee guida e percorsi di apprendimento specifici per ruolo
  • Condurre esercizi collaborativi per affrontare dilemmi complessi legati all’IA

5. Migliora la trasparenza complessiva

Comunica proattivamente le tue scoperte e pratiche ai tuoi clienti e ai tuoi dipendenti per aumentare la trasparenza e aiutare tutti a crescere insieme.

Passaggi d’azione:

  • Identifica i luoghi appropriati per condividere le divulgazioni sull’IA con i clienti
  • Sviluppa un linguaggio semplice e accessibile per le divulgazioni
  • Comunica chiaramente le aspettative dei tuoi clienti per un uso accettabile dell’IA

Ricorda, l’IA responsabile non riguarda solo il rispetto dei requisiti normativi: si tratta di allineare la tecnologia con i valori della tua organizzazione e costruire sistemi che siano sicuri, trasparenti e centrati sull’essere umano. È uno sforzo collettivo e siamo impegnati a collaborare con te nel tuo percorso verso un’IA responsabile.

Nota: Questo articolo è fornito solo a scopo informativo e non costituisce consulenza legale. Si invita a consultare un legale per familiarizzare con i requisiti che governano le situazioni specifiche.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...