L’acquisto di GenAI: l’impatto delle normative sulla conformità

Come le Regole di Conformità Cambiano il Modo in Cui le Imprese Acquistano l’IA Generativa

Negli ultimi tempi, l’acquisto di IA da parte delle imprese è passato da un approccio tecnologico a uno incentrato sulla conformità, con sanzioni che possono raggiungere i 35 milioni di euro o il 7% del fatturato annuale ai sensi dell’EU AI Act. La distribuzione eterogenea delle regole tra le diverse regioni crea una complessità continua per le aziende globali.

Regole con Scadenze Costringono a Cambiamenti Rapidi

L’AI Act è entrato in vigore il 1 agosto 2024 e sarà pienamente attivo entro il 2 agosto 2026. La violazione delle regole può costringere le aziende a ritirare i sistemi di IA dal mercato, rendendo le soluzioni non conformi non praticabili per le attività commerciali.

Gli stati membri dell’UE sono a diverse fasi di attuazione della legge, mentre le regole sull’IA a livello globale sono altamente miste. Tuttavia, l’applicazione ha già mostrato risultati significativi: la CNIL francese ha multato Google per 325 milioni di euro e Shein per 150 milioni di euro per violazioni del consenso sui cookie.

Casi di Copyright Accelerano la Domanda di Soluzioni Sicure

Accordi di copyright di alto profilo stanno cambiando il modo in cui gli acquirenti selezionano i fornitori. Ad esempio, Anthropic ha accettato un accordo proposto di 1,5 miliardi di dollari che copre circa 500.000 opere, mentre ha anche concordato di distruggere file ottenuti illegalmente.

Thomson Reuters ha ottenuto un giudizio parziale contro Ross Intelligence, con il tribunale che ha stabilito che Ross ha utilizzato in modo improprio 2.243 intestazioni di Westlaw, danneggiando il mercato di Thomson Reuters. Alcuni tribunali hanno emesso sentenze favorevoli alle aziende di IA, come nel caso di Bartz v. Anthropic, dove l’uso di libri cartacei acquistati per l’addestramento dell’IA è stato considerato “altamente trasformativo” e costituiva un uso lecito.

Gli Acquirenti Aziendali Ora Mettono la Conformità al Primo Posto

Questo panorama legale sta cambiando il comportamento d’acquisto. Fattori come la sicurezza e il costo hanno guadagnato terreno rispetto all’accuratezza e all’affidabilità complessive. Un leader ha osservato: “Per la maggior parte dei compiti, tutti i modelli ora si comportano abbastanza bene – quindi il prezzo è diventato un fattore molto più importante.”

Le aziende che utilizzano sistemi di IA dovrebbero negoziare garanzie contrattuali affinché gli sviluppatori di sistemi di IA abbiano condotto revisioni approfondite degli input di addestramento ed eliminato la dipendenza da set di dati discutibili. Le organizzazioni cercano indennità dai fornitori di IA per potenziali violazioni di proprietà intellettuale, violazioni della privacy dei dati e violazioni della riservatezza.

Le Startup di Conformità Ottengono Investimenti Enormi

Le aziende di compliance nell’IA stanno ottenendo finanziamenti importanti, a riflesso della domanda delle imprese per la riduzione del rischio. Delve ha raccolto 32 milioni di dollari con una valutazione di 300 milioni di dollari, guidata da Insight Partners, rappresentando un aumento di circa 10 volte rispetto al suo round precedente completato solo pochi mesi prima.

La società è cresciuta rapidamente per servire oltre 500 aziende attraverso dozzine di framework di conformità, aiutando i clienti a diventare conformi in pochi giorni e a chiudere affari più rapidamente. Anche Zango ha raccolto 4,8 milioni di dollari guidati da Nexus Venture Partners per la sua piattaforma di governance, rischio e conformità basata su IA.

I Primi Adottatori Ottengono Vantaggi di Mercato

La conformità pratica rimane difficile nonostante le regole. I modelli di IA possono apprendere e riprodurre informazioni sensibili dai dati di addestramento, il che può risultare in output contenenti informazioni riservate.

Le imprese stanno passando da un approccio di “costruzione” a uno di “acquisto”, con un marcato spostamento verso l’acquisto di applicazioni di terze parti nell’ultimo anno, poiché le aziende scoprono che gli strumenti sviluppati internamente sono difficili da mantenere in uno spazio così dinamico. Invece di considerare semplicemente la conformità come un fattore secondario, il passaggio verso un acquisto incentrato sul rischio sta creando intere nuove categorie di mercato dell’IA, dove la sicurezza legale di una startup può comandare un premio di valutazione di 10 volte rispetto alla pura capacità tecnologica.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...