Regolamentare l’AI: La Leadership dell’Industria è Cruciale

Colonna del guest: L’AI ha bisogno di regolamentazione, l’industria deve guidare il cambiamento

Ai miei colleghi amministratori delegati, membri del consiglio e associazioni di settore che plasmano la direzione dello sviluppo dell’AI: l’era dei framework di sicurezza vaghi è finita; deve iniziare l’era degli standard applicabili.

Le famiglie di Tumbler Ridge meritano più di una riunione a Ottawa e dichiarazioni stampa che esprimono preoccupazione. Meritano di sapere che le aziende che operano piattaforme e tecnologie AI si sono impegnate — pubblicamente e con conseguenze applicabili — a standard che impediranno che lo stesso fallimento si ripeta.

È importante chiarire che molte preoccupazioni riguardo agli impatti negativi dell’AI sono esagerate e non basate su fatti. Il valore a lungo termine che l’AI porta alla società supera di gran lunga i rischi, a condizione che tali rischi siano gestiti. Grazie al suo potere e alla sua portata, questa tecnologia porterà valore che molti non possono nemmeno immaginare in questo momento della storia umana.

Per questo motivo, è necessario fare seri sforzi per controllarla e regolamentarla — il che, per definizione, coinvolge le aziende dietro le tecnologie AI. È giusto che il governo federale chieda cambiamenti per aumentare la sicurezza per i cittadini.

Tuttavia, queste regole e regolamentazioni non dovrebbero provenire dal governo. Le aziende che progettano questi sistemi li comprendono meglio di qualsiasi regolatore. Sono le più adatte per progettare guardrail multilivello che vanno ben oltre semplici filtri senza ritardare ulteriormente il progresso tecnologico degli ultimi anni.

Questo include definire le soglie tecniche per ciò che costituisce una minaccia credibile di violenza, stabilire protocolli di escalation che siano operativamente solidi e rispettosi della privacy, e determinare i punti esatti in cui la rilevazione automatizzata deve passare a una revisione umana obbligatoria. Investendo in queste salvaguardie sistemiche, le aziende possono garantire che la sicurezza sia una caratteristica architettonica della tecnologia, non un pensiero secondario.

Inoltre, ha senso dal punto di vista commerciale. Le aziende che operano in vuoti normativi invitano il tipo di legislazione reattiva che tende a seguire le tragedie. Invitano anche esposizione alla responsabilità, danni reputazionali e erosione della fiducia pubblica, che è, in ultima analisi, la base su cui i loro prodotti dipendono.

La gestione del conto del tiratore di Tumbler Ridge ha generato esattamente il tipo di scrutinio che nessuna azienda desiderosa di espandere la propria presenza può permettersi.

Inoltre, crea conseguenze negative per l’intero settore e, controintuitivamente, per la sicurezza della società stessa. Quando reagiamo a una crisi con una legislazione grossolana e performativa, spesso diamo priorità all’azione rispetto alla risoluzione dei problemi. Decisioni affrettate che ignorano le sfumature tecniche non solo soffocano il nostro settore più trasformativo; creano una falsa sensazione di sicurezza lasciando aperti i veri e complessi vuoti normativi.

Un serio codice di condotta progettato dall’industria per la sicurezza dell’AI — che porti a risultati reali piuttosto che servire come documento di pubbliche relazioni — dovrebbe affrontare diverse questioni fondamentali.

Deve fornire standard a livello industriale per rimuovere ambiguità e definire chiaramente guardrail multilivello per evitare una delle rivelazioni più preoccupanti da Tumbler Ridge: la decisione di non contattare la polizia, presa contro il giudizio dei dipendenti che ritenevano fosse necessario.

Inoltre, strutture di reporting chiare e rigorose e una vera responsabilità sono essenziali. In pratica, questo significa che se un sistema automatizzato segnala contenuti, gli esseri umani devono intervenire e rivedere i contenuti rilevati secondo criteri coerenti. Violare questo dovrebbe portare a indagini serie che conducano a esiti trasparenti e significativi.

Infine, qualsiasi framework del genere deve essere stabilito in coordinamento genuino oltre confine. Internet non riconosce confini nazionali. Un framework solo canadese sarà incompleto finché le principali piattaforme AI sono con sede e governate altrove. Questo potrebbe essere il passo più difficile, ma il Canada ha ripetutamente segnalato la sua volontà di guidare.

Perseguire tali cambiamenti significativi e requisiti di sicurezza richiede un livello di cooperazione che, storicamente, solo eventi tristi e bui possono ispirare. Rispondiamo a questa tragedia con la giusta velocità — ma anche serietà e onestà intellettuale.

La questione non è se le aziende AI siano sole responsabili di ciò che è accaduto a Tumbler Ridge. Non lo sono. La questione è se l’industria abbia standard adeguati, vincolanti e applicati in modo coerente per cosa fare quando emergono prove credibili di violenza pianificata. Non li ha.

Il settore privato ha qui un’opportunità che sarebbe imprudente sprecare: dimostrare che innovazione tecnologica e sicurezza pubblica non sono valori in competizione e che l’industria è in grado di autogovernarsi con la serietà che questo momento richiede. Se l’industria non coglie quest’opportunità, i governi agiranno — e lo faranno in un modo e in un arco temporale su cui il settore tecnologico avrà molta meno influenza e che limiterebbe i cittadini dal beneficiare del valore portato da questa tecnologia trasformativa.

Guidare ora o essere guidati. La scelta spetta a noi.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...