Colonna del guest: L’AI ha bisogno di regolamentazione, l’industria deve guidare il cambiamento
Ai miei colleghi amministratori delegati, membri del consiglio e associazioni di settore che plasmano la direzione dello sviluppo dell’AI: l’era dei framework di sicurezza vaghi è finita; deve iniziare l’era degli standard applicabili.
Le famiglie di Tumbler Ridge meritano più di una riunione a Ottawa e dichiarazioni stampa che esprimono preoccupazione. Meritano di sapere che le aziende che operano piattaforme e tecnologie AI si sono impegnate — pubblicamente e con conseguenze applicabili — a standard che impediranno che lo stesso fallimento si ripeta.
È importante chiarire che molte preoccupazioni riguardo agli impatti negativi dell’AI sono esagerate e non basate su fatti. Il valore a lungo termine che l’AI porta alla società supera di gran lunga i rischi, a condizione che tali rischi siano gestiti. Grazie al suo potere e alla sua portata, questa tecnologia porterà valore che molti non possono nemmeno immaginare in questo momento della storia umana.
Per questo motivo, è necessario fare seri sforzi per controllarla e regolamentarla — il che, per definizione, coinvolge le aziende dietro le tecnologie AI. È giusto che il governo federale chieda cambiamenti per aumentare la sicurezza per i cittadini.
Tuttavia, queste regole e regolamentazioni non dovrebbero provenire dal governo. Le aziende che progettano questi sistemi li comprendono meglio di qualsiasi regolatore. Sono le più adatte per progettare guardrail multilivello che vanno ben oltre semplici filtri senza ritardare ulteriormente il progresso tecnologico degli ultimi anni.
Questo include definire le soglie tecniche per ciò che costituisce una minaccia credibile di violenza, stabilire protocolli di escalation che siano operativamente solidi e rispettosi della privacy, e determinare i punti esatti in cui la rilevazione automatizzata deve passare a una revisione umana obbligatoria. Investendo in queste salvaguardie sistemiche, le aziende possono garantire che la sicurezza sia una caratteristica architettonica della tecnologia, non un pensiero secondario.
Inoltre, ha senso dal punto di vista commerciale. Le aziende che operano in vuoti normativi invitano il tipo di legislazione reattiva che tende a seguire le tragedie. Invitano anche esposizione alla responsabilità, danni reputazionali e erosione della fiducia pubblica, che è, in ultima analisi, la base su cui i loro prodotti dipendono.
La gestione del conto del tiratore di Tumbler Ridge ha generato esattamente il tipo di scrutinio che nessuna azienda desiderosa di espandere la propria presenza può permettersi.
Inoltre, crea conseguenze negative per l’intero settore e, controintuitivamente, per la sicurezza della società stessa. Quando reagiamo a una crisi con una legislazione grossolana e performativa, spesso diamo priorità all’azione rispetto alla risoluzione dei problemi. Decisioni affrettate che ignorano le sfumature tecniche non solo soffocano il nostro settore più trasformativo; creano una falsa sensazione di sicurezza lasciando aperti i veri e complessi vuoti normativi.
Un serio codice di condotta progettato dall’industria per la sicurezza dell’AI — che porti a risultati reali piuttosto che servire come documento di pubbliche relazioni — dovrebbe affrontare diverse questioni fondamentali.
Deve fornire standard a livello industriale per rimuovere ambiguità e definire chiaramente guardrail multilivello per evitare una delle rivelazioni più preoccupanti da Tumbler Ridge: la decisione di non contattare la polizia, presa contro il giudizio dei dipendenti che ritenevano fosse necessario.
Inoltre, strutture di reporting chiare e rigorose e una vera responsabilità sono essenziali. In pratica, questo significa che se un sistema automatizzato segnala contenuti, gli esseri umani devono intervenire e rivedere i contenuti rilevati secondo criteri coerenti. Violare questo dovrebbe portare a indagini serie che conducano a esiti trasparenti e significativi.
Infine, qualsiasi framework del genere deve essere stabilito in coordinamento genuino oltre confine. Internet non riconosce confini nazionali. Un framework solo canadese sarà incompleto finché le principali piattaforme AI sono con sede e governate altrove. Questo potrebbe essere il passo più difficile, ma il Canada ha ripetutamente segnalato la sua volontà di guidare.
Perseguire tali cambiamenti significativi e requisiti di sicurezza richiede un livello di cooperazione che, storicamente, solo eventi tristi e bui possono ispirare. Rispondiamo a questa tragedia con la giusta velocità — ma anche serietà e onestà intellettuale.
La questione non è se le aziende AI siano sole responsabili di ciò che è accaduto a Tumbler Ridge. Non lo sono. La questione è se l’industria abbia standard adeguati, vincolanti e applicati in modo coerente per cosa fare quando emergono prove credibili di violenza pianificata. Non li ha.
Il settore privato ha qui un’opportunità che sarebbe imprudente sprecare: dimostrare che innovazione tecnologica e sicurezza pubblica non sono valori in competizione e che l’industria è in grado di autogovernarsi con la serietà che questo momento richiede. Se l’industria non coglie quest’opportunità, i governi agiranno — e lo faranno in un modo e in un arco temporale su cui il settore tecnologico avrà molta meno influenza e che limiterebbe i cittadini dal beneficiare del valore portato da questa tecnologia trasformativa.
Guidare ora o essere guidati. La scelta spetta a noi.