OpenAI e il Problema della Governance
OpenAI si trova ad affrontare una crisi di governance che compromette la sua capacità di operare in modo trasparente ed etico. Recentemente, l’azienda ha dovuto annullare un aggiornamento previsto per trasformarsi in un’entità a scopo di lucro, optando invece per una corporazione a beneficio pubblico sotto il controllo di un consiglio no-profit.
Le Responsabilità di OpenAI
OpenAI è stata fondata nel 2015 come un laboratorio di ricerca no-profit con l’obiettivo di sviluppare una intelligenza artificiale generale (AGI) per il bene dell’umanità. Tuttavia, la missione dell’azienda ha iniziato a confondersi, specialmente dopo la creazione di una sussidiaria a scopo di lucro nel 2019, necessaria per finanziare costosi progetti di ricerca.
Le Sfide della Trasparenza
Il CEO Sam Altman ha espresso l’ambizione di costruire un “cervello per il mondo“, ma il modello di business di OpenAI è ancora in fase di definizione. Nel 2022, l’azienda ha speso 9 miliardi di dollari e ha registrato una perdita di 5 miliardi, suscitando interrogativi sulla sua valutazione di mercato, che ammonta a 260 miliardi di dollari.
La Questione dell’AGI
Il termine AGI ha visto una continua evoluzione, inizialmente riferendosi al superamento delle capacità umane in vari compiti cognitivi. Altman ha riconosciuto che il termine è stato “quasi completamente svalutato”, proponendo una definizione più ristretta come agente di codifica autonomo.
Rischi Associati all’Intelligenza Artificiale
Un recente studio di Google DeepMind ha identificato quattro principali rischi associati ai modelli di intelligenza artificiale sempre più autonomi: l’abuso da parte di attori malintenzionati, la disallineamento degli obiettivi, errori che causano danni involontari e rischi multi-agente. Queste sfide richiedono soluzioni collaborative e un approccio cauto nello sviluppo e nella distribuzione di modelli AI potentemente avanzati.
Conclusione
La governance delle aziende che si occupano di AI non è solo una questione per i consigli aziendali e gli investitori, ma riguarda tutti noi. OpenAI deve affrontare gravi deficienze in questo ambito, e la questione della sycophancy sarà solo uno dei tanti problemi man mano che ci avviciniamo a un’AGI, indipendentemente dalla definizione adottata.