Come Gestire “L’Adolescenza della Tecnologia” Come Adulti
Negli Stati Uniti, mentre si discute su come procedere con la governance dell’intelligenza artificiale (AI), il CEO di un importante laboratorio di AI ha pubblicato un saggio approfondito sui principali rischi derivanti dai progressi dell’AI.
Il saggio sottolinea alcuni principi chiave per proteggersi dai peggiori esiti dell’AI. L’applicazione di questi principi a livello statale e federale potrebbe portare a un approccio più ragionato e basato su prove nella governance dell’AI. Di seguito, si valuta l’approccio del CEO e si considera come potrebbe essere ulteriormente rafforzato.
Chi è il CEO?
Il CEO è una figura di spicco nel panorama dell’AI, con oltre un decennio di esperienza in posizioni di alto livello presso aziende leader. Le sue opinioni sulle politiche relative all’AI hanno un peso significativo.
È stato particolarmente vocale riguardo ai rischi posti dall’AI e ha lasciato una precedente posizione in quanto temeva che il laboratorio non prendesse sul serio i rischi dell’AI. La sua azienda si propone di sviluppare tecnologie AI in modo responsabile, riconoscendo sia i benefici sia i rischi.
Principi Guida per la Politica dell’AI
Il CEO articola diversi principi generali che dovrebbero guidare la politica dell’AI:
- Approccio Basato su Prove
I rischi dell’AI dovrebbero essere discussi in modo “realistico e pragmatico”. Questo approccio deve essere sobrio e basato su fatti, evitando celebrazioni infondate delle potenzialità dell’AI.
- Umiltà e Riconoscimento dell’Incertezza
È importante riconoscere l’incertezza legata all’AI. Non possiamo prevedere il futuro con certezza, ma possiamo pianificare nel miglior modo possibile.
- Supporto all’Innovazione
Le normative dovrebbero ridurre gli ostacoli per le piccole aziende AI, evitando di gravarle eccessivamente.
- Interventi Surgicali e Disciplinedi
Le azioni governative dovrebbero essere mirate e limitate a situazioni di fallimento del mercato, per non ostacolare l’innovazione.
- Evita il “Doomerism”
È fondamentale evitare un approccio catastrofista nei confronti dell’AI. È importante considerare che l’adozione dell’AI avverrà probabilmente su una scala temporale più lenta rispetto a quanto molti prevedono.
Conclusione
Se i soggetti coinvolti nella politica dell’AI devono gestire l’adolescenza dell’AI come adulti, devono evitare di trattare tutte le tecnologie AI come una fonte di catastrofi imminenti. L’approccio basato su prove è essenziale per contrastare le politiche basate su emozioni eccessive.
È fondamentale garantire che la governance dell’AI non soffochi l’innovazione necessaria per affrontare le sfide sociali più urgenti. Un contesto normativo che favorisca l’innovazione e la trasparenza sarà cruciale per garantire un futuro positivo per l’AI.