Intelligenza Artificiale Responsabile per le ONG Canadesi

Un programma sostenuto dal governo per aiutare le ONG canadesi ad adottare l’IA responsabile

Il governo federale del Canada, attraverso il DIGITAL Global Innovation Cluster, in collaborazione con il think tank The Dais della Toronto Metropolitan University e due organizzazioni non profit, ha lanciato un’iniziativa nazionale per promuovere l’uso etico dell’intelligenza artificiale (IA) da parte delle ONG.

Il programma RAISE

Il programma Responsible AI Adoption for Social Impact (RAISE) mira a sviluppare un framework per la governance dell’IA con l’assistenza della Human Feedback Foundation. Sarà focalizzato su diversità, equità e inclusione (DEI), oltre che su etica e “risultati misurabili”.

André Côté, direttore esecutivo ad interim di The Dais, ha dichiarato: “Fornire ai lavoratori delle ONG le conoscenze e le competenze per utilizzare l’IA in modo responsabile è essenziale per garantire che queste potenti tecnologie amplifichino l’impatto collettivo del settore per il Canada.”

Formazione e integrazione dell’IA

Il programma prevede che The Dais fornisca formazione sull’IA a 500 membri dello staff delle ONG in aree come gestione dei dati, politiche e erogazione dei servizi. Inoltre, un “Acceleratore per l’adozione dell’IA” della Creative Destruction Lab supporterà cinque importanti ONG (tra cui il CAMH Foundation, la Canadian Cancer Society, CanadaHelps, Achēv e Furniture Bank) nell’integrazione dell’IA in linea con i loro obiettivi.

Investimenti e sostegno

Il cluster DIGITAL ha recentemente annunciato un finanziamento di 15 milioni di dollari per sostenere 16 progetti di formazione e tecnologia nel settore dell’IA in Canada, incluso RAISE. Il cluster ha dichiarato che co-investirà un totale di 650.000 dollari in RAISE, compresi 270.000 dollari per la Creative Destruction Lab, 250.000 dollari per la Toronto Metropolitan University e 130.000 dollari per la Human Feedback Foundation. Questi partner investiranno anche 650.000 dollari dei loro fondi propri nell’iniziativa.

La necessità di adottare l’IA

DIGITAL ha evidenziato un “gap significativo” nell’adozione dell’IA da parte del settore non profit. Un rapporto del Canadian Centre for Nonprofit Digital Resilience (CCNDR) del 2024 ha indicato che solo il 4,8% delle ONG canadesi utilizzava l’IA, e meno dell’1% dei loro lavoratori era coinvolto in ruoli legati alla tecnologia. Questo limita la loro capacità di utilizzare l’IA per “soddisfare i bisogni della comunità,” hanno affermato i membri di RAISE in un comunicato.

In aggiunta, è stata recentemente lanciata una programma di AI Safety Catalyst Grant da parte del Canadian Institute for Advanced Research (CIFAR) e del Canadian AI Safety Institute, che ha fornito finanziamenti a dieci progetti di ricerca sulla sicurezza dell’IA. Questi progetti affrontano questioni come la disinformazione, la fiducia nei modelli di linguaggio di grandi dimensioni (LLMs) e i pericoli nel mondo reale.

Nonostante i precedenti tentativi di sostenere l’adozione della tecnologia nelle ONG canadesi, come l’iniziativa della startup Hopeful per aiutare le ONG a utilizzare i loro dati interni in modo più efficace, alcune organizzazioni hanno anche dovuto affrontare battaglie legali relative al copyright, poiché la loro proprietà intellettuale è stata utilizzata per addestrare i sistemi di IA.

More Insights

Microsoft e Meta: scelte opposte sul codice etico dell’IA

Microsoft è probabile che firmi il codice di condotta dell'Unione Europea per garantire la conformità con le normative sull'intelligenza artificiale, mentre Meta ha annunciato che non firmerà il...

Legge sull’IA in Colorado: un nuovo standard per il futuro

La recente spinta fallita da parte dei membri del Congresso per congelare le leggi sull'intelligenza artificiale a livello statale ha lasciato le aziende statunitensi con operazioni nazionali di...

Piano d’Azione per l’AI: Verso Etica e Innovazione

Il prossimo Piano d'azione sulla tecnologia AI 2026–2030 della Malesia rafforzerà le salvaguardie etiche e i quadri di governance riguardanti l'uso dell'intelligenza artificiale. Il Ministro Digitale...

Strategie e Politiche AI: Un Futuro Condiviso

Lo sviluppo di politiche e strategie responsabili per l'intelligenza artificiale (AI) deve avvenire simultaneamente piuttosto che in modo sequenziale. Questo è stato condiviso da un relatore durante...

Rischi sistemici dell’IA: Linee guida per la conformità alle normative europee

La Commissione Europea ha presentato linee guida per aiutare i modelli di intelligenza artificiale che presentano rischi sistemici a conformarsi alla regolamentazione dell'Unione Europea...

Kerala: Pioniere dell’AI Etica nell’Istruzione

Il Kerala sta emergendo come un leader globale nell'intelligenza artificiale etica e nell'istruzione, adottando un approccio che combina visione governativa, innovazione e impegno per l'equità...

Stati e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Le leggi sull'intelligenza artificiale negli Stati Uniti stanno rapidamente aumentando, poiché gli stati, come California e Colorado, stanno implementando norme per affrontare questioni come la...

Intelligenza Artificiale e Compliance: Rischi e Opportunità

L'IA nella compliance è qui e si integra nelle operazioni quotidiane di molte organizzazioni, migliorando le capacità di rilevamento e automatizzando compiti intensivi in termini di risorse. Tuttavia...

Censura alimentata dall’IA: la nuova era della regolamentazione in Europa

Le nuove norme "di sicurezza e protezione" dell'UE richiederanno alle aziende tecnologiche di censurare e moderare i contenuti sui modelli di intelligenza artificiale (IA) a uso generale per prevenire...