Un programme pour propulser l’IA responsable dans les ONG canadiennes

A light bulb symbolizing innovative ideas and solutions

Un programme soutenu par le gouvernement vise à aider les ONG canadiennes à adopter une IA responsable

Le programme RAISE espère faire du Canada un leader en matière d’IA pour les œuvres de charité et les causes à impact social.

Le gouvernement fédéral, le Digital Global Innovation Cluster, le think tank de l’Université métropolitaine de Toronto et deux organisations à but non lucratif, à savoir le Creative Destruction Lab et la Human Feedback Foundation, ont lancé une initiative nationale pour promouvoir l’utilisation éthique de l’intelligence artificielle (IA) par les ONG.

Le programme RAISE

Le programme Responsible AI Adoption for Social Impact (RAISE) développera un cadre pour la gouvernance de l’IA avec l’aide de la Human Feedback Foundation. Il se concentrera sur la diversité, l’équité, et l’inclusion (DEI), ainsi que sur l’éthique et les résultats mesurables, selon un communiqué.

“Équiper les travailleurs des ONG avec les connaissances et les compétences nécessaires pour utiliser l’IA de manière responsable est essentiel pour garantir que ces technologies puissantes amplifient l’impact collectif du secteur pour le Canada,” a déclaré André Côté de The Dais.

Formation et intégration de l’IA

The Dais proposera une formation en IA pour 500 employés d’ONG dans des domaines tels que la gestion des données, la politique, et la prestation de services. Un “Accélérateur d’adoption de l’IA” d’un an du Creative Destruction Lab aidera cinq ONG majeures (la CAMH Foundation, la Canadian Cancer Society, CanadaHelps, Achēv, et Furniture Bank) à intégrer l’IA en accord avec leurs objectifs.

“Nous croyons que l’équipement des travailleurs des ONG avec les connaissances nécessaires pour utiliser l’IA de manière responsable est essentiel pour garantir que ces technologies puissantes amplifient l’impact collectif du secteur pour le Canada, tout en restant fidèles aux principes d’équité, de transparence et de bien social qui guident notre travail,” a ajouté André Côté.

Impact et financement

Cette annonce survient un jour après que le DIGITAL ait annoncé un financement de 15 millions de dollars pour soutenir 16 projets canadiens de formation et de technologie de carrière basés sur l’IA, y compris RAISE. Le cluster a déclaré qu’il co-investira un total de 650 000 $ dans RAISE, dont 270 000 $ pour le Creative Destruction Lab, 250 000 $ pour l’Université métropolitaine de Toronto, et 130 000 $ pour la Human Feedback Foundation.

Ces partenaires investissent également un total de 650 000 $ de leur propre fonds dans cette initiative.

Un besoin urgent d’adoption de l’IA dans le secteur non lucratif

DIGITAL a affirmé qu’il existait un écart “significatif” dans l’adoption de l’IA par le secteur non lucratif. Un rapport de 2024 du Canadian Centre for Nonprofit Digital Resilience (CCNDR) a indiqué que seulement 4,8 % des ONG canadiennes utilisaient l’IA et que moins de 1 % de leurs travailleurs occupaient des rôles liés à la technologie. Cela limite leur capacité à utiliser l’IA pour répondre aux besoins des communautés, ont affirmé les membres de RAISE dans un communiqué.

Ces efforts font suite à des initiatives précédentes visant à soutenir l’adoption de la technologie par des ONG canadiennes, telles que celles de la startup Hopeful, qui aide les ONG à mieux utiliser leurs données internes.

Toutefois, certaines ONG, comme des médias indépendants, se retrouvent également impliquées dans des batailles de copyright, alors que leur propriété intellectuelle a été utilisée pour entraîner des systèmes d’IA.

Articles

L’IA Responsable : Défis et Solutions en Entreprise

Dans cet article, l'auteur discute de l'importance de l'IA responsable dans les applications d'entreprise et des défis liés à son application dans un cadre réel. Il présente également le cadre de...

Directives européennes pour l’IA : vers une régulation des risques systémiques

La Commission européenne a publié des lignes directrices pour aider les modèles d'intelligence artificielle identifiés comme présentant des risques systémiques à se conformer à la réglementation sur...

La gouvernance à l’ère de l’intelligence artificielle

L'intelligence artificielle (IA) transforme la manière dont nous travaillons et gérons les entreprises. Aux Philippines, cette évolution s'accélère, avec des investissements croissants et une...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

La Loi AI du Colorado : Un Modèle de Régulation pour l’Avenir

La récente tentative infructueuse des membres du Congrès de geler les lois sur l'intelligence artificielle au niveau des États a laissé les entreprises américaines avec un patchwork de règles sur la...

Plan d’action AI : Vers une éthique renforcée

Le ministre numérique Gobind Singh Deo a annoncé que le prochain Plan d'action sur l'IA 2026-2030 de la Malaisie renforcera les normes éthiques et les cadres de gouvernance entourant l'utilisation de...

Stratégies et Éthique : Vers une Gouvernance de l’IA Responsable

Le développement de politiques d'intelligence artificielle (IA) responsables et de stratégies globales d'IA doit se faire simultanément plutôt que séquentiellement. Cela a été partagé par un panel...

Risques systémiques des IA : directives pour se conformer aux règles européennes

La Commission européenne a élaboré des lignes directrices pour aider les modèles d'IA présentant des risques systémiques à se conformer à la réglementation de l'IA de l'Union européenne. Les...