Qui finance la réglementation et la sécurité de l’IA ?
La relation entre la philanthropie et l’IA est complexe, et ce, pour de bonnes raisons. D’une part, l’IA a permis d’importants progrès dans des domaines tels que la science et la médecine, comme en témoigne le développement des vaccins contre la COVID-19. Les bailleurs de fonds philanthropiques soutiennent la recherche et le développement axés sur l’IA dans ces secteurs.
D’autre part, le secteur civique ne peut ignorer les nuisances que l’IA peut causer. Des dilemmes juridiques et éthiques entourent la manière dont les modèles de langage sont formés, et il y a des conséquences significatives liées à l’utilisation largement non régulée de l’IA, notamment l’IA générative. Récemment, une entreprise d’IA a été critiquée pour l’utilisation de son chatbot dans la génération d’images explicites.
Initiatives philanthropiques pour la sécurité et la réglementation de l’IA
Bien que le débat sociétal autour de l’IA soit relativement nouveau, certains bailleurs de fonds soutiennent la sécurité et la réglementation de l’IA, allant de la recherche sur les risques potentiels à l’appui des groupes de plaidoyer pour une législation régulatrice. Cependant, le financement pour la sécurité de l’IA est largement inférieur aux sommes dépensées par les entreprises technologiques.
Parmi les initiatives notables, on trouve :
Humanity AI
Un consortium de bailleurs de fonds philanthropiques a lancé Humanity AI, une initiative de cinq ans visant à garantir que la société puisse façonner l’avenir de l’IA. Les premiers bailleurs incluent plusieurs fondations reconnues.
Humanity AI vise à élargir le groupe de personnes qui décident de la conception, du développement et de la gouvernance de l’IA, tout en soutenant les biens publics qui mettent l’accès et le contrôle de l’IA entre les mains des citoyens.
Omidyar Network
Omidyar Network soutient des groupes plaidant pour des étiquettes d’avertissement sur les réseaux sociaux et aborde comment l’IA peut affecter les enfants et les adolescents. Il milite également pour des protections de la vie privée des consommateurs.
Schmidt Sciences
Schmidt Sciences se concentre sur le développement des sciences fondamentales de la sécurité de l’IA. L’organisation a lancé un programme de 10 millions de dollars pour développer des méthodes techniques visant à atténuer les risques associés aux modèles de langage.
Patrick J. McGovern Foundation
Cette fondation est impliquée dans plusieurs domaines, notamment la santé numérique et l’impact social positif de l’IA. Elle a accordé des subventions pour aider à comprendre l’impact de l’IA et atténuer ses dommages.
Coefficient Giving
Fondée par des philanthropes, cette organisation soutient le travail autour de la sécurité de l’IA, notamment la recherche visant à rendre les systèmes d’IA plus fiables et contrôlables.
Current AI
Current AI est une collaboration internationale visant à assurer que la technologie serve le bien commun. Ses priorités incluent l’audit et la responsabilité, ainsi que l’infrastructure de sécurité.
AI Safety Fund
Ce fonds a été lancé pour soutenir la recherche sur le développement responsable des modèles d’IA, en minimisant les risques pour la sécurité publique.
Jaan Tallinn
Un investisseur et programmeur, Tallinn soutient des développeurs d’IA tout en plaidant pour la sécurité de l’IA. Il a cofondé plusieurs initiatives visant à étudier les menaces technologiques.
Heising-Simons Foundation
Cette fondation cherche à aborder l’impact de la technologie sur la société, y compris les technologies de surveillance alimentées par l’IA et leurs effets sur la vie privée.
Conclusion
Le financement de la sécurité et de la réglementation de l’IA est un défi majeur face à l’énorme somme d’argent consacrée par les entreprises technologiques. Cependant, plusieurs initiatives philanthropiques montrent une volonté croissante d’aborder les défis présentés par l’IA tout en promouvant un développement responsable et éthique de cette technologie.