Nouveau Conseiller Global pour une IA Responsable

A compass

Nomination de Matthew Martin en tant que Conseiller Mondial de l’Institut de l’IA Responsable

Le 10 juin 2025, l’Institut de l’IA Responsable a annoncé la nomination de Matthew Martin, fondateur et PDG de Two Candlesticks, en tant que membre de son Conseil Consultatif Mondial. Cette nomination vise à soutenir l’adoption d’une IA de confiance et évolutive à travers divers secteurs.

Un Expert en Cybersécurité au Service de l’IA

Fort de plus de 25 ans d’expérience dans le secteur de la cybersécurité, Matthew Martin a dirigé des opérations de sécurité au sein d’entreprises de services financiers figurant parmi les Fortune 100. En tant que PDG de Two Candlesticks, il offre des services de conseil en cybersécurité et des stratégies aux marchés et régions moins desservis. Son expertise sera mise à profit pour renforcer la gouvernance de l’IA, améliorer la transparence et favoriser une innovation responsable au sein des organisations.

Vision de l’IA pour le Futur

Matthew Martin a déclaré : “L’IA a le pouvoir de transformer véritablement le monde. Si cela est fait correctement, elle démocratise de nombreuses capacités qui étaient auparavant réservées aux marchés développés.” Cette vision souligne l’importance d’organisations comme l’Institut de l’IA Responsable, qui se consacre à l’avancement de l’innovation responsable dans divers marchés.

Un Réseau Global d’Experts en IA

L’Institut de l’IA Responsable dispose d’un réseau mondial d’experts en IA qui fournissent des perspectives précieuses aux praticiens, aux décideurs et aux régulateurs. Avec plus de 34 000 membres et collaborateurs, sa communauté s’étend à divers secteurs, notamment la technologie, la finance, la santé, l’académie et les agences gouvernementales.

Promouvoir l’IA Responsable

Le but de l’Institut est d’opérationnaliser l’IA responsable par le biais de l’éducation, de l’évaluation comparative, de la vérification et des évaluations des risques tiers. Manoj Saxena, président et fondateur de l’Institut, a exprimé sa satisfaction quant à la nomination de Matthew, soulignant que son engagement envers la cybersécurité pour les populations moins desservies fait de lui un ajout parfait au conseil.

Stratégies de Cybersécurité Accessibles

En plus de son rôle à l’Institut, Matthew Martin occupe des postes de conseiller au sein des conseils d’administration d’Ironscales, Trustwise, Stealth, et Surge Ventures. À travers son travail chez Two Candlesticks, il s’emploie à rendre les stratégies de cybersécurité robustes accessibles, efficaces et impactantes à travers le monde entier.

À propos de l’Institut de l’IA Responsable

Fondé en 2016, l’Institut de l’IA Responsable est une organisation à but non lucratif et axée sur les membres, dédiée à la facilitation des efforts d’IA responsable au sein des organisations. Il accélère et simplifie l’adoption de l’IA responsable en fournissant à ses membres des évaluations de conformité, des benchmarks et des certifications alignés sur les normes mondiales et les réglementations émergentes.

Les membres incluent des entreprises de premier plan telles qu’Amazon Web Services, Boston Consulting Group, et KPMG, toutes engagées à apporter une IA responsable à tous les secteurs d’activité.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...