Nouveau Conseiller Global pour une IA Responsable

A compass

Nomination de Matthew Martin en tant que Conseiller Mondial de l’Institut de l’IA Responsable

Le 10 juin 2025, l’Institut de l’IA Responsable a annoncé la nomination de Matthew Martin, fondateur et PDG de Two Candlesticks, en tant que membre de son Conseil Consultatif Mondial. Cette nomination vise à soutenir l’adoption d’une IA de confiance et évolutive à travers divers secteurs.

Un Expert en Cybersécurité au Service de l’IA

Fort de plus de 25 ans d’expérience dans le secteur de la cybersécurité, Matthew Martin a dirigé des opérations de sécurité au sein d’entreprises de services financiers figurant parmi les Fortune 100. En tant que PDG de Two Candlesticks, il offre des services de conseil en cybersécurité et des stratégies aux marchés et régions moins desservis. Son expertise sera mise à profit pour renforcer la gouvernance de l’IA, améliorer la transparence et favoriser une innovation responsable au sein des organisations.

Vision de l’IA pour le Futur

Matthew Martin a déclaré : “L’IA a le pouvoir de transformer véritablement le monde. Si cela est fait correctement, elle démocratise de nombreuses capacités qui étaient auparavant réservées aux marchés développés.” Cette vision souligne l’importance d’organisations comme l’Institut de l’IA Responsable, qui se consacre à l’avancement de l’innovation responsable dans divers marchés.

Un Réseau Global d’Experts en IA

L’Institut de l’IA Responsable dispose d’un réseau mondial d’experts en IA qui fournissent des perspectives précieuses aux praticiens, aux décideurs et aux régulateurs. Avec plus de 34 000 membres et collaborateurs, sa communauté s’étend à divers secteurs, notamment la technologie, la finance, la santé, l’académie et les agences gouvernementales.

Promouvoir l’IA Responsable

Le but de l’Institut est d’opérationnaliser l’IA responsable par le biais de l’éducation, de l’évaluation comparative, de la vérification et des évaluations des risques tiers. Manoj Saxena, président et fondateur de l’Institut, a exprimé sa satisfaction quant à la nomination de Matthew, soulignant que son engagement envers la cybersécurité pour les populations moins desservies fait de lui un ajout parfait au conseil.

Stratégies de Cybersécurité Accessibles

En plus de son rôle à l’Institut, Matthew Martin occupe des postes de conseiller au sein des conseils d’administration d’Ironscales, Trustwise, Stealth, et Surge Ventures. À travers son travail chez Two Candlesticks, il s’emploie à rendre les stratégies de cybersécurité robustes accessibles, efficaces et impactantes à travers le monde entier.

À propos de l’Institut de l’IA Responsable

Fondé en 2016, l’Institut de l’IA Responsable est une organisation à but non lucratif et axée sur les membres, dédiée à la facilitation des efforts d’IA responsable au sein des organisations. Il accélère et simplifie l’adoption de l’IA responsable en fournissant à ses membres des évaluations de conformité, des benchmarks et des certifications alignés sur les normes mondiales et les réglementations émergentes.

Les membres incluent des entreprises de premier plan telles qu’Amazon Web Services, Boston Consulting Group, et KPMG, toutes engagées à apporter une IA responsable à tous les secteurs d’activité.

Articles

L’IA Responsable : Défis et Solutions en Entreprise

Dans cet article, l'auteur discute de l'importance de l'IA responsable dans les applications d'entreprise et des défis liés à son application dans un cadre réel. Il présente également le cadre de...

Directives européennes pour l’IA : vers une régulation des risques systémiques

La Commission européenne a publié des lignes directrices pour aider les modèles d'intelligence artificielle identifiés comme présentant des risques systémiques à se conformer à la réglementation sur...

La gouvernance à l’ère de l’intelligence artificielle

L'intelligence artificielle (IA) transforme la manière dont nous travaillons et gérons les entreprises. Aux Philippines, cette évolution s'accélère, avec des investissements croissants et une...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

La Loi AI du Colorado : Un Modèle de Régulation pour l’Avenir

La récente tentative infructueuse des membres du Congrès de geler les lois sur l'intelligence artificielle au niveau des États a laissé les entreprises américaines avec un patchwork de règles sur la...

Plan d’action AI : Vers une éthique renforcée

Le ministre numérique Gobind Singh Deo a annoncé que le prochain Plan d'action sur l'IA 2026-2030 de la Malaisie renforcera les normes éthiques et les cadres de gouvernance entourant l'utilisation de...

Stratégies et Éthique : Vers une Gouvernance de l’IA Responsable

Le développement de politiques d'intelligence artificielle (IA) responsables et de stratégies globales d'IA doit se faire simultanément plutôt que séquentiellement. Cela a été partagé par un panel...

Risques systémiques des IA : directives pour se conformer aux règles européennes

La Commission européenne a élaboré des lignes directrices pour aider les modèles d'IA présentant des risques systémiques à se conformer à la réglementation de l'IA de l'Union européenne. Les...