Nouveau Conseiller Global pour une IA Responsable

A compass

Nomination de Matthew Martin en tant que Conseiller Mondial de l’Institut de l’IA Responsable

Le 10 juin 2025, l’Institut de l’IA Responsable a annoncé la nomination de Matthew Martin, fondateur et PDG de Two Candlesticks, en tant que membre de son Conseil Consultatif Mondial. Cette nomination vise à soutenir l’adoption d’une IA de confiance et évolutive à travers divers secteurs.

Un Expert en Cybersécurité au Service de l’IA

Fort de plus de 25 ans d’expérience dans le secteur de la cybersécurité, Matthew Martin a dirigé des opérations de sécurité au sein d’entreprises de services financiers figurant parmi les Fortune 100. En tant que PDG de Two Candlesticks, il offre des services de conseil en cybersécurité et des stratégies aux marchés et régions moins desservis. Son expertise sera mise à profit pour renforcer la gouvernance de l’IA, améliorer la transparence et favoriser une innovation responsable au sein des organisations.

Vision de l’IA pour le Futur

Matthew Martin a déclaré : “L’IA a le pouvoir de transformer véritablement le monde. Si cela est fait correctement, elle démocratise de nombreuses capacités qui étaient auparavant réservées aux marchés développés.” Cette vision souligne l’importance d’organisations comme l’Institut de l’IA Responsable, qui se consacre à l’avancement de l’innovation responsable dans divers marchés.

Un Réseau Global d’Experts en IA

L’Institut de l’IA Responsable dispose d’un réseau mondial d’experts en IA qui fournissent des perspectives précieuses aux praticiens, aux décideurs et aux régulateurs. Avec plus de 34 000 membres et collaborateurs, sa communauté s’étend à divers secteurs, notamment la technologie, la finance, la santé, l’académie et les agences gouvernementales.

Promouvoir l’IA Responsable

Le but de l’Institut est d’opérationnaliser l’IA responsable par le biais de l’éducation, de l’évaluation comparative, de la vérification et des évaluations des risques tiers. Manoj Saxena, président et fondateur de l’Institut, a exprimé sa satisfaction quant à la nomination de Matthew, soulignant que son engagement envers la cybersécurité pour les populations moins desservies fait de lui un ajout parfait au conseil.

Stratégies de Cybersécurité Accessibles

En plus de son rôle à l’Institut, Matthew Martin occupe des postes de conseiller au sein des conseils d’administration d’Ironscales, Trustwise, Stealth, et Surge Ventures. À travers son travail chez Two Candlesticks, il s’emploie à rendre les stratégies de cybersécurité robustes accessibles, efficaces et impactantes à travers le monde entier.

À propos de l’Institut de l’IA Responsable

Fondé en 2016, l’Institut de l’IA Responsable est une organisation à but non lucratif et axée sur les membres, dédiée à la facilitation des efforts d’IA responsable au sein des organisations. Il accélère et simplifie l’adoption de l’IA responsable en fournissant à ses membres des évaluations de conformité, des benchmarks et des certifications alignés sur les normes mondiales et les réglementations émergentes.

Les membres incluent des entreprises de premier plan telles qu’Amazon Web Services, Boston Consulting Group, et KPMG, toutes engagées à apporter une IA responsable à tous les secteurs d’activité.

Articles

Comprendre les risques de l’IA : le cadre du règlement européen sur l’IA

Le règlement sur l'IA de l'UE transforme la gestion des risques liés à l'IA super en renforçant la surveillance humaine et la cybersécurité pour prévenir les menaces existentielles. Ce cadre basé sur...

Nouveau tournant pour l’IA en Europe : ce que signifie l’Acte sur l’IA de l’UE

L'Acte sur l'IA de l'UE a marqué un tournant important le 2 août 2025, rendant les modèles d'IA à usage général soumis à des exigences réglementaires spécifiques. Cela crée des opportunités pour les...

L’Union européenne face aux défis du copyright à l’ère de l’IA

L'Union européenne se trouve toujours dans un dilemme concernant les droits d'auteur liés à l'IA, alors que des ajustements aux exigences de droit d'auteur dans le Code de pratique de la loi sur l'IA...

Conformité et opportunités avec la nouvelle législation sur l’IA en Europe

La Loi sur l'IA de l'UE est désormais en vigueur, et le compte à rebours pour la conformité a commencé. Les entreprises de Medtech opérant dans l'UE doivent agir rapidement pour se préparer aux...

Nouvelles règles d’étiquetage de l’IA en Chine : ce que les entreprises doivent savoir

La Chine renforce ses règles sur le marquage de contenu généré par l'IA, exigeant que chaque contenu soit clairement identifié sur les plateformes chinoises. Les entreprises doivent se conformer à ces...

Construire une IA conforme et sécurisée face aux menaces émergentes

Sam Peters, le directeur des produits chez ISMS.online, explique comment les marques peuvent construire des modèles d'IA sécurisés, éthiques et conformes dans le paysage évolutif des menaces...

L’impact de l’IA sur le recrutement en Bulgarie et dans l’UE

L'intelligence artificielle transforme de plus en plus les pratiques de recrutement, en offrant une approche efficace et basée sur les données pour trouver des talents. Cependant, son utilisation...

Réglementation mondiale de l’IA : l’EU AI Act en première ligne

Découvrez comment le cadre basé sur le risque de la loi sur l'IA de l'UE ouvre la voie à la réglementation mondiale de l'IA super, protégeant les droits et réduisant les menaces existentielles grâce à...

Classifiez rapidement votre système d’IA selon la loi européenne sur l’IA

L'Acte sur l'IA de l'UE va transformer la manière dont l'IA est construite, évaluée et déployée en Europe. Pour aider les équipes à classer rapidement leur système d'IA, Genbounty a créé un outil...