CrowdStrike obtient la certification ISO 42001 pour une cybersécurité éthique alimentée par l’IA

A digital hourglass filled with binary code and glowing with a pulsating blue light, symbolizing the continuous flow and protection of data in real-time.

CrowdStrike obtient la certification ISO 42001 pour une cybersécurité responsable alimentée par l’IA

CrowdStrike a annoncé avoir obtenu la certification ISO/IEC 42001:2023, validant son approche disciplinée et auditée extérieurement pour la conception, le développement et l’exploitation responsables de la cybersécurité alimentée par l’IA. Cette certification couvre les capacités essentielles de la plateforme CrowdStrike Falcon®, y compris la sécurité des points de terminaison, Falcon® Insight XDR et Charlotte AI.

Cadre de référence mondial pour l’IA responsable

La norme ISO 42001 fournit aux organisations un cadre reconnu mondialement alors qu’elles naviguent dans les normes émergentes de l’IA et les attentes réglementaires. Elle renforce la confiance dans la gouvernance responsable de l’IA de CrowdStrike et accélère son leadership dans l’ère de l’IA, offrant la vitesse, la précision et le contrôle nécessaires pour faire face aux menaces accélérées par l’IA en toute sécurité et à grande échelle.

Pour un fournisseur de cybersécurité, la gouvernance responsable de l’IA est fondamentale. Cette certification valide la maturité, la discipline et le leadership derrière le développement et l’exploitation de l’IA sur la plateforme Falcon.

Protection alimentée par l’IA contre les menaces accélérées

CrowdStrike a été pionnière dans la cybersécurité native à l’IA et continue d’innover pour stopper les menaces évolutives. Les adversaires modernes utilisent l’IA pour intensifier les attaques plus rapidement que les défenseurs ne peuvent réagir. Pour acquérir en toute sécurité l’avantage de la vitesse, les organisations ont besoin d’une protection alimentée par l’IA conçue pour les réalités que les adversaires ignorent.

Transformation responsable de l’agentique

Charlotte AI fonctionne dans un modèle d’autonomie limitée, garantissant que les équipes de sécurité conservent une supervision complète des décisions prises par l’IA et définissent quand et comment les actions automatisées doivent se produire. Les données, modèles et agents d’IA sont protégés par des gouvernances et des contrôles conçus pour des environnements hautement régulés.

Cette certification ISO 42001 a été attribuée après un audit approfondi mené par un organisme d’accréditation indépendant, évaluant le système de gestion de l’IA de l’organisation, y compris la gouvernance, les politiques, la gestion des risques et les pratiques de développement pour concevoir, déployer et exploiter l’IA de manière responsable.

Conclusion

La certification ISO 42001 représente un engagement continu à protéger la sécurité et la confidentialité des données des clients dans l’ère de l’IA. Elle souligne l’importance d’une gouvernance responsable et d’une innovation continue dans le domaine de la cybersécurité.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...