Impact de l’IA et de la conformité réglementaire sur la sécurité des applications

A cybernetic duck wearing a tiny hard hat and holding a miniature regulatory document, with AI circuitry visible through a transparent shell.

Lancement de BSIMM16 : Transformation de la sécurité des applications par l’IA et la conformité réglementaire

La plus grande étude sur la sécurité des applications montre comment les organisations s’adaptent au code généré par l’IA, aux mandats gouvernementaux et aux méthodes de formation évolutives.

Le 4 février 2026, la publication de la 16e édition du Modèle de Maturité de Sécurité Intégrée (BSIMM) a été annoncée. Ce rapport révèle comment les organisations du monde entier transforment leurs initiatives de sécurité des logiciels pour gérer les risques introduits par l’adoption de l’IA, les pressions réglementaires croissantes et la nécessité de méthodes de formation en sécurité plus agiles.

Les tendances clés du BSIMM16

Pour la première fois dans l’histoire de BSIMM, l’IA a surpassé toutes les autres forces en redéfinissant les priorités en matière de sécurité. L’étude couvre 111 organisations de divers secteurs, y compris les services financiers, la santé, la technologie et les fournisseurs indépendants de logiciels.

Les résultats montrent plusieurs tendances majeures :

  1. L’IA comme défi principal en sécurité des applications : Les organisations sécurisent les assistants de codage alimentés par l’IA tout en se protégeant contre les attaques facilitées par l’IA. Il y a eu une augmentation de 10 % des équipes utilisant l’intelligence d’attaque pour suivre les vulnérabilités émergentes liées à l’IA et une augmentation de 12 % de l’utilisation des méthodes de classement des risques pour déterminer où le code généré par des modèles de langage peut être déployé en toute sécurité.
  2. Accélération des investissements en sécurité par les réglementations gouvernementales : Les mandats mondiaux poussent les organisations à renforcer la sécurité des applications, avec un accent marqué sur la transparence de la chaîne d’approvisionnement logicielle. Près de 30 % des organisations produisent désormais des « Software Bill of Materials » (SBOM) pour répondre aux exigences de transparence.
  3. Sécurité de la chaîne d’approvisionnement logicielle en hausse : Les organisations élargissent leur focus pour sécuriser l’ensemble de l’écosystème de la chaîne d’approvisionnement logicielle. BSIMM16 observe une augmentation de 40 % dans l’établissement de stacks technologiques standardisés.
  4. Évolution de la formation en sécurité des applications : Les formations traditionnelles sont remplacées par des apprentissages just-in-time adaptés aux flux de travail modernes. Une augmentation de 29 % des organisations fournissant des conseils de sécurité par des canaux de collaboration ouverts a été notée.

Implications et risques

Le véritable risque du code généré par l’IA réside dans l’illusion de la correction. Le code, bien que poli, peut cacher de graves défauts de sécurité. Les organisations doivent comprendre ce qui compose leur logiciel, qu’il soit écrit par des humains, généré par l’IA ou produit par des tiers. Les SBOM deviennent un élément fondamental pour gérer les risques dans un paysage de développement axé sur l’IA.

Conclusion

BSIMM16, établi en 2008, suit les activités des professionnels de la sécurité des logiciels. Il aide les organisations à planifier, exécuter et mesurer leurs initiatives de sécurité logicielle.

Pour la première fois, BSIMM16 n’introduit aucun changement dans la structure du cadre, signalant la maturité et la stabilité des pratiques de sécurité des applications dans l’industrie.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...