L’IA et la réglementation transforment la sécurité des applications

A digital hourglass with binary code flowing through it, encased in a transparent, interlocking gear mechanism

AI et Réglementation Redéfinissent la Sécurité des Applications, Selon une Nouvelle Étude Mondiale

L’intelligence artificielle a surpassé toutes les autres forces influençant la sécurité des applications, selon une étude majeure de l’industrie qui montre que les organisations s’efforcent de sécuriser le code généré par l’IA tout en répondant à une pression réglementaire croissante.

Un État des Lieux de la Sécurité des Applications en 2026

La 16e édition du Modèle de Maturité de Sécurité des Applications (BSIMM), publiée par Black Duck, a analysé les pratiques réelles de sécurité des logiciels dans 111 organisations à travers le monde, couvrant plus de 91 000 applications développées par 223 000 développeurs. Il s’agit de la plus grande et de la plus longue étude de ce type, offrant une vue basée sur des données de l’évolution des programmes de sécurité des applications en 2026.

Un Nouveau Paradigme de Sécurité

Pour la première fois dans les 16 ans d’histoire de BSIMM, l’IA a émergé comme le facteur le plus influent redéfinissant les priorités de sécurité. Les organisations font face à un double défi : sécuriser les outils de développement alimentés par l’IA, tels que les assistants de codage basés sur des modèles de langage, tout en se protégeant contre des attaques de plus en plus sophistiquées rendues possibles par l’IA.

Les Risques du Code Généré par l’IA

Le rapport souligne la préoccupation croissante selon laquelle le code généré par l’IA, bien qu’il semble souvent poli et prêt à la production, peut dissimuler de graves défauts de sécurité. En conséquence, les organisations introduisent de nouveaux contrôles spécifiquement conçus pour gérer les risques liés à l’IA.

BSIMM16 a constaté une augmentation de 12 % des organisations utilisant des méthodes de classement des risques pour déterminer où le code généré par des modèles de langage peut être déployé en toute sécurité, ainsi qu’une augmentation de 10 % des équipes appliquant des règles de sécurité personnalisées aux outils de révision de code automatisés pour détecter les vulnérabilités uniques au code généré par l’IA.

Investissement Accéléré par la Réglementation

Parallèlement à l’IA, la réglementation gouvernementale est un puissant moteur de changement. De nouveaux mandats, y compris la Loi sur la résilience cybernétique de l’UE et les exigences fédérales américaines en matière de sécurité logicielle, obligent les organisations à renforcer la visibilité de la chaîne d’approvisionnement logicielle et à améliorer leur capacité à démontrer leur conformité.

L’étude reporte une augmentation de près de 30 % des organisations produisant des factures de matériaux logiciels (SBOM) pour les logiciels déployés, reflétant les demandes croissantes de transparence sur les composants logiciels. La vérification automatisée de la sécurité des infrastructures a augmenté de plus de 50 %, tandis que les processus de divulgation responsable des vulnérabilités ont crû de plus de 40 %.

La Sécurité de la Chaîne d’Approvisionnement en Émergence

BSIMM16 montre également que les organisations élargissent leur focus au-delà du code développé en interne pour traiter les risques à travers la chaîne d’approvisionnement logicielle plus large. L’utilisation accrue de composants tiers, de logiciels open source et de développement assisté par IA a renforcé la nécessité de standardisation et de visibilité.

Le rapport a observé une augmentation de plus de 40 % des organisations établissant des stacks technologiques standardisés, ainsi qu’une adoption continue des SBOM, signalant que la sécurité de la chaîne d’approvisionnement devient un élément central des programmes de sécurité des applications plutôt qu’une préoccupation spécialisée.

Une Formation en Sécurité Adaptée aux Développements Modernes

Les approches traditionnelles de formation en sécurité évoluent également. Les longs cours en classe sont de plus en plus remplacés par des conseils spécifiques à chaque rôle, fournis directement dans les flux de travail des développeurs. BSIMM16 a enregistré une augmentation de 29 % des organisations fournissant une expertise en sécurité via des canaux de collaboration ouverts, permettant aux développeurs d’accéder à un soutien immédiat lorsque des questions de sécurité surgissent.

Conclusion

BSIMM16 n’introduit aucun changement dans la structure du cadre pour la première fois depuis la création du modèle. Cette stabilité signale que la sécurité des applications a atteint un niveau de maturité structurelle, même si l’IA, la réglementation et la complexité de la chaîne d’approvisionnement continuent de redéfinir la manière dont les organisations mettent en œuvre la sécurité dans la pratique.

Alors que les organisations naviguent dans un paysage de développement de plus en plus alimenté par l’IA, BSIMM16 offre un aperçu de la manière dont les équipes de sécurité leaders s’adaptent, fournissant une référence pour ceux qui cherchent à équilibrer innovation, conformité et gestion des risques dans des environnements logiciels modernes.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...