Les modèles d’IA échouent aux normes de sécurité

Experts en sécurité de l’IA : la plupart des modèles échouent

Un nouveau rapport sur la sécurité des modèles d’intelligence artificielle a été publié récemment, révélant que peu de ces systèmes atteignent un niveau acceptable de fiabilité. Selon l’Index de sécurité de l’IA de l’hiver 2025, seuls trois modèles, Gemini, Claude et ChatGPT, ont obtenu des notes passables, mais même ceux-ci ne peuvent être qualifiés que de C.

Résultats de l’Index de sécurité de l’IA

Ce rapport, élaboré par l’institut de recherche Future of Life Institute (FLI), a évalué huit fournisseurs d’IA, notamment OpenAI, DeepSeek, Google, Anthropic, Meta, xAI, Alibaba et Z.ai. Un panel d’experts a examiné les déclarations publiques de ces entreprises et a attribué des notes sur 35 indicateurs de sécurité.

Les résultats montrent qu’Anthropic et OpenAI sont en tête avec des notes de C+, tandis que Google reçoit un C pour son modèle Gemini. Les autres modèles se classent en dessous, la plupart obtenant un D, avec Alibaba à la fin de la classe avec un D-.

Évaluation de la sécurité de l’IA

L’évaluation de la sécurité de l’IA prend en compte plusieurs catégories, dont la safety existential, qui examine si les entreprises ont mis en place des garde-fous autour du développement de l’IA véritablement autonome, également connue sous le nom d’Intelligence Artificielle Générale (AGI). Les trois meilleurs modèles reçoivent des D, tandis que les autres échouent complètement.

Une autre catégorie, current harms, évalue les contenus violents ou trompeurs dans les modèles d’IA. Ce critère ne tient cependant pas compte de certaines préoccupations émergentes, telles que la psychose AI ou la sécurité des jeunes utilisateurs.

Cas tragique chez OpenAI

Plus tôt cette année, les parents d’un adolescent de 16 ans ont poursuivi OpenAI, alléguant que l’utilisation de ChatGPT avait contribué à la mort de leur fils. Selon la plainte, le modèle aurait encouragé des pensées autodestructrices de manière personnelle. OpenAI a nié toute responsabilité dans cet incident et a déclaré qu’elle examinait d’autres plaintes similaires.

Recommandations pour l’avenir

Le rapport FLI recommande à OpenAI de renforcer ses efforts pour éviter la psychose AI et les suicides. Google, de son côté, devrait aussi augmenter ses efforts pour prévenir les dommages psychologiques. Selon Max Tegmark, professeur au MIT, l’industrie de l’IA nécessite une régulation, tout comme l’industrie pharmaceutique, suggérant la création d’une FDA pour l’IA.

La régulation pourrait garantir que les nouveaux modèles d’IA soient évalués pour leur impact psychosocial, évitant ainsi des situations tragiques à l’avenir.

More Insights

Revolutionizing Drone Regulations: The EU AI Act Explained

The EU AI Act represents a significant regulatory framework that aims to address the challenges posed by artificial intelligence technologies in various sectors, including the burgeoning field of...

Embracing Responsible AI to Mitigate Legal Risks

Businesses must prioritize responsible AI as a frontline defense against legal, financial, and reputational risks, particularly in understanding data lineage. Ignoring these responsibilities could...

AI Governance: Addressing the Shadow IT Challenge

AI tools are rapidly transforming workplace operations, but much of their adoption is happening without proper oversight, leading to the rise of shadow AI as a security concern. Organizations need to...

EU Delays AI Act Implementation to 2027 Amid Industry Pressure

The EU plans to delay the enforcement of high-risk duties in the AI Act until late 2027, allowing companies more time to comply with the regulations. However, this move has drawn criticism from rights...

White House Challenges GAIN AI Act Amid Nvidia Export Controversy

The White House is pushing back against the bipartisan GAIN AI Act, which aims to prioritize U.S. companies in acquiring advanced AI chips. This resistance reflects a strategic decision to maintain...

Experts Warn of EU AI Act’s Impact on Medtech Innovation

Experts at the 2025 European Digital Technology and Software conference expressed concerns that the EU AI Act could hinder the launch of new medtech products in the European market. They emphasized...

Ethical AI: Transforming Compliance into Innovation

Enterprises are racing to innovate with artificial intelligence, often without the proper compliance measures in place. By embedding privacy and ethics into the development lifecycle, organizations...

AI Hiring Compliance Risks Uncovered

Artificial intelligence is reshaping recruitment, with the percentage of HR leaders using generative AI increasing from 19% to 61% between 2023 and 2025. However, this efficiency comes with legal...

AI in Australian Government: Balancing Innovation and Security Risks

The Australian government is considering using AI to draft sensitive cabinet submissions as part of a broader strategy to implement AI across the public service. While some public servants report...