Experts en sécurité de l’IA : la plupart des modèles échouent
Un nouveau rapport sur la sécurité des modèles d’intelligence artificielle a été publié récemment, révélant que peu de ces systèmes atteignent un niveau acceptable de fiabilité. Selon l’Index de sécurité de l’IA de l’hiver 2025, seuls trois modèles, Gemini, Claude et ChatGPT, ont obtenu des notes passables, mais même ceux-ci ne peuvent être qualifiés que de C.
Résultats de l’Index de sécurité de l’IA
Ce rapport, élaboré par l’institut de recherche Future of Life Institute (FLI), a évalué huit fournisseurs d’IA, notamment OpenAI, DeepSeek, Google, Anthropic, Meta, xAI, Alibaba et Z.ai. Un panel d’experts a examiné les déclarations publiques de ces entreprises et a attribué des notes sur 35 indicateurs de sécurité.
Les résultats montrent qu’Anthropic et OpenAI sont en tête avec des notes de C+, tandis que Google reçoit un C pour son modèle Gemini. Les autres modèles se classent en dessous, la plupart obtenant un D, avec Alibaba à la fin de la classe avec un D-.
Évaluation de la sécurité de l’IA
L’évaluation de la sécurité de l’IA prend en compte plusieurs catégories, dont la safety existential, qui examine si les entreprises ont mis en place des garde-fous autour du développement de l’IA véritablement autonome, également connue sous le nom d’Intelligence Artificielle Générale (AGI). Les trois meilleurs modèles reçoivent des D, tandis que les autres échouent complètement.
Une autre catégorie, current harms, évalue les contenus violents ou trompeurs dans les modèles d’IA. Ce critère ne tient cependant pas compte de certaines préoccupations émergentes, telles que la psychose AI ou la sécurité des jeunes utilisateurs.
Cas tragique chez OpenAI
Plus tôt cette année, les parents d’un adolescent de 16 ans ont poursuivi OpenAI, alléguant que l’utilisation de ChatGPT avait contribué à la mort de leur fils. Selon la plainte, le modèle aurait encouragé des pensées autodestructrices de manière personnelle. OpenAI a nié toute responsabilité dans cet incident et a déclaré qu’elle examinait d’autres plaintes similaires.
Recommandations pour l’avenir
Le rapport FLI recommande à OpenAI de renforcer ses efforts pour éviter la psychose AI et les suicides. Google, de son côté, devrait aussi augmenter ses efforts pour prévenir les dommages psychologiques. Selon Max Tegmark, professeur au MIT, l’industrie de l’IA nécessite une régulation, tout comme l’industrie pharmaceutique, suggérant la création d’une FDA pour l’IA.
La régulation pourrait garantir que les nouveaux modèles d’IA soient évalués pour leur impact psychosocial, évitant ainsi des situations tragiques à l’avenir.