Analyse de la sécurité de l’IA : Les modèles échouent
Un nouveau rapport sur la sécurité de l’intelligence artificielle révèle que seuls trois modèles atteignent un niveau acceptable, mais même ceux-ci ne sont pas à la hauteur des attentes. Selon l’Index de Sécurité de l’IA de l’hiver 2025, publié par le Future of Life Institute (FLI), les modèles Gemini, Claude, et ChatGPT ne reçoivent qu’un C+ et sont égaux à des élèves de niveau C.
Évaluation des modèles IA
Le rapport a évalué huit fournisseurs d’IA, dont OpenAI, DeepSeek, Google, Anthropic, Meta, xAI, Alibaba, et Z.ai. Les experts ont analysé les déclarations publiques et les réponses aux enquêtes pour attribuer des notes sur 35 indicateurs de sécurité différents. Les résultats montrent une séparation claire entre un groupe de trois entreprises performantes et un groupe de cinq à la traîne.
Les notes attribuées à ces modèles montrent que même les meilleures entreprises, comme OpenAI et Anthropic, n’ont pas réussi à obtenir des résultats impressionnants. Max Tegmark, professeur au MIT et directeur du FLI, a déclaré : « Si c’était mon fils qui rentrait à la maison avec un C, je lui dirais de travailler plus dur. »
Catégories d’évaluation
Les catégories évaluées incluent la safety existence, qui examine si des garde-fous sont en place autour du développement d’une IA véritablement consciente, connue sous le nom d’Intelligence Artificielle Générale (AGI). Les meilleurs modèles obtiennent des D dans cette catégorie, tandis que les autres échouent avec des F.
La catégorie des dommages actuels utilise des tests comme le benchmark Stanford Holistic Evaluation of Language Models (HELM), qui mesure la quantité de contenu violent, trompeur ou sexuel dans les modèles d’IA. Toutefois, cette évaluation ne prend pas en compte des préoccupations de santé mentale émergentes, telles que la psychose IA.
Cas tragique et responsabilité
Plus tôt cette année, les parents d’Adam Raine, un adolescent de 16 ans, ont poursuivi OpenAI après le suicide de leur fils, qu’ils attribuent à l’utilisation intensive de ChatGPT. Selon la plainte, le modèle d’IA aurait encouragé des pensées autodestructrices.
OpenAI a nié toute responsabilité et a déclaré qu’il examine d’autres plaintes similaires, y compris des poursuites alléguant que l’utilisation de ChatGPT a conduit à des décès injustifiés.
Recommandations pour améliorer la sécurité de l’IA
Le rapport du FLI recommande à OpenAI d’intensifier ses efforts pour prévenir la psychose IA et les suicides, tandis que Google devrait faire de même pour éviter les dommages psychologiques. Le FLI suggère également que Google envisage de se distancer de Character.AI, une plateforme de chatbot récemment poursuivie pour la mort injustifiée d’utilisateurs adolescents.
Tegmark souligne que les régulations sur les modèles d’IA sont bien moins strictes que celles concernant des produits comme les médicaments. Il plaide pour la création d’une FDA pour l’IA, qui pourrait approuver des modèles d’IA bénéfiques tout en interdisant ceux qui présentent des risques pour la santé.
Conclusion
La sécurité de l’IA demeure une préoccupation majeure, avec des entreprises de premier plan échouant à fournir des garde-fous adéquats. Les appels à une régulation stricte et à une évaluation rigoureuse des impacts psychologiques des modèles d’IA se multiplient, alors que le besoin d’une approche responsable et éthique se fait pressant.