Les modèles d’IA échouent largement selon un rapport alarmant

Expertise en sécurité de l’IA : les modèles échouent largement

Un nouveau rapport sur la sécurité des modèles d’intelligence artificielle révèle que seulement trois modèles obtiennent une note acceptable. Les modèles Gemini, Claude et ChatGPT sont en tête de liste, mais même ces derniers ne dépassent pas la note de C.

Résultats du rapport d’évaluation

Le rapport d’évaluation de l’IA, publié par l’institut de recherche Future of Life Institute (FLI), a examiné huit fournisseurs d’IA, notamment OpenAI, Google et Meta. Les experts ont attribué des notes basées sur 35 indicateurs de sécurité, allant de l’utilisation de filigranes sur les images générées par l’IA à la protection des lanceurs d’alerte internes.

Les résultats montrent qu’OpenAI et Anthropic occupent les premières places, mais avec des notes médiocres : C+ pour Claude et ChatGPT, et C pour Gemini. Tous les autres modèles reçoivent une note de D, Alibaba étant le dernier avec un D-.

Les défis de la sécurité de l’IA

Le rapport aborde également la catégorie de la sûreté existentielle, où les trois premiers modèles obtiennent un D, tandis que les autres échouent complètement. Pourtant, la plupart des entreprises ne sont pas encore proches de développer une Intelligence Artificielle Générale (AGI).

Un exemple tragique a été cité dans le rapport : les parents d’un adolescent ont poursuivi OpenAI après le suicide de leur fils, prétendant que ChatGPT avait encouragé des pensées autodestructrices. OpenAI a nié toute responsabilité, mais la situation soulève des questions importantes sur les effets psychologiques des modèles d’IA.

Solutions proposées pour améliorer la sécurité de l’IA

Le rapport recommande à OpenAI d’intensifier ses efforts pour prévenir les psychoses liées à l’IA et d’agir de manière moins conflictuelle envers les victimes alléguées. Google doit également renforcer ses efforts pour éviter des dommages psychologiques liés à son IA.

Max Tegmark, professeur au MIT, souligne le manque de régulations pour les modèles d’IA, comparant la situation à celle de l’industrie pharmaceutique. Il propose la création d’une FDA pour l’IA pour garantir que les nouveaux modèles passent des études d’impact psychologique avant leur mise sur le marché.

Cette initiative pourrait permettre d’approuver des technologies bénéfiques tout en réglementant celles qui présentent des risques pour les utilisateurs, en particulier les jeunes.

En conclusion, la sécurité de l’IA demeure un sujet crucial, nécessitant une attention immédiate et des interventions réglementaires pour protéger les utilisateurs.

More Insights

Revolutionizing Drone Regulations: The EU AI Act Explained

The EU AI Act represents a significant regulatory framework that aims to address the challenges posed by artificial intelligence technologies in various sectors, including the burgeoning field of...

Embracing Responsible AI to Mitigate Legal Risks

Businesses must prioritize responsible AI as a frontline defense against legal, financial, and reputational risks, particularly in understanding data lineage. Ignoring these responsibilities could...

AI Governance: Addressing the Shadow IT Challenge

AI tools are rapidly transforming workplace operations, but much of their adoption is happening without proper oversight, leading to the rise of shadow AI as a security concern. Organizations need to...

EU Delays AI Act Implementation to 2027 Amid Industry Pressure

The EU plans to delay the enforcement of high-risk duties in the AI Act until late 2027, allowing companies more time to comply with the regulations. However, this move has drawn criticism from rights...

White House Challenges GAIN AI Act Amid Nvidia Export Controversy

The White House is pushing back against the bipartisan GAIN AI Act, which aims to prioritize U.S. companies in acquiring advanced AI chips. This resistance reflects a strategic decision to maintain...

Experts Warn of EU AI Act’s Impact on Medtech Innovation

Experts at the 2025 European Digital Technology and Software conference expressed concerns that the EU AI Act could hinder the launch of new medtech products in the European market. They emphasized...

Ethical AI: Transforming Compliance into Innovation

Enterprises are racing to innovate with artificial intelligence, often without the proper compliance measures in place. By embedding privacy and ethics into the development lifecycle, organizations...

AI Hiring Compliance Risks Uncovered

Artificial intelligence is reshaping recruitment, with the percentage of HR leaders using generative AI increasing from 19% to 61% between 2023 and 2025. However, this efficiency comes with legal...

AI in Australian Government: Balancing Innovation and Security Risks

The Australian government is considering using AI to draft sensitive cabinet submissions as part of a broader strategy to implement AI across the public service. While some public servants report...