Rapport sur la sécurité de l’IA 2025 : Sommes-nous préparés aux risques de l’IA à usage général ?
Chaque année, de nouvelles capacités en matière d’IA émergent. Et chaque année, l’écart entre ce que l’IA peut faire et notre capacité à la gouverner en toute sécurité se creuse.
Le Rapport international sur la sécurité de l’IA 2025, un effort collaboratif réunissant des dizaines de pays et des centaines d’experts, délivre une évaluation alarmante : nous ne sommes pas suffisamment préparés aux risques posés par des systèmes d’IA à usage général de plus en plus performants.
Quatre catégories de catastrophes
Le rapport organise les risques liés à l’IA en quatre catégories principales, chacune nécessitant des approches de mitigation différentes :
1. Biais et discrimination
Les systèmes d’IA formés sur des données historiques absorbent inévitablement des préjugés historiques. Les résultats sont mesurables et nuisibles :
- Algorithmes de recrutement qui favorisent systématiquement certaines démographies.
- Outils de justice pénale recommandant des peines plus sévères en fonction de la race.
- Systèmes de santé fournissant des recommandations de soins inférieures aux groupes marginalisés.
- Services financiers refusant des prêts basés sur des caractéristiques protégées.
Ces risques ne sont pas hypothétiques ; ce sont des échecs documentés qui se produisent actuellement. Le rapport de 2025 conclut que les efforts de mitigation ont été insuffisants. La plupart des entreprises testent les biais évidents mais échouent à détecter la discrimination subtile qui émerge des interactions complexes des modèles.
2. Utilisation malveillante
Les systèmes d’IA à usage général peuvent être armés :
- Campagnes de désinformation générant des fausses nouvelles crédibles à grande échelle.
- Phishing sophistiqué personnalisé à l’aide de données des réseaux sociaux.
- Cyberattaques où l’IA trouve et exploite de manière autonome des vulnérabilités.
- Conception de bioweapons assistée par l’IA formée sur la littérature scientifique.
- Armes autonomes prenant des décisions sans supervision humaine.
Le rapport souligne que prévenir les abus tout en maintenant l’utilité des systèmes est extrêmement difficile. Les restrictions peuvent être contournées et les fonctionnalités de sécurité désactivées.
3. Risques existentiels et systémiques
À mesure que les systèmes d’IA deviennent plus capables, de nouvelles catégories de risques émergent :
- Non-alignement : Les systèmes d’IA poursuivant des objectifs programmés de manière à provoquer des conséquences catastrophiques non intentionnelles.
- Perte de contrôle humain : Les systèmes devenant trop complexes pour être compris ou contrôlés de manière fiable.
- Disruption économique : Un chômage rapide entraîné par l’IA créant une instabilité sociale.
- Agents d’IA autonomes : Systèmes capables d’agir de manière indépendante et de modifier leurs propres objectifs.
Le rapport ne prédit pas une apocalypse de l’IA. Il souligne que nous construisons des systèmes avec une autonomie et des capacités croissantes sans augmenter notre capacité à veiller à ce qu’ils restent alignés sur les valeurs humaines.
4. Coûts environnementaux
Le risque le moins discuté mais de plus en plus urgent : la consommation massive de ressources par l’IA.
La formation de grands modèles d’IA nécessite une puissance de calcul énorme. L’entraînement de GPT-4 a probablement consommé une électricité équivalente à celle de centaines de foyers pendant une année entière. L’empreinte carbone rivalise avec celle de petits pays.
Alors que le déploiement de l’IA s’accélère, la demande énergétique augmente également. Les centres de données alimentant les systèmes d’IA devraient consommer 3 à 4 % de l’électricité mondiale d’ici 2030, soit l’équivalent de la consommation totale du Japon.
Le fossé de gouvernance
La conclusion la plus sévère du rapport : les structures de gouvernance sont largement inadéquates.
La plupart des développements en IA se font dans des entreprises privées avec peu de surveillance externe. L’auto-régulation n’a pas fonctionné, et les pressions concurrentielles poussent les entreprises à privilégier la capacité plutôt que la sécurité.
Ce à quoi l’échec ressemble
Le rapport décrit plusieurs scénarios d’échecs plausibles qui ne nécessitent pas de science-fiction :
- Échecs en cascade : Les systèmes d’IA gérant des infrastructures critiques subissant des défaillances synchronisées.
- Effondrement épistémique : Le contenu généré par l’IA inondant les écosystèmes d’information.
- Dépendance irréversible : Une société devenant si dépendante des systèmes d’IA qu’elle perd la capacité de fonctionner lorsque ceux-ci échouent.
- Effets de verrouillage : Des systèmes d’IA sous-optimaux devenant si ancrés dans l’infrastructure qu’ils ne peuvent pas être remplacés par des alternatives plus sûres.
Les défis techniques
Construire une IA sûre n’est pas seulement un problème politique ; c’est techniquement non résolu :
- Difficulté de spécification : Définir clairement ce que nous voulons que l’IA fasse est plus difficile qu’il n’y paraît.
- Écart formation-déploiement : Les systèmes qui se comportent bien pendant la formation peuvent agir différemment dans le déploiement réel.
- Robustesse aux attaques adverses : De petits changements intentionnels des entrées peuvent provoquer des changements de comportement dramatiques.
- Interprétabilité : Nous ne pouvons souvent pas expliquer pourquoi les systèmes d’IA prennent des décisions spécifiques.
- Surveillance évolutive : Superviser les décisions des systèmes devenant plus capables nécessite un jugement surhumain.
Ce qui doit se passer maintenant
Le rapport émet des recommandations spécifiques :
- Pour les gouvernements : Établir des organismes de surveillance de la sécurité de l’IA indépendants.
- Pour les entreprises : Mettre en œuvre des revues de sécurité aussi rigoureuses que le développement des capacités.
- Pour les chercheurs : Prioriser la recherche sur l’interprétabilité et l’alignement.
- Pour la société : Exiger des comptes des développeurs et déployeurs d’IA.
La fenêtre se ferme
Le rapport souligne que nous avons probablement 3 à 5 ans pour établir des cadres de sécurité robustes avant que les capacités de l’IA ne dépassent notre capacité à mettre en œuvre des contrôles significatifs.
La sécurité n’est pas purement technique. Elle est sociale, politique et philosophique. Nous avons besoin d’un consensus sociétal sur des questions telles que : quel niveau de risque d’IA est acceptable ? Qui devrait contrôler des systèmes d’IA puissants ? Comment équilibrer innovation et sécurité ?
En lisant le Rapport international sur la sécurité de l’IA 2025, une conclusion s’impose : nous construisons des systèmes dont les implications complètes nous échappent, les déployons à grande échelle sans protections adéquates, et espérons que les problèmes ne surgissent pas plus vite que les solutions.
Les capacités que nous créons sont réelles. Les risques sont importants. Et notre préparation est insuffisante.
Cela ne plaide pas pour arrêter le développement de l’IA ; c’est ni possible ni souhaitable. Cela plaide pour prendre la sécurité aussi au sérieux que la capacité. Pour mettre en œuvre des cadres de gouvernance avant qu’ils ne soient désespérément nécessaires.