Alerte sur l’utilisation criminelle potentielle des systèmes d’IA open-source
Les chercheurs mettent en garde contre un nombre croissant de modèles d’intelligence artificielle open-source déployés en dehors des contrôles de sécurité des grandes plateformes technologiques, créant ce qu’ils décrivent comme une couche largement invisible de potentiel abus criminel.
Analyse des déploiements
Les résultats, partagés par des entreprises de cybersécurité, sont basés sur une analyse des déploiements accessibles au public de modèles de langage open-source réalisée sur une période de 293 jours. Les chercheurs ont constaté que de nombreux systèmes observés fonctionnaient sur des ordinateurs exposés à Internet avec peu ou pas de protections, les rendant vulnérables aux abus par des hackers et d’autres acteurs malveillants.
Risques associés aux modèles auto-hébergés
Selon les chercheurs, les modèles d’IA auto-hébergés peuvent être réutilisés pour générer du contenu de phishing, automatiser des opérations de spam, soutenir des campagnes de désinformation et aider à d’autres activités illicites. Contrairement aux plateformes d’IA commerciales, qui fonctionnent sous des règles et une surveillance centralisées, les modèles open-source permettent aux opérateurs de modifier les instructions du système et de supprimer complètement les protections.
L’analyse a révélé que, bien que des milliers de variantes de modèles de langage open-source existent, une grande partie des déploiements accessibles sur Internet reposait sur des modèles bien connus. Dans des centaines de cas, les chercheurs ont identifié des configurations où les contrôles de sécurité avaient été explicitement désactivés.
Évaluation des déploiements
Les chercheurs ont pu visualiser les instructions système, qui façonnent le comportement d’un modèle, dans environ un quart des déploiements examinés. Parmi ceux-ci, environ 7,5 % ont été évalués comme potentiellement capables d’activer des activités nuisibles, y compris des escroqueries, du harcèlement et du vol de données.
Portée géographique du problème
Environ 30 % des systèmes exposés fonctionnaient depuis un pays, tandis qu’environ 20 % étaient situés dans un autre pays, soulignant la nature mondiale de ce problème.
Conséquences et implications
Les experts en gouvernance de l’IA affirment que ces résultats soulignent les limites des mesures de sécurité basées sur les plateformes. La responsabilité de la gestion des risques devient partagée une fois que les modèles sont publiés, y compris les obligations des développeurs de documenter les dommages prévisibles et de fournir des conseils d’atténuation.
Les entreprises technologiques reconnaissent que les modèles open-source jouent un rôle important dans l’innovation, mais admettent la nécessité de protections pour prévenir les abus. Les résultats signalent un défi croissant pour les régulateurs à mesure que l’utilisation de l’IA s’étend au-delà des plateformes centralisées vers des environnements décentralisés et auto-hébergés, plus difficiles à surveiller et à contrôler.