Évaluation de la sécurité des projets d’IA
Avec les récentes révélations concernant la production massive de contenu illicite par xAI, notamment impliquant des mineurs, il est opportun de faire un aperçu de la sécurité des outils d’IA.
Une équipe a récemment entrepris une revue de sécurité de certains des outils d’IA les plus populaires sur le marché. Cette revue a examiné six éléments clés :
Éléments clés de l’évaluation
- Évaluation des risques – Efforts pour garantir que l’outil ne peut pas être manipulé ou utilisé à des fins nuisibles.
- Dommages actuels – Y compris les risques pour la sécurité des données et le marquage numérique.
- Cadres de sécurité – Le processus de chaque plateforme pour identifier et traiter les risques.
- Sécurité existentielle – Si le projet est surveillé pour des évolutions inattendues dans la programmation.
- Gouvernance – Le lobbying de l’entreprise sur la gouvernance de l’IA et les réglementations sur la sécurité de l’IA.
- Partage d’informations – Transparence du système et aperçu de son fonctionnement.
Sur la base de ces six éléments, le rapport a ensuite attribué à chaque projet d’IA un score de sécurité global, qui reflète une évaluation plus large de la gestion des risques de développement de chacun.
Les résultats de cette évaluation ont été traduits dans une infographie qui fournit des éléments de réflexion supplémentaires sur le développement de l’IA et les directions possibles, notamment avec l’intention de supprimer les obstacles potentiels au développement de l’IA.