Concentration de la Gouvernance de l’IA sur les Sautes de Capacité Qualitative
La gouvernance de l’IA devrait se concentrer sur les menaces novatrices plutôt que sur les risques familiers. Un nouveau chapitre de la gouvernance de l’intelligence artificielle (IA) est en cours, catalysé par deux développements significatifs.
Évolutions Récentes
Premièrement, le succès de DeepSeek dans le développement d’un modèle avancé à poids ouvert à un coût relativement inférieur à celui des laboratoires de premier plan aux États-Unis démontre que l’accès à l’avant-garde technologique est plus accessible à un plus grand nombre d’acteurs que prévu. L’économie du développement des capacités a fondamentalement changé, permettant à un éventail plus large d’entités, y compris des adversaires potentiels, de créer et de déployer des systèmes d’IA avancés avec relativement peu de ressources.
Deuxièmement, le discours du Vice-président JD Vance au Sommet sur l’IA à Paris a efficacement sapé tout élan vers une approche internationale unifiée de la sécurité de l’IA, signalant un pivot vers des approches plus nationalistes du développement et de la réglementation de l’IA.
La Sécurité de l’IA
La sécurité de l’IA concerne fondamentalement les sautes de capacité de l’IA—des attributs qui créent de nouvelles vecteurs de menace, ou méthodes d’attaques de sécurité. Un accent sur la sécurité de l’IA implique de diriger l’attention et les ressources réglementaires vers la défense contre les menaces rendues possibles par les capacités novatrices de l’IA, qui représentent un saut marqué au-delà des dangers existants.
Ces capacités franchissant les seuils permettent aux acteurs malveillants d’accomplir des objectifs nuisibles qui étaient auparavant impossibles ou impraticables. Contrairement à de simples intensifications de problèmes familiers, ces capacités altèrent fondamentalement le paysage des menaces.
Efforts Législatifs Actuels
Les efforts législatifs actuels à travers le monde se concentrent principalement sur des préoccupations basées sur le contenu et culturelles telles que la réglementation des médias générés par l’IA, l’adresse des biais, et la gestion de la désinformation. Bien que ces questions méritent de l’attention, elles représentent principalement des extensions de problèmes existants plutôt que des menaces novatrices.
Par exemple, les deepfakes générés par l’IA peuvent être plus convaincants et plus faciles à produire, mais ils existent sur le même continuum que les tactiques de désinformation déjà existantes.
Impact de l’IA sur la Vie Privée
La vie privée, cependant, présente un cas instructif qui aide à démontrer à la fois l’utilité et les limitations de notre cadre de seuil de capacité. Contrairement aux préoccupations de modération de contenu, l’impact de l’IA sur la vie privée n’est pas simplement une intensification de problèmes existants ; il représente quelque chose de qualitativement différent.
Les systèmes d’IA peuvent désormais déduire des informations sensibles qui n’ont jamais été explicitement partagées. Des recherches ont montré que les modèles d’apprentissage automatique peuvent prédire des attributs personnels et des conditions médicales à partir de traces numériques apparemment non liées.
Ces capacités représentent une véritable violation de seuil—non seulement des violations croissantes des lois sur la vie privée existantes, mais aussi une altération fondamentale de ce qui peut être connu sur les individus sans leur connaissance ou consentement.
Menaces de Sécurité Urgentes
Parmi les menaces de sécurité de l’IA les plus urgentes se trouve la démocratisation du développement des armes biologiques. Ce qui était autrefois le domaine exclusif des programmes d’État avancés est désormais potentiellement accessible à des acteurs non étatiques grâce à la conception de pathogènes guidée par l’IA.
Des avancées récentes en génétique pourraient permettre aux systèmes d’IA d’identifier des variantes de pathogènes avec une transmissibilité ou une létalité accrue, ce qui constitue un véritable saut en capacités.
Approche Réglementaire Recommandée
Un cadre efficace de sécurité de l’IA doit commencer par le principe de violation de seuil pour identifier et prioriser les menaces où l’IA crée des capacités qualitativement nouvelles.
Pour répondre aux défis de bio sécurité sans précédent posés par les capacités de l’IA, il est recommandé d’établir une initiative nationale de modernisation de la défense biologique qui intègre des solutions technologiques avancées avec des cadres de bio sécurité traditionnels.
En se concentrant spécifiquement sur les capacités novatrices qui créent de nouvelles menaces, nous permettons à l’IA de développement sous des cadres juridiques existants sans imposer de charges supplémentaires spécifiques à l’IA.