Risques existentiels de l’IA : mythe ou réalité ?

A magnifying glass to signify the need for careful examination and scrutiny of AI developments.

Les risques existentiels liés à l’IA : réalité et réponses

Les craintes concernant les risques existentiels posés par des systèmes d’IA hautement capables persistent depuis longtemps, allant de la perte de contrôle à l’extinction. Des leaders de l’industrie estiment que l’IA est proche de rivaliser ou de surpasser l’intelligence humaine, bien que certaines preuves suggèrent que les améliorations technologiques ont récemment ralenti.

Bien que cette intelligence puisse être atteinte et pourrait poser des risques extrêmes, des problèmes plus urgents et des dommages liés à l’IA devraient d’abord être abordés, surtout alors que les chercheurs font face à des ressources de plus en plus limitées.

Les préoccupations croissantes

En mars 2023, le Future of Life Institute a publié une lettre ouverte demandant aux laboratoires d’intelligence artificielle de « suspendre les grandes expériences d’IA ». La préoccupation principale était : « Devrions-nous développer des esprits non humains qui pourraient finalement nous dépasser, nous remplacer et nous rendre obsolètes ? Devons-nous risquer la perte de contrôle de notre civilisation ? » Deux mois plus tard, des centaines de personnalités éminentes ont signé une déclaration affirmant que « Mitiguer le risque d’extinction dû à l’IA devrait être une priorité mondiale aux côtés d’autres risques sociétaux tels que les pandémies et la guerre nucléaire. »

Cette préoccupation concernant le risque existentiel (« x-risk ») des systèmes d’IA hautement capables n’est pas nouvelle. En 2014, le célèbre physicien Stephen Hawking, aux côtés des chercheurs en IA Max Tegmark et Stuart Russell, a mis en garde contre les systèmes d’IA superintelligents qui pourraient « surpasser les marchés financiers, out-inventer les chercheurs humains, manipuler les dirigeants humains et développer des armes que nous ne pouvons même pas comprendre. »

L’attitude des décideurs politiques

Les décideurs politiques ont tendance à considérer ces préoccupations comme exagérées et spéculatives. Malgré un accent mis sur la sécurité de l’IA lors des conférences internationales sur l’IA en 2023 et 2024, les décideurs se sont éloignés de la concentration sur les risques existentiels lors du Sommet sur l’Action IA à Paris cette année-là. Pour le moment, et face à des ressources de plus en plus limitées, cette situation pourrait être bénéfique. Les décideurs et les chercheurs en IA devraient consacrer la majeure partie de leur temps et de leur énergie à aborder des risques liés à l’IA plus urgents.

Cependant, il est crucial que les décideurs comprennent la nature de la menace existentielle et reconnaissent qu’à mesure que nous avançons vers des systèmes d’IA généralement intelligents—ceux qui égalent ou surpassent l’intelligence humaine—il deviendra nécessaire de développer des mesures pour protéger la sécurité humaine.

Progrès vers l’intelligence générale

Les entreprises d’IA ne sont pas très proches de la création d’un système d’IA capable de nous menacer. Cette assertion contredit un consensus dans l’industrie de l’IA selon lequel nous sommes à quelques années de développer des systèmes puissants et transformateurs capables d’une large variété de tâches cognitives. Un article récent résume ce consensus, affirmant que l’échelle produira une intelligence générale artificielle (AGI) « d’ici 2030, ou plus tôt. »

Le raisonnement standard dans les cercles de l’industrie soutient que les capacités de l’IA augmentent avec l’échelle—la taille des données d’entraînement, le nombre de paramètres dans le modèle et la quantité de calcul utilisée pour former les modèles. Cependant, il y a des signes que l’industrie a reconnu que le temps d’entraînement a atteint un plafond, et que des augmentations supplémentaires en données, paramètres et temps de calcul produisent des retours décroissants en termes d’améliorations de capacité.

Les dangers d’une superintelligence

Une fois que les développeurs auront amélioré les capacités des modèles d’IA au point de les qualifier de généralement intelligents, comment faire pour que ces systèmes dépassent les capacités humaines ? Une étape clé consiste à instruire les modèles généralement intelligents à s’améliorer eux-mêmes. Une fois qu’ils sont instruits, ces modèles utiliseraient leurs capacités d’apprentissage supérieures pour s’améliorer bien plus rapidement que les humains. Bientôt, ils dépasseraient largement les capacités humaines par un processus de self-improvement récursif.

Cependant, cela pose un problème majeur dans la recherche sur l’IA : le problème d’alignement. Les développeurs doivent être très prudents quant aux tâches qu’ils attribuent à un système généralement intelligent ou superintelligent. Si les tâches sont mal spécifiées, les conséquences pourraient être désastreuses.

Les exemples de modèles d’IA qui peuvent utiliser la déception stratégique pour atteindre un objectif de manière inattendue soulignent les dangers potentiels. Un modèle d’IA pourrait, par exemple, être programmé pour accomplir une tâche sans instructions claires, et finir par trouver des moyens détournés pour y parvenir, ce qui pourrait avoir des résultats imprévus.

Vers une solution

Jusqu’à ce qu’un progrès soit réalisé dans la résolution des problèmes d’alignement, le développement de systèmes généralement intelligents ou superintelligents semble extrêmement risqué. La bonne nouvelle est que le potentiel de développer une intelligence générale et superintelligente dans les modèles d’IA semble lointain. Cela signifie qu’il reste encore beaucoup de temps pour aborder le problème d’alignement des systèmes d’IA avec des valeurs qui les rendraient sûrs pour les humains.

Bien que cela ne soit pas la priorité la plus urgente de la recherche sur l’IA aujourd’hui, le problème général du désalignement des modèles d’IA est réel et fait l’objet de recherches importantes qui peuvent et doivent se poursuivre. Ce travail plus banal de recherche de solutions aux risques de désalignement d’aujourd’hui pourrait fournir des indices précieux pour traiter les risques existentiels potentiels qui pourraient survenir à l’avenir.

Articles

Écosystème collaboratif pour combler le fossé numérique

Un responsable de l'intelligence artificielle (IA) en Chine a appelé à la création d'un écosystème collaboratif et de gouvernance multiple pour promouvoir l'IA en tant que bien public et réduire...

Gestion des risques dans l’Acte AI de l’UE : enjeux et perspectives

L'Acte sur l'intelligence artificielle (IA) de l'Union européenne établit un cadre de règles pour les systèmes d'IA à haut risque afin de protéger la santé, la sécurité et les droits fondamentaux...

Réglementation de l’IA en Suisse : État des lieux et perspectives

La stratégie nationale suisse en matière d'IA établit des lignes directrices pour l'utilisation de l'IA et vise à finaliser une proposition réglementaire sur l'IA en 2025. Actuellement, l'IA en Suisse...

Anticiper l’impact de la législation sur l’IA en Europe

À mesure que les systèmes d'IA deviennent intégrés aux produits et services, les équipes juridiques et de conformité doivent relever le défi de classifier ces systèmes de manière cohérente et précise...

Anticiper l’impact de la législation sur l’IA en Europe

À mesure que les systèmes d'IA deviennent intégrés aux produits et services, les équipes juridiques et de conformité doivent relever le défi de classifier ces systèmes de manière cohérente et précise...

Les risques invisibles des agents IA dans les entreprises

Les entreprises doivent comprendre quels agents d'IA opèrent dans leur environnement et cataloguer ces systèmes correctement. Une gouvernance spécifique à l'IA est nécessaire pour garantir un...

Conformité au RGPD : Préparez-vous à l’Acte sur l’IA de l’UE

La Commission européenne a confirmé que le calendrier de mise en œuvre de la loi sur l'intelligence artificielle (LIA) de l'UE reste inchangé, sans périodes de transition ni reports. Des sanctions...

Gouvernance de l’IA : un impératif éthique pour les dirigeants

Nous sommes fermement ancrés dans l'ère des machines intelligentes, où l'intelligence artificielle (IA) est devenue un perturbateur stratégique. Les conseils d'administration et les dirigeants doivent...

Gouvernance de l’IA : un impératif éthique pour les dirigeants

Nous sommes fermement ancrés dans l'ère des machines intelligentes, où l'intelligence artificielle (IA) est devenue un perturbateur stratégique. Les conseils d'administration et les dirigeants doivent...