Les nombreux dangers de l’IA entre les mains de l’État
Une intégration non contrôlée de l’IA dans la gouvernance menace les droits humains, la responsabilité et les principes démocratiques, tout en permettant un dépassement d’État.
En résumé
- Les armes à IA risquent des atrocités, un ciblage ethnique et une dévaluation de la vie humaine.
- Des algorithmes opaques érodent la responsabilité, la justice et la gouvernance démocratique.
- Un avenir dystopique est probable sans une forte opposition publique et une régulation.
Introduction
L’intelligence artificielle est sans conteste la technologie la plus transformative que notre espèce ait développée depuis plusieurs décennies, représentant un bond en avant après l’avènement d’Internet. Son potentiel pour remodeler nos économies et systèmes sociopolitiques est immense, et cette transformation a déjà commencé.
Cependant, comme pour de nombreuses nouvelles technologies, le potentiel d’abus de l’IA augmente considérablement lorsqu’elle est entre les mains des gouvernements. Les politiciens peuvent s’accorder des pouvoirs spéciaux et s’exempter des lois qui s’appliquent aux citoyens et aux entreprises privées, suspendant même les libertés individuelles fondamentales en cas d' »urgence ». L’histoire a montré que lorsque les gouvernements acquièrent de nouveaux outils de contrôle, ils sont rarement prêts à les abandonner.
Une pente glissante
Depuis de nombreuses années, l’une des principales préoccupations des défenseurs de la vie privée est l’excès de surveillance gouvernementale et ses implications. Les applications de reconnaissance faciale, les outils de collecte de données massives et les algorithmes de « police prédictive » ont déjà été utilisés. L’explosion récente des innovations en IA rendra leur impact encore plus conséquent.
La « pré-crime », un concept introduit dans le thriller de science-fiction de 2002 « Minority Report », semble désormais moins farfelu. La police prédictive assistée par IA implique la collecte et l’analyse de vastes ensembles de données tirées de rapports criminels, d’antécédents judiciaires et d’informations sociales, démographiques ou géographiques pour identifier des schémas et prévoir où des crimes futurs pourraient se produire et qui pourrait être impliqué.
À l’avenir, ces outils pourraient fournir des résultats beaucoup plus spécifiques, avertissant des individus comme étant à haut risque, même s’ils n’ont pas encore commis de crime. L’utilisation de ces informations par les États déterminera si nous créons une société où les citoyens sont traités comme des suspects, présumés coupables jusqu’à preuve du contraire.
Possibilités orwelliennes
Une autre possibilité orwellienne est l’abus des outils d’IA par le gouvernement pour centraliser davantage le pouvoir et forcer la conformité à la population via la suppression de la liberté d’expression ou la manipulation de l’information. Les images et vidéos générées par IA (deepfakes) deviennent presque indiscernables des réelles ; on peut facilement imaginer ce qui pourrait être produit avec des fonds d’État et des outils beaucoup plus sophistiqués.
Cela pourrait permettre aux gouvernements de fabriquer des preuves, de discréditer des journalistes et de ternir des opposants politiques, ainsi que de créer des récits fictifs pour justifier des tentatives de dépassement de la politique intérieure et internationale, voire des conflits ouverts.
Les systèmes de crédit social
En outre, le recours à des systèmes de gouvernance par « crédit social » alimentés par IA pourrait voir le jour, comme en Chine. Des outils d’IA pourraient combiner des informations financières et professionnelles individuelles, des comportements sociaux et des opinions politiques en un système de notation détaillé. Ces outils pourraient également être utilisés pour répartir automatiquement des récompenses et des pénalités, incitant à la conformité et décourageant la dissidence, en contrôlant l’accès aux services essentiels comme la banque, le logement ou même la santé.
Risques militaires
Les risques se multiplient exponentiellement dans le contexte militaire, les systèmes d’IA assistée pouvant être utilisés pour identifier et cibler des groupes ethniques ou politiques spécifiques, facilitant ainsi des atrocités et des crimes contre l’humanité tels que le nettoyage ethnique. Le développement d’armes semiautonomes, comme les drones, a déjà démontré comment le taux de destruction peut être amplifié.
Sur le plan psychologique, il est plus facile pour un pilote de drone de tirer sur un point à l’écran que pour un soldat sur le terrain de faire de même. Si la décision de vie ou de mort est entièrement déléguée aux machines, la valeur de la vie humaine pourrait approcher zéro.
La fin de la responsabilité ?
Les bureaucraties gouvernementales peinent déjà avec la responsabilité, et l’IA risque d’aggraver ce problème de manière sans précédent. Les fonctionnaires peuvent facilement se décharger de toute responsabilité en cas d’erreurs, et avec des systèmes d’IA opaques, il sera infiniment plus difficile de tenir qui que ce soit responsable.
Scénarios
Scénario le plus probable : Un avenir dystopique
La course à l’IA entre les États semble imparable. Le développement de systèmes avancés est urgent, et il n’y a aucune raison de croire que cela changera. Le scénario le plus probable est donc que certains des aspects dystopiques mentionnés se réalisent, peut-être plus tôt que prévu.
Scénario moins probable : Résistance par des individus non étatiques
Il est également possible que des outils d’IA soient utilisés par des individus, des groupes ou des entreprises pour contrer les systèmes étatiques. Cela pourrait permettre de surveiller les abus ou les erreurs, d’interjeter des décisions et d’éviter la prise de pouvoir totale de l’appareil gouvernemental.
Scénario le moins probable : Responsabilité des élus
Enfin, il est peu probable que les gouvernements adoptent des régulations strictes contre les abus d’IA. Il est facile d’imaginer que des systèmes initialement innocents deviendront progressivement intrusifs, rendant la société de plus en plus dystopique.