Une étude révèle une confiance publique record à un niveau bas dans l’intelligence artificielle
Une nouvelle recherche a mis en lumière la méfiance croissante des Australiens envers l’intelligence artificielle (IA), alors que les craintes concernant son utilisation abusive alimentent des appels urgents à l’action gouvernementale à l’approche des élections fédérales.
Confiance en l’IA à un niveau historiquement bas
Un sondage mondial réalisé par l’Université de Melbourne et KPMG a révélé que la confiance des Australiens dans les systèmes d’IA a atteint un niveau record de méfiance :
- Un tiers seulement des Australiens font confiance aux systèmes d’IA.
- La moitié des Australiens ont personnellement vécu ou observé des préjudices causés par l’IA.
- Près de 60 % craignent que les élections soient manipulées par des contenus générés par l’IA ou des bots.
- Plus de trois quarts des personnes interrogées souhaitent une réglementation plus stricte, et moins d’un tiers pensent que les mesures de protection existantes sont adéquates.
- Neuf Australiens sur dix soutiennent des lois spécifiques pour lutter contre la désinformation alimentée par l’IA.
Scorecard de sécurité IA pour les élections fédérales
Les Australiens pour la sécurité de l’IA ont publié leur scorecard de sécurité IA des élections fédérales de 2025, comparant la position de chaque grand parti sur deux politiques approuvées par des experts :
- Un Institut de sécurité de l’IA australien, un organisme indépendant bien financé capable de tester des modèles de pointe, de rechercher des risques et de conseiller le gouvernement.
- Une Loi sur l’IA australienne – une législation imposant des garde-fous obligatoires et des responsabilités claires aux développeurs et déployeurs d’IA à haut risque et d’IA à usage général.
Le scorecard montre que seuls les Verts australiens, le Parti des droits des animaux, le Parti autochtone-aborigène d’Australie et le Trumpet of Patriots soutiennent pleinement les deux politiques approuvées par des experts. Des sénateurs indépendants tels que David Pocock ont également exprimé leur soutien. En revanche, le Parti libertarien s’oppose généralement à ces politiques, les qualifiant de « schémas gouvernementaux ».
Réactions des partis politiques
La réponse du Coalition au scorecard a mis en évidence une inaction gouvernementale perçue : « Nous devons être conscients des risques associés à cette technologie… [T] le gouvernement Albanese a complètement échoué à prendre des mesures décisives ou à fournir une direction politique claire. »
Cependant, la réponse de la Coalition n’a pas exposé de position claire sur les politiques recommandées par des experts concernant l’Institut de sécurité de l’IA ou la Loi sur l’IA.
« C’est exactement ce à quoi ressemble la policrastination – un parti accusant l’autre d’inaction tout en ne proposant pas d’action de son propre chef », a déclaré un représentant d’une organisation de recherche sur la gouvernance de l’IA. « Les Australiens en ont assez des politiciens qui retardent et évitent de prendre des décisions difficiles et qui mettent des politiques importantes dans le panier des trop difficiles. »
Appels à une réglementation renforcée
Des experts en gouvernance de l’IA soulignent qu’une réglementation de sécurité robuste a permis au secteur de l’aviation de prospérer. De même, l’innovation en matière d’IA ne pourra s’épanouir qu’une fois que des tests indépendants et des devoirs statutaires clairs auront établi la confiance du public. Des instituts comparables fonctionnent déjà au Japon, en Corée, au Royaume-Uni et au Canada. Parallèlement à la Loi sur l’IA de l’UE, ils établissent une référence claire pour l’Australie.
Bien que l’Australie se soit engagée à créer un Institut de sécurité de l’IA, cela n’a pas encore été réalisé.
Conclusion
Les résultats complets du scorecard des partis et des candidats sont disponibles en ligne, permettant aux électeurs d’explorer les réponses particulières des principaux partis et les évaluations d’experts sur leur position.