Une étude révèle une confiance publique record à un niveau bas dans l’intelligence artificielle

Une nouvelle recherche a mis en lumière la méfiance croissante des Australiens envers l’intelligence artificielle (IA), alors que les craintes concernant son utilisation abusive alimentent des appels urgents à l’action gouvernementale à l’approche des élections fédérales.

Confiance en l’IA à un niveau historiquement bas

Un sondage mondial réalisé par l’Université de Melbourne et KPMG a révélé que la confiance des Australiens dans les systèmes d’IA a atteint un niveau record de méfiance :

  • Un tiers seulement des Australiens font confiance aux systèmes d’IA.
  • La moitié des Australiens ont personnellement vécu ou observé des préjudices causés par l’IA.
  • Près de 60 % craignent que les élections soient manipulées par des contenus générés par l’IA ou des bots.
  • Plus de trois quarts des personnes interrogées souhaitent une réglementation plus stricte, et moins d’un tiers pensent que les mesures de protection existantes sont adéquates.
  • Neuf Australiens sur dix soutiennent des lois spécifiques pour lutter contre la désinformation alimentée par l’IA.

Scorecard de sécurité IA pour les élections fédérales

Les Australiens pour la sécurité de l’IA ont publié leur scorecard de sécurité IA des élections fédérales de 2025, comparant la position de chaque grand parti sur deux politiques approuvées par des experts :

  • Un Institut de sécurité de l’IA australien, un organisme indépendant bien financé capable de tester des modèles de pointe, de rechercher des risques et de conseiller le gouvernement.
  • Une Loi sur l’IA australienne – une législation imposant des garde-fous obligatoires et des responsabilités claires aux développeurs et déployeurs d’IA à haut risque et d’IA à usage général.

Le scorecard montre que seuls les Verts australiens, le Parti des droits des animaux, le Parti autochtone-aborigène d’Australie et le Trumpet of Patriots soutiennent pleinement les deux politiques approuvées par des experts. Des sénateurs indépendants tels que David Pocock ont également exprimé leur soutien. En revanche, le Parti libertarien s’oppose généralement à ces politiques, les qualifiant de « schémas gouvernementaux ».

Réactions des partis politiques

La réponse du Coalition au scorecard a mis en évidence une inaction gouvernementale perçue : « Nous devons être conscients des risques associés à cette technologie… [T] le gouvernement Albanese a complètement échoué à prendre des mesures décisives ou à fournir une direction politique claire. »

Cependant, la réponse de la Coalition n’a pas exposé de position claire sur les politiques recommandées par des experts concernant l’Institut de sécurité de l’IA ou la Loi sur l’IA.

« C’est exactement ce à quoi ressemble la policrastination – un parti accusant l’autre d’inaction tout en ne proposant pas d’action de son propre chef », a déclaré un représentant d’une organisation de recherche sur la gouvernance de l’IA. « Les Australiens en ont assez des politiciens qui retardent et évitent de prendre des décisions difficiles et qui mettent des politiques importantes dans le panier des trop difficiles. »

Appels à une réglementation renforcée

Des experts en gouvernance de l’IA soulignent qu’une réglementation de sécurité robuste a permis au secteur de l’aviation de prospérer. De même, l’innovation en matière d’IA ne pourra s’épanouir qu’une fois que des tests indépendants et des devoirs statutaires clairs auront établi la confiance du public. Des instituts comparables fonctionnent déjà au Japon, en Corée, au Royaume-Uni et au Canada. Parallèlement à la Loi sur l’IA de l’UE, ils établissent une référence claire pour l’Australie.

Bien que l’Australie se soit engagée à créer un Institut de sécurité de l’IA, cela n’a pas encore été réalisé.

Conclusion

Les résultats complets du scorecard des partis et des candidats sont disponibles en ligne, permettant aux électeurs d’explorer les réponses particulières des principaux partis et les évaluations d’experts sur leur position.

Articles

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

Risques de conformité liés à l’intégration de l’IA

L'intelligence artificielle devient un élément essentiel des fonctions de conformité des entreprises, mais son intégration présente également des risques réglementaires et opérationnels. Les...

Gouvernance de l’IA : un défi urgent pour les entreprises

Selon une nouvelle recherche, 93 % des entreprises au Royaume-Uni utilisent aujourd'hui l'IA, mais la plupart manquent de cadres pour gérer ses risques. Seul sept pour cent ont intégré des cadres de...

Gouvernance des données : Les enjeux de l’Acte européen sur l’IA

La Loi sur l'intelligence artificielle de l'Union européenne propose un cadre pour réglementer l'IA, en particulier pour les systèmes à "haut risque". L'article 10 se concentre sur les données et la...

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...

Réglementation de l’UE sur l’IA : Vers une conformité stricte pour les modèles à risque

La Commission européenne a publié des directives pour aider les entreprises à se conformer à la loi sur l'intelligence artificielle de l'UE, qui entrera en vigueur le 2 août. Les entreprises doivent...

Risques systémiques des modèles d’IA : se conformer aux règles de l’UE

Les modèles d'IA présentent des risques systémiques qui doivent être pris en compte pour respecter les réglementations de l'UE sur l'IA. Ce document fournit des conseils sur la manière de se conformer...

Musiciens européens unis pour défendre leurs droits face à l’IA

Plus de 30 musiciens européens ont lancé une campagne vidéo unie pour demander à la Commission européenne de préserver l'intégrité de la loi sur l'IA de l'UE. Ils exigent le droit d'être informés et...

Les agents IA : un cauchemar de sécurité pour les entreprises

L'émergence des agents d'IA dans les applications d'entreprise introduit un nouveau type de trafic réseau complexe, rendant la visibilité et la sécurité plus difficiles. Cela souligne la nécessité...