Une étude révèle une confiance publique record à un niveau bas dans l’intelligence artificielle

Une nouvelle recherche a mis en lumière la méfiance croissante des Australiens envers l’intelligence artificielle (IA), alors que les craintes concernant son utilisation abusive alimentent des appels urgents à l’action gouvernementale à l’approche des élections fédérales.

Confiance en l’IA à un niveau historiquement bas

Un sondage mondial réalisé par l’Université de Melbourne et KPMG a révélé que la confiance des Australiens dans les systèmes d’IA a atteint un niveau record de méfiance :

  • Un tiers seulement des Australiens font confiance aux systèmes d’IA.
  • La moitié des Australiens ont personnellement vécu ou observé des préjudices causés par l’IA.
  • Près de 60 % craignent que les élections soient manipulées par des contenus générés par l’IA ou des bots.
  • Plus de trois quarts des personnes interrogées souhaitent une réglementation plus stricte, et moins d’un tiers pensent que les mesures de protection existantes sont adéquates.
  • Neuf Australiens sur dix soutiennent des lois spécifiques pour lutter contre la désinformation alimentée par l’IA.

Scorecard de sécurité IA pour les élections fédérales

Les Australiens pour la sécurité de l’IA ont publié leur scorecard de sécurité IA des élections fédérales de 2025, comparant la position de chaque grand parti sur deux politiques approuvées par des experts :

  • Un Institut de sécurité de l’IA australien, un organisme indépendant bien financé capable de tester des modèles de pointe, de rechercher des risques et de conseiller le gouvernement.
  • Une Loi sur l’IA australienne – une législation imposant des garde-fous obligatoires et des responsabilités claires aux développeurs et déployeurs d’IA à haut risque et d’IA à usage général.

Le scorecard montre que seuls les Verts australiens, le Parti des droits des animaux, le Parti autochtone-aborigène d’Australie et le Trumpet of Patriots soutiennent pleinement les deux politiques approuvées par des experts. Des sénateurs indépendants tels que David Pocock ont également exprimé leur soutien. En revanche, le Parti libertarien s’oppose généralement à ces politiques, les qualifiant de « schémas gouvernementaux ».

Réactions des partis politiques

La réponse du Coalition au scorecard a mis en évidence une inaction gouvernementale perçue : « Nous devons être conscients des risques associés à cette technologie… [T] le gouvernement Albanese a complètement échoué à prendre des mesures décisives ou à fournir une direction politique claire. »

Cependant, la réponse de la Coalition n’a pas exposé de position claire sur les politiques recommandées par des experts concernant l’Institut de sécurité de l’IA ou la Loi sur l’IA.

« C’est exactement ce à quoi ressemble la policrastination – un parti accusant l’autre d’inaction tout en ne proposant pas d’action de son propre chef », a déclaré un représentant d’une organisation de recherche sur la gouvernance de l’IA. « Les Australiens en ont assez des politiciens qui retardent et évitent de prendre des décisions difficiles et qui mettent des politiques importantes dans le panier des trop difficiles. »

Appels à une réglementation renforcée

Des experts en gouvernance de l’IA soulignent qu’une réglementation de sécurité robuste a permis au secteur de l’aviation de prospérer. De même, l’innovation en matière d’IA ne pourra s’épanouir qu’une fois que des tests indépendants et des devoirs statutaires clairs auront établi la confiance du public. Des instituts comparables fonctionnent déjà au Japon, en Corée, au Royaume-Uni et au Canada. Parallèlement à la Loi sur l’IA de l’UE, ils établissent une référence claire pour l’Australie.

Bien que l’Australie se soit engagée à créer un Institut de sécurité de l’IA, cela n’a pas encore été réalisé.

Conclusion

Les résultats complets du scorecard des partis et des candidats sont disponibles en ligne, permettant aux électeurs d’explorer les réponses particulières des principaux partis et les évaluations d’experts sur leur position.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...