Approche de gouvernance pour des technologies AI responsables face aux dangers en ligne

A digital traffic light conveying the need for governance and regulation in AI usage.

A Safety by Design Governance Approach to Addressing AI-Facilitated Online Harms

La croissance rapide de l’intelligence artificielle (IA) transforme le paysage numérique, amplifiant les préjudices en ligne existants et introduisant de nouveaux risques de sécurité en ligne plus complexes. L’IA générative permet désormais aux utilisateurs, même sans expertise technique, de créer du contenu synthétique indiscernable du contenu authentique. Un rapport de Netsafe et de l’AI Asia Pacific Institute met en lumière les implications émergentes pour la sécurité en ligne, en soulignant l’essor des deepfakes comme exemple clair.

Les deepfakes sont de plus en plus utilisés par des acteurs malveillants pour causer des préjudices en ligne et distordre le paysage de l’information. Au premier trimestre de 2025 seulement, des escroqueries utilisant des deepfakes pour imiter des personnalités publiques ont causé des pertes mondiales de 200 millions de dollars. Ces technologies ont également été utilisées pour créer du contenu pornographique ciblant de manière disproportionnée les femmes et les jeunes, contribuant à des incidents d’extorsion et de manipulation.

Répondre à la Sophistication Croissante des Préjudices en Ligne

Pour faire face à la sophistication croissante et au volume des préjudices facilités par l’IA, une approche de gouvernance par la sécurité par le design est nécessaire. Cette approche doit cibler différentes étapes du cycle de vie des préjudices en ligne et prendre en compte les dimensions technologiques et humaines distinctes de la sécurité en ligne. Alors que les cadres de gouvernance de l’IA se concentrent souvent sur les développeurs et les déployeurs, il est crucial de ne pas négliger l’élément humain des préjudices liés à l’IA.

Un Cadre de Réponse Systémique

Un cadre de gouvernance de sécurité par le design est essentiel pour établir des interventions à différentes étapes du cycle de vie des préjudices. Ce cadre peut être structuré autour de trois étapes : Préparer, Limiter, et Répondre.

La phase de Préparation se concentre sur la réduction de la vulnérabilité des utilisateurs face aux préjudices en ligne par des efforts d’éducation aux médias numériques. La phase de Limitation appelle à des interventions préventives, telles que des filtres de contenu et des protocoles de filigrane pour tracer l’origine du contenu généré par l’IA. Enfin, la phase de Réponse emploie des mesures réactives visant à remédier aux effets du contenu nuisible, comme le counseling de crise et les voies de plainte pour poursuivre des actions légales.

Une Réponse Internationale Nécessaire

Alors que les interventions politiques nationales sont cruciales pour traiter les impacts locaux des préjudices liés à l’IA, une gouvernance et une action internationales coordonnées sont nécessaires pour faire face à leur portée transnationale. Des forums comme le Global Online Safety Regulators Network peuvent faciliter la collaboration mondiale à l’intersection de l’IA et de la sécurité en ligne.

Une Perspective Asie-Pacifique

Dans les régions en pleine transformation numérique, il existe une opportunité critique d’appliquer le cadre « Préparer-Limiter-Répondre » alors que les préjudices facilités par l’IA émergent mais ne sont pas encore largement répandus. Par exemple, l’approche des Fidji pour lutter contre les préjudices en ligne liés à l’IA offre un modèle, avec des mesures alignées sur le cadre mentionné.

Les Fidji ont distribué plus de 60 000 brochures sur la sécurité en ligne et soutiennent des efforts communautaires pour promouvoir une utilisation sûre et informée d’Internet. Pour limiter la montée des escroqueries personnalisées utilisant l’IA, un groupe de travail dédié a été établi.

Dans le contexte dynamique de l’IA, il est essentiel de reconnaître que les mesures de sécurité techniques ne sont pas une panacée. En alignant la sensibilisation du public, les outils technologiques et les mesures politiques, il est possible d’exploiter l’IA de manière plus efficace pour aborder les risques qu’elle crée et renforcer la capacité des pays à lutter contre les préjudices en ligne.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...