Approche de gouvernance pour des technologies AI responsables face aux dangers en ligne

A digital traffic light conveying the need for governance and regulation in AI usage.

A Safety by Design Governance Approach to Addressing AI-Facilitated Online Harms

La croissance rapide de l’intelligence artificielle (IA) transforme le paysage numérique, amplifiant les préjudices en ligne existants et introduisant de nouveaux risques de sécurité en ligne plus complexes. L’IA générative permet désormais aux utilisateurs, même sans expertise technique, de créer du contenu synthétique indiscernable du contenu authentique. Un rapport de Netsafe et de l’AI Asia Pacific Institute met en lumière les implications émergentes pour la sécurité en ligne, en soulignant l’essor des deepfakes comme exemple clair.

Les deepfakes sont de plus en plus utilisés par des acteurs malveillants pour causer des préjudices en ligne et distordre le paysage de l’information. Au premier trimestre de 2025 seulement, des escroqueries utilisant des deepfakes pour imiter des personnalités publiques ont causé des pertes mondiales de 200 millions de dollars. Ces technologies ont également été utilisées pour créer du contenu pornographique ciblant de manière disproportionnée les femmes et les jeunes, contribuant à des incidents d’extorsion et de manipulation.

Répondre à la Sophistication Croissante des Préjudices en Ligne

Pour faire face à la sophistication croissante et au volume des préjudices facilités par l’IA, une approche de gouvernance par la sécurité par le design est nécessaire. Cette approche doit cibler différentes étapes du cycle de vie des préjudices en ligne et prendre en compte les dimensions technologiques et humaines distinctes de la sécurité en ligne. Alors que les cadres de gouvernance de l’IA se concentrent souvent sur les développeurs et les déployeurs, il est crucial de ne pas négliger l’élément humain des préjudices liés à l’IA.

Un Cadre de Réponse Systémique

Un cadre de gouvernance de sécurité par le design est essentiel pour établir des interventions à différentes étapes du cycle de vie des préjudices. Ce cadre peut être structuré autour de trois étapes : Préparer, Limiter, et Répondre.

La phase de Préparation se concentre sur la réduction de la vulnérabilité des utilisateurs face aux préjudices en ligne par des efforts d’éducation aux médias numériques. La phase de Limitation appelle à des interventions préventives, telles que des filtres de contenu et des protocoles de filigrane pour tracer l’origine du contenu généré par l’IA. Enfin, la phase de Réponse emploie des mesures réactives visant à remédier aux effets du contenu nuisible, comme le counseling de crise et les voies de plainte pour poursuivre des actions légales.

Une Réponse Internationale Nécessaire

Alors que les interventions politiques nationales sont cruciales pour traiter les impacts locaux des préjudices liés à l’IA, une gouvernance et une action internationales coordonnées sont nécessaires pour faire face à leur portée transnationale. Des forums comme le Global Online Safety Regulators Network peuvent faciliter la collaboration mondiale à l’intersection de l’IA et de la sécurité en ligne.

Une Perspective Asie-Pacifique

Dans les régions en pleine transformation numérique, il existe une opportunité critique d’appliquer le cadre « Préparer-Limiter-Répondre » alors que les préjudices facilités par l’IA émergent mais ne sont pas encore largement répandus. Par exemple, l’approche des Fidji pour lutter contre les préjudices en ligne liés à l’IA offre un modèle, avec des mesures alignées sur le cadre mentionné.

Les Fidji ont distribué plus de 60 000 brochures sur la sécurité en ligne et soutiennent des efforts communautaires pour promouvoir une utilisation sûre et informée d’Internet. Pour limiter la montée des escroqueries personnalisées utilisant l’IA, un groupe de travail dédié a été établi.

Dans le contexte dynamique de l’IA, il est essentiel de reconnaître que les mesures de sécurité techniques ne sont pas une panacée. En alignant la sensibilisation du public, les outils technologiques et les mesures politiques, il est possible d’exploiter l’IA de manière plus efficace pour aborder les risques qu’elle crée et renforcer la capacité des pays à lutter contre les préjudices en ligne.

Articles

Gouvernance de l’IA en Asie du Sud-Est : Une approche locale pour un avenir sûr

Les parties de l'Asie du Sud-Est sont fortement connectées numériquement et ont connu des développements passionnants, mais les voix de la région sont souvent sous-représentées dans les conversations...

Plans d’action IA : similitudes entre les stratégies américaines et chinoises

En juillet, les États-Unis et la Chine ont présenté leurs visions nationales pour le développement et la gouvernance de l'IA à travers leurs propres plans d'action. Bien que leurs approches...

Gouvernance privée : la clé d’une régulation efficace de l’IA

La gouvernance privée et les espaces de réglementation sont essentiels pour la démocratie, l'efficacité et l'innovation dans la réglementation de l'IA. Cet article explore comment la gouvernance...

Gouvernance de l’IA : Vers un développement durable et inclusif en Afrique

Le ministre égyptien de la Planification et du Développement économique, Rania Al-Mashat, a souligné la nécessité de mettre en place des cadres de gouvernance robustes pour garantir que l'intelligence...

Renforcer la gouvernance de l’IA pour un accès équitable au crédit au Kenya

Le Kenya doit renforcer la gouvernance de l'IA dans le prêt pour garantir un accès équitable au crédit. Sans une gouvernance robuste, le scoring de crédit basé sur l'IA pourrait aggraver les...

Gouvernance des interactions entre intelligences artificielles : un appel urgent à l’action

Ce mois-ci, la société maritime italienne Grimaldi Group a lancé son nouveau transporteur de 9 000 unités, le Grande Tianjin, qui transportera des véhicules électriques de la Chine vers l'Europe...

Approche de gouvernance pour des technologies AI responsables face aux dangers en ligne

La croissance rapide de l'intelligence artificielle (IA) transforme le paysage numérique, amplifiant les dangers en ligne existants et introduisant de nouveaux risques complexes pour la sécurité en...

Réglementations AI : enjeux et stratégies pour les leaders industriels

Il existe une incertitude réglementaire significative dans la supervision mondiale de l'IA, en raison d'un paysage juridique fragmenté qui entrave la gouvernance efficace des systèmes d'IA...

Examiner les impacts de la Loi sur l’Intelligence Artificielle de l’UE

De nouvelles obligations découlant de la loi sur l'intelligence artificielle de l'UE concernant les modèles d'IA à usage général entreront en vigueur en août, avec d'autres obligations prévues pour...