Gouvernance de l’IA : Vers une protection des droits humains

A lock and key.

Les efforts de gouvernance de l’IA axés sur les droits humains

Les avancées rapides de l’IA poussent les dirigeants mondiaux à confronter des questions délicates concernant le pouvoir, la responsabilité et la protection des libertés fondamentales dans un monde de plus en plus automatisé.

Un appel à l’action multilatéral

Lors du Forum sur la gouvernance d’Internet 2025 à Lillestrøm, en Norvège, une session clé a mis en lumière le lancement de la déclaration conjointe mise à jour de la Freedom Online Coalition (FOC) sur l’IA et les droits humains. Soutenue par 21 pays et en constante expansion, cette déclaration esquisse une vision pour une gouvernance de l’IA centrée sur l’humain, ancrée dans le droit international des droits humains.

Des représentants de gouvernements, de la société civile et de l’industrie technologique se sont réunis, notamment des pays comme les Pays-Bas, l’Allemagne, le Ghana, l’Estonie et Microsoft, pour souligner l’urgence d’une approche collective et multilatérale afin de faire face aux risques réels que l’IA pose aux droits tels que la vie privée, la liberté d’expression et la participation démocratique.

Les avertissements des représentants

L’ambassadeur Ernst Noorman des Pays-Bas a averti que les droits humains et la sécurité doivent être considérés comme interconnectés, soulignant qu’une utilisation non régulée de l’IA peut déstabiliser les sociétés plutôt que de les protéger. Ses remarques font écho aux leçons difficiles tirées par les Pays-Bas concernant les algorithmes biaisés dans le domaine de l’aide sociale.

D’autres intervenants, dont l’ambassadrice numérique de l’Allemagne, Maria Adebahr, ont souligné comment l’IA est utilisée comme une arme pour la répression transnationale, tout en affirmant l’engagement de l’Allemagne à doubler le financement pour la FOC.

Le chef de la cybersécurité du Ghana, Divine Salese Agbeti, a ajouté que l’utilisation abusive de l’IA n’est pas exclusive aux gouvernements ; des citoyens ont également exploité cette technologie pour la manipulation et la tromperie.

Les contributions du secteur privé

Du secteur privé, le Dr Erika Moret de Microsoft a présenté l’approche multicouche de l’entreprise pour intégrer les droits humains dans l’IA, allant de la conception éthique et des évaluations d’impact à la rejection des applications à haut risque comme la reconnaissance faciale dans des contextes autoritaires. Elle a souligné l’alignement de l’entreprise avec les principes directeurs des Nations Unies et la nécessité de transparence, de équité et d’inclusivité.

Les cadres mondiaux nécessaires

La discussion a également mis en avant des cadres mondiaux contraignants tels que le Règlement de l’UE sur l’IA et la Convention-cadre du Conseil de l’Europe, appelant à leur adoption généralisée comme outils vitaux pour gérer l’impact mondial de l’IA. La session s’est conclue par un appel à l’action partagé : les gouvernements doivent utiliser des outils réglementaires et leur pouvoir d’achat pour faire respecter les normes des droits humains dans l’IA, tandis que le secteur privé et la société civile doivent pousser pour la responsabilité et l’inclusion.

La déclaration de la FOC reste ouverte à de nouveaux soutiens, servant de texte fondamental dans l’effort en cours pour aligner l’avenir de l’IA avec les droits fondamentaux de tous.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...