L’intelligence artificielle au service d’une prospérité partagée

A globe

Le phare moral : intelligence artificielle et le monde que nous voulons

L’intelligence artificielle doit nous aider à construire le monde que nous souhaitons, et non permettre à un puissant petit groupe de construire le leur à notre place. Trop souvent, ce « petit groupe » est constitué de milliardaires riches, principalement blancs et masculins, qui voient la technologie comme un outil de profit et de pouvoir, non de dignité.

Dans le cadre de travaux dans le Sud mondial, plusieurs concepts culturels offrent des façons alternatives de penser la technologie et de construire un avenir plus juste, équitable et durable. Les technologues et les décideurs politiques engagés dans cet objectif doivent aller au-delà des cadres moraux et éthiques étroits et considérer la sagesse inhérente à ces concepts souvent anciens.

De kesejahteraan à kotahitanga

Ayant passé la majeure partie de ma vie en Asie, j’ai été témoin de la manière dont les innovations occidentales peuvent éclipser les cultures, langues et valeurs locales. J’ai eu le plaisir de travailler avec le Bureau national de l’IA de Malaisie sur des questions de gouvernance et d’éthique de l’IA. Un principe appelé kesejahteraan, traduit grossièrement par prospérité ou bien-être holistique, pourrait être un phare pour la gouvernance de l’IA.

Issu du cadre MADANI du gouvernement malais, kesejahteraan est une valeur civique enracinée dans les traditions pluralistes du pays, définissant le bien-être non comme un sous-produit de la croissance économique, mais comme un objectif national de floraison humaine en soi—ancré dans la compassion, la justice, l’équité et la dignité humaine.

Comme kesejahteraan, ces cadres offrent non seulement une aspiration éthique mais aussi une boussole morale—insistant pour que la technologie, la politique et le progrès servent tous un but humain plus profond.

Plus de compromis

Avec ces traditions basées sur des valeurs éclairant mon chemin, j’ai décidé de confronter une hypothèse qui a dominé le discours sur la politique technologique de pointe depuis trop longtemps : la nécessité de « équilibrer innovation et réglementation ». Voici la chose : il n’y a pas de compromis. Pas quand les enjeux sont aussi élevés.

En ce qui concerne l’IA et d’autres technologies de pointe puissantes, l’équation est plus simple : si cela ne sert pas la floraison humaine (et non humaine), ce n’est pas une innovation qui vaut la peine d’être poursuivie.

Échec du marché, échec moral

L’intelligence artificielle, sous ses nombreuses formes, transforme rapidement les économies, démocraties, lieux de travail et chaque dimension de la vie personnelle et politique, tout cela à une vitesse étonnante. Pendant ce temps, les milliardaires technologiques et disciples de l’accélérationnisme efficace nous disent que l’innovation doit être rapide, que les marchés doivent être libres et que la réglementation doit être minimale.

C’est une illusion dangereuse. Les marchés n’ont pas de conscience. Laissons-les seuls, ils n’optimisent pas l’inclusion, l’équité, la dignité ou la floraison humaine. Ils optimisent pour le profit, l’échelle, l’addiction et l’efficacité—souvent de manière à causer de réels dommages.

Et l’IA menace de répéter—et d’amplifier—ces échecs passés. Si elle est laissée sans surveillance et non réglementée, les dégâts infligés aux personnes, aux systèmes de gouvernement et à la vie culturelle seront encore plus profonds.

Ce à quoi ressemble un « phare moral »

Les leaders technologiques américains ont perdu la hauteur ici, tout comme les décideurs politiques. Il est temps pour les décideurs du Grand Sud d’arrêter d’écouter les sermons des PDG charismatiques de Big Tech et d’écouter ceux de l’intérieur.

Les traditions culturelles et religieuses du Grand Sud apportent une richesse de guidance morale pratique à la table de la politique. Un cadre éthique pour la politique de l’IA commence par réaffirmer quelques principes de base qui ont formé le fondement de nombreuses traditions autochtones à travers le monde : la dignité humaine n’est pas négociable, le pouvoir doit être responsable, et aucune innovation n’est au-dessus de l’examen public.

Ces exemples ne sont pas parfaits, mais ils montrent que des alternatives au modèle capitaliste, axé sur le marché, qui sous-tend une grande partie du discours de gouvernance d’aujourd’hui sont effectivement possibles.

Flourir… ou échouer

Les enjeux sont énormes. Les systèmes d’IA influenceront qui est embauché, promu ou licencié, qui reçoit quel soin médical, comment les enfants sont enseignés, et comment les gouvernements allouent les ressources. Si l’IA approfondit les inégalités, désavantage les personnes ou déplace la participation civique, ce n’est pas l’avenir que nous voulons.

Un phare moral ne garantit pas un passage sûr. Mais alimenté par les valeurs morales communes évidentes à travers les traditions du monde et les philosophies autochtones, il nous aide à tracer un cours et à naviguer dans l’incertitude.

La question ultime n’est pas ce que la technologie peut faire. La question est : quel type de monde voulons-nous construire ?

Articles

L’IA Responsable : Défis et Solutions en Entreprise

Dans cet article, l'auteur discute de l'importance de l'IA responsable dans les applications d'entreprise et des défis liés à son application dans un cadre réel. Il présente également le cadre de...

Directives européennes pour l’IA : vers une régulation des risques systémiques

La Commission européenne a publié des lignes directrices pour aider les modèles d'intelligence artificielle identifiés comme présentant des risques systémiques à se conformer à la réglementation sur...

La gouvernance à l’ère de l’intelligence artificielle

L'intelligence artificielle (IA) transforme la manière dont nous travaillons et gérons les entreprises. Aux Philippines, cette évolution s'accélère, avec des investissements croissants et une...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

La Loi AI du Colorado : Un Modèle de Régulation pour l’Avenir

La récente tentative infructueuse des membres du Congrès de geler les lois sur l'intelligence artificielle au niveau des États a laissé les entreprises américaines avec un patchwork de règles sur la...

Plan d’action AI : Vers une éthique renforcée

Le ministre numérique Gobind Singh Deo a annoncé que le prochain Plan d'action sur l'IA 2026-2030 de la Malaisie renforcera les normes éthiques et les cadres de gouvernance entourant l'utilisation de...

Stratégies et Éthique : Vers une Gouvernance de l’IA Responsable

Le développement de politiques d'intelligence artificielle (IA) responsables et de stratégies globales d'IA doit se faire simultanément plutôt que séquentiellement. Cela a été partagé par un panel...

Risques systémiques des IA : directives pour se conformer aux règles européennes

La Commission européenne a élaboré des lignes directrices pour aider les modèles d'IA présentant des risques systémiques à se conformer à la réglementation de l'IA de l'Union européenne. Les...