Standardisation : clé pour maîtriser les risques de l’IA

A shield with digital patterns

Le rôle de la standardisation dans la gestion des risques liés à l’IA

Alors que l’IA transforme Singapour et le reste du monde, les organisations doivent relever de nombreux défis en matière de gestion des risques que cette technologie révolutionnaire engendre. Les entreprises et les organisations ne sont pas les seules à se concentrer sur ce sujet; les régulateurs et les gouvernements élaborent également des cadres de gouvernance de l’IA pour traiter les risques spécifiques rencontrés dans leur juridiction ou leur secteur.

Par exemple, l’Observatoire des politiques de l’IA de l’OCDE suit plus de 1 000 initiatives politiques en matière d’IA provenant de 69 pays, territoires et de l’UE. Nous avons également observé des approches divergentes concernant l’étendue de la portée réglementaire dans la gouvernance des risques potentiels de l’IA.

Indépendamment des mesures réglementaires, les risques liés à l’IA sont inévitables. Par conséquent, une approche standardisée qui incorpore un consensus mondial est utile pour fournir des orientations aux organisations cherchant à équilibrer innovation et agilité avec une bonne gestion des risques.

La matrice des risques liés à l’IA : pourquoi tout cela n’est pas nouveau

L’IA et les logiciels traditionnels partagent de nombreuses pratiques de gestion des risques, telles que les cycles de développement et l’hébergement de la pile technologique. Cependant, l’imprévisibilité de l’IA et sa dépendance aux données introduisent des risques uniques, en plus de la gestion des risques liés à la technologie existante.

Tout d’abord, avec la montée de l’IA générative, un nombre croissant de personnes adoptent et utilisent cette technologie, augmentant ainsi la surface d’attaque et les expositions aux risques. Deuxièmement, à mesure que les modèles d’IA générative intègrent davantage de données d’entreprise, les risques de divulgation accidentelle d’informations augmentent, en particulier lorsque les contrôles d’accès n’ont pas été correctement mis en œuvre. Troisièmement, l’IA comporte des risques dans des domaines tels que la vie privée, l’équité, l’explicabilité et la transparence.

Trouver l’équilibre à une époque de changement constant

En ce qui concerne les défis, peut-être le plus grand est le fait que l’IA évolue si rapidement que la gestion des risques doit être considérée comme une cible mouvante. Cela met les organisations dans une situation délicate : ne pas adopter l’IA suffisamment rapidement signifie qu’elles prennent du retard par rapport à leurs concurrents ; aller trop vite pourrait les exposer à des pièges éthiques, juridiques et opérationnels.

L’équilibre à trouver est donc délicat — et cela s’applique non seulement aux grandes entreprises mais également aux sociétés de toutes tailles dans chaque secteur, où le déploiement de l’IA dans les opérations commerciales essentielles devient courant. Comment, alors, les organisations peuvent-elles mieux gérer les risques sans ralentir l’innovation ou être trop prescriptives ?

C’est ici que les efforts de standardisation, tels que l’ISO/IEC 42001:2023, fournissent des orientations aux organisations pour établir, mettre en œuvre, maintenir et améliorer en continu un Système de gestion de l’intelligence artificielle (AIMS). Développé par le sous-comité pour les normes d’IA de l’ISO/IEC JTC 1/SC 42, qui compte 45 nations membres participantes, il représente un consensus mondial et offre aux organisations une approche structurée pour gérer les risques associés au déploiement de l’IA.

Plutôt que d’être étroitement couplée à une mise en œuvre technologique spécifique, cette orientation met l’accent sur l’établissement d’un ton fort venant du sommet et sur la mise en œuvre d’un processus continu d’évaluation et d’amélioration des risques — s’alignant sur le modèle Plan-Do-Check-Act pour favoriser une gestion des risques itérative et à long terme plutôt qu’une conformité ponctuelle. Cela fournit le cadre nécessaire aux organisations pour bâtir les composants de gestion des risques nécessaires, tenant compte de l’échelle et de la complexité de leurs mises en œuvre.

Étant une norme certifiable, l’ISO/IEC 42001:2023 est également vérifiable. Les organisations peuvent être formellement certifiées ou simplement s’y conformer comme meilleure pratique. Dans tous les cas, la certification ou l’alignement aide les organisations à démontrer à leurs parties prenantes leurs efforts continus pour gérer les risques associés à l’adoption ou au développement de solutions d’IA.

Standardisation : le remède aux douleurs de l’IA

Suivre une norme comme l’ISO 42001 est également bénéfique pour d’autres raisons. Son approche aide à traiter la fragmentation de l’adoption de l’IA au sein des entreprises, où elle avait auparavant été isolée au sein des équipes de science des données. L’adoption généralisée des solutions d’IA générative a entraîné une dispersion des mises en œuvre qui met les entreprises sous pression pour gérer leurs risques liés à l’IA à une échelle beaucoup plus large.

Avec cela viennent trois points de douleur significatifs : un manque de responsabilité claire pour la dépendance aux décisions prises par l’IA ; la nécessité d’équilibrer rapidité et prudence ; et, pour les entreprises ayant des opérations transfrontalières, les défis liés à la navigation dans des orientations fragmentées de différents régulateurs.

Encore une fois, une approche standardisée fonctionne le mieux. Le cadre unifié et reconnu internationalement de l’ISO 42001 pour la gouvernance de l’IA, par exemple, s’attaque à ces problèmes. Il établit des structures de responsabilité claires et — au lieu de dicter l’utilisation de technologies spécifiques ou d’étapes de conformité — offre des principes directeurs que les organisations peuvent suivre lors de l’établissement d’un programme de gestion des risques liés à l’IA. Cette approche basée sur des principes évite également deux préoccupations clés concernant la gestion des risques de l’IA : qu’elle freinera l’innovation et que des normes trop prescriptives deviendront rapidement obsolètes.

Dans un monde où l’IA devient de plus en plus intégrée dans le tissu des affaires, les organisations doivent s’assurer qu’elles sont prêtes à gérer ses risques. En standardisant leur approche, elles peuvent se positionner pour naviguer plus facilement dans les futures réglementations sur l’IA, atténuer les risques de conformité et innover de manière responsable. Ainsi, l’IA peut rester une force pour le bien — tant pour les organisations elles-mêmes que pour la société dans son ensemble.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...