Quel est l’objectif du cadre du cycle de vie de l’IA dans la gestion des risques liés à l’IA ?
Le cadre du cycle de vie de l’IA vise à fournir aux décideurs politiques et aux régulateurs une approche structurée pour atténuer les risques complexes associés aux technologies d’IA. Il divise le développement de l’IA en sept étapes distinctes :
- Collecte et prétraitement des données
- Architecture du modèle
- Formation et évaluation du modèle
- Déploiement du modèle
- Application du modèle
- Interaction utilisateur
- Surveillance et maintenance continues
En identifiant des points d’intervention efficaces à chaque étape, le cadre permet de mettre en œuvre des stratégies ciblées d’atténuation des risques qui s’alignent sur les principes directeurs clés. En fin de compte, il vise à favoriser une approche équilibrée et proactive de la gestion des risques liés à l’IA, en maximisant les avantages tout en minimisant les dommages potentiels.
Principales observations :
Le cadre est structuré autour du concept de risques et d’atténuations « en amont » et « en aval » :
- Les risques en amont découlent de la formation et du développement du modèle.
- Les risques en aval résultent des interactions des utilisateurs avec les modèles.
L’atténuation des risques peut se produire à la fois aux étapes en amont et en aval, même pour les catégories de risques principalement associées à l’une ou l’autre. Par exemple, l’utilisation malveillante, un risque en aval, peut être traitée à la fois par des mesures d’atténuation en amont (développement du modèle) et en aval (interaction utilisateur).
Une atténuation efficace doit être spécifique et étroitement adaptée à l’étape pertinente du cycle de vie de l’IA. Une recherche approfondie et une compréhension des risques et des stratégies d’atténuation disponibles sont essentielles pour que les décideurs politiques et les développeurs d’IA réduisent les dommages potentiels.
Préoccupations réglementaires :
Le cadre souligne l’importance d’une surveillance réglementaire adaptable et en constante évolution. Des mécanismes de révision régulière, de raffinement et de surveillance continue des systèmes d’IA sont essentiels pour suivre le rythme des progrès technologiques rapides et des menaces émergentes.
En ce qui concerne les modèles d’IA en libre accès, les décideurs politiques doivent créer une surveillance réglementaire de l’IA qui tienne compte de la faisabilité technique des mesures proposées. La collaboration avec des experts en IA et des parties prenantes pour identifier et mettre en œuvre des mécanismes à la fois efficaces et techniquement réalisables est essentielle pour trouver le juste équilibre entre la promotion de l’innovation en matière d’IA et la lutte contre l’utilisation malveillante de l’IA.
Implications pratiques :
L’application du cadre du cycle de vie de l’IA implique la mise en œuvre d’interventions techniques et politiques. Les mesures d’atténuation techniques impliquent des modifications concrètes des structures techniques qui peuvent réduire les risques. Les mesures d’atténuation politiques, souvent sous la forme de cadres réglementaires, incitent les développeurs à adopter des mesures d’atténuation techniques et à garantir l’éducation et la sécurité des utilisateurs.
Les stratégies d’atténuation spécifiques comprennent :
- La transparence de la provenance des ensembles de données
- Des normes de sécurité strictes pour l’architecture du modèle
- Des audits de sécurité et des tests d’intrusion réguliers
- La détection des anomalies et une surveillance continue lors du déploiement du modèle
- La supervision humaine dans l’application du modèle
- Des mécanismes de signalement des suspicions de fraude ou d’utilisation malveillante
Le cadre reconnaît que certaines mesures d’atténuation des risques peuvent être plus efficaces sur l’ensemble des modèles en libre accès, tandis que d’autres peuvent être plus applicables aux systèmes à source fermée avec un plus grand contrôle sur l’accès et l’utilisation.
Quels sont les principes clés qui guident les stratégies d’atténuation des risques liés à l’IA ?
L’Institute for Security and Technology (IST) a identifié cinq principes directeurs fondamentaux pour développer des stratégies efficaces d’atténuation des risques liés à l’IA. Ces principes fournissent un contexte de haut niveau aux décideurs politiques, aux développeurs d’IA et aux autres parties prenantes qui naviguent dans le paysage complexe de l’IA et qui ont besoin de se conformer aux réglementations.
Équilibrer l’innovation et l’aversion au risque
La gouvernance et la gestion de l’IA nécessitent un équilibre délicat : encourager l’innovation responsable tout en donnant la priorité à l’identification et à l’atténuation des risques potentiels. L’objectif est d’exploiter le potentiel transformateur de l’IA tout en veillant à ce que son développement et son utilisation soient conformes aux normes de sécurité, d’éthique et de fiabilité. Il faut veiller à ne pas freiner l’innovation tout en gérant les risques.
Responsabilité partagée entre les parties prenantes
Une atténuation efficace des risques liés à l’IA exige la collaboration de toutes les parties prenantes, y compris les décideurs politiques, les développeurs d’IA, les utilisateurs et la société civile. Un point essentiel est que chaque groupe apporte des perspectives, une expertise et des rôles uniques qui doivent être pris en compte. La reconnaissance et l’adoption de cette responsabilité partagée favorisent une approche collaborative et donc plus efficace de l’atténuation des risques, en tirant parti des atouts de toutes les parties prenantes.
Engagement envers l’exactitude et la véracité
Il est essentiel de s’assurer que les modèles d’IA fournissent des informations fiables et factuelles pour instaurer la confiance. Les stratégies d’atténuation des risques doivent donner la priorité à la préservation de l’exactitude en évitant la censure, et éviter de compromettre la vérité pour obtenir des résultats acceptables. Le respect de ce principe permet de développer des systèmes d’IA dignes de confiance et des résultats utiles, vérifiables et fiables qui éclairent les décisions critiques et contribuent à façonner la compréhension des défis complexes auxquels l’humanité est confrontée.
Réglementation praticable et réalisable
La surveillance réglementaire de l’IA doit tenir compte de la faisabilité technique de toute mesure proposée. Une surveillance pratique exige une collaboration avec des experts en IA et des parties prenantes afin d’identifier et de mettre en œuvre des mécanismes efficaces et techniquement réalisables qui garantiront l’équité, atténueront les préjudices et assureront la surveillance requise. Il faut explorer des approches alternatives qui créent une responsabilité significative sans imposer d’obstacles ou de contraintes techniquement irréalisables au développement de l’IA.
Surveillance adaptable et continue pour lutter contre les risques
Les cadres réglementaires doivent s’adapter et suivre les progrès technologiques, les meilleures pratiques et les enseignements tirés. Ces cadres doivent intégrer des mécanismes de révision régulière, de perfectionnement, de surveillance continue et de contrôle efficace. Il faut adopter une collecte constante de données, une analyse rigoureuse et des boucles de rétroaction efficaces pour mieux éclairer les améliorations continues et les efforts d’atténuation des risques, tout en restant vigilant face aux menaces émergentes, aux vulnérabilités et aux préoccupations éthiques.
Comment le cadre du cycle de vie de l’IA peut-il favoriser l’innovation tout en gérant les risques liés à l’IA ?
Le cadre du cycle de vie de l’IA offre une approche structurée du développement de l’IA, divisée en sept étapes distinctes : collecte et prétraitement des données, architecture du modèle, formation et évaluation du modèle, déploiement du modèle, application du modèle, interaction avec l’utilisateur et surveillance et maintenance continues. Ce cadre permet d’adopter des stratégies ciblées d’atténuation des risques à chaque étape, permettant à l’innovation de s’épanouir tout en abordant les dommages potentiels de manière proactive.
Équilibrer l’innovation et l’aversion au risque
La clé est l’atténuation sur mesure. Le cadre du cycle de vie de l’IA permet des choix précis à chaque étape du développement, protégeant ainsi l’innovation en utilisant des interventions qui gèrent et réduisent efficacement les risques avec une intrusion minimale. Se concentrer en amont sur les mesures d’atténuation lors du développement du modèle est un excellent exemple, car cela permet de faire face aux risques de manière préventive sans entraver le développement des applications en aval.
Responsabilité partagée et engagement des parties prenantes
Au cœur de ce cadre se trouve le principe de responsabilité partagée. Les parties prenantes, notamment les responsables politiques, les développeurs d’IA, les utilisateurs et la société civile, doivent collaborer. En cartographiant les risques et les mesures d’atténuation tout au long du cycle de vie, chaque groupe comprend son rôle, en tirant parti de diverses perspectives pour une gestion des risques plus robuste.
Stratégies praticables et tenant compte de la faisabilité
Le cadre décompose le développement de l’IA en phases gérables, ouvrant la voie à des mesures réglementaires réalisables. En se concentrant sur des phases spécifiques, les organismes de réglementation peuvent élaborer des interventions ciblées qui soient à la fois techniquement viables et percutantes, évitant ainsi les mandats trop larges ou impraticables. Cela encourage l’innovation en concentrant les charges réglementaires sur des actions spécifiques.
Supervision adaptable et continue
Le cadre du cycle de vie de l’IA s’harmonise bien avec le besoin continu de cadres réglementaires adaptatifs en ce sens qu’il évolue parallèlement aux avancées technologiques. La surveillance continue et l’amélioration itérative sont intégrées au cycle de vie, permettant des mises à jour continues des stratégies d’atténuation des risques en fonction à la fois des menaces émergentes et des nouveaux développements de la technologie de l’IA.
Principales stratégies d’atténuation tout au long du cycle de vie
Voici quelques exemples concrets d’approches d’atténuation, par phase du cycle de vie :
- Collecte et prétraitement des données : Rendre la provenance des ensembles de données transparente pour les utilisateurs du public et la société civile, en validant toutes les données afin de détecter et, si nécessaire, de supprimer les points de données anormaux/suspects avant qu’ils n’entrent dans le pipeline de formation. Cela comprendrait également l’utilisation de techniques d’IA préservant la confidentialité (telles que l’apprentissage fédéré).
- Architecture du modèle : Soutenir les tables rondes sur l’IA pour les experts américains en IA, en incitant les organisations et les chercheurs par le biais d’incitations en espèces, de puissance de calcul ou de subventions à partager leurs connaissances et à adopter des pratiques d’IA sécurisées. Dans le même ordre d’idées, nous avons besoin de normes de sécurité robustes dans les principaux laboratoires d’IA, afin d’encourager le partage de données et la création de technologies d’IA sécurisées.
- Formation et évaluation du modèle : Mandater des audits de sécurité et des tests d’intrusion réguliers pour identifier les vulnérabilités et s’assurer que les modèles ne sont pas exploités à des fins/accès malveillants. Créer de solides protections juridiques et des récompenses publiques pour les lanceurs d’alerte qui signalent un comportement malveillant.
- Déploiement du modèle : Mettre en œuvre de solides protections juridiques pour les préoccupations éthiques ou les lanceurs d’alerte, et surveiller en permanence les modèles pour détecter toute intrusion ou mauvaise utilisation, en utilisant des techniques d’apprentissage automatique pour détecter et répondre aux menaces en temps réel. La détection des anomalies doit être intégrée à l’architecture du modèle.
- Application du modèle : Mandater des mécanismes de contrôle et de supervision humaine pour les applications d’IA à haut risque, et imposer des restrictions sur les types d’applications par les développeurs d’applications dans lesquels les modèles de base sont appliqués.
- Interaction avec l’utilisateur : Des mesures juridiques devraient être prises contre les utilisateurs qui exercent des activités illicites ou illégales à l’aide de systèmes d’IA.
- Surveillance et maintenance continues : Établir des mécanismes de signalement accessibles et clairement communiqués pour les soupçons de fraude ou de mauvaise utilisation, diffusés dans les médias, avec une confidentialité garantie et une protection contre les représailles pour les journalistes.
Quelles sont les principales étapes du cycle de vie de l’IA ?
Le développement et le déploiement des systèmes d’IA sont un processus complexe composé d’étapes distinctes. La compréhension de ces étapes est essentielle pour identifier et atténuer les risques potentiels, en particulier à la lumière des préoccupations croissantes concernant une utilisation malveillante.
Voici une analyse du cycle de vie de l’IA, tel qu’il est articulé dans un rapport récent :
- Collecte et prétraitement des données : Cette étape initiale implique la collecte de données brutes, le nettoyage, la gestion des valeurs manquantes, la normalisation des formats de données et l’augmentation des ensembles de données. Des données de haute qualité sont essentielles pour des modèles d’IA efficaces ; des données de mauvaise qualité conduisent à des résultats biaisés et peu fiables.
- Architecture du modèle : La conception et la structure sont définies à cette étape, y compris la sélection des algorithmes et de la topologie du réseau. Une architecture bien conçue est essentielle pour la performance, l’évolutivité et, surtout, la sécurité des modèles d’IA.
- Formation et évaluation du modèle : En utilisant des données prétraitées, c’est là que les modèles d’IA apprennent à reconnaître des schémas et à faire des prédictions. Des tests rigoureux garantissent que le modèle se généralise bien aux nouvelles données et évite le surajustement ou le sous-ajustement, des problèmes qui peuvent avoir un impact sur les applications du monde réel.
- Déploiement du modèle : Cela implique l’intégration du modèle d’IA entraîné dans un environnement de production pour l’accès des utilisateurs finaux, la mise en place de l’infrastructure nécessaire comme les serveurs et les API. Des pratiques de déploiement appropriées maintiennent la performance, la sécurité et l’évolutivité du modèle.
- Application du modèle : Cette étape se concentre sur le développement d’applications utilisant les modèles d’IA déployés pour effectuer des tâches spécifiques. Un développement d’application efficace garantit que les technologies d’IA sont exploitées de manière appropriée et apportent de la valeur.
- Interaction utilisateur : La conception des interfaces utilisateur et des interactions avec l’IA est essentielle. Cela comprend des considérations pour l’UX, l’UI et l’accessibilité pour assurer un engagement positif et atténuer les risques d’utilisation abusive ou de malentendu de la part de l’utilisateur.
- Surveillance et maintenance continues : Le suivi continu des performances du modèle, la résolution des problèmes et la mise à jour des modèles sont nécessaires. Cette dernière étape est essentielle pour maintenir la fiabilité et la sécurité à long terme des systèmes d’IA, s’adapter à l’évolution des environnements et intégrer les nouvelles avancées.
Les décideurs politiques, les responsables de la conformité et les professionnels du droit numérique doivent comprendre que chaque étape présente des opportunités et des défis uniques pour la mise en œuvre de stratégies d’atténuation des risques.
Pourquoi ces étapes sont importantes
L’importance de chaque étape ne saurait être surestimée, surtout dans le contexte de l’augmentation des risques liés à l’IA :
- Qualité des données : Si les données sont de mauvaise qualité, les résultats le seront aussi. Des données non biaisées et de haute qualité sont primordiales.
- Sécurité de l’architecture : Une architecture vulnérable peut être exploitée ; une conception robuste est non négociable.
- Formation rigoureuse : La formation et l’évaluation doivent être approfondies pour éviter des résultats peu fiables ou biaisés.
- Déploiement approprié : De mauvaises pratiques de déploiement créent des ouvertures pour l’exploitation par de mauvais acteurs.
- Applications efficaces : Si les applications ne sont pas développées de manière réfléchie, la valeur de l’IA diminue et les risques augmentent.
- Expérience utilisateur positive : La convivialité, la transparence et la fiabilité sont essentielles pour minimiser les risques d’utilisation abusive.
- Surveillance continue : La fiabilité à long terme dépend d’une surveillance et d’une maintenance vigilantes.
La valeur du cadre réside dans l’identification d’atténuations ciblées fondées sur une expertise technique et des preuves du monde réel, et pas seulement sur des hypothèses générales et non testées.
Comment le cadre de cycle de vie de l’IA aide-t-il à identifier les points efficaces pour l’atténuation des risques ?
Le cadre de cycle de vie de l’IA fournit une approche structurée du développement de l’IA, décomposant le processus complexe en sept étapes distinctes, permettant des stratégies ciblées d’atténuation des risques.
Les Sept Étapes
Voici les sept étapes du cadre de cycle de vie de l’IA :
- Collecte et prétraitement des données
- Architecture du modèle
- Entraînement et évaluation du modèle
- Déploiement du modèle
- Application du modèle
- Interaction avec l’utilisateur
- Surveillance continue et maintenance
En identifiant les points les plus efficaces pour mettre en œuvre des mesures d’atténuation des risques à chaque étape du cycle de vie de l’IA, le cadre permet des interventions ciblées qui s’alignent sur des principes directeurs tels que :
- Équilibrer l’innovation et l’aversion au risque
- Favoriser la responsabilité partagée entre les parties prenantes
- Maintenir un engagement envers l’exactitude
- Élaborer une réglementation réalisable
- Créer une surveillance adaptable et continue
Le cadre reconnaît que l’atténuation des risques peut se produire en amont (ciblant le développement du modèle) et en aval (ciblant la publication du modèle et l’interaction avec l’utilisateur). Cette distinction est cruciale car même pour les risques en aval comme l’utilisation malveillante, les atténuations en amont et en aval peuvent considérablement réduire les dommages.
Types d’atténuation
Le cadre met l’accent sur deux types d’atténuation :
- Atténuations techniques : Modifications concrètes des structures techniques pour réduire les risques.
- Atténuations politiques : Cadres réglementaires qui incitent les développeurs à adopter des atténuations techniques efficaces, garantissant l’éducation et la sécurité des utilisateurs.
La pertinence du cadre pour les décideurs politiques découle de sa manière pratique de communiquer les implications des interventions de manière accessible. Il aide à identifier les préjudices prévisibles dans le contexte juridique existant, clarifiant le devoir de diligence des développeurs d’IA.
Une force clé réside dans son accent sur la recherche approfondie et la prise de décision éclairée. En examinant attentivement chaque étape, vous pouvez développer une compréhension nuancée des risques et des opportunités spécifiques et identifier des atténuations ciblées fondées sur l’expertise technique et des preuves concrètes.
Le cadre reconnaît le spectre d’ouverture dans le développement de l’IA. Les modèles d’IA en libre accès, tout en favorisant la transparence et la collaboration, présentent des défis uniques en matière d’atténuation des risques en raison de leur accessibilité et de leur potentiel d’utilisation abusive. Le cadre suggère de se concentrer sur les atténuations en amont pour le libre accès, telles que la collecte de données responsable et le red teaming avant le déploiement, tout en reconnaissant que les restrictions en aval peuvent être moins efficaces.
Comment la section sur l’analyse approfondie des risques d’utilisation malveillante est-elle structurée et quel est son objectif ?
La section « Analyse approfondie des risques d’utilisation malveillante » est structurée pour fournir une analyse complète des dommages potentiels associés aux technologies d’IA. Elle se concentre sur les principaux domaines précédemment identifiés comme étant influencés négativement par une ouverture accrue des modèles d’IA.
Méthodologie
La méthodologie comprend une analyse en trois étapes :
- Perspective historique : Examiner les tendances générales des comportements malveillants sans l’utilisation de la technologie de l’IA afin de comprendre les écosystèmes et les schémas comportementaux de chaque catégorie de malveillance.
- État actuel des lieux : Examiner l’état actuel de l’utilisation malveillante des technologies d’IA afin de déterminer comment ces nouvelles technologies sont appliquées aux schémas comportementaux existants.
- Perspectives d’avenir : Adopter une approche tournée vers l’avenir pour déterminer comment, avec les technologies existantes et plus avancées, les outils d’IA pourraient être appliqués à chaque catégorie.
Cette approche permet d’établir un contexte historique clair, permettant aux lecteurs de comprendre comment les systèmes d’IA s’intègrent actuellement dans les schémas de comportement humain existants dans les cas d’utilisation malveillante.
Objectifs
Les objectifs de cette section sont doubles :
- Comprendre comment les systèmes d’IA s’intègrent actuellement dans les schémas de comportement humain existants dans les cas d’utilisation malveillante.
- Élaborer un modèle mental prédictif pour déterminer où et comment les systèmes d’IA peuvent s’intégrer ou exacerber les schémas d’activité malveillante existants, et pour identifier les résultats potentiels les plus probables et les plus menaçants.
La section vise à éclairer la gouvernance proactive et le développement de cadres de sécurité de l’IA robustes, tout en reconnaissant l’incertitude introduite par les progrès technologiques rapides et l’interaction des choix humains.
Principaux domaines d’intérêt
L’analyse approfondie se concentre sur plusieurs domaines clés de l’utilisation malveillante :
- Fraude et autres stratagèmes criminels, ciblant particulièrement les populations à risque.
- Atteinte à la cohésion sociale et aux processus démocratiques par la désinformation.
- Violations des droits de l’homme par les États autoritaires.
- Perturbation des infrastructures critiques par le biais de cyberattaques.
- Conflits étatiques par la contribution des capacités de l’IA aux entités adverses.
Pour chaque domaine, l’analyse prend en compte le contexte historique, l’application actuelle et les menaces futures potentielles, offrant ainsi une vue d’ensemble des risques associés à l’utilisation abusive de l’IA.
Comment le cadre du cycle de vie de l’IA s’aligne-t-il sur les principes directeurs ?
Le cadre du cycle de vie de l’IA s’aligne intrinsèquement sur les principes directeurs en garantissant que les interventions sont réalisables, exploitables et ciblées. Cette approche exige la participation de multiples parties prenantes, chacune apportant ses perspectives et son expertise uniques. En ciblant des étapes spécifiques du cycle de vie de l’IA, des choix précis et éclairés peuvent être faits pour protéger l’innovation tout en atténuant efficacement les risques.
Principe n° 1 : Équilibrer l’innovation et l’aversion au risque
Le cadre permet des stratégies d’atténuation des risques sur mesure à chaque étape du développement et du déploiement de l’IA. Cette granularité garantit que les mesures d’atténuation des risques sont à la fois efficaces et peu intrusives, protégeant ainsi le potentiel d’innovation des technologies d’IA. Par exemple, se concentrer sur les atténuations en amont pendant la phase de développement du modèle peut prévenir de manière proactive les risques sans étouffer l’innovation en aval dans le développement d’applications.
Principe n° 2 : Responsabilité partagée entre les parties prenantes
Une atténuation efficace des risques nécessite l’apport de toutes les parties prenantes impliquées dans le cycle de vie de l’IA, y compris les décideurs politiques, les développeurs, les utilisateurs et la société civile. En cartographiant les risques et les atténuations tout au long du cycle de vie, chaque groupe de parties prenantes acquiert une compréhension claire de son rôle et de ses responsabilités. Cette approche collaborative tire parti de diverses expertises et perspectives, conduisant à des stratégies de gestion des risques plus complètes et robustes.
Principe n° 3 : Engagement envers la précision
La prise en compte des risques à plusieurs étapes du cycle de vie de l’IA garantit que la précision et la fiabilité sont maintenues tout au long du processus de développement et de déploiement. La mise en œuvre de mécanismes rigoureux de validation et de surveillance à chaque étape préserve l’intégrité des modèles d’IA, favorisant ainsi la confiance et assurant leur application bénéfique dans divers domaines.
Principe n° 4 : Supervision réglementaire tenant compte de la faisabilité
Le cadre décompose le processus complexe de développement de l’IA en étapes gérables, ce qui facilite la conception et la mise en œuvre de mesures réglementaires réalisables. En se concentrant sur des phases spécifiques, les régulateurs peuvent développer des interventions ciblées à la fois techniquement viables et efficaces, en évitant les mandats trop larges ou impraticables.
Principe n° 5 : Supervision adaptable et continue
La nature dynamique du cadre s’aligne sur la nécessité de cadres réglementaires adaptables qui évoluent avec les progrès technologiques. Une supervision continue et des améliorations itératives sont intégrées au cycle de vie, permettant des mises à jour régulières des stratégies d’atténuation des risques en fonction des menaces émergentes et des nouveaux développements dans la technologie de l’IA.
Quelle est la relation entre l’ouverture et le Cadre du Cycle de Vie de l’IA ?
Le Cadre du Cycle de Vie de l’IA offre une approche structurée pour la gestion des risques liés à l’IA, en particulier en ce qui concerne l’ouverture. Le rapport de la phase I a établi qu’en général, à mesure que l’accès aux modèles de fondation de l’IA augmente, le potentiel de préjudice augmente également. Cette section s’appuie sur ces observations en explorant comment l’ouverture affecte le Cadre du Cycle de Vie de l’IA et les stratégies d’atténuation des risques associées.
En cartographiant le spectre de l’ouverture sur le Cadre du Cycle de Vie de l’IA, les décideurs et les parties prenantes peuvent acquérir une compréhension plus approfondie des défis et des opportunités uniques à chaque étape.
Impact de l’ouverture sur le cycle de vie de l’IA
Le degré d’ouverture à chaque étape a un impact significatif sur les risques associés. Considérez ces exemples :
- Collecte et prétraitement des données : Les modèles ouverts peuvent bénéficier de divers ensembles de données, réduisant ainsi les biais.
- Développement et formation du modèle : Un accès plus large promet la transparence et la collaboration, mais complique la sécurité et l’application des normes éthiques.
- Tests, Déploiement & Gouvernance : Les modèles ouverts nécessitent des approches axées sur la communauté plutôt qu’un contrôle centralisé.
Efficacité variable des atténuations des risques
Certaines stratégies d’atténuation sont confrontées à des défis à mesure que l’ouverture augmente :
- Restrictions concernant les cas d’utilisation : L’application de limitations sur des modèles entièrement ouverts devient difficile.
- Pratiques de collecte de données : Une collecte de données responsable reste essentielle à tous les niveaux d’ouverture pour atténuer les biais et les risques d’utilisation malveillante.
Les risques tels que l’utilisation malveillante et le manquement à la conformité recoupent les étapes du cycle de vie de l’IA de manière complexe, et le niveau d’ouverture joue un rôle important dans ces dynamiques.
Par exemple, le risque d’utilisation malveillante peut être plus élevé pour les modèles avec une plus grande ouverture, car les acteurs malveillants ont un meilleur accès aux composants du modèle et peuvent plus facilement modifier ou affiner le modèle à des fins nuisibles. Dans de tels cas, les stratégies d’atténuation des risques axées sur l’étape de développement, de test et de validation du modèle, telles que les architectures de modèles sécurisées et les processus de test et de validation robustes, deviennent de plus en plus importantes.
Comment le rapport propose-t-il d’aborder les risques de l’IA tout en favorisant l’innovation ?
Le rapport met l’accent sur l’équilibre entre l’innovation et l’aversion au risque comme principe directeur. Il vise à créer un environnement qui encourage l’innovation responsable en matière d’IA, mais qui donne la priorité à l’identification, à l’évaluation et à l’atténuation des risques. Cela devrait permettre à la société de bénéficier des progrès de l’IA tout en alignant son développement sur la sécurité, l’éthique et la fiabilité.
Un outil clé de cette approche est le Cadre du cycle de vie de l’IA, qui décompose le développement de l’IA en sept étapes distinctes :
- Collecte et prétraitement des données
- Architecture du modèle
- Formation et évaluation du modèle
- Déploiement du modèle
- Application du modèle
- Interaction avec l’utilisateur
- Surveillance et maintenance continues
Le cadre permet de mettre en œuvre des stratégies ciblées d’atténuation des risques à chaque étape. Cette spécificité garantit que l’atténuation des risques est efficace mais minimalement intrusive, protégeant ainsi le potentiel d’innovation des technologies d’IA. Par exemple, les mesures d’atténuation en amont lors du développement du modèle peuvent prévenir de manière proactive les risques sans étouffer l’innovation en aval dans le développement d’applications.
Voici quelques exemples de mesures d’atténuation proposées, organisées par étape du cycle de vie :
Collecte et prétraitement des données
- Transparence de la provenance des ensembles de données : Exiger la transparence pour les grands laboratoires qui construisent des modèles de base concernant l’origine des ensembles de données.
- Validation et assainissement des données : Mettre en œuvre des protocoles rigoureux pour détecter les données anomales ou suspectes.
- Techniques d’IA préservant la confidentialité : Utiliser des méthodes telles que l’apprentissage fédéré pour protéger les données sensibles.
Architecture du modèle
- Tables rondes sur l’IA : Soutenir les tables rondes pour permettre aux chercheurs vérifiés de partager les meilleures pratiques.
- Normes de sécurité robustes : Développer et appliquer des normes de sécurité robustes pour les principaux laboratoires.
- Incitations : Fournir des incitations pour les projets collaboratifs partageant les connaissances en matière de développement sécurisé de l’IA.
Formation et évaluation du modèle
- Audits de sécurité réguliers : Mandater des audits réguliers et des tests d’intrusion des environnements de formation à l’IA.
- Programmes de primes aux bogues : Encourager la découverte de bogues dans les méthodologies connues par le biais de récompenses financières.
- Red Teaming : Simuler des attaques adverses pour renforcer les mesures de sécurité et traiter les vulnérabilités.
Déploiement du modèle
- Surveillance continue : Employer des techniques d’apprentissage machine pour détecter les intrusions ou l’utilisation abusive en temps réel.
- Détection des anomalies : Intégrer la détection des anomalies dans l’architecture du modèle pour identifier les activités malveillantes.
Application du modèle
- Supervision humaine : Rendre obligatoire la supervision humaine pour les applications à haut risque afin d’empêcher les actions malveillantes autonomes.
- Restrictions d’utilisation : Définir les restrictions sur l’utilisation des modèles de base dans le développement d’applications.
- Tests Red Team : Simuler des scénarios et des vulnérabilités malveillantes potentielles.
Interaction avec l’utilisateur
- Mesures juridiques : Poursuivre les utilisateurs qui utilisent l’IA pour des actions frauduleuses ou illégales.
Surveillance et maintenance continues
- Mécanismes de signalement : Établir des moyens clairs et accessibles pour permettre aux individus de signaler les fraudes ou l’utilisation malveillante de l’IA suspectées.
- Campagnes publiques : Promouvoir les efforts de sensibilisation au signalement et à la publication de l’importance de le faire.
- Examens réguliers : Mettre à jour les pratiques de signalement en fonction de l’expérience utilisateur pertinente et des tendances de la fraude en développement.
Le rapport reconnaît également que l’ouverture a une incidence sur l’atténuation des risques. Une plus grande ouverture peut nécessiter des approches communautaires et met l’accent sur les mesures d’atténuation en amont, telles que la collecte responsable de données et la transparence dans le développement des modèles, pour les modèles en libre accès.
En fin de compte, ce cadre vise une structure réglementaire adaptable et réalisable, qui évolue avec les technologies émergentes et qui est éclairée par un modèle collaboratif public-privé.