Gouvernance flexible des données biologiques pour sécuriser l’intelligence artificielle

A dynamic, ever-changing DNA double helix sculpture made of liquid crystal displays that visually represent data flows and governance structures in real-time.

Construire une gouvernance flexible pour les données biologiques alimentant les systèmes d’IA

Dans un forum politique, il est discuté de la nécessité d’une gouvernance élargie – mais adaptée et flexible – pour les données biologiques utilisées pour développer des modèles d’intelligence artificielle (IA) puissants.

Avancées rapides des systèmes d’IA

Les systèmes d’IA en rapide évolution, formés sur des données biologiques, ont permis aux chercheurs de concevoir de nouvelles molécules, de prédire la structure et la fonction des protéines, et d’explorer d’immenses ensembles de données biologiques complexes pour des insights novateurs qui pourraient grandement élargir notre compréhension de la nature et de la santé humaine. Cependant, ces mêmes outils pourraient également être mal utilisés à des fins dangereuses, telles que la conception de pathogènes nuisibles ou la génération de séquences génétiques contournant les contrôles de sécurité.

Les lacunes de la gouvernance actuelle

Malgré ces risques largement reconnus, la gouvernance actuelle est gravement insuffisante, et des modèles de plus en plus puissants sont souvent publiés sans évaluation de sécurité. Il est donc essentiel d’explorer comment la gouvernance des données biologiques pourrait être mise en œuvre pour atténuer les risques potentiels des systèmes d’IA biologiques sans freiner leur potentiel de recherche.

Cadres de contrôle ciblés

Les auteurs suggèrent que, tout comme les chercheurs acceptent des limites sur l’accès aux informations personnelles dans les ensembles de données génétiques pour protéger la vie privée sans freiner la recherche, des cadres similaires pourraient restreindre uniquement une classe étroite de données pathogènes particulièrement sensibles tout en laissant la plupart des données scientifiques librement accessibles. Ces contrôles ciblés compliqueraient l’accès des acteurs malveillants aux ensembles de données rares et coûteux nécessaires pour former des modèles dangereux, tout en n’entravant pas significativement la recherche légitime, surtout s’ils sont associés à des environnements de recherche numérique sécurisés.

Flexibilité et adaptation

Il est également souligné que cette surveillance devrait rester limitée, ciblée et flexible afin que les cadres de gouvernance puissent s’adapter aux avancées technologiques et scientifiques. De plus, pour prévenir les abus ou un contrôle bureaucratique excessif, la communauté de recherche devrait avoir la capacité de contester les classifications des données, et les agences de gouvernance devraient promettre d’assurer des processus de révision rapides et transparents afin que les mesures de sécurité nécessaires ne deviennent pas des obstacles aux processus scientifiques légitimes.

Conclusion

Formaliser un système d’accès aux données permettrait aux chercheurs d’examiner et de développer ces contrôles, offrant ainsi aux scientifiques et aux entreprises une clarté dans un environnement actuellement imprévisible. Commencer ce travail permettra également aux scientifiques et aux gouvernements d’en apprendre davantage sur la nature des risques liés à l’IA et de réviser les contrôles d’accès aux données en fonction de preuves tangibles, plutôt que de conjectures.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...