Comment gérer « l’adolescence de la technologie » comme des adultes
Alors que les États-Unis et ses 50 États débattent de la manière de procéder avec la gouvernance de l’intelligence artificielle (IA), le PDG d’un important laboratoire d’IA a publié un essai approfondi sur les principaux risques qu’il perçoit liés aux avancées continues de l’IA.
Dans cet essai, le PDG souligne quelques principes clés pour se protéger contre les pires résultats possibles liés à l’IA. L’application de ces principes au niveau des États et du gouvernement fédéral pourrait aboutir à une approche plus raisonnée et fondée sur des preuves de la gouvernance de l’IA. Cet article évalue l’approche du PDG et envisage comment celle-ci pourrait être renforcée.
Qui est le PDG ?
Ce PDG est une figure importante dans le domaine de l’IA, ayant occupé des postes de haut niveau dans des entreprises de premier plan depuis plus d’une décennie. Ses opinions sur la politique de l’IA ont un poids significatif.
Particulièrement vocal sur les risques posés par l’IA, il a quitté une entreprise précédente parce qu’il craignait que celle-ci ne prenne pas suffisamment au sérieux les dangers potentiels de l’IA. Son entreprise actuelle se positionne différemment des autres laboratoires en mettant l’accent sur la sécurité tout en développant des technologies potentiellement dangereuses.
Principes directeurs
Le PDG énonce plusieurs principes directeurs pour la politique de l’IA :
- Approche fondée sur des preuves : Les risques de l’IA devraient être discutés de manière réaliste et pragmatique. Cette approche, qui doit être factuelle et capable de s’adapter aux évolutions, n’a pas toujours été suivie. Les discussions sur la politique de l’IA ont oscillé entre une focalisation excessive sur les risques et une célébration exagérée de ses bénéfices.
- Humilité et reconnaissance de l’incertitude : Il est important de reconnaître l’incertitude. Aucune prédiction sur l’avenir ne peut être faite avec une confiance absolue. Les propositions législatives actuelles traitent souvent l’IA comme une technologie statique, ce qui ne correspond pas à la réalité de son évolution rapide.
- Soutenir l’innovation : Les régulations doivent réduire les obstacles pour les petites entreprises d’IA qui ne sont pas à la pointe de la technologie. Les lois doivent éviter d’imposer des charges excessives aux entreprises qui ne produisent pas de modèles avancés.
- Intervention chirurgicale et disciplinée : Les interventions gouvernementales doivent être aussi limitées que possible. Les actions devraient être réservées aux cas de défaillance du marché et ne pas imposer des charges inutiles aux laboratoires.
- Éviter le « doomerism » : Les décideurs politiques doivent éviter une vision pessimiste de l’IA, qui peut conduire à des actions extrêmes sans preuves suffisantes pour les justifier.
Conclusion
Pour gérer l’adolescence de l’IA avec maturité, il est essentiel de ne pas regrouper tous les outils d’IA et de traiter chacune des technologies avec discernement. Une approche fondée sur des preuves est nécessaire pour contrer les politiques réactives basées sur des craintes infondées. Une gouvernance véritablement adulte exige de prioriser l’innovation tout en garantissant une réglementation appropriée pour atténuer les risques avérés.