EXCLUSIVE : Ancien PDG de Google s’oppose à l’ancien CTO de la FTC sur la régulation de l’IA
Lors d’une discussion animée avec des chercheurs en IA, un ancien dirigeant d’une grande entreprise a soutenu que les systèmes d’IA peuvent développer des comportements inattendus, ce qui limite la capacité des entreprises à mettre en œuvre des mécanismes de sécurité et de gouvernance préventifs dans leurs produits.
Le défi de la régulation de l’IA
Un problème central avec la régulation des modèles d’IA avancés est qu’il peut parfois émerger une nouvelle fonctionnalité dans ces systèmes qui n’est pas testée. L’orateur a affirmé qu’il est possible d’arrêter l’émergence de nouvelles fonctionnalités par la loi, mais cela pourrait également freiner tout progrès. En conséquence, il est nécessaire d’adopter une certaine tolérance face aux erreurs commises par ces systèmes.
Il a également mentionné que les développeurs d’IA devraient être tenus responsables en cas de violation de la loi, mais a souligné que ces derniers doivent souvent expédier des produits IA et corriger rétroactivement des comportements indésirables à mesure que les modèles évoluent.
Critiques sur la conformité aux régulations
Un professeur d’université a remis en question l’idée selon laquelle les leaders technologiques respecteraient les régulations. Elle a fait remarquer que les grandes entreprises technologiques ont souvent ignoré des régulations clés ou ont tenté de contourner la loi pour leurs intérêts commerciaux.
Elle a souligné que des lois existent déjà concernant des problèmes comme les biais et la protection des consommateurs, mais qu’elles ne sont pas appliquées en ligne. Pour atténuer les risques associés à l’IA, des changements fondamentaux sont nécessaires plutôt que des corrections après coup.
Les efforts actuels en matière de sécurité
Un autre intervenant a exprimé des préoccupations concernant l’avenir de l’IA, notant que les modèles d’IA avancés agissent souvent de manières que leurs créateurs n’avaient pas explicitement conçues ou anticipées. Bien que l’ancien dirigeant ait reconnu que des problèmes surgissent lors de l’accélération du lancement de produits, il a affirmé que les développeurs d’IA disposent d’équipes d’évaluation et de tests de sécurité pour atténuer autant de risques que possible.
Conclusion
Malgré les préoccupations exprimées, l’ancien dirigeant a soutenu que les avantages de l’IA l’emporteraient finalement sur les risques. Les entreprises engagées dans ce domaine sont conscientes des dangers et consacrent beaucoup de temps à discuter des mesures à prendre pour les atténuer.