La nouvelle loi sur l’IA en Californie expose le véritable problème de conformité
Les entreprises d’IA de pointe ont passé la dernière décennie à opérer à pleine vitesse avec très peu de garde-fous. Bien que des régulations aient longtemps été évoquées, elles ont mis du temps à arriver, créant une atmosphère où la conformité est une promesse que les développeurs n’ont jamais eu besoin de tenir.
Cependant, une nouvelle loi californienne signée par le gouverneur est en train de changer la donne. La loi sur la transparence dans l’intelligence artificielle de pointe (TFAIA) établit un cadre réglementaire qui vise à « instaurer la confiance du public tout en continuant à stimuler l’innovation dans ces nouvelles technologies ». Même les entreprises qui n’entraînent jamais elles-mêmes des modèles ressentiront l’impact, car les fournisseurs sur lesquels elles comptent seront désormais soumis aux mêmes normes.
Un changement de cap pour les développeurs de pointe
Lorsque les préoccupations liées à la conformité de l’IA étaient soulevées par le passé, elles étaient principalement axées sur les cas d’utilisation. Les législateurs se concentraient sur la manière dont l’IA serait appliquée et où elle pourrait causer des dommages. La TFAIA change d’approche, visant des contrôles basés sur la capacité plutôt que sur le cas d’utilisation. La principale préoccupation de la loi n’est pas où l’IA sera utilisée, mais combien de puissance elle apporte à une application.
Les développeurs de pointe dont les modèles dépassent le seuil de puissance de calcul établi — qui est fixé à plus de 10²⁶ opérations (FLOPs) — doivent adopter des cadres conçus pour prévenir des systèmes susceptibles de causer des dommages catastrophiques. Ces cadres doivent être développés, mis en place et rendus publics, révélant les étapes que les entreprises prennent pour gérer et atténuer les risques que leurs modèles présentent.
Un appel à opérationnaliser l’éthique de l’IA
La TFAIA signale qu’il est temps de recentrer la discussion sur l’éthique, mais elle appelle à plus que de simples paroles. Adopter les exigences de la loi nécessite finalement d’opérationnaliser l’éthique de l’IA.
Les attentes pour les développeurs de pointe de placer l’éthique au-dessus de l’efficacité sont élevées. La gouvernance efficace sous la nouvelle loi exige plus que de simples notes de politique. La TFAIA stipule que chaque développeur de pointe en Californie doit « rédiger, mettre en œuvre, se conformer et publier clairement sur son site web un cadre d’IA de pointe » qui explique comment il détermine la menace de risque catastrophique et comment il s’en protège.
Lorsque des problèmes surviennent malgré des mesures proactives pour les prévenir, la TFAIA exige que les développeurs les signalent. Ceux qui subissent un « incident de sécurité critique », qui est défini par la loi comme un préjudice réel déclenché par un accès non autorisé aux modèles d’IA, doivent alerter les services d’urgence de Californie. Le non-respect de cette obligation entraîne des pénalités civiles, et les lanceurs d’alerte sont protégés par la loi.
Conclusion
La menace de risque catastrophique posée par l’IA devient un sujet central dans les discussions. La TFAIA impose aux développeurs de prendre la responsabilité du pouvoir qu’ils conjurent en créant des cultures qui sont aussi engagées envers la responsabilité qu’envers l’innovation.