La Réglementation de l’IA d’OpenAI Sous le Feu des Critiques Concernant la Sécurité des Enfants
Une initiative d’OpenAI concernant l’intelligence artificielle a suscité des manifestations et soulevé des inquiétudes quant à la sécurité des enfants.
Plus de 20 organisations ont préparé une lettre conjointe à l’attention de l’entreprise, citant des lacunes potentielles dans les protections juridiques pour les familles en cas de préjudice subi par les enfants.
Conflit autour de la Réglementation de l’IA et Risques pour les Utilisateurs
Le problème central concerne le projet de loi sur l’IA sécurisée pour les parents et les enfants, que soutient OpenAI. Ce projet vise à établir des règles concernant les interactions des chatbots avec les mineurs, y compris des normes de sécurité et de conformité.
Cependant, plus de deux douzaines d’organisations, telles que des groupes de défense des droits civiques, ont déclaré dans une lettre conjointe que le document présente des défauts graves. Elles demandent à l’entreprise de retirer complètement l’initiative et de laisser la réglementation aux législateurs.
Un directeur exécutif d’une des organisations a souligné : « La demande principale ici est que OpenAI se retire du scrutin. »
Principales Inquiétudes des Critiques
Les critiques pointent plusieurs problèmes clés :
- Une définition trop étroite du préjudice qui ne couvre que les conséquences physiques.
- Des limites sur la capacité des familles à intenter des poursuites si des enfants sont lésés.
- Des outils de surveillance affaiblis pour les agences gouvernementales.
- Des difficultés à apporter des modifications à l’avenir, nécessitant un vote des deux tiers des législateurs.
Une autre préoccupation concerne l’approche adoptée pour les données des utilisateurs. Selon un critique, cela pourrait être interprété comme une tentative d’empêcher les familles de divulguer les journaux de chat de leurs enfants décédés devant un tribunal.
Malgré une pause annoncée dans la campagne, OpenAI conserve le contrôle de l’initiative. Comme l’a noté un critique, « OpenAI a le pouvoir de se retirer ou de financer la collecte de signatures. Toute l’autorité légale repose entre leurs mains. »
Pression Croissante sur OpenAI Face aux Risques de Sécurité
La situation se déroule dans un contexte de critiques adressées aux entreprises technologiques. Récemment, la famille d’un utilisateur a déposé une plainte contre une entreprise pour son chatbot, qu’ils estiment avoir contribué à un comportement dangereux.
Un critique a souligné que cela fait partie d’une tendance plus large : « Le jeu de lobbying utilisé sur l’IA, en particulier par ces grandes entreprises, suit la même stratégie que celle utilisée précédemment sur d’autres questions technologiques. »
Enfin, OpenAI a reporté le lancement de la fonctionnalité « mode adulte » dans son chatbot de manière d’au moins un mois, en lien avec des difficultés techniques et des risques pour les mineurs. Bien que l’entreprise ne renonce pas à la mise en œuvre de cette fonctionnalité, elle reconnaît la nécessité de tests et d’affinements supplémentaires.