Section 230 et plateformes alimentées par l’IA
Grok, un chatbot IA conçu, fait l’objet d’un examen mondial après avoir généré des images à caractère sexuel de personnes non consentantes. Les efforts pour tenir la plateforme responsable reposent sur l’interprétation de la Section 230 de la Loi sur les communications et la décence.
La Section 230 protège généralement les plateformes de la responsabilité civile pour le contenu tiers. Par exemple, selon cette section, une entreprise ne serait généralement pas tenue responsable des discours illégaux incitant à la violence publiés par un utilisateur sur sa plateforme.
Cependant, l’intelligence artificielle ne s’intègre pas parfaitement dans cette dichotomie utilisateur-hôte. L’IA perturbe l’application traditionnelle de la Section 230 de deux manières principales : l’IA en tant que générateur de contenu et l’IA en tant que conservateur de contenu.
Tout d’abord, bien qu’un utilisateur puisse demander des résultats spécifiques et nouveaux, le contenu généré par l’IA ne peut pas être attribué uniquement à cet utilisateur. De même, le chatbot IA ne peut pas être considéré comme le seul locuteur, car ses données d’entraînement ne proviennent pas de la plateforme et les résultats générés dépendent des demandes des utilisateurs. L’ambiguïté quant à l’identité du « locuteur » mine la fondation de la responsabilité basée sur le locuteur de la Section 230.
De plus, même lorsque les utilisateurs créent du contenu, les algorithmes d’IA déterminent souvent l’impact et la portée de ce contenu sur la plateforme de médias sociaux hôte. Par exemple, le fil « Pour Vous » de la plateforme TikTok ou le système de recommandation de la plateforme de streaming YouTube peuvent rapidement amplifier des publications particulières à de vastes audiences en fonction de l’engagement prédit des utilisateurs avec le contenu.
L’hypothèse sous-jacente de la Section 230 — que les plateformes agissent comme des conduits neutres d’information — devient discutable lorsque les plateformes conçoivent et mettent en œuvre activement des algorithmes de recommandation qui promeuvent ou suppriment des discours.
De plus, certaines plateformes utilisent désormais des bots IA comme modérateurs de contenu. Les modérateurs IA, comme Grok, surveillent et contribuent également au contenu de la plateforme tel que conçu par ses développeurs.
Bien que les plateformes n’aient aucune obligation de surveiller le contenu en vertu de la Section 230, une loi fédérale récemment signée impose la responsabilité d’une plateforme en cas de non-suppression d’images intimes après notification explicite de la Federal Trade Commission de leur existence sur la plateforme.
Débat académique
Lors d’un séminaire récent, des chercheurs ont débattu de l’application de la Section 230 aux plateformes utilisant l’intelligence artificielle générative ou des algorithmes de recommandation.
Un praticien a averti que les litiges liés à l’IA générative obligeront les tribunaux à réévaluer les immunités accordées par la Section 230. Il a prédit que les tribunaux ne prolongeront pas ces immunités là où l’IA contribue matériellement au développement de contenu.
Un autre article plaide pour une approche « axée sur les valeurs » où la communauté juridique devrait définir les valeurs sociétales que les régulateurs et les concepteurs d’IA cherchent à promouvoir avant de réguler les résultats de l’IA générative.
Un universitaire a soutenu que la Section 230 est profondément ambiguë, car ses immunités peuvent être interprétées de manière large pour bloquer la plupart des poursuites ou de manière étroite pour permettre la responsabilité en cas d’hébergement ou de promotion de contenu nuisible.
Enfin, un praticien a examiné le cadre législatif de la Section 230, concluant que le langage de la loi protège effectivement les défendeurs de l’IA générative de la responsabilité, car ces plateformes qualifient les services informatiques interactifs.
Conclusion
Le séminaire a mis en lumière les défis juridiques et éthiques posés par l’application de la Section 230 aux plateformes alimentées par l’IA. Les discussions révèlent un besoin croissant de réévaluer les bases légales sur lesquelles reposent ces technologies afin d’assurer une responsabilité appropriée et de protéger les utilisateurs.