Enquêtes sur les plateformes d’IA – Le cadre de la Loi sur la sécurité en ligne
Depuis l’entrée en vigueur de la Loi sur la sécurité en ligne (OSA) il y a moins d’un an, plus de 90 plateformes ont été soumises à des enquêtes, et six amendes ont été infligées pour non-conformité. Ces amendes incluent des sanctions contre un site d’IA pour nudification, qui n’avait pas mis en place de contrôles d’âge robustes. Ce mois-ci, deux nouvelles enquêtes ont été ouvertes concernant des services d’IA générative.
Comment les chatbots d’IA relèvent de la Loi sur la sécurité en ligne
Avec l’augmentation de l’utilisation des technologies de chatbot, le potentiel de préjudice augmente également. Selon l’OSA, un chatbot qui répond à la définition d’un service réglementé est couvert par les règles de la Loi. Tout contenu généré par l’IA partagé sur un service d’utilisateur à utilisateur est considéré comme du contenu généré par l’utilisateur et est réglementé de la même manière que le contenu créé par des humains.
Cependant, certains chatbots ne sont pas couverts par la Loi. Ils tombent en dehors de la réglementation s’ils permettent uniquement aux utilisateurs d’interagir avec le chatbot lui-même et ne peuvent pas générer de contenu pornographique.
L’enquête sur X et Grok
Une enquête formelle a été ouverte concernant une entreprise suite à des rapports selon lesquels le chatbot Grok était utilisé pour générer et partager du contenu préoccupant, y compris des images intimes non consensuelles. L’enquête se concentre sur plusieurs dispositions clés de l’OSA, y compris l’évaluation des risques de contenu illégal et les devoirs de sécurité liés au contenu illégal.
Il a été confirmé que des mesures ont été mises en place pour empêcher l’utilisation du compte Grok pour créer des images intimes, mais l’enquête est en cours pour déterminer ce qui a mal tourné.
L’enquête sur Novi Ltd
Une enquête distincte a été annoncée concernant un service d’IA générative, qui fait partie d’un programme d’application plus large relatif aux mesures de vérification d’âge dans le secteur du contenu pour adultes. Cette enquête examine les éventuelles défaillances concernant l’évaluation de l’accès des enfants et les mesures de vérification d’âge.
Un tournant ?
L’incident Grok a suscité des appels à des protections légales renforcées, avec des membres du gouvernement exprimant leur inquiétude. Les tribunaux ont commencé à reconnaître la gravité de tels préjudices, et un jugement marquant a récemment reconnu l’impact des abus basés sur des images.
Cependant, il est largement admis qu’un changement fondamental d’approche est nécessaire. Prévenir les abus générés par l’IA nécessite d’agir dès la conception des systèmes et d’instaurer des responsabilités claires pour les entreprises.
À l’avenir
Ces enquêtes montrent qu’actuellement, les régulateurs appliquent l’OSA de manière égale aux services alimentés par l’IA. Les fournisseurs de services d’IA générative doivent donc s’assurer que leurs systèmes de modération de contenu et de vérification d’âge respectent les normes requises par la Loi. Cependant, les appels à un changement systémique croissant pourraient signifier qu’une législation plus ciblée sur l’IA sera bientôt en vigueur.