Enquête d’Ofcom sur les plateformes d’IA : cadre de la Loi sur la sécurité en ligne

A digital hourglass with flowing binary code instead of sand

Enquêtes sur les plateformes d’IA – Le cadre de la Loi sur la sécurité en ligne

Depuis l’entrée en vigueur de la Loi sur la sécurité en ligne (OSA) il y a moins d’un an, plus de 90 plateformes ont été soumises à des enquêtes, et six amendes ont été infligées pour non-conformité. Ces amendes incluent des sanctions contre un site d’IA pour nudification, qui n’avait pas mis en place de contrôles d’âge robustes. Ce mois-ci, deux nouvelles enquêtes ont été ouvertes concernant des services d’IA générative.

Comment les chatbots d’IA relèvent de la Loi sur la sécurité en ligne

Avec l’augmentation de l’utilisation des technologies de chatbot, le potentiel de préjudice augmente également. Selon l’OSA, un chatbot qui répond à la définition d’un service réglementé est couvert par les règles de la Loi. Tout contenu généré par l’IA partagé sur un service d’utilisateur à utilisateur est considéré comme du contenu généré par l’utilisateur et est réglementé de la même manière que le contenu créé par des humains.

Cependant, certains chatbots ne sont pas couverts par la Loi. Ils tombent en dehors de la réglementation s’ils permettent uniquement aux utilisateurs d’interagir avec le chatbot lui-même et ne peuvent pas générer de contenu pornographique.

L’enquête sur X et Grok

Une enquête formelle a été ouverte concernant une entreprise suite à des rapports selon lesquels le chatbot Grok était utilisé pour générer et partager du contenu préoccupant, y compris des images intimes non consensuelles. L’enquête se concentre sur plusieurs dispositions clés de l’OSA, y compris l’évaluation des risques de contenu illégal et les devoirs de sécurité liés au contenu illégal.

Il a été confirmé que des mesures ont été mises en place pour empêcher l’utilisation du compte Grok pour créer des images intimes, mais l’enquête est en cours pour déterminer ce qui a mal tourné.

L’enquête sur Novi Ltd

Une enquête distincte a été annoncée concernant un service d’IA générative, qui fait partie d’un programme d’application plus large relatif aux mesures de vérification d’âge dans le secteur du contenu pour adultes. Cette enquête examine les éventuelles défaillances concernant l’évaluation de l’accès des enfants et les mesures de vérification d’âge.

Un tournant ?

L’incident Grok a suscité des appels à des protections légales renforcées, avec des membres du gouvernement exprimant leur inquiétude. Les tribunaux ont commencé à reconnaître la gravité de tels préjudices, et un jugement marquant a récemment reconnu l’impact des abus basés sur des images.

Cependant, il est largement admis qu’un changement fondamental d’approche est nécessaire. Prévenir les abus générés par l’IA nécessite d’agir dès la conception des systèmes et d’instaurer des responsabilités claires pour les entreprises.

À l’avenir

Ces enquêtes montrent qu’actuellement, les régulateurs appliquent l’OSA de manière égale aux services alimentés par l’IA. Les fournisseurs de services d’IA générative doivent donc s’assurer que leurs systèmes de modération de contenu et de vérification d’âge respectent les normes requises par la Loi. Cependant, les appels à un changement systémique croissant pourraient signifier qu’une législation plus ciblée sur l’IA sera bientôt en vigueur.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...