Réglementation des chatbots : Pennsylvanie en tête des protections pour les enfants

A vintage typewriter with a robotic arm typing on a scroll of code

Shapiro veut que la Pennsylvanie régule les chatbots IA. Comment cela fonctionnerait-il ?

Le gouverneur de Pennsylvanie, Josh Shapiro, dirige les agences d’État pour développer des réglementations plus strictes concernant les chatbots d’intelligence artificielle, qu’il considère comme pouvant être trompeurs et nuisibles pour les enfants. Ces nouvelles restrictions pourraient placer la Pennsylvanie sur une liste croissante d’États cherchant à imposer des garde-fous alors que de plus en plus d’enfants utilisent des chatbots IA.

Contexte et justification

Une majorité d’adolescents américains utilise des chatbots, et un tiers d’entre eux a déclaré les utiliser pour des interactions sociales. Ces adolescents rapportent utiliser des chatbots pour pratiquer des conversations, obtenir un soutien émotionnel, jouer des rôles et établir des amitiés. Shapiro a déclaré que sans réglementation, les enfants et d’autres pourraient être vulnérables à des dommages émotionnels.

Un des défis majeurs réside dans la vérification de l’âge. Bien que cette mesure ait gagné en popularité parmi les régulateurs pour protéger les enfants, les experts soulignent que la vérification d’âge peut poser des problèmes techniques et juridiques. Par exemple, il est facile de falsifier une identification en ligne.

Les exigences réglementaires proposées

Le gouverneur a proposé que la Pennsylvanie exige une vérification de l’âge, un consentement parental et une interdiction des chatbots produisant du contenu sexuellement explicite ou violent impliquant des enfants. Il soutient également que les entreprises doivent diriger les utilisateurs mentionnant des comportements autodestructeurs vers les autorités appropriées.

Défis d’application des réglementations

Les questions relatives à l’application de ces exigences sont complexes. Assurer qu’un chatbot ne produise pas de contenu violent ou sexuellement explicite est un défi, car les entreprises d’IA explorent déjà des moyens de bloquer la création de matériel illégal. Les garde-fous actuels peuvent être contournés facilement.

Les législateurs de l’État ont été appelés à développer une législation visant à protéger les enfants et les utilisateurs vulnérables des risques potentiels associés à l’utilisation des chatbots. Un projet de loi bipartisan dans le Sénat de l’État établirait des « normes appropriées à l’âge » et exigerait des mesures de protection contre le contenu encourageant l’automutilation ou la violence.

Conséquences et perspectives d’avenir

Le paysage réglementaire de l’IA aux États-Unis évolue rapidement, et bien que la Pennsylvanie puisse devenir un acteur majeur dans la régulation de l’IA, il est probable que des États comme la Californie et New York définissent la norme. Les entreprises d’IA pourraient être contraintes de se conformer aux réglementations des États ayant une population importante.

Il est essentiel que les agences ne soient pas découragées par la difficulté d’application. Les réglementations devraient être développées comme partie d’un modèle de gestion des risques où plusieurs protections sont mises en place pour garantir une meilleure sécurité.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...