La loi sur la sécurité des jouets AI du Maryland : une régulation essentielle pour protéger les enfants

A vintage toy robot with a state-shaped shield emblazoned on its chest, holding a tiny, glowing AI circuit board in one hand and a child's safety helmet in the other.

La Loi sur la Sécurité des Jouets AI du Maryland : Une Réglementation au Niveau de l’État Comble le Vide Fédéral Concernant l’IA dans les Produits pour Enfants

Le 12 février 2026, un groupe bipartisan de législateurs du Maryland a proposé la loi sur la sécurité des jouets alimentés par l’IA. Cette législation proposée établirait un cadre réglementaire complet pour les jouets dotés d’IA vendus dans l’État, couvrant tout appareil utilisant l’apprentissage automatique, l’IA conversationnelle, la modélisation comportementale ou des processus computationnels similaires et commercialisé pour ou principalement utilisé par des enfants.

Portée de la Proposition

La portée de la loi proposée est intentionnellement large et introduit des obligations de conformité pré-commercialisation exigeant que les fabricants mènent des évaluations de sécurité pour les enfants avant de commercialiser de nouveaux jouets AI. Les fabricants de jouets déjà sur le marché au 1er juillet 2026 auraient jusqu’au 1er janvier 2027 pour compléter leurs évaluations initiales. Les violations de la loi sont classées comme des pratiques commerciales déloyales, abusives ou trompeuses, exposant les fabricants non conformes à des pénalités civiles allant jusqu’à 50 000 $ par violation et à des rappels de produits obligatoires.

Exigences en Matière de Confidentialité des Données

La loi imposerait également des exigences substantielles en matière de confidentialité des données. Les fabricants seraient limités à la collecte uniquement des données d’utilisateur enfant nécessaires au fonctionnement essentiel du jouet, et toutes ces données doivent être cryptées. La loi prohibe la vente ou le transfert de données d’utilisateur enfant à des tiers, leur utilisation pour former des modèles d’IA non liés, le ciblage des enfants avec de la publicité basée sur ces données, ou leur conservation pendant plus de 12 mois sans nouveau consentement parental. En cas de violation de données, les fabricants doivent notifier les parents ou tuteurs concernés dans les 48 heures suivant la découverte.

Considérations Psychologiques et Sécuritaires

Les jouets contenant de l’IA devraient inclure des mécanismes accessibles pour obtenir et révoquer le consentement parental, et les parents doivent pouvoir désactiver la collecte de données sans perdre la fonctionnalité essentielle du jouet. De plus, les jouets sont interdits de générer du contenu sexuel, violent, émotionnellement manipulateur ou instructif concernant des comportements nuisibles. Ils doivent intégrer des outils de modération de contenu, des filtres conversationnels appropriés à l’âge, et un mode sûr déclenché par des entrées nuisibles ou inconnues. La loi interdit également aux fabricants de commercialiser des jouets AI comme compagnons émotionnels, substituts parentaux ou conseillers psychologiques.

Création d’une Infrastructure de Surveillance

Enfin, la loi créerait une infrastructure dédiée de mise en œuvre et de supervision par la création du Panel de Révision de la Sécurité des Jouets AI au sein de la Division de la Protection des Consommateurs. Ce panel serait chargé de revoir la conformité des fabricants, d’effectuer des audits indépendants des jouets AI vendus ou distribués aux enfants, et d’évaluer les normes de sécurité de l’industrie pour recommander des mises à jour statutaires. À partir du 1er décembre 2027, le panel devrait faire rapport annuellement à l’Assemblée Générale sur ses constatations.

Conséquences et Perspectives Futures

Bien que l’avenir de cette législation soit incertain, elle indique un effort concerté de la part des législateurs pour aborder ce qui est perçu comme un manque de surveillance réglementaire de l’IA dans les jouets et d’autres produits utilisés par les enfants. Cependant, un régulateur qui ne prend pas actuellement de mesures pour appliquer ses pouvoirs à l’intégration des technologies AI dans les jouets est la Commission de Sécurité des Produits de Consommation. Cette commission a clarifié que sa mission statutaire s’est traditionnellement concentrée sur les risques de blessures physiques prévisibles et qu’elle n’est ni équipée ni autorisée à évaluer les dangers non physiques, comme les dommages mentaux, émotionnels ou psychologiques.

Ces approches divergentes soulignent la nécessité d’un suivi cohérent et de flexibilité dans un schéma réglementaire en évolution rapide. Bien que les régulateurs fédéraux ne se concentrent pas sur ces questions, les vendeurs et fabricants de ces produits doivent être conscients de la possibilité d’actions réglementaires au niveau de l’État et continuer à suivre les développements dans ce domaine.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...