OpenAI soutient une mesure sur la sécurité de l’IA pour les jeunes en Californie
OpenAI a confirmé son soutien à une mesure proposée en Californie concernant la sécurité de l’IA pour les jeunes. Cette initiative vise à établir de nouvelles exigences pour les contrôles parentaux, l’assurance d’âge et des protections pour les enfants utilisant des outils d’IA.
Contexte de la mesure proposée
La législation proposée reflète un changement plus large vers des normes de sécurité des enfants plus strictes, alors que l’IA est de plus en plus utilisée par un public jeune. La mesure vise à répondre aux préoccupations croissantes sur la manière dont les enfants interagissent avec les outils d’IA et le manque de protections cohérentes sur les différentes plateformes.
Exigences spécifiques de la mesure
Les nouvelles exigences incluent :
- Utilisation d’outils d’estimation d’âge préservant la vie privée pour distinguer les enfants des adultes.
- Contrôles parentaux faciles à utiliser, y compris des limites de temps et des protections renforcées pour les enfants de moins de 13 ans.
- Développement de mesures de sécurité pour éviter des comportements tels que la dépendance émotionnelle et les interactions sexualisées.
- Protocoles de réponse en cas de crise liés à l’automutilation et aux risques de suicide.
- Audits indépendants de la sécurité des enfants avec rapports publics.
Impact et portée de la mesure
La mesure, intitulée Parents & Kids Safe AI Act, s’appliquerait aux chatbots et systèmes d’IA simulant des conversations, y compris ceux déjà utilisés par les enfants et les adolescents. Elle obligerait les entreprises à interdire la publicité ciblant les enfants et à limiter la collecte, la vente ou le partage des données des enfants sans consentement parental.
Des mécanismes d’application seraient également introduits, y compris des audits indépendants, des évaluations des risques annuelles et une surveillance par le procureur général de Californie, avec des pénalités financières en cas de non-conformité.
Liens avec les objectifs d’alphabétisation en IA
La sécurité proposée est mise en relation avec des discussions plus larges sur l’alphabétisation en IA et son adoption à long terme. Les jeunes générations grandissent avec l’IA, et il est essentiel que des protections soient en place pour rassurer les familles et les éducateurs sur l’utilisation de ces outils.
Finalement, il est souligné que la sécurité des adolescents doit primer sur la vie privée et la liberté lorsqu’il s’agit d’utiliser des outils d’IA.