OpenAI et un groupe de défense des droits soutiennent une nouvelle législation sur la sécurité de l’IA pour les jeunes en Californie
Dans un mouvement surprenant qui pourrait redéfinir l’avenir de la régulation de l’IA pour les enfants et les adolescents, des groupes de défense de la sécurité des enfants ont annoncé qu’ils s’unissaient pour soutenir une initiative de vote sur la sécurité de l’IA pour les jeunes : la loi sur l’IA sûre pour les parents et les enfants. Ce partenariat est né après que les deux organisations avaient poursuivi des mesures séparées.
La collaboration s’est concrétisée grâce à des discussions directes entre les dirigeants des deux organisations. Selon les deux groupes, l’urgence de protéger les enfants des dangers de l’IA a finalement conduit à la décision de s’unir.
Principales dispositions de l’initiative
Décrite comme la proposition la plus forte de son genre dans le pays, cette mesure établit des règles strictes sur la manière dont les entreprises construisent et déploient des systèmes d’IA utilisés par des mineurs. Cette initiative exige une assurance d’âge, comblant ainsi une lacune majeure dans les protections numériques actuelles. Si les entreprises ne peuvent pas déterminer si un utilisateur est un adulte ou un enfant, elles doivent appliquer les paramètres de protection des enfants.
La proposition élargit également les protections de la vie privée existantes en Californie. Actuellement, la prohibition sur la publicité ciblée pour les enfants et la vente de données concernant les enfants et les adolescents ne s’applique qu’à ceux de moins de 18 ans. La nouvelle proposition étend cette prohibition à tous les mineurs, stipulant que les données des adolescents ne peuvent être vendues sans le consentement parental.
Mesures de protection contre les comportements nuisibles de l’IA
Un aspect central de l’initiative est la mise en place de garanties visant à protéger les mineurs contre des comportements nuisibles ou manipulateurs de l’IA, ce qui est une préoccupation majeure pour les parents. Cela inclut la prévention de la manipulation émotionnelle des enfants par des chatbots d’IA qui simulent des relations humaines.
Rôle de l’Attorney General
Un élément clé de cette loi est le rôle de l’Attorney General de Californie, qui sera responsable de l’écriture des règles de mise en œuvre, de la supervision des audits et de l’émission de pénalités en cas de non-conformité. Cela reflète un changement plus large dans la manière dont l’industrie et les défenseurs interagissent.
Conclusion
Pour l’instant, la prochaine étape consistera à formaliser le comité de vote derrière la loi sur l’IA sûre pour les parents et les enfants. Cette initiative pourrait non seulement établir un standard en Californie, mais également servir de modèle national pour réguler l’IA avant qu’elle ne façonne une génération sans supervision.