OpenAI Apoya la Medida Electoral de Seguridad en IA para Jóvenes en California
OpenAI ha confirmado su apoyo a una medida electoral propuesta en California sobre la seguridad de la inteligencia artificial (IA) para jóvenes. Esta decisión fue anunciada después de que altos ejecutivos compartieran en una red social profesional nuevos requisitos para controles parentales, verificación de edad y salvaguardias para los niños que utilizan herramientas de IA.
La compañía considera que la legislación propuesta refleja un cambio más amplio hacia estándares más estrictos de seguridad infantil, a medida que la IA se utiliza de manera más generalizada por audiencias jóvenes. En un comunicado, se describieron los requisitos específicos de la medida propuesta, que busca abordar las preocupaciones crecientes sobre cómo los niños interactúan con las herramientas de IA y la falta de salvaguardias consistentes en las plataformas.
Requisitos de la Medida Propuesta
La nueva medida exige que las herramientas de IA utilicen métodos de estimación de edad que preserven la privacidad para distinguir entre niños y adultos. También debe ofrecer controles parentales fáciles de usar, incluyendo límites de tiempo y protecciones más fuertes para los menores de 13 años. Además, se desarrollarán salvaguardias para prevenir salidas que fomenten comportamientos como la dependencia emocional y las interacciones sexualizadas. Se implementarán protocolos claros de respuesta a crisis para riesgos de autolesionarse y suicidio, y se llevarán a cabo auditorías de seguridad infantil independientes, con informes públicos.
La medida se aplicaría a chatbots y sistemas de IA que simulan conversación, incluyendo herramientas ya utilizadas por niños y adolescentes. Las empresas tendrían que distinguir entre usuarios adultos y menores, prohibir la publicidad dirigida a niños y limitar la recolección, venta o compartición de datos de los menores sin el consentimiento de los padres.
Implicaciones y Conclusión
La propuesta también introduciría mecanismos de cumplimiento, incluyendo auditorías independientes, evaluaciones de riesgo anuales y supervisión por parte de las autoridades estatales, con sanciones financieras por incumplimiento. OpenAI relaciona esta legislación con objetivos más amplios de alfabetización en IA, argumentando que, aunque la alfabetización en IA es esencial para la participación económica futura, deben existir protecciones para que las familias y educadores se sientan seguros al permitir que los niños usen estas herramientas.
En resumen, la medida electoral propuesta representa un esfuerzo integral por la seguridad de la IA para jóvenes y podría servir como modelo para otros estados, así como base para legislación nacional sobre la seguridad de la IA infantil.