Nueva legislación estatal busca promover estándares de seguridad en IA
Con el creciente escrutinio sobre los peligros potenciales de los sistemas de inteligencia artificial, se están tomando medidas para fomentar la creación de estándares de seguridad. Recientemente, el Senado estatal aprobó un proyecto de ley que crearía una nueva comisión con la autoridad para reconocer oficialmente a organizaciones privadas de terceros que desarrollen estándares de seguridad y los utilicen para evaluar modelos específicos de IA.
Objetivos de la comisión
La comisión se encargará de evaluar y asesorar a agencias y funcionarios estatales sobre los estándares desarrollados por estas organizaciones. La necesidad de legislación y regulaciones para garantizar la seguridad en IA es evidente, pero se reconoce que el proceso gubernamental suele ser lento y poco ágil, dificultando su capacidad para seguir el ritmo del rápido desarrollo de la IA.
Funciones de las organizaciones de verificación independientes
El proyecto de ley no establece estándares ni crea una organización que los establezca. En su lugar, se propone la creación de la Comisión de Estándares y Seguridad de IA de California, encargada de supervisar a las organizaciones que desarrollan y aplican estándares de IA. Estas organizaciones deberán tener un plan para evaluar si los desarrolladores y operadores de IA están mitigando riesgos de seguridad.
Los planes de estas organizaciones también deberán describir cómo auditarán modelos y aplicaciones de IA para garantizar que sus desarrolladores sigan las mejores prácticas para prevenir daños. Además, deberán establecer protocolos para monitorear los modelos de IA después de sus evaluaciones iniciales, evaluando si los cambios posteriores introducen nuevos riesgos y si se cumplen los compromisos de reducción de riesgos previamente identificados.
Implicaciones y riesgos
El sistema de estándares creado por la legislación será voluntario. Los desarrolladores no estarán obligados a evaluar sus modelos con las organizaciones de estándares, y el estado no impondrá sanciones a dichas organizaciones. Sin embargo, se espera que la certificación de modelos por parte de organizaciones aprobadas por el estado funcione como un «sello de aprobación» que ayude a los desarrolladores en el mercado.
Esta iniciativa responde a la percepción de que es necesario actuar en la regulación de la seguridad en IA, dado que la opinión pública está demandando acciones concretas en este ámbito. A pesar de las críticas de algunos sectores de la industria tecnológica, que argumentan que el proyecto añade incertidumbre sin mejorar significativamente la seguridad, la propuesta refleja un intento de abordar los riesgos asociados a la IA.
Conclusión
La creación de la Comisión de Estándares y Seguridad de IA de California representa un paso hacia la regulación de la inteligencia artificial, con el potencial de establecer un marco que garantice la seguridad y la responsabilidad en el desarrollo de tecnologías de IA. A medida que el panorama de la IA continúa evolucionando, estos esfuerzos serán cruciales para proteger tanto a los usuarios como a la sociedad en general.