Informe del Grupo de Trabajo de IA en la Frontera de California sobre la Regulación de Modelos de Fundación
El 18 de marzo, el Grupo de Trabajo Conjunto de Política de California sobre Modelos de IA en la Frontera (el “Grupo de Trabajo”) publicó su informe preliminar sobre la regulación de los modelos de fundación, con el objetivo de proporcionar una “base basada en evidencia para las decisiones de política de IA” en California que “aseguren que estas poderosas tecnologías beneficien a la sociedad globalmente mientras se gestionan razonablemente los riesgos emergentes”.
El Grupo de Trabajo fue establecido por el gobernador de California, Gavin Newsom, en septiembre de 2024, tras su veto al proyecto de ley SB 1047, el Acta de Innovación Segura y Segura para Modelos de IA en la Frontera, propuesto por el senador Scott Wiener. Este informe se fundamenta en la asociación de California con la Universidad de Stanford y la Universidad de California, Berkeley, establecida por la Orden Ejecutiva de 2023 del gobernador Newsom sobre IA generativa.
Componentes Clave para la Regulación de Modelos de Fundación
El informe evalúa la transparencia, la evaluación de riesgos de terceros y los requisitos de reporte de eventos adversos como componentes clave para la regulación de modelos de fundación.
Requisitos de Transparencia
El informe concluye que los requisitos de transparencia son una “base necesaria” para la regulación de IA y recomienda que los responsables de políticas “prioricen la transparencia pública para avanzar en la rendición de cuentas”. Se sugieren requisitos de transparencia enfocados en cinco categorías de información sobre los modelos de fundación:
- Adquisición de datos de entrenamiento
- Prácticas de seguridad del desarrollador
- Prácticas de seguridad del desarrollador
- Pruebas previas al despliegue realizadas por desarrolladores y terceros
- Impactos posteriores, que podrían incluir divulgaciones de entidades que alojan modelos de fundación para descarga o uso.
Evaluaciones de Riesgo de Terceros
El informe también señala que la transparencia “a menudo es insuficiente y requiere mecanismos de verificación suplementarios” para la rendición de cuentas. Las evaluaciones de riesgos de terceros son “esenciales” para “crear incentivos para que los desarrolladores aumenten la seguridad de sus modelos”. Se llama a los responsables de políticas a considerar la creación de puertos seguros que indemnicen la investigación de seguridad en interés público y “mecanismos de enrutamiento” para comunicar rápidamente vulnerabilidades identificadas a los desarrolladores y partes afectadas.
Protecciones para Denunciantes
Adicionalmente, se evalúa la necesidad de protecciones para denunciantes de empleados y contratistas de desarrolladores de modelos de fundación. Se aconseja a los responsables de políticas considerar protecciones que cubran un rango más amplio de actividades de los desarrolladores de IA, como fracasos en seguir la política de seguridad de IA de una empresa, incluso si la conducta reportada no viola leyes existentes.
Requisitos de Reporte de Eventos Adversos
El informe encuentra que el reporte de eventos adversos, es decir, sistemas de monitoreo proactivos que recopilan información sobre eventos o incidentes de reporteros obligatorios o voluntarios, es un “primer paso crítico” en la evaluación de los costos y beneficios de la regulación de IA. Se recomiendan que los sistemas de reporte de modelos de fundación:
- Proporcionen informes a agencias que tienen la autoridad y experiencia relevantes para abordar los daños identificados, con discreción para “compartir hallazgos anonimizados de los informes con otros actores de la industria”.
- Utilicen “criterios de reporte de eventos adversos inicialmente estrechos, construidos en torno a un conjunto de daños bien definido” que puedan ser revisados con el tiempo.
- Adopten un “enfoque híbrido” que combine requisitos de reporte obligatorios para partes críticas de la “infraestructura de IA” con reportes voluntarios de usuarios posteriores.
Umbrales de Regulación de Modelos de Fundación
Finalmente, se evalúan varias opciones para definir umbrales que activarían los requisitos de modelos de fundación, incluyendo umbrales a nivel de desarrollador (por ejemplo, el número de empleados de un desarrollador), umbrales a nivel de costo (por ejemplo, costos relacionados con el cómputo del entrenamiento del modelo), umbrales a nivel de modelo basados en el desempeño del modelo en indicadores clave, y umbrales a nivel de impacto basados en el número de usuarios comerciales del modelo. El informe encuentra que los “umbral de cómputo”, como el umbral de 1025 operaciones de punto flotante por segundo (FLOPS) para el entrenamiento del modelo del Acta de IA de la UE, son “actualmente los umbrales a nivel de costo más atractivos” que deberían utilizarse en combinación con otras métricas.
Es notable que el informe “advierte en contra del uso de métricas habituales a nivel de desarrollador”, como el número de empleados, que “no consideran las especificidades de la industria de IA y su tecnología asociada”.
El informe y el proceso de comentarios públicos en curso informarán a los legisladores a medida que consideren la legislación de IA durante la sesión legislativa de 2025, incluyendo el SB 53, un proyecto de ley sobre whistleblowers de modelos de fundación introducido por el senador Wiener el mes pasado. Legisladores en Colorado, Illinois, Massachusetts, Nueva York, Rhode Island y Vermont también están considerando legislación sobre modelos de fundación.
El Acta de Responsabilidad y Educación de IA de Nueva York (RAISE) (A 6453), por ejemplo, impondría requisitos de transparencia, divulgación, documentación y auditoría de terceros a ciertos desarrolladores de modelos de IA que cumplan con sus umbrales de cómputo y costo.
El Grupo de Trabajo está buscando opiniones públicas sobre el informe a través de su sitio web, con respuestas debiendo ser enviadas antes del 8 de abril de 2025. Se espera que la versión final del informe sea publicada en junio de 2025, antes del receso de la legislatura de California en septiembre.