Regulación de Modelos de IA: Informe del Grupo de Trabajo de California

Informe del Grupo de Trabajo de IA en la Frontera de California sobre la Regulación de Modelos de Fundación

El 18 de marzo, el Grupo de Trabajo Conjunto de Política de California sobre Modelos de IA en la Frontera (el “Grupo de Trabajo”) publicó su informe preliminar sobre la regulación de los modelos de fundación, con el objetivo de proporcionar una “base basada en evidencia para las decisiones de política de IA” en California que “aseguren que estas poderosas tecnologías beneficien a la sociedad globalmente mientras se gestionan razonablemente los riesgos emergentes”.

El Grupo de Trabajo fue establecido por el gobernador de California, Gavin Newsom, en septiembre de 2024, tras su veto al proyecto de ley SB 1047, el Acta de Innovación Segura y Segura para Modelos de IA en la Frontera, propuesto por el senador Scott Wiener. Este informe se fundamenta en la asociación de California con la Universidad de Stanford y la Universidad de California, Berkeley, establecida por la Orden Ejecutiva de 2023 del gobernador Newsom sobre IA generativa.

Componentes Clave para la Regulación de Modelos de Fundación

El informe evalúa la transparencia, la evaluación de riesgos de terceros y los requisitos de reporte de eventos adversos como componentes clave para la regulación de modelos de fundación.

Requisitos de Transparencia

El informe concluye que los requisitos de transparencia son una “base necesaria” para la regulación de IA y recomienda que los responsables de políticas “prioricen la transparencia pública para avanzar en la rendición de cuentas”. Se sugieren requisitos de transparencia enfocados en cinco categorías de información sobre los modelos de fundación:

  1. Adquisición de datos de entrenamiento
  2. Prácticas de seguridad del desarrollador
  3. Prácticas de seguridad del desarrollador
  4. Pruebas previas al despliegue realizadas por desarrolladores y terceros
  5. Impactos posteriores, que podrían incluir divulgaciones de entidades que alojan modelos de fundación para descarga o uso.

Evaluaciones de Riesgo de Terceros

El informe también señala que la transparencia “a menudo es insuficiente y requiere mecanismos de verificación suplementarios” para la rendición de cuentas. Las evaluaciones de riesgos de terceros son “esenciales” para “crear incentivos para que los desarrolladores aumenten la seguridad de sus modelos”. Se llama a los responsables de políticas a considerar la creación de puertos seguros que indemnicen la investigación de seguridad en interés público y “mecanismos de enrutamiento” para comunicar rápidamente vulnerabilidades identificadas a los desarrolladores y partes afectadas.

Protecciones para Denunciantes

Adicionalmente, se evalúa la necesidad de protecciones para denunciantes de empleados y contratistas de desarrolladores de modelos de fundación. Se aconseja a los responsables de políticas considerar protecciones que cubran un rango más amplio de actividades de los desarrolladores de IA, como fracasos en seguir la política de seguridad de IA de una empresa, incluso si la conducta reportada no viola leyes existentes.

Requisitos de Reporte de Eventos Adversos

El informe encuentra que el reporte de eventos adversos, es decir, sistemas de monitoreo proactivos que recopilan información sobre eventos o incidentes de reporteros obligatorios o voluntarios, es un “primer paso crítico” en la evaluación de los costos y beneficios de la regulación de IA. Se recomiendan que los sistemas de reporte de modelos de fundación:

  1. Proporcionen informes a agencias que tienen la autoridad y experiencia relevantes para abordar los daños identificados, con discreción para “compartir hallazgos anonimizados de los informes con otros actores de la industria”.
  2. Utilicen “criterios de reporte de eventos adversos inicialmente estrechos, construidos en torno a un conjunto de daños bien definido” que puedan ser revisados con el tiempo.
  3. Adopten un “enfoque híbrido” que combine requisitos de reporte obligatorios para partes críticas de la “infraestructura de IA” con reportes voluntarios de usuarios posteriores.

Umbrales de Regulación de Modelos de Fundación

Finalmente, se evalúan varias opciones para definir umbrales que activarían los requisitos de modelos de fundación, incluyendo umbrales a nivel de desarrollador (por ejemplo, el número de empleados de un desarrollador), umbrales a nivel de costo (por ejemplo, costos relacionados con el cómputo del entrenamiento del modelo), umbrales a nivel de modelo basados en el desempeño del modelo en indicadores clave, y umbrales a nivel de impacto basados en el número de usuarios comerciales del modelo. El informe encuentra que los “umbral de cómputo”, como el umbral de 1025 operaciones de punto flotante por segundo (FLOPS) para el entrenamiento del modelo del Acta de IA de la UE, son “actualmente los umbrales a nivel de costo más atractivos” que deberían utilizarse en combinación con otras métricas.

Es notable que el informe “advierte en contra del uso de métricas habituales a nivel de desarrollador”, como el número de empleados, que “no consideran las especificidades de la industria de IA y su tecnología asociada”.

El informe y el proceso de comentarios públicos en curso informarán a los legisladores a medida que consideren la legislación de IA durante la sesión legislativa de 2025, incluyendo el SB 53, un proyecto de ley sobre whistleblowers de modelos de fundación introducido por el senador Wiener el mes pasado. Legisladores en Colorado, Illinois, Massachusetts, Nueva York, Rhode Island y Vermont también están considerando legislación sobre modelos de fundación.

El Acta de Responsabilidad y Educación de IA de Nueva York (RAISE) (A 6453), por ejemplo, impondría requisitos de transparencia, divulgación, documentación y auditoría de terceros a ciertos desarrolladores de modelos de IA que cumplan con sus umbrales de cómputo y costo.

El Grupo de Trabajo está buscando opiniones públicas sobre el informe a través de su sitio web, con respuestas debiendo ser enviadas antes del 8 de abril de 2025. Se espera que la versión final del informe sea publicada en junio de 2025, antes del receso de la legislatura de California en septiembre.

More Insights

Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

La inteligencia artificial (IA) está teniendo un amplio efecto en las líneas de negocio, incluida la ciberseguridad, con un estudio que muestra que el 63% de los profesionales de ciberseguridad creen...

Gobierno británico en la mira por la implementación de reconocimiento facial sin regulación

El gobierno del Reino Unido ha sido criticado por la implementación de tecnología de reconocimiento facial sin un marco legal adecuado. El Instituto Ada Lovelace ha expresado preocupaciones sobre el...

El Auge de Startups de Gobernanza en la Era de la IA

A medida que la explosión de la inteligencia artificial avanza, las soluciones de gobernanza están en gran demanda. La industria global de gobernanza de IA se valoró en 890 millones de dólares el año...

Perspectivas sobre la Moratoria de 10 Años en las Leyes Estatales de IA en EE. UU.

La Cámara de Representantes de EE. UU. aprobó un paquete de presupuesto que incluye una moratoria de 10 años sobre la aplicación de leyes estatales de inteligencia artificial. Tech Policy Press busca...

El Futuro de la IA en los Tribunales: Lecciones de 500 Casos

A través del mundo, la regulación de la inteligencia artificial (IA) es desigual, con algunas jurisdicciones que ya cuentan con regulaciones integrales y otras que solo se centran en reglas...

Estrategias Efectivas para Mitigar los Riesgos de la IA Responsable

La inteligencia artificial responsable se está transformando de una impresionante palabra de moda en una necesidad crítica para los negocios, especialmente en la región de Asia-Pacífico. A pesar de...

La necesidad urgente de gobernanza legal en la IA

En esta entrevista de Help Net Security, Brooke Johnson, Asesor Legal Principal de Ivanti, explora las responsabilidades legales en la gobernanza de la IA, destacando cómo la colaboración...

Reformando las Regulaciones de IA

La Cámara de Representantes aprobó recientemente un importante proyecto de ley que impide a los estados regular modelos de inteligencia artificial durante diez años. Esto preocupa a algunos...