Informe sobre la Política de IA en California: Esbozo de un Marco Regulatorio Integral Propuesto
El 17 de junio de 2025, el Grupo de Trabajo Conjunto de Políticas de California sobre Modelos de IA Frontera publicó la versión final de su informe, “El Informe de California sobre Política de IA Frontera”, que describe un marco de formulación de políticas para la inteligencia artificial (IA) de frontera. Este informe, encargado por el Gobernador Gavin Newsom y elaborado por destacados investigadores y académicos en el campo de la IA, aboga por un enfoque de “confiar pero verificar”.
Las recomendaciones del informe enfatizan la formulación de políticas basada en evidencia, la transparencia, la notificación de eventos adversos y los umbrales regulatorios adaptativos. Dada la posición de California como un centro global de innovación en IA y su historia de establecer precedentes regulatorios, estas recomendaciones tienen una alta probabilidad de influir en su estrategia general de gobernanza de IA.
Recomendaciones Clave Propuestas
El informe de California proporciona recomendaciones que probablemente informarán futuras acciones legislativas o regulatorias (aunque actualmente no surgen obligaciones legales de sus hallazgos):
- Requisitos de Transparencia Mejorados: El informe propone la divulgación pública de los métodos de adquisición de datos de entrenamiento de IA, prácticas de seguridad, resultados de pruebas previas al despliegue e informes de impacto. Esto representa un cambio fundamental respecto a las prácticas actuales donde las empresas mantienen el control propietario sobre los procesos de desarrollo. Si se implementa, las organizaciones podrían enfrentar ventajas competitivas reducidas basadas en métodos de adquisición de datos, al tiempo que experimentarían un aumento en los costos de cumplimiento por documentación y requisitos de informes.
- Sistema de Notificación de Eventos Adversos: Se recomienda la notificación obligatoria de incidentes relacionados con la IA por parte de los desarrolladores, mecanismos de notificación voluntaria para los usuarios y un sistema administrado por el gobierno similar a los marcos existentes en aviación y atención médica. El informe destaca que este sistema “no necesariamente requiere autoridad o herramientas regulatorias específicas para la IA”.
- Marco de Evaluación de Riesgos de Terceros: El informe afirma que las empresas “desincentivan la investigación en seguridad al amenazar implícitamente con prohibir a los investigadores independientes” y llama implícitamente a un “refugio seguro para la evaluación independiente de la IA”. Este enfoque podría reducir la capacidad de las empresas para prevenir la investigación de seguridad externa mientras exige programas formales de divulgación de vulnerabilidades.
- Umbrales Regulatorios Proporcionales: Más allá de los umbrales simples basados en cálculos, el informe propone un enfoque multifactorial que considera las capacidades del modelo (por ejemplo, rendimiento en benchmarks), el impacto posterior (por ejemplo, número de usuarios comerciales) y los niveles de riesgo, con umbrales adaptativos que pueden actualizarse a medida que evoluciona la tecnología.
Filosofía Regulatoria e Implementación
El informe se basa en experiencias pasadas de gobernanza tecnológica, enfatizando la importancia de la intervención política temprana. Los autores analizan casos de desarrollo de internet, regulación de productos de consumo y política energética para respaldar su enfoque regulatorio.
Aunque el informe no especifica plazos de implementación, la historia regulatoria de California sugiere una posible acción legislativa en la sesión 2025-2026 a través de un enfoque por fases: requisitos iniciales de transparencia e informes, seguidos de marcos de evaluación de terceros y, en última instancia, una regulación integral basada en riesgos.
Preocupaciones Potenciales
El reconocimiento del informe sobre un “dilema de evidencia” (el desafío de gobernar sistemas sin un amplio cuerpo de evidencia científica) captura, sin embargo, las limitaciones inherentes a la regulación de una tecnología que todavía se caracteriza por una opacidad significativa.
Por ejemplo, el informe señala que “muchas empresas de IA en los Estados Unidos han señalado la necesidad de transparencia para esta tecnología que cambia el mundo. Muchas han publicado marcos de seguridad que articulan umbrales que, si se superan, desencadenarán acciones concretas enfocadas en la seguridad”. Pero también señala que gran parte de la transparencia es performativa y está limitada por “la opacidad sistémica en áreas clave”.
Y aunque el informe propone marcos de gobernanza basados en “confiar pero verificar”, también documenta sistemas de IA que han exhibido “engaño estratégico” y “planificación de alineación”, incluidos intentos de desactivar mecanismos de supervisión. Esto plantea profundas preguntas sobre la viabilidad de verificar la verdadera seguridad y control de estos sistemas en rápida evolución, incluso con los mecanismos propuestos de transparencia y evaluación de terceros.
Mirando Hacia Adelante
El Informe de California sobre Política de IA Frontera representa el intento más sofisticado de gobernanza de IA basada en evidencia hasta la fecha. Si bien estas recomendaciones aún no son ley, la influencia de California en la regulación tecnológica sugiere que estos principios probablemente se implementen de alguna forma.
Las organizaciones deben monitorear los desarrollos legislativos, considerar participar en comentarios públicos e implementar proactivamente las prácticas recomendadas, y desarrollar capacidades internas para la gobernanza continua de la IA.
La intersección de una regulación estatal integral y las capacidades de IA en rápida evolución requiere marcos de cumplimiento flexibles que puedan adaptarse a los requisitos cambiantes mientras mantienen la efectividad operativa.