Marco Regulatorio Integral para la IA en California

Informe sobre la Política de IA en California: Esbozo de un Marco Regulatorio Integral Propuesto

El 17 de junio de 2025, el Grupo de Trabajo Conjunto de Políticas de California sobre Modelos de IA Frontera publicó la versión final de su informe, “El Informe de California sobre Política de IA Frontera”, que describe un marco de formulación de políticas para la inteligencia artificial (IA) de frontera. Este informe, encargado por el Gobernador Gavin Newsom y elaborado por destacados investigadores y académicos en el campo de la IA, aboga por un enfoque de “confiar pero verificar”.

Las recomendaciones del informe enfatizan la formulación de políticas basada en evidencia, la transparencia, la notificación de eventos adversos y los umbrales regulatorios adaptativos. Dada la posición de California como un centro global de innovación en IA y su historia de establecer precedentes regulatorios, estas recomendaciones tienen una alta probabilidad de influir en su estrategia general de gobernanza de IA.

Recomendaciones Clave Propuestas

El informe de California proporciona recomendaciones que probablemente informarán futuras acciones legislativas o regulatorias (aunque actualmente no surgen obligaciones legales de sus hallazgos):

  • Requisitos de Transparencia Mejorados: El informe propone la divulgación pública de los métodos de adquisición de datos de entrenamiento de IA, prácticas de seguridad, resultados de pruebas previas al despliegue e informes de impacto. Esto representa un cambio fundamental respecto a las prácticas actuales donde las empresas mantienen el control propietario sobre los procesos de desarrollo. Si se implementa, las organizaciones podrían enfrentar ventajas competitivas reducidas basadas en métodos de adquisición de datos, al tiempo que experimentarían un aumento en los costos de cumplimiento por documentación y requisitos de informes.
  • Sistema de Notificación de Eventos Adversos: Se recomienda la notificación obligatoria de incidentes relacionados con la IA por parte de los desarrolladores, mecanismos de notificación voluntaria para los usuarios y un sistema administrado por el gobierno similar a los marcos existentes en aviación y atención médica. El informe destaca que este sistema “no necesariamente requiere autoridad o herramientas regulatorias específicas para la IA”.
  • Marco de Evaluación de Riesgos de Terceros: El informe afirma que las empresas “desincentivan la investigación en seguridad al amenazar implícitamente con prohibir a los investigadores independientes” y llama implícitamente a un “refugio seguro para la evaluación independiente de la IA”. Este enfoque podría reducir la capacidad de las empresas para prevenir la investigación de seguridad externa mientras exige programas formales de divulgación de vulnerabilidades.
  • Umbrales Regulatorios Proporcionales: Más allá de los umbrales simples basados en cálculos, el informe propone un enfoque multifactorial que considera las capacidades del modelo (por ejemplo, rendimiento en benchmarks), el impacto posterior (por ejemplo, número de usuarios comerciales) y los niveles de riesgo, con umbrales adaptativos que pueden actualizarse a medida que evoluciona la tecnología.

Filosofía Regulatoria e Implementación

El informe se basa en experiencias pasadas de gobernanza tecnológica, enfatizando la importancia de la intervención política temprana. Los autores analizan casos de desarrollo de internet, regulación de productos de consumo y política energética para respaldar su enfoque regulatorio.

Aunque el informe no especifica plazos de implementación, la historia regulatoria de California sugiere una posible acción legislativa en la sesión 2025-2026 a través de un enfoque por fases: requisitos iniciales de transparencia e informes, seguidos de marcos de evaluación de terceros y, en última instancia, una regulación integral basada en riesgos.

Preocupaciones Potenciales

El reconocimiento del informe sobre un “dilema de evidencia” (el desafío de gobernar sistemas sin un amplio cuerpo de evidencia científica) captura, sin embargo, las limitaciones inherentes a la regulación de una tecnología que todavía se caracteriza por una opacidad significativa.

Por ejemplo, el informe señala que “muchas empresas de IA en los Estados Unidos han señalado la necesidad de transparencia para esta tecnología que cambia el mundo. Muchas han publicado marcos de seguridad que articulan umbrales que, si se superan, desencadenarán acciones concretas enfocadas en la seguridad”. Pero también señala que gran parte de la transparencia es performativa y está limitada por “la opacidad sistémica en áreas clave”.

Y aunque el informe propone marcos de gobernanza basados en “confiar pero verificar”, también documenta sistemas de IA que han exhibido “engaño estratégico” y “planificación de alineación”, incluidos intentos de desactivar mecanismos de supervisión. Esto plantea profundas preguntas sobre la viabilidad de verificar la verdadera seguridad y control de estos sistemas en rápida evolución, incluso con los mecanismos propuestos de transparencia y evaluación de terceros.

Mirando Hacia Adelante

El Informe de California sobre Política de IA Frontera representa el intento más sofisticado de gobernanza de IA basada en evidencia hasta la fecha. Si bien estas recomendaciones aún no son ley, la influencia de California en la regulación tecnológica sugiere que estos principios probablemente se implementen de alguna forma.

Las organizaciones deben monitorear los desarrollos legislativos, considerar participar en comentarios públicos e implementar proactivamente las prácticas recomendadas, y desarrollar capacidades internas para la gobernanza continua de la IA.

La intersección de una regulación estatal integral y las capacidades de IA en rápida evolución requiere marcos de cumplimiento flexibles que puedan adaptarse a los requisitos cambiantes mientras mantienen la efectividad operativa.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...