Transparencia en la Ley de Inteligencia Artificial Fronteriza (SB-53)
El 29 de septiembre, el gobernador de California, Gavin Newsom, firmó la Ley de Transparencia en la Inteligencia Artificial Fronteriza (“TFAIA”), convirtiendo a California en el primer estado en requerir divulgaciones de seguridad estandarizadas y públicas por parte de los desarrolladores de modelos avanzados de inteligencia artificial (IA).
Ante la falta de una legislación federal comprensiva sobre la seguridad de la IA, California se posiciona como un líder en cuestiones de seguridad de la IA. Otros estados como Colorado y Texas han comenzado a implementar sus propias regulaciones relacionadas con la IA, aunque la ley de Colorado ha tenido su implementación retrasada hasta junio de 2026.
Visión General de TFAIA
TFAIA exige a los desarrolladores que divulguen cómo gestionan los riesgos de seguridad y presenta nuevos mecanismos para la transparencia, responsabilidad y ejecución. Los desarrolladores que no cumplan con la ley a partir de su entrada en vigor en enero de 2026 enfrentarán sanciones civiles de hasta $1,000,000 por violación, que serán impuestas por el Fiscal General de California.
A quiénes Cubre
TFAIA se aplica a los desarrolladores de modelos de IA frontera, definidos como aquellos modelos fundamentales entrenados con una cantidad de potencia computacional superior a 10^26 operaciones de punto entero o flotante (FLOPs). Este umbral es superior al establecido en la Ley de IA de la UE que es de 10^25 FLOPs.
La ley impone requisitos de transparencia y responsabilidad adicionales a los grandes desarrolladores de frontera cuyos ingresos anuales, incluyendo afiliados, superaron los $500,000,000 en el año calendario anterior.
Requisitos de Publicación
Bajo TFAIA, los grandes desarrolladores deben publicar un marco de seguridad general accesible que muestre cómo incorporan normas nacionales, internacionales y mejores prácticas de consenso de la industria. Este marco debe incluir prácticas de ciberseguridad y medidas de gobernanza interna para asegurar la implementación adecuada de los procesos necesarios.
Transparencia en el Despliegue
Cuando un desarrollador de frontera lanza un nuevo modelo o uno sustancialmente modificado, debe publicar un informe de transparencia que identifique la fecha de lanzamiento, modalidades, usos previstos y restricciones de despliegue. Además, deben resumir sus evaluaciones de riesgo catastrófico y divulgar los resultados.
Incidentes de Seguridad Críticos
Los desarrolladores de frontera deben notificar a la Oficina de Servicios de Emergencia de California sobre cualquier “incidente de seguridad crítico” que implique riesgo de muerte o lesión grave dentro de un plazo de 15 días. En caso de riesgo inminente, la divulgación debe hacerse en 24 horas.
Protecciones para Denunciantes
TFAIA establece fuertes protecciones para los denunciantes dentro de las empresas de desarrollo de frontera, prohibiendo represalias y exigiendo canales de reporte anónimos.
Consorcio “CalCompute”
La ley dirige el establecimiento de un consorcio para diseñar un cluster de computación pública respaldado por el estado, llamado CalCompute, que proporcionará capacidades de computación avanzada para apoyar la innovación sostenible y equitativa en IA.
Actualizaciones Continuas de la Ley
La ley reconoce que la frontera de la IA está en constante evolución y que la legislación debe adaptarse. Se requiere una revisión anual de las definiciones de “modelo de frontera” y “desarrollador de frontera” para alinearse con estándares internacionales y federales.
Próximas Regulaciones sobre Seguridad de IA
Además de TFAIA, se prevén otras leyes relacionadas con la IA que entrarán en vigor en California en 2025 y 2026, incluyendo mandatos de transparencia sobre datos de entrenamiento. El debate sobre una “moratoria” federal que podría preemptar la legislación estatal continúa, pero se espera que el ritmo de las leyes estatales sobre IA siga aumentando.