Transparencia y Seguridad en la Inteligencia Artificial en California

Transparencia en la Ley de Inteligencia Artificial Fronteriza (SB-53)

El 29 de septiembre, el gobernador de California, Gavin Newsom, firmó la Ley de Transparencia en la Inteligencia Artificial Fronteriza (“TFAIA”), convirtiendo a California en el primer estado en requerir divulgaciones de seguridad estandarizadas y públicas por parte de los desarrolladores de modelos avanzados de inteligencia artificial (IA).

Ante la falta de una legislación federal comprensiva sobre la seguridad de la IA, California se posiciona como un líder en cuestiones de seguridad de la IA. Otros estados como Colorado y Texas han comenzado a implementar sus propias regulaciones relacionadas con la IA, aunque la ley de Colorado ha tenido su implementación retrasada hasta junio de 2026.

Visión General de TFAIA

TFAIA exige a los desarrolladores que divulguen cómo gestionan los riesgos de seguridad y presenta nuevos mecanismos para la transparencia, responsabilidad y ejecución. Los desarrolladores que no cumplan con la ley a partir de su entrada en vigor en enero de 2026 enfrentarán sanciones civiles de hasta $1,000,000 por violación, que serán impuestas por el Fiscal General de California.

A quiénes Cubre

TFAIA se aplica a los desarrolladores de modelos de IA frontera, definidos como aquellos modelos fundamentales entrenados con una cantidad de potencia computacional superior a 10^26 operaciones de punto entero o flotante (FLOPs). Este umbral es superior al establecido en la Ley de IA de la UE que es de 10^25 FLOPs.

La ley impone requisitos de transparencia y responsabilidad adicionales a los grandes desarrolladores de frontera cuyos ingresos anuales, incluyendo afiliados, superaron los $500,000,000 en el año calendario anterior.

Requisitos de Publicación

Bajo TFAIA, los grandes desarrolladores deben publicar un marco de seguridad general accesible que muestre cómo incorporan normas nacionales, internacionales y mejores prácticas de consenso de la industria. Este marco debe incluir prácticas de ciberseguridad y medidas de gobernanza interna para asegurar la implementación adecuada de los procesos necesarios.

Transparencia en el Despliegue

Cuando un desarrollador de frontera lanza un nuevo modelo o uno sustancialmente modificado, debe publicar un informe de transparencia que identifique la fecha de lanzamiento, modalidades, usos previstos y restricciones de despliegue. Además, deben resumir sus evaluaciones de riesgo catastrófico y divulgar los resultados.

Incidentes de Seguridad Críticos

Los desarrolladores de frontera deben notificar a la Oficina de Servicios de Emergencia de California sobre cualquier “incidente de seguridad crítico” que implique riesgo de muerte o lesión grave dentro de un plazo de 15 días. En caso de riesgo inminente, la divulgación debe hacerse en 24 horas.

Protecciones para Denunciantes

TFAIA establece fuertes protecciones para los denunciantes dentro de las empresas de desarrollo de frontera, prohibiendo represalias y exigiendo canales de reporte anónimos.

Consorcio “CalCompute”

La ley dirige el establecimiento de un consorcio para diseñar un cluster de computación pública respaldado por el estado, llamado CalCompute, que proporcionará capacidades de computación avanzada para apoyar la innovación sostenible y equitativa en IA.

Actualizaciones Continuas de la Ley

La ley reconoce que la frontera de la IA está en constante evolución y que la legislación debe adaptarse. Se requiere una revisión anual de las definiciones de “modelo de frontera” y “desarrollador de frontera” para alinearse con estándares internacionales y federales.

Próximas Regulaciones sobre Seguridad de IA

Además de TFAIA, se prevén otras leyes relacionadas con la IA que entrarán en vigor en California en 2025 y 2026, incluyendo mandatos de transparencia sobre datos de entrenamiento. El debate sobre una “moratoria” federal que podría preemptar la legislación estatal continúa, pero se espera que el ritmo de las leyes estatales sobre IA siga aumentando.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...