Transparencia y Seguridad en la Inteligencia Artificial en California

Transparencia en la Ley de Inteligencia Artificial Fronteriza (SB-53)

El 29 de septiembre, el gobernador de California, Gavin Newsom, firmó la Ley de Transparencia en la Inteligencia Artificial Fronteriza (“TFAIA”), convirtiendo a California en el primer estado en requerir divulgaciones de seguridad estandarizadas y públicas por parte de los desarrolladores de modelos avanzados de inteligencia artificial (IA).

Ante la falta de una legislación federal comprensiva sobre la seguridad de la IA, California se posiciona como un líder en cuestiones de seguridad de la IA. Otros estados como Colorado y Texas han comenzado a implementar sus propias regulaciones relacionadas con la IA, aunque la ley de Colorado ha tenido su implementación retrasada hasta junio de 2026.

Visión General de TFAIA

TFAIA exige a los desarrolladores que divulguen cómo gestionan los riesgos de seguridad y presenta nuevos mecanismos para la transparencia, responsabilidad y ejecución. Los desarrolladores que no cumplan con la ley a partir de su entrada en vigor en enero de 2026 enfrentarán sanciones civiles de hasta $1,000,000 por violación, que serán impuestas por el Fiscal General de California.

A quiénes Cubre

TFAIA se aplica a los desarrolladores de modelos de IA frontera, definidos como aquellos modelos fundamentales entrenados con una cantidad de potencia computacional superior a 10^26 operaciones de punto entero o flotante (FLOPs). Este umbral es superior al establecido en la Ley de IA de la UE que es de 10^25 FLOPs.

La ley impone requisitos de transparencia y responsabilidad adicionales a los grandes desarrolladores de frontera cuyos ingresos anuales, incluyendo afiliados, superaron los $500,000,000 en el año calendario anterior.

Requisitos de Publicación

Bajo TFAIA, los grandes desarrolladores deben publicar un marco de seguridad general accesible que muestre cómo incorporan normas nacionales, internacionales y mejores prácticas de consenso de la industria. Este marco debe incluir prácticas de ciberseguridad y medidas de gobernanza interna para asegurar la implementación adecuada de los procesos necesarios.

Transparencia en el Despliegue

Cuando un desarrollador de frontera lanza un nuevo modelo o uno sustancialmente modificado, debe publicar un informe de transparencia que identifique la fecha de lanzamiento, modalidades, usos previstos y restricciones de despliegue. Además, deben resumir sus evaluaciones de riesgo catastrófico y divulgar los resultados.

Incidentes de Seguridad Críticos

Los desarrolladores de frontera deben notificar a la Oficina de Servicios de Emergencia de California sobre cualquier “incidente de seguridad crítico” que implique riesgo de muerte o lesión grave dentro de un plazo de 15 días. En caso de riesgo inminente, la divulgación debe hacerse en 24 horas.

Protecciones para Denunciantes

TFAIA establece fuertes protecciones para los denunciantes dentro de las empresas de desarrollo de frontera, prohibiendo represalias y exigiendo canales de reporte anónimos.

Consorcio “CalCompute”

La ley dirige el establecimiento de un consorcio para diseñar un cluster de computación pública respaldado por el estado, llamado CalCompute, que proporcionará capacidades de computación avanzada para apoyar la innovación sostenible y equitativa en IA.

Actualizaciones Continuas de la Ley

La ley reconoce que la frontera de la IA está en constante evolución y que la legislación debe adaptarse. Se requiere una revisión anual de las definiciones de “modelo de frontera” y “desarrollador de frontera” para alinearse con estándares internacionales y federales.

Próximas Regulaciones sobre Seguridad de IA

Además de TFAIA, se prevén otras leyes relacionadas con la IA que entrarán en vigor en California en 2025 y 2026, incluyendo mandatos de transparencia sobre datos de entrenamiento. El debate sobre una “moratoria” federal que podría preemptar la legislación estatal continúa, pero se espera que el ritmo de las leyes estatales sobre IA siga aumentando.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...