Ley de Transparencia en IA de Frontera en California: Un Hito Histórico

California: Ley de Transparencia en Inteligencia Artificial de Frontera

El 29 de septiembre de 2025, el Gobernador de California, Gavin Newsom, firmó la ley SB 53 — la Ley de Transparencia en la Inteligencia Artificial de Frontera (TFAIA) — convirtiéndose en la primera legislación en su tipo en regular los modelos de inteligencia artificial de frontera.

Esta ley requiere que los grandes desarrolladores de inteligencia artificial publiquen marcos de seguridad, divulguen informes de transparencia específicos y reporten incidentes críticos de seguridad a la Oficina de Servicios de Emergencia (OES). Además, crea protecciones mejoradas para los denunciantes que reportan violaciones de seguridad en inteligencia artificial y establece un consorcio para diseñar un marco para CalCompute, una plataforma pública de nube para expandir la investigación segura y equitativa en IA.

Antecedentes

TFAIA es el sucesor del año anterior, la SB 1047, que fue vetada por Newsom debido a temores sobre su impacto negativo en la economía de IA de California. Tras su veto, el gobernador anunció un grupo de trabajo para considerar esfuerzos legislativos adicionales, cuyo informe se publicó en marzo de 2025.

Alcance de la Ley

TFAIA se aplica a los grandes desarrolladores de frontera, definidos como aquellos que han entrenado o están entrenando un modelo de IA de base utilizando más de 10^26 operaciones de punto flotante o enteros. Se considera un desarrollador grande a aquellos con ingresos brutos anuales superiores a $500 millones.

Este enfoque limita la aplicación de la ley a las corporaciones tecnológicas de escala global, reconociendo los beneficios que el desarrollo de IA aporta a la economía de California.

Obligaciones de Transparencia

Marco de IA

La ley establece obligaciones para los grandes desarrolladores, quienes deben adoptar y divulgar protocolos de seguridad diseñados para reducir el riesgo de incidentes catastróficos. Deben publicar un “marco de IA de frontera” en su sitio web, que incluya evaluaciones de riesgos, estructuras de gobernanza interna y medidas de ciberseguridad, entre otros aspectos.

El marco debe actualizarse anualmente y cualquier modificación debe hacerse pública en un plazo de 30 días.

Informe de Transparencia

Cada vez que se despliegue un nuevo modelo de frontera o uno sustancialmente alterado, el desarrollador debe liberar un informe de transparencia que detalle los usos, limitaciones y la evaluación de riesgos catastróficos del modelo.

Obligaciones de Reporte

Además, TFAIA requiere comunicación regular con las autoridades gubernamentales. Los desarrolladores deben enviar un resumen de sus evaluaciones de riesgo catastrófico a la OES cada tres meses.

Reporte de Seguridad Crítica

La OES establecerá un mecanismo para que los desarrolladores informen sobre incidentes críticos de seguridad dentro de los 15 días posteriores a su ocurrencia, y en casos de riesgo inminente, dentro de 24 horas.

Recomendaciones para Actualizaciones

A partir del 1 de enero de 2027, el Departamento de Tecnología deberá evaluar anualmente el desarrollo tecnológico, la investigación científica y los estándares internacionales para actualizar las definiciones relacionadas con los modelos y desarrolladores de frontera.

Aplicación

Si un desarrollador no publica o transmite documentos requeridos, el Fiscal General del estado puede buscar una penalización civil de hasta $1 millón por violación.

CalCompute

TFAIA establece un consorcio para diseñar un marco para CalCompute, un clúster de computación en la nube pública destinado a avanzar en la IA segura y equitativa. Este consorcio debe presentar un informe integral al legislativo antes del 1 de enero de 2027.

Protecciones para Denunciantes

La ley prohíbe a los desarrolladores impedir o tomar represalias contra los empleados que reporten actividades que pongan en riesgo la salud pública o violen la ley, garantizando así un entorno de trabajo seguro para quienes actúan como denunciantes.

En resumen, la Ley de Transparencia en la Inteligencia Artificial de Frontera establece un conjunto robusto de regulaciones que buscan equilibrar la innovación con la seguridad pública, asegurando así un futuro más seguro en el desarrollo de la inteligencia artificial.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...