La Nueva Ley de IA de California Exige Transparencia a los Desarrolladores

La Nueva Ley de IA de California Exige Transparencia a los Principales Desarrolladores de IA

El 29 de septiembre de 2025, el Gobernador de California firmó la Senate Bill 53, conocida como la Transparency in Frontier Artificial Intelligence Act (TFAIA). Esta legislación representa la regulación más significativa hasta la fecha de los desarrolladores de IA en California.

California se convierte en el primer estado del país que requiere a los grandes desarrolladores de IA divulgar públicamente un marco de seguridad que incorpore estándares de seguridad ampliamente aceptados y que explique la capacidad de un modelo para presentar y mitigar “riesgos catastróficos”. La ley también obliga a los desarrolladores de modelos a publicar, por primera vez, informes de transparencia sobre los usos y restricciones previstos de un modelo, y exige a los grandes desarrolladores resumir sus evaluaciones sobre los riesgos catastróficos de un modelo. Además, la TFAIA establece la obligación de informar al gobierno sobre “incidentes de seguridad críticos”; proporciona protecciones a los denunciantes para los empleados de los desarrolladores de modelos; y establece un consorcio para crear “CalCompute”, un clúster de computación en la nube pública.

Desafíos en la Regulación de la IA

El movimiento de Sacramento para imponer supervisión estatal sobre los desarrolladores de modelos de IA se produce en un contexto donde las acciones federales son distintas. La dirección en la que avanza el estado con respecto a la regulación de la IA podría complicar los esfuerzos de la industria para cumplir con las normativas.

Aplicabilidad de la TFAIA

La TFAIA impone requisitos a un número pequeño pero creciente de empresas. La ley se aplica a “desarrolladores de frontera”, entidades que han entrenado o están entrenando un “modelo de frontera”, y exige requisitos adicionales a los “grandes desarrolladores de frontera” que superan los $500 millones en ingresos brutos anuales. Un “modelo de frontera” se define por la cantidad de poder computacional utilizado para entrenar, ajustar o modificar el modelo, específicamente, una cantidad de poder computacional mayor a 10^26 operaciones de punto flotante o enteros (FLOP).

Pocos modelos cumplen actualmente con este alto umbral técnico, pero las proyecciones indican que muchos más lo harán pronto. Según un análisis, se espera que haya alrededor de 30 modelos que utilicen más de 10^26 FLOP para principios de 2027, y más de 200 modelos para principios de 2030.

Requisitos de Divulgación de los Desarrolladores de Frontera

La TFAIA impone cargas regulatorias significativas a los desarrolladores de frontera y grandes desarrolladores de frontera al exigir transparencia de varias maneras, que incluyen protecciones para denunciantes y la promoción de infraestructura pública para apoyar la investigación en IA.

Modelo para Otras Jurisdicciones

California es el primero, pero posiblemente no el último estado en regular específicamente a los desarrolladores de IA. Otros estados, como Nueva York, están considerando leyes similares que exigirán a los desarrolladores de modelos de IA de frontera crear y mantener protocolos de seguridad, informar incidentes de seguridad significativos y evaluar sus modelos para evitar aquellos que presenten “riesgos inaceptables de daño crítico”.

A medida que California avanza en su regulación, se alinea con jurisdicciones como la Unión Europea, Japón y Corea del Sur, que también están implementando marcos regulatorios basados en riesgos para sistemas de IA de alto impacto.

Próximos Pasos

Los desarrolladores de frontera y grandes desarrolladores de frontera deben revisar la TFAIA y consultar con asesores legales para evaluar el impacto de la ley en sus operaciones. Esto incluye evaluar sus prácticas actuales de transparencia, redactar marcos de IA de frontera e informes de transparencia, formalizar procesos para informar incidentes de seguridad críticos y actualizar políticas de protección a denunciantes.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...