California promulga una ley histórica sobre la transparencia en la inteligencia artificialh2>
El 29 de septiembre de 2025, el gobernador de California firmó el b>Proyecto de Ley del Senado 53b>, conocido como la b>Ley de Transparencia en la Inteligencia Artificial de Fronterab> (TFAIA). Con esta ley, California se convierte en el primer estado de la nación en establecer un marco legal completo para garantizar la b>transparenciab>, la b>seguridadb> y la b>responsabilidadb> en el desarrollo y despliegue de modelos avanzados de inteligencia artificial (IA).p>
Ámbito de aplicaciónh3>
La TFAIA establece nuevos requisitos de b>transparenciab> y b>gobernanzab> para las organizaciones que desarrollan ciertos sistemas avanzados de IA, denominados “modelos de frontera”. Mientras que la ley se aplica de manera general a todos los desarrolladores de frontera, ciertas obligaciones se dirigen específicamente a los b>grandes desarrolladores de fronterab>.p>
Las definiciones clave bajo la TFAIA incluyen:p>
-
li>b>Modelo de frontera:b> un modelo fundamental que fue entrenado utilizando una cantidad de poder computacional superior a 10sup>26sup> operaciones de punto entero o de punto flotante.li>
li>b>Desarrollador de frontera:b> una persona que ha entrenado o iniciado el entrenamiento de un modelo de frontera.li>
li>b>Gran desarrollador de frontera:b> un desarrollador de frontera que, junto con sus afiliados, tuvo ingresos brutos anuales superiores a 500 millones de dólares en el año calendario anterior.li>
ul>
Obligaciones claveh3>
Marco de IA de fronterah4>
Según la TFAIA, los grandes desarrolladores de frontera deben implementar y publicar un b>Marco de IA de Fronterab>. Este marco debe actualizarse y hacerse público al menos una vez al año, y dentro de los 30 días de cualquier modificación material. Debe incluir documentación sobre estructuras de gobernanza, procesos de mitigación y prácticas de ciberseguridad.p>
La TFAIA define el b>riesgo catastróficob> como un riesgo previsible y material que puede contribuir a la muerte o lesiones graves de más de 50 personas, o a daños o pérdidas de propiedad superiores a 1,000 millones de dólares.p>
Publicación de informes de transparenciah4>
Todos los desarrolladores de frontera, no solo los grandes, deben publicar un b>informe de transparenciab> antes o simultáneamente con el despliegue de un nuevo modelo de frontera. Este informe debe incluir:p>
-
li>Mecanismo para que las personas se comuniquen directamente con el desarrollador.li>
li>Fecha de lanzamiento del modelo de frontera.li>
li>Modalidades de los resultados que soporta el modelo.li>
li>Usos pretendidos del modelo, junto con cualquier restricción o condición sobre esos usos.li>
ul>
Mecanismo de reporte de incidentes críticos de seguridadh4>
La TFAIA requiere que los desarrolladores informen sobre cualquier b>incidente crítico de seguridadb> a la Oficina de Servicios de Emergencia dentro de los 15 días de su descubrimiento, o dentro de las 24 horas si hay un riesgo inminente de muerte o lesiones físicas graves.p>
Protecciones para denunciantesh3>
La TFAIA protege a los b>denunciantesb> que informan sobre riesgos importantes para la salud y la seguridad relacionados con modelos de IA de frontera. Los desarrolladores deben informar claramente a todos los empleados sobre estos derechos y establecer un sistema interno razonable para reportes anónimos.p>
Ejecutoriah3>
La TFAIA autoriza al b>Fiscal General de Californiab> a hacer cumplir la ley, incluyendo multas de hasta 1 millón de dólares por cada violación. La ley entrará en vigor el 1 de enero de 2026.p>
Conclusiones claveh3>
Con la TFAIA, California ha cambiado el panorama de la transparencia en la IA de un estándar voluntario de la industria a un régimen legal obligatorio. Aunque es temprano para evaluar su impacto a nivel nacional, la TFAIA puede contribuir a un creciente mosaico de regulaciones estatales sobre IA, similar a la influencia de la Ley de Privacidad del Consumidor de California en las leyes de privacidad.p>