California promulga una ley pionera sobre la transparencia en la inteligencia artificial

California promulga una ley histórica sobre la transparencia en la inteligencia artificialh2>

El 29 de septiembre de 2025, el gobernador de California firmó el b>Proyecto de Ley del Senado 53b>, conocido como la b>Ley de Transparencia en la Inteligencia Artificial de Fronterab> (TFAIA). Con esta ley, California se convierte en el primer estado de la nación en establecer un marco legal completo para garantizar la b>transparenciab>, la b>seguridadb> y la b>responsabilidadb> en el desarrollo y despliegue de modelos avanzados de inteligencia artificial (IA).p>

Ámbito de aplicaciónh3>

La TFAIA establece nuevos requisitos de b>transparenciab> y b>gobernanzab> para las organizaciones que desarrollan ciertos sistemas avanzados de IA, denominados “modelos de frontera”. Mientras que la ley se aplica de manera general a todos los desarrolladores de frontera, ciertas obligaciones se dirigen específicamente a los b>grandes desarrolladores de fronterab>.p>

Las definiciones clave bajo la TFAIA incluyen:p>

    li>b>Modelo de frontera:b> un modelo fundamental que fue entrenado utilizando una cantidad de poder computacional superior a 10sup>26sup> operaciones de punto entero o de punto flotante.li>
    li>b>Desarrollador de frontera:b> una persona que ha entrenado o iniciado el entrenamiento de un modelo de frontera.li>
    li>b>Gran desarrollador de frontera:b> un desarrollador de frontera que, junto con sus afiliados, tuvo ingresos brutos anuales superiores a 500 millones de dólares en el año calendario anterior.li>
    ul>

    Obligaciones claveh3>

    Marco de IA de fronterah4>

    Según la TFAIA, los grandes desarrolladores de frontera deben implementar y publicar un b>Marco de IA de Fronterab>. Este marco debe actualizarse y hacerse público al menos una vez al año, y dentro de los 30 días de cualquier modificación material. Debe incluir documentación sobre estructuras de gobernanza, procesos de mitigación y prácticas de ciberseguridad.p>

    La TFAIA define el b>riesgo catastróficob> como un riesgo previsible y material que puede contribuir a la muerte o lesiones graves de más de 50 personas, o a daños o pérdidas de propiedad superiores a 1,000 millones de dólares.p>

    Publicación de informes de transparenciah4>

    Todos los desarrolladores de frontera, no solo los grandes, deben publicar un b>informe de transparenciab> antes o simultáneamente con el despliegue de un nuevo modelo de frontera. Este informe debe incluir:p>

      li>Mecanismo para que las personas se comuniquen directamente con el desarrollador.li>
      li>Fecha de lanzamiento del modelo de frontera.li>
      li>Modalidades de los resultados que soporta el modelo.li>
      li>Usos pretendidos del modelo, junto con cualquier restricción o condición sobre esos usos.li>
      ul>

      Mecanismo de reporte de incidentes críticos de seguridadh4>

      La TFAIA requiere que los desarrolladores informen sobre cualquier b>incidente crítico de seguridadb> a la Oficina de Servicios de Emergencia dentro de los 15 días de su descubrimiento, o dentro de las 24 horas si hay un riesgo inminente de muerte o lesiones físicas graves.p>

      Protecciones para denunciantesh3>

      La TFAIA protege a los b>denunciantesb> que informan sobre riesgos importantes para la salud y la seguridad relacionados con modelos de IA de frontera. Los desarrolladores deben informar claramente a todos los empleados sobre estos derechos y establecer un sistema interno razonable para reportes anónimos.p>

      Ejecutoriah3>

      La TFAIA autoriza al b>Fiscal General de Californiab> a hacer cumplir la ley, incluyendo multas de hasta 1 millón de dólares por cada violación. La ley entrará en vigor el 1 de enero de 2026.p>

      Conclusiones claveh3>

      Con la TFAIA, California ha cambiado el panorama de la transparencia en la IA de un estándar voluntario de la industria a un régimen legal obligatorio. Aunque es temprano para evaluar su impacto a nivel nacional, la TFAIA puede contribuir a un creciente mosaico de regulaciones estatales sobre IA, similar a la influencia de la Ley de Privacidad del Consumidor de California en las leyes de privacidad.p>

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...