California Implementa Nuevas Leyes de Seguridad y Transparencia en IA

California Promulga Nuevas Leyes de Seguridad y Transparencia en IAh2>

En ausencia de una legislación federal integral que aborde la b>seguridad de la inteligencia artificial (IA)b> y los usos permitidos en el lugar de trabajo, los estados continúan promulgando leyes que imponen obligaciones significativas de b>transparenciab>, b>reportesb> y b>evaluacionesb> en el uso de la IA por parte de los empleadores. Recientemente, California ha sido el foco de importantes desarrollos legislativos que modifican el panorama legal para las empresas en el estado.p>

Regulaciones Nuevas sobre el Uso de Tecnologías de Toma de Decisiones Automatizadash3>

El 29 de septiembre, la b>California Privacy Protection Agency (CPPA)b> anunció la aprobación de regulaciones que se centran en el uso de b>tecnologías de toma de decisiones automatizadas (ADMT)b>. Estas regulaciones requieren que las empresas proporcionen un b>aviso previob> a los californianos antes de recopilar información personal que será procesada por ADMT.p>

A partir del 1 de enero de 2027, las empresas deberán describir el propósito específico del uso de ADMT, otorgar a los consumidores el derecho de optar por salir y explicar cómo se tomará la decisión si el consumidor opta por salir. Además, se requerirá que las empresas realicen b>evaluaciones de riesgosb> antes de iniciar cualquier actividad de procesamiento que implique un “riesgo significativo”.p>

La Ley de Transparencia en Inteligencia Artificial Fronterizah3>

El mismo día, el Gobernador de California, Gavin Newsom, firmó la b>SB 53b>, conocida como la Ley de Transparencia en Inteligencia Artificial Fronteriza. Esta ley establece un marco regulatorio que estandariza las divulgaciones de seguridad para los desarrolladores de b>modelos fronterizosb>, que son aquellos modelos entrenados con un poder de cómputo superior a 10^26 operaciones de punto flotante.p>

A partir del 1 de enero de 2026, los desarrolladores de grandes modelos fronterizos deberán crear e implementar un b>marco de seguridadb> que aborde su enfoque hacia la seguridad y la mitigación de riesgos. Este marco debe ser publicado en sus sitios web y actualizado anualmente o tras cambios materiales.p>

Informes de Transparencia y Protección de Denunciantesh3>

Los desarrolladores cubiertos también deberán publicar informes de transparencia que incluyan la fecha de lanzamiento del modelo y cualquier restricción en su implementación. Además, deberán notificar a la b>California Office of Emergency Services (OES)b> sobre incidentes de seguridad crítica dentro de 15 días de su descubrimiento.p>

La ley incluye b>protecciones para denunciantesb>, lo que anima a los empleados a reportar riesgos catastróficos sin temor a represalias. Estas protecciones son aplicables a aquellos empleados responsables de evaluar y gestionar riesgos asociados con incidentes de seguridad crítica.p>

Veto de la Ley ‘No Robo Bosses Act’h3>

En contraste, el Gobernador Newsom vetó la b>SB 7b>, conocida como la ‘No Robo Bosses Act’. Esta ley buscaba regular el uso de sistemas de decisión automatizados en todas las etapas del empleo, pero su ambigüedad y el amplio alcance de su definición provocaron preocupaciones en la industria sobre los costos de implementación.p>

La ley prohibía el uso exclusivo de sistemas automatizados para decisiones de disciplina y despido, permitiendo solo su uso “principalmente” bajo la supervisión humana.p>

Implicaciones para los Empleadoresh3>

A pesar del veto de la SB 7, los empleadores deben estar preparados para un mayor escrutinio sobre el uso de herramientas de IA en el lugar de trabajo. Es fundamental revisar todas las b>tecnologías de decisión automatizadasb> actualmente en uso y establecer canales claros para reportar inquietudes sobre la seguridad de la IA.p>

Los empleadores deben mantenerse informados sobre el cambiante panorama regulatorio, ya que otros estados, como Nueva York, están adoptando iniciativas similares para regular el uso de modelos de IA.p>

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...