La nueva ley de seguridad en IA de California: un equilibrio entre regulación e innovación

La nueva ley de seguridad de IA en California: un equilibrio entre supervisión e innovación

California ha aprobado la Senate Bill 53 (SB 53), una regulación pionera en el país que requiere que las grandes empresas de inteligencia artificial (IA), específicamente aquellas que generan más de $500 millones anualmente, divulguen públicamente sus protocolos de seguridad y protección.

Adam Billen, vicepresidente de políticas públicas en el grupo de defensa juvenil Encode AI, afirmó en una reciente entrevista que la SB 53 demuestra cómo la regulación gubernamental puede complementar los avances tecnológicos.

Regulación e innovación no tienen que chocar

Según Billen, la legislación exige que estas empresas describan cómo previenen el uso indebido de sus sistemas en formas catastróficas, como ataques cibernéticos o la creación de armas biológicas y químicas.

“La realidad es que los legisladores saben que necesitamos actuar”, explicó Billen. “Hay una manera de aprobar legislación que realmente protege la innovación mientras asegura que estos productos sean seguros”.

Billen argumenta que muchos de los requisitos de la ley son prácticas que las principales empresas de IA ya siguen, como las pruebas de modelos y los informes de transparencia. Sin embargo, ha notado que las presiones competitivas han llevado a algunas empresas a relajar sus protocolos de seguridad, lo cual la nueva ley busca abordar.

“Las empresas ya están haciendo lo que les pedimos en esta ley”, comentó. “¿Están empezando a escatimar en algunas áreas? Sí. Y por eso leyes como esta son importantes”.

La lucha por el poder regulador entre federal y estatal

Encode AI ha liderado una coalición de más de 200 grupos en oposición a propuestas federales que bloquearían a los estados de promulgar sus propias reglas de IA. Billen advirtió que el senador estadounidense Ted Cruz es uno de los legisladores que buscan socavar la autonomía estatal en la supervisión de IA.

El SANDBOX Act, introducido por Cruz, permitiría que las empresas de IA soliciten exenciones para eludir temporalmente ciertas regulaciones federales durante hasta diez años.

Billen espera una propuesta federal para un marco de IA que podría parecer equilibrado, pero que en la práctica podría anular las leyes estatales. Advierte que tal legislación podría erosionar el federalismo en América digital y exponer al gobierno a una comunidad negligente donde las empresas pueden fallar sin enfrentar consecuencias.

Seguridad, federalismo y competencia con China

Billen admitió que la competencia entre EE. UU. y China es real, pero no es suficiente para justificar la obstrucción de los esfuerzos a nivel estatal en la regulación de IA. Sostiene que los legisladores deberían enfocarse en los controles de exportación federales y ayudar a las empresas de IA estadounidenses a acceder a chips de computación que necesitan para competir a nivel global.

“Si lo que te importa es vencer a China en la carrera de IA, y a mí me importa eso, entonces las cosas que deberías impulsar son los controles de exportación y asegurarte de que las empresas estadounidenses tengan los chips”, continuó. “Pero eso no es lo que la industria está promoviendo”.

La SB 53 es un ejemplo funcional de la democracia en acción, una colaboración entre el gobierno y la industria que produjo una ley que ambas partes pueden aceptar, aunque de manera imperfecta. “Es muy feo y desordenado. Pero ese proceso de democracia y federalismo es la base de nuestro país y nuestro sistema económico. Creo que la SB 53 es uno de los mejores ejemplos de que eso aún puede funcionar”, concluyó.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...