Ley de California sobre la regulación de empresas de IA

California promulga una ley que regula a las principales empresas de IA

El gobernador de California, Gavin Newsom, firmó el Proyecto de Ley de Transparencia en la Inteligencia Artificial de Frontera, también conocido como SB 53, el lunes por la tarde.

Esta ley, la primera de su tipo en los Estados Unidos, impone nuevas regulaciones específicas sobre la IA a los principales actores de la industria, exigiéndoles cumplir con requisitos de transparencia y reportar incidentes relacionados con la seguridad de la IA.

Innovación y regulación

Aunque varios estados han aprobado recientemente leyes que regulan aspectos de la IA, el SB 53 es el primero que se centra explícitamente en la seguridad de los modelos de IA avanzados y potentes. En una declaración, Newsom dijo: “California ha demostrado que podemos establecer regulaciones para proteger a nuestras comunidades mientras aseguramos que la creciente industria de la IA continúe prosperando. Esta legislación logra ese equilibrio”.

La ley probablemente tendrá repercusiones a nivel mundial, ya que 32 de las 50 principales empresas de IA del mundo están basadas en California. En un mensaje de firma al Senado estatal, Newsom escribió que el estatus de California como líder global en tecnología permite ofrecer un modelo de políticas de IA equilibradas más allá de nuestras fronteras, especialmente en ausencia de un marco federal integral sobre la IA.

Requisitos de transparencia

La ley exige a las principales empresas de IA publicar documentos públicos que detallen cómo están siguiendo las mejores prácticas para crear sistemas de IA seguros. También establece un camino para que las empresas reporten incidentes graves relacionados con la IA a la Oficina de Servicios de Emergencia de California, mientras refuerza las protecciones para los denunciantes que planteen preocupaciones sobre riesgos para la salud y la seguridad.

La ley cuenta con sanciones civiles por incumplimiento, que serán ejecutadas por la oficina del fiscal general del estado.

Contexto legislativo

El autor del proyecto, el senador estatal demócrata Scott Wiener, afirmó: “Con una tecnología tan transformadora como la IA, tenemos la responsabilidad de apoyar esa innovación mientras implementamos salvaguardias sensatas para comprender y reducir riesgos”.

El SB 53 fue aprobado exactamente un año después de que Newsom vetara un proyecto de ley similar, el SB 1047, que intentaba asignar una mayor responsabilidad a las principales empresas de IA en caso de eventos adversos.

A diferencia del SB 1047, que se centraba más en la responsabilidad, el SB 53 se enfoca en la transparencia.

Respuestas de la industria

La aprobación del SB 53 sigue a recientes anuncios sobre esfuerzos de cabildeo aumentados por las grandes empresas de tecnología para limitar la difusión e impacto de la regulación de la IA. Anunciando un nuevo super PAC para combatir la legislación sobre IA, el vicepresidente de políticas públicas de Meta, Brian Rice, afirmó que “el entorno regulatorio de Sacramento podría sofocar la innovación, bloquear el progreso de la IA y poner en riesgo el liderazgo tecnológico de California”.

A pesar de la crítica intensa de grupos industriales como la Cámara de Progreso y la Asociación de Tecnología del Consumidor, la empresa de IA líder Anthropic respaldó la ley. Su cofundador y jefe de políticas, Jack Clark, comentó que la firma de Newsom establece requisitos de transparencia significativos para las empresas de IA de frontera sin imponer mandatos técnicos prescriptivos.

Varias empresas expresaron su apoyo al proyecto de ley, pero dejaron claro su preferencia por una legislación federal para evitar regulaciones inconsistentes de estado por estado.

Perspectivas de regulación federal

El lunes por la mañana, los senadores Josh Hawley (R-Mo.) y Richard Blumenthal (D-Conn.) propusieron un proyecto de ley federal que requeriría a los desarrolladores de IA líderes “evaluar sistemas avanzados de IA y recopilar datos sobre la probabilidad de incidentes adversos relacionados con la IA”.

Como está redactado, el proyecto de ley federal crearía un Programa de Evaluación de Inteligencia Artificial Avanzada dentro del Departamento de Energía, y la participación en el programa de evaluación sería obligatoria, al igual que los requisitos de transparencia y reporte del SB 53.

Conclusión

Los líderes mundiales están cada vez más solicitando la regulación de la IA ante los crecientes riesgos de los sistemas avanzados de IA. En sus declaraciones a la Asamblea General de las Naciones Unidas, el presidente Donald Trump mencionó que la IA “podría ser una de las grandes cosas de la historia, pero también puede ser peligrosa”. Por su parte, el presidente ucraniano Volodymyr Zelenskyy advirtió sobre la “carrera armamentista más destructiva en la historia de la humanidad debido a la inteligencia artificial”.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...