California regula la inteligencia artificial: un paso hacia el control y la innovación

La regulación de la inteligencia artificial (IA) en California

Más de un año después de que la legislación europea que regula la inteligencia artificial entrara en vigor, el estado de California, cuna de esta tecnología, ha promulgado una ley similar. Mientras la administración de Trump se opone a cualquier restricción en la carrera de la IA, los impulsores de la ley conocida como “SB 53” han buscado encontrar el equilibrio adecuado para no sofocar la innovación, pero evitando sus excesos.

California detiene el desarrollo incontrolado de la IA

Como cuna de la inteligencia artificial, con las sedes de líderes tecnológicos como Google, Meta, OpenAI (ChatGPT) y Anthropic (fundada por desertores de la anterior), California está bien posicionada para comprender los riesgos asociados con esta tecnología.

El pasado lunes, el estado demócrata aprobó una ley, conocida como “SB 53”, destinada a regular el uso de la inteligencia artificial.

Precedida por la Ley de IA Europea

Presentada como sin precedentes a nivel global, esta nueva legislación fue, sin embargo, precedida por una legislación europea similar, la “AI Act”. Esta última fue descrita en su momento como pionera y entró en vigor el 1 de agosto de 2024, con implementación gradual a partir del 2 de febrero de 2025.

La nueva ley californiana sigue dos intentos recientes al otro lado del Atlántico, ambos fallidos. Por un lado, la administración republicana de Trump intentó bloquear cualquier regulación de la IA por parte de los estados de EE. UU., argumentando que dicha regulación perjudicaría a los Estados Unidos en la carrera de la IA contra China, que no tiene tales reservas.

El riesgo de sofocar la innovación no es solo una preocupación para los republicanos. Este argumento también fue utilizado el año pasado por el gobernador demócrata de California, Gavin Newsom, para vetar a última hora un proyecto de ley propuesto por el senador local Scott Wiener, que también pertenece a su partido. Este proyecto de ley fue un intento inicial de regular la IA, pero se consideró demasiado estricto.

La aprobación de la ley “SB 53” en California marca un hito en el esfuerzo por establecer un marco regulatorio equilibrado que permita el desarrollo responsable de la inteligencia artificial, protegiendo así tanto la innovación como la seguridad pública.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...