California Aprueba la Primera Ley de Seguridad en IA
California ha establecido un precedente nacional al aprobar la primera ley de seguridad en IA del país. Firmada por el gobernador Gavin Newsom, esta legislación obliga a los desarrolladores de IA a hacer públicas sus prácticas de seguridad y establece un marco de informes para amenazas, posicionando al estado como un pionero en la regulación de la IA.
California Establece un Estándar Nacional para la Supervisión de la IA
La legislación, conocida como SB 53, obliga a grandes empresas de IA como OpenAI y Meta a revelar públicamente sus prácticas de seguridad y protección. Además, proporciona protecciones para los denunciantes en el sector de la IA y crea CalCompute, una plataforma de computación en la nube operada por el estado. Esta acción responde a las crecientes preocupaciones del público sobre los peligros de una IA poderosa, mientras se fomenta la innovación.
El gobernador Newsom enfatizó que California puede mantener a las comunidades a salvo mientras promueve el desarrollo tecnológico. Según el político de 57 años, California no solo está aquí para ser una nueva frontera en la innovación de IA, sino también para ser un líder nacional en este desarrollo.
Cómo la Nueva Ley de IA se Diferencia de los Estándares Internacionales
A diferencia del Reglamento de IA de la Unión Europea, que impone divulgaciones de seguridad a los gobiernos, la ley de California exige transparencia al público. La legislación también requiere que las empresas informen sobre eventos de seguridad, como ciberataques y comportamientos manipulativos de la IA, convirtiéndose en la primera de su tipo a nivel mundial.
Reacciones de la Industria a la Aprobación de SB 53
A diferencia de la ley de IA más amplia del año pasado, que encontró una fuerte resistencia, SB 53 recibió un respaldo tentativo de varias empresas tecnológicas. Según The Verge, Anthropic apoyó abiertamente la medida, y OpenAI y Meta no intentaron detenerla. Meta la calificó como «un paso positivo», mientras que OpenAI comentó sobre su apoyo a la colaboración federal futura en la seguridad de la IA.
Sin embargo, no todos los que expresaron su opinión estaban a favor. La Cámara de Progreso, una organización de cabildeo de la industria tecnológica, afirmó que la ley podría desalentar la innovación. Andreessen Horowitz, una firma de capital de riesgo, temía que regular el desarrollo de la IA pudiera dificultar la vida a las startups y consolidar a los incumbentes.
Consecuencias para el Futuro de la Regulación de la IA
La aprobación de SB 53 podría inspirar esfuerzos similares en otros estados, moldeando un patchwork de leyes de IA en los EE. UU. Mientras que los legisladores de Nueva York han propuesto legislación comparable, el Congreso está debatiendo si los estándares nacionales deben prevalecer sobre las reglas a nivel estatal.
El senador Ted Cruz ha resistido las normas lideradas por los estados, advirtiendo del riesgo de «50 estándares conflictivos» a nivel nacional. Sus comentarios reflejan una tensión más general: cómo equilibrar la competitividad de América en IA con la necesidad de una regulación sensata.