La ley de California que exigirá transparencia a las empresas de IA y sus riesgos catastróficos

Este proyecto de ley de California requerirá transparencia de las empresas de IA. Pero, ¿realmente evitará desastres importantes?

Cuando se trata de IA, como va California, así va la nación. El estado más grande de EE. UU. por población es también el centro de innovación en IA a nivel mundial, albergando a 32 de las 50 principales empresas de IA del mundo. Este tamaño e influencia le otorgan a California el peso necesario para convertirse en un pionero regulador, marcando el tono para el resto del país en cuanto a regulaciones ambientales, laborales y de protección al consumidor, y más recientemente, en IA también.

Tras la derrota dramática de una propuesta de moratoria federal sobre la regulación estatal de la IA en julio, los legisladores de California ven una ventana de oportunidad limitada para sentar las bases de las leyes de IA en el resto del país. En las primeras horas de la mañana del sábado, la Asamblea Estatal de California votó a favor del SB 53, un proyecto de ley que requerirá informes de transparencia de los desarrolladores de modelos de IA altamente poderosos.

¿Qué es el SB 53?

El SB 53 se centra en modelos de IA de vanguardia, sistemas generativos extremadamente capaces que requieren grandes cantidades de datos y potencia de cálculo, como ChatGPT de OpenAI, Gemini de Google, Grok de xAI y Claude de Anthropic. Este proyecto de ley, que ha pasado ambas partes de la legislatura estatal, ahora va al gobernador Gavin Newsom para ser vetado o firmado en ley.

La ley define un «riesgo catastrófico» como un riesgo previsible y material de un evento que causa más de 50 muertes o más de $1 mil millones en daños, en el que un modelo de IA de vanguardia desempeña un papel significativo. Aunque la definición de riesgo catastrófico es objeto de debate, se centra en los posibles riesgos que podrían amenazar la civilización humana a niveles locales, nacionales y globales.

Transparencia y responsabilidad

El SB 53 requiere que las empresas de IA desarrollen marcos de seguridad que detallen cómo abordan la reducción de riesgos catastróficos. Antes de desplegar sus modelos, las empresas deberán publicar informes de seguridad y seguridad, y reportar incidentes críticos a la Oficina de Servicios de Emergencia de California en un plazo de 15 días. Además, se establecen protecciones para denunciantes que informen sobre implementaciones inseguras de modelos que contribuyan a riesgos catastróficos.

El objetivo del SB 53 es hacer que las empresas sean públicamente responsables de sus compromisos de seguridad de IA, con sanciones financieras de hasta $1 millón por violación.

Riesgos catastróficos y su definición

El enfoque del proyecto de ley en los riesgos catastróficos no está exento de controversia. Los riesgos catastróficos se refieren a aquellos que pueden resultar en pérdidas masivas de vidas o daños significativos. Sin embargo, la mayoría de las personas no se preocuparán por la posibilidad de que la IA desencadene ataques nucleares o biológicos, sino que se centran en cómo el sesgo algorítmico podría afectar sus vidas en el presente.

La falta de claridad sobre qué constituye un riesgo catastrófico podría resultar en que el SB 53 sea tanto demasiado específico como impreciso. Aunque se enfoca en los peligros de la IA, como el uso de modelos de IA para desarrollar armas biológicas, el proyecto de ley podría no abordar adecuadamente los problemas ya existentes relacionados con la IA.

Impacto esperado

Si el gobernador Newsom firma el SB 53, podría inspirar a otros estados a intentar regular la IA a través de un marco similar y eventualmente fomentar el avance de la legislación federal sobre seguridad en IA. La discusión sobre cómo clasificar el riesgo es fundamental, ya que determina dónde se enfocan los esfuerzos de prevención.

En conclusión, el SB 53 representa un esfuerzo significativo para regular una tecnología de rápido movimiento antes de que supere nuestros esfuerzos de supervisión. Aunque un solo proyecto de ley estatal centrado en la transparencia puede no ser suficiente para evitar desastres devastadores, es un paso hacia la regulación de la IA que podría tener implicaciones en toda la nación.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...