La ley de California que exigirá transparencia a las empresas de IA y sus riesgos catastróficos

Este proyecto de ley de California requerirá transparencia de las empresas de IA. Pero, ¿realmente evitará desastres importantes?

Cuando se trata de IA, como va California, así va la nación. El estado más grande de EE. UU. por población es también el centro de innovación en IA a nivel mundial, albergando a 32 de las 50 principales empresas de IA del mundo. Este tamaño e influencia le otorgan a California el peso necesario para convertirse en un pionero regulador, marcando el tono para el resto del país en cuanto a regulaciones ambientales, laborales y de protección al consumidor, y más recientemente, en IA también.

Tras la derrota dramática de una propuesta de moratoria federal sobre la regulación estatal de la IA en julio, los legisladores de California ven una ventana de oportunidad limitada para sentar las bases de las leyes de IA en el resto del país. En las primeras horas de la mañana del sábado, la Asamblea Estatal de California votó a favor del SB 53, un proyecto de ley que requerirá informes de transparencia de los desarrolladores de modelos de IA altamente poderosos.

¿Qué es el SB 53?

El SB 53 se centra en modelos de IA de vanguardia, sistemas generativos extremadamente capaces que requieren grandes cantidades de datos y potencia de cálculo, como ChatGPT de OpenAI, Gemini de Google, Grok de xAI y Claude de Anthropic. Este proyecto de ley, que ha pasado ambas partes de la legislatura estatal, ahora va al gobernador Gavin Newsom para ser vetado o firmado en ley.

La ley define un «riesgo catastrófico» como un riesgo previsible y material de un evento que causa más de 50 muertes o más de $1 mil millones en daños, en el que un modelo de IA de vanguardia desempeña un papel significativo. Aunque la definición de riesgo catastrófico es objeto de debate, se centra en los posibles riesgos que podrían amenazar la civilización humana a niveles locales, nacionales y globales.

Transparencia y responsabilidad

El SB 53 requiere que las empresas de IA desarrollen marcos de seguridad que detallen cómo abordan la reducción de riesgos catastróficos. Antes de desplegar sus modelos, las empresas deberán publicar informes de seguridad y seguridad, y reportar incidentes críticos a la Oficina de Servicios de Emergencia de California en un plazo de 15 días. Además, se establecen protecciones para denunciantes que informen sobre implementaciones inseguras de modelos que contribuyan a riesgos catastróficos.

El objetivo del SB 53 es hacer que las empresas sean públicamente responsables de sus compromisos de seguridad de IA, con sanciones financieras de hasta $1 millón por violación.

Riesgos catastróficos y su definición

El enfoque del proyecto de ley en los riesgos catastróficos no está exento de controversia. Los riesgos catastróficos se refieren a aquellos que pueden resultar en pérdidas masivas de vidas o daños significativos. Sin embargo, la mayoría de las personas no se preocuparán por la posibilidad de que la IA desencadene ataques nucleares o biológicos, sino que se centran en cómo el sesgo algorítmico podría afectar sus vidas en el presente.

La falta de claridad sobre qué constituye un riesgo catastrófico podría resultar en que el SB 53 sea tanto demasiado específico como impreciso. Aunque se enfoca en los peligros de la IA, como el uso de modelos de IA para desarrollar armas biológicas, el proyecto de ley podría no abordar adecuadamente los problemas ya existentes relacionados con la IA.

Impacto esperado

Si el gobernador Newsom firma el SB 53, podría inspirar a otros estados a intentar regular la IA a través de un marco similar y eventualmente fomentar el avance de la legislación federal sobre seguridad en IA. La discusión sobre cómo clasificar el riesgo es fundamental, ya que determina dónde se enfocan los esfuerzos de prevención.

En conclusión, el SB 53 representa un esfuerzo significativo para regular una tecnología de rápido movimiento antes de que supere nuestros esfuerzos de supervisión. Aunque un solo proyecto de ley estatal centrado en la transparencia puede no ser suficiente para evitar desastres devastadores, es un paso hacia la regulación de la IA que podría tener implicaciones en toda la nación.

More Insights

Guía Práctica de IA Responsable para Desarrolladores .NET

La era de la Inteligencia Artificial (IA) está sucediendo ahora, y aunque ofrece velocidad y precisión en sectores como la banca y la salud, plantea desafíos éticos sobre su confianza. Para abordar...

Ley de Transparencia en IA: Un Hito en California

Los legisladores de California han hecho historia al aprobar una ley pionera sobre la transparencia en inteligencia artificial que se centra en los "modelos fronterizos", los sistemas de inteligencia...

Desafíos legales del uso de IA en el proceso de contratación

El uso de herramientas de IA en el proceso de solicitud permite a las empresas optimizar sus procesos, pero los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no...

Los Cuatro Pilares de los Guardrails en GenAI: Construyendo Sistemas de IA Responsables

A medida que la inteligencia artificial generativa transforma cómo operan las empresas, es fundamental implementar sistemas de guardrails para asegurar un despliegue responsable. Estos guardrails, que...

IA Responsable para Mercados Emergentes: Inclusión desde el Diseño

La inteligencia artificial está transformando el mundo, pero los beneficios no llegan a todos de manera equitativa. Es fundamental diseñar sistemas de IA inclusivos que aborden las barreras de...