La Ley RAISE: Un Paso Hacia la Responsabilidad en la IA

La Ley RAISE y la Responsabilidad en la Inteligencia Artificial

El Senado del Estado de Nueva York ha aprobado la Ley de Seguridad y Educación en Inteligencia Artificial Responsable, conocida como la Ley RAISE. Esta legislación representa un paso significativo hacia la regulación de la inteligencia artificial, especialmente en lo que respecta a las empresas generativas de IA más prominentes.

Objetivos de la Ley RAISE

Si la ley es firmada, se exigirá a las grandes empresas de IA que:

  • Publiquen informes detallados sobre seguridad y proyectos de IA.
  • Reporten incidentes de seguridad, que pueden incluir brechas por actores externos o comportamientos alarmantes de los modelos de IA.
  • Implementen salvaguardias para prevenir riesgos.
  • Se abstengan de desplegar modelos avanzados que puedan causar un riesgo crítico no razonable.
  • Realicen auditorías de terceros para asegurar el cumplimiento de la ley.

La ley otorga al Fiscal General del Estado de Nueva York la capacidad de imponer multas civiles de hasta 30 millones de dólares a las empresas que incumplan con estas disposiciones.

Definición de Empresas de IA Generativa

La ley define a las grandes empresas de IA generativa como aquellas que hayan gastado más de 100 millones de dólares en recursos de computación en la nube. Este umbral asegura que las regulaciones se dirijan a las empresas con mayor capacidad de impacto en el mercado y en la sociedad.

Equilibrio entre Seguridad e Innovación

Uno de los co-patrocinadores de la ley, el Senador Andrew Gounardes, afirmó que la legislación está diseñada para permitir la innovación mientras se mantienen salvaguardias. “Mi Ley RAISE asegura que la IA pueda florecer mientras exige a las empresas más grandes tener un plan de seguridad para que sus productos no sean utilizados para dañar a las personas”, declaró Gounardes.

Gounardes subrayó que se trata de un tipo de salvaguardia razonable y sensata que se esperaría de cualquier empresa que trabaje en un producto potencialmente peligroso, asegurando que no haya incentivos para comprometer la seguridad en pro de las ganancias.

Controversias y Críticas

Los críticos de leyes como esta, incluido un destacado proyecto de ley de seguridad de IA en California, que fue vetado, argumentan que tales medidas podrían perjudicar la innovación o no tener en cuenta el contexto, incluyendo el despliegue de IA generativa por parte de empresas más pequeñas en escenarios de alto riesgo.

Transparencia en Despidos Relacionados con IA

No solo se limita la Ley RAISE a la seguridad; Nueva York se ha convertido en el primer estado en requerir que las empresas divulguen si los despidos se deben a la implementación de la IA. Esta medida aumenta la transparencia y la responsabilidad de las empresas en su uso de tecnologías avanzadas.

Conclusión

La Ley RAISE representa un avance importante en la regulación de la IA en Nueva York, buscando equilibrar la innovación con la seguridad pública. A medida que la tecnología avanza, es fundamental que las leyes se adapten para proteger a los ciudadanos y fomentar un entorno seguro para la implementación de la inteligencia artificial.

More Insights

Inteligencia Artificial Responsable: Modelos Generativos y Conciencia Ambiental

La inteligencia artificial generativa está transformando industrias, pero detrás de cada modelo innovador se oculta un costo: las emisiones de carbono. Este artículo proporciona una guía completa...

El Futuro de la Regulación de la Inteligencia Artificial en EE. UU.

Recientemente, la Cámara de Representantes de EE. UU. aprobó el proyecto de ley H.R. 1, que pausaría cualquier regulación estatal o local que afecte a los modelos o investigaciones de inteligencia...

Gobernanza Global de IA en India: Retos y Oportunidades

Este artículo analiza las leyes y políticas relevantes para la gobernanza de la inteligencia artificial en India. La serie explora el desarrollo de la infraestructura digital y las iniciativas del...

El futuro de la gobernanza: Inteligencia Artificial en los gobiernos de los EAU

La UAE está transformando la inteligencia artificial de un asistente de oficina a un actor estratégico en la toma de decisiones políticas. Este movimiento no solo reimagina la gobernanza, sino que...

Código de Práctica de la UE para la IA: Cumplimiento a partir de 2025

Un código de práctica diseñado para ayudar a miles de empresas a cumplir con las reglas de inteligencia artificial de la Unión Europea puede aplicarse solo a finales de 2025, según indicó la Comisión...

La Crisis de Responsabilidad en la IA Empresarial

La inteligencia artificial ha alcanzado un punto de inflexión, pero muchos proyectos de IA nunca llegan a producción y los que lo hacen a menudo operan como cajas negras digitales. Sin una supervisión...

Comisión considera un período de gracia para cumplimiento del Código de IA

La Comisión está considerando ofrecer a las empresas un período de gracia para cumplir con el código de inteligencia artificial. Esta medida busca facilitar la adaptación de las empresas a las nuevas...

Texas y la Regulación de la Inteligencia Artificial: Un Nuevo Horizonte

El 22 de junio de 2025, Texas aprobó la Ley de Gobernanza de Inteligencia Artificial Responsable, convirtiéndose en el segundo estado en implementar una legislación integral sobre IA. La ley establece...