La Ley RAISE: Un Paso Hacia la Responsabilidad en la IA

La Ley RAISE y la Responsabilidad en la Inteligencia Artificial

El Senado del Estado de Nueva York ha aprobado la Ley de Seguridad y Educación en Inteligencia Artificial Responsable, conocida como la Ley RAISE. Esta legislación representa un paso significativo hacia la regulación de la inteligencia artificial, especialmente en lo que respecta a las empresas generativas de IA más prominentes.

Objetivos de la Ley RAISE

Si la ley es firmada, se exigirá a las grandes empresas de IA que:

  • Publiquen informes detallados sobre seguridad y proyectos de IA.
  • Reporten incidentes de seguridad, que pueden incluir brechas por actores externos o comportamientos alarmantes de los modelos de IA.
  • Implementen salvaguardias para prevenir riesgos.
  • Se abstengan de desplegar modelos avanzados que puedan causar un riesgo crítico no razonable.
  • Realicen auditorías de terceros para asegurar el cumplimiento de la ley.

La ley otorga al Fiscal General del Estado de Nueva York la capacidad de imponer multas civiles de hasta 30 millones de dólares a las empresas que incumplan con estas disposiciones.

Definición de Empresas de IA Generativa

La ley define a las grandes empresas de IA generativa como aquellas que hayan gastado más de 100 millones de dólares en recursos de computación en la nube. Este umbral asegura que las regulaciones se dirijan a las empresas con mayor capacidad de impacto en el mercado y en la sociedad.

Equilibrio entre Seguridad e Innovación

Uno de los co-patrocinadores de la ley, el Senador Andrew Gounardes, afirmó que la legislación está diseñada para permitir la innovación mientras se mantienen salvaguardias. “Mi Ley RAISE asegura que la IA pueda florecer mientras exige a las empresas más grandes tener un plan de seguridad para que sus productos no sean utilizados para dañar a las personas”, declaró Gounardes.

Gounardes subrayó que se trata de un tipo de salvaguardia razonable y sensata que se esperaría de cualquier empresa que trabaje en un producto potencialmente peligroso, asegurando que no haya incentivos para comprometer la seguridad en pro de las ganancias.

Controversias y Críticas

Los críticos de leyes como esta, incluido un destacado proyecto de ley de seguridad de IA en California, que fue vetado, argumentan que tales medidas podrían perjudicar la innovación o no tener en cuenta el contexto, incluyendo el despliegue de IA generativa por parte de empresas más pequeñas en escenarios de alto riesgo.

Transparencia en Despidos Relacionados con IA

No solo se limita la Ley RAISE a la seguridad; Nueva York se ha convertido en el primer estado en requerir que las empresas divulguen si los despidos se deben a la implementación de la IA. Esta medida aumenta la transparencia y la responsabilidad de las empresas en su uso de tecnologías avanzadas.

Conclusión

La Ley RAISE representa un avance importante en la regulación de la IA en Nueva York, buscando equilibrar la innovación con la seguridad pública. A medida que la tecnología avanza, es fundamental que las leyes se adapten para proteger a los ciudadanos y fomentar un entorno seguro para la implementación de la inteligencia artificial.

More Insights

Control y cumplimiento en la era de la IA soberana en manufactura

Los nubes de IA soberanas proporcionan tanto control como cumplimiento, abordando las crecientes preocupaciones en torno a la residencia de datos y el riesgo regulatorio. En un mundo donde la adopción...

Ética en la Inteligencia Artificial: Avances de la Alianza Escocesa

La Alianza Escocesa de IA ha publicado su Informe de Impacto 2024/2025, destacando un año transformador en la promoción de una inteligencia artificial ética e inclusiva en Escocia. El informe revela...

El futuro del cumplimiento con la Ley de IA de la UE

La Comisión Europea anunció el viernes pasado que no habrá un retraso en la Ley de IA de la UE, lo que ha provocado reacciones encontradas. Aunque algunas partes de la Ley ya están en vigor, los...

Modelos de Lenguaje y la Confianza: Un Análisis del Acta de IA de la UE

Este estudio sistemático examina la confianza en los modelos de lenguaje grande (LLMs) a la luz de la Ley de IA de la UE, destacando su desarrollo y adopción en diversos sectores. A pesar de sus...

¿Debería pausar la implementación de la Ley de IA de la UE?

La Comisión Europea ha rechazado las solicitudes de algunas empresas para retrasar la implementación de la Ley de IA, manteniendo el cronograma original de la legislación. Además, el primer ministro...

Controles más estrictos de IA: Ganadores y perdedores en el sector tecnológico

La administración de Trump está preparando nuevas restricciones a las exportaciones de chips de IA a Malasia y Tailandia para evitar que procesadores avanzados lleguen a China. Se prevé que estas...

Gobernanza de IA y Datos: Clave para Empresas Modernas

La gobernanza de la inteligencia artificial y la gobernanza de datos son fundamentales para garantizar el desarrollo de soluciones de IA éticas y de alta calidad. Estos marcos de gobernanza son...

Potenciando la IA Responsable: LLMOps con Python

En el panorama hipercompetitivo actual, no es suficiente con desplegar Modelos de Lenguaje Grande (LLMs); es necesario contar con un marco robusto de LLMOps para garantizar la fiabilidad y el...

Fortaleciendo la Protección de Datos y la Gobernanza de la IA en Singapur

Singapur está respondiendo proactivamente a los desafíos que plantea el uso de datos en la era de la inteligencia artificial, según la ministra de Comunicaciones e Información, Josephine Teo. La...