Ley de Nueva York busca regular la inteligencia artificial ante riesgos críticos

Los Legisladores de Nueva York Buscan Evitar el ‘Daño Crítico’ por IA

Los legisladores del estado de Nueva York han propuesto nuevas requisitos de seguridad para los modelos de inteligencia artificial más avanzados del mundo. Sin embargo, los legisladores federales están amenazando con anular estas nuevas reglas antes de que se implementen.

Detalles del Proyecto de Ley

La Legislatura estatal aprobó un proyecto de ley la semana pasada que obligaría a los desarrolladores de los modelos de IA más grandes y avanzados a elaborar planes de seguridad integrales que detallen los pasos que han tomado para reducir el riesgo de causar daños graves.

La medida, conocida como el RAISE Act (Ley de Seguridad y Educación Responsable de la IA), también requeriría que los desarrolladores informen al estado sobre incidentes de seguridad importantes, como un modelo que actúe por su cuenta sin que un usuario lo haya solicitado. Además, el proyecto de ley haría que los desarrolladores sean responsables de ciertas violaciones de la ley, permitiendo al fiscal general del estado buscar multas civiles de hasta decenas de millones de dólares.

Reacciones de la Industria

Las empresas tecnológicas y sus organizaciones comerciales ya están presionando a la gobernadora Kathy Hochul para que vete la medida, argumentando que podría ahogar la innovación en un campo transformador. Mientras tanto, el Congreso está considerando prohibir a los estados regular la IA durante los próximos diez años, un movimiento que podría efectivamente matar la medida antes de que tenga la oportunidad de entrar en vigor.

Sin embargo, los partidarios del proyecto de ley instan a Hochul a firmarlo, argumentando que los federales no se están moviendo lo suficientemente rápido para regular una industria de IA que avanza rápidamente y tiene un potencial enorme para imponer cambios en el mundo.

Implementación y Revisión de Protocolos de Seguridad

El RAISE Act se aplicaría a los desarrolladores de modelos de IA de frontera, aquellos que son los más grandes y avanzados en el campo, desarrollados, desplegados o destinados a operar en Nueva York. Los desarrolladores estarían obligados a implementar sus protocolos de seguridad antes de ser desplegados y serían objeto de una revisión de terceros, cuyos resultados estarían disponibles para el Departamento de Seguridad Nacional y Servicios de Emergencia del estado, así como para la Oficina del Fiscal General del estado.

El proyecto de ley exige que los protocolos de seguridad estén diseñados para reducir la posibilidad de daños críticos, que son incidentes causados o materialmente habilitados por el modelo de IA del desarrollador, resultando en 100 o más lesiones o muertes, o más de $1,000 millones en daños. También se requiere que los desarrolladores consideren la posibilidad de que la IA conduzca a la creación de armas químicas, biológicas o incluso nucleares.

Consecuencias de las Violaciones

El fiscal general podría buscar multas de hasta $10 millones por una primera violación, y hasta $30 millones por cada violación subsecuente.

Intentos Previos de Regulación en California

Los legisladores de California realizaron un intento previo de regular a los desarrolladores de IA de manera similar el año pasado, pero la medida enfrentó una oposición significativa y el gobernador Gavin Newsom finalmente la vetó. Grupos comerciales como Tech:NYC, que incluye a Google y Meta, se oponen al RAISE Act, argumentando que la regulación debería basarse en usos específicos en lugar de un enfoque general.

Conclusión

La gobernadora Hochul ha sido un importante apoyo de la iniciativa Empire AI, un consorcio público-privado dedicado a investigar y desarrollar inteligencia artificial. Mientras tanto, el Congreso continúa debatiendo si debería prohibir temporalmente a los estados regular la IA por completo.

La situación actual resalta la creciente tensión entre la regulación estatal y federal en el ámbito de la inteligencia artificial, un tema que probablemente seguirá siendo relevante en los próximos años.

More Insights

Inteligencia Artificial y Ciberseguridad: Desafíos de Responsabilidad

A medida que las organizaciones adoptan la inteligencia artificial (IA) para impulsar la innovación y transformar las operaciones, deben enfrentar una nueva realidad: la IA está remodelando...

Enfoque Inteligente para la Gobernanza de la IA en Tailandia

El Sr. Sak menciona que la próxima legislación tiene como objetivo proteger a los usuarios de los posibles riesgos de la IA y eliminar las barreras legales que las leyes existentes no pueden abordar...

Texas Establece Leyes de Gobernanza de IA con Enfoque en Salud

Texas ha dado un paso significativo en la regulación de la inteligencia artificial (IA) con la aprobación de los proyectos de ley HB 149 y SB 1188, que establecen un marco amplio para el uso...

Gillian K. Hadfield: Nueva Líder en Gobernanza de IA

Gillian K. Hadfield ha sido nombrada Profesora Distinguida Bloomberg de Alineación y Gobernanza de la IA en la Universidad Johns Hopkins. Su investigación se centra en asegurar que los sistemas de...

Gobernanza Ética e Inclusiva de la IA en Indonesia

El Ministerio de Comunicación y Digital de Indonesia ha reafirmado su compromiso de incorporar principios éticos e inclusivos en sus políticas de inteligencia artificial (IA). El Vice Ministro Nezar...

Texas y la Nueva Ley de Gobernanza de IA Responsable

El 22 de junio de 2025, el gobernador Abbott firmó la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas, convirtiendo a Texas en el tercer estado de EE. UU. en adoptar una ley integral...

La IA como Ventaja Competitiva en Cumplimiento Normativo

La inteligencia artificial está ayudando a las empresas a cumplir con una compleja gama de regulaciones en constante evolución, brindándoles una ventaja competitiva. Las herramientas basadas en IA...