Los Legisladores de Nueva York Buscan Evitar el ‘Daño Crítico’ por IA
Los legisladores del estado de Nueva York han propuesto nuevas requisitos de seguridad para los modelos de inteligencia artificial más avanzados del mundo. Sin embargo, los legisladores federales están amenazando con anular estas nuevas reglas antes de que se implementen.
Detalles del Proyecto de Ley
La Legislatura estatal aprobó un proyecto de ley la semana pasada que obligaría a los desarrolladores de los modelos de IA más grandes y avanzados a elaborar planes de seguridad integrales que detallen los pasos que han tomado para reducir el riesgo de causar daños graves.
La medida, conocida como el RAISE Act (Ley de Seguridad y Educación Responsable de la IA), también requeriría que los desarrolladores informen al estado sobre incidentes de seguridad importantes, como un modelo que actúe por su cuenta sin que un usuario lo haya solicitado. Además, el proyecto de ley haría que los desarrolladores sean responsables de ciertas violaciones de la ley, permitiendo al fiscal general del estado buscar multas civiles de hasta decenas de millones de dólares.
Reacciones de la Industria
Las empresas tecnológicas y sus organizaciones comerciales ya están presionando a la gobernadora Kathy Hochul para que vete la medida, argumentando que podría ahogar la innovación en un campo transformador. Mientras tanto, el Congreso está considerando prohibir a los estados regular la IA durante los próximos diez años, un movimiento que podría efectivamente matar la medida antes de que tenga la oportunidad de entrar en vigor.
Sin embargo, los partidarios del proyecto de ley instan a Hochul a firmarlo, argumentando que los federales no se están moviendo lo suficientemente rápido para regular una industria de IA que avanza rápidamente y tiene un potencial enorme para imponer cambios en el mundo.
Implementación y Revisión de Protocolos de Seguridad
El RAISE Act se aplicaría a los desarrolladores de modelos de IA de frontera, aquellos que son los más grandes y avanzados en el campo, desarrollados, desplegados o destinados a operar en Nueva York. Los desarrolladores estarían obligados a implementar sus protocolos de seguridad antes de ser desplegados y serían objeto de una revisión de terceros, cuyos resultados estarían disponibles para el Departamento de Seguridad Nacional y Servicios de Emergencia del estado, así como para la Oficina del Fiscal General del estado.
El proyecto de ley exige que los protocolos de seguridad estén diseñados para reducir la posibilidad de daños críticos, que son incidentes causados o materialmente habilitados por el modelo de IA del desarrollador, resultando en 100 o más lesiones o muertes, o más de $1,000 millones en daños. También se requiere que los desarrolladores consideren la posibilidad de que la IA conduzca a la creación de armas químicas, biológicas o incluso nucleares.
Consecuencias de las Violaciones
El fiscal general podría buscar multas de hasta $10 millones por una primera violación, y hasta $30 millones por cada violación subsecuente.
Intentos Previos de Regulación en California
Los legisladores de California realizaron un intento previo de regular a los desarrolladores de IA de manera similar el año pasado, pero la medida enfrentó una oposición significativa y el gobernador Gavin Newsom finalmente la vetó. Grupos comerciales como Tech:NYC, que incluye a Google y Meta, se oponen al RAISE Act, argumentando que la regulación debería basarse en usos específicos en lugar de un enfoque general.
Conclusión
La gobernadora Hochul ha sido un importante apoyo de la iniciativa Empire AI, un consorcio público-privado dedicado a investigar y desarrollar inteligencia artificial. Mientras tanto, el Congreso continúa debatiendo si debería prohibir temporalmente a los estados regular la IA por completo.
La situación actual resalta la creciente tensión entre la regulación estatal y federal en el ámbito de la inteligencia artificial, un tema que probablemente seguirá siendo relevante en los próximos años.