¿Hacia Dónde Va la Legislación Estatal sobre IA Tras el Veto de Virginia?

Después del veto del proyecto de ley de IA de Virginia: ¿Qué sigue para la legislación estatal sobre IA?

El 24 de marzo de 2025, el gobernador republicano de Virginia, Glenn Youngkin, vetó el Proyecto de Ley 2094 de la Cámara de Representantes (VA HB2094), el cual pretendía regular la inteligencia artificial (IA) en el estado. Este proyecto había sido aprobado por una narrow majority de 21 a 19 votos en el Senado de Virginia el 19 de febrero. Antes de su veto, estaba a punto de convertirse en el segundo proyecto de ley estatal sobre IA en EE. UU., después de la ley estatal de Colorado, que se firmó el 17 de mayo de 2024.

Sin embargo, VA HB2094 se presentó en un contexto político muy diferente al de su predecesor. Menos de un mes antes de su adopción, el recién inaugurado presidente Donald Trump emitió una Orden Ejecutiva sobre IA, que priorizaba la innovación y la eliminación de obstáculos burocráticos. Esto generó críticas hacia el proyecto de ley, ya que se consideraba que creaba demasiados obstáculos y generaba incertidumbre, especialmente para las pequeñas empresas.

Análisis del Proyecto de Ley de IA de Virginia: Similitudes y Diferencias con la Ley de IA de la UE

A continuación, se presenta un análisis detallado de las similitudes y diferencias clave entre VA HB2094 y la Ley de IA de la UE, con el objetivo de ofrecer una visión sobre el futuro de la regulación estatal de IA en EE. UU.

Similitud 1: Definiciones

Una similitud clara entre VA HB2094 y la Ley de IA de la UE es la definición de «sistema de IA». Ambas leyes toman prestada una definición del Organismo de Cooperación y Desarrollo Económico (OCDE). Sin embargo, VA HB2094 omite un importante elemento relacionado con la autonomía de los sistemas de IA, lo que podría resultar en una carga regulatoria para más empresas que utilizan tecnologías más antiguas.

Similitud 2: Enfoque basado en riesgos y clasificación

Tanto la Ley de IA de la UE como VA HB2094 adoptan un enfoque basado en riesgos, donde los requisitos regulatorios varían según la categoría de riesgo del uso de la IA. Sin embargo, VA HB2094 se centra únicamente en los sistemas de IA de alto riesgo, dejando de lado otros aspectos que la Ley de la UE considera.

Diferencia 1: Seguridad del producto

Una de las diferencias más significativas es que la Ley de IA de la UE se centra en la seguridad del producto, mientras que VA HB2094 regula exclusivamente las organizaciones. Esto implica que, mientras que la Ley de la UE exige que todos los sistemas de IA cumplan con requisitos técnicos específicos, VA HB2094 solo requiere que los desarrolladores y desplegadores cumplan con obligaciones más ligeras.

Diferencia 2: Asignación y alcance de las responsabilidades

Un aspecto notable es que, mientras que la Ley de IA de la UE impone la mayor parte de la carga a los proveedores, VA HB2094 coloca una mayor carga sobre los desplegadores de IA de alto riesgo. Esto incluye la obligación de realizar una evaluación del impacto de la IA y de informar a los consumidores sobre el uso de un sistema de IA de alto riesgo.

Diferencia 3: Extensión de las obligaciones

Las obligaciones en VA HB2094 son mucho más ligeras en comparación con la Ley de IA de la UE. La ley de Virginia menciona estándares como el Marco de Gestión de Riesgos del Instituto Nacional de Estándares y Tecnología (NIST) como un medio para demostrar conformidad, pero no exige el mismo nivel de cumplimiento que la legislación europea.

Diferencia 4: Exenciones

VA HB2094 incluye varias exenciones para ciertos casos de uso de IA y sectores industriales. Por ejemplo, se excluyen 19 sistemas de las obligaciones de la ley, incluyendo videojuegos y software antivirus, así como vehículos autónomos.

Diferencia 5: Aplicación

Finalmente, la aplicación de las normas bajo VA HB2094 recae en el fiscal general, mientras que la Ley de IA de la UE cuenta con un sistema de autoridades de vigilancia del mercado y organismos de certificación que tienen amplios poderes de investigación y corrección.

Recomendaciones para Legisladores Estatales

Con base en las similitudes y diferencias analizadas, se recomiendan dos acciones principales para los legisladores estatales:

  • Utilizar la versión completa de la definición de «sistema de IA» de la OCDE para evitar la inclusión de sistemas menos sofisticados.
  • Considerar cuidadosamente la carga de responsabilidades entre desarrolladores y desplegadores, para no sobrecargar a los actores más pequeños y menos experimentados.

Conclusión

El veto del proyecto de ley VA HB2094 no se debió a que fuera una versión de la Ley de IA de la UE, sino a la tendencia actual en Virginia de preferir la innovación sobre la regulación. La legislación estatal sobre IA sigue siendo pro-empresa, con obligaciones reducidas y pocas protecciones para los ciudadanos. Esto contrasta con los esfuerzos de regulación más rigurosos observados en Europa, y destaca la dirección que actualmente toma EE. UU. en el desarrollo y la adopción de la IA.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...