¿Hacia Dónde Va la Legislación Estatal sobre IA Tras el Veto de Virginia?

Después del veto del proyecto de ley de IA de Virginia: ¿Qué sigue para la legislación estatal sobre IA?

El 24 de marzo de 2025, el gobernador republicano de Virginia, Glenn Youngkin, vetó el Proyecto de Ley 2094 de la Cámara de Representantes (VA HB2094), el cual pretendía regular la inteligencia artificial (IA) en el estado. Este proyecto había sido aprobado por una narrow majority de 21 a 19 votos en el Senado de Virginia el 19 de febrero. Antes de su veto, estaba a punto de convertirse en el segundo proyecto de ley estatal sobre IA en EE. UU., después de la ley estatal de Colorado, que se firmó el 17 de mayo de 2024.

Sin embargo, VA HB2094 se presentó en un contexto político muy diferente al de su predecesor. Menos de un mes antes de su adopción, el recién inaugurado presidente Donald Trump emitió una Orden Ejecutiva sobre IA, que priorizaba la innovación y la eliminación de obstáculos burocráticos. Esto generó críticas hacia el proyecto de ley, ya que se consideraba que creaba demasiados obstáculos y generaba incertidumbre, especialmente para las pequeñas empresas.

Análisis del Proyecto de Ley de IA de Virginia: Similitudes y Diferencias con la Ley de IA de la UE

A continuación, se presenta un análisis detallado de las similitudes y diferencias clave entre VA HB2094 y la Ley de IA de la UE, con el objetivo de ofrecer una visión sobre el futuro de la regulación estatal de IA en EE. UU.

Similitud 1: Definiciones

Una similitud clara entre VA HB2094 y la Ley de IA de la UE es la definición de «sistema de IA». Ambas leyes toman prestada una definición del Organismo de Cooperación y Desarrollo Económico (OCDE). Sin embargo, VA HB2094 omite un importante elemento relacionado con la autonomía de los sistemas de IA, lo que podría resultar en una carga regulatoria para más empresas que utilizan tecnologías más antiguas.

Similitud 2: Enfoque basado en riesgos y clasificación

Tanto la Ley de IA de la UE como VA HB2094 adoptan un enfoque basado en riesgos, donde los requisitos regulatorios varían según la categoría de riesgo del uso de la IA. Sin embargo, VA HB2094 se centra únicamente en los sistemas de IA de alto riesgo, dejando de lado otros aspectos que la Ley de la UE considera.

Diferencia 1: Seguridad del producto

Una de las diferencias más significativas es que la Ley de IA de la UE se centra en la seguridad del producto, mientras que VA HB2094 regula exclusivamente las organizaciones. Esto implica que, mientras que la Ley de la UE exige que todos los sistemas de IA cumplan con requisitos técnicos específicos, VA HB2094 solo requiere que los desarrolladores y desplegadores cumplan con obligaciones más ligeras.

Diferencia 2: Asignación y alcance de las responsabilidades

Un aspecto notable es que, mientras que la Ley de IA de la UE impone la mayor parte de la carga a los proveedores, VA HB2094 coloca una mayor carga sobre los desplegadores de IA de alto riesgo. Esto incluye la obligación de realizar una evaluación del impacto de la IA y de informar a los consumidores sobre el uso de un sistema de IA de alto riesgo.

Diferencia 3: Extensión de las obligaciones

Las obligaciones en VA HB2094 son mucho más ligeras en comparación con la Ley de IA de la UE. La ley de Virginia menciona estándares como el Marco de Gestión de Riesgos del Instituto Nacional de Estándares y Tecnología (NIST) como un medio para demostrar conformidad, pero no exige el mismo nivel de cumplimiento que la legislación europea.

Diferencia 4: Exenciones

VA HB2094 incluye varias exenciones para ciertos casos de uso de IA y sectores industriales. Por ejemplo, se excluyen 19 sistemas de las obligaciones de la ley, incluyendo videojuegos y software antivirus, así como vehículos autónomos.

Diferencia 5: Aplicación

Finalmente, la aplicación de las normas bajo VA HB2094 recae en el fiscal general, mientras que la Ley de IA de la UE cuenta con un sistema de autoridades de vigilancia del mercado y organismos de certificación que tienen amplios poderes de investigación y corrección.

Recomendaciones para Legisladores Estatales

Con base en las similitudes y diferencias analizadas, se recomiendan dos acciones principales para los legisladores estatales:

  • Utilizar la versión completa de la definición de «sistema de IA» de la OCDE para evitar la inclusión de sistemas menos sofisticados.
  • Considerar cuidadosamente la carga de responsabilidades entre desarrolladores y desplegadores, para no sobrecargar a los actores más pequeños y menos experimentados.

Conclusión

El veto del proyecto de ley VA HB2094 no se debió a que fuera una versión de la Ley de IA de la UE, sino a la tendencia actual en Virginia de preferir la innovación sobre la regulación. La legislación estatal sobre IA sigue siendo pro-empresa, con obligaciones reducidas y pocas protecciones para los ciudadanos. Esto contrasta con los esfuerzos de regulación más rigurosos observados en Europa, y destaca la dirección que actualmente toma EE. UU. en el desarrollo y la adopción de la IA.

More Insights

Carrera Armamentista de IA y el Impacto de los Aranceles en la Innovación

Los aranceles pueden tener un impacto multifacético en el avance de la inteligencia artificial (IA) y la automatización, actuando como un posible obstáculo y, paradójicamente, un posible catalizador...

Plan de Acción de la Comisión Europea para la Soberanía en IA

La Comisión Europea ha lanzado su Plan de Acción para la IA, una estrategia integral destinada a establecer a Europa como líder global en inteligencia artificial. El plan se centra en aumentar la...

El Dilema del AI: Innovación y Regulación en Singapur

Singapur se prepara para celebrar seis décadas de progreso, mientras lanza su ambicioso Estrategia Nacional de IA 2.0, que se centra en la innovación y regulación de la inteligencia artificial. Sin...

IA Responsable en el Sector FinTech

Lexy Kassan discute los aspectos críticos de la inteligencia artificial responsable, centrándose en actualizaciones regulatorias como la Ley de IA de la UE y sus implicaciones para FinTech. Explica...

IA Centrada en el Humano: Hacia un Futuro Ético y Responsable

La inteligencia artificial centrada en el ser humano (HCAI) se refiere al desarrollo de sistemas de IA que priorizan los valores humanos y la colaboración entre humanos y máquinas. Este enfoque ético...

La Regulación de la IA en la UE: Un Cambio Decisivo

El Acta de Inteligencia Artificial de la UE establece un marco regulatorio uniforme para todos los estados miembros, buscando equilibrar la innovación con la seguridad de los ciudadanos. Se trata de...

Actualización de las Cláusulas Contractuales Modelos de IA de la UE

La Comunidad de Práctica de la UE sobre la Contratación Pública de IA ha publicado una versión actualizada de sus Cláusulas Contractuales Modelo de IA (MCC-AI) el 5 de marzo de 2025. Estas cláusulas...

Impacto de la Ley de IA de la UE en Sistemas de Reconocimiento Emocional en el Trabajo

La inteligencia artificial de reconocimiento emocional (Emotion AI) utiliza datos biométricos y otros conjuntos de datos para identificar y analizar emociones. Desde la entrada en vigor de la Ley de...