Texas y Virginia: Un nuevo enfoque hacia la regulación de la IA

Texas y Virginia se alejan de la regulación de IA al estilo europeo

Recientes desarrollos en Virginia y Texas indican que el debate sobre la política de inteligencia artificial (IA) podría estar tomando un rumbo más positivo y pro-innovación en los estados. A menos de tres meses del año, ya se han introducido más de 900 propuestas legislativas relacionadas con la IA, lo que representa un nivel de interés regulatorio sin precedentes en cualquier tecnología emergente.

El 24 de marzo, el gobernador de Virginia, Glenn Youngkin, vetó una medida regulatoria importante de IA que podría haber comprometido la capacidad del estado para seguir siendo un líder en innovación digital. Al vetar el HB 2094, conocido como la «Ley de Desarrolladores y Desplegadores de IA de Alto Riesgo», Youngkin destacó que el proyecto de ley «dañaría la creación de nuevos empleos, la atracción de nuevas inversiones comerciales y la disponibilidad de tecnología innovadora en la Commonwealth de Virginia».

La respuesta a la regulación excesiva

El veto de Youngkin se produjo solo diez días después de que el representante de Texas, Giovanni Capriglione, introdujera una versión revisada de su «Ley de Gobernanza Responsable de IA de Texas (TRAIGA)». La versión original de esta ley imponía regulaciones severas a la innovación en IA, pero la nueva versión ha eliminado muchos de los elementos más restrictivos.

Estos movimientos en Virginia y Texas representan un posible punto de inflexión en la política de IA, dado que otros estados estaban considerando medidas regulatorias que adoptan un enfoque al estilo de la Unión Europea. Además, estas acciones alinean mejor la política de IA estatal con un nuevo enfoque nacional sobre la oportunidad y la inversión en IA, especialmente a la luz de los recientes avances de China en este campo.

Rechazo a la regulación basada en el miedo

El proyecto de ley de IA en Virginia que fue vetado por el gobernador Youngkin es uno de muchos similares que están siendo impulsados por el Grupo de Trabajo de Legisladores de IA Multistatal (MAP-WG), una coalición de legisladores de más de 45 estados que intenta crear un consenso sobre una «ley de discriminación de IA» que podría ser reutilizada en las legislaturas estatales. Actualmente, estos proyectos de ley están pendientes en alrededor de una docena de estados, incluidos California, Connecticut, y Nueva York.

Las facturas de MAP-WG combinan elementos de la nueva Ley de IA de la UE y el enfoque de la administración Biden hacia la IA, el cual ha sido criticado por ser fundamentalmente basado en el miedo. Este enfoque considera los sistemas algorítmicos como «inseguros, ineficaces o sesgados», y «profundamente dañinos».

Lecciones del modelo de IA de Colorado

El veto de Youngkin y la introducción de la ley revisada en Texas indican que algunos legisladores estatales están comenzando a entender los costos y complejidades de dicha regulación. Este fue también el aprendizaje de la nueva ley de IA de Colorado, que impuso cargas a pequeñas y medianas empresas tecnológicas, lo que llevó a un llamado a un enfoque federal cohesivo para limitar las cargas regulatorias.

Conclusión

A pesar de que la preeminencia federal puede ser un desafío, el Congreso necesitará perseguir un marco nacional para la IA que supere los problemas asociados con el creciente mosaico de regulaciones estatales y locales. Mientras tanto, otros estados deberían aprender de las lecciones de lo que ha ocurrido en Virginia y Texas. El veto de Youngkin y la legislación revisada en Texas envían un mensaje claro: sería un error importar el modelo regulatorio de la Unión Europea y imponer mandatos confusos y costosos a los emprendedores de IA en Estados Unidos.

Hay formas mejores para que los estados aborden las preocupaciones sobre los sistemas de IA sin recurrir a un sistema regulador excesivamente burocrático que podría sofocar la innovación en una de las tecnologías más importantes de la era moderna.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...