Estados Unidos Avanza Hacia una Regulación Pro-Innovación de la IA

Más Estados Rechazan la Regulación de IA Basada en el Miedo

Recientes desarrollos en Virginia y Texas indican que el debate sobre la política de inteligencia artificial (IA) podría estar tomando un rumbo más positivo y pro-innovación en estos estados. En menos de tres meses en el año, se han introducido más de 900 propuestas legislativas relacionadas con la IA, aproximadamente 12 por día.

La mayoría de estas propuestas buscan imponer nuevas regulaciones sobre los sistemas algorítmicos, lo que representa un nivel sin precedentes de interés regulatorio en cualquier tecnología emergente.

Veto de Virginia a la Regulación de IA

El 24 de marzo, el gobernador republicano de Virginia, Glenn Youngkin, vetó una importante medida regulatoria sobre la IA que habría comprometido la capacidad del estado para seguir liderando la innovación digital a nivel estatal. En su declaración de veto para la HB 2094, conocida como la “Ley de Desarrolladores y Desplegadores de IA de Alto Riesgo”, Youngkin señaló correctamente que la ley “perjudicaría la creación de nuevos empleos, la atracción de nuevas inversiones comerciales y la disponibilidad de tecnología innovadora en Virginia”.

Además, la Cámara de Progreso estimó que la ley habría impuesto cerca de $30 millones en costos de cumplimiento a los desarrolladores de IA, lo que podría haber devastado a las pequeñas startups tecnológicas del estado.

Desarrollo de la Ley de Gobernanza Responsable de IA de Texas

El veto de Youngkin se produjo solo 10 días después de que el representante republicano de Texas, Giovanni Capriglione, introdujera una versión reformada de su “Ley de Gobernanza Responsable de IA de Texas” (TRAIGA), una propuesta que regulaba fuertemente la innovación en IA en el estado y que había atraído una amplia oposición.

Aunque la versión original era muy similar a la de Virginia, la nueva versión (HB 149) elimina los elementos más draconianos de la medida anterior.

Rechazo del Enfoque Europeo

La legislación sobre IA en Virginia que Youngkin vetó era una de muchas propuestas similares impulsadas por el Grupo de Trabajo de Políticas de IA Multistatal (MAP-WG), una coalición de legisladores estatales de más de 45 estados que intentan crear un consenso sobre una ley de “discriminación por IA” que podría ser reutilizada en las legislaturas estatales. Estos proyectos de ley de imitación están pendientes en aproximadamente una docena de estados, incluyendo California, Connecticut, Massachusetts, Nebraska, Nuevo México y Nueva York.

El año pasado, Colorado se convirtió en el primer estado en aprobar una de estas leyes de discriminación por IA; sin embargo, los problemas se hicieron evidentes incluso antes de su implementación. La versión anterior de la ley TRAIGA de Texas seguía este mismo modelo, pero ahora lo evita en gran medida.

Estas leyes de IA del MAP-WG combinan elementos de la nueva Ley de IA de la Unión Europea y el enfoque de la administración Biden sobre la política de IA, especialmente tal como se articula en su “Plan para una Ley de Derechos de IA”. Ambos enfoques eran fundamentalmente basados en el miedo, considerando los sistemas algorítmicos como “inseguros, ineficaces o sesgados” y “profundamente dañinos”.

Reacciones de la Nueva Administración

El 23 de enero, el presidente Donald Trump derogó la orden ejecutiva sobre IA de la administración Biden y la reemplazó con una nueva, que enfatiza la necesidad de “sostener y mejorar el dominio global de América en IA para promover el florecimiento humano, la competitividad económica y la seguridad nacional”.

El 11 de febrero, el vicepresidente JD Vance pronunció un importante discurso en la Cumbre de Acción de IA de París, donde desarrolló más plenamente esta “agenda de oportunidades de IA”. Vance también explicó cómo “la regulación excesiva del sector de IA podría matar una industria transformadora justo cuando está despegando”, y prometió “hacer todo lo posible para fomentar políticas de IA pro-crecimiento”.

Otras Políticas que Ofrecen Protecciones

A pesar de este cambio de actitud hacia la política de IA por parte de la nueva administración, muchos estados continúan avanzando propuestas regulatorias que imitan las declaraciones de política de Biden, viendo la IA menos como una oportunidad para que América abrace y más como un peligro a evitar. La influencia del modelo regulatorio europeo es evidente en toda la legislación del MAP-WG.

Al igual que la nueva Ley de IA de la UE, estos proyectos de ley estatales buscan regular daños futuros hipotéticos que podrían surgir de los sistemas de IA. Se preocupan especialmente por el potencial de “sesgo algorítmico” u otros daños que puedan desarrollarse a partir de aplicaciones de IA “de alto riesgo”.

Es importante destacar que, si tales daños se produjeran, muchas políticas estatales y federales existentes, incluyendo leyes de derechos civiles y regulaciones de prácticas desleales y engañosas, abordarían estos problemas. Sin embargo, al igual que las nuevas regulaciones tecnológicas europeas, estas nuevas leyes de anti-discriminación por IA buscan regular de manera preventiva, antes de que se demuestre algún daño.

Lecciones de Colorado

El veto de Youngkin y la introducción de la ley de Texas significativamente revisada indican que algunos legisladores estatales están comenzando a entender los costos y complejidades de tales regulaciones. Esta fue también la lección de la nueva ley de IA de Colorado.

Cuando Colorado estaba considerando su regulación de IA, varios emprendedores tecnológicos pequeños y medianos en el estado enviaron una carta a los legisladores explicando cómo sus mandatos “vagos y excesivamente amplios” “estancarían severamente la innovación e imponerían cargas inaceptables a las empresas de Colorado, particularmente a las startups”.

Aunque el gobernador demócrata de Colorado, Jared Polis, decidió firmar la ley, él mismo reconoció que esta “crearía un régimen de cumplimiento complejo para todos los desarrolladores y desplegadores de IA” a través de “importantes requisitos de informe afirmativo”.

Este tipo de regulación ex ante puede ser costoso y confuso, ya que los burócratas estatales deben determinar qué innovaciones de IA pueden salir al mercado basándose en temores especulativos. Como explicó Youngkin en su declaración de veto, “el marco rígido de la HB 2094 no toma en cuenta la naturaleza rápidamente evolutiva y dinámica de la industria de IA y coloca una carga especialmente onerosa sobre las pequeñas empresas y startups que carecen de grandes departamentos legales de cumplimiento”.

Conclusión

El veto de Youngkin y el proyecto de ley de Texas revisado envían un claro mensaje a otros legisladores y gobernadores estatales que consideran medidas similares: sería un error imponer mandatos costosos y confusos a los emprendedores de IA de América al importar el modelo regulatorio europeo a los Estados Unidos.

Hay formas mejores para que los estados aborden las preocupaciones sobre la IA que un enfoque regulatorio rígido y burocrático. Como concluyó Youngkin en su declaración de veto, “el papel del gobierno en la salvaguarda de las prácticas de IA debe ser uno que permita y empodere a los innovadores a crear y crecer, no uno que asfixie el progreso y coloque cargas onerosas sobre los muchos propietarios de negocios de nuestra Commonwealth”.

Lo mismo es cierto para cada estado y para la nación en su conjunto.

More Insights

Regulación de IA: Un llamado urgente del CII

El Instituto Chartered de Seguros (CII) ha solicitado marcos de responsabilidad claros y una estrategia de habilidades a nivel sectorial para guiar el uso de la inteligencia artificial (IA) en los...

Desarrollos en Inteligencia Artificial en Nueva York: Legislación Clave para Empleadores

En la primera parte de 2025, Nueva York se unió a otros estados para regular la inteligencia artificial (IA) a nivel estatal. Se introdujeron proyectos de ley que se centran en el uso de herramientas...

Estrategias de Gestión de Riesgos en Sistemas de Inteligencia Artificial

El artículo discute la importancia de gestionar los riesgos asociados con los sistemas de inteligencia artificial, destacando que el uso de datos erróneos puede llevar a resultados perjudiciales y...

Lo Que Debe Saber Sobre la Ley de Inteligencia Artificial de la UE

La Unión Europea ha introducido la Ley de Inteligencia Artificial (AI Act), una regulación histórica diseñada para gestionar los riesgos y oportunidades de las tecnologías de IA en Europa. Este...

La Ley Básica de IA en Corea: Un Nuevo Horizonte Regulatorio

Corea del Sur se ha posicionado a la vanguardia de la regulación de la inteligencia artificial en Asia con la aprobación de la Ley Básica de IA, que entrará en vigor en enero de 2026. Esta legislación...

Cumpliendo con el Acta de IA de la UE y DORA: Un Enfoque Financiero

El Acta de IA de la UE y DORA están transformando la manera en que las entidades financieras manejan el riesgo asociado con la inteligencia artificial. Es fundamental comprender cómo estas...

Regulación de la IA: Desafíos y Oportunidades en el Espacio Transatlántico

La inteligencia artificial (IA) se ha convertido en una de las fuerzas tecnológicas más trascendentales de la actualidad, con el potencial de transformar economías, sociedades y la naturaleza misma de...

La UE Impulsa la Estrategia de IA para Superar Barreras

La Comisión Europea ha presentado una nueva estrategia para promover la inteligencia artificial (IA) en Europa, buscando reducir las barreras para su implementación y mejorar la competitividad global...