Legislación sobre IA en EE. UU.: Virginia Veta, Colorado Reconsidera y Texas Evoluciona

Legislación sobre IA en los Estados Unidos: Virginia Veta, Colorado (Re)Considera y Texas se Transforma

La reciente evolución de la legislación sobre inteligencia artificial (IA) en varios estados de EE. UU. ha capturado la atención de legisladores, empresas y ciudadanos. Este estudio se centra en las acciones recientes de Virginia, Colorado y Texas en relación con la regulación de sistemas de IA considerados de “alto riesgo”.

Virginia y el Veto del Proyecto de Ley HB 2094

El gobernador de Virginia, Glenn Youngkin, vetó una propuesta de ley esta semana que buscaba regular los sistemas de IA de alto riesgo. El HB 2094, que pasó por un estrecho margen en la legislatura estatal, pretendía implementar medidas regulatorias similares a las establecidas por la Colorado AI Act del año anterior. Youngkin argumentó que esta legislación podría sofocar la industria de IA y el crecimiento económico de Virginia, sugiriendo que las leyes existentes sobre discriminación, privacidad, uso de datos y difamación ya podrían proteger al público de posibles daños relacionados con la IA.

Colorado: Reevaluación de la Ley de IA

A pesar de que el gobernador de Colorado, Jared Polis, firmó la ley el año pasado, ha instado a los legisladores a evaluar y proporcionar claridad adicional sobre la misma. El AI Impact Task Force de Colorado emitió un informe con recomendaciones para clarificar y mejorar la ley, dividiendo las áreas de cambio en cuatro categorías:

  • Consenso sobre modificaciones menores.
  • Áreas que requieren más tiempo y participación de las partes interesadas.
  • Asuntos interconectados que necesitan resolverse.
  • Firmes desacuerdos sobre ciertos aspectos.

Un ejemplo relevante es la definición de “decisiones consecuentes”, que son las que están sujetas a la ley, así como la necesidad de definir “discriminación algorítmica”.

Texas: Transformaciones en la Propuesta de Ley de Gobernanza Responsable de IA

Texas también ha estado considerando legislación sobre sistemas de IA de alto riesgo. Recientemente, se modificó la propuesta de ley para eliminar el concepto de discriminación algorítmica, prohibiendo sistemas de IA desarrollados con la «intención de discriminar». Además, se aclaró que el impacto dispar por sí solo no es suficiente para probar la intención de discriminar.

La propuesta de ley también exigiría que se notificara a los individuos si interactúan con IA, aunque esto se aplicaría solo a las agencias gubernamentales. Esta ley, presentada el 14 de marzo, aún está pendiente en el Comité de la Cámara.

Implicaciones Prácticas

El veto del HB 2094 subraya el complejo camino hacia una regulación integral de la IA a nivel estatal. Se anticipa que habrá acciones continuas a nivel estatal, y que será un tiempo considerable antes de que se alcance un enfoque consensuado sobre la gobernanza de la IA.

Actualmente, ya existen leyes de IA en vigor en varios estados como Nueva York, California, Illinois y Tennessee, centradas en diversos aspectos de la IA. Estas legislaciones están programadas para entrar en vigor en diferentes momentos entre 2024 y 2026, y hay proyectos de ley en al menos 17 estados en espera de revisión.

More Insights

Carrera Armamentista de IA y el Impacto de los Aranceles en la Innovación

Los aranceles pueden tener un impacto multifacético en el avance de la inteligencia artificial (IA) y la automatización, actuando como un posible obstáculo y, paradójicamente, un posible catalizador...

Plan de Acción de la Comisión Europea para la Soberanía en IA

La Comisión Europea ha lanzado su Plan de Acción para la IA, una estrategia integral destinada a establecer a Europa como líder global en inteligencia artificial. El plan se centra en aumentar la...

El Dilema del AI: Innovación y Regulación en Singapur

Singapur se prepara para celebrar seis décadas de progreso, mientras lanza su ambicioso Estrategia Nacional de IA 2.0, que se centra en la innovación y regulación de la inteligencia artificial. Sin...

IA Responsable en el Sector FinTech

Lexy Kassan discute los aspectos críticos de la inteligencia artificial responsable, centrándose en actualizaciones regulatorias como la Ley de IA de la UE y sus implicaciones para FinTech. Explica...

IA Centrada en el Humano: Hacia un Futuro Ético y Responsable

La inteligencia artificial centrada en el ser humano (HCAI) se refiere al desarrollo de sistemas de IA que priorizan los valores humanos y la colaboración entre humanos y máquinas. Este enfoque ético...

La Regulación de la IA en la UE: Un Cambio Decisivo

El Acta de Inteligencia Artificial de la UE establece un marco regulatorio uniforme para todos los estados miembros, buscando equilibrar la innovación con la seguridad de los ciudadanos. Se trata de...

Actualización de las Cláusulas Contractuales Modelos de IA de la UE

La Comunidad de Práctica de la UE sobre la Contratación Pública de IA ha publicado una versión actualizada de sus Cláusulas Contractuales Modelo de IA (MCC-AI) el 5 de marzo de 2025. Estas cláusulas...

Impacto de la Ley de IA de la UE en Sistemas de Reconocimiento Emocional en el Trabajo

La inteligencia artificial de reconocimiento emocional (Emotion AI) utiliza datos biométricos y otros conjuntos de datos para identificar y analizar emociones. Desde la entrada en vigor de la Ley de...