La Regulación de IA: El Legado del Acta de la UE en Estados Unidos

La Ley de IA de la UE Llega a América

En la cumbre de acción de IA celebrada en París esta semana, el Vicepresidente J.D. Vance entregó un mensaje optimista sobre la IA. Criticó a la Unión Europea por moverse demasiado rápido con regulaciones preventivas e indicó que la Administración Trump no seguiría su ejemplo.

Sin embargo, más de una docena de estados de EE. UU. están implementando leyes que se asemejan notablemente a la Ley de IA de la UE. Estas leyes están centradas en la discriminación algorítmica en «sistemas de decisión automatizados». A continuación, se proporciona un contexto más amplio sobre cómo surgieron estas leyes, qué problema pretenden resolver y cómo se asemejan a la Ley de IA de la UE.

Sobre las leyes

Las leyes buscan prevenir la discriminación algorítmica regulando el uso de la IA en decisiones automatizadas en casos de alto riesgo. Específicamente, crean requisitos de documentación y gestión de riesgos cuando la IA se usa como un factor sustancial en decisiones consecuentes, es decir, decisiones que afectan el acceso, términos o precios de servicios en áreas como empleo, educación, servicios legales, servicios financieros, seguros, y más.

Cualquier negocio que utilice un sistema de IA como un factor sustancial en decisiones consecuentes debe redactar e implementar un plan de gestión de riesgos y crear una evaluación de impacto algorítmico para cada caso de uso cubierto de IA. Los desarrolladores de productos o servicios de IA también deben cumplir con requisitos de transparencia y monitorización.

Dificultades en la implementación

La definición de factor sustancial y decisión consecuente será crucial. Por ejemplo, ¿es usar un sistema de IA para filtrar currículos un factor sustancial? Tal ambigüedad puede llevar a confusiones y a un régimen de cumplimiento complejo. En Colorado, se aprobó la SB 205, pero el Gobernador expresó su preocupación por el “complejo régimen de cumplimiento”.

Los orígenes de estas leyes

Las preocupaciones sobre la discriminación algorítmica han estado presentes durante años, especialmente en la era pre-ChatGPT. Cuando la Administración Biden asumió el poder en 2021, este tema fue una prioridad, destacándose en documentos de políticas sobre IA.

La Future of Privacy Forum, una organización sin fines de lucro, ha tenido un papel crucial en la promoción de estas leyes. Aunque actualmente disuaden cualquier implicación de coordinación, la evidencia sugiere que sus esfuerzos han facilitado la adopción de la regulación tecnológica de la UE en legislaturas estatales de EE. UU.

Similitudes con la Ley de IA de la UE

Al igual que las leyes de discriminación algorítmica, la Ley de IA de la UE adopta un enfoque basado en riesgos, destacando industrias y usos donde se requieren pasos de cumplimiento preventivos. Las industrias cubiertas incluyen servicios financieros, educación, empleo, servicios gubernamentales y más.

Los desarrolladores de sistemas de alta riesgo tienen que redactar un plan de gestión de riesgos y llevar a cabo una evaluación de impacto de derechos fundamentales. Las similitudes entre los requerimientos de la Ley de IA de la UE y las leyes estatales son evidentes, lo que plantea preguntas sobre la originalidad de estas legislaciones.

¿Vale la pena todo esto?

Los costos de cumplimiento estimados para estas leyes podrían ser significativos. La Center for European Policy Studies ha proyectado que la Ley de IA de la UE podría aumentar los gastos corporativos en IA entre un 5% y un 17%. Sin embargo, no hay evidencia concluyente de que la discriminación algorítmica sea un problema tan extendido que justifique estos costos.

Conclusión

América se encuentra en camino de imponer una versión de la política de IA de la UE, con un enfoque en la discriminación algorítmica. Con el tiempo, la IA podría convertirse en la tecnología digital de uso general más regulada en la historia de EE. UU.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...