La Regulación de IA: El Legado del Acta de la UE en Estados Unidos

La Ley de IA de la UE Llega a América

En la cumbre de acción de IA celebrada en París esta semana, el Vicepresidente J.D. Vance entregó un mensaje optimista sobre la IA. Criticó a la Unión Europea por moverse demasiado rápido con regulaciones preventivas e indicó que la Administración Trump no seguiría su ejemplo.

Sin embargo, más de una docena de estados de EE. UU. están implementando leyes que se asemejan notablemente a la Ley de IA de la UE. Estas leyes están centradas en la discriminación algorítmica en «sistemas de decisión automatizados». A continuación, se proporciona un contexto más amplio sobre cómo surgieron estas leyes, qué problema pretenden resolver y cómo se asemejan a la Ley de IA de la UE.

Sobre las leyes

Las leyes buscan prevenir la discriminación algorítmica regulando el uso de la IA en decisiones automatizadas en casos de alto riesgo. Específicamente, crean requisitos de documentación y gestión de riesgos cuando la IA se usa como un factor sustancial en decisiones consecuentes, es decir, decisiones que afectan el acceso, términos o precios de servicios en áreas como empleo, educación, servicios legales, servicios financieros, seguros, y más.

Cualquier negocio que utilice un sistema de IA como un factor sustancial en decisiones consecuentes debe redactar e implementar un plan de gestión de riesgos y crear una evaluación de impacto algorítmico para cada caso de uso cubierto de IA. Los desarrolladores de productos o servicios de IA también deben cumplir con requisitos de transparencia y monitorización.

Dificultades en la implementación

La definición de factor sustancial y decisión consecuente será crucial. Por ejemplo, ¿es usar un sistema de IA para filtrar currículos un factor sustancial? Tal ambigüedad puede llevar a confusiones y a un régimen de cumplimiento complejo. En Colorado, se aprobó la SB 205, pero el Gobernador expresó su preocupación por el “complejo régimen de cumplimiento”.

Los orígenes de estas leyes

Las preocupaciones sobre la discriminación algorítmica han estado presentes durante años, especialmente en la era pre-ChatGPT. Cuando la Administración Biden asumió el poder en 2021, este tema fue una prioridad, destacándose en documentos de políticas sobre IA.

La Future of Privacy Forum, una organización sin fines de lucro, ha tenido un papel crucial en la promoción de estas leyes. Aunque actualmente disuaden cualquier implicación de coordinación, la evidencia sugiere que sus esfuerzos han facilitado la adopción de la regulación tecnológica de la UE en legislaturas estatales de EE. UU.

Similitudes con la Ley de IA de la UE

Al igual que las leyes de discriminación algorítmica, la Ley de IA de la UE adopta un enfoque basado en riesgos, destacando industrias y usos donde se requieren pasos de cumplimiento preventivos. Las industrias cubiertas incluyen servicios financieros, educación, empleo, servicios gubernamentales y más.

Los desarrolladores de sistemas de alta riesgo tienen que redactar un plan de gestión de riesgos y llevar a cabo una evaluación de impacto de derechos fundamentales. Las similitudes entre los requerimientos de la Ley de IA de la UE y las leyes estatales son evidentes, lo que plantea preguntas sobre la originalidad de estas legislaciones.

¿Vale la pena todo esto?

Los costos de cumplimiento estimados para estas leyes podrían ser significativos. La Center for European Policy Studies ha proyectado que la Ley de IA de la UE podría aumentar los gastos corporativos en IA entre un 5% y un 17%. Sin embargo, no hay evidencia concluyente de que la discriminación algorítmica sea un problema tan extendido que justifique estos costos.

Conclusión

América se encuentra en camino de imponer una versión de la política de IA de la UE, con un enfoque en la discriminación algorítmica. Con el tiempo, la IA podría convertirse en la tecnología digital de uso general más regulada en la historia de EE. UU.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...