La Ley de IA de la UE Llega a América
En la cumbre de acción de IA celebrada en París esta semana, el Vicepresidente J.D. Vance entregó un mensaje optimista sobre la IA. Criticó a la Unión Europea por moverse demasiado rápido con regulaciones preventivas e indicó que la Administración Trump no seguiría su ejemplo.
Sin embargo, más de una docena de estados de EE. UU. están implementando leyes que se asemejan notablemente a la Ley de IA de la UE. Estas leyes están centradas en la discriminación algorítmica en «sistemas de decisión automatizados». A continuación, se proporciona un contexto más amplio sobre cómo surgieron estas leyes, qué problema pretenden resolver y cómo se asemejan a la Ley de IA de la UE.
Sobre las leyes
Las leyes buscan prevenir la discriminación algorítmica regulando el uso de la IA en decisiones automatizadas en casos de alto riesgo. Específicamente, crean requisitos de documentación y gestión de riesgos cuando la IA se usa como un factor sustancial en decisiones consecuentes, es decir, decisiones que afectan el acceso, términos o precios de servicios en áreas como empleo, educación, servicios legales, servicios financieros, seguros, y más.
Cualquier negocio que utilice un sistema de IA como un factor sustancial en decisiones consecuentes debe redactar e implementar un plan de gestión de riesgos y crear una evaluación de impacto algorítmico para cada caso de uso cubierto de IA. Los desarrolladores de productos o servicios de IA también deben cumplir con requisitos de transparencia y monitorización.
Dificultades en la implementación
La definición de factor sustancial y decisión consecuente será crucial. Por ejemplo, ¿es usar un sistema de IA para filtrar currículos un factor sustancial? Tal ambigüedad puede llevar a confusiones y a un régimen de cumplimiento complejo. En Colorado, se aprobó la SB 205, pero el Gobernador expresó su preocupación por el “complejo régimen de cumplimiento”.
Los orígenes de estas leyes
Las preocupaciones sobre la discriminación algorítmica han estado presentes durante años, especialmente en la era pre-ChatGPT. Cuando la Administración Biden asumió el poder en 2021, este tema fue una prioridad, destacándose en documentos de políticas sobre IA.
La Future of Privacy Forum, una organización sin fines de lucro, ha tenido un papel crucial en la promoción de estas leyes. Aunque actualmente disuaden cualquier implicación de coordinación, la evidencia sugiere que sus esfuerzos han facilitado la adopción de la regulación tecnológica de la UE en legislaturas estatales de EE. UU.
Similitudes con la Ley de IA de la UE
Al igual que las leyes de discriminación algorítmica, la Ley de IA de la UE adopta un enfoque basado en riesgos, destacando industrias y usos donde se requieren pasos de cumplimiento preventivos. Las industrias cubiertas incluyen servicios financieros, educación, empleo, servicios gubernamentales y más.
Los desarrolladores de sistemas de alta riesgo tienen que redactar un plan de gestión de riesgos y llevar a cabo una evaluación de impacto de derechos fundamentales. Las similitudes entre los requerimientos de la Ley de IA de la UE y las leyes estatales son evidentes, lo que plantea preguntas sobre la originalidad de estas legislaciones.
¿Vale la pena todo esto?
Los costos de cumplimiento estimados para estas leyes podrían ser significativos. La Center for European Policy Studies ha proyectado que la Ley de IA de la UE podría aumentar los gastos corporativos en IA entre un 5% y un 17%. Sin embargo, no hay evidencia concluyente de que la discriminación algorítmica sea un problema tan extendido que justifique estos costos.
Conclusión
América se encuentra en camino de imponer una versión de la política de IA de la UE, con un enfoque en la discriminación algorítmica. Con el tiempo, la IA podría convertirse en la tecnología digital de uso general más regulada en la historia de EE. UU.