La Regulación de IA: El Legado del Acta de la UE en Estados Unidos

La Ley de IA de la UE Llega a América

En la cumbre de acción de IA celebrada en París esta semana, el Vicepresidente J.D. Vance entregó un mensaje optimista sobre la IA. Criticó a la Unión Europea por moverse demasiado rápido con regulaciones preventivas e indicó que la Administración Trump no seguiría su ejemplo.

Sin embargo, más de una docena de estados de EE. UU. están implementando leyes que se asemejan notablemente a la Ley de IA de la UE. Estas leyes están centradas en la discriminación algorítmica en «sistemas de decisión automatizados». A continuación, se proporciona un contexto más amplio sobre cómo surgieron estas leyes, qué problema pretenden resolver y cómo se asemejan a la Ley de IA de la UE.

Sobre las leyes

Las leyes buscan prevenir la discriminación algorítmica regulando el uso de la IA en decisiones automatizadas en casos de alto riesgo. Específicamente, crean requisitos de documentación y gestión de riesgos cuando la IA se usa como un factor sustancial en decisiones consecuentes, es decir, decisiones que afectan el acceso, términos o precios de servicios en áreas como empleo, educación, servicios legales, servicios financieros, seguros, y más.

Cualquier negocio que utilice un sistema de IA como un factor sustancial en decisiones consecuentes debe redactar e implementar un plan de gestión de riesgos y crear una evaluación de impacto algorítmico para cada caso de uso cubierto de IA. Los desarrolladores de productos o servicios de IA también deben cumplir con requisitos de transparencia y monitorización.

Dificultades en la implementación

La definición de factor sustancial y decisión consecuente será crucial. Por ejemplo, ¿es usar un sistema de IA para filtrar currículos un factor sustancial? Tal ambigüedad puede llevar a confusiones y a un régimen de cumplimiento complejo. En Colorado, se aprobó la SB 205, pero el Gobernador expresó su preocupación por el “complejo régimen de cumplimiento”.

Los orígenes de estas leyes

Las preocupaciones sobre la discriminación algorítmica han estado presentes durante años, especialmente en la era pre-ChatGPT. Cuando la Administración Biden asumió el poder en 2021, este tema fue una prioridad, destacándose en documentos de políticas sobre IA.

La Future of Privacy Forum, una organización sin fines de lucro, ha tenido un papel crucial en la promoción de estas leyes. Aunque actualmente disuaden cualquier implicación de coordinación, la evidencia sugiere que sus esfuerzos han facilitado la adopción de la regulación tecnológica de la UE en legislaturas estatales de EE. UU.

Similitudes con la Ley de IA de la UE

Al igual que las leyes de discriminación algorítmica, la Ley de IA de la UE adopta un enfoque basado en riesgos, destacando industrias y usos donde se requieren pasos de cumplimiento preventivos. Las industrias cubiertas incluyen servicios financieros, educación, empleo, servicios gubernamentales y más.

Los desarrolladores de sistemas de alta riesgo tienen que redactar un plan de gestión de riesgos y llevar a cabo una evaluación de impacto de derechos fundamentales. Las similitudes entre los requerimientos de la Ley de IA de la UE y las leyes estatales son evidentes, lo que plantea preguntas sobre la originalidad de estas legislaciones.

¿Vale la pena todo esto?

Los costos de cumplimiento estimados para estas leyes podrían ser significativos. La Center for European Policy Studies ha proyectado que la Ley de IA de la UE podría aumentar los gastos corporativos en IA entre un 5% y un 17%. Sin embargo, no hay evidencia concluyente de que la discriminación algorítmica sea un problema tan extendido que justifique estos costos.

Conclusión

América se encuentra en camino de imponer una versión de la política de IA de la UE, con un enfoque en la discriminación algorítmica. Con el tiempo, la IA podría convertirse en la tecnología digital de uso general más regulada en la historia de EE. UU.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...