El Acta de IA de la UE: Un Aviso para América

La Ley de IA de la UE Llega a América

En la Cumbre de Acción de IA celebrada en París esta semana, el Vicepresidente J.D. Vance emitió un mensaje optimista sobre la IA. Criticó a la Unión Europea por avanzar demasiado rápido con regulaciones preventivas e indicó que la administración de Trump no seguiría su ejemplo.

Sin embargo, es importante señalar que, en este momento, más de una docena de estados de EE. UU. están implementando leyes que se asemejan notablemente a la Ley de IA de la UE. Estas leyes se centran en la discriminación algorítmica en los «sistemas de decisión automatizados».

Sobre los Proyectos de Ley

¿Qué hacen estas leyes? En la mayoría de los casos, el título del proyecto de ley lo dice todo: su propósito es prevenir la discriminación algorítmica. Regulan el uso de la IA, definido ampliamente para incluir gran parte del software moderno, en la automatización de decisiones en casos de «alto riesgo». Esto incluye la creación de requisitos de gestión de riesgos y documentación cuando la IA se utiliza como un factor sustancial en la toma de decisiones que afectan el acceso de los consumidores a servicios en áreas como el empleo, la educación, los servicios legales, y más.

Cualquier empresa cubierta que utilice un sistema de IA como un factor sustancial en una decisión consequential deberá redactar e implementar un plan de gestión de riesgos y crear una evaluación de impacto algorítmica. Los desarrolladores de productos o servicios de IA que puedan ser utilizados para estas decisiones también estarán sujetos a requisitos de transparencia y monitoreo.

Definiciones Críticas

Mucho depende de cómo se definan e interpreten los términos «factor sustancial» y «decisión consequential». Por ejemplo, si un propietario de negocio desea utilizar un sistema de IA para decidir a quién contratar, la ley se aplicaría. Sin embargo, las definiciones más amplias podrían incluir el uso de sistemas de IA para estructurar la información, lo que podría complicar la aplicación de la ley.

El Contexto de la Legislación

La razón detrás de la rápida aparición de estas leyes en EE. UU. se debe a una combinación de causas. A largo plazo, ha habido preocupaciones sobre la discriminación algorítmica durante años. Esto fue un tema candente en la política de IA antes de que surgieran modelos de lenguaje como ChatGPT.

La administración Biden, al asumir el poder, priorizó este tema, que se refleja en documentos de política de IA. Esta situación se asemeja a la regulación de la privacidad, donde los estados comenzaron a liderar el camino en la legislación tras el Reglamento General de Protección de Datos de la UE.

Similitudes con la Ley de IA de la UE

Las leyes de discriminación algorítmica adoptan un enfoque basado en riesgos, similar al de la Ley de IA de la UE. Ambas regulaciones destacan industrias y casos de uso donde se requieren pasos de cumplimiento preventivos. Las similitudes son evidentes en los requisitos de gestión de riesgos y evaluaciones de impacto.

Costos de Cumplimiento

Se estima que la Ley de IA de la UE podría aumentar los costos de cumplimiento en un 5-17% para las empresas que desarrollan o implementan IA. Sin embargo, el uso generalizado de modelos de lenguaje podría incrementar aún más estos costos.

A pesar de las preocupaciones sobre la discriminación algorítmica, no hay evidencia suficiente que justifique los altos costos de cumplimiento de estas nuevas leyes. Por ejemplo, en encuestas, se ha encontrado un número muy bajo de casos de arrestos erróneos atribuidos a algoritmos de reconocimiento facial.

Conclusiones

Estados Unidos se encuentra en un camino hacia la implementación de una política de IA que refleja la de la UE, pero adaptada a sus propias peculiaridades. Si estas leyes se aprueban, la posibilidad de un precepto federal se volverá más difícil, ya que los representantes de los estados con estas leyes dudarían en ceder poder federal.

La realidad es que, sin una corrección de rumbo significativa, el futuro parece claro: en uno o dos años, la inteligencia artificial será la tecnología digital de propósito general más regulada en la historia de EE. UU.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...