Las Regulaciones Agobiantes de la Ley de IA de la UE Podrían Afectar la Innovación en IA
La Unión Europea estableció el año pasado el primer marco regulatorio integral para la inteligencia artificial (IA) en el mundo. Aunque solo algunas de sus disposiciones han entrado en vigor, la Ley de IA de la UE ya ha demostrado ser un modelo para obstaculizar el desarrollo de la IA.
La UE ha estancado su propio desarrollo en IA, quedando rezagada respecto a Estados Unidos y China. En lugar de centrarse en la inversión y el crecimiento de la IA, la UE se ha apresurado a regular, un movimiento poco aconsejable en una industria emergente y en rápida evolución.
Marco de Riesgo de la Ley de IA
La Ley de IA de la UE crea un marco basado en el riesgo que regula los sistemas de IA según su nivel de riesgo percibido. Cuanto mayor sea el riesgo percibido, más estrictos serán los requisitos regulatorios para aquellos involucrados en el desarrollo, operación y despliegue del sistema de IA.
La ley se basa en definiciones vagas y crea cuatro categorías de riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y mínimo riesgo.
Los sistemas de IA que representan un riesgo inaceptable están prohibidos, mientras que los sistemas de IA de alto riesgo enfrentan las regulaciones más estrictas entre los sistemas de IA permitidos en el mercado de la UE. Estos sistemas de alto riesgo podrían causar daños significativos al público si se malutilizan, y incluyen dispositivos médicos impulsados por IA, vehículos, y herramientas utilizadas en decisiones judiciales.
Requisitos Estrictos para Sistemas de Alto Riesgo
Antes de que un sistema de IA de alto riesgo pueda entrar en el mercado de la UE, debe cumplir con requisitos estrictos. Esto incluye realizar evaluaciones de riesgo y medidas de mitigación, asegurar conjuntos de datos de alta calidad para minimizar el riesgo de resultados discriminatorios, y mantener registros detallados para rastrear la toma de decisiones.
Estas regulaciones agobiantes colocan a las empresas de IA en una desventaja competitiva, aumentando los costos de cumplimiento, retrasando los lanzamientos de productos y imponiendo requisitos que a menudo son impracticables o imposibles de cumplir. Por ejemplo, el Artículo 10 de la Ley de IA de la UE exige que los conjuntos de datos utilizados sean “relevantes, suficientemente representativos y, en la medida de lo posible, libres de errores y completos”.
Desafíos y Limitaciones de la Regulación
El requisito de mantener registros detallados y trazabilidad también presenta desafíos significativos, aumentando los costos de almacenamiento de datos mientras incrementa los riesgos de privacidad y seguridad. Estos registros extensos exponen datos sensibles de los usuarios a posibles violaciones, y rastrear flujos de datos masivos en tiempo real puede ser impracticable para empresas con recursos limitados.
Además, la definición excesivamente amplia de “sistemas de IA” en la ley podría incluir cualquier software, incluidas herramientas de automatización básicas y modelos estadísticos tradicionales. Esto impone requisitos regulatorios en todos los niveles de desarrollo y despliegue de IA, lo que puede resultar en multas de hasta 36 millones de dólares o el 7% de la facturación anual global por incumplimiento.
Consecuencias para el Futuro de la IA en la UE
Estas regulaciones onerosas pueden eventualmente asfixiar la innovación y provocar la fuga de talento en IA fuera de la UE, ampliando aún más la brecha tecnológica entre Europa y sus competidores. Recientemente, la UE emitió reglas de “código de práctica” que fueron rechazadas por gigantes tecnológicos como Google y Meta, quienes las consideran requisitos “inviables técnicamente”.
La Ley de IA de la UE debe servir como una advertencia para los legisladores de otros países: los marcos regulatorios basados en el riesgo podrían sofocar la innovación en IA. Hasta ahora, solo Colorado ha adoptado un marco regulatorio similar, pero ya ha propuesto enmiendas significativas tras apenas nueve meses de implementación, lo que resalta la inestabilidad de tales enfoques regulatorios en una tecnología en rápida evolución.
Si Estados Unidos desea seguir siendo un líder en el desarrollo de IA, debe rechazar el camino de la sobre-regulación.