El Giro Deregulador de Europa Pone en Riesgo la Ley de IA
En agosto de 2024, se adoptó la Ley de Inteligencia Artificial de la UE tras años de negociaciones intensas, múltiples trilogos y innumerables enmiendas. Apenas un mes después, esta ley ya tenía un blanco en la espalda: el ex presidente del Banco Central Europeo, Mario Draghi, la mencionó en su informe sobre el futuro de la competitividad europea como un ejemplo de barrera regulatoria onerosa para el sector tecnológico.
La Comisión Europea anunció su intención de llevar a cabo no menos de cinco iniciativas de simplificación, que incluyen una que abarca el libro de reglas digitales de la UE, para evaluar si «el acervo digital ampliado refleja adecuadamente las necesidades y restricciones de empresas como las PYMES y las pequeñas y medianas empresas». Este documento especificó que esta evaluación incluiría la Ley de IA, junto con otros objetivos significativos, como el Reglamento General de Protección de Datos (GDPR), que recientemente ha sido objeto de enmiendas propuestas.
Preocupaciones sobre la Ley de IA
Las preocupaciones de que la Ley de IA pudiera debilitarse se intensificaron tras las declaraciones de la Comisión Europea en la Cumbre de IA de Francia, donde la presidenta de la Comisión, Ursula Von der Leyen, prometió eliminar la burocracia. Esa misma noche, se descartó del programa de trabajo de la Comisión la propuesta de la Directiva de Responsabilidad de IA, que inicialmente complementaría la Ley de IA al establecer reglas de responsabilidad por daños causados por sistemas de IA, provocando reacciones adversas de la sociedad civil europea y miembros del Parlamento Europeo.
A pesar de las preocupaciones, la Comisión Europea presentó el Plan de Acción de la IA, que identificó la simplificación como un pilar central de su agenda. El Plan anunció, como primer paso, el establecimiento de un Servicio de Asistencia de la Ley de IA para ofrecer orientación práctica sobre el cumplimiento, herramientas interactivas y apoyo directo a startups y PYMES. Sin embargo, el Plan no mencionó la revisión del texto de la Ley de IA, centrándose en cambio en aclarar las obligaciones para las entidades reguladas.
La Simplificación como Riesgo
La Comisión Europea había indicado anteriormente que el principal objetivo de simplificación serían las obligaciones de reporte bajo la Ley de IA. Sin embargo, incluso los cambios dirigidos podrían tener implicaciones de gran alcance, adversas al desarrollo y despliegue seguro de la IA. Un ejemplo clave de obligación de reporte formalizada en la Ley de IA es la notificación de incidentes graves que causan daños serios a individuos, propiedad o el medio ambiente, así como infracciones de obligaciones de derechos fundamentales.
Aunque estas obligaciones de notificación podrían ser fácilmente desestimadas como meros requisitos de reporte, en realidad podrían desempeñar un papel clave en la identificación y mitigación de daños reales derivados de la IA. Es preocupante que se considere simplificar estas obligaciones, cuando en realidad no fueron lo suficientemente lejos en primer lugar. Por ejemplo, los proveedores de sistemas de IA pueden eliminar sus sistemas de la categoría de alto riesgo si consideran que no representan un alto riesgo, a pesar de cumplir con los criterios establecidos en la Ley, sin necesidad de notificar a un regulador.
La Necesidad de un Enfoque Basado en Evidencias
El hecho de que la Ley de IA, en gran parte aún no aplicable, se reabra, indica una alineación preocupante con los llamados de la industria para la simplificación. Un documento titulado el “Plan Económico de la UE” de OpenAI menciona que la “amplitud y cantidad de regulaciones de la UE obstaculizan la innovación, ralentizan el crecimiento económico y suponen un desafío existencial” para el futuro de la UE, instando a los responsables políticos a evaluar qué “reglas fortalecen el sector de IA de la UE y deben preservarse, en contraste con aquellas que lo están frenando y no deberían”.
En Europa, la Iniciativa de Campeones de IA de la UE ha hecho argumentos similares, afirmando que la Ley de IA ha creado incertidumbre en el mercado a través de una categorización de riesgos poco clara, “causando que las empresas duden en adoptar la IA”. Varios sindicatos y empresas han expresado argumentos similares, aumentando la presión sobre la Comisión Europea para aplicar un enfoque amplio en su revisión de la Ley de IA.
La Comisión Europea no puede permitir que estos errores se repitan y debe aplicar las lecciones aprendidas. En un momento en que la Unión Europea busca afirmar su soberanía, el enfoque europeo hacia la innovación en IA debe estar firmemente arraigado en los valores y derechos fundamentales de la UE, y cualquier revisión del marco legislativo existente debe basarse en un sólido cuerpo de evidencia más allá de la resistencia generalizada de la industria a las reglas.
Los responsables de la toma de decisiones deben garantizar que cualquier enmienda considerada sea ampliamente consultada y su impacto evaluado de manera robusta antes de presentar una propuesta. No hacerlo pondrá en peligro las fortalezas centrales del libro de reglas digitales de la UE y las protecciones de derechos fundamentales arduamente conseguidas en la Ley de IA.