La retirada regulatoria de Europa sobre la IA: ¿un almuerzo gratis para las grandes tecnológicas?
El ruido en torno a la ‘competitividad’ en Bruselas está alcanzando un punto álgido.
Una de las recientes víctimas de este impulso por la ‘simplificación’ es la Directiva de Responsabilidad de IA (AILD), una propuesta legislativa que introduciría reglas claras sobre la responsabilidad cuando los sistemas de IA causan daño.
Su ausencia conspicua del programa de trabajo de la Comisión Europea para 2025 deja un preocupante vacío en el marco de la IA en Europa.
Un cambio de prioridades
En la reciente Cumbre de Acción de IA, los líderes de la UE señalaron un cambio de prioridades, alejándose de la seguridad hacia la “competitividad”.
La presidenta de la Comisión, Ursula von der Leyen, declaró que “tenemos que reducir la burocracia” para “facilitar” el crecimiento de la IA en Europa. Días después, la comisión tradujo la retórica en acción y retiró efectivamente la AILD.
A diferencia de la Ley de IA, que se centra en reducir el daño causado por sistemas de IA de alto riesgo, la AILD estaba diseñada para asegurar la responsabilidad cuando ocurre un daño y proporcionar una ruta clara de compensación para los afectados.
Una concesión política
La decisión de la comisión de abandonar el archivo, a pesar de su evidente importancia para la protección del consumidor, parece menos una decisión técnica y más una concesión política.
La directiva habría introducido responsabilidades legales para los grandes desarrolladores de IA, una perspectiva que las grandes tecnológicas resistieron ferozmente. En última instancia, los gigantes tecnológicos no quieren ser responsables de los productos que desarrollan, ni tampoco lo desean las empresas que los utilizan.
Pero alguien necesita ser responsable cuando las cosas salen mal.
Responsabilidad en un mundo impulsado por IA
Si un sistema de IA niega crédito, provoca un colapso del mercado o excluye a un consumidor vulnerable de servicios básicos, ¿quién es responsable?
Como señala un reciente informe de Finance Watch, la regulación financiera se basa en los principios de responsabilidad, responsabilidad y transparencia.
Hasta hace poco, los supervisores podían identificar la fuente de un error comercial o una negativa injustificada de seguro. Incluso las decisiones más complejas impulsadas por software eran, en última instancia, explicables.
El código defectuoso podría identificarse y la responsabilidad asignarse. Esta cadena de responsabilidad está incrustada en la regulación financiera, y las empresas están obligadas a cumplir. Si no lo hacen, enfrentan consecuencias.
Sin embargo, la IA rompe esta cadena. Los sistemas de aprendizaje profundo de IA operan detectando correlaciones en vastos conjuntos de datos, no a través de una lógica transparente de causa y efecto.
Desafíos de la IA
Estos modelos funcionan de manera ‘tómalo o déjalo’, donde incluso sus propios desarrolladores luchan por explicar los resultados.
Esta lógica de ‘caja negra’ hace que la supervisión efectiva sea impráctica, si no imposible. Las evaluaciones de crédito, la fijación de precios de seguros o las decisiones de inversión tomadas por IA resisten la explicación, y los reguladores pueden tener dificultades para detectar errores, sesgos o incluso riesgos sistémicos.
La IA no es un negocio como de costumbre. Desafía la aplicación de los principios centrales de la regulación financiera. Y cuando la comisión se aleja de la responsabilidad, se abre un preocupante vacío en el marco regulador.
Un mercado sin responsabilidad
Un mercado libre sin responsabilidad es simplemente una licencia para explotar.
La IA ya es un oligopolio dominado por un puñado de empresas estadounidenses, y la retirada de la UE les otorga aún más poder. Al abandonar el régimen de responsabilidad de IA, la comisión está efectivamente diciendo a estas empresas que pueden beneficiarse del mercado único sin asumir ninguna responsabilidad por el daño que sus sistemas puedan causar.
Un llamado a la acción
Los responsables políticos de la UE no deben dejarse llevar por una locura de competitividad que confunda la regulación adecuada con la burocracia. Deben dar un paso atrás y evaluar la situación.
Lo que se necesita ahora no es la desregulación, sino una reevaluación del libro de reglas de la IA. Se pueden tomar pasos pragmáticos para garantizar que, a medida que proliferan los casos de uso de IA en finanzas, los ciudadanos estén protegidos de prácticas dañinas.