Op-ed: Abandonar la Directiva de Responsabilidad de IA conlleva riesgos inaceptables
La necesidad de Europa de eliminar la burocracia no es un secreto. Este tema surge en todas mis frecuentes interacciones con empresas, ya sean startups, scale-ups o compañías consolidadas. La Comisión Europea se ha comprometido a actuar, pero cada vez dudo más de los medios.
La Directiva de Responsabilidad de IA (AILD), que la Comisión Europea ha decidido abandonar, es un ejemplo claro. Los defensores de este paso, incluida la Comisionada responsable de soberanía tecnológica, seguridad y democracia, argumentan que las reglas adicionales de responsabilidad podrían sofocar la innovación y la inversión en Europa. Sin embargo, al eliminar la directiva, la Comisión logrará lo que intenta evitar: dejar a las empresas sin directrices legales claras, lo que reducirá sus incentivos para invertir.
Incertidumbre legal: Un obstáculo para la innovación de IA en la UE
Los inversores en Europa ya son conocidos por su aversión al riesgo. Con las tecnologías de IA interactuando cada vez más con los mundos real y virtual, los riesgos se están multiplicando, y la decisión de la Comisión añade opacidad y fragmentación legal al panorama.
Las cadenas de responsabilidad siguen siendo confusas. ¿Quién es responsable cuando los riesgos inevitablemente se materializan: aquellos que desarrollan, implementan, venden o diseñan? ¿Y qué pasa si comparten responsabilidades entre sí? No es necesario ver Netflix para saber que el espejo en el que buscamos respuestas no solo está roto, sino que está dividido en 27 piezas.
Actualmente, las empresas que manejan tecnologías impulsadas por IA tienen poca idea de cuán innovador podría ser el juez que las enfrente, ni cuál de los 27 marcos legales las confrontará.
El papel de la AILD en el manual de reglas digitales de Europa
Algunos opositores de la directiva dicen que no hay necesidad de más regulación, ya que la Ley de IA y la nueva Directiva de Responsabilidad de Productos (PLD) cubren el mismo terreno. Esto es incorrecto, mal informado o manipulador, dependiendo de cuánto beneficio de la duda queramos otorgar a los críticos.
Tanto la Ley de IA como la PLD revisada no son sustitutos de la AILD. La diferencia es muy clara: la Ley de IA trata sobre la gestión de riesgos preventivos, indicando a los actores de IA lo que deben hacer para evitar daños. No aborda quién es responsable después de que se ha producido el daño.
La Directiva de Responsabilidad de Productos, por su parte, cubre los daños tras un incidente, pero estos son daños diferentes a los que aborda la AILD. Las diferencias entre la responsabilidad por productos (PLD) y la responsabilidad del productor (AILD) son ampliamente conocidas por cualquier estudiante de derecho, y deberían serlo por la Comisión.
Sin AILD, los riesgos de IA socavan la confianza y la seguridad
Los daños causados por IA a menudo van más allá de los defectos del producto. ¿Qué pasa si la IA causa daño en un contexto profesional utilizando herramientas profesionales? ¿Y si el daño no se debe a un defecto de fabricación, sino a una falta de instrucciones adecuadas para los usuarios? ¿Qué sucede si la lesión surge de un comportamiento «rogue» de la IA que no se basa en un fallo técnico, sino en una mala gestión de la implementación?
También hay una creciente clase de casos de uso donde los programadores utilizan IA generativa sin defectos aparentes para codificar aplicaciones que incluyen algunos elementos de IA. ¿Qué pasaría si tales aplicaciones, utilizadas y fabricadas de manera privada, causan daño a terceros? Ignorar estos escenarios no es solo un punto ciego legal, sino una responsabilidad política. ¿Tenemos una «Directiva de Responsabilidad Política» que cubra las omisiones erróneas de los planes de trabajo de la Comisión? La respuesta es no.
La Comisión debe saber más. Al negarse a adoptar reglas de responsabilidad armonizadas para la IA, deja a las empresas expuestas a un mosaico de estándares nacionales y interpretaciones contradictorias, precisamente cuando estamos tratando de acelerar la adopción de la IA en todo el continente.
En lugar de claridad, obtenemos una ruleta legal. En este caso, la armonización no significa sobre-regulación; significa reglas inteligentes, específicas y basadas en hechos que brinden tanto a innovadores como a consumidores certeza legal.
La opacidad, la aparente autonomía y la imprevisibilidad para los usuarios dificultan la identificación de la responsabilidad. La AILD pretendía cerrar estas brechas a través de herramientas razonables y modernas como los deberes de divulgación y las presunciones rebatibles de culpa, medidas diseñadas para los riesgos únicos de la IA.
Las vagas sugerencias de la Comisión sobre «enfoques legales futuros» ofrecen poco consuelo. Las empresas necesitan certeza legal ahora, no promesas abiertas para el futuro.
En el corazón del debate hay una pregunta más grande: ¿realmente queremos un mercado único digital en Europa que vaya más allá de palabras vacías? Si la respuesta es sí, la armonización es esencial y debe estar basada en hechos. Sin ella, obtendremos más fragmentación, no previsibilidad; más confusión, no claridad. Con su último retroceso, la Comisión no está simplificando, está rindiéndose.