Los Derechos Humanos son Universales, No Opcionales
El Reglamento de IA de la UE, que entró en vigor el 1 de agosto de 2024, dio inicio a un proceso de co-regulación que involucra a un grupo de trabajo de cerca de 1,000 interesados de empresas de IA, academia y organizaciones de la sociedad civil. Este grupo de trabajo se encuentra en las etapas finales de redacción del Código de Práctica de IA de Propósito General, que funciona como un manual detallado sobre cómo los desarrolladores de IA pueden cumplir con partes clave del Reglamento de IA.
Los desarrolladores que siguen este manual obtienen una presunción de cumplimiento con el Reglamento, aunque pueden optar por cumplir de otras maneras. Sin embargo, existen preocupaciones acerca de que la versión penúltima del Código de Práctica no protege adecuadamente los derechos humanos.
Clasificación de Riesgos
El Reglamento de IA y, por tanto, el Código, distinguen entre modelos de IA de propósito general y modelos de IA de propósito general con riesgo sistémico. Los modelos en esta última categoría tienen obligaciones adicionales, que incluyen la realización de evaluaciones de riesgo y la mitigación de los riesgos identificados. Una de las funciones clave del Código es especificar los tipos de riesgos que los proveedores de estos modelos deben evaluar.
Desde el primer borrador, el Código incluía un enfoque de dos niveles que distinguía entre categorías de riesgo. Sin embargo, en el borrador actual, la segunda categoría de riesgo pasó de ser «adicional» a «opcional». Esto se resumió en un taller reciente donde se discutió la necesidad de reducir los requisitos para las empresas de IA, con el argumento de que Europa no podía perderse las innovaciones en IA.
Riesgos Opcionales
La lista de riesgos opcionales es sorprendentemente amplia:
- Riesgos para la salud pública, seguridad o seguridad pública, p.ej., riesgo para sectores críticos; riesgo de accidentes mayores; riesgo para infraestructuras críticas.
- Riesgos para los derechos fundamentales, p.ej., riesgo para la libertad de expresión; riesgo de no discriminación; riesgo para la privacidad y la protección de datos personales; riesgo de material de abuso sexual infantil (CSAM) y de imágenes íntimas no consensuadas (NCII).
- Riesgos para la sociedad en su conjunto, p.ej., riesgo para el medio ambiente; riesgo para el bienestar no humano; riesgo para la estabilidad del sistema financiero; riesgo para los procesos democráticos; riesgo de contenido ilegal, violento, odioso, radicalizador o falso.
Discriminación y Riesgos de Privacidad
Notablemente, la discriminación pasó de la lista de riesgos obligatorios a la lista de riesgos opcionales. Actualmente, solo cuatro riesgos requieren evaluación obligatoria bajo el Código: “químico, biológico, radiológico y nuclear (CBRN)”, “ofensa cibernética”, “pérdida de control” y “manipulación dañina”.
El argumento de los redactores parece ser que los riesgos a los derechos humanos no se encuentran entre los principales «riesgos sistémicos» derivados de las «capacidades de alto impacto» de los modelos de IA de propósito general (GPAI). Sin embargo, los riesgos no tienen que estar relacionados únicamente con las capacidades de alto impacto de un modelo, sino que pueden resultar simplemente de la adopción a gran escala de modelos de IA.
Impacto de los Modelos de IA
Además, los impactos de estos riesgos no son teóricos o a largo plazo; ya están ocurriendo en la actualidad. La decisión de degradar un amplio conjunto de riesgos a los derechos humanos a un estatus opcional envía una señal clara de que este proceso está cediendo ante la presión de intereses corporativos.
Existen evidencias científicas que demuestran que la discriminación es un problema conocido en los modelos de IA, desde estereotipos de género regresivos hasta racismo manifiesto. A menos que se evalúen y mitiguen activamente, la discriminación por parte de los modelos de IA es casi inevitable, ya que está arraigada en los materiales de aprendizaje del propio modelo, debido a los sesgos presentes en los vastos conjuntos de datos de entrenamiento.
Además, es de conocimiento común que el material de abuso sexual infantil (CSAM) está presente en los datos utilizados para entrenar algunos modelos de IA populares, lo que permite que esos modelos reproduzcan contenido dañino a gran escala.
Desafíos de Privacidad
La dependencia de los modelos de IA en contenido scrapeado públicamente, rico en datos personales, plantea desafíos significativos de privacidad. Un creciente número de casos muestra que la retención de datos personales por parte de los modelos puede resultar en información inexacta y difamatoria sobre individuos reales.
Ignorar estos riesgos bien reconocidos puede tener consecuencias reales e inesperadas para la UE.
Conclusión
El borrador del Código de Práctica en su forma actual representa un retroceso debido a su enfoque débil y selectivo hacia las protecciones de derechos humanos. Los redactores del Código de Práctica deben tomar medidas decisivas para asegurar que los desarrolladores de modelos GPAI consideren los riesgos que sus modelos presentan para los derechos humanos.
Si la UE no cumple con la promesa del Reglamento de IA como un modelo de gobernanza global que pone a la humanidad por encima de los intereses corporativos, las repercusiones se sentirán en todo el mundo.