Derechos Humanos y el Código de Práctica de la IA: Un Llamado a la Acción

Los Derechos Humanos son Universales, No Opcionales

El Reglamento de IA de la UE, que entró en vigor el 1 de agosto de 2024, dio inicio a un proceso de co-regulación que involucra a un grupo de trabajo de cerca de 1,000 interesados de empresas de IA, academia y organizaciones de la sociedad civil. Este grupo de trabajo se encuentra en las etapas finales de redacción del Código de Práctica de IA de Propósito General, que funciona como un manual detallado sobre cómo los desarrolladores de IA pueden cumplir con partes clave del Reglamento de IA.

Los desarrolladores que siguen este manual obtienen una presunción de cumplimiento con el Reglamento, aunque pueden optar por cumplir de otras maneras. Sin embargo, existen preocupaciones acerca de que la versión penúltima del Código de Práctica no protege adecuadamente los derechos humanos.

Clasificación de Riesgos

El Reglamento de IA y, por tanto, el Código, distinguen entre modelos de IA de propósito general y modelos de IA de propósito general con riesgo sistémico. Los modelos en esta última categoría tienen obligaciones adicionales, que incluyen la realización de evaluaciones de riesgo y la mitigación de los riesgos identificados. Una de las funciones clave del Código es especificar los tipos de riesgos que los proveedores de estos modelos deben evaluar.

Desde el primer borrador, el Código incluía un enfoque de dos niveles que distinguía entre categorías de riesgo. Sin embargo, en el borrador actual, la segunda categoría de riesgo pasó de ser «adicional» a «opcional». Esto se resumió en un taller reciente donde se discutió la necesidad de reducir los requisitos para las empresas de IA, con el argumento de que Europa no podía perderse las innovaciones en IA.

Riesgos Opcionales

La lista de riesgos opcionales es sorprendentemente amplia:

  • Riesgos para la salud pública, seguridad o seguridad pública, p.ej., riesgo para sectores críticos; riesgo de accidentes mayores; riesgo para infraestructuras críticas.
  • Riesgos para los derechos fundamentales, p.ej., riesgo para la libertad de expresión; riesgo de no discriminación; riesgo para la privacidad y la protección de datos personales; riesgo de material de abuso sexual infantil (CSAM) y de imágenes íntimas no consensuadas (NCII).
  • Riesgos para la sociedad en su conjunto, p.ej., riesgo para el medio ambiente; riesgo para el bienestar no humano; riesgo para la estabilidad del sistema financiero; riesgo para los procesos democráticos; riesgo de contenido ilegal, violento, odioso, radicalizador o falso.

Discriminación y Riesgos de Privacidad

Notablemente, la discriminación pasó de la lista de riesgos obligatorios a la lista de riesgos opcionales. Actualmente, solo cuatro riesgos requieren evaluación obligatoria bajo el Código: “químico, biológico, radiológico y nuclear (CBRN)”, “ofensa cibernética”, “pérdida de control” y “manipulación dañina”.

El argumento de los redactores parece ser que los riesgos a los derechos humanos no se encuentran entre los principales «riesgos sistémicos» derivados de las «capacidades de alto impacto» de los modelos de IA de propósito general (GPAI). Sin embargo, los riesgos no tienen que estar relacionados únicamente con las capacidades de alto impacto de un modelo, sino que pueden resultar simplemente de la adopción a gran escala de modelos de IA.

Impacto de los Modelos de IA

Además, los impactos de estos riesgos no son teóricos o a largo plazo; ya están ocurriendo en la actualidad. La decisión de degradar un amplio conjunto de riesgos a los derechos humanos a un estatus opcional envía una señal clara de que este proceso está cediendo ante la presión de intereses corporativos.

Existen evidencias científicas que demuestran que la discriminación es un problema conocido en los modelos de IA, desde estereotipos de género regresivos hasta racismo manifiesto. A menos que se evalúen y mitiguen activamente, la discriminación por parte de los modelos de IA es casi inevitable, ya que está arraigada en los materiales de aprendizaje del propio modelo, debido a los sesgos presentes en los vastos conjuntos de datos de entrenamiento.

Además, es de conocimiento común que el material de abuso sexual infantil (CSAM) está presente en los datos utilizados para entrenar algunos modelos de IA populares, lo que permite que esos modelos reproduzcan contenido dañino a gran escala.

Desafíos de Privacidad

La dependencia de los modelos de IA en contenido scrapeado públicamente, rico en datos personales, plantea desafíos significativos de privacidad. Un creciente número de casos muestra que la retención de datos personales por parte de los modelos puede resultar en información inexacta y difamatoria sobre individuos reales.

Ignorar estos riesgos bien reconocidos puede tener consecuencias reales e inesperadas para la UE.

Conclusión

El borrador del Código de Práctica en su forma actual representa un retroceso debido a su enfoque débil y selectivo hacia las protecciones de derechos humanos. Los redactores del Código de Práctica deben tomar medidas decisivas para asegurar que los desarrolladores de modelos GPAI consideren los riesgos que sus modelos presentan para los derechos humanos.

Si la UE no cumple con la promesa del Reglamento de IA como un modelo de gobernanza global que pone a la humanidad por encima de los intereses corporativos, las repercusiones se sentirán en todo el mundo.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...