Derechos Humanos y el Código de Práctica de la IA: Un Llamado a la Acción

Los Derechos Humanos son Universales, No Opcionales

El Reglamento de IA de la UE, que entró en vigor el 1 de agosto de 2024, dio inicio a un proceso de co-regulación que involucra a un grupo de trabajo de cerca de 1,000 interesados de empresas de IA, academia y organizaciones de la sociedad civil. Este grupo de trabajo se encuentra en las etapas finales de redacción del Código de Práctica de IA de Propósito General, que funciona como un manual detallado sobre cómo los desarrolladores de IA pueden cumplir con partes clave del Reglamento de IA.

Los desarrolladores que siguen este manual obtienen una presunción de cumplimiento con el Reglamento, aunque pueden optar por cumplir de otras maneras. Sin embargo, existen preocupaciones acerca de que la versión penúltima del Código de Práctica no protege adecuadamente los derechos humanos.

Clasificación de Riesgos

El Reglamento de IA y, por tanto, el Código, distinguen entre modelos de IA de propósito general y modelos de IA de propósito general con riesgo sistémico. Los modelos en esta última categoría tienen obligaciones adicionales, que incluyen la realización de evaluaciones de riesgo y la mitigación de los riesgos identificados. Una de las funciones clave del Código es especificar los tipos de riesgos que los proveedores de estos modelos deben evaluar.

Desde el primer borrador, el Código incluía un enfoque de dos niveles que distinguía entre categorías de riesgo. Sin embargo, en el borrador actual, la segunda categoría de riesgo pasó de ser «adicional» a «opcional». Esto se resumió en un taller reciente donde se discutió la necesidad de reducir los requisitos para las empresas de IA, con el argumento de que Europa no podía perderse las innovaciones en IA.

Riesgos Opcionales

La lista de riesgos opcionales es sorprendentemente amplia:

  • Riesgos para la salud pública, seguridad o seguridad pública, p.ej., riesgo para sectores críticos; riesgo de accidentes mayores; riesgo para infraestructuras críticas.
  • Riesgos para los derechos fundamentales, p.ej., riesgo para la libertad de expresión; riesgo de no discriminación; riesgo para la privacidad y la protección de datos personales; riesgo de material de abuso sexual infantil (CSAM) y de imágenes íntimas no consensuadas (NCII).
  • Riesgos para la sociedad en su conjunto, p.ej., riesgo para el medio ambiente; riesgo para el bienestar no humano; riesgo para la estabilidad del sistema financiero; riesgo para los procesos democráticos; riesgo de contenido ilegal, violento, odioso, radicalizador o falso.

Discriminación y Riesgos de Privacidad

Notablemente, la discriminación pasó de la lista de riesgos obligatorios a la lista de riesgos opcionales. Actualmente, solo cuatro riesgos requieren evaluación obligatoria bajo el Código: “químico, biológico, radiológico y nuclear (CBRN)”, “ofensa cibernética”, “pérdida de control” y “manipulación dañina”.

El argumento de los redactores parece ser que los riesgos a los derechos humanos no se encuentran entre los principales «riesgos sistémicos» derivados de las «capacidades de alto impacto» de los modelos de IA de propósito general (GPAI). Sin embargo, los riesgos no tienen que estar relacionados únicamente con las capacidades de alto impacto de un modelo, sino que pueden resultar simplemente de la adopción a gran escala de modelos de IA.

Impacto de los Modelos de IA

Además, los impactos de estos riesgos no son teóricos o a largo plazo; ya están ocurriendo en la actualidad. La decisión de degradar un amplio conjunto de riesgos a los derechos humanos a un estatus opcional envía una señal clara de que este proceso está cediendo ante la presión de intereses corporativos.

Existen evidencias científicas que demuestran que la discriminación es un problema conocido en los modelos de IA, desde estereotipos de género regresivos hasta racismo manifiesto. A menos que se evalúen y mitiguen activamente, la discriminación por parte de los modelos de IA es casi inevitable, ya que está arraigada en los materiales de aprendizaje del propio modelo, debido a los sesgos presentes en los vastos conjuntos de datos de entrenamiento.

Además, es de conocimiento común que el material de abuso sexual infantil (CSAM) está presente en los datos utilizados para entrenar algunos modelos de IA populares, lo que permite que esos modelos reproduzcan contenido dañino a gran escala.

Desafíos de Privacidad

La dependencia de los modelos de IA en contenido scrapeado públicamente, rico en datos personales, plantea desafíos significativos de privacidad. Un creciente número de casos muestra que la retención de datos personales por parte de los modelos puede resultar en información inexacta y difamatoria sobre individuos reales.

Ignorar estos riesgos bien reconocidos puede tener consecuencias reales e inesperadas para la UE.

Conclusión

El borrador del Código de Práctica en su forma actual representa un retroceso debido a su enfoque débil y selectivo hacia las protecciones de derechos humanos. Los redactores del Código de Práctica deben tomar medidas decisivas para asegurar que los desarrolladores de modelos GPAI consideren los riesgos que sus modelos presentan para los derechos humanos.

Si la UE no cumple con la promesa del Reglamento de IA como un modelo de gobernanza global que pone a la humanidad por encima de los intereses corporativos, las repercusiones se sentirán en todo el mundo.

More Insights

La falta de transparencia en la regulación de IA perjudica a Europa

La UE está en riesgo de comprometer principios fundamentales al intentar simplificar las regulaciones para las empresas tecnológicas, confundiendo la transparencia con un obstáculo para la innovación...

El Congreso y los tribunales enfrentan los desafíos legales de la IA

La inteligencia artificial se está convirtiendo rápidamente en una parte integral de la vida cotidiana, lo que intensifica el debate sobre cómo utilizarla de manera adecuada y ética. El Congreso y los...

El Acta de IA de la UE: Desafíos y Oportunidades

La Ley de IA de la UE se convertirá en la primera regulación importante centrada en la inteligencia artificial, con el objetivo de garantizar que los sistemas de IA en Europa sean seguros y justos...

El Acta de IA de la UE: Desafíos y Oportunidades

La Ley de IA de la UE se convertirá en la primera regulación importante centrada en la inteligencia artificial, con el objetivo de garantizar que los sistemas de IA en Europa sean seguros y justos...

Impacto del modelo DeepSeek en la regulación de la IA en la UE

La aparición del modelo de IA chino DeepSeek está llevando a los responsables políticos de la UE a considerar cambios en la Ley de IA de la UE. Se prevé que una actualización de una medida de umbral...

Enfoques para Mitigar los Riesgos de la IA: ¿Suave, Duro o un Punto Intermedio?

El desarrollo de la inteligencia artificial presenta riesgos debido a que las herramientas modernas están desafiando los límites éticos bajo marcos legales existentes. Las diferencias regulatorias...

De Obstáculo a Potenciador: El Papel del Ingeniero de Datos en la IA Responsable

El artículo presenta un nuevo modelo de colaboración donde los equipos de ingeniería de datos pasan de ser constructores únicos a arquitectos de habilitación, empoderando a las unidades de negocio...

Riesgos y responsabilidades en la era de la IA

La inteligencia artificial (IA) está cada vez más presente en los negocios y en la vida social, pero su uso creciente también conlleva riesgos significativos, como sesgos algorítmicos y preocupaciones...