Derechos Humanos y el Código de Práctica de la IA: Un Llamado a la Acción

Los Derechos Humanos son Universales, No Opcionales

El Reglamento de IA de la UE, que entró en vigor el 1 de agosto de 2024, dio inicio a un proceso de co-regulación que involucra a un grupo de trabajo de cerca de 1,000 interesados de empresas de IA, academia y organizaciones de la sociedad civil. Este grupo de trabajo se encuentra en las etapas finales de redacción del Código de Práctica de IA de Propósito General, que funciona como un manual detallado sobre cómo los desarrolladores de IA pueden cumplir con partes clave del Reglamento de IA.

Los desarrolladores que siguen este manual obtienen una presunción de cumplimiento con el Reglamento, aunque pueden optar por cumplir de otras maneras. Sin embargo, existen preocupaciones acerca de que la versión penúltima del Código de Práctica no protege adecuadamente los derechos humanos.

Clasificación de Riesgos

El Reglamento de IA y, por tanto, el Código, distinguen entre modelos de IA de propósito general y modelos de IA de propósito general con riesgo sistémico. Los modelos en esta última categoría tienen obligaciones adicionales, que incluyen la realización de evaluaciones de riesgo y la mitigación de los riesgos identificados. Una de las funciones clave del Código es especificar los tipos de riesgos que los proveedores de estos modelos deben evaluar.

Desde el primer borrador, el Código incluía un enfoque de dos niveles que distinguía entre categorías de riesgo. Sin embargo, en el borrador actual, la segunda categoría de riesgo pasó de ser «adicional» a «opcional». Esto se resumió en un taller reciente donde se discutió la necesidad de reducir los requisitos para las empresas de IA, con el argumento de que Europa no podía perderse las innovaciones en IA.

Riesgos Opcionales

La lista de riesgos opcionales es sorprendentemente amplia:

  • Riesgos para la salud pública, seguridad o seguridad pública, p.ej., riesgo para sectores críticos; riesgo de accidentes mayores; riesgo para infraestructuras críticas.
  • Riesgos para los derechos fundamentales, p.ej., riesgo para la libertad de expresión; riesgo de no discriminación; riesgo para la privacidad y la protección de datos personales; riesgo de material de abuso sexual infantil (CSAM) y de imágenes íntimas no consensuadas (NCII).
  • Riesgos para la sociedad en su conjunto, p.ej., riesgo para el medio ambiente; riesgo para el bienestar no humano; riesgo para la estabilidad del sistema financiero; riesgo para los procesos democráticos; riesgo de contenido ilegal, violento, odioso, radicalizador o falso.

Discriminación y Riesgos de Privacidad

Notablemente, la discriminación pasó de la lista de riesgos obligatorios a la lista de riesgos opcionales. Actualmente, solo cuatro riesgos requieren evaluación obligatoria bajo el Código: “químico, biológico, radiológico y nuclear (CBRN)”, “ofensa cibernética”, “pérdida de control” y “manipulación dañina”.

El argumento de los redactores parece ser que los riesgos a los derechos humanos no se encuentran entre los principales «riesgos sistémicos» derivados de las «capacidades de alto impacto» de los modelos de IA de propósito general (GPAI). Sin embargo, los riesgos no tienen que estar relacionados únicamente con las capacidades de alto impacto de un modelo, sino que pueden resultar simplemente de la adopción a gran escala de modelos de IA.

Impacto de los Modelos de IA

Además, los impactos de estos riesgos no son teóricos o a largo plazo; ya están ocurriendo en la actualidad. La decisión de degradar un amplio conjunto de riesgos a los derechos humanos a un estatus opcional envía una señal clara de que este proceso está cediendo ante la presión de intereses corporativos.

Existen evidencias científicas que demuestran que la discriminación es un problema conocido en los modelos de IA, desde estereotipos de género regresivos hasta racismo manifiesto. A menos que se evalúen y mitiguen activamente, la discriminación por parte de los modelos de IA es casi inevitable, ya que está arraigada en los materiales de aprendizaje del propio modelo, debido a los sesgos presentes en los vastos conjuntos de datos de entrenamiento.

Además, es de conocimiento común que el material de abuso sexual infantil (CSAM) está presente en los datos utilizados para entrenar algunos modelos de IA populares, lo que permite que esos modelos reproduzcan contenido dañino a gran escala.

Desafíos de Privacidad

La dependencia de los modelos de IA en contenido scrapeado públicamente, rico en datos personales, plantea desafíos significativos de privacidad. Un creciente número de casos muestra que la retención de datos personales por parte de los modelos puede resultar en información inexacta y difamatoria sobre individuos reales.

Ignorar estos riesgos bien reconocidos puede tener consecuencias reales e inesperadas para la UE.

Conclusión

El borrador del Código de Práctica en su forma actual representa un retroceso debido a su enfoque débil y selectivo hacia las protecciones de derechos humanos. Los redactores del Código de Práctica deben tomar medidas decisivas para asegurar que los desarrolladores de modelos GPAI consideren los riesgos que sus modelos presentan para los derechos humanos.

Si la UE no cumple con la promesa del Reglamento de IA como un modelo de gobernanza global que pone a la humanidad por encima de los intereses corporativos, las repercusiones se sentirán en todo el mundo.

More Insights

Gobernanza de IA en Salud: Desafíos y Oportunidades

El paisaje regulatorio de la IA ha experimentado cambios monumentales en los últimos seis meses, con un enfoque creciente en la innovación en lugar de la regulación. Sin embargo, es crucial mantener...

La industria de IA exige un retraso en la ley básica ante regulaciones vagas

Se han planteado preocupaciones en la industria de que los estándares regulatorios ambiguos dentro de la ley básica de IA podrían obstaculizar el crecimiento del sector. Recientemente, Huang Jeong-a...

Cumpliendo con el GDPR y la Ley de IA de la UE en Marketing

Como comercializadores o dueños de negocios, sabemos lo desafiante que puede ser llegar a la audiencia adecuada en el momento oportuno. La conformidad con el GDPR es crucial para garantizar la...

La pirámide de riesgos de la Ley de IA de la UE

Una de las características definitorias de la Ley de IA de la UE es su enfoque basado en el riesgo, donde los sistemas de IA no se tratan por igual. La ley clasifica los sistemas de IA en cuatro...

Empresas de IA afirman que las regulaciones existentes pueden gobernar la IA agentiva

Las empresas de inteligencia artificial están adoptando la IA agentiva, que se considera la próxima evolución de la IA generativa. A medida que la innovación avanza, los desarrolladores de IA...

La UE prohíbe el uso de software de IA en reuniones en línea

La Comisión Europea ha prohibido inesperadamente el uso de asistentes virtuales impulsados por IA durante las reuniones en línea, a pesar de su creciente popularidad. Este movimiento ha suscitado...

Diseñando Confianza en la IA Responsable

El rápido avance de la inteligencia artificial (IA) en la tecnología cotidiana presenta grandes oportunidades, así como desafíos éticos significativos. Los diseñadores de productos están en la...

Interoperabilidad en la Regulación de la IA: Caminos hacia un Futuro Sostenible

A medida que nos encontramos en una encrucijada crítica en el desarrollo de la IA, surge un desafío de gobernanza que podría sofocar la innovación y crear divisiones digitales globales. La actual...