Derechos Humanos y el Código de Práctica de la IA: Un Llamado a la Acción

Los Derechos Humanos son Universales, No Opcionales

El Reglamento de IA de la UE, que entró en vigor el 1 de agosto de 2024, dio inicio a un proceso de co-regulación que involucra a un grupo de trabajo de cerca de 1,000 interesados de empresas de IA, academia y organizaciones de la sociedad civil. Este grupo de trabajo se encuentra en las etapas finales de redacción del Código de Práctica de IA de Propósito General, que funciona como un manual detallado sobre cómo los desarrolladores de IA pueden cumplir con partes clave del Reglamento de IA.

Los desarrolladores que siguen este manual obtienen una presunción de cumplimiento con el Reglamento, aunque pueden optar por cumplir de otras maneras. Sin embargo, existen preocupaciones acerca de que la versión penúltima del Código de Práctica no protege adecuadamente los derechos humanos.

Clasificación de Riesgos

El Reglamento de IA y, por tanto, el Código, distinguen entre modelos de IA de propósito general y modelos de IA de propósito general con riesgo sistémico. Los modelos en esta última categoría tienen obligaciones adicionales, que incluyen la realización de evaluaciones de riesgo y la mitigación de los riesgos identificados. Una de las funciones clave del Código es especificar los tipos de riesgos que los proveedores de estos modelos deben evaluar.

Desde el primer borrador, el Código incluía un enfoque de dos niveles que distinguía entre categorías de riesgo. Sin embargo, en el borrador actual, la segunda categoría de riesgo pasó de ser «adicional» a «opcional». Esto se resumió en un taller reciente donde se discutió la necesidad de reducir los requisitos para las empresas de IA, con el argumento de que Europa no podía perderse las innovaciones en IA.

Riesgos Opcionales

La lista de riesgos opcionales es sorprendentemente amplia:

  • Riesgos para la salud pública, seguridad o seguridad pública, p.ej., riesgo para sectores críticos; riesgo de accidentes mayores; riesgo para infraestructuras críticas.
  • Riesgos para los derechos fundamentales, p.ej., riesgo para la libertad de expresión; riesgo de no discriminación; riesgo para la privacidad y la protección de datos personales; riesgo de material de abuso sexual infantil (CSAM) y de imágenes íntimas no consensuadas (NCII).
  • Riesgos para la sociedad en su conjunto, p.ej., riesgo para el medio ambiente; riesgo para el bienestar no humano; riesgo para la estabilidad del sistema financiero; riesgo para los procesos democráticos; riesgo de contenido ilegal, violento, odioso, radicalizador o falso.

Discriminación y Riesgos de Privacidad

Notablemente, la discriminación pasó de la lista de riesgos obligatorios a la lista de riesgos opcionales. Actualmente, solo cuatro riesgos requieren evaluación obligatoria bajo el Código: “químico, biológico, radiológico y nuclear (CBRN)”, “ofensa cibernética”, “pérdida de control” y “manipulación dañina”.

El argumento de los redactores parece ser que los riesgos a los derechos humanos no se encuentran entre los principales «riesgos sistémicos» derivados de las «capacidades de alto impacto» de los modelos de IA de propósito general (GPAI). Sin embargo, los riesgos no tienen que estar relacionados únicamente con las capacidades de alto impacto de un modelo, sino que pueden resultar simplemente de la adopción a gran escala de modelos de IA.

Impacto de los Modelos de IA

Además, los impactos de estos riesgos no son teóricos o a largo plazo; ya están ocurriendo en la actualidad. La decisión de degradar un amplio conjunto de riesgos a los derechos humanos a un estatus opcional envía una señal clara de que este proceso está cediendo ante la presión de intereses corporativos.

Existen evidencias científicas que demuestran que la discriminación es un problema conocido en los modelos de IA, desde estereotipos de género regresivos hasta racismo manifiesto. A menos que se evalúen y mitiguen activamente, la discriminación por parte de los modelos de IA es casi inevitable, ya que está arraigada en los materiales de aprendizaje del propio modelo, debido a los sesgos presentes en los vastos conjuntos de datos de entrenamiento.

Además, es de conocimiento común que el material de abuso sexual infantil (CSAM) está presente en los datos utilizados para entrenar algunos modelos de IA populares, lo que permite que esos modelos reproduzcan contenido dañino a gran escala.

Desafíos de Privacidad

La dependencia de los modelos de IA en contenido scrapeado públicamente, rico en datos personales, plantea desafíos significativos de privacidad. Un creciente número de casos muestra que la retención de datos personales por parte de los modelos puede resultar en información inexacta y difamatoria sobre individuos reales.

Ignorar estos riesgos bien reconocidos puede tener consecuencias reales e inesperadas para la UE.

Conclusión

El borrador del Código de Práctica en su forma actual representa un retroceso debido a su enfoque débil y selectivo hacia las protecciones de derechos humanos. Los redactores del Código de Práctica deben tomar medidas decisivas para asegurar que los desarrolladores de modelos GPAI consideren los riesgos que sus modelos presentan para los derechos humanos.

Si la UE no cumple con la promesa del Reglamento de IA como un modelo de gobernanza global que pone a la humanidad por encima de los intereses corporativos, las repercusiones se sentirán en todo el mundo.

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...