Acción Inclusiva en la IA: Un Llamado a la Reflexión

Asegurando una IA Inclusiva: Revisión de Evidencias como Llamado a la Acción Inclusiva en IA

La reciente cumbre de la Acción AI de París concluyó con una “Declaración sobre Inteligencia Artificial Inclusiva y Sostenible para las Personas y el Planeta.” Esta declaración prioriza la reducción de divisiones digitales y la garantía de que la IA sea abierta, inclusiva, transparente, ética, segura y confiable, teniendo en cuenta los marcos internacionales. Estas prioridades han apaciguado a algunos defensores de regulaciones que consideran los impactos sociales de la IA.

En Europa, las primeras reglas del Reglamento de la IA de la UE entraron en vigor el 2 de febrero de 2025, exigiendo que los “proveedores y desplegadores” de IA aseguren que el personal comprenda el contexto en el cual se van a desplegar los sistemas de IA y considere a las personas y grupos sobre los cuales se usarán estos sistemas. Introducir el impacto social como un riesgo de cumplimiento tiene un peso mucho mayor que simplemente decir “deberías preocuparte.” Sin embargo, los marcos actuales de aseguramiento de IA son inadecuados para garantizar una IA inclusiva.

Un análisis de la situación en los Estados Unidos revela que el gobierno federal anunció que busca “opiniones del público” para desarrollar su Plan de Acción de IA. Sin embargo, las menciones explícitas a preocupaciones sociales son notablemente ausentes y el documento está redactado de tal manera que disminuye la preocupación del “público;” en cambio, solicita respuestas de “partes interesadas.” Esto esencialmente es otra consulta pública que no está realmente interesada en incluir voces de un verdadero rango de públicos.

Revisión de evidencias

Las revisiones de evidencias son herramientas de investigación generalmente poco notables, a menudo preliminares para identificar lagunas de investigación y/o refinar objetivos y métodos. La revisión sistemática es considerada la más robusta y es preferida por los tomadores de decisiones: se utilizan palabras clave para identificar publicaciones en bases de datos, las cuales son evaluadas contra criterios, a menudo siguiendo modelos médicos de “estándares de oro” y priorizando muestras representativas o ensayos controlados aleatorios. Se construye una lista de investigaciones de y se sintetizan los hallazgos principales.

El razonamiento detrás de esto es la exclusión: limpiar la muestra de ejemplos fuera de estos estándares, a menudo pequeñas muestras de enfoques participativos publicados en revistas de bajo rango. Esto valida ciertos cuerpos de conocimiento e invalida otros, a menudo marginando aún más las voces de aquellos que ya están marginados. Esto presenta enormes problemas de calidad y aseguramiento para la evidencia que podría ayudar a una IA inclusiva.

Nuestra propuesta

¿Qué pasaría si cooptáramos el método de revisión de evidencias para “revisar” la evidencia de todo el campo de la IA para mejorar nuestra comprensión de los diferentes públicos? ¿Qué pasaría si utilizáramos este conocimiento para habilitar una intervención basada en evidencia en la toma de decisiones, desarrollo y despliegue de IA? Podría este conocimiento expandir el aseguramiento de IA para tomar acción en IA?

Muchas publicaciones académicas tocan las experiencias y sentimientos de las personas sobre la IA. Lo que falta es una comprensión de las diferencias entre estos estudios: ¿quién está investigando a quién, cómo y por qué? De hecho, ¿consideraríamos todas estas publicaciones dentro del mismo “campo” de investigación? Entonces, ¿deberíamos rechazar aquellas de fuera de nuestro campo? ¿O deberíamos incluirlas?

Para que la evidencia informe una IA inclusiva, necesitamos evaluar todos los estudios que preguntan a las personas sobre la IA. Los métodos, marcos y teorías son puntos de controversia en los enfoques de investigación sobre actitudes públicas. Del mismo modo, la política de participación sigue siendo un sitio de contención en este campo. Estos debates pueden ser productivos pero están lejos de ser cohesivos en el trabajo de democracia deliberativa. Lo más importante, no toda esta investigación genera salidas de calidad o evidencia que sea fácilmente útil para informar a los tomadores de decisiones, desarrolladores o desplegadores de IA.

Llamado a la acción: Aseguramiento de IA como inclusión

El aseguramiento de IA es un mecanismo de regulación, habilitando a las organizaciones para “medir si los sistemas son confiables y demostrar esto al gobierno, reguladores y al mercado.” El Reglamento de la IA de la UE exige que los mecanismos de aseguramiento incluyan las diversas voces de aquellos más impactados por un sistema de IA. La evidencia de una próxima encuesta de Voces Públicas en IA sugiere que la mayoría de los expertos en IA quieren que la IA refleje los valores humanos, pero que no consumen ni consultan investigación en ciencias sociales para entender cómo es eso.

A través del proceso de revisión de evidencias, podemos demostrar el valor de las voces públicas para el aseguramiento de IA y presionar por una Acción de IA inclusiva. Propongo lo siguiente:

  1. Todas las voces, especialmente aquellas más afectadas por los sistemas de IA, deben aparecer en la evidencia que sea fácilmente utilizable por quienes trabajan en tecnología/política de IA.
  2. Se debe tener especial cuidado para asegurar que las voces no estén mal representadas o ausentes.
  3. Las medidas de aseguramiento de IA exigen alfabetización en IA entre desarrolladores, desplegadores y tomadores de decisiones que incluya de manera significativa perspectivas de voces públicas diversas.

Revisar evidencias es necesario para la alfabetización en IA para asegurar la inclusión significativa de las perspectivas de las personas y desacreditar aquellas que las malinterpretan. La cumbre de AI en Londres destacó la necesidad de replantear la inclusión como una solución técnica necesaria para sistemas disfuncionales en lugar de un “favor” otorgado a grupos marginados. El Reglamento de IA introduce una dimensión de riesgo legal. Tener evidencia impactante de aseguramiento de calidad e inclusión es nuestra mejor ruta hacia una práctica ética e inclusiva de IA que los tomadores de decisiones, desarrolladores y desplegadores de IA adoptarán.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...