Asegurando una IA Inclusiva: Revisión de Evidencias como Llamado a la Acción Inclusiva en IA
La reciente cumbre de la Acción AI de París concluyó con una “Declaración sobre Inteligencia Artificial Inclusiva y Sostenible para las Personas y el Planeta.” Esta declaración prioriza la reducción de divisiones digitales y la garantía de que la IA sea abierta, inclusiva, transparente, ética, segura y confiable, teniendo en cuenta los marcos internacionales. Estas prioridades han apaciguado a algunos defensores de regulaciones que consideran los impactos sociales de la IA.
En Europa, las primeras reglas del Reglamento de la IA de la UE entraron en vigor el 2 de febrero de 2025, exigiendo que los “proveedores y desplegadores” de IA aseguren que el personal comprenda el contexto en el cual se van a desplegar los sistemas de IA y considere a las personas y grupos sobre los cuales se usarán estos sistemas. Introducir el impacto social como un riesgo de cumplimiento tiene un peso mucho mayor que simplemente decir “deberías preocuparte.” Sin embargo, los marcos actuales de aseguramiento de IA son inadecuados para garantizar una IA inclusiva.
Un análisis de la situación en los Estados Unidos revela que el gobierno federal anunció que busca “opiniones del público” para desarrollar su Plan de Acción de IA. Sin embargo, las menciones explícitas a preocupaciones sociales son notablemente ausentes y el documento está redactado de tal manera que disminuye la preocupación del “público;” en cambio, solicita respuestas de “partes interesadas.” Esto esencialmente es otra consulta pública que no está realmente interesada en incluir voces de un verdadero rango de públicos.
Revisión de evidencias
Las revisiones de evidencias son herramientas de investigación generalmente poco notables, a menudo preliminares para identificar lagunas de investigación y/o refinar objetivos y métodos. La revisión sistemática es considerada la más robusta y es preferida por los tomadores de decisiones: se utilizan palabras clave para identificar publicaciones en bases de datos, las cuales son evaluadas contra criterios, a menudo siguiendo modelos médicos de “estándares de oro” y priorizando muestras representativas o ensayos controlados aleatorios. Se construye una lista de investigaciones de y se sintetizan los hallazgos principales.
El razonamiento detrás de esto es la exclusión: limpiar la muestra de ejemplos fuera de estos estándares, a menudo pequeñas muestras de enfoques participativos publicados en revistas de bajo rango. Esto valida ciertos cuerpos de conocimiento e invalida otros, a menudo marginando aún más las voces de aquellos que ya están marginados. Esto presenta enormes problemas de calidad y aseguramiento para la evidencia que podría ayudar a una IA inclusiva.
Nuestra propuesta
¿Qué pasaría si cooptáramos el método de revisión de evidencias para “revisar” la evidencia de todo el campo de la IA para mejorar nuestra comprensión de los diferentes públicos? ¿Qué pasaría si utilizáramos este conocimiento para habilitar una intervención basada en evidencia en la toma de decisiones, desarrollo y despliegue de IA? Podría este conocimiento expandir el aseguramiento de IA para tomar acción en IA?
Muchas publicaciones académicas tocan las experiencias y sentimientos de las personas sobre la IA. Lo que falta es una comprensión de las diferencias entre estos estudios: ¿quién está investigando a quién, cómo y por qué? De hecho, ¿consideraríamos todas estas publicaciones dentro del mismo “campo” de investigación? Entonces, ¿deberíamos rechazar aquellas de fuera de nuestro campo? ¿O deberíamos incluirlas?
Para que la evidencia informe una IA inclusiva, necesitamos evaluar todos los estudios que preguntan a las personas sobre la IA. Los métodos, marcos y teorías son puntos de controversia en los enfoques de investigación sobre actitudes públicas. Del mismo modo, la política de participación sigue siendo un sitio de contención en este campo. Estos debates pueden ser productivos pero están lejos de ser cohesivos en el trabajo de democracia deliberativa. Lo más importante, no toda esta investigación genera salidas de calidad o evidencia que sea fácilmente útil para informar a los tomadores de decisiones, desarrolladores o desplegadores de IA.
Llamado a la acción: Aseguramiento de IA como inclusión
El aseguramiento de IA es un mecanismo de regulación, habilitando a las organizaciones para “medir si los sistemas son confiables y demostrar esto al gobierno, reguladores y al mercado.” El Reglamento de la IA de la UE exige que los mecanismos de aseguramiento incluyan las diversas voces de aquellos más impactados por un sistema de IA. La evidencia de una próxima encuesta de Voces Públicas en IA sugiere que la mayoría de los expertos en IA quieren que la IA refleje los valores humanos, pero que no consumen ni consultan investigación en ciencias sociales para entender cómo es eso.
A través del proceso de revisión de evidencias, podemos demostrar el valor de las voces públicas para el aseguramiento de IA y presionar por una Acción de IA inclusiva. Propongo lo siguiente:
- Todas las voces, especialmente aquellas más afectadas por los sistemas de IA, deben aparecer en la evidencia que sea fácilmente utilizable por quienes trabajan en tecnología/política de IA.
- Se debe tener especial cuidado para asegurar que las voces no estén mal representadas o ausentes.
- Las medidas de aseguramiento de IA exigen alfabetización en IA entre desarrolladores, desplegadores y tomadores de decisiones que incluya de manera significativa perspectivas de voces públicas diversas.
Revisar evidencias es necesario para la alfabetización en IA para asegurar la inclusión significativa de las perspectivas de las personas y desacreditar aquellas que las malinterpretan. La cumbre de AI en Londres destacó la necesidad de replantear la inclusión como una solución técnica necesaria para sistemas disfuncionales en lugar de un “favor” otorgado a grupos marginados. El Reglamento de IA introduce una dimensión de riesgo legal. Tener evidencia impactante de aseguramiento de calidad e inclusión es nuestra mejor ruta hacia una práctica ética e inclusiva de IA que los tomadores de decisiones, desarrolladores y desplegadores de IA adoptarán.