Acción Inclusiva en la IA: Un Llamado a la Reflexión

Asegurando una IA Inclusiva: Revisión de Evidencias como Llamado a la Acción Inclusiva en IA

La reciente cumbre de la Acción AI de París concluyó con una “Declaración sobre Inteligencia Artificial Inclusiva y Sostenible para las Personas y el Planeta.” Esta declaración prioriza la reducción de divisiones digitales y la garantía de que la IA sea abierta, inclusiva, transparente, ética, segura y confiable, teniendo en cuenta los marcos internacionales. Estas prioridades han apaciguado a algunos defensores de regulaciones que consideran los impactos sociales de la IA.

En Europa, las primeras reglas del Reglamento de la IA de la UE entraron en vigor el 2 de febrero de 2025, exigiendo que los “proveedores y desplegadores” de IA aseguren que el personal comprenda el contexto en el cual se van a desplegar los sistemas de IA y considere a las personas y grupos sobre los cuales se usarán estos sistemas. Introducir el impacto social como un riesgo de cumplimiento tiene un peso mucho mayor que simplemente decir “deberías preocuparte.” Sin embargo, los marcos actuales de aseguramiento de IA son inadecuados para garantizar una IA inclusiva.

Un análisis de la situación en los Estados Unidos revela que el gobierno federal anunció que busca “opiniones del público” para desarrollar su Plan de Acción de IA. Sin embargo, las menciones explícitas a preocupaciones sociales son notablemente ausentes y el documento está redactado de tal manera que disminuye la preocupación del “público;” en cambio, solicita respuestas de “partes interesadas.” Esto esencialmente es otra consulta pública que no está realmente interesada en incluir voces de un verdadero rango de públicos.

Revisión de evidencias

Las revisiones de evidencias son herramientas de investigación generalmente poco notables, a menudo preliminares para identificar lagunas de investigación y/o refinar objetivos y métodos. La revisión sistemática es considerada la más robusta y es preferida por los tomadores de decisiones: se utilizan palabras clave para identificar publicaciones en bases de datos, las cuales son evaluadas contra criterios, a menudo siguiendo modelos médicos de “estándares de oro” y priorizando muestras representativas o ensayos controlados aleatorios. Se construye una lista de investigaciones de y se sintetizan los hallazgos principales.

El razonamiento detrás de esto es la exclusión: limpiar la muestra de ejemplos fuera de estos estándares, a menudo pequeñas muestras de enfoques participativos publicados en revistas de bajo rango. Esto valida ciertos cuerpos de conocimiento e invalida otros, a menudo marginando aún más las voces de aquellos que ya están marginados. Esto presenta enormes problemas de calidad y aseguramiento para la evidencia que podría ayudar a una IA inclusiva.

Nuestra propuesta

¿Qué pasaría si cooptáramos el método de revisión de evidencias para “revisar” la evidencia de todo el campo de la IA para mejorar nuestra comprensión de los diferentes públicos? ¿Qué pasaría si utilizáramos este conocimiento para habilitar una intervención basada en evidencia en la toma de decisiones, desarrollo y despliegue de IA? Podría este conocimiento expandir el aseguramiento de IA para tomar acción en IA?

Muchas publicaciones académicas tocan las experiencias y sentimientos de las personas sobre la IA. Lo que falta es una comprensión de las diferencias entre estos estudios: ¿quién está investigando a quién, cómo y por qué? De hecho, ¿consideraríamos todas estas publicaciones dentro del mismo “campo” de investigación? Entonces, ¿deberíamos rechazar aquellas de fuera de nuestro campo? ¿O deberíamos incluirlas?

Para que la evidencia informe una IA inclusiva, necesitamos evaluar todos los estudios que preguntan a las personas sobre la IA. Los métodos, marcos y teorías son puntos de controversia en los enfoques de investigación sobre actitudes públicas. Del mismo modo, la política de participación sigue siendo un sitio de contención en este campo. Estos debates pueden ser productivos pero están lejos de ser cohesivos en el trabajo de democracia deliberativa. Lo más importante, no toda esta investigación genera salidas de calidad o evidencia que sea fácilmente útil para informar a los tomadores de decisiones, desarrolladores o desplegadores de IA.

Llamado a la acción: Aseguramiento de IA como inclusión

El aseguramiento de IA es un mecanismo de regulación, habilitando a las organizaciones para “medir si los sistemas son confiables y demostrar esto al gobierno, reguladores y al mercado.” El Reglamento de la IA de la UE exige que los mecanismos de aseguramiento incluyan las diversas voces de aquellos más impactados por un sistema de IA. La evidencia de una próxima encuesta de Voces Públicas en IA sugiere que la mayoría de los expertos en IA quieren que la IA refleje los valores humanos, pero que no consumen ni consultan investigación en ciencias sociales para entender cómo es eso.

A través del proceso de revisión de evidencias, podemos demostrar el valor de las voces públicas para el aseguramiento de IA y presionar por una Acción de IA inclusiva. Propongo lo siguiente:

  1. Todas las voces, especialmente aquellas más afectadas por los sistemas de IA, deben aparecer en la evidencia que sea fácilmente utilizable por quienes trabajan en tecnología/política de IA.
  2. Se debe tener especial cuidado para asegurar que las voces no estén mal representadas o ausentes.
  3. Las medidas de aseguramiento de IA exigen alfabetización en IA entre desarrolladores, desplegadores y tomadores de decisiones que incluya de manera significativa perspectivas de voces públicas diversas.

Revisar evidencias es necesario para la alfabetización en IA para asegurar la inclusión significativa de las perspectivas de las personas y desacreditar aquellas que las malinterpretan. La cumbre de AI en Londres destacó la necesidad de replantear la inclusión como una solución técnica necesaria para sistemas disfuncionales en lugar de un “favor” otorgado a grupos marginados. El Reglamento de IA introduce una dimensión de riesgo legal. Tener evidencia impactante de aseguramiento de calidad e inclusión es nuestra mejor ruta hacia una práctica ética e inclusiva de IA que los tomadores de decisiones, desarrolladores y desplegadores de IA adoptarán.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...