Acción Inclusiva en la IA: Un Llamado a la Reflexión

Asegurando una IA Inclusiva: Revisión de Evidencias como Llamado a la Acción Inclusiva en IA

La reciente cumbre de la Acción AI de París concluyó con una “Declaración sobre Inteligencia Artificial Inclusiva y Sostenible para las Personas y el Planeta.” Esta declaración prioriza la reducción de divisiones digitales y la garantía de que la IA sea abierta, inclusiva, transparente, ética, segura y confiable, teniendo en cuenta los marcos internacionales. Estas prioridades han apaciguado a algunos defensores de regulaciones que consideran los impactos sociales de la IA.

En Europa, las primeras reglas del Reglamento de la IA de la UE entraron en vigor el 2 de febrero de 2025, exigiendo que los “proveedores y desplegadores” de IA aseguren que el personal comprenda el contexto en el cual se van a desplegar los sistemas de IA y considere a las personas y grupos sobre los cuales se usarán estos sistemas. Introducir el impacto social como un riesgo de cumplimiento tiene un peso mucho mayor que simplemente decir “deberías preocuparte.” Sin embargo, los marcos actuales de aseguramiento de IA son inadecuados para garantizar una IA inclusiva.

Un análisis de la situación en los Estados Unidos revela que el gobierno federal anunció que busca “opiniones del público” para desarrollar su Plan de Acción de IA. Sin embargo, las menciones explícitas a preocupaciones sociales son notablemente ausentes y el documento está redactado de tal manera que disminuye la preocupación del “público;” en cambio, solicita respuestas de “partes interesadas.” Esto esencialmente es otra consulta pública que no está realmente interesada en incluir voces de un verdadero rango de públicos.

Revisión de evidencias

Las revisiones de evidencias son herramientas de investigación generalmente poco notables, a menudo preliminares para identificar lagunas de investigación y/o refinar objetivos y métodos. La revisión sistemática es considerada la más robusta y es preferida por los tomadores de decisiones: se utilizan palabras clave para identificar publicaciones en bases de datos, las cuales son evaluadas contra criterios, a menudo siguiendo modelos médicos de “estándares de oro” y priorizando muestras representativas o ensayos controlados aleatorios. Se construye una lista de investigaciones de y se sintetizan los hallazgos principales.

El razonamiento detrás de esto es la exclusión: limpiar la muestra de ejemplos fuera de estos estándares, a menudo pequeñas muestras de enfoques participativos publicados en revistas de bajo rango. Esto valida ciertos cuerpos de conocimiento e invalida otros, a menudo marginando aún más las voces de aquellos que ya están marginados. Esto presenta enormes problemas de calidad y aseguramiento para la evidencia que podría ayudar a una IA inclusiva.

Nuestra propuesta

¿Qué pasaría si cooptáramos el método de revisión de evidencias para “revisar” la evidencia de todo el campo de la IA para mejorar nuestra comprensión de los diferentes públicos? ¿Qué pasaría si utilizáramos este conocimiento para habilitar una intervención basada en evidencia en la toma de decisiones, desarrollo y despliegue de IA? Podría este conocimiento expandir el aseguramiento de IA para tomar acción en IA?

Muchas publicaciones académicas tocan las experiencias y sentimientos de las personas sobre la IA. Lo que falta es una comprensión de las diferencias entre estos estudios: ¿quién está investigando a quién, cómo y por qué? De hecho, ¿consideraríamos todas estas publicaciones dentro del mismo “campo” de investigación? Entonces, ¿deberíamos rechazar aquellas de fuera de nuestro campo? ¿O deberíamos incluirlas?

Para que la evidencia informe una IA inclusiva, necesitamos evaluar todos los estudios que preguntan a las personas sobre la IA. Los métodos, marcos y teorías son puntos de controversia en los enfoques de investigación sobre actitudes públicas. Del mismo modo, la política de participación sigue siendo un sitio de contención en este campo. Estos debates pueden ser productivos pero están lejos de ser cohesivos en el trabajo de democracia deliberativa. Lo más importante, no toda esta investigación genera salidas de calidad o evidencia que sea fácilmente útil para informar a los tomadores de decisiones, desarrolladores o desplegadores de IA.

Llamado a la acción: Aseguramiento de IA como inclusión

El aseguramiento de IA es un mecanismo de regulación, habilitando a las organizaciones para “medir si los sistemas son confiables y demostrar esto al gobierno, reguladores y al mercado.” El Reglamento de la IA de la UE exige que los mecanismos de aseguramiento incluyan las diversas voces de aquellos más impactados por un sistema de IA. La evidencia de una próxima encuesta de Voces Públicas en IA sugiere que la mayoría de los expertos en IA quieren que la IA refleje los valores humanos, pero que no consumen ni consultan investigación en ciencias sociales para entender cómo es eso.

A través del proceso de revisión de evidencias, podemos demostrar el valor de las voces públicas para el aseguramiento de IA y presionar por una Acción de IA inclusiva. Propongo lo siguiente:

  1. Todas las voces, especialmente aquellas más afectadas por los sistemas de IA, deben aparecer en la evidencia que sea fácilmente utilizable por quienes trabajan en tecnología/política de IA.
  2. Se debe tener especial cuidado para asegurar que las voces no estén mal representadas o ausentes.
  3. Las medidas de aseguramiento de IA exigen alfabetización en IA entre desarrolladores, desplegadores y tomadores de decisiones que incluya de manera significativa perspectivas de voces públicas diversas.

Revisar evidencias es necesario para la alfabetización en IA para asegurar la inclusión significativa de las perspectivas de las personas y desacreditar aquellas que las malinterpretan. La cumbre de AI en Londres destacó la necesidad de replantear la inclusión como una solución técnica necesaria para sistemas disfuncionales en lugar de un “favor” otorgado a grupos marginados. El Reglamento de IA introduce una dimensión de riesgo legal. Tener evidencia impactante de aseguramiento de calidad e inclusión es nuestra mejor ruta hacia una práctica ética e inclusiva de IA que los tomadores de decisiones, desarrolladores y desplegadores de IA adoptarán.

More Insights

Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

La inteligencia artificial (IA) está teniendo un amplio efecto en las líneas de negocio, incluida la ciberseguridad, con un estudio que muestra que el 63% de los profesionales de ciberseguridad creen...

Gobierno británico en la mira por la implementación de reconocimiento facial sin regulación

El gobierno del Reino Unido ha sido criticado por la implementación de tecnología de reconocimiento facial sin un marco legal adecuado. El Instituto Ada Lovelace ha expresado preocupaciones sobre el...

El Auge de Startups de Gobernanza en la Era de la IA

A medida que la explosión de la inteligencia artificial avanza, las soluciones de gobernanza están en gran demanda. La industria global de gobernanza de IA se valoró en 890 millones de dólares el año...

Perspectivas sobre la Moratoria de 10 Años en las Leyes Estatales de IA en EE. UU.

La Cámara de Representantes de EE. UU. aprobó un paquete de presupuesto que incluye una moratoria de 10 años sobre la aplicación de leyes estatales de inteligencia artificial. Tech Policy Press busca...

El Futuro de la IA en los Tribunales: Lecciones de 500 Casos

A través del mundo, la regulación de la inteligencia artificial (IA) es desigual, con algunas jurisdicciones que ya cuentan con regulaciones integrales y otras que solo se centran en reglas...

Estrategias Efectivas para Mitigar los Riesgos de la IA Responsable

La inteligencia artificial responsable se está transformando de una impresionante palabra de moda en una necesidad crítica para los negocios, especialmente en la región de Asia-Pacífico. A pesar de...

La necesidad urgente de gobernanza legal en la IA

En esta entrevista de Help Net Security, Brooke Johnson, Asesor Legal Principal de Ivanti, explora las responsabilidades legales en la gobernanza de la IA, destacando cómo la colaboración...

Reformando las Regulaciones de IA

La Cámara de Representantes aprobó recientemente un importante proyecto de ley que impide a los estados regular modelos de inteligencia artificial durante diez años. Esto preocupa a algunos...