Construyendo Responsabilidad en la Inteligencia Artificial

Cómo Construir Responsabilidad en su IA

Cuando se trata de gestionar la inteligencia artificial, no hay escasez de principios y conceptos que apoyan el uso justo y responsable. Sin embargo, las organizaciones y sus líderes a menudo se encuentran confundidos ante preguntas difíciles sobre cómo gestionar y desplegar responsablemente los sistemas de IA en la actualidad.

Por esta razón, se ha desarrollado un marco que busca asegurar la responsabilidad y el uso responsable de los sistemas de IA en el gobierno federal. Este marco define las condiciones básicas para la responsabilidad a lo largo del ciclo de vida de la IA, desde el diseño y desarrollo hasta el despliegue y monitoreo.

Entender el Ciclo de Vida Completo de la IA

Frecuentemente, las preguntas de supervisión se plantean sobre un sistema de IA después de que ha sido construido y ya está en funcionamiento. Sin embargo, esto no es suficiente: las evaluaciones de un sistema de IA deberían ocurrir en cada etapa de su ciclo de vida. Esto ayudará a identificar problemas sistémicos que pueden ser pasados por alto durante evaluaciones “puntuales” definidas de manera estrecha.

Las etapas importantes del ciclo de vida de un sistema de IA incluyen:

  • Diseño: articular los objetivos y metas del sistema, incluyendo suposiciones subyacentes y requisitos de rendimiento generales.
  • Desarrollo: definir requisitos técnicos, recopilar y procesar datos, construir el modelo y validar el sistema.
  • Despliegue: pilotar, comprobar la compatibilidad con otros sistemas, asegurar el cumplimiento regulatorio y evaluar la experiencia del usuario.
  • Monitoreo: evaluar continuamente los resultados e impactos del sistema (tanto intencionados como no intencionados), refinar el modelo y tomar decisiones sobre la expansión o el retiro del sistema.

Incluir a Toda la Comunidad de Interesados

En todas las etapas del ciclo de vida de la IA, es importante reunir al conjunto adecuado de interesados. Algunos expertos son necesarios para proporcionar información sobre el rendimiento técnico de un sistema. Estos interesados técnicos pueden incluir científicos de datos, desarrolladores de software, especialistas en ciberseguridad y ingenieros.

Sin embargo, la comunidad completa de interesados va más allá de los expertos técnicos. También son necesarios interesados que puedan abordar el impacto social de la implementación de un sistema de IA. Esto incluye a expertos en políticas y legales, expertos en la materia, usuarios del sistema y, lo que es más importante, individuos afectados por el sistema de IA.

Todos los interesados desempeñan un papel esencial en la identificación, evaluación y mitigación de preocupaciones éticas, legales, económicas o sociales relacionadas con el sistema de IA. La entrada de un amplio rango de interesados —tanto técnicos como no técnicos— es un paso clave para ayudar a protegerse contra consecuencias no deseadas o sesgos en un sistema de IA.

Cuatro Dimensiones de la Responsabilidad de la IA

A medida que las organizaciones, líderes y evaluadores externos se enfocan en la responsabilidad a lo largo de todo el ciclo de vida de los sistemas de IA, hay cuatro dimensiones a considerar: gobernanza, datos, rendimiento y monitoreo. Dentro de cada área, hay acciones importantes a tomar y aspectos a observar.

  • Evaluar las estructuras de gobernanza: Un ecosistema saludable para gestionar la IA debe incluir procesos y estructuras de gobernanza. La gobernanza apropiada de la IA puede ayudar a gestionar riesgos, demostrar valores éticos y asegurar el cumplimiento.
  • Entender los datos: Los datos son el corazón de muchos sistemas de IA. Es crucial tener documentación sobre cómo se utilizan los datos en las diferentes etapas del sistema.
  • Definir objetivos y métricas de rendimiento: Después de que un sistema de IA ha sido desarrollado y desplegado, es importante no perder de vista las preguntas fundamentales sobre su propósito y su efectividad.
  • Revisar los planes de monitoreo: La IA no debe ser considerada un sistema “que se establece y se olvida”. Es esencial realizar un monitoreo continuo del rendimiento.

Pensar como un Auditor

El marco se basa en estándares existentes de auditoría gubernamental y control interno. Esto permite que sus prácticas de auditoría y preguntas sean utilizadas por los recursos de responsabilidad y supervisión que las organizaciones ya tienen a su disposición. El marco está redactado en un lenguaje claro para que los usuarios no técnicos puedan aplicar sus principios y prácticas al interactuar con equipos técnicos.

Cuando se trata de construir responsabilidad en la IA, no está de más pensar como un auditor.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...